Η νέα «μάχη των chatbots» που έχει ξεσπάσει μεταξύ των κολοσσών του διαδικτύου (Microsoft και Google) για τις μηχανές αναζήτησης της νέας εποχής, έχει αναζωπυρώσει τις συζητήσεις για την τεχνητή νοημοσύνη (AI). Κάποιοι εστιάζουν στις ατέλειωτες δυνατότητες που παρέχει και άλλοι στους επίσης μεγάλους κινδύνους που γεννά.
Μεταξύ άλλων ακούγονται και πολλές υπερβολές που προκαλούν σύγχυση. Ο Guardian παρουσιάζει σε άρθρο – ανάλυσή του τα «βασικά» για την τεχνητή νοημοσύνη:
Τι είναι η τεχνητή νοημοσύνη;
Ο όρος είναι σχεδόν τόσο παλιός όσο και οι ίδιοι οι ηλεκτρονικοί υπολογιστές. Επινοήθηκε το 1955 από μια ομάδα ειδικών μεταξύ των οποίων και του επιστήμονα θρύλου των ηλεκτρονικών υπολογιστών, Μάρβιν Μίνσκι. Σε κάποιο βαθμό η τεχνητή νοημοσύνη βρίσκεται ήδη στην καθημερινότητά της, ίσως με τέτοιο τρόπο που δεν γίνεται αντιληπτός. Για παράδειγμα τα ειδικά εφέ σε ορισμένες ταινίες και οι εικονικοί βοηθοί, όπως η Alexa της Amazon, χρησιμοποιούν απλές μορφές τεχνητής νοημοσύνης.
Αλλά στην τρέχουσα συζήτηση η τεχνητή νοημοσύνη έχει καταλήξει να σημαίνει κάτι άλλο. Θα μπορούσαμε να πούμε ότι συνοψίζεται στο εξής: Οι περισσότεροι υπολογιστές της παλιάς σχολής κάνουν αυτό που τους λέμε. Ακολουθούν τις οδηγίες που τους δίνονται από σε μια μορφή κώδικα. Αλλά αν θέλουμε οι υπολογιστές να επιλύσουν πιο σύνθετες εργασίες θα πρέπει να κάνουν πολλά περισσότερα από αυτά. Προσπαθούμε λοιπόν να τους εκπαιδεύσουν ώστε να μάθουν τον τρόπο με τον οποίο θα αναπαράγουν τον ανθρώπινο τρόπο σκέψης, την ανθρώπινη συμπεριφορά.
Οι υπολογιστές δεν μπορούν να διδαχθούν να σκέφτονται μόνοι τους, αλλά μπορούν να διδαχθούν να αναλύουν πληροφορίες και να αντλούν συμπεράσματα από μοτίβα μέσα σε σύνολα δεδομένων. Και όσα περισσότερα τους δίνουμε – τα συστήματα υπολογιστών μπορούν να ανταπεξέλθουν σε πραγματικά τεράστια μεγέθη πληροφοριών – τόσο καλύτερα θα προσεγγίζουν τον στόχο.
Οι πιο επιτυχημένες εκδόσεις «εκμάθησης» υπολογιστών τα τελευταία χρόνια χρησιμοποιούν ένα σύστημα που είναι γνωστό ως «νευρωνικό δίκτυο», το οποίο απλουστευμένα προσπαθεί να αναπαράγει τον τρόπο με τον οποίο πιστεύουμε ότι λειτουργεί ο εγκέφαλος.
Χωρίς να υπάρχει ένας αυστηρός ορισμός της φράσης, σχεδόν οτιδήποτε πιο περίπλοκο από μια αριθμομηχανή ονομάζεται από τον οποιοδήποτε τεχνητή νοημοσύνη. Η πραγματικότητα είναι πως δεν υπάρχει μια εύκολη κατηγοριοποίηση της τεχνητής νοημοσύνης και το πεδίο αναπτύσσεται τόσο γρήγορα που ακόμη και στην αιχμή της, νέες προσεγγίσεις αποκαλύπτονται κάθε μήνα. Οι πιο διαδεδομένες κατηγορίες είναι οι παρακάτω:
Ενισχυτική εκμάθηση: Ενδεχομένως να πρόκειται για την πιο βασική μορφή εκπαίδευσης ενός υπολογιστική που υπάρχει. Η ενισχυτική εκμάθηση περιλαμβάνει την ανατροφοδότηση του συστήματος με πληροφορίες κάθε στιγμή που εκτελεί μια εργασία, ώστε να μαθαίνει να ολοκληρώνει την εργασία σωστά. Πρόκειται για μια αργή και δαπανηρή διαδικασία, αλλά για συστήματα που αλληλεπιδρούν με τον πραγματικό κόσμο μάλλον δεν υπάρχει καλύτερος τρόπος.
Μοντέλα μεγάλης γλώσσας (Large language models): Αποτελούν ένα από τα λεγόμενα νευρωνικά δίκτυα. Τα εν λόγω μοντέλα εκπαιδεύονται τροφοδοτούμενα από δισεκατομμύρια λέξεις, συγκεντρωμένες από πηγές που μπορούν να είναι βιβλία μέχρι Tweets. Τα LLM χρησιμοποιούν όλο αυτό το υλικό για να προβλέψουν λέξεις και προτάσεις σε ορισμένες ακολουθίες.
Δημιουργικά Ανταγωνιστικά Δίκτυα (GAN): Πρόκειται για έναν συνδυασμό δύο νευρωνικών δικτύων ώστε να δημιουργηθεί κάτι νέο. Τα συγκεκριμένα δίκτυα χρησιμοποιούνται για παράδειγμα στη μουσική, την εικαστική τέχνη ή τη δημιουργία ταινιών. Το ένα δίκτυο αναλαμβάνει το ρόλο του δημιουργού και το δεύτερο αναλαμβάνει το ρόλο να εγκρίνει όσα δημιουργεί το πρώτο.
Τι είναι το chatbot;
Ένα chatbot βασίζεται στα μοντέλα μεγάλων γλωσσών. Εκπαιδεύεται λαμβάνοντας ένα τεράστιο όγκο πληροφοριών που συλλέγονται από το Διαδίκτυο. Ακολούθως μπορεί να απαντά σε μια ερώτηση σε μορφή προφορικής συνομιλίας. Το πιο γνωστό chatbot είναι το ChatGPT, που αναπτύχθηκε από την openAI, μια εταιρεία που χρηματοδοτείται από τη Microsoft. Ξεκίνησε ως απλός ιστότοπος τον Νοέμβριο του 2022 και έκανε γρήγορα αίσθηση προσεγγίζοντας περισσότερους από 100 εκατομμύρια χρήστες μέσα σε δύο μήνες. Το Chatbot δίνει εύλογες – αν και μερικές φορές ανακριβείς – απαντήσεις σε διάφορες ερωτήσεις χρηστών. Μπορεί επίσης να γράψει ποιήματα, να συνοψίσει μεγάλα κείμενα και να συγγράψει ακόμη και δοκίμια.
Η τελευταία γενιά chatbots, όπως το ChatGPT, βασίζεται σε ένα αστρονομικό μέγεθος πληροφοριών – σχεδόν ολόκληρο το συγγραφικό έργο της ανθρωπότητας ή τελοσπάντων όσο μεγαλύτερο μπορούν να εξασφαλίσουν οι ιδιοκτήτες τους. Αυτά τα συστήματα στη συνέχεια προσπαθούν να απαντήσουν με έναν φαινομενικά απλό τρόπο: Με δεδομένο ένα κομμάτι κειμένου τί ακολουθεί; Για παράδειγμα αν η αρχή του κειμένου είναι «να ζει κανείς ή να μη ζει» είναι πολύ πιθανό η απάντηση να είναι «ιδού η απορία». Ή αν το πρώτο μέρος αναφέρει «το ψηλότερο βουνό του κόσμου είναι…» οι επόμενες λέξεις κατά πάσα πιθανότητα είναι «το Έβερεστ». Όμως η τεχνητή νοημοσύνη μπορεί να γίνει και πιο δημιουργική: Εάν η είσοδος είναι μια αόριστη παράγραφος ντικενσιανής πεζογραφίας, όπως αναφέρει ο Guardian, τότε το chatbot θα συνεχίσει με τον ίδιο τρόπο γράφοντας ένα δικό του διήγημα.
Γιατί τα chatbots κάνουν λάθη;
Τα μοντέλα μεγάλης γλώσσας δεν κατανοούν τα πράγματα με τη συμβατική έννοια και είναι τόσο καλά ή τόσο ακριβή όσο καλές και ακριβείς είναι οι πληροφορίες που τους παρέχονται. Πρόκειται δηλαδή για μηχανές αντιστοίχισης μοτίβων. Το εάν η συνέχιση της πρότασης που τους δίνεται είναι «αληθής» ή όχι δεν είναι το ζητούμενο. Αρκεί να ταιριάζει με το μοτίβο. Για παράδειγμα εάν ζητήσετε από ένα chatbot να παρουσιάσει τη βιογραφία ενός όχι και τόσο δημοφιλούς ατόμου τότε μπορεί αρχικά να έχει κάποια σωστά στοιχεία, αλλά στη συνέχεια θα αρχίσει να εφευρίσκει πληροφορίες που φαίνεται απλώς να ταιριάζουν στη βιογραφία που ζητήθηκε και ενδεχομένως να είναι λάθος. Είναι χαρακτηριστικό πως το Bard, βασικός ανταγωνιστής της Google, είχε ένα ντροπιαστικό ντεμπούτο, καθώς κατά τη διάρκεια επίδειξης έδωσε μια λάθος απάντηση σχετικά με το διαστημικό τηλεσκόπιο James Webb.
Τι είναι τα deepfakes;
Τα deepfakes είναι ένας όρος που χρησιμοποιείται για τη δημιουργία ψεύτικων βίντεο ή ηχητικών ντοκουμέντων, κυρίως με πρωταγωνιστές διάσημα πρόσωπα, από την τεχνητή νοημοσύνη. Υπάρχουν ορισμένα αξιοσημείωτα παραδείγματα, όπως σημειώνει ο Guardian, αναφέροντας το ψεύτικο βίντεο με τον Βολοντίμιρ Ζελένσκι να καλεί τους στρατιώτες της Ουκρανίας να καταθέσουν τα όπλα. Συχνά διασημότητες του Χόλιγουντ ή του αθλητισμού έχουν εμφανιστεί σε deepfakes βίντεο. Μάλιστα το ITV δημιούργησε ένα ολόκληρο τηλεοπτικό πρόγραμμα με προβολή ψεύτικων βίντεο.
Στον κόσμο του ηχητικών deepfakes, μια startup εταιρεία, η ElevenLabs, έχει παραδεχτεί πως το πρόγραμμα δημιουργίας φωνής έχει χρησιμοποιηθεί για «υποθέσεις κακής χρήσης κλωνοποίησης φωνής». Ακολούθησαν οι αναφορές για χρήση του προγράμματος σε απάτες με ηχητικά της Έμα Γουάτσον, του Τζο Ρίγκαν και άλλων διασημοτήτων.
Ειδικοί φοβούνται πως η νέα τεχνολογία, που σταδιακά γίνεται όλο και περισσότερο διαθέσιμη, θα μπορούσε να προκαλέσει ένα νέο μεγάλο κύμα παραπληροφόρησης και απάτης. «Υποψιάζομαι πως σύντομα θα υπάρξει ένας κατακλυσμός από deepfake βίντεο, εικόνων και ήχου και δυστυχώς πολλά από αυτά θα χρησιμοποιηθούν πιθανόν για οικονομικές απάτες», εκτιμά ο Νόα Τζιανσιρακούσα, επίκουρος καθηγητής μαθηματικών επιστημών στο Πανεπιστήμιο Μπέντλεϊ στις ΗΠΑ.
Μπορεί η τεχνητή νοημοσύνη να αποτελέσει απειλή για την ανθρώπινη ζωή και την κοινωνική σταθερότητα;
Οι δυστοπικοί φόβοι για την ανάπτυξη της τεχνητής νοημοσύνης για μεγάλο μέρος της κοινωνίας αντικατοπτρίζονται συνήθως με εικόνες από τον «Εξολοθρευτή» και άλλα αντίστοιχα άτρωτα ρομπότ, ενώ ο Μπιλ Γκέιτς έχει εκφράσει επίσης ανησυχίες για τον ρόλο της τεχνητής νοημοσύνης στα οπλικά συστηματα. Τo Future of Life Institute, οργανισμός που ερευνά υπαρξιακές απειλές για την ανθρωπότητα, έχει προειδοποιήσει για το ενδεχόμενο σμηνών δολοφονικών drones που λειτουργούν με τεχνητή νοημοσύνη.
Εκφράζονται επίσης ανησυχίες για πιθανές δυσλειτουργίες της τεχνητής νοημοσύνης που θα μπορούσαν να οδηγήσουν σε απρόβλεπτες κρίσεις, όπως για παράδειγμα στις χρηματοοικονομικές συναλλαγές.
Ως αποτέλεσμα αυτών των φόβων υπάρχουν εκκλήσεις για ένα ρυθμιστικό πλαίσιο σχετικά με τη χρήση και τη λειτουργία της τεχνητής νοημοσύνης. «Όπως οι χημικοί μίλησαν για τα χημικά όπλα και οι βιολόγοι για τα βιολογικά όπλα, ελπίζω οι κυβερνήσεις να αρχίσουν να μιλούν και με τους επιστήμονες τεχνητής νοημοσύνης. Είναι μάλλον αδύνατο να το σταματήσεις εντελώς, αλλά θα πρέπει να υπάρξουν μέτρα, ώστε να μειωθούν ή να ελαχιστοποιηθούν οι πιο κακόβουλες χρήσεις», δήλωσε στον Guardian ο Κάι Φου Λι, πρώην πρόεδρος της Google στην Κίνα και ειδικός στην τεχνητή νοημοσύνη.
Θα κλέψει τις δουλειές η τεχνητή νοημοσύνη;
Βραχυπρόθεσμα ορισμένοι ειδικοί πιστεύουν πως η τεχνητή νοημοσύνη θα βελτιώσει τις θέσεις εργασίας, αντί να τις καταργήσει, αν και ήδη υπάρχουν προφανείς επιπτώσεις στην αγορά εργασίας. Προς το παρόν, ο αντίκτυπος από τη χρήση τεχνητής νοημοσύνης είναι σταδιακός αν και είναι σαφές πως οι θέσεις εργασίας θα επηρεαστούν στο μέλλον. «Η τεχνητή νοημοσύνη σίγουρα θα πάρει κάποιες θέσεις εργασίας με τον ίδιο ακριβώς τρόπο που το έκανε η ρομποτική στα εργοστάσια στα τέλη της δεκαετίας του 1970», σημειώνει ο Μάικλ Γουλντριτζ, καθηγητής της επιστήμης των υπολογιστών στο Πανεπιστήμιο της Οξφόρδης. «Ωστόσο για τους περισσότερους ανθρώπους εκτιμώ πως η τεχνητή νοημοσύνη θα είναι απλώς ένα ακόμη εργαλείο στην επαγγελματική τους ζωή, με τον ίδιο τρόπο που χρησιμοποιούν προγράμματα περιήγησης στο διαδίκτυο ή επεξεργαστές κειμένου ή emails. Σε πολλές περιπτώσεις δεν θα συνειδητοποιούν καν πως χρησιμοποιούν τεχνητή νοημοσύνη – θα είναι στο παρασκήνιο, θα δουλεύει στο παρασκήνιο».