Τα γεγονότα στην OpenAI, την πρωτοπόρο εταιρεία της τεχνητής νοημοσύνης που δημιούργησε το ChatGPT για λογαριασμό της Microsoft, βρέθηκαν στο επίκεντρο της επικαιρότητας τις προηγούμενες ημέρες. Πίσω από την εσωτερική σύγκρουση, την απομάκρυνση και την επιστροφή του ιδρυτής της Σαμ Άλτμαν, βρίσκονταν επενδύσεις δεκάδων δισεκατομμυρίων για την πρωτοκαθεδρία στην εποχή της τεχνητής νοημοσύνης και μια μεγάλη διαμάχη για τους κινδύνους που εγκυμονεί η νέα τεχνολογία.
Το «δράμα» της OpenAI, όπως το αποκάλεσαν πολλά διεθνή ΜΜΕ, φαίνεται πως πυροδοτήθηκε από το ένα μυστικό προηγμένο πρόγραμμα, πάνω στο οποίο εργαζόταν ο Σαμ Άλτμαν, το χρυσό παιδί της τεχνητής νοημοσύνης. Πρόκειται για το «Q*» (Q Star). Πολλοί ειδικοί έχουν εκφράσει ανησυχίες ότι εταιρείες όπως η OpenAI κινούνται πολύ γρήγορα προς την ανάπτυξη της γενικής τεχνητής νοημοσύνης (AGI), όμως οι δυνατότητες του «Q*» φαίνεται πως τρόμαξαν ακόμη και μια μερίδα των δημιουργών του.
Aυτόπτης μάρτυρας μιας συγκλονιστικής ανακάλυψης
Ένα 24ωρο πριν την απομάκρυνσή του από την εταιρεία επειδή «δεν ήταν σταθερά ειλικρινής στις επικοινωνίες του με το ΔΣ, το οποίο δεν του έχει πλέον εμπιστοσύνη», ο Σαμ Άλτμαν, μιλώντας στη σύνοδο της Οικονομικής Συνεργασίας Ασίας-Ειρηνικού (Apec), αναφέρθηκε σε μια σπουδαία ανακάλυψη χωρίς να δώσει περαιτέρω πληροφορίες:
«Τέσσερις φορές μέχρι τώρα στην ιστορία του OpenAI, η πιο πρόσφατη μόλις πριν από δύο εβδομάδες, κατάφερα να γίνω μάρτυρας της στιγμής που σπρώχνουμε το πέπλο της άγνοιας προς τα πίσω και τα σύνορα της ανακάλυψης προς τα μπροστά. Και το να το κάνεις αυτό είναι η ύψιστη επαγγελματική τιμή στη ζωή ενός ανθρώπου».
Οι περισσότεροι δεν γνώριζαν σε τι ακριβώς αναφερόταν. Όμως οι ερευνητές της OpenAI είχαν γίνει και αυτοί μάρτυρες του δημιουργήματος. Σύμφωνα με το Reuters, πριν από την έξωση του Άλτμαν, με μια επιστολή τους προειδοποίησαν το διοικητικό συμβούλιο πως πρόκειται για ένα πρόγραμμα που πραγματικά θα μπορούσε να απειλήσει την ανθρωπότητα. Ταυτόχρονα εξέφρασαν ανησυχίες σχετικά με την «υπερ-εμπορευματοποίηση» των δυνατοτήτων τεχνητής νοημοσύνης, προτού γίνουν πλήρως κατανοητές οι συνέπειές της.
Σε τι διαφέρει το «Q*»
Το εν λόγω μοντέλο φαίνεται πως έχει μαθηματική σκέψη, καταφέρνοντας να επιλύσει προβλήματα για τα οποία ουδέποτε έχει εκπαιδευτεί. Η ικανότητα επίλυσης τέτοιων προβλημάτων ενδεχομένως για τους μη γνώστες να μην ακούγεται κάτι τόσο εντυπωσιακό, όμως ειδικοί της τεχνητής νοημοσύνης υπογραμμίζουν πως αν αυτή η πληροφορία ανταποκρίνεται στην αλήθεια τότε θα πρόκειται για ένα τεράστιο άλμα προς τα εμπρός σε σχέση με τα υπάρχοντα μοντέλα, τα οποία επί της ουσίας αναπαράγουν και συνθέτουν τις πληροφορίες στις οποίες εκπαιδεύονται.
Η αδυναμία των υπάρχοντων συστημάτων τεχνητής νοημοσύνης να συλλογιστούν και να αναπτύξουν νέες ιδέες, αντί να επαναφέρουν απλώς πληροφορίες μέσα από τα εκπαιδευτικά τους δεδομένα, θεωρείται ένας τεράστιος περιορισμός, ακόμη και για τους ανθρώπους που τα κατασκευάζουν. Η επίλυση άγνωστων προβλημάτων είναι το μονοπάτι που οδηγεί στην Γενική Τεχνητή Νοημοσύνη (AGI), ένα σύστημα που θα μπορεί να εκτελεί μια μεγάλη ποικιλία εργασιών σε ανθρώπινο ή ανώτερο επίπεδο νοημοσύνης και το οποίο δυνητικά θα μπορούσε ακόμη και να αποφύγει τον ανθρώπινο έλεγχο.
Οι ίδιοι αναλυτές εκτιμούν πως το όνομά του (Q*) μάλλον αποκαλύπτει και τον τρόπο με τον οποίο λειτουργεί: Συνδυάζει δύο γνωστές τεχνικές τεχνητής νοημοσύνης, την Q-learning και την A*.
Προσεγγίζοντας την Γενική Τεχνητή Νοημοσύνη
To «Q*» φαίνεται πως θα μπορούσε να αποτελέσει το ορόσημο για την Γενική Τεχνητή Νοημοσύνη. «Είναι σίγουρα πιο κοντά σε αυτό που θεωρούμε ευφυΐα και είναι πιθανό να οδηγεί σε ένα μοντέλο που θα γεννάει ιδέες, κάτι που δεν συμβαίνει για παράδειγμα με το ChatGPT», υπογράμμισε στο Βusiness Ιnsider, η Σοφία Καλανόβσκα της «Tromero», της startup εταιρείας που εκπαιδεύει τεχνητή νοημοσύνη.
Ο Άντριου Ρογκοΐσκι, του «Institute for People-Centred AI» στο Πανεπιστήμιο του Surrey, υπογράμμισε στον Guardian ότι η ικανότητα επίλυσης μαθηματικών προβλημάτων που δεν περιλαμβάνονται στο εκπαιδευτικό σετ ενός μοντέλου θα ήταν μια σημαντική εξέλιξη.
«Πολλές τεχνητές νοημοσύνης επαναφέρουν ή αναδιαμορφώνουν την υπάρχουσα γνώση, είτε κείμενο, είτε εικόνες, είτε βιβλιοθήκες γνωστών λύσεων μαθηματικών. Εάν μπορείτε να δημιουργήσετε μια τεχνητή νοημοσύνη που μπορεί να λύσει ένα πρόβλημα για το οποίο ξέρετε ότι δεν έχει ήδη δει τη λύση κάπου στα τεράστια σετ εκπαίδευσης, τότε αυτό είναι μεγάλο θέμα, ακόμα κι αν τα μαθηματικά για την επίλυση του προβλήματος είναι σχετικά απλά. Η επίλυση άγνωστων πολύπλοκων μαθηματικών θα ήταν ακόμα πιο συναρπαστική».
Πόσο επικίνδυνο είναι πραγματικά;
Όπως γίνεται αντιληπτό το «Q*» δεν είναι ένα τυπικό μοντέλο AI αλλά ένα μοντέλο που πλησιάζει την AGI, παρουσιάζοντας ενδεχομένως ανώτερες συλλογιστικές και γνωστικές δεξιότητες, χωρίς να απαιτείται προηγούμενη γνώση από το περιβάλλον του. Φανταστείτε για παράδειγμα ένα πρόγραμμα που σκέφτεται και εξελίσσεται όπως οι άνθρωποι. Η ίδια η OpenAI ορίζει την AGI ως «αυτόνομα συστήματα που μπορούν να ξεπεράσουν τον άνθρωπο στις περισσότερες πολύτιμες εργασίες, που αφορούν την οικονομική ζωή».
Πρόκειται για μια συνθήκη που τρομάζει πολλούς ειδικούς – και μη – για μια σειρά από λόγους, όπως η μεγάλη επίδραση στην αγορά εργασίας με απώλεια θέσεων εργασίας και αντικατάσταση εργαζομένων, οι κίνδυνοι μιας ανεξέλεγκτης εξουσίας που θα μπορούσε κακόβουλα να αξιοποιήσει ένα τέτοιο εργαλείο τεχνητής νοημοσύνης, αλλά και το ενδεχόμενο της αυτονόμησης της ίδιας της τεχνητής νοημοσύνης. Ένα μοντέλο που είναι ικανό να σκέφτεται και να συλλογίζεται αυτόνομα θα μπορούσε να ξεφύγει από τον ανθρώπινο έλεγχο.
Πριν από λίγο καιρό, ο Σαμ Άλτμαν έγραφε στην προσωπική του σελίδα: «Εάν το AGI δημιουργηθεί με επιτυχία, αυτή η τεχνολογία θα μπορούσε να μας βοηθήσει να ανυψώσουμε την ανθρωπότητα αυξάνοντας την αφθονία, υπερτροφοδοτώντας την παγκόσμια οικονομία και βοηθώντας στην ανακάλυψη νέας επιστημονικής γνώσης που αλλάζει τα όρια των δυνατοτήτων».
Δεν συμμερίζονται όλοι την αισιόδοξη και θετική πτυχή που προβάλλει. Ερευνητές κρούουν τον κώδωνα του κινδύνου για μια τεχνολογία που αναπτύσσεται ταχύτερα από ό,τι «αντέχει» η ανθρωπότητα και ενώ ο αντίκτυπός της δεν γίνεται κατανοητός.
Η νέα διοίκηση της OpenAI, σε συνεργασία με τη Microsoft, και με επικεφαλής τον Σαμ Άλτμαν, πιστεύουν πως τα θετικά αποτελέσματα της AGI κάνουν το πιθανό «ναρκοπέδιο» να αξίζει τον κόπο. Πολλοί όμως φοβούνται πως η πρωτοπόρος startup, αλλά και οι ανταγωνιστές της, δίνουν προτεραιότητα στην επικράτηση σε μια κούρσα με έπαθλο αμύθητα κέρδη και τρομακτική δύναμη, παραμερίζοντας την ηθική και το καλό των χρηστών και της ευρύτερης κοινωνίας.