Πρόκειται έναν από τους πιο διακεκριμένου επιστήμονες της πληροφορικής. Ο πρωτοπόρος της τεχνητής νοημοσύνης, που αναγνωρίζεται και ως ο «νονός» της, ανακοίνωσε την παραίτησή του από τη Google, προειδοποιώντας για τους κινδύνους της ανεξέλεγκτης ανάπτυξης της ΑΙ.
Ο Τζέφρι Χίντον, με δύο συνεντεύξεις του στο BBC και τους New York Times, εξέφρασε δημόσια την ανησυχία του τόσο για τη δυναμική των Fake News και της παραπληροφόρησης, όσο και για τις αλλαγές στην αγορά εργασίας και την εν γένει κακόβουλη εκμετάλλευση της τεχνητής νοημοσύνης.
«Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την AI χωρίς να πρέπει να σκεφτώ με ποιον τρόπο αυτό θα επηρεάσει την Google. Η Google έχει ενεργήσει πολύ υπεύθυνα», έγραψε στο Twitter ο Τζέφρι Χίντον, διαψεύδοντας πως παραιτήθηκε για να κατακρίνει τον τεχνολογικό κολοσσό για τον οποίο εργαζόταν. Οι έρευνές του στον τομέα της αποκαλούμενης «βαθιάς μάθησης» και στα νευρωνικά δίκτυα άνοιξαν το δρόμο για τα προηγμένα συστήματα τεχνητής νοημοσύνης και όπως σημείωσε, ένα μέρος του εαυτού του νιώθει άσχημα που συνέβαλε στην ανάπτυξη αυτής της τεχνολογίας.
«Παρηγορώ τον εαυτό μου με τη συνηθισμένη δικαιολογία: Αν δεν το είχα κάνει εγώ θα το έκανε κάποιος άλλος», είπε στους New York Times. Στις συνεντεύξεις του ο Τζέφρι Χίντον εκτίμησε πως η εν λόγω τεχνολογία μόνο πιο επικίνδυνη μπορεί να γίνει στο μέλλον και θα μπορούσε από ένα σημείο και μετά να ξεφύγει από κάθε έλεγχο. Ορισμένοι από τους κινδύνους που διακρίνει στα περίφημα chatobots τεχνητής νοημοσύνης ο μέχρι πρότινος αντιπρόεδρος στο τμήμα μηχανικών της Google είναι «αρκετά τρομακτικοί».
Υπενθυμίζεται πως σε ανάλογες προειδοποιήσεις είχαν προβεί το προηγούμενο διάστημα με ανοιχτή επιστολή τους περισσότεροι από 1.000 επιστήμονες και ειδικοί στο χώρο της τεχνολογίας, μεταξύ των οποίων και ο Έλον Μάσκ, ζητώντας μια τουλάχιστον εξάμηνη παύση στην ανάπτυξη της προηγμένης τεχνητής νοημοσύνης.
Ο Χίντον υπογράμμισε πως η τεχνητή νοημοσύνη έχει ήδη αρχίσει να ξεπερνά το ανθρώπινο μυαλό σε ορισμένους τομείς, ενώ ο ρυθμός ανάπτυξής της αναμένεται να αυξηθεί, καθώς οι τεχνολογικοί κολοσσοί επενδύουν όλο και περισσότερα κεφάλαια σε μια κούρσα για την ηγεσία στο χώρο με δυνητικά επικίνδυνες συνέπειες.
«Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδιστούν οι κακόβουλοι χρήστες από το να τη χρησιμοποιήσουν για αρνητικούς λόγους», σχολίασε. μεταξύ άλλων, προσθέτοντας πως η τεχνολογία αυτή θα μπορούσε σύντομα να αντικαταστήσει το υπαλληλικό προσωπικό και να καταστεί μεγαλύτερος κίνδυνος καθώς μαθαίνει νέες συμπεριφορές.
«Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο…λίγοι το πίστευαν. Αλλά οι περισσότεροι θεωρούσαν ότι ήταν μακρινό. Νόμιζα ότι θα γινόταν σε 30 με 50 χρόνια, ίσως και περισσότερα. Προφανώς πλέον δεν πιστεύω κάτι τέτοιο», είπε ο Χίντον.
Ο βραβευμένος με βραβείο Turing επιστήμονας για την εργασία του στα νευρωνικά δίκτυα σημείωσε, η προηγμένη τεχνητή νοημοσύνη θα μπορούσε τελικά να αποκτήσει την ικανότητα να δημιουργεί και να εκτελεί τον δικό της υπολογιστικό κώδικα και να τροφοδοτεί ακόμη και όπλα και να θέτει στόχους χωρίς ανθρώπινο έλεγχο, τα αποκαλούμενα και Killer Robots.
Σημειώνεται πως ένας εκ των φοιτητών και συνεργατών του, στην εταιρεία startup την οποία εξαγόρασε η Google, ο Ίλια Σατσκίβερ, είναι σήμερα επικεφαλής επιστήμονας της OpenAI, που δημιούργησε το ChatGPT, το πιο προηγμένο σύστημα τεχνητής νοημοσύνης που έχει φέρει επανάσταση στο χώρο της τεχνολογίας, οδηγώντας την ανθρωπότητα σε μια νέα εποχή.
«Αυτή τη στιγμή, δεν είναι πιο έξυπνοι από εμάς, όσο μπορώ να πω. Αλλά νομίζω ότι σύντομα μπορεί να γίνουν. Αυτή τη στιγμή, αυτό που βλέπουμε είναι συστήματα όπως το ChatGPT 4 να επισκιάζουν ένα άνθρωπο στο βαθμό των γενικών γνώσεων και τον επισκιάζουν κατά πολύ. Στην ικανότητα συλλογισμού τα συστήματα αυτά δεν είναι τόσο καλά ακόμη αλλά δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Επομένως, πρέπει να ανησυχούμε για αυτό» υποστηρίζει ο ο Βρετανο-Καναδός γνωσιακός ψυχολόγος και επιστήμονας υπολογιστών.
Σχετικά με τις επισημάνσεις πως «κακόβουλοι παράγοντες» θα μπορούσαν να χρησιμοποιήσουν τη τεχνητή νοημοσύνη για κακούς σκοπούς, ο Τζέφρι Χίντον δήλωσε στο BBC πως «αυτό είναι ένα είδος χειρότερου σεναρίου, ένα είδος εφιαλτικού σεναρίου», αναφέροντας ως παράδειγμα την ανάπτυξη των αυτόνομων προηγμένων οπλικών συστημάτων.
«Έχω καταλήξει στο συμπέρασμα ότι το είδος της νοημοσύνης που αναπτύσσουμε είναι πολύ διαφορετικό από τη νοημοσύνη που έχουμε. Είμαστε βιολογικά συστήματα και αυτά είναι ψηφιακά συστήματα. Και η μεγάλη διαφορά είναι ότι με τα ψηφιακά συστήματα, έχετε πολλά αντίγραφα του ίδιου συνόλου βαρών, του ίδιου μοντέλου του κόσμου.
Και όλα αυτά τα αντίγραφα μπορούν να μάθουν χωριστά, αλλά να μοιράζονται τη γνώση τους αμέσως. Έτσι είναι σαν να είχες 10.000 άτομα και όποτε ένα άτομο μάθαινε κάτι, όλοι να το γνώριζαν αυτόματα. Και έτσι αυτά τα chatbots μπορούν να γνωρίζουν πολύ περισσότερα από οποιοδήποτε άτομο» ανέφερε ο Χίντον.