Οι εργαζόμενοι που χρησιμοποιούν τεχνητή νοημοσύνη όπως το ChatGPT μπορεί στην πραγματικότητα να έχουν χειρότερη απόδοση από εκείνους που δεν το κάνουν, διαπιστώνει νέα έρευνα της Boston Consulting Group. Αυτό συμβαίνει επειδή ορισμένοι εργαζόμενοι λαμβάνουν την απάντηση της τεχνητής νοημοσύνης ως θέσφατο χωρίς να ελέγχουν για πιθανά λάθη.
Τα ευρήματα της BCG αποτελούν μια προειδοποίηση για όσους ακολουθούν τυφλά την τεχνητή νοημοσύνη. Η δε χρήση του ChatGPT για επιτάχυνση της εργασίας χρειάζεται ιδιαίτερη προσοχή.
Η έρευνα πραγματοποιήθηκε από μια ομάδα ειδικών του BCG, του Χάρβαρντ, του Wharton και του MIT. Οι ερευνητές πραγματοποίησαν ένα πείραμα για να διαπιστώσουν τον τρόπο με τον οποίο η χρήση της τεχνητής νοημοσύνης επηρεάζει την παραγωγικότητα και την ποιότητα της εργασίας των εργαζομένων.
Χώρισαν λοιπόν τυχαία 758 συμβούλους της Boston Consulting Group σε ομάδες, που είτε είχαν πρόσβαση στην τεχνητή νοημοσύνη, είτε δεν είχαν πρόσβαση στο ChatGPT που χρησιμοποιεί το GPT-4. Στους συμβούλους κάθε ομάδας ανατέθηκε μία από τις δύο κατηγορίες εργασιών: Μια κατηγορία περιελάβανε εργασίες «εντός ορίων» της τεχνητής νοημοσύνης, όπως η δημιουργία ιδεών για καινοτόμες ιδέες ποτών ή η σύνταξη ενός επιχειρηματικού σχεδίου για μια νέα ιδέα υποδημάτων.
Η άλλη κατηγορία προέβλεπε εργασίες «εκτός των ορίων» των δυνατοτήτων της τεχνητής νοημοσύνης. Για παράδειγμα, οι σύμβουλοι στους οποίους ανατέθηκε αυτό το σύνολο εργασιών κλήθηκαν να προσφέρουν συστάσεις στον Διευθύνοντα Σύμβουλο μιας υποθετικής εταιρείας χρησιμοποιώντας εσωτερικά οικονομικά δεδομένα και συνεντεύξεις με στελέχη της εταιρείας.
Όπως προέκυψε από τη μελέτη ο άνθρωπος υπερείχε σε αυτή την κατηγορία, καθώς η τεχνητή νοημοσύνη δυσκολευόταν χωρίς εκτενή καθοδήγηση. Οι ερευνητές βρήκαν έντονες διαφορές στα αποτελέσματα των τριών ομάδων, ανάλογα με την πρόσβασή τους στο ChatGPT.
Για εργασίες «εντός των ορίων» της τεχνητής νοημοσύνης οι σύμβουλοι που χρησιμοποίησαν το ChatGPT αποδείχθηκαν «σημαντικά πιο παραγωγικοί» και «παρήγαγαν σημαντικά υψηλότερης ποιότητας αποτελέσματα» από εκείνους που δεν το χρησιμοποιούσαν. Ωστόσο, οι σύμβουλοι που χρησιμοποιούσαν τεχνητή νοημοσύνη για να ολοκληρώσουν εργασίες «εκτός των ορίων» της είχαν «19% λιγότερες πιθανότητες να παράγουν σωστές λύσεις σε σύγκριση με εκείνους χωρίς τεχνητή νοημοσύνη».
Αυτό οφείλεται στο γεγονός ότι οι σύμβουλοι με την τεχνητή νοημοσύνη διαπιστώθηκε ότι άκουγαν αδιακρίτως τα αποτελέσματα που έδινε — ακόμα κι αν οι απαντήσεις ήταν λανθασμένες. Αυτά τα ευρήματα καταδεικνύουν τις «άνισες» δυνατότητες του AI.
Ενώ τα ευρήματα της μελέτης δείχνουν ότι η τεχνητή νοημοσύνη είναι «υπερβολικά καλή» στο να βοηθά τους ανθρώπους σε ορισμένες εργασίες, οι άνθρωποι θα πρέπει να είναι ιδιαίτερα προσεκτικοί για να αποφύγουν λάθη όταν χρησιμοποιούν την τεχνολογία σε κάποιους άλλους τομείς, είπε στο Insider η Saren Rajendran, μια από τους ερευνητές που συμμετείχαν στη μελέτη.
Από τότε που κυκλοφόρησε το ChatGPT τον περασμένο Νοέμβριο, οι εργαζόμενοι σε διάφορες επιχειρήσεις το χρησιμοποιούν — μερικές φορές ακόμη και χωρίς να ενημερώσουν το εργοδότη τους — για να αναπτύξουν κώδικα, να δημιουργήσουν κείμενα, να αναπτύξουν προτάσεις μάρκετινγκ ακόμη και προσχέδια μαθημάτων.
Ωστόσο, οι απαντήσεις του ChatGPT δεν είναι τέλειες και συχνά εμφανίζουν τις αποκαλούμενες «παραισθήσεις». Το πρόγραμμα τεχνητής νοημοσύνης συνθέτει στοιχεία για να δώσει μια απάντηση και στη συνέχεια την αναπαράγει και τη χρησιμοποιεί σε οποιαδήποτε μελλοντική ερώτηση που μπορεί να σχετίζεται. Καθώς δεν μπορεί να αξιολογήσει την ορθότητά της, το ChatGPT επαναλαμβάνει μόνιμα το λάθος θεωρώντας πλέον πως η απάντηση που δίνει είναι η σωστή, αν και μπορεί να έχει δημιουργήσει ακόμη και πράγματα που δεν υπάρχουν.
Και τα σφάλματα που δημιουργούνται από την τεχνητή νοημοσύνη μπορεί μόνο να επιδεινωθούν: Σε μια πρόσφατη εργασία, ερευνητές της τεχνητής νοημοσύνης διαπίστωσαν ότι τα μοντέλα παραγωγής τεχνητής νοημοσύνης θα μπορούσαν σύντομα να εκπαιδεύονται από περιεχόμενο που δημιουργείται από άλλη τεχνητή νοημοσύνη. Εάν υπάρχει κάποιο λάθος πληροφορία τότε θα συνεχίσει να αναπαράγεται ως αληθινή, κάτι που θα οδηγούσε σε «κατάρρευση μοντέλου», ένα φαινόμενο που θα μπορούσε να μειώσει σημαντικά την αξιοπιστία και την ποιότητα των αποτελεσμάτων στο εγγύς μέλλον.