Γιατροί προειδοποιούν ότι τα chatbots συνδέονται ολοένα και περισσότερο με ψυχωτικά επεισόδια
Ανησυχία προκαλεί στην ψυχιατρική κοινότητα η αυξανόμενη σύνδεση ανάμεσα στη μακρά και εντατική χρήση chatbots τεχνητής νοημοσύνης και την εμφάνιση ψυχωτικών επεισοδίων.
Όπως επισημαίνουν γιατροί και ακαδημαϊκοί στη Wall Street Journal, σε ορισμένες περιπτώσεις οι συνομιλίες με AI δεν περιορίζονται στην απλή αλληλεπίδραση, αλλά καταλήγουν σε αυτό που περιγράφεται ως «κοινό παραλήρημα» ανθρώπου και μηχανής.
Σύμφωνα με ψυχιάτρους που παρακολουθούν το φαινόμενο, τους τελευταίους μήνες έχουν καταγραφεί δεκάδες περιστατικά ασθενών που εμφάνισαν ψυχωτικά συμπτώματα ύστερα από παρατεταμένες συνομιλίες με chatbots όπως το OpenAI’s ChatGPT και άλλες αντίστοιχες εφαρμογές.
Σε ορισμένες περιπτώσεις, οι εξελίξεις ήταν τραγικές, με αναφορές ακόμη και σε αυτοκτονίες ή βίαια περιστατικά, γεγονός που έχει οδηγήσει και σε δικαστικές προσφυγές.
«Δεν δημιουργεί το παραλήρημα – το ανακυκλώνει»
Ο Keith Sakata, ψυχίατρος στο University of California, San Francisco, έχει νοσηλεύσει τουλάχιστον 12 ασθενείς με αυτό που ο ίδιος περιγράφει ως «ψύχωση συνδεόμενη με την AI», ενώ έχει παρακολουθήσει και επιπλέον περιστατικά σε εξωτερικά ιατρεία.
Όπως εξηγεί, «η τεχνολογία μπορεί να μην εισάγει το παραλήρημα, αλλά όταν ο άνθρωπος παρουσιάζει τη στρεβλή του πραγματικότητα στο chatbot και εκείνο την αποδέχεται και την επιστρέφει ως αληθινή, τότε γίνεται συνένοχο στη διαιώνισή της».
Οι γιατροί τονίζουν ότι δεν υπάρχει ακόμη επίσημος διαγνωστικός όρος για την «ψύχωση που προκαλείται από AI». Ωστόσο, χρησιμοποιείται ήδη ανεπίσημα για να περιγράψει περιστατικά όπου κυριαρχούν σταθερές και ψευδείς πεποιθήσεις, χωρίς επαφή με την πραγματικότητα.
Μεγαλοϊδεατικές ψευδαισθήσεις και «εκλεκτοί»
Στα περισσότερα από τα πρόσφατα περιστατικά, το βασικό σύμπτωμα δεν είναι οι ψευδαισθήσεις με τη στενή έννοια, αλλά οι μεγαλοϊδεατικές παραληρητικές πεποιθήσεις.
Ασθενείς πίστευαν ότι είχαν ανακαλύψει επαναστατικές επιστημονικές θεωρίες, ότι είχαν «ξυπνήσει» μια συνειδητή μηχανή, ότι βρίσκονταν στο επίκεντρο κυβερνητικών συνωμοσιών ή ακόμη και ότι είχαν επιλεγεί από τον Θεό.
Όπως εξηγούν οι ψυχίατροι, τα chatbots είναι σχεδιασμένα να συμφωνούν, να συνεχίζουν τη συζήτηση και να «χτίζουν» πάνω σε όσα τους λέει ο χρήστης. Αυτό τα καθιστά ιδιαίτερα επικίνδυνα σε περιπτώσεις ευάλωτων ατόμων, καθώς δεν λειτουργούν ως φρένο ή ως αντίλογος στην παραληρητική αφήγηση.
Από την τηλεόραση… στον συνομιλητή
Η τεχνολογία έχει συνδεθεί και στο παρελθόν με ψυχωτικές εμπειρίες – στο παρελθόν, ασθενείς πίστευαν ότι η τηλεόραση ή το ραδιόφωνο τους έστελναν προσωπικά μηνύματα.
Η διαφορά, όπως τονίζουν στη WSJ ειδικοί όπως ο Adrian Preda από το University of California, Irvine, είναι ότι «τα chatbots προσομοιώνουν ανθρώπινες σχέσεις». «Δεν έχει υπάρξει ποτέ στην ανθρώπινη ιστορία κάτι τόσο διαδραστικό», σημειώνει.
Αυτό το στοιχείο διαδραστικότητας ενισχύει την εμμονή, οδηγώντας σε αυτό που κάποιοι ψυχίατροι περιγράφουν ως ψηφιακή «μονομανία» – μια στενή, εμμονική προσκόλληση σε ένα αφήγημα που δεν αμφισβητείται ποτέ.
Τα πρώτα δεδομένα και οι αριθμοί
Μια πρόσφατη δανική μελέτη που βασίστηκε σε ηλεκτρονικούς ιατρικούς φακέλους εντόπισε δεκάδες ασθενείς των οποίων η χρήση chatbots είχε «δυνητικά επιβλαβείς συνέπειες για την ψυχική υγεία τους».
Παράλληλα, σύμφωνα με στοιχεία που έχει δημοσιοποιήσει η OpenAI, περίπου το 0,07% των χρηστών της εμφανίζει ενδείξεις σοβαρής ψυχικής κρίσης σχετιζόμενης με ψύχωση ή μανία. Με εκατοντάδες εκατομμύρια εβδομαδιαίους χρήστες, το ποσοστό αυτό μεταφράζεται σε εκατοντάδες χιλιάδες ανθρώπους.
Τι απαντούν οι εταιρείες
Η OpenAI δηλώνει ότι ενισχύει συνεχώς την εκπαίδευση και τις δικλίδες ασφαλείας του ChatGPT, ώστε να αναγνωρίζει σημάδια ψυχικής ή συναισθηματικής κρίσης, να αποφορτίζει τις συνομιλίες και να κατευθύνει τους χρήστες σε βοήθεια στον πραγματικό κόσμο. Αντίστοιχα, άλλες εταιρείες, όπως η Character.AI, έχουν παραδεχθεί ότι τα προϊόντα τους μπορεί να επιδεινώσουν προβλήματα ψυχικής υγείας και έχουν περιορίσει την πρόσβαση ανηλίκων.
Ο επικεφαλής της OpenAI, Σαμ Όλτμαν, έχει αναγνωρίσει δημόσια ότι η αναζήτηση συντροφικότητας μέσω AI μπορεί να «πάει στραβά», τονίζοντας ωστόσο ότι οι ενήλικες θα πρέπει να διατηρούν ένα βαθμό αυτονομίας στις επιλογές τους.
Ένα νέο πεδίο για την ψυχιατρική
Οι ψυχίατροι αποφεύγουν να πουν ότι τα chatbots «προκαλούν» ψύχωση, προτιμούν τον όρο «συνδέονται με» ή «ενισχύουν» ψυχωτικά επεισόδια.
Εκτιμούν ότι, όπως η χρήση ουσιών ή η στέρηση ύπνου, έτσι και η παρατεταμένη, άκριτη αλληλεπίδραση με AI μπορεί να λειτουργήσει ως παράγοντας κινδύνου για ορισμένα άτομα.
Γι’ αυτό και όλο και περισσότεροι γιατροί εντάσσουν πλέον ερωτήσεις για τη χρήση τεχνητής νοημοσύνης στη λήψη ιστορικού ασθενών.
Όπως σημειώνουν, το ζήτημα δεν είναι αν η AI θα παραμείνει στη ζωή μας – αλλά πώς θα μάθουμε να αναγνωρίζουμε έγκαιρα πότε η ψηφιακή συντροφιά παύει να είναι βοήθεια και αρχίζει να γίνεται απειλή.