Ποιες είναι οι παγίδες της ενοχοποίησης της τεχνολογίας ΑΙ για δικά μας λάθη.
Σε έναν κόσμο όπου η τεχνολογία διαπερνά κάθε πτυχή της καθημερινότητάς μας μια παράδοξη αντίφαση έρχεται ολοένα και συχνότερα στην επιφάνεια. Όταν ένας άνθρωπος διαπράττει ένα κακό χρησιμοποιώντας ένα απλό εργαλείο όπως είναι ένα μαχαίρι, ένα όπλο ή ένα αυτοκίνητο, σπάνια κατηγορούμε το ίδιο το αντικείμενο. Η ευθύνη αποδίδεται στον δράστη, στον άνθρωπο που είχε την πρόθεση και τον έλεγχο. Όταν όμως στο προσκήνιο εμφανίζεται η τεχνητή νοημοσύνη η στάση μας αλλάζει. Ξαφνικά η AI παρουσιάζεται ως ο «ένοχος»: ένας αόρατος, απρόσωπος μηχανισμός – δράστης που «πήρε λάθος απόφαση» και προκάλεσε ζημιά.
Γιατί αυτή η διαφορετική μεταχείριση; Είναι πράγματι η Τεχνητή Νοημοσύνη υπεύθυνη για τις πράξεις της ή μήπως η ενοχοποίησή της λειτουργεί ως ένα βολικό άλλοθι, που μας απαλλάσσει από τις δικές μας ευθύνες; Στην καθημερινή λογική, αλλά και στο νομικό μας σύστημα, τα εργαλεία θεωρούνται άψυχα αντικείμενα. Δεν διαθέτουν βούληση, συνείδηση ή πρόθεση. Ένα μαχαίρι δεν «αποφασίζει» να τραυματίσει κάποιον, αλλά ο άνθρωπος που το κρατά είναι αυτός που φέρει την ηθική και νομική ευθύνη.
Αυτή η αντίληψη έχει βαθιές φιλοσοφικές ρίζες. Ο Αριστοτέλης στο «Ηθικά Νικομάχεια» απέδιδε την ηθική ευθύνη μόνο σε όντα με ελεύθερη βούληση, ικανά να επιλέξουν συνειδητά ανάμεσα στο καλό και το κακό. Αιώνες αργότερα ο Κάντ τόνισε ότι η πρόθεση αποτελεί το κλειδί της ηθικής αξιολόγησης. Χωρίς πρόθεση δεν υπάρχει ηθικό σφάλμα. Το ίδιο ισχύει και στο ποινικό δίκαιο: ακόμη και όταν ένα εργαλείο είναι ελαττωματικό η ευθύνη αποδίδεται σε ανθρώπους δηλαδή στον κατασκευαστή, στον σχεδιαστή, στον χρήστη. Ποτέ στο ίδιο το αντικείμενο.
Το ίδιο το αντικείμενο δεν μπορεί ούτε να δικαστεί ούτε να «διορθώσει» από μόνο του τη συμπεριφορά του. Η κατηγορία ενός εργαλείου θα ήταν τόσο παράλογη όσο και η δίκη ενός σφυριού επειδή στραβώθηκε ένα καρφί. Κι όμως αυτό ακριβώς μοιάζουμε να κάνουμε όταν μιλάμε για την τεχνητή νοημοσύνη.
Γιατί η AI μας μπερδεύει
Η τεχνητή νοημοσύνη ωστόσο δεν μοιάζει με τα παραδοσιακά εργαλεία. Τα σύγχρονα συστήματα AI μαθαίνουν από δεδομένα προσαρμόζονται στο περιβάλλον τους και λαμβάνουν αποφάσεις χωρίς άμεση ανθρώπινη παρέμβαση. Ένα αυτόνομο όχημα που στρίβει λάθος ή ένας αλγόριθμος που αποκλείει άδικα έναν πολίτη από ένα κοινωνικό επίδομα δημιουργούν την αίσθηση ότι «κάποιος» έδρασε. Και αυτός ο «κάποιος» μοιάζει να είναι η ίδια η AI.
Εδώ γεννιέται η σύγχυση. Παρότι η AI δεν έχει συνείδηση ή ηθική πρόθεση, τα αποτελέσματα της λειτουργίας της μοιάζουν με ανθρώπινες πράξεις. Της αποδίδουμε, σχεδόν ασυναίσθητα, χαρακτηριστικά ηθικού υποκειμένου. Γνωστοί σύγχρονοι φιλόσοφοι όπως ο Ντάνιελ Ντένετ έχουν επισημάνει ότι τέτοια συστήματα λειτουργούν «σαν να έχουν στόχους» γεγονός που μας ωθεί να τους αποδίδουμε ιδιότητες ηθικού πράκτορα. Έτσι τα όρια μεταξύ εργαλείου και δρώντος υποκειμένου θολώνουν επικίνδυνα. Όμως πρόκειται για ψευδαίσθηση. Η AI δεν αποφασίζει με την ανθρώπινη έννοια. Εκτελεί επιλογές μέσα σε πλαίσια που έχουν ορίσει άνθρωποι.
AI, ζώα και ιδιοκτήτες
Ίσως μια πιο εύστοχη αναλογία να είναι αυτή με τα ζώα. Ένα σκυλί μπορεί να δαγκώσει από φόβο ή ένστικτο αλλά η κοινωνία δεν θεωρεί υπεύθυνο το ζώο. Η ευθύνη βαραίνει τον ιδιοκτήτη που δεν το εκπαίδευσε σωστά ή δεν το έλεγξε. Κάτι αντίστοιχο συμβαίνει και με την τεχνητή νοημοσύνη. Η ευθύνη δεν μπορεί να αποκοπεί από τους ανθρώπους που τη σχεδίασαν, την εκπαίδευσαν και την έθεσαν σε χρήση. Παρ’ όλα αυτά στο δημόσιο λόγο ακούμε όλο και συχνότερα φράσεις όπως «φταίει ο αλγόριθμος» ή «η AI έκανε λάθος».
Πρόκειται για μια γλωσσική μετατόπιση που δεν είναι αθώα. Μεταφέρει την ευθύνη από τα ανθρώπινα χέρια σε μια αφηρημένη τεχνολογική οντότητα και αποκρύπτει τις πραγματικές αιτίες: τις επιλογές σχεδιασμού, τα δεδομένα εκπαίδευσης, τα οικονομικά, επιχειρηματικά και πολιτικά κίνητρα.
Η εύκολη ενοχοποίηση και οι κίνδυνοι
Η ενοχοποίηση της AI λειτουργεί συχνά ως μηχανισμός αποφυγής ευθύνης. Είναι πιο εύκολο να πούμε ότι «έφταιξε η τεχνολογία» παρά να αναγνωρίσουμε ανθρώπινα λάθη, αμέλειες ή ηθικές παραλείψεις. Σε αυτό το πλαίσιο, η AI γίνεται αποδιοπομπαίος τράγος, ένα βολικό άλλοθι σε έναν κόσμο που δυσκολεύεται να αναλάβει συλλογικά τις συνέπειες της προόδου του και των επιλογών του.
Υπάρχουν βέβαια φωνές που υποστηρίζουν ότι στο μέλλον η AI θα πρέπει να αποκτήσει ηθική και νομική αυτονομία. Όμως, όσο τα συστήματα αυτά παραμένουν δημιουργήματα ανθρώπινου σχεδιασμού, χωρίς συνείδηση και πραγματική πρόθεση, μια τέτοια συζήτηση μοιάζει πρόωρη και ενδεχομένως επικίνδυνη.
Ένας καθρέφτης των επιλογών μας
Η διαφορετική μεταχείριση της τεχνητής νοημοσύνης αποκαλύπτει τελικά κάτι βαθύτερο: τα όρια της ηθικής μας σε έναν κόσμο ταχύτατης τεχνολογικής εξέλιξης. Αντί να κατηγορούμε την AI, οφείλουμε να ενισχύσουμε τη λογοδοσία εκεί όπου πραγματικά ανήκει. Στους δημιουργούς, στους φορείς και στους χρήστες της.
Η τεχνητή νοημοσύνη δεν είναι ούτε εχθρός ούτε σωτήρας. Είναι ένας καθρέφτης που αντανακλά τις επιλογές, τις αξίες και τις ευθύνες μας. Το κρίσιμο ερώτημα δεν είναι τι «αποφασίζει» η AI, αλλά τι αποφασίζουμε εμείς όταν τη δημιουργούμε και τη χρησιμοποιούμε. Και αυτή η απάντηση παραμένει, τελικά, βαθιά ανθρώπινη.
*Ο Γεράσιμος Τζιβράς είναι προγραμματιστής, καθηγητής στην Τριτοβάθμια Εκπαίδευση και υποψήφιος διδάκτορας του Τμήματος Πληροφορικής και Τηλεπικοινωνιών του Πανεπιστημίου Πελοποννήσου, με αντικείμενο τις Προσαρμοστικές Διεπαφές Χρήστη. Η ερευνητική του εργασία επικεντρώνεται στη μοντελοποίηση της προβλεπτικής συμπεριφοράς χρηστών και στον δυναμικό επανασχεδιασμό διεπαφών με τη βοήθεια τεχνητής νοημοσύνης με στόχο τη δημιουργία πιο προσωποποιημένων και λειτουργικών εμπειριών χρήσης.