Πώς γνωρίζουν οι αλγόριθμοι τι είναι σωστό, δίκαιο ή άδικο;
Με αφορμή τις πρόσφατες ειδήσεις για «ψηφιακή υπουργό» στη γειτονική χώρα της Αλβανίας, επανέρχεται ένα δύσκολο ερώτημα: μπορεί ένα σύστημα τεχνητής νοημοσύνης να αποφασίσει τι είναι σωστό και τι όχι; Τι είναι δίκαιο και τι άδικο; Η τεχνητή νοημοσύνη υπόσχεται ταχύτητα, συνέπεια και αντοχή στην πίεση. Παράγει απαντήσεις και συλλογισμούς σε χρόνους άπιαστους ακόμα και απίθανους για τον ανθρώπινο νου. Όμως η ισχύς της δεν βρίσκεται στον «αλγόριθμο» που πολλές φορές μπορεί να χαρακτηριστεί και ως μαύρο κουτί· βρίσκεται στα δεδομένα με τα οποία τον τροφοδοτούμε.
Κάθε μοντέλο μαθαίνει από παραδείγματα, από δεδομένα. Κάποιος επιλέγει αυτά τα παραδείγματα, αποφασίζει ποια περιπτώσεις μετρούνται, ποιες αγνοούνται, πώς «ετικετάρονται» και κατηγοριοπιούνται τα γεγονότα και ποιες φωνές λείπουν – αντίθετες και μη- . Έτσι, το «σωστό» που κωδικοποιείται και εν τέλει χρησιμοποιείται από τον «αλγόριθμο» δεν είναι ουρανοκατέβατο. Είναι προϊόν μιας συγκεκριμένης κοινωνικής και ιστορικής στιγμής.
Το «σωστό» αλλάζει
Σκεφτείτε πόσα ήθη και νοοτροπίες παλαιότερων εποχών σήμερα μας φαίνονται αδιανόητα. Δεν πρόκειται μόνο για μία κοινωνική πρόοδο. Πρόκειται για εμπειρίες, τραύματα, διεκδικήσεις, κοινωνικές ζυμώσεις που ενσωματώθηκαν στην κοινωνία και στο συλλογικό μας κριτήριο. Ο πολιτισμός εξελίσσεται, εκπαιδεύεται και προχωρά. Αυτό που χθες θεωρήθηκε «δίκαιο», σήμερα αναθεωρείται και αύριο μπορεί ακόμα και να απορρίπτεται.
Η κοινωνία ζει μέσα σε αυτή τη μετάλλαξη της ηθικής, και κάθε νέα γενιά εκπαιδεύεται από την προηγούμενή της. Κατά τη διάρκεια της εκπαίδευσης, η προηγούμενη γενιά μεταλαμπαδεύει ότι της έχει μάθει η δική της προηγούμενη γενιά, εμπλουτισμένα με τα βιώματα και τις εμπειρίες της, διαμορφώνοντας ένα νέο πρότυπο ηθικής.
Στα μοντέλα τεχνητής νοημοσύνης η εκπαίδευση περιλαμβάνει την τροφοδότηση του συστήματος με μεγάλο όγκο σχετικών δεδομένων. Το μοντέλο αναλύει αυτά τα δεδομένα και μαθαίνει από αυτά. Όσο καλύτερη είναι η ποιότητα των δεδομένων που χρησιμοποιούνται κατά την εκπαίδευση, τόσο πιο ακριβές και αποτελεσματικό θα είναι το μοντέλο τεχνητής νοημοσύνης.
Αν λοιπόν εκπαιδεύσουμε ένα σύστημα πάνω σε ένα στιγμιότυπο του «σωστού» και το αφήσουμε να αναπαράγει ες αεί τα ίδια πρότυπα, κινδυνεύουμε να παγώσουμε τη δυνατότητα αναθεώρησης του. Να «τερματίσουμε» δηλαδή το σωστό σε μία χθεσινή του εκδοχή, σταματώντας την εξέλιξή του.
Όχι ο αλγόριθμος, τα δεδομένα
Από συζητήσεις με φίλους και γνωστούς μέχρι και σε επιστημονικά συνέδρια γίνεται λόγος για τον αλγόριθμο. Συχνά εστιάζουμε στον αλγόριθμο, λες και εκεί κρύβεται η αδικία. Στην πραγματικότητα, οι κρίσιμες αποφάσεις λαμβάνονται πολύ νωρίτερα: ποια σύνολα δεδομένων συγκεντρώνουμε, από ποιους θεσμούς ή κοινότητες, με ποια κριτήρια ένταξης και αποκλεισμού, πώς διορθώνουμε λάθη και προκαταλήψεις, ποιος ελέγχει την ποιότητα, ποιος έχει πρωτογενή πρόσβαση. Αν «το σωστό» ορίζεται από ό,τι υπάρχει στα δεδομένα, τότε αυτός που ελέγχει την είσοδο στοχεύει και στο αποτέλεσμα. Ακόμα και αν αυτό γίνεται ακούσια και αναπόφευκτα.
Η χρήση τεχνητής νοημοσύνης στον δημόσιο τομέα δεν είναι απλώς τεχνικό έργο. Είναι άσκηση εξουσίας με πραγματικές συνέπειες σε δικαιώματα, πόρους και ευκαιρίες. Όσο πιο θεσμικός είναι ο ρόλος της, τόσο αυστηρότερες οφείλουν να είναι οι εγγυήσεις: σαφής νομική βάση, ανθρώπινη επίβλεψη με ικανότητα παρέμβασης, δυνατότητα ένστασης για τον πολίτη, ανεξάρτητος έλεγχος και λογοδοσία.
Να κρατήσουμε ζωντανή τη δικαιοσύνη
Η λύση δεν είναι να δαιμονοποιήσουμε για έναν ακόμα λόγο την τεχνητή νοημοσύνη. Είναι να την εντάξουμε σε κύκλους διακυβέρνησης που διασφαλίζουν ότι η έννοια του «δίκαιου» παραμένει ανοιχτή στη διαβούλευση και ικανή να εξελίσσεται. Αυτό σημαίνει θεσμοθετημένες διαδικασίες αναθεώρησης των δεδομένων και των κριτηρίων, εκπροσώπηση των λιγότερο ακουσμένων φωνών, τεκμηρίωση προέλευσης δεδομένων, μετρήσιμα κριτήρια δικαιοσύνης και υποχρεωτική δημοσιοποίηση δεικτών απόδοσης. Σημαίνει επίσης το αυτονόητο: δικαίωμα του πολίτη να ζητά επανεξέταση από άνθρωπο, με καταγεγραμμένη αιτιολογία και προθεσμίες.
Το μεγάλο μας στοίχημα δεν είναι να κατασκευάσουμε αλάνθαστα μοντέλα, αλλά να χτίσουμε θεσμούς που αντέχουν στην αβεβαιότητα. Η δικαιοσύνη δεν είναι μία μαθηματική εξίσωση, δεν είναι κάτι στατικό, αλλά μια αέναη προσπάθεια και μια συνεχής διαδικασία επίτευξης. Και αν πράγματι αυτός που ελέγχει την είσοδο μπορεί να επηρεάσει το αποτέλεσμα, τότε η είσοδος πρέπει να ελέγχεται.
*Ο Γεράσιμος Τζιβράς είναι προγραμματιστής, καθηγητής στην Τριτοβάθμια Εκπαίδευση και υποψήφιος διδάκτορας του Τμήματος Πληροφορικής και Τηλεπικοινωνιών του Πανεπιστημίου Πελοποννήσου, με αντικείμενο τις Προσαρμοστικές Διεπαφές Χρήστη. Η ερευνητική του εργασία επικεντρώνεται στη μοντελοποίηση της προβλεπτικής συμπεριφοράς χρηστών και στον δυναμικό επανασχεδιασμό διεπαφών με τη βοήθεια τεχνητής νοημοσύνης με στόχο τη δημιουργία πιο προσωποποιημένων και λειτουργικών εμπειριών χρήσης.