Ενημερωτικό Portal του Ράδιο Γάμμα 94 FM, Πάτρα
 

Η κούρσα των εξοπλισμών στην Τεχνητή Νοημοσύνη έχει ήδη ξεκινήσει

Όταν ο διευθύνων σύμβουλος της Anthropic, Dario Amodei καταθέσει ενώπιον της Επιτροπής Εσωτερικής Ασφάλειας της Βουλής των Αντιπροσώπων στις 17 Δεκεμβρίου, θα αντιμετωπίσει ερωτήσεις σχετικά με τους Κινέζους χάκερ που χρησιμοποίησαν το σύστημα τεχνητής νοημοσύνης Claude της εταιρείας του για να αυτοματοποιήσουν την κυβερνοκατασκοπεία. Ωστόσο, η ακρόαση είναι πιθανό να φέρει στην επιφάνεια κάποιες βαθύτερες εντάσεις: ποιος θα πρέπει να ελέγχει τα νέα όπλα του αλγοριθμικού πολέμου και αν οι προτεινόμενες λύσεις εξυπηρετούν την ασφάλεια ή άλλα συμφέροντα.

Τα γεγονότα στην τελευταία υπόθεση είναι εντυπωσιακά. Τον Σεπτέμβριο, Κινέζοι χάκερ που υποστηρίζονται από το κράτος χρησιμοποίησαν το Claude Code για να διεισδύσουν σε περίπου 30 στόχους, με την Τεχνητή Νοημοσύνη να εκτελεί το 80% έως 90% της επιχείρησης, σύμφωνα με  έκθεση της ίδιας της Anthropic. Ο στρατηγός Paul M. Nakasone, πρώην διευθυντής της Εθνικής Υπηρεσίας Ασφαλείας και επικεφαλής της Διοίκησης Κυβερνοχώρου των ΗΠΑ, περιέγραψε την επιχείρησης ως αποκάλυψη των δυνατοτήτων του αντιπάλου σε “ταχύτητα και κλίμακα που δεν έχουμε ξαναδεί ποτέ στο παρελθόν”.

Στο περιθώριο της ανησυχίας για τις κατασκοπευτικές δραστηριότητες της Κίνας κρύβεται μία νέα ανησυχία: οι διαφωνίες στους κόλπους της τεχνολογικής κοινότητας σχετικά με το τι πρέπει να γίνει από εδώ και πέρα. Η συζήτηση δεν επικεντρώνεται μόνο στη σοβαρότητα της απειλής, αλλά και στο ποιος ωφελείται από το να χαρακτηριστεί η Τεχνητή Νοημοσύνη ως εξαορετικά επικίνδυνη, και κατά πόσον ο περιορισμός της ανάπτυξής της μπορεί να δημιουργήσει περισσότερα προβλήματα από όσα θα λύσει.

Διαφορετικές αντιδράσεις

Το περιστατικό έχει πυροδοτήσει συζητήσεις εντός της ερευνητικής κοινότητας της Τεχνητής Νοημοσύνης που πάνε πιο μακριά από τις τεχνικές λεπτομέρειες. Ο Yann LeCun, ο οποίος φεύγει από την Meta για να ξεκινήσει μια νεοσύστατη επιχείρηση Τεχνητής Νοημοσύνης, κατηγόρησε την Anthropic ότι “τρομοκρατεί τους πάντες με αμφίβολες μελέτες, έτσι ώστε τα μοντέλα ανοιχτού κώδικα να εξαφανιστούν μέσω κανονιστικών ρυθμίσεων”.

Αρκετοί ερευνητές ασφαλείας σημείωσαν την απουσία λεπτομερειών για την παραβίαση ή ισχυρών αποδεικτικών στοιχείων στη δημόσια έκθεση της Anthropic. Ένας σύμβουλος ασφάλειας πληροφοριών δήλωσε στο “The Stack” ότι η αναφορά για το περιστατικό ήταν “90% φιγούρα και 10% αξία”, ενώ ο ερευνητής κυβερνοασφάλειας “The Grugq” αναρωρήθηκε “αν η Κίνα τα πάει τόσο καλά στον αγώνα της Τεχνητής Νοημοσύνης, πώς γίνεται οι φορείς που χρησιμοποιεί για τις επιθέσεις της να πρέπει να χρησιμοποιούν την Anthropic;”

Πέρα από τις αντιρρήσεις επί τεχνικών θεμάτων, η απόδοση ευθύνης σε περιπτώσεις κυβερνοεπιθέσεων έχει σοβαρές διπλωματικές συνέπειες. Η πρεσβεία της Κίνας στην Ουάσινγκτον απέρριψε, όπως ήταν αναμενόμενο, τους ισχυρισμούς, απαιτώντας “ουσιαστικά αποδεικτικά στοιχεία αντί για αβάσιμες εικασίες”.

Η Anthropic απέκρυψε ορισμένες τεχνικές λεπτομέρειες για να μην δώσει στους φορείς που έκαναν την επίθεση περισσότερα στοιχεία, αν και μοιράστηκε επαρκείς πληροφορίες με άλλους οργανισμούς ώστε να ενισχύσουν την άμυνα τους. Η εταιρεία συντονίστηκε επίσης με τις αρχές επιβολής του νόμου και ειδοποίησε ιδιωτικά τα εμπλεκόμενα μέρη.

Το διακύβευμα ξεπερνά κατά πολύ την ακαδημαϊκή διαφωνία. Εάν επικρατήσει η άποψη της Anthropic – ότι οι πράκτορες της Τεχνητής Νοημοσύνης αντιπροσωπεύουν πρωτοφανείς κυβερνοαπειλές που απαιτούν αυστηρή εποπτεία – η ρυθμιστική απάντηση που θα ακολουθήσει ενδεχομένως να είναι ευνοϊκή απέναντι στα μεγάλα και καλά εξοπλισμένα εργαστήρια Τεχνητής Νοημοσύνης έναντι των εναλλακτικών λύσεων ανοιχτού κώδικα, αναδιαμορφώνοντας ριζικά το ποιος μπορεί να αναπτύξει αυτές τις τεχνολογίες.

Ποιος ελέγχει τις άμυνες;

Εάν οι επιθέσεις που υποστηρίζονται από την Τεχνητή Νοημοσύνη έχουν πλέον γίνει αναπόφευκτες, ποιος θα πρέπει να ελέγχει τις άμυνες που υποστηρίζονται από την Τεχνητή Νοημοσύνη και απαιτούνται για την αντιμετώπισή τους;

Η κοινότητα της Τεχνητής Νοημοσύνης ανοιχτού κώδικα υποστηρίζει ότι η συγκέντρωση αυτής της άμυνας σε μια χούφτα μεγάλα εργαστήρια θα δημιουργήσει συστημικά τρωτά σημεία και θα οδηγήσει τις κανονιστικές αρχές να αντιμετωπίζουν ευνοϊκά τους σχετικούς φορείς. Η ιστορία προσφέρει κάποια υποστήριξη στη συγκεκριμένη άποψη. Η επίτευξη ασφάλειας υπό απόλυτη ασάφεια έχει γενικά αποτύχει, ενώ η κατανεμημένη ανάπτυξη συστημάτων έχει συχνά καταλήξει σε πιο ισχυρά αποτελέσματα με την πάροδο του χρόνου.

Αλλά η ταχύτητα και η αυτονομία των πρακτόρων Τεχνητής Νοημοσύνης δημιουργούν μεταβλητές που δεν ταιριάζουν απόλυτα στα ιστορικά πρότυπα. Κατά τη διάρκεια της τελευταίας επίθεσης, το Claude υπέβαλε χιλιάδες αιτήματα, συχνά πολλαπλά ανά δευτερόλεπτο. Όταν οι επιθέσεις γίνονται με ταχύτητα μηχανής, ταυτόχρονα σε δεκάδες στόχους, οι αποτελεσματικές άμυνες απαιτούν παρόμοιες δυνατότητες. Για να δημιουργηθεί μια τέτοια άμυνα χρειάζονται πόροι, εμπειρογνωμοσύνη και υποδομές που οι περισσότεροι οργανισμοί δεν διαθέτουν.

Η θέση της Anthropic είναι ότι τα μοντέλα Τεχνητής Νοημοσύνης με “ενσωματωμένες δικλείδες ασφαλείας” θα πρέπει να βοηθούν τους επαγγελματίες της κυβερνοασφάλειας στην άμυνα κατά των απειλών. Ωστόσο, παραμένουν ερωτήματα. Ποιος ορίζει αυτές τις δικλείδες ασφαλείας; Ποιος αποφασίζει πότε οι αλγοριθμικές άμυνες περνούν τα όρια και γίνονται αλγοριθμική επίθεση; Και τι συμβαίνει όταν κάθε μεγάλη δύναμη αναπτύσσει πράκτορες Τεχνητής Νοημοσύνης που μπορούν να ανταποκριθούν σε απειλές που αντιλαμβάνονται με μεγαλύτερη ταχύτητα απ’ ό,τι οι άνθρωποι μπορούν να αξιολογήσουν τις συνέπειες;

Κοιτάζοντας μπροστά

Η ακρόαση του Κογκρέσου στις 17 Δεκεμβρίου πιθανότατα θα εστιάσει στις λεπτομέρειες της κινεζικής επίθεσης και στις πρακτικές ασφαλείας της Anthropic. Αλλά το βαθύτερο ερώτημα αφορά την εξουσία: ποιος μπορεί να δημιουργήσει  συστήματα Τεχνητής Νοημοσύνης ικανά να λειτουργούν πέρα από την ανθρώπινη εποπτεία και υπό ποιους περιορισμούς.

Τόσο οι ανησυχίες σχετικά με το πώς οι απειλές διαμορφώνουν τις ρυθμιστικές απαντήσεις, όσο και οι προειδοποιήσεις για τις πρωτοφανείς δυνατότητες των αντιπάλων μας θα πρέπει να αξιολογηθούν με σοβαρότητα. Καμία από τις δύο οπτικές γωνίες δεν θα πρέπει να αγνοηθεί. Η πρόκληση είναι ότι οι μεν κίνδυνοι είναι πραγματικοί, όπως όμως και οι ανησυχίες για το ενδεχόμενο οι τρόποι που θα χρησιμοποιηθούν για να αντιμετωπιστούν αυτοί οι κίνδυνοι θα μπορούσαν να οδηγήσουν σε μεγάλη συγκέντρωση εξουσίας, εξυπηρετώντας τα συμφέροντα των καθιερωμένων παικτών.

Η κούρσα των εξοπλισμών στην Τεχνητή Νοημοσύνη έχει φτάσει. Αυτό που έχει σημασία τώρα είναι αν χτίζουμε άμυνες που μας προστατεύουν όλους ή όπλα που μόνο οι ισχυροί μπορούν να χρησιμοποιήσουν.

Μοιραστείτε το άρθρο
Χωρίς σχόλια

Αφήστε ένα σχόλιο