Πώς ελέγχεται το μυαλό

Δημοσιεύτηκε από economia 22/10/2019 0 Σχόλια The Economist,

Οικονομική Επιθεώρηση, Οκτώβριος 2019, τ. 987

από τον Τhe Economist

 

 

 

 

Όσο οι υπολογιστές θα παίζουν μεγαλύτερο ρόλο στον πόλεμο τόσο οι κίνδυνοι για τους ανθρώπους θα μεγαλώνουν

 

 

 

Η αντιπαράθεση μεταξύ Κίνας και Αμερικής, των δύο υπερδυνάμεων της υφηλίου, έχει πολλές πτυχές: από τις αψιμαχίες για τις ποσοστώσεις παραγωγής χάλυβα μέχρι τους τσακωμούς για τις βίζες των φοιτητών. Ένας τομέας που παρακολουθείται λιγότερο, αλλά είναι από τους πιο επίφοβους, είναι η ταχύτατη μετάβαση προς τον πόλεμο τον βασιζόμενο στην τεχνητή νοημοσύνη. Και οι δύο χώρες επενδύουν μεγάλα ποσά σε στρατιωτικού τύπου τεχνητή νοημοσύνη (ΑΙ): από αυτόνομα ρομπότ μέχρι λογισμικό που δίνει στους στρατηγούς ταχύτερο τακτικό πλεονέκτημα στην κορύφωση της μάχης. Η Κίνα ανησυχεί επειδή η Αμερική έχει ένα προβάδισμα λόγω της προόδου των δυτικών εταιρειών, ιδίως με την επιτυχία τους στα προωθημένα στρατηγικά παίγνια. Η Αμερική πάλι φοβάται ότι οι αυταρχικοί ηγέτες της Κίνας διαθέτουν ελεύθερη πρόσβαση σε πλήθος δεδομένων, ενώ μπορούν να επιστρατεύουν τις εγχώριες επιχειρήσεις στην υπηρεσία του εθνικού σκοπού. Καμία από τις δύο πλευρές δεν δέχεται να μείνει πίσω. Όπως εξηγούσε ο Jack Shanahan, ο στρατηγός του Πενταγώνου που οδηγεί τις εξελίξεις στην ΑΙ: «Εκείνο που δεν θα ‘θελα να δω είναι ένα μέλλον όπου οι δυνητικοί αντίπαλοί μας θα είχαν δυνάμεις πλήρως στηριζόμενες σε ΑΙ, ενώ εμείς όχι».

 

Οπλικά συστήματα πλήρως βασιζόμενα σε ΑΙ μπορούν να εξασφαλίσουν υπεράνθρωπη ταχύτητα και ακρίβεια. Έχουν όμως και τη δυνατότητα να ανατρέψουν την ισορροπία δυνάμεων. Προκειμένου να εξασφαλισθεί στρατηγικό πλεονέκτημα, μπορεί να επικρατήσει ο πειρασμός να δοθεί στους στρατούς η δυνατότητα όχι απλώς να υποβάλλουν προτάσεις, αλλά και να δίνουν διαταγές. Κάτι τέτοιο θα μπορούσε να έχει ανησυχητικές συνέπειες. Καθώς θα έχει τη δυνατότητα να σκέφτεται πιο γρήγορα από τον ανθρώπινο νου, ένα σύστημα αυτόνομης στρατιωτικής απόφασης θα μπορούσε να στοχεύσει πυραύλους σε αεροπλανοφόρα και αεροπορικές βάσεις με τέτοιο ρυθμό, που δεν θα αφήνεται χώρος για διπλωματία – ενώ και ο τρόπος επέμβασης δεν θα είναι απόλυτα κατανοητός στους ανθρώπινους χειριστές. Πέρα απ’ όλα αυτά, τα συστήματα ΑΙ είναι δυνατόν να χακάρονται ή και να εξαπατώνται από δεδομένα με στόχο τη χειραγώγηση.

 

Στη διάρκεια του 20ού αιώνα, ο κόσμος τελικά βρήκε τρόπους να διαχειρίζεται μια ριζική μεταβολή υποδείγματος που επήλθε στη στρατιωτική τεχνολογία: την εμφάνιση της πυρηνικής βόμβας. Τελικά, μια πλανητική καταστροφή αποφεύχθηκε με τον συνδυασμό τριών προσεγγίσεων: της αποτροπής, του ελέγχου των εξοπλισμών και των μέτρων ασφαλείας. Πολλοί σήμερα αναζητούν το αντίστοιχο για την εποχή της ΑΙ. Δυστυχώς, οι προσπάθειες αυτές είναι χλωμές – και τούτο όχι μόνον επειδή η τεχνολογία αυτή είναι νέα.

 

Η λογική της αποτροπής στηριζόταν στην από κοινού διαπίστωση ότι, αν χρησιμοποιούνταν πυρηνικές βόμβες, η διακινδύνευση θα ήταν καταστροφική και για τις δυο πλευρές. Όμως η απειλή από την ΑΙ είναι λιγότερο κραυγαλέα και λιγότερο σαφής. Μπορεί να υποβοηθήσει τα αιφνιδιαστικά πλήγματα ή να τα αποτρέψει, ενώ ο αριθμός των νεκρών θα μπορούσε να κυμανθεί από μηδέν μέχρι εκατομμύρια ανθρώπους. Αντίστοιχα, ο έλεγχος των εξοπλισμών της εποχής του Ψυχρού Πολέμου στηριζόταν στη διαφάνεια, δηλαδή τη δυνατότητα να είναι γνωστό με ένα σημαντικό μέτρο αξιοπιστίας το τι θα επιχειρούσε η απέναντι πλευρά. Αντίθετα όμως απ’ ό,τι ισχύει με τα σιλό των πυραύλων, το λογισμικό δεν είναι δυνατόν να παρακολουθείται από δορυφόρους. Ενώ οι πυρηνικές κεφαλές δεν μπορούν να ελεγχθούν από εκπροσώπους του εχθρού χωρίς να επέλθει βλάβη στην ισχύ τους, αν ένας αλγόριθμος επιδειχθεί στον έξω κόσμο θα χαθεί η χρησιμότητά του. «Η εκ μέρους του αντιπάλου άγνοια των διατάξεων που αναπτύσσονται μέσω ΑΙ θα καταστεί στρατηγικό πλεονέκτημα», εξηγεί ο Χένρι Κίσινγκερ, ο οποίος είχε καθοδηγήσει τις προσπάθειες ελέγχου των εξοπλισμών εκ μέρους των ΗΠΑ έναντι της ΕΣΣΔ.

 

Μένει να προσεγγίσει κανείς τον τελευταίο εφικτό έλεγχο: την ασφάλεια. Τα πυρηνικά οπλοστάσια περιλαμβάνουν πολύπλοκα συστήματα, όπου ο κίνδυνος ατυχήματος είναι μεγάλος. Έχουν λοιπόν αναπτυχθεί πρωτόκολλα χρήσης, που εγγυώνται ότι τα όπλα δεν θα μπορούσαν να χρησιμοποιηθούν χωρίς έγκριση, όπως π.χ. μηχανισμοί που εγγυώνται ότι δεν θα εκρήγνυνται οι βόμβες σε περίπτωση που υπάρξει πρόωρη ρίψη τους. Χρειάζεται πολύ περισσότερη σκέψη προκειμένου να βρεθούν ανάλογες εξασφαλίσεις που θα μπορούσαν να ισχύσουν για ένα σύστημα ΑΙ – ιδίως δε όταν πρόκειται για συστήματα που ως αποστολή τους θα έχουν να ενορχηστρώνουν δράση στρατιωτικών δυνάμεων σε ένα χαοτικό και ομιχλώδες πεδίο μάχης.

 

Οι αρχές τις οποίες οφείλουν να ενσωματώνουν αυτοί οι κανόνες είναι προφανείς. Η ΑΙ θα πρέπει να αντανακλά ανθρώπινες αξίες, όπως π.χ. δικαιοσύνη. Θα πρέπει επίσης να αποδειχθεί ανθεκτική και στις απόπειρες παραπλάνησής της. Κυρίως –αν είναι η ΑΙ να αποδειχθεί ασφαλής– θα χρειαστεί να μπορεί να επεξηγηθεί, όσο το δυνατόν περισσότερο, ώστε οι άνθρωποι να μπορούν να κατανοούν πώς θα λαμβάνονται πλέον οι αποφάσεις. Πολλές δυτικές επιχειρήσεις που αναπτύσσουν ΑΙ για εμπορικούς σκοπούς, συμπεριλαμβανομένων των αυτοκινήτων χωρίς οδηγό και του λογισμικού αναγνώρισης προσώπου, ήδη δοκιμάζουν τα συστήματα ΑΙ που διαθέτουν προκειμένου να τα κάνουν να αποκτήσουν τέτοιου είδους χαρακτηριστικά. Όμως, στη στρατιωτική σφαίρα το επίδικο είναι πιο κρίσιμο, καθώς η παραπλάνηση αποτελεί τον κανόνα, ενώ και οι ρυθμοί είναι υπερεντατικοί.

 

Στην αντιπαράθεση μεταξύ των δύο παγκόσμιων υπερδυνάμεων υπάρχει ο πειρασμός να παραλείπονται στάδια στην ανάπτυξη συστημάτων ώστε να αποκτηθεί πρόσκαιρο πλεονέκτημα. Μέχρι στιγμής δεν έχουμε ενδείξεις για το κατά πόσον δίνεται αρκετή σημασία στους κινδύνους – αν και το κέντρο ΑΙ του Πενταγώνου προσέλαβε ήδη σύμβουλο επί ηθικών θεμάτων. Πάντως, το να αφεθεί ο πόλεμος στους υπολογιστές θα είναι κάτι που θα καταστήσει τον κόσμο πιο επικίνδυνο μέρος – για όλους.

Αφήστε ένα σχόλιο