Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΚΛΩΝΟΠΟΙΗΣΕ ΤΟΝ ΜΠΑΙΝΤΕΝ ΚΑΙ ΕΞΑΠΑΤΑ ΨΗΦΟΦΟΡΟΥΣ
- 25.01.24 14:10
Νιου Χαμσάιρ. ΗΠΑ. Με φόντο τον θρίαμβο του Τραμπ στην Αϊόβα, οι κάτοικοι ετοιμάζονται να ψηφίσουν στις προκριματικές εκλογές των Ρεπουμπλικάνων για το χρίσμα. Και ξαφνικά, η Τεχνητή Νοημοσύνη «επιτίθεται».
Χιλιάδες ψηφοφόροι δέχονται κλήσεις στα σπίτια και τα κινητά τους, όσοι το σηκώνουν, ακούν ένα ηχογραφημένο μήνυμα. Είναι η φωνή του προέδρου Τζο Μπάιντεν που τους προτρέπει να μην ψηφίσουν.
«Είναι σημαντικό να φυλάξετε την ψήφο σας για τις εκλογές του Νοεμβρίου. Η ψήφος αυτή την Τρίτη θα έδινε απλώς τη δυνατότητα στους Ρεπουμπλικανούς να εκλέξουν ξανά τον Ντόναλντ Τραμπ», ακούγεται να λέει. Μόνο που αυτός που μιλά στο τηλέφωνο δεν είναι ο Δημοκρατικός πρόεδρος, είναι ένα πρόγραμμα τεχνητής νοημοσύνης. Μία επίδειξη δύναμης από αγνώστους που εκμεταλλεύτηκαν τις δυνατότητες παραπλάνησης της ΑΙ για να επηρεάσουν το εκλογικό αποτέλεσμα. Εύλογα αναρωτιούνται πολλοί αν αυτή θα είναι η πραγματικότητα από εδώ και πέρα σε κάθε εθνικές εκλογές.
ΑΚΟΜΗ ΚΑΙ ΑΝ ΜΙΑ ΤΕΤΟΙΑ ΜΟΡΦΗ ΠΑΡΑΠΛΗΡΟΦΟΡΗΣΗΣ ΠΡΟΚΑΛΕΙ ΕΠΗΡΕΑΣΕΙ ΜΟΝΟ ΜΕΡΙΚΕΣ ΕΚΑΤΟΝΤΑΔΕΣ Η ΧΙΛΙΑΔΕΣ ΨΗΦΟΦΟΡΟΥΣ, ΜΠΟΡΕΙ ΝΑ ΑΠΟΔΕΧΤΕΙ ΣΗΜΑΝΤΙΚΗ ΓΙΑ ΤΑ ΑΠΟΤΕΛΕΣΜΑΤΑ
Ο Λευκός Οίκος εξέδωσε επίσημη ανακοίνωση ξεκαθαρίζοντας πως η κλήση ουδεμία σχέση έχει με τον Τζο Μπάιντεν.
Ο γενικός εισαγγελέας Τζον Φορμέλα επιβεβαίωσε πως το μήνυμα φαίνεται να έχει δημιουργηθεί με τεχνητά μέσα, υπογραμμίζοντας πως η υπόθεση ερευνάται ως μία «προφανής, παράνομη προσπάθεια να διαταραχθεί η προκριματική διαδικασία και να επηρεαστούν οι ψηφοφόροι του Νιου Χαμσάιρ».
«Η στιγμή των πολιτικών deep fake είναι εδώ», δήλωσε ο πρόεδρος της δεξαμενής σκέψης Public Citizen για την υπεράσπιση των δικαιωμάτων των πολιτών, Robert Weissman, καλώντας του βουλευτές να εφαρμόσουν μέτρα προστασίας κατά των fake ηχογραφήσεων και βιντεοσκοπήσεων, ώστε να αποτραπεί το «εκλογικό χάος».
Εν τω μεταξύ, όλο και περισσότερες πολιτικές καμπάνιες κάνουν χρήση τεχνητής νοημοσύνης για να προσεγγίσουν μαζικά τους ψηφοφόρους – και οι επενδυτές ρίχνουν σωρούς χρημάτων σε νεοφυείς εταιρείες κλωνοποίησης φωνής.
Τη Δευτέρα, και ενώ το deepfake τηλεφωνικό μήνυμα του «Μπάιντεν» διαδιδόταν στο Νιου Χαμσάιρ και από εκεί σε ολόκληρο τον πλανήτη, η startup αναπαραγωγής τεχνητής νοημοσύνης ElevenLabs ανακοίνωσε ότι συγκέντρωσε νέο γύρο χρηματοδότησης ανεβάζοντας την αξία της εταιρείας στα 1,1 δισ. Δολάρια.
Το Α.Ι. μήνυμα δεν ήταν το πρώτο. Πέρυσι, πειστικότατες ηχητικές απομιμήσεις διαδόθηκαν στα μέσα κοινωνικής δικτύωσης πριν τις βουλευτικές εκλογές της Σλοβακίας, συμπεριλαμβανομένου ενός κλιπ στο οποίο ο ηγέτης του κόμματος Michal Simecka ακουγόταν, δήθεν, να συζητά ένα σχέδιο εξαγοράς ψήφων.
Δεν είναι σαφές πώς ακριβώς δημιουργήθηκε το παραπλανητικό μήνυμα με την φωνή του Μπάιντεν, αλλά ο εντοπισμός της πηγής θα αποδειχθεί ιδιαίτερα δύσκολος, επειδή διαδόθηκε μέσω τηλεφώνου, όπως εξηγεί η Τζόαν Ντόνοβαν, επίκουρη καθηγήτρια δημοσιογραφίας και σπουδών αναδυόμενων μέσων ενημέρωσης στο Πανεπιστήμιο της Βοστώνης. Τα ηχητικά μηνύματα μέσω τηλεφώνου δεν αφήνουν ψηφιακά ίχνη. «Πρόκειται για μια ένδειξη βρώμικων κόλπων επόμενης γενιάς», σχολίασε η Ντόνοβαν.
«Είναι ξεκάθαρο ότι από όλα τα πιθανά προβλήματα που δημιουργεί η τεχνητή νοημοσύνη, τα deepfakes είναι η πιο άμεση πηγή ανησυχίας», δήλωσε η βουλευτής Ιβέτ Κλάρκ στο The Technology 202.
Πέρυσι, η Κλαρκ μαζί με άλλους βουλευτές παρουσίασε μια πληθώρα σχεδίων νόμου, εν μέσω ανησυχιών πως η τεχνητή νοημοσύνη θα μπορούσε να σπείρει τη διχόνοια στις προεδρικές εκλογές.
Τώρα η Κλαρκ και οι γερουσιαστές Εϊμι Κλουσάρ και Τζος Χόλεϊ προωθούν μία πρόταση για απαγόρευση της χρήσης Τεχνητής Νοημοσύνης για την παραγωγή παραπλανητικού υλικού που θα απεικονίζει με τεχνητό τρόπο υποψηφίους σε πολιτικές διαφημίσεις.
Ο ΘΡΙΑΜΒΟΣ ΤΟΥ ΤΡΑΜΠ ΣΤΗΝ ΑΪΟΒΑ ΩΣ ΟΙΩΝΟΣ ΤΟΥ ΑΝΑΠΟΦΕΥΚΤΟΥ
Ούτε η εμπρηστική στάση του κατά την εξέγερση στο Καπιτώλιο, ούτε οι τέσσερις εκκρεμείς δικαστικές…
Η Κλαρκ έχει επίσης εισαγάγει νομοθεσία που απαιτεί από τις καμπάνιες να γνωστοποιούν πότε έχει γίνει χρήση τεχνητής νοημοσύνης για τη δημιουργία βίντεο ή εικόνων σε πολιτικές διαφημίσεις. Βουλευτές πιέζουν για τη θέσπιση κανόνων που θα απαιτούν γραπτά προειδοποιητικά μηνύματα ή και υδατογραφήματα σε κάθε υλικό παραγωγής Α.Ι.
«Ακόμη και αν μια τέτοια μορφή παραπληροφόρησης προκαλεί επηρεάσει μόνο μερικές εκατοντάδες ή χιλιάδες ψηφοφόρους, μπορεί να αποδεχτεί σημαντική για τα αποτελέσματα, σημειώνει στο περιοδικό Time ο Νίκος Διακόπουλος, καθηγητής στο Πανεπιστήμιο Northwestern, ο οποίος έχει ερευνήσει την εκλογική χειραγώγηση μέσω παραποιημένων ηχητικών μηνυμάτων.
Η Ομοσπονδιακή Εκλογική Επιτροπή των ΗΠΑ έχει κάνει μικρά βήματα προς τη ρύθμιση των πολιτικών deepfakes, αλλά δεν έχει ακόμη πατάξει τις τεχνολογίες που βοηθούν στη δημιουργία τους. Ορισμένες πολιτείες έχουν προτείνει τους δικούς τους νόμους για να περιορίσουν τα deepfakes.
Οι υπεύθυνοι για τη διεξαγωγή των εκλογών κάνουν εκπαιδευτικές ασκήσεις για να προετοιμαστούν για μία «επίθεση».
Τον περασμένο Αύγουστο, περίπου 100 ομοσπονδιακοί και πολιτειακοί αξιωματούχοι συγκεντρώθηκαν στο Κολοράντο για να σκεφτούν την καλύτερη δυνατή απάντηση σε ένα υποθετικό σενάριο, στο οποίο ένα ψεύτικο βίντεο διασπείρει αναληθείς πληροφορίες για τις εκλογές. Τα deepfakes βρέθηκαν και στο επίκεντρο μιας άλλης άσκησης στην Αριζόνα τον Δεκέμβριο, όταν οι αξιωματούχοι επεξεργάστηκαν ένα σενάριο στο οποίο ένα βίντεο του υπουργού Εξωτερικών Adrian Fontes παραποιείται για να διαδοθούν ανακριβείς πληροφορίες.
Εν τω μεταξύ, τα εργαλεία ανίχνευσης ψεύτικων εικόνων και ηχητικών μηνυμάτων βρίσκονται ακόμη σε «νηπιακό στάδιο».
Τη Δευτέρα, το εργαλείο ανίχνευσης της ElevenLabs έδειξε ότι το τηλεφώνημα του Μπάιντεν ήταν απίθανο να έχει δημιουργηθεί με τη χρήση λογισμικού κλωνοποίησης – ακόμη και όταν η νεοσύστατη εταιρεία ανίχνευσης απομίμησης απομίμησης Clarity δήλωσε ότι η πιθανότητα να πρόκειται για απομίμηση ξεπερνούσε το 80%.