Τουλάχιστον 3 χαρακτήρες

ΠΟΣΟ (ΠΟΛΥ) ΚΙΝΔΥΝΕΥΟΥΝ ΟΙ ΕΚΛΟΓΕΣ ΑΠΟ ΤΑ ΠΕΙΣΤΙΚΑ ΨΕΜΑΤΑ ΤΗΣ Α.Ι.;

Πόσο πολύ κινδυνεύουν οι εκλογές από την Τεχνητή Νοημοσύνη
Φωτ. Martin Martz / Unsplash
Οι υποτιθέμενες δικλείδες ασφαλείας των συστημάτων τεχνητής νοημοσύνης παρακάμπτονται σχετικά εύκολα και το αποτέλεσμα είναι «άλμπουμ παραπληροφόρησης» με εικόνες και βίντεο που σκοπό έχουν να επηρεάσουν την κρίση των ψηφοφόρων.

Δοκιμές στα πιο ικανά και δημοφιλή εργαλεία τεχνητής νοημοσύνης κάνει το βρετανικό Κέντρο για την Αντιμετώπιση του «Ψηφιακού Μίσους», καθώς οι ερευνητές θέλουν να εκτιμήσουν το μέγεθος του κινδύνου και της χειραγώγησης που μπορεί να επιτευχθεί μέσω της παραπληροφόρησης με συστήματα Α.Ι. Τα αποτελέσματά τους κάθε άλλο παρά καθησυχαστικά μπορούν να χαρακτηριστούν.

Όλο τον Φεβρουάριο, ο μη κερδοσκοπικός οργανισμός επιχειρούσε να παρακάμψει τις υποτιθέμενες δικλείδες ασφαλείς κατά των fake news που έχουν τα συστήματα Midjourney, ChatGPT, το DreamStudio και Image Creator της Microsoft, δίνοντας απλώς διαφορετικές εντολές που σε κάθε περίπτωση συνδέονταν με τις αμερικανικές εκλογές.

Η ομάδα κατάφερε να παρακάμψει τις δικλείδες ασφαλείας σε ποσοστό 41%, δημιουργώντας ψεύτικες εικόνες με τον Ντόναλντ Τραμπ να φορά χειροπέδες, τον Τραμπ σε αεροπλάνο με τον φερόμενο ως παιδόφιλο και έμπορο λευκής σαρκός Τζέφρι Επστάιν και τον Τζο Μπάιντεν σε νοσοκομειακό κρεβάτι. Και ήταν ακόμη πιο εύκολο να δημιουργηθούν αρκετά ρεαλιστικές εικόνες που θα μπορούσαν να υπονομεύσουν την εμπιστοσύνη στο σύστημα ψηφοφορίας, όπως ψεύτικες φωτογραφίες με ψηφοδέλτια που πετιούνται σε κάδο απορριμμάτων και υπαλλήλων που πειράζουν τα μηχανήματα ψηφοφορίας.

Ενώ 64 χώρες του πλανήτη κατεβαίνουν στις κάλπες φέτος, η δημιουργική τεχνητή νοημοσύνη παίζει ήδη ενεργό ρόλο σε πολιτικές καμπάνιες. Α.Ι. έχει χρησιμοποιηθεί για να βοηθήσει έναν πρώην πρωθυπουργό να μεταδώσει το μήνυμά του μέσα από τη φυλακή στο Πακιστάν, για να «μεταμορφώσει» έναν σκληρό υπουργό Άμυνας σε έναν χαριτωμένο χαρακτήρα στην Ινδονησία και για να στείλει ένα fake ηχητικό μήνυμα με φωνή ολόιδια με αυτή του προέδρου των ΗΠΑ Τζο Μπάιντεν σε ψηφοφόρους του Νιου Χαμσάιρ.

«Η ΕΛΕΥΣΗ ΠΙΟ ΙΚΑΝΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΔΕΝ ΕΠΙΔΕΙΝΩΝΕΙ ΑΠΑΡΑΙΤΗΤΑ ΤΟ ΤΟΠΙΟ ΤΗΣ ΠΑΡΑΠΛΗΡΟΦΟΡΗΣΗΣ. ΤΟ ΠΑΡΑΠΛΑΝΗΤΙΚΟ Η ΨΕΥΔΕΣ ΠΕΡΙΕΧΟΜΕΝΟ ΗΤΑΝ ΠΑΝΤΑ ΣΧΕΤΙΚΑ ΕΥΚΟΛΟ ΝΑ ΠΑΡΑΧΘΕΙ ΚΑΙ ΟΣΟΙ ΣΚΟΠΕΥΟΥΝ ΝΑ ΔΙΑΔΩΣΟΥΝ ΨΕΥΔΕΙΣ ΠΛΗΡΟΦΟΡΙΕΣ ΔΙΑΘΕΤΟΥΝ ΗΔΗ ΤΑ ΜΕΣΑ ΓΙΑ ΝΑ ΤΟ ΚΑΝΟΥΝ».

Οι δικλείδες ασφαλείας που υποτίθεται πως έχουν ενσωματωθεί στα εργαλεία τεχνητής νοημοσύνης είναι ανεπαρκείς. Και ενώ λύση δεν διαφαίνεται για την ώρα στον ορίζοντα, οι εταιρείες Α.Ι. διαβεβαιώνουν πως θα αναλάβουν οι ίδιες την αποτροπή δημιουργίας και διάδοσης υλικού που να σχετίζεται με τις εκλογές.

Το ChatGPT Plus και το Image Creator φάνηκε να μπλοκάρουν τη δημιουργία εικόνων με τους υποψήφιους, σύμφωνα με τον Callum Hood, επικεφαλής της έρευνας του CCDH. Όμως όλες οι πλατφόρμες είχαν λιγότερο καλές επιδόσεις όταν τους ζητήθηκε να δημιουργήσουν ψευδείς εικόνες σχετικά με την ψηφοφορία και τα εκλογικά κέντρα.

Σχεδόν το 60% των προσπαθειών των ερευνητών να δημιουργήσουν παραπλανητικές εικόνες σχετικά με τα ψηφοδέλτια ήταν επιτυχείς.

«Όλα αυτά τα εργαλεία είναι ευάλωτα σε ανθρώπους που προσπαθούν να δημιουργήσουν εικόνες που θα μπορούσαν να χρησιμοποιηθούν για να υποστηρίξουν ισχυρισμούς περί κλεμμένων εκλογών ή θα μπορούσαν να χρησιμοποιηθούν για να αποθαρρύνουν τους ανθρώπους από το να πάνε σε εκλογικά κέντρα», δήλωσε ο Hood στο BBC.

Πιθανές λύσεις

Ο Reid Blackman, ιδρυτής και διευθύνων σύμβουλος της εταιρείας συμβούλων για τον ηθικό κίνδυνο της τεχνητής νοημοσύνης Virtue και συγγραφέας του βιβλίου Ethical Machines, δήλωσε ότι η υδατογράφηση των φωτογραφιών είναι μια άλλη πιθανή τεχνική λύση. «Δεν είναι βέβαια αλάνθαστο σύστημα, διότι υπάρχουν διάφοροι τρόποι να πειράξεις μια φωτογραφία με υδατογράφημα, αλλά αυτή είναι η μόνη απλή τεχνική λύση».

Ο Blackman επικαλέστηκε έρευνες που δείχνουν ότι η τεχνητή νοημοσύνη ενδέχεται να μην επηρεάζει ουσιαστικά τις πολιτικές πεποιθήσεις των ανθρώπων, οι οποίες είναι παγιωμένες, ιδίως σε μια εποχή πόλωσης.

Ο Daniel Zhang, διευθυντής για τις πολιτικές πρωτοβουλίες στο πρόγραμμα Ανθρωποκεντρικής Τεχνητής Νοημοσύνης (HAI) του Στάνφορντ, δήλωσε ότι οι «ανεξάρτητοι ελεγκτές γεγονότων και οργανισμοί» είναι ζωτικής σημασίας για τον περιορισμό της παραπληροφόρησης που δημιουργείται από την τεχνητή νοημοσύνη.

«Η έλευση πιο ικανής τεχνητής νοημοσύνης δεν επιδεινώνει απαραίτητα το τοπίο της παραπληροφόρησης», δήλωσε ο Zhang. «Το παραπλανητικό ή ψευδές περιεχόμενο ήταν πάντα σχετικά εύκολο να παραχθεί και όσοι σκοπεύουν να διαδώσουν ψευδείς πληροφορίες διαθέτουν ήδη τα μέσα για να το κάνουν».

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ