Τουλάχιστον 3 χαρακτήρες

Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΗΔΗ ΜΑΣ ΠΑΡΑΚΟΛΟΥΘΕΙ ΣΤΟ ΜΕΤΡΟ

Η Τεχνητή Νοημοσύνη ήδη μας παρακολουθεί στο μετρό
Φωτ. Christopher Burns / Unsplash
Χιλιάδες ανυποψίαστοι Βρετανοί είναι βέβαιο πως έχουν «σκαναριστεί» από κάμερες συνδεδεμένες σε σύστημα τεχνητής νοημοσύνης της Amazon. Το δίκτυο, που δοκιμάστηκε σε σταθμούς πιλοτικά χωρίς να ενημερωθούν οι επιβάτες, μαθαίνει να «μαντεύει» συναισθήματα και καταστάσεις, που θα μπορούσαν να προμηνύουν κάποια επικίνδυνη ή αντικοινωνική συμπεριφορά.

Χιλιάδες Βρετανοί που χρησιμοποιούσαν καθημερινά τα τρένα στο Ηνωμένο Βασίλειο, πιθανότατα «σκαναρίστηκαν» από κάμερες με λογισμικό της Amazon στο πλαίσιο εκτεταμένων δοκιμών τεχνητής νοημοσύνης, όπως αποκαλύπτουν νέα έγγραφα που φέρνει στο φως το περιοδικό Wired.

Το αυτόματο σύστημα αναγνώρισης εικόνας χρησιμοποιήθηκε για την πρόβλεψη της ηλικίας, του φύλου και των πιθανών συναισθημάτων των ταξιδιωτών – με την υπόνοια ότι τα δεδομένα θα μπορούσαν να χρησιμοποιηθούν, μελλοντικά, από συστήματα προώθησης διαφημιστικών μηνυμάτων.

Κατά τη διάρκεια των τελευταίων δύο ετών, οκτώ σιδηροδρομικοί σταθμοί σε όλο το Ηνωμένο Βασίλειο -συμπεριλαμβανομένων μεγάλων σταθμών όπως οι Euston και Waterloo του Λονδίνου – έθεσαν δοκιμαστικά σε λειτουργία ένα σύστημα επιτήρησης, τεχνητής νοημοσύνης, με κάμερες ασφαλείας, με στόχο την έγκαιρη ειδοποίηση του προσωπικού για περιστατικά κινδύνου και τη δυνητική μείωση ορισμένων τύπων εγκληματικότητας.

Στις εκτεταμένες δοκιμές, τις οποίες επιβλέπει ο οργανισμός σιδηροδρομικών υποδομών Network Rail, χρησιμοποιήθηκε ένα είδος μηχανικής μάθησης που μπορεί να αναγνωρίζει αντικείμενα σε βίντεο, ώστε να εντοπίζονται άτομα που καταπατούν τις ράγες, να παρακολουθείται και προβλέπεται ο συνωστισμός, και να γίνονται άμεσα αντιληπτές «αντικοινωνικές συμπεριφορές» – από το τρέξιμο και τις φωνές στις αποβάθρες, μέχρι το κάπνισμα και τους ύποπτους για κλοπές ποδηλάτων.

Σε παραλληλες δοκιμές χρησιμοποιήθηκαν ασύρματοι αισθητήρες για την ανίχνευση ολισθηρών δαπέδων, γεμάτων κάδων απορριμμάτων και αποχετεύσεων που ενδέχεται να υπερχειλίσουν.

Η υπόθεση αποκαλύφθηκε κατόπιν επίσημου αιτήματος που επικαλείται το δικαίωμα στην πληροφόρηση και τις κεκτημένες πολιτικές ελευθερίες, από την ομάδα Big Brother Watch. «Η εξάπλωση και η κανονικοποίηση της επιτήρησης της Τεχνητής Νοημοσύνης σε αυτούς τους δημόσιους χώρους, χωρίς πολλές διαβουλεύσεις και συζητήσεις, είναι ένα αρκετά ανησυχητικό βήμα», σχολιάζει ο Τζέικ Χέρφουρτ, επικεφαλής έρευνας και ερευνών της ομάδας.

Οι δοκιμές Τεχνητής Νοημοσύνης χρησιμοποίησαν τις έξυπνες κάμερες ασφαλείας που μπορούν να ανιχνεύουν αντικείμενα ή κινήσεις από τις εικόνες που καταγράφουν, καθώς και παλαιότερες κάμερες που μεταδίδουν live εικόνα μέσω υπηρεσιών cloud. Κάθε σταθμός διαθέτει πέντε με επτά κάμερες. Στα έγγραφα αναφέρονται 50 πιθανά σενάρια χρήσης τεχνητής νοημοσύνης, αν και δεν φαίνεται να εφαρμόστηκαν αυτές στις δοκιμές. Στον σταθμό London Euston, ήταν προγραμματισμένο να δοκιμαστεί ένα σύστημα πρόγνωσης «κινδύνου αυτοκτονίας», αλλά σημειώνεται πως, παρότι η κάμερα δεν είχε τα επιθυμητά αποτελέσματα, το προσωπικό δεν θεώρησε απαραίτητο να την αντικαταστήσει λόγω του ότι ο σταθμός ήταν τερματικός.

Ο Χέρφουρτ υποστηρίζει ότι οι δοκιμές επικεντρώθηκαν ιδιαίτερα στα δημογραφικά στοιχεία των επιβατών. Σύμφωνα με τα έγγραφα, αυτή η εγκατάσταση θα μπορούσε να χρησιμοποιήσει τις εικόνες από τις κάμερες για να παράγει μια στατιστική ανάλυση του ηλικιακού εύρους και των δημογραφικών στοιχείων ανδρών – γυναικών αναλύοντας επίσης τα συναισθήματα τους, όπως χαρά, λύπη και θυμό.

Οι περαστικοί καταγράφονταν καθώς διέσχιζαν ένα «εικονικό όριο» κοντά στις μπάρες των εισιτηρίων και οι εικόνες τους αναλύονταν από το σύστημα Rekognition της Amazon, το οποίο επιτρέπει την ανάλυση προσώπων και αντικειμένων.

«Αυτό θα μπορούσε να επιτρέψει ακόμα και τη μέτρηση του επιπέδου ικανοποίησης των επιβατών», σημειωνόταν στα έγραφα, με την επισήμανση ότι «τα δεδομένα αυτά θα μπορούσαν να αξιοποιηθούν για μεγιστοποιηθούν τα αποτελέσματα διαφημιστικών ενεργειών και τα έσοδα λιανικής πώλησης».

Οι ερευνητές της τεχνητής νοημοσύνης έχουν συχνά προειδοποιήσει ότι η χρήση της τεχνολογίας για την ανίχνευση συναισθημάτων είναι “αναξιόπιστη” και ορισμένοι λένε ότι η τεχνολογία θα πρέπει να απαγορευτεί.

Τον Οκτώβριο του 2022, η ρυθμιστική αρχή δεδομένων του Ηνωμένου Βασιλείου, το Γραφείο του Επιτρόπου Πληροφοριών, προειδοποιούσε, με δημόσια ανακοίνωση, κατά της χρήσης Τεχνητής Νοημοσύνης για την ανάλυση συναισθημάτων, υπογραμμίζοντας αυτή η τεχνολογία είναι σε αναξιόπιστο και δυνητικά προβληματικό «εμβρυακό» στάδιο.

Στην ευρωπαϊκή ένωση, οι νέοι κανόνες απαγορεύουν τις εφαρμογές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων. Απαγορεύει επίσης την αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, και την «προληπτική αστυνόμευση», όταν αυτή βασίζεται αποκλειστικά στην κατάρτιση προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ