Τουλάχιστον 3 χαρακτήρες

ΤΕΛΟΣ ΧΡΟΝΟΥ ΓΙΑ ΤΑ ΕΠΙΚΙΝΔΥΝΑ ΣΥΣΤΗΜΑΤΑ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΕΝΤΟΣ ΕΕ

Τέλος χρόνου για τα επικίνδυνα συστήματα Τεχνητής Νοημοσύνης εντός ΕΕ
Φωτ. Tara Winstead
Ποιες πρακτικές συστημάτων ΑΙ θεωρούνται επικίνδυνες και απαράδεκτες, αρχής γενομένης από σήμερα, για τους Ευρωπαίους πολίτες.

Τα μεσάνυχτα της Κυριακής έληξε και επίσημα η προθεσμία για τη απαγόρευση ορισμένων συστημάτων τεχνητής νοημοσύνης και την απαίτηση για τη διασφάλιση «επαρκούς τεχνολογικού αλφαβητισμού» του προσωπικού στην Ευρωπαϊκή Ένωση.

Ο νέος νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη τίθεται επίσημα σε εφαρμογή, εισάγοντας αυστηρούς περιορισμούς και σημαντικά πρόστιμα για παραβάσεις. Σε μία παγκόσμια πρωτοτυπία, η Ε.Ε. γίνεται η πρώτη ένωση κρατών που απαγορεύει συστήματα ΤΝ που θεωρούνται επικίνδυνα, προβαίνοντας π.χ. σε κοινωνική «βαθμολόγηση» ή αναγνώριση προσώπου σε πραγματικό χρόνο.

Οι εταιρείες που δεν συμμορφώνονται μπορεί να αντιμετωπίσουν πρόστιμα έως 35 εκατομμύρια ευρώ ή 7% των ετήσιων εσόδων τους. Οι κυρώσεις αυτές είναι αυστηρότερες από αυτές του GDPR, που προβλέπει πρόστιμα έως 20 εκατομμύρια ευρώ ή 4% του παγκόσμιου κύκλου εργασιών.

Ο Τάσος Σταμπέλος, επικεφαλής της δημόσιας πολιτικής της Mozilla με την Ε.Ε. και τις κυβερνήσεις των κρατών μελών, είχε σχολιάσει σχετικά στο CNBC πως, αν και «δεν είναι τέλειος», ο νόμος της ΕΕ για την τεχνητή νοημοσύνη είναι «πολύ απαραίτητος».

«Είναι αρκετά σημαντικό να αναγνωρίσουμε ότι ο Νόμος για την Τεχνητή Νοημοσύνη είναι κατά κύριο λόγο μια νομοθεσία που αφορά την ασφάλεια των προϊόντων (…) Η συμμόρφωση θα εξαρτηθεί από το πώς θα διαμορφωθούν τα πρότυπα, οι κατευθυντήριες γραμμές, η δευτερογενής νομοθεσία που θα ορίζουν στην πράξη τι θα σημαίνει συμμόρφωση».

Τον Δεκέμβριο, το Γραφείο Τεχνητής Νοημοσύνης της ΕΕ, ένας νεοσύστατος φορέας που ρυθμίζει τη χρήση μοντέλων σύμφωνα με τον Νόμο για την Τεχνητή Νοημοσύνη, δημοσίευσε ένα δευτερεύον κώδικα για τα μοντέλα Τεχνητής Νοημοσύνης γενικού σκοπού (GPAI), το οποίο αφορά συστήματα όπως η γκάμα εκδόσεων GPT της OpenAI για μεγάλα γλωσσικά μοντέλα ή LLM.

Το σχέδιο απαιτεί, μεταξύ άλλων, από τους προγραμματιστές «συστημικών» μοντέλων να υποβάλλονται σε αυστηρές αξιολογήσεις πιθανού κινδύνου.

Καθολική απαγόρευση ορισμένων πρακτικών

Οι νέοι κανόνες απαγορεύουν τις εφαρμογές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων. Θα απαγορεύονται επίσης η αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση (όταν βασίζεται αποκλειστικά στην κατάρτιση προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.

Εξαιρέσεις για τις αρχές επιβολής του νόμου

Η χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου απαγορεύεται κατά κανόνα, με εξαίρεση συγκεκριμένες περιπτώσεις που ορίζει λεπτομερώς ο νέος κανονισμός. Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» επιτρέπεται μόνο υπό αυστηρές προϋποθέσεις: αν, για παράδειγμα, η βιομετρική ταυτοποίηση θα χρησιμοποιηθεί μόνο για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές. Τέτοιες περιπτώσεις μπορεί να είναι η στοχευμένη αναζήτηση αγνοουμένου προσώπου ή η πρόληψη μιας τρομοκρατικής επίθεσης. Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε ύστερο χρόνο» θεωρείται υψηλού κινδύνου και απαιτεί δικαστική έγκριση που θα συνδέεται με κάποιο ποινικό αδίκημα.

Υποχρεώσεις για τα συστήματα υψηλού κινδύνου

Ο νέος κανονισμός θέτει σαφείς υποχρεώσεις και για τα υπόλοιπα συστήματα τεχνητής νοημοσύνης που θεωρούνται υψηλού κινδύνου, λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου.

Το κείμενο απαριθμεί τους τομείς στους οποίους χρησιμοποιούνται ή ενδέχεται να χρησιμοποιηθούν τέτοια συστήματα και οι οποίοι είναι: οι κρίσιμες υποδομές, η εκπαίδευση και η επαγγελματική κατάρτιση, η απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), η επιβολή του νόμου, η διαχείριση της μετανάστευσης και των συνόρων, καθώς και οι δικαστικές και δημοκρατικές διαδικασίες (π.χ. για τον επηρεασμό εκλογικών διαδικασιών). Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για τυχόν αποφάσεις που βασίστηκαν σε συστήματα υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους.

Απαιτήσεις για διαφάνεια

Τα συστήματα τεχνητής νοημοσύνης «γενικής χρήσης» και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσής τους με τη νομοθεσία της ΕΕ για τα δικαιώματα πνευματικής ιδιοκτησίας και της δημοσιοποίησης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιούν για την εκπαίδευση των μοντέλων τους. Για τα ισχυρότερα μοντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυσλειτουργίες.

Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο (τα λεγόμενα «προϊόντα βαθυπαραποίησης» ή «deepfakes») θα πρέπει να επισημαίνεται σαφώς.

Μέτρα για στήριξη της καινοτομίας και των μικρών και μεσαίων επιχειρήσεων

Οι εθνικές αρχές κάθε χώρας θα πρέπει να δημιουργήσουν «ρυθμιστικά δοκιμαστήρια» για να δοκιμάζονται σε πραγματικές συνθήκες τα συστήματα τεχνητής νοημοσύνης. Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νεοφυείς επιχειρήσεις, για να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα μοντέλα τεχνητής νοημοσύνης πριν από τη διάθεσή τους στην αγορά.

 

 

 

 

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ