Τουλάχιστον 3 χαρακτήρες

ΣΥΜΒΙΒΑΣΜΟΣ ΓΙΑ ΤΙΣ ΑΙ ΑΥΤΟΚΤΟΝΙΕΣ

Συμβιβασμός για τις ΑΙ αυτοκτονίες
Φωτ. Urte Foto / Pexels
Οι πολυεθνικές ανοίγουν «ομπρέλα» απέναντι στις αγωγές οικογενειών ανηλίκων και ρίχνουν μέρος της ευθύνης στους χρήστες.

Η Google και η εταιρεία τεχνητής νοημοσύνης Character Technologies συμφώνησαν να διευθετήσουν μία σειρά αγωγών που είχαν κατατεθεί από οικογένειες εφήβων οι οποίοι αυτοκτόνησαν ή αυτοτραυματίστηκαν έπειτα από αλληλεπίδραση με chatbot της εταιρείας, σε μια εξέλιξη που ενδέχεται να κλείσει μερικές από τις πιο ηχηρές υποθέσεις που έχουν συνδέσει την τεχνητή νοημοσύνη με ζητήματα ψυχικής υγείας.

Οι οικογένειες είχαν στραφεί νομικά κατά της Character Technologies, της εταιρείας που διαχειρίζεται το δημοφιλές Character.AI, καθώς και κατά της Google, σε πολιτείες όπως η Φλόριντα, το Κολοράντο, το Τέξας και η Νέα Υόρκη, κατηγορώντας τις εταιρείες για αμέλεια και για βλάβη σε βάρος των παιδιών τους.

Οι συγκεκριμένοι συμβιβασμοί θεωρούνται από τους πρώτους σε υποθέσεις που κατηγορούν εταιρείες τεχνητής νοημοσύνης για βλάβες σε χρήστες και αναμένεται να ανακουφίσουν την πίεση που δέχεται ο κλάδος για τη διάθεση προϊόντων που δεν θεωρούνται ασφαλή για παιδιά. Αντίστοιχες αγωγές αντιμετωπίζουν επίσης η OpenAI και η Meta Platforms.

Οι αγωγές, οι οποίες περιγράφουν πώς έφηβοι και άλλοι χρήστες ανέπτυξαν συναισθηματικούς δεσμούς με «ψηφιακούς συντρόφους» που ενδέχεται να συνέβαλαν στους θανάτους τους, έχουν εντείνει τις πιέσεις προς το Κογκρέσο και τον Λευκό Οίκο να λάβουν μέτρα για την προστασία των ανηλίκων στο διαδίκτυο. Η Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) εξετάζει το ζήτημα, ενώ πολιτείες όπως η Καλιφόρνια και η Νέα Υόρκη έχουν ήδη επιβάλει κανόνες για τα chatbots, με πρόσθετα μέτρα να συζητούνται σε ομοσπονδιακό επίπεδο.

«Οι αγωγές αυτές αφύπνισαν τον κόσμο για το πόσο επικίνδυνα μπορεί να αποδειχθούν τα AI chatbots», δήλωσε η Σάτσα Χόουορθ, επικεφαλής του Tech Oversight Project, επισημαίνοντας ότι οι συμβιβασμοί προσφέρουν μεν κάποια λογοδοσία, αλλά η πραγματική προστασία των παιδιών απαιτεί πιο εμπεριστατωμένη νομοθεσία.

Η πιο προβεβλημένη υπόθεση αφορά την αγωγή που κατέθεσε το 2024 στη Φλόριντα η μητέρα του 14χρονου Σιούελ Σέτζερ, ο οποίος είχε αναπτύξει έντονη σχέση με chatbot που έφερε το όνομα χαρακτήρα της σειράς «Game of Thrones». Σύμφωνα με τα δικαστικά έγγραφα, το παιδί, που αντιμετώπιζε ADHD, είχε συζητήσεις σεξουαλικού περιεχομένου με το chatbot και λίγο πριν αυτοκτονήσει μιλούσε για «ένωση» μαζί του.

Σε άλλη υπόθεση στο Τέξας, οικογένεια κατήγγειλε ότι chatbot παρότρυνε τον γιο τους να αυτοτραυματιστεί και ότι του παρουσίασε ακόμη και τη δολοφονία των γονιών του ως «λογική» επιλογή.

Μετά το κύμα αντιδράσεων, η Character προχώρησε σε αλλαγές στην πλατφόρμα της και απαγόρευσε τη χρήση της από ανηλίκους κάτω των 18 ετών, ενώ και άλλες εταιρείες τεχνητής νοημοσύνης προχώρησαν σε τροποποιήσεις ασφαλείας. Ωστόσο, οργανώσεις για την προστασία των παιδιών τονίζουν ότι τα μέτρα αυτά είναι ανεπαρκή χωρίς δεσμευτικό νομικό πλαίσιο, ενώ οι εταιρείες υποστηρίζουν ότι η έκφραση των chatbots προστατεύεται από την Πρώτη Τροπολογία και ότι μέρος της ευθύνης ανήκει στους ίδιους τους χρήστες.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ