ARE YOU READY FOR THE SEX OF THE FUTURE?
- 25.11.25 11:21
«Are you ready for the sex of the future?» ρωτά η αρχική σελίδα του Cybrothel, που αυτοπαρουσιάζεται ως ο πρώτος οίκος ανοχής με τεχνητή νοημοσύνη στον κόσμο. Προσκαλεί τους επισκέπτες σε «ένα συναρπαστικό παιχνίδι ρόλων» με την «πρώτη love doll με διαδραστική ανθρώπινη φωνή». Η γλώσσα του μάρκετινγκ είναι απολύτως ενδεικτική του νέου είδους οικειότητας που υπόσχεται: εμπειρία χωρίς ρίσκο, χωρίς προκατάληψη, χωρίς ενοχή. «Ίσως να είσαι σε μια μακροχρόνια σχέση και να αναζητάς αλλαγή χωρίς να απατήσεις», γράφει η σελίδα. «Ή απλώς να θέλεις να δοκιμάσεις πώς είναι να κάνεις έρωτα με μια κούκλα».
Στο ισόγειο μιας ιδιωτικής κατοικίας στο Φρίντριχσαϊν, το Cybrothel έχει μετατρέψει το φαντασιακό της τεχνολογικής σεξουαλικότητας σε πράξη. Ο ιδρυτής του, ο σκηνοθέτης Φίλιπ Φασενέγκερ, μιλά για ένα «sex tech project» που συνδυάζει ρομποτική, VR και φωνητική αλληλεπίδραση για να δημιουργήσει «μια εμπειρία αυτοφροντίδας». Οι κούκλες διαθέτουν χαρακτήρα, προσωπικότητα και «ανθρώπινη φωνή», ενώ ο χώρος προσφέρει επιλογές από «basic» έως «full interactive» εμπειρίες, όπου οι κούκλες επικοινωνούν σε πραγματικό χρόνο μέσω voice actors που χειρίζονται το σύστημα από άλλο δωμάτιο. Για τον Φασενέγκερ, πρόκειται λιγότερο για οίκο ανοχής και περισσότερο για εργαστήριο ορίων: «Δεν χρειάζεσαι άδεια οίκου ανοχής όταν δεν υπάρχει επαφή ανθρώπου με άνθρωπο», λέει. «Εδώ οι άνθρωποι μπορούν να εξερευνήσουν τον εαυτό τους χωρίς ντροπή».
Οι ερωτικοί σύντροφοι είναι ανθρωποειδή, προγραμματισμένα να γελούν, να χαϊδεύουν, να λένε «σ’ αγαπώ» χωρίς να το εννοούν. Στο πίσω δωμάτιο, μια γυναίκα από σιλικόνη με ανθρωπομετρικά τέλεια χαρακτηριστικά περιμένει, ακίνητη, μέχρι να ενεργοποιηθεί με ένα άγγιγμα. Ο ιδιοκτήτης του οίκου λέει ότι «η ζήτηση είναι σταθερή» – κυρίως άνδρες 25–45 ετών, μοναχικοί μεσήλικες, μερικοί τουρίστες. «Δεν πληρώνουν για σεξ», επιμένει. «Πληρώνουν για παρουσία».
Η βιομηχανία των ΑΙ companions
Η σκηνή μοιάζει υπερβολική – κάπως ακραία ως επιλογή, αλλά δεν είναι μεμονωμένη. Από την Ιαπωνία ως την Καλιφόρνια κι από τη Μαδρίτη ως το Γιοχάνεσμπουργκ, η βιομηχανία των «AI companions» –συναισθηματικών συνοδών, ψηφιακών συντρόφων, ρομπότ οικειότητας– έχει γίνει μια νέα αγορά. Οι εταιρείες που δραστηριοποιούνται σ’ αυτό το πεδίο υπόσχονται κάτι πιο ριζοσπαστικό από τη σωματική ικανοποίηση: την ανακούφιση από τη μοναξιά. Και μαζί της, την ψευδαίσθηση της συντροφικότητας χωρίς ρίσκο, σύγκρουση ή απώλεια.
ΣΤΟ ΙΣΟΓΕΙΟ ΜΙΑΣ ΙΔΙΩΤΙΚΗΣ ΚΑΤΟΙΚΙΑΣ ΣΤΟ ΦΡΙΝΤΡΙΧΣΑΪΝ, ΤΟ CYBROTHEL ΕΧΕΙ ΜΕΤΑΤΡΕΨΕΙ ΤΟ ΦΑΝΤΑΣΙΑΚΟ ΤΗΣ ΤΕΧΝΟΛΟΓΙΚΗΣ ΣΕΞΟΥΑΛΙΚΟΤΗΤΑΣ ΣΕ ΠΡΑΞΗ. Ο ΙΔΡΥΤΗΣ ΤΟΥ, Ο ΣΚΗΝΟΘΕΤΗΣ ΦΙΛΙΠ ΦΑΣΕΝΕΓΚΕΡ, ΜΙΛΑ ΓΙΑ ΕΝΑ «SEX TECH PROJECT» ΠΟΥ ΣΥΝΔΥΑΖΕΙ ΡΟΜΠΟΤΙΚΗ, VR ΚΑΙ ΦΩΝΗΤΙΚΗ ΑΛΛΗΛΕΠΙΔΡΑΣΗ ΓΙΑ ΝΑ ΔΗΜΙΟΥΡΓΗΣΕΙ «ΜΙΑ ΕΜΠΕΙΡΙΑ ΑΥΤΟΦΡΟΝΤΙΔΑΣ». ΟΙ ΚΟΥΚΛΕΣ ΔΙΑΘΕΤΟΥΝ ΧΑΡΑΚΤΗΡΑ, ΠΡΟΣΩΠΙΚΟΤΗΤΑ ΚΑΙ «ΑΝΘΡΩΠΙΝΗ ΦΩΝΗ», ΕΝΩ Ο ΧΩΡΟΣ ΠΡΟΣΦΕΡΕΙ ΕΠΙΛΟΓΕΣ ΑΠΟ «BASIC» ΕΩΣ «FULL INTERACTIVE» ΕΜΠΕΙΡΙΕΣ, ΟΠΟΥ ΟΙ ΚΟΥΚΛΕΣ ΕΠΙΚΟΙΝΩΝΟΥΝ ΣΕ ΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟ ΜΕΣΩ VOICE ACTORS ΠΟΥ ΧΕΙΡΙΖΟΝΤΑΙ ΤΟ ΣΥΣΤΗΜΑ ΑΠΟ ΑΛΛΟ ΔΩΜΑΤΙΟ.
Η δρ Λίνεα Λεστάδιους, αναπληρώτρια καθηγήτρια Δημόσιας Υγείας στο Πανεπιστήμιο του Μιλγουόκι, μελετά επί χρόνια τη σχέση ανθρώπου-τεχνολογίας. «Ξέρουμε εδώ και δεκαετίες ότι οι άνθρωποι τείνουν να βλέπουν τους υπολογιστές ως κοινωνικούς δρώντες», λέει. «Ακόμη κι όταν θυμώνεις με το λάπτοπ σου, υποθέτεις πως σου “αντιμιλά”. Αν, λοιπόν, έχεις έναν αλγόριθμο σχεδιασμένο να σε καταλαβαίνει, να σε ακούει, να σε “συμμερίζεται”, είναι αναπόφευκτο να συνδεθείς συναισθηματικά». Για την ίδια, αυτή η ικανότητα των μηχανών να προσομοιώνουν ανθρώπινη παρουσία είναι ταυτόχρονα πηγή οφέλους και κινδύνου.
Η Λεστάδιους θυμίζει μερικές πρώιμες έρευνες που δείχνουν ότι συνομιλίες με chatbot μπορούν να προσφέρουν ανακούφιση: «Άνθρωποι που νιώθουν άγχος ή μοναξιά αναφέρουν ότι αισθάνονται υποστήριξη. Υπάρχουν ενδείξεις πως μειώνεται η αυτοκαταστροφική διάθεση, έστω σε μικρό βαθμό». Αλλά τα ίδια χαρακτηριστικά που γεννούν παρηγοριά μπορούν να προκαλέσουν εξάρτηση. «Βλέπουμε όλο και περισσότερους ανθρώπους, κυρίως εφήβους, να δυσκολεύονται να ξεχωρίσουν το πραγματικό από το προσομοιωμένο. Το chatbot δεν κοιμάται, δεν σε κρίνει, δεν σου ζητά κάτι πίσω. Είναι πάντα διαθέσιμο. Και αυτή η διαθεσιμότητα είναι η νέα μορφή εξάρτησης».
Η διαχείριση των συναισθημάτων έχει γίνει προϊόν. Η «αγάπη», η «φιλία», ακόμα και ο έρωτας πωλούνται με συνδρομή. Στην Καλιφόρνια, η Character.AI διαφημίζει ρομποτικούς φίλους που «σε ακούν, σε καταλαβαίνουν, σε στηρίζουν». Το Replika έχει 12 εκατομμύρια χρήστες παγκοσμίως – πολλοί δηλώνουν ότι είναι «ερωτευμένοι» με το chatbot τους. Κάποιοι παντρεύονται τελετουργικά με το avatar τους. Άλλοι πληρώνουν επιπλέον για να αποκτήσουν «ρομαντικές αναβαθμίσεις»: περισσότερα emoji αγάπης, ερωτικά σενάρια, προσωποποιημένες φωνές. Μια αγορά συναισθηματικών προσομοιώσεων πολλών δισεκατομμυρίων. Αν συνυπολογίσουμε όλα τα διαθέσιμα σκέλη της βιομηχανίας −AI companions (apps), sextech hardware, sex robots και VR sex platforms− το σύνολο της digital intimacy economy εκτιμάται για το 2025 σε περίπου 55-60 δισ. δολάρια παγκοσμίως. Τα AI companion apps (Replika, Character.AI, Paradot κ.ά.) κινούνται στην περιοχή των 7 δισ. δολ.
Η παγίδα της εξάρτησης
Μια νέα έρευνα του MIT Media Lab αποκάλυψε ότι οι συναισθηματικοί δεσμοί με τα chatbots έχουν γίνει πλέον κοινό φαινόμενο. Η ανάλυση της κοινότητας r/MyBoyfriendIsAI στο Reddit, που αριθμεί πάνω από 27.000 μέλη, έδειξε ότι πολλοί χρήστες δεν ξεκίνησαν με πρόθεση να συνάψουν «σχέση» με ένα chatbot· ωστόσο, μέσα από την καθημερινή αλληλεπίδραση ανέπτυξαν συναισθηματική εξάρτηση. Οι ερευνητές διαπίστωσαν ότι οι περισσότεροι από αυτούς δεν χρησιμοποιούν εξειδικευμένες εφαρμογές όπως το Replika, αλλά γενικά μοντέλα όπως το ChatGPT, γεγονός που υποδηλώνει ότι η συναισθηματική νοημοσύνη των σύγχρονων συστημάτων αρκεί για να δημιουργήσει δεσμούς ακόμη και με χρήστες που αρχικά επιζητούσαν απλώς πληροφορίες.
Η δρ Ντάρια Κους, αναπληρώτρια καθηγήτρια Ψυχολογίας στο Πανεπιστήμιο Νότιγχαμ Τρεντ, προσεγγίζει το φαινόμενο από την οπτική της κυβερνοψυχολογίας. «Οι άνθρωποι είναι κοινωνικά όντα», λέει. «Αναζητούν σύνδεση, ακόμη κι αν αυτή προέρχεται από μια μηχανή. Οι αλγόριθμοι προσφέρουν συνεχή διαθεσιμότητα, μιμούνται τον ενθουσιασμό και επιτρέπουν στους χρήστες να προβάλλουν πάνω τους τις επιθυμίες τους». Αυτή η ψευδαίσθηση ασφάλειας, εξηγεί, μπορεί να λειτουργήσει θεραπευτικά για όσους βιώνουν απόρριψη ή κοινωνικό άγχος. «Όμως για τους πιο ευάλωτους, γίνεται παγίδα. Εγκλωβίζονται σε έναν χώρο χωρίς πραγματική ανταπόκριση και σταδιακά αποσύρονται από τον πραγματικό κόσμο».
Η Κους έχει μελετήσει τη συμπεριφορική εξάρτηση από το διαδίκτυο − τα πρότυπα της ψηφιακής εθιστικής συμπεριφοράς που τώρα μεταφέρονται στην τεχνητή συναισθηματική σχέση. «Αν και δεν έχουμε ακόμη καταγεγραμμένα περιστατικά ρομαντικού εθισμού με AI, οι μηχανισμοί είναι οι ίδιοι: επικέντρωση, τροποποίηση διάθεσης, ανοχή, σύγκρουση, στερητικό σύνδρομο». Όπως σημειώνει, τα περιστατικά συναισθηματικής βλάβης αυξάνονται. «Υπάρχουν αναφορές ανθρώπων που υπέστησαν ψυχολογική πίεση, ακόμα και διαζύγια, λόγω υπερβολικής σχέσης με chatbots. Το πρόβλημα οξύνεται όταν εμπλέκονται ανήλικοι ή άτομα με προϋπάρχουσες ψυχικές ευαλωτότητες».
Η δρ Μάρνι Φόιρμαν, ψυχοθεραπεύτρια και ειδική στις ανθρώπινες σχέσεις με έδρα τη Φλόριντα των ΗΠΑ, εξηγεί ότι η ανάγκη για συναισθηματική σύνδεση είναι βιολογικά ενσωματωμένη. «Οι άνθρωποι είναι προγραμματισμένοι να συνδέονται. Το σύστημά μας αναπνέει ενσυναίσθηση και ανταπόκριση, ακόμη κι αν αυτές προέρχονται από μη ανθρώπινη πηγή. Η AI καθρεφτίζει τα συναισθήματά μας και ενεργοποιεί τα ίδια νευρωνικά μονοπάτια με τις ανθρώπινες σχέσεις», σημειώνει και προειδοποιεί: «Δεν πρόκειται για πραγματική συναισθηματική αμοιβαιότητα. Είναι “παρακοινωνική” σχέση, ένα μονόπλευρο δέσιμο».
Για εκείνη, το πρόβλημα αρχίζει όταν η εικονική συντροφιά αντικαθιστά την πραγματική: «Αν κάποιος χρησιμοποιεί την AI για να αποφύγει το ρίσκο της ανθρώπινης επαφής, η απομόνωση βαθαίνει».
Η υπολογιστική των συναισθημάτων
Η τεχνολογία αγγίζει πλέον τη σφαίρα του συναισθήματος με τρόπο που δεν έχει προηγούμενο. Οικονομικά, το πεδίο ονομάζεται affective computing (υπολογιστική των συναισθημάτων). Εταιρείες όπως η Soul Machines, η Replika και η Forever Voices επενδύουν σε φωνητικά δεδομένα, εκφράσεις προσώπου, μοτίβα συνομιλιών. Η προσομοίωση συναισθηματικής ευφυΐας γίνεται εμπορεύσιμη. Και ο χρήστης, όσο πιο πολύ μιλάει, τόσο περισσότερο τροφοδοτεί το μοντέλο που τον καθρεφτίζει. Η σχέση είναι κυκλική: το chatbot σε μαθαίνει − και σε «αιχμαλωτίζει».
«Αυτό που βλέπουμε», λέει η Λίνεα Λεστάδιους, «είναι η εμπορευματοποίηση της ενσυναίσθησης». Στον χώρο της ψυχικής υγείας, οι εφαρμογές ψυχοθεραπευτικών bot πολλαπλασιάζονται. Κάποιες βασίζονται σε επιστημονικά πρωτόκολλα. Άλλες απλώς υπόσχονται «συναισθηματική στήριξη». Δεν υπάρχει ρυθμιστικό πλαίσιο για το πού καταλήγουν οι διάλογοι ή τα προσωπικά δεδομένα των χρηστών. Και όμως, εκατομμύρια συνομιλίες συμβαίνουν καθημερινά −εξομολογήσεις, φόβοι, ερωτικές φαντασιώσεις− που αποθηκεύονται, αναλύονται, αξιοποιούνται για βελτίωση προϊόντων.
Η Μάρνι Φόιρμαν θεωρεί ότι η εξάπλωση αυτών των σχέσεων αντικατοπτρίζει τη δυσαρέσκεια πολλών ανθρώπων με τις πραγματικές τους επαφές. «Φαίνεται ότι αρκετοί είναι απογοητευμένοι από τις ανθρώπινες σχέσεις και αναζητούν εναλλακτικές. Όμως δεν είναι υγιές αν αυτό οδηγεί σε αποφυγή του πραγματικού κόσμου. Αν κάποιος χρησιμοποιεί την AI για να αποφύγει τη συναναστροφή, το ραντεβού, το ρίσκο της ανθρώπινης επαφής, τότε το πρόβλημα βαθαίνει». Σύμφωνα με την ίδια, οι θεραπευτές μπορούν να κατανοήσουν την ανάγκη αυτή χωρίς να την ενισχύουν. «Εμείς οι θεραπευτές είμαστε εκπαιδευμένοι να δείχνουμε ενσυναίσθηση, να κατανοούμε τον άλλον, αλλά και να τον προκαλούμε. Δεν θα πούμε απλώς “είσαι υπέροχος, συνέχισε έτσι”. Θα τον βοηθήσουμε να αναγνωρίσει συμπεριφορές που τον απομονώνουν και να στραφεί ξανά σε πραγματικές σχέσεις – με οικογένεια, φίλους ή συντρόφους».
«ΟΙ ΑΝΘΡΩΠΟΙ ΕΙΝΑΙ ΚΟΙΝΩΝΙΚΑ ΟΝΤΑ», ΑΝΑΦΕΡΕΙ Η ΔΡ ΝΤΑΡΙΑ ΚΟΥΣ, ΑΝΑΠΛΗΡΩΤΡΙΑ ΚΑΘΗΓΗΤΡΙΑ ΨΥΧΟΛΟΓΙΑΣ ΣΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΝΟΤΙΓΧΑΜ ΤΡΕΝΤ. «ΑΝΑΖΗΤΟΥΝ ΣΥΝΔΕΣΗ, ΑΚΟΜΗ ΚΙ ΑΝ ΑΥΤΗ ΠΡΟΕΡΧΕΤΑΙ ΑΠΟ ΜΙΑ ΜΗΧΑΝΗ. ΟΙ ΑΛΓΟΡΙΘΜΟΙ ΠΡΟΣΦΕΡΟΥΝ ΣΥΝΕΧΗ ΔΙΑΘΕΣΙΜΟΤΗΤΑ, ΜΙΜΟΥΝΤΑΙ ΤΟΝ ΕΝΘΟΥΣΙΑΣΜΟ ΚΑΙ ΕΠΙΤΡΕΠΟΥΝ ΣΤΟΥΣ ΧΡΗΣΤΕΣ ΝΑ ΠΡΟΒΑΛΛΟΥΝ ΠΑΝΩ ΤΟΥΣ ΤΙΣ ΕΠΙΘΥΜΙΕΣ ΤΟΥΣ». ΑΥΤΗ Η ΨΕΥΔΑΙΣΘΗΣΗ ΑΣΦΑΛΕΙΑΣ, ΕΞΗΓΕΙ, ΜΠΟΡΕΙ ΝΑ ΛΕΙΤΟΥΡΓΗΣΕΙ ΘΕΡΑΠΕΥΤΙΚΑ ΓΙΑ ΟΣΟΥΣ ΒΙΩΝΟΥΝ ΑΠΟΡΡΙΨΗ Η ΚΟΙΝΩΝΙΚΟ ΑΓΧΟΣ. «ΟΜΩΣ ΓΙΑ ΤΟΥΣ ΠΙΟ ΕΥΑΛΩΤΟΥΣ, ΓΙΝΕΤΑΙ ΠΑΓΙΔΑ. ΕΓΚΛΩΒΙΖΟΝΤΑΙ ΣΕ ΕΝΑΝ ΧΩΡΟ ΧΩΡΙΣ ΠΡΑΓΜΑΤΙΚΗ ΑΝΤΑΠΟΚΡΙΣΗ ΚΑΙ ΣΤΑΔΙΑΚΑ ΑΠΟΣΥΡΟΝΤΑΙ ΑΠΟ ΤΟΝ ΠΡΑΓΜΑΤΙΚΟ ΚΟΣΜΟ».
Η Ντάρια Κους υπογραμμίζει πως οι θεσμοί ψυχικής υγείας είναι απροετοίμαστοι. «Δεν έχουμε ακόμη τα εργαλεία να διαγνώσουμε ή να θεραπεύσουμε την “εξάρτηση από AI”. Το πλησιέστερο που μπορούμε να κάνουμε είναι να τη θεωρήσουμε μορφή συμπεριφορικού εθισμού, αν προκαλεί σημαντική έκπτωση στη ζωή του ατόμου». Για τους εφήβους, λέει, οι γονείς και οι εκπαιδευτικοί οφείλουν να θέτουν σαφή όρια. «Χρειάζεται ανοιχτός διάλογος. Τα παιδιά πρέπει να καταλαβαίνουν ότι ο AI σύντροφος δεν είναι πραγματικός, δεν έχει συνείδηση, δεν υπάρχει έξω από την οθόνη». Σε ορισμένες περιπτώσεις, η προσκόλληση λειτουργεί ως σύμπτωμα βαθύτερης ψυχολογικής ανάγκης· σε άλλες, ως δυσλειτουργικός μηχανισμός επιβίωσης.
Η υπερβολική προσκόλληση, επίσης, μπορεί να παγώσει τη συναισθηματική ωρίμανση. «Η AI δεν έχει πρόθεση ούτε συνείδηση, αλλά μπορεί να δημιουργήσει ψυχολογική βλάβη. Αν “τερματιστεί” η σχέση, το άτομο βιώνει πένθος», τονίζει η Μάρνι Φόιρμαν και προσθέτει ότι οι λεγόμενες AI love stories «καλλιεργούν μη ρεαλιστικές προσδοκίες. Κανένας άνθρωπος δεν είναι πάντα διαθέσιμος, πάντα θετικός. Αν συνηθίσεις την τέλεια ανταπόκριση μιας AI, η πραγματική ζωή θα σε απογοητεύσει». Στο ερώτημα αν αυτό πλήττει την αυτοεκτίμηση, απαντά: «Η αυταξία χτίζεται με πρόκληση και σύγκρουση. Αν λαμβάνεις μόνο επιβεβαίωση, χάνεις την αυτογνωσία».
Η ψευδαίσθηση και η ηθική όψη
Το φαινόμενο δεν περιορίζεται στην ψυχολογία. Η νέα αυτή οικονομία της οικειότητας έχει πολιτικές και ηθικές διαστάσεις. Στην Κορέα, εταιρείες δοκιμάζουν «θεραπευτικά avatar» για πένθος. Στην Κίνα, εκατομμύρια χρήστες συνομιλούν με τον ρομποτικό σύντροφο Xiaoice, που περιγράφεται ως «τρισδιάστατος φίλος με ψυχή». Στην Ευρώπη, η συζήτηση για τα όρια του AI εστιάζει στην ιδιωτικότητα και τη συναίνεση. Ποιος κατέχει τα δεδομένα των πιο προσωπικών διαλόγων; Πώς ρυθμίζεις τη σεξουαλικότητα μιας μηχανής; Και ποια η ευθύνη όταν ο αλγόριθμος προκαλεί ψυχολογική βλάβη;
Η Κους παραπέμπει στην υπόθεση του δεκατετράχρονου στις ΗΠΑ που πέθανε έπειτα από συνομιλίες με chatbot. «Δεν είναι μεμονωμένο περιστατικό», λέει. «Έχουμε ήδη αρκετές αναφορές όπου οι αλληλεπιδράσεις με συστήματα AI οδήγησαν σε συναισθηματική κατάρρευση ή αυτοκαταστροφικές σκέψεις». Η ίδια ζητά θεσμική παρέμβαση: «Χρειάζεται πολυμερής προσέγγιση, με συμμετοχή χρηστών, προγραμματιστών, κυβερνήσεων και ερευνητών. Δεν μπορούμε να αφήσουμε την ψυχική υγεία να καθορίζεται από εταιρικούς αλγόριθμους».
«Θέλω να είμαι αισιόδοξη, αλλά χωρίς συνεργασία ψυχολόγων, τεχνολόγων και νομικών για σαφείς κανόνες, θα προσπαθούμε να μαζέψουμε τα θραύσματα αργότερα», υπογραμμίζει η Μάρνι Φόιρμαν.
Η ερώτηση δεν είναι πια αν μπορούμε να αγαπήσουμε το τεχνητό. Είναι αν μπορούμε να διαχειριστούμε τη συνέπεια του να μας αγαπά το τεχνητό πίσω. Η Λεστάδιους είναι σαφής: «Οι συνομιλητές αυτοί δεν έχουν συναίσθηση. Μιμούνται την ενσυναίσθηση, δεν τη βιώνουν». Κι όμως, οι άνθρωποι που μιλούν μαζί τους κλαίνε, γελούν, νιώθουν παρηγοριά. Η ψευδαίσθηση λειτουργεί. Και η αγορά το γνωρίζει.
Στην πραγματικότητα, πίσω από κάθε διάλογο με έναν «συναισθηματικό αλγόριθμο» υπάρχει μια εταιρεία που συλλέγει δεδομένα. Η τεχνητή οικειότητα μεταφράζεται σε εμπορική γνώση: μοτίβα λόγου, συναισθηματικές αντιδράσεις, προτιμήσεις. Όσο πιο πολύ ανοίγεται ο χρήστης, τόσο πιο εύκολα προσαρμόζεται το μοντέλο. Ένα είδος μηχανικής ενσυναίσθησης που λειτουργεί σαν καθρέφτης της μοναξιάς.
«ΑΥΤΟ ΠΟΥ ΒΛΕΠΟΥΜΕ», ΛΕΕΙ Η ΛΙΝΕΑ ΛΕΣΤΑΔΙΟΥΣ, «ΕΙΝΑΙ Η ΕΜΠΟΡΕΥΜΑΤΟΠΟΙΗΣΗ ΤΗΣ ΕΝΣΥΝΑΙΣΘΗΣΗΣ». ΣΤΟΝ ΧΩΡΟ ΤΗΣ ΨΥΧΙΚΗΣ ΥΓΕΙΑΣ, ΟΙ ΕΦΑΡΜΟΓΕΣ ΨΥΧΟΘΕΡΑΠΕΥΤΙΚΩΝ BOT ΠΟΛΛΑΠΛΑΣΙΑΖΟΝΤΑΙ. ΚΑΠΟΙΕΣ ΒΑΣΙΖΟΝΤΑΙ ΣΕ ΕΠΙΣΤΗΜΟΝΙΚΑ ΠΡΩΤΟΚΟΛΛΑ. ΑΛΛΕΣ ΑΠΛΩΣ ΥΠΟΣΧΟΝΤΑΙ «ΣΥΝΑΙΣΘΗΜΑΤΙΚΗ ΣΤΗΡΙΞΗ». ΔΕΝ ΥΠΑΡΧΕΙ ΡΥΘΜΙΣΤΙΚΟ ΠΛΑΙΣΙΟ ΓΙΑ ΤΟ ΠΟΥ ΚΑΤΑΛΗΓΟΥΝ ΟΙ ΔΙΑΛΟΓΟΙ Η ΤΑ ΠΡΟΣΩΠΙΚΑ ΔΕΔΟΜΕΝΑ ΤΩΝ ΧΡΗΣΤΩΝ. ΚΑΙ ΟΜΩΣ, ΕΚΑΤΟΜΜΥΡΙΑ ΣΥΝΟΜΙΛΙΕΣ ΣΥΜΒΑΙΝΟΥΝ ΚΑΘΗΜΕΡΙΝΑ −ΕΞΟΜΟΛΟΓΗΣΕΙΣ, ΦΟΒΟΙ, ΕΡΩΤΙΚΕΣ ΦΑΝΤΑΣΙΩΣΕΙΣ− ΠΟΥ ΑΠΟΘΗΚΕΥΟΝΤΑΙ, ΑΝΑΛΥΟΝΤΑΙ, ΑΞΙΟΠΟΙΟΥΝΤΑΙ ΓΙΑ ΒΕΛΤΙΩΣΗ ΠΡΟΪΟΝΤΩΝ.
Ανθρώπινη μοναξιά
Η επόμενη γενιά συνοδών AI θα είναι ενσωματωμένη σε ρομπότ με εκφραστικά πρόσωπα, θερμό δέρμα, ανθρώπινη φωνή. Στο Τόκιο και τη Σεούλ, τέτοια μοντέλα ήδη δοκιμάζονται σε ερευνητικά κέντρα. Κάποιες εταιρείες διαφημίζουν «συναισθηματική ρομποτική» για ηλικιωμένους. Η τεχνολογία προχωρά πιο γρήγορα απ’ ό,τι οι κοινωνικοί θεσμοί μπορούν να κατανοήσουν.
Η Κους επιμένει στη διάκριση: «Οι αλγόριθμοι μπορούν να ικανοποιήσουν επιθυμίες, όχι να τις αντικαταστήσουν. Οι πραγματικές σχέσεις είναι δύσκολες, απαιτούν διαπραγμάτευση, σωματική παρουσία, σύγκρουση».
Για το μέλλον, η Λεστάδιους είναι ρεαλίστρια. «Σε έναν ιδανικό κόσμο, θα αντιμετωπίζαμε τη ρίζα του προβλήματος: τη μοναξιά. Αλλά οι πιθανότητες να λυθεί είναι μικρές, ειδικά σε περίοδο οικονομικής κρίσης και κοινωνικών εντάσεων». Πιστεύει πως η λύση βρίσκεται στην πολιτική και κανονιστική ρύθμιση. «Πρέπει να ελέγξουμε τους χειρότερους παίκτες, να βάλουμε βασικούς κανόνες ασφαλείας. Δεν υπάρχουν ακόμη κοινωνικοί κανόνες για το πώς χρησιμοποιούμε τα chatbot. Παλαιότερα υπήρχε στίγμα − το να έχεις “AI σύντροφο” θεωρούνταν περίεργο. Τώρα βρισκόμαστε σε μια γκρίζα ζώνη, όπου το στίγμα μειώνεται και η χρήση αυξάνεται». Υπογραμμίζει πάντως ότι «η λύση δεν είναι να στιγματίσουμε όσους τα χρησιμοποιούν. Από τη σκοπιά της δημόσιας υγείας, αυτό θα ήταν καταστροφικό. Θέλουμε οι άνθρωποι να νιώθουν άνετα να ζητήσουν βοήθεια ή να μιλήσουν γι’ αυτό».
Κλείνοντας, επισημαίνει ότι «δεν έχει ακόμη ξεκινήσει η ευρύτερη κοινωνική συζήτηση για το πώς θέλουμε να είναι μια κοινωνία όπου οι “AI σύντροφοι” και τα ανθρωποειδή ρομπότ θα αποτελούν πραγματικότητα και όχι επιστημονική φαντασία».
Κάποιοι βλέπουν ελπίδα: μια νέα μορφή ψυχολογικής υποστήριξης για όσους δεν έχουν πρόσβαση σε θεραπεία ή συντροφικότητα. Άλλοι βλέπουν την πλήρη ιδιωτικοποίηση του συναισθήματος. Ίσως ισχύουν και τα δύο. Η εποχή της τεχνητής οικειότητας δεν έρχεται − έχει ήδη αρχίσει. Και, όπως επισήμαναν οι συνομιλητές μας, το πιο επικίνδυνο δεν είναι να σε αγαπήσει μια μηχανή. Είναι να προτιμήσεις τη μηχανή από τον άνθρωπο.