Τουλάχιστον 3 χαρακτήρες

«ΠΡΕΠΕΙ ΝΑ ΠΑΡΟΥΜΕ ΤΑ ΜΙΚΡΟΡΙΣΚΑ ΤΗΣ ΑΙ, ΑΛΛΙΩΣ ΔΕΝ ΘΑ ΠΡΟΟΔΕΥΣΟΥΜΕ»

«Πρέπει να πάρουμε τα μικρορίσκα της ΑΙ, αλλιώς δεν θα προοδεύσουμε»
Θα μας δικάζουν στο μέλλον συστήματα Τεχνητής Νοημοσύνης; Η ΑΙ ήδη βοηθά δικαστές στις ΗΠΑ. Θα κινδυνεύσουμε από προγράμματα που θέλουν το κακό μας; «Δόλιοι αλγόριθμοι» εθίζουν παιδιά στο διαδίκτυο εδώ και χρόνια. Ο καθηγητής της Επιστήμης των Αποφάσεων και Διοίκησης Τεχνολογίας στο INSEAD Θεόδωρος Ευγενίου παραμένει αισιόδοξος αφού «εμείς, οι άνθρωποι, αποφασίζουμε και θέτουμε τα όρια» σε κάθε τεχνολογική επανάσταση.

Όταν ο Δρ Θεόδωρος Ευγενίου καλείται να πάρει μια απόφαση, ίσως είναι σε πλεονεκτική θέση σε σχέση με τον περισσότερο κόσμο, μιας και είναι κυριολεκτικά καθηγητής της Επιστήμης των Αποφάσεων και Διοίκησης Τεχνολογίας στο INSEAD. Ασχολείται επίσης με τη Μηχανική Μάθηση και την Τεχνητή Νοημοσύνη εδώ και σχεδόν 30 χρόνια, γεγονός που τον καθιστά έναν από τους πλέον κατάλληλους συνομιλητές για τις πτυχές ενός φουτουριστικού παρόντος που ήρθε πολύ νωρίτερα από ό,τι υπολόγιζαν τα βιβλία επιστημονικής φαντασίας.

Θα μας δικάζουν στο μέλλον συστήματα Τεχνητής Νοημοσύνης; Η ΑΙ ήδη βοηθά δικαστές στις ΗΠΑ. Θα κινδυνεύσουμε από προγράμματα που θέλουν το κακό μας; «Δόλιοι αλγόριθμοι» εθίζουν παιδιά στο διαδίκτυο εδώ και χρόνια. Με αφορμή τα 90 της χρόνια, η Οικονομική Επιθεώρηση, πιστή στην τάση της μελλοντοστραφούς αναζήτησης που αποτέλεσε χαρακτηριστικό γνώρισμά της όλα αυτά τα χρόνια, επιχειρεί μια φιλοσοφική συζήτηση με έναν διανοητή που επιμένει πως παραμένει αισιόδοξος, αφού «εμείς, οι άνθρωποι, αποφασίζουμε και θέτουμε τα όρια» σε κάθε τεχνολογική επανάσταση.

Νοημοσύνη και συνείδηση

 

Οι υπολογιστές αποκτούν σταδιακά νοημοσύνη που θυμίζει ή και ξεπερνά την ανθρώπινη. Θα μπορούσαν όμως ποτέ να αποκτήσουν και συνείδηση; Πόσο απέχουμε από αυτό;

Αυτή είναι μία πολύ δύσκολη ερώτηση, στην οποία νομίζω κανείς δεν έχει απαντήσει. Υπάρχουν ένα σωρό θεωρίες φιλοσόφων για τη φύση της συνείδησης, αλλά δεν έχει δοθεί απάντηση ούτε για τους ανθρώπους. Θα πρέπει να διαχωρίσουμε τι έχει η ΑΙ από το τι νομίζουμε ότι έχει η ΑΙ. Είναι δύο διαφορετικά πράγματα. Για παράδειγμα, παρότι δεν διαθέτει κάποιες ικανότητες, εμείς ίσως νομίζουμε ότι τις έχει. Πριν από μερικά χρόνια, στην Ιαπωνία, τα παιδιά έπαιζαν με τα Tamagotchi, ηλεκτρονικά κατοικίδια που τα «τάιζαν» σαν να ήταν πραγματικά ζώα. Αυτό μας λέει πάρα πολλά για το πώς μπορούμε να ξεγελαστούμε. Στο κομμάτι της ΑΙ τώρα υπάρχουν πάρα πολύ διαφορετικές νοημοσύνες: αναλυτική, συναισθηματική, κιναισθητική. Σε κάποιες από αυτές είναι πολύ καλύτερη από εμάς ήδη. Ας πούμε σε εργασίες που σχετίζονται με την όραση, που στους ανθρώπους απασχολεί το 30% του εγκεφάλου, η Τεχνητή Νοημοσύνη μάς έχει ξεπεράσει εδώ και καμιά δεκαριά χρόνια.

Στη Βρετανία ένα σύστημα ΑΙ που χρησιμοποιήθηκε πρόσφατα πιλοτικά σε νοσοκομεία, εντόπισε ίχνη καρκίνου του μαστού σε απεικονιστικές εξετάσεις, που είχαν διαφύγει της προσοχής των γιατρών

Ακριβώς…

Ένας γιατρός όμως συνειδητοποιεί ότι βλέπει την εξέταση ενός ασθενούς. Η ΑΙ δεν αντιλαμβάνεται τι ακριβώς κάνει. Βασίζεται σε ανθρωπογενείς αλγόριθμους. Σωστά;

Ναι και όχι. Υπάρχει μεν ο κώδικας που γράφουμε εμείς, αλλά υπάρχει και το μοντέλο το οποίο αναπτύσσει η ίδια η ΑΙ αναλύοντας δεδομένα. Στην περίπτωση της ιατρικής εικόνας, κάθε pixel προσδιορίζεται από ορισμένες τιμές. Αυτά τα νούμερα αναλύει με βάση παραμέτρους που δεν έχουμε γράψει εμείς, είναι πράγματα που έχει μάθει μόνος του ο αλγόριθμος. Σκεφτείτε τεράστιες εξισώσεις με ένα δισεκατομμύριο παραμέτρους με μη γραμμικούς μετασχηματισμούς. Κάτι ανθρωπίνως αδύνατο να διαβάσει κανείς.

Καταφέραμε επομένως να δημιουργήσουμε κάτι πιο περίπλοκο από τους εαυτούς μας;

Κοιτάξτε, και το μυαλό μας είναι πολύ περίπλοκο, αλλά σίγουρα στην ΑΙ υπάρχει κάτι πιο πολύπλοκο από όσα μπορούμε να κατανοήσουμε.

ΑΥΤΟ ΠΟΥ ΣΙΓΟΥΡΑ ΥΠΑΡΧΕΙ ΕΙΝΑΙ Η ΔΟΛΙΑ ΧΡΗΣΗ ΤΗΣ ΑΙ ΑΠΟ ΔΟΛΙΟΥΣ ΑΝΘΡΩΠΟΥΣ. ΤΟ ΝΑ ΘΕΩΡΗΣΟΥΜΕ ΤΗΝ ΙΔΙΑ ΤΗΝ ΑΙ ΔΟΛΙΑ ΕΞΑΡΤΑΤΑΙ ΑΠΟ ΤΟΝ ΟΡΙΣΜΟ ΠΟΥ ΘΑ ΔΩΣΟΥΜΕ. ΓΙΑ ΠΑΡΑΔΕΙΓΜΑ ΤΟ ΣΥΣΤΗΜΑ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΠΟΥ ΠΡΟΒΑΛΛΕΙ ΔΙΑΦΗΜΙΣΕΙΣ ΣΕ ΕΝΑ ΠΑΙΔΙ ΜΕ ΣΤΟΧΟ ΝΑ ΤΟ ΚΑΝΕΙ ΝΑ ΕΘΙΣΤΕΙ ΘΑ ΜΠΟΡΟΥΣΕ ΚΑΝΕΙΣ ΝΑ ΠΕΙ ΟΤΙ ΕΙΝΑΙ ΔΟΛΙΟ. ΔΕΝ ΚΑΤΑΛΑΒΑΙΝΕΙ ΤΟ ΕΝ ΛΟΓΩ ΣΥΣΤΗΜΑ ΑΙ ΟΤΙ ΕΙΝΑΙ ΔΟΛΙΟ, ΑΛΛΑ Ο ΣΚΟΠΟΣ ΤΟΥ, ΓΙΑ ΤΟΝ ΟΠΟΙΟ ΕΧΕΙ ΠΡΟΓΡΑΜΜΑΤΙΣΤΕΙ, ΕΙΝΑΙ ΝΑ ΜΕΓΙΣΤΟΠΟΙΗΣΕΙ ΤΟΝ ΕΘΙΣΜΟ ΚΑΙ ΤΟΝ ΧΡΟΝΟ ΘΕΑΣΗΣ ΒΙΝΤΕΟ. ΑΥΤΟ ΤΟΥ ΕΙΠΑΝ ΝΑ ΚΑΝΕΙ.

Ρυθμός και δυνατότητα βελτίωσης των μηχανών

 

Προς το παρόν πάντως παρατηρούμε πως τα chatbots κάνουν αρκετά λάθη. Γράφουν ορισμένες φορές ανυπόστατα πράγματα, έχουν τις λεγόμενες «παραισθήσεις». Με τι ρυθμό βελτιώνονται οι μηχανές; Θα φτάσουμε σε ένα σημείο που η ΑΙ θα έχει ξαναγράψει ακόμα και τον εαυτό της και θα είναι… ολόσωστη;

Αυτό ήδη γίνεται, η τεχνητή νοημοσύνη να γράφει τον δικό της κώδικα. Υπάρχουν συστήματα ΑΙ που χρησιμοποιούν συνθετικά δεδομένα, τα οποία έχουν αναπτύξει τα ίδια. Το πιο επιτυχημένο παράδειγμα είναι το AlphaGo, που έμαθε παίζοντας εναντίον του εαυτού του.Έπαιξε δηλαδή το AlphaGo με τον εαυτό του, δημιουργώντας συνθετικά δεδομένα, τα οποία τα χρησιμοποίησε μετά για να μάθει πώς να παίζει. Από μόνο του έμαθε. Οπότε αυτή η ιδέα υπάρχει ήδη. Η Τεχνητή Νοημοσύνη βελτιώνει τον εαυτό της. Αυτό όμως που δεν ξέρουμε ακόμη είναι τα όριά μας, το πόσο καλά συστήματα μπορούμε να χτίσουμε ή να χτιστούν από μόνα τους. Και ακόμα πιο δύσκολο θα είναι ένα σύστημα ΑΙ το οποίο να αναπτύσσει καινούργιες θεωρίες και να κάνει και πειράματα, όπως ένας επιστήμονας, για να τεστάρει τις θεωρίες του.

Περνάμε στο «βασίλειο της φαντασίας». Πώς μπορεί μία μηχανή «εκ του μηδενός» να υποθέσει πράγματα, δηλαδή να αναρωτηθεί επί της ουσίας.

Ναι.

Αυτό θα προϋπέθετε ένα επίπεδο περιπλοκότητας που θα ήταν εφάμιλλο των νευρωνικών δομών που επιτρέπουν τη συνείδηση;

Δεν το γνωρίζω. Όπως είπα, κανείς δεν ξέρει τι ακριβώς σημαίνει συνείδηση, αν υπάρχει και σε ποιο σημείο εμφανίζεται. Αλλά αν καταφέρουμε να δημιουργήσουμε συστήματα ΑΙ που θα έχουν τις δικές τους θεωρίες για τον κόσμο, φυσικής, χημείας, οικονομίας, τότε θα έχουμε πετύχει μια υπερβολικά σημαντική πρόοδο. Φανταστείτε επιστήμονες καλύτερους από οποιονδήποτε επιστήμονα στην ιστορία της ανθρωπότητας. Θα μας βρουν λύσεις σε μυριάδες προβλήματα.

Ίσως έχει ενδιαφέρον και η δυνατότητα αθανασίας αυτών των συστημάτων. Ο Τέσλα ή ο Αϊνστάιν έφτασαν σε ένα συγκεκριμένο επίπεδο διάνοιας, ανέπτυξαν τις θεωρίες τους, αλλά κάποια στιγμή επήλθε η κατάπτωση λόγω γήρατος και στη συνέχεια ο θάνατος. Αν δημιουργήσουμε ένα σύστημα τεχνητής νοημοσύνης που θα έχει αυτή τη δυνατότητα δόμησης νέων θεωριών, θα έχουμε πρακτικά μία αθάνατη διάνοια. Τι θα έκανε ο Αϊνστάιν αν έφτανε τα 130 ή τα 150 έτη διαυγής νοητικά, πόσες άλλες θεωρίες θα είχε οικοδομήσει; Δεν θα απαντήσουμε ποτέ σε αυτό, αλλά με την ΑΙ ίσως έχουμε αυτή τη δυνατότητα.

Ναι! Κανείς δεν ξέρει. Είναι πολύ καλή ερώτηση αυτή και πρέπει να ομολογήσω ότι δεν το είχα σκεφτεί ποτέ έτσι. Όμως, το βασικό πρόβλημα δεν είναι ο χρόνος υποχρεωτικά, αλλά τα όρια αυτής της τεχνολογίας. Όσος χρόνος κι αν δοθεί στην τεχνολογία που έχουμε σήμερα, δεν πρόκειται να βγάλει καινούργιες θεωρίες. Δεν ξέρουμε τα πιθανά όρια ενός μελλοντικού ΑΙ επιστήμονα.

Ο Ίλον Μασκ είχε προβλέψει ότι έως το 2025 η Τεχνητή Νοημοσύνη θα είναι πιο έξυπνη από τον άνθρωπο. Δεν υπάρχουν όμως αρκετές μορφές ευφυΐας για τις οποίες δεν νοείται καν βαθμονόμηση από την ΑΙ; Για παράδειγμα η μουσική ευφυΐα, η ζωγραφική, η χορευτική. Δεν υπάρχουν πεδία στα οποία, λόγω της φύσης της, η ΑΙ είναι καταδικασμένη να μη μας πλησιάσει ποτέ;

Είναι σε δημιουργικά πεδία, όπως αυτά που αναφέρετε, που μας εκπλήσσει κάθε φορά η Τεχνητή Νοημοσύνη, το πόσο καλά τα πηγαίνει. Πριν από πέντε δέκα χρόνια κανείς δεν μπορούσε να φανταστεί πως θα είχαμε φτάσει σε αυτό το σημείο σήμερα, ούτε καν οι δημιουργοί της ΑΙ. Οπότε θα μπορούσαμε να πούμε, μάλλον με ασφάλεια, ότι θα υπάρξουν όρια, αλλά, από την άλλη μεριά, το ίδιο λέγαμε και στο παρελθόν και κάναμε λάθος. Είναι πολύ δύσκολες οι προβλέψεις.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Καλοί και κακοί αλγόριθμοι; 

Πάντως παραμένει το ερώτημα αν ένα σύστημα-«απόγονος» του Deep Blue, που είχε κερδίσει τον Γκάρι Κασπάροφ στο σκάκι, συνειδητοποιεί ότι παίζει σκάκι, ή αν στη βάση της αντίληψής του υπάρχουν απλώς μηδενικά και άσσοι. Από την άλλη πάλι, θα μπορούσαμε να αποδομήσουμε με αντίστοιχο τρόπο και την ανθρώπινη νόηση. Δηλαδή αν εστιάσουμε στους δομικούς λίθους της νόησης στον εγκέφαλο, πάλι δεν θα μιλάμε για σκάκι, αλλά για χημικές αλληλεπιδράσεις. Ίσως είναι άδικο για τους υπολογιστές η αξιολόγηση να γίνεται σε τόσο χαμηλό επίπεδο.

Φυσικά και σε εμάς η νόηση είναι χημεία στο τέλος, δεν είναι κάτι διαφορετικό. Το γεγονός πως όλα είναι είτε μηδενικά και άσσοι του δυαδικού συστήματος είτε χημεία, δεν σημαίνει πως θα καταλάβουμε πώς λειτουργεί η σκέψη. Συμφωνώ ότι σε αυτό το επίπεδο δεν είναι πολύ διαφορετικές οι δύο νοημοσύνες, αλλά το πώς περνάμε από εκεί στη νοημοσύνη και τη σκέψη δεν το ξέρουμε ούτε για τους ανθρώπους, πόσο μάλλον για την ΑΙ.

Μπορεί η τεχνητή νοημοσύνη να γίνει στόχος ανθρώπινης δολιοφθοράς, και ενώ υποτίθεται πως είναι καλοζυγισμένο, αδιάβλητο σύστημα, στην πραγματικότητα αυτό να ελέγχεται από κακόβουλους παράγοντες; Υπάρχει αυτή η πιθανότητα δόλου ή διαφθοράς όπως και σε έναν ανθρώπινο εγκέφαλο;

Αυτό που σίγουρα υπάρχει είναι η δόλια χρήση της ΑΙ από δόλιους ανθρώπους. Το να θεωρήσουμε την ίδια την ΑΙ δόλια εξαρτάται από τον ορισμό που θα δώσουμε. Για παράδειγμα το σύστημα Τεχνητής Νοημοσύνης που προβάλλει διαφημίσεις σε ένα παιδί με στόχο να το κάνει να εθιστεί θα μπορούσε κανείς να πει ότι είναι δόλιο. Δεν καταλαβαίνει το εν λόγω σύστημα ΑΙ ότι είναι δόλιο, αλλά ο σκοπός του, για τον οποίο έχει προγραμματιστεί, είναι να μεγιστοποιήσει τον εθισμό και τον χρόνο θέασης βίντεο. Αυτό του είπαν να κάνει. Αυτό που υπολογίζει είναι τη στάθμιση ανάμεσα στη μεγιστοποίηση του χρόνου παραμονής στην πλατφόρμα και την υγεία του παιδιού. Είναι δύσκολο να κωδικοποιήσουμε και να μεγιστοποιήσουμε ταυτόχρονα πολλές «αντικειμενικές λειτουργίες» σε ένα σύστημα, τον εθισμό, αλλά και την ασφάλεια για παράδειγμα. Άρα, για να καταλήξουμε, ήδη σήμερα υπάρχει σύστημα ΑΙ που είναι δόλιο, επειδή αυτό που του είπαν να κάνει είναι προβληματικό.

Ένα new age κατ’ εικόνα και καθ’ ομοίωσιν δημιουργού και δημιουργήματος;

Μάλλον περισσότερο η ανικανότητά μας να δημιουργήσουμε κάτι που να ισορροπεί διαφορετικές αξίες. Και την αξία την οικονομική αλλά και αυτή της πνευματικής υγείας στο παράδειγμα των παιδιών. Είναι πολύ δύσκολο να κωδικοποιήσουμε έναν αλγόριθμο που να ξέρει ποια είναι τα όρια και οι σταθμίσεις μεταξύ διαφορετικών αξιών.

Η ευθύνη για τις μεγάλες αποφάσεις

Δεδομένου όμως ότι υπάρχουν συστήματα οργάνωσης όπως η Δικαιοσύνη, που εν πολλοίς βασίζονται σε μία σειρά από λογικές εντολές ή αντιστοιχίσεις −όπως ο ποινικός κώδικας− θα μπορούσε στο μέλλον η Τεχνητή Νοημοσύνη να βοηθήσει στο δικαστικό σύστημα, ή ακόμα και να αναλάβει υποθέσεις με πολύ συγκεκριμένες παραμέτρους;

Αυτό ήδη γίνεται. Υπάρχουν διάφορα συστήματα στις ΗΠΑ που βοηθούν δικαστές. Το COMPAS αξιολογεί ποια είναι η πιθανότητα να επαναλάβει κάποιο έγκλημα ένας κατάδικος. Όμως κάποιος θα πρέπει να πάρει την ευθύνη για τις μεγάλες αποφάσεις π.χ. δικαστικές ή υγείας. Για να αντικαταστήσει η ΑΙ το δικαστικό σύστημα, θα πρέπει να αλλάξει ο καταμερισμός της ευθύνης όταν τα πράγματα δεν πάνε καλά. Τότε ποιος θα έχει την ευθύνη; Αυτός που δημιούργησε την ΑΙ, αυτός που τη χρησιμοποίησε ή εκείνος που εισήγαγε τα δεδομένα; Δεν μπορούμε να απαντήσουμε σε αυτό. Παρόλο που μπορεί σε κάποια πράγματα η ΑΙ να είναι καλύτερη από εμάς, είναι δική μας η επιλογή. Και είναι δύσκολο να πει κανείς «δεν έχει κανείς μας ευθύνη, παρά μόνο η ΑΙ». Δεν πρέπει να προχωρήσουμε σε αυτή τη μετάβαση, αν θέλουμε να διατηρήσουμε τον έλεγχο. Και θα τον διατηρήσουμε νομίζω.

Το ΔΝΤ εκτιμά πως σε πρώτη φάση θα επηρεαστεί το 40% των θέσεων εργασίας παγκοσμίως από την ΑΙ. Υπάρχει πιθανότητα ομαλής «σκυταλοδρομίας» από το ανθρώπινο δυναμικό στις μηχανές, ή εξαιτίας της ταχύτητας μετάβασης κινδυνεύουμε να δούμε στρατιές ανέργων που θα αφεθούν στην τύχη τους;

Αυτή είναι μια δύσκολη ερώτηση. Οφείλουμε αρχικά να διακρίνουμε τις θέσεις εργασίας από τις αρμοδιότητες που αντιστοιχούν σε κάθε θέση. Κάθε δουλειά έχει πολλές αρμοδιότητες και η ΑΙ αντικαθιστά ίσως τον άνθρωπο σε κάποια από τα μέρη της δουλειάς αλλά όχι καθ’ ολοκληρίαν. Αυτό μπορεί να απελευθερώσει τους ανθρώπους να κάνουν τα πιο ενδιαφέροντα κομμάτια. Επίσης θα δημιουργηθούν καινούργιες δουλειές, όπως γίνεται με κάθε τεχνολογική επανάσταση. Κάποιες θέσεις όμως θα εξαλειφθούν.

Πού βρίσκεται η Ελλάδα 

Πώς κρίνετε στην παρούσα φάση την απορρόφηση συστημάτων ΑΙ στις αγορές εργασίας; Ποια είναι η εικόνα στην Ελλάδα; Αργεί να ενσωματώσει τις νέες τεχνολογίες από το εξωτερικό;

Όλος ο κόσμος είναι «πίσω» ακόμα. Ακούμε και διαβάζουμε πολλά για την ΑΙ, αλλά οι εταιρείες είναι ακόμη στην αρχή. Είναι εύκολο να χρησιμοποιεί κανείς κάποιο μεγάλο γλωσσικό μοντέλο, αλλά δεν είναι κάτι φοβερό. Σε ό,τι αφορά όμως χρήση ΑΙ, με δεδομένα από πελάτες, προϊόντα, πωλήσεις, προμηθευτές και υπαλλήλους, είμαστε ακόμη σε πολύ πρώιμο στάδιο.

Στην Ελλάδα υπάρχουν, ας πούμε, 20 μεγάλες εταιρείες -τράπεζες, ασφαλιστικές, καταστήματα-  που έχουν προχωρήσει, αλλά πάρα πολλές εταιρείες δεν έχουν καν ψηφιοποιήσει τις διαδικασίες τους. Πρώτα πρέπει πρέπει να κάνεις ψηφιακά τα συστήματα σου, μετά να συλλέξεις δεδομένα και μετά να κάνεις το βήμα στην ΑΙ. Πέρα από τις top 20-30 εταιρείες, οι περισσότερες είναι ακόμα στο στάδιο του ψηφιακού μετασχηματισμού. Θα πάρει καιρό. Οι πρωτοπόρες εταιρείες θα κάνουν μεγάλες προόδους στα επόμενα ίσως πέντε χρόνια. Αλλά για τις υπόλοιπες ίσως θα χρειαστεί τουλάχιστον μία δεκαετία, αν και πάλι είναι δύσκολες αυτές οι προβλέψεις.

Τι εικόνα έχετε διαμορφώσει για την ενσωμάτωση καινοτόμων τεχνολογιών στην χώρα διαχρονικά;

Αυτό εξαρτάται σε μεγάλο βαθμό από το ταλέντο, το πόσο ανταγωνιστικές είναι οι εταιρείες, ιδίως στις ξένες αγορές, κάτι που μπορεί να τις ωθήσει στην καινοτομία, και φυσικά από πιο μακροοικονομικούς παράγοντες, όπως το πολιτικό και οικονομικό περιβάλλον. Ίσως το πιο σημαντικό είναι να διασφαλιστεί ότι οι εταιρείες εξυπηρετούν και ανταγωνιστικές αγορές, καθώς αυτό θα τις κάνει επίσης ισχυρότερες για όλες τις αγορές που εξυπηρετούν.

Έχουν κάνει λάθη οι εταιρείες που αναπτύσσουν ΑΙ; Για παράδειγμα πρώην στελέχη της Open AI την κατηγορούν πως βάζει τα κέρδη πάνω από την ασφάλεια.

Κοιτάξτε, δεν ξέρουμε τι είναι λάθος ακόμη. Δεν υπάρχει το τέλειο. Κάποιοι λένε χρειαζόμαστε κανονισμούς, άλλοι διαφωνούν. Η απάντηση είναι πως δεν υπάρχει κακός και καλός κανονισμός, υπάρχει καλύτερο και χειρότερο. Διαρκώς μαθαίνουμε. Στην πορεία. Πριν από την ΑΙ, η μεγαλύτερη τεχνολογική επανάσταση ήταν το διαδίκτυο, που ξεκίνησε «εμπορικά» πριν από 30 χρόνια. Κάναμε εκεί κάποιο λάθος; Σίγουρα, και γι’ αυτό υπάρχουν και πάρα πολλά επικίνδυνα πράγματα στο διαδίκτυο. Επειδή όμως μάθαμε από τα λάθη μας με τον Ιστό, τώρα η νομοθεσία κινείται πιο γρήγορα και ο κόσμος είναι γενικά πιο προσεχτικός. Μάθαμε, ελπίζω, από την πρώτη μεγάλη τεχνολογική επανάσταση. Είναι τόσο πολλά όμως τα θετικά αυτής της τεχνολογίας, που, αν δεν προκύψει υπαρξιακός κίνδυνος, και δεν νομίζω να υπάρξει, τα μικρο-ρίσκα πρέπει να τα πάρουμε, αλλιώς δεν θα προοδεύσουμε.

Κάποιοι λένε ότι με την ΑΙ ο άνθρωπος δημιούργησε κάτι πιο ισχυρό από τον εαυτό του, και από εκεί που βρισκόταν στην κορυφή της εξελικτικής πυραμίδας, απέκτησε έναν θηρευτή.

Νομίζω ότι είμαστε ασφαλείς. Εμείς θα θέσουμε τους όρους λειτουργίας της ΑΙ. Τώρα, αν δεν συμφωνούμε για το πότε η ΑΙ μπορεί να κάνει τι και σε ποιον, θα έχουμε πρόβλημα. Αλλά είμαι αισιόδοξος ότι θα διατηρήσουμε τον έλεγχο.





ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ