ΞΑΦΝΙΚΑ Ο ZUCKERBERG ΔΕΝ ΝΟΙΑΖΕΤΑΙ ΓΙΑ ΤΟΥΣ ΤΡΟΜΑΚΤΙΚΟΥΣ ΚΙΝΔΥΝΟΥΣ ΤΗΣ ΑΙ
- 24.01.24 14:25
Προβληματισμός, απορία και εκνευρισμός εξακολουθούν να κυριαρχούν στη Sillicon Valley, μία εβδομάδα μετά την απρόσμενη διακήρυξη του διευθύνοντα συμβούλου της Meta, Mark Zuckerberg, που ούτε λίγο ούτε πολύ ανακοίνωσε την πρόθεσή του να κατασκευάσει γενική τεχνητή νοημοσύνη ή AGI – δηλαδή ένα υπερεξελιγμένο σύστημα που θα έχει νοημοσύνη ανθρώπινου επιπέδου σε όλους τους τομείς σε «κοινή θεά».
Ο Zuckerberg φυσικά και δεν είναι ο μόνος που κυνηγά το «ιερό δισκοπότηρο» της ΑΙ, και η Meta στέκεται απλώς στην ουρά μιας μακράς λίστας τεχνολογικών εταιρειών που προσπαθούν να δημιουργήσουν μια «παντοδύναμη» τεχνητή νοημοσύνη. Αλλά ο δισεκατομμυριούχος συνιδρυτής του Facebook είναι ο μόνος που λέει ότι θέλει να καταστήσει το AGI της Meta εγχείρημα ανοιχτού κώδικα – δηλαδή διαδικασία στης οποίας τα δεδομένα θα έχει πρόσβαση ο καθένας.
«Το μακροπρόθεσμο όραμά μας είναι να κατασκευάσουμε γενική νοημοσύνη, να την θέσουμε σε λειτουργία με υπευθυνότητα και να την κάνουμε ευρέως διαθέσιμη, ώστε όλοι να μπορούν να επωφεληθούν», δήλωσε ο Zuckerberg αφήνοντας πολλούς να αναρωτιούνται για τα απώτερα κίνητρά του.
Η ΝΟΜΙΚΗ ΟΜΑΔΑ ΤΗΣ META ΠΡΟΕΙΔΟΠΟΙΗΣΕ ΟΤΙ Η ΔΗΜΟΣΙΟΠΟΙΗΣΗ ΘΑ ΜΠΟΡΟΥΣΕ ΝΑ ΒΑΛΕΙ ΤΗ META ΣΤΟ ΣΤΟΧΑΣΤΡΟ ΤΩΝ ΡΥΘΜΙΣΤΙΚΩΝ ΑΡΧΩΝ, ΟΙ ΟΠΟΙΕΣ ΑΝΗΣΥΧΟΥΝ ΓΙΑ ΤΗΝ ΕΛΕΥΘΕΡΗ ΠΡΟΣΒΑΣΗ ΣΕ ΜΙΑ ΤΟΣΟ ΙΣΧΥΡΗ ΒΑΣΗ ΚΩΔΙΚΑ, ΔΕΔΟΜΕΝΟΥ ΟΤΙ ΕΓΚΛΗΜΑΤΙΕΣ ΚΑΙ ΕΧΘΡΟΙ ΤΩΝ ΗΠΑ ΘΑ ΜΠΟΡΟΥΣΑΝ ΕΛΕΥΘΕΡΑ ΝΑ ΤΗΝ ΑΞΙΟΠΟΙΗΣΟΥΝ.
Άλλωστε ,εγάλη μερίδα της επιστημονικής κοινότητας διατηρεί σοβαρές ανησυχίες για το μελλοντικό και αμφιλεγόμενο ορόσημο της AGI – πόσο μάλλον για τη δημοσιοποίηση του «βιβλίου μαγειρικής». «Σε λάθος χέρια, μια τέτοια τεχνολογία θα μπορούσε να κάνει μεγάλη ζημιά. Είναι τόσο ανεύθυνο για μια εταιρεία να το προτείνει», σχολιάζει στον Guardian η καθηγήτρια του Πανεπιστημίου του Σαουθάμπτον Wendy Hall, η οποία συμβουλεύει τον ΟΗΕ σε θέματα τεχνητής νοημοσύνης. Είναι «πραγματικά πολύ τρομακτικό» που ο Zuckerberg το σκέφτεται, προσθέτει η Hall.
Η Meta αναπτύσσει τεχνητή νοημοσύνη εδώ και πάνω μια δεκαετία, έχοντας προσλάβει τον καταξιωμένο ακαδημαϊκό Yann LeCun για να διευθύνει ένα ερευνητικό εργαστήριο που αρχικά ονομαζόταν FAIR, ή Facebook Artificial Intelligence Research. Στο ξαναβαφτισμένο, πλέον, Meta AI. ο βραβευμένος με με Turing Award επιστήμονας αναπτύσσει, μαζί με την ομάδα του, συστήματα για να ενισχύσει τα υφιστάμενα προϊόντα της πλατφόρμας – δηλαδή τις πλατφόρμες κοινωνικής δικτύωσης, το Facebook και το Instagram. Σε αυτό το τμήμα γεννιούνται και οι πολυθρύλητοι αλγόριθμοι κατάταξης και συστάσεων για το newsfeed των εφαρμογών, την αναγνώριση εικόνων και, φυσικά, τις διαφημίσεις, από τις οποίες η Meta εξασφαλίζει τα έσοδά της.
Πέρυσι όμως, η OpenAI πέρασε μπροστά, κερδίζοντας επενδύσεις δισεκατομμυρίων και παγκόσμιο ενδιαφέρον, με αποτέλεσμα στη Meta να επικρατήσει ανησυχία πως μένει πίσω. Έτσι ο LeCun πρότεινε να δημοσιεύσει τον κώδικα του δικού της γλωσσικού μοντέλου LLaMA για να τον χρησιμοποιήσουν ελεύθερα όσοι επιθυμούσαν, σε μία προσπάθεια να κερδίσει κάποιο από το χαμένο έδαφος.
Η νομική ομάδα της Meta προειδοποίησε ότι αυτό θα μπορούσε να βάλει τη Meta στο στόχαστρο των ρυθμιστικών αρχών, οι οποίες ανησυχούν για την ελεύθερη πρόσβαση σε μία τόσο ισχυρή βάση κώδικα, δεδομένου ότι εγκληματίες και εχθροί των ΗΠΑ θα μπορούσαν ελεύθερα να την αξιοποιήσουν. Όμως ο Zuckerberg αγνόησε τους δικηγόρους του, συμφώνησε με τον LeCun και η Meta δημοσίευσε, τελικώς, το αρχικό μοντέλο LLaMA τον Φεβρουάριο του 2023. Έκτοτε, η Meta έχει κυκλοφορήσει και το LLaMA 2 σε συνεργασία με τη Microsoft που υποστηρίζει το OpenAI επιβεβαιώνοντας ότι εργάζεται πάνω στην τρίτη έκδοση, το LLaMA 3.
Η Meta είναι μία από τις λίγες εταιρείες που εστιάζουν στην τεχνητή νοημοσύνη και διαθέτουν τα μοντέλα τους σε ανοιχτό κώδικα. Μία άλλη είναι η startup HuggingFace με έδρα τις ΗΠΑ, η οποία επέβλεψε την ανάπτυξη ενός μοντέλου που ονομάζεται Bloom, καθώς η γαλλική εταιρεία Mistral AI, η οποία διαθέτει πολλαπλά μοντέλα ανοικτού κώδικα. Όμως η Meta είναι ο μόνος καθιερωμένος γίγαντας της Silicon Valley που βαδίζει πάνω σε αυτό το μονοπάτι «υψηλού ρίσκου», σχολιάζει στην ανάλυσή του το Gzero.
Ο ΣΑΜ ΑΛΤΜΑΝ ΧΡΕΙΑΖΕΤΑΙ ΠΥΡΗΝΙΚΗ ΕΝΕΡΓΕΙΑ ΓΙΑ ΤΗΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΤΟΥ
Μια ενεργειακή επανάσταση είναι απαραίτητη για τη μελλοντική τεχνητή νοημοσύνη, η οποία θα καταναλώνει πολύ…
Το πιθανό κέρδος για τη Meta είναι προφανές: Η ανάπτυξη με ανοιχτό κώδικα μπορεί να βοηθήσει την εταιρεία να προσελκύσει κορυφαίους μηχανικούς και η προσβασιμότητά της θα μπορούσε να την αναδείξει στην «προεπιλογή« για τους ερευνητές που δεν θέλουν ή δεν μπορούν να πληρώσουν για τις εταιρικές εκδόσεις του GPT-4 της OpenAI. «Επίσης, πολλοί άνθρωποι θα δουλεύουν δωρεάν για τη Meta», σχολίασε ο David Evan Harris, δημόσιος μελετητής στο UC Berkeley και πρώην διευθυντής έρευνας για την υπεύθυνη χρήση τεχνητής νοημοσύνης στη Meta. «Χρειάζεται να «παίξουν» πολλοί άνθρωποι με αυτό το μοντέλο, να βρουν τρόπους να το βελτιστοποιήσουν, να το κάνουν πιο αποτελεσματικό, να το κάνουν καλύτερο».
Το λογισμικό ανοικτού κώδικα ενθαρρύνει την καινοτομία και μπορεί να δώσει τη δυνατότητα σε μικρότερες εταιρείες ή ανεξάρτητους προγραμματιστές να δημιουργήσουν νέες εφαρμογές που διαφορετικά θα ήταν απαγορευτικές από πλευράς κόστους.
Αλλά και οι κίνδυνοι είναι εξίσου σαφείς: Όταν δημοσιεύεται ένα λογισμικό στο διαδίκτυο, ο καθένας μπορεί να το χρησιμοποιήσει. Αυτό σημαίνει ότι εγκληματίες θα μπορούσαν να εκμεταλλευτούν ανοιχτά γλωσσικά μοντέλα για να καταστρώσουν απάτες και να διασπείρουν παραπληροφόρηση ή μη συναινετικό σεξουαλικό υλικό. Και, κάτι που σίγουρα απασχολεί τις ΗΠΑ: εχθρικά κράτη θα έχουν επίσης απρόσκοπτη πρόσβαση.
Οι ρυθμιστικές αρχές έχουν ήδη εκφράσει την ανησυχία τους. Οι γερουσιαστές Josh Hawley και Richard Blumenthal έστειλαν επιστολή στη Meta το περασμένο καλοκαίρι ζητώντας εξηγήσεις. «Υποτίθεται ότι κυκλοφόρησε το LLaMA με σκοπό την έρευνα για την κατάχρηση της τεχνητής νοημοσύνης. Χωρίς ιδιαίτερη περίσκεψη, προετοιμασία ή δικλείδες ασφαλείας, η Meta φαίνεται ότι ουσιαστικά έθεσε ένα ισχυρό εργαλείο στα χέρια επικινδύνων παραγόντων που θα μπορούν, πρακτικά, να κάνουν τέτοια κατάχρηση» έγραψαν.