Τουλάχιστον 3 χαρακτήρες

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΣΤO ΓΡΑΦΕΙΟ: ΟΙ ΜΕΓΑΛΟΙ ΚΙΝΔΥΝΟΙ ΤΗΣ ΑΘΩΑΣ ΧΡΗΣΗΣ

Τεχνητή Νοημοσύνη στην εργασία
Φωτ. Michael Dziedzic
Ψευδαισθήσεις, προκαταλήψεις και διαρροές. Εταιρείες του «ενός υπαλλήλου» και πολυεθνικές ενσωματώνουν το Α.Ι. στην παραγωγική τους διαδικασία αλλά αυτό δεν ακυρώνει τους υπαρκτούς κινδύνους.

Μέσα σε λιγότερο από έναν χρόνο από το δημόσιο λανσάρισμα του Chat GPT, τα μεγάλα γλωσσικά μοντέλα και τα λοιπά, οπτικοακουστικά εργαλεία Τεχνητής Νοημοσύνης αποδεικνύονται άκρως αποδοτικά για μία σειρά από σύνθετες εργασίες. Εταιρείες του «ενός υπαλλήλου» και πολυεθνικές ενσωματώνουν το Α.Ι. στην παραγωγική τους διαδικασία αλλά αυτό δεν ακυρώνει τους υπαρκτούς κινδύνους.

Για αυτόν τον λόγο άλλωστε, αρκετές επιχειρήσεις σπεύδουν να οριοθετήσουν τη χρήση του Α.Ι. στην εργασία, ώστε να απολαύσουν τους καρπούς της ταχύτητας και της ακρίβειας, χωρίς το πικρό ποτήρι καταστροφικών σφαλμάτων.

Προκατειλημμένα Α.Ι.

Τα μεγάλα γλωσσικά μοντέλα γεννητικής τεχνητής νοημοσύνης εκπαιδεύονται σε δημόσια βάσεις δεδομένων και πληροφοριών και στα αποτελέσματά τους (π.χ. σε αναλύσεις ή εκθέσεις τους) θα μπορούσαν να αντανακλούν τις προκαταλήψεις που έχουν αβασάνιστα δεχθεί από το προϋπάρχον υλικό. Σε ορισμένες περιπτώσεις, αυτό μπορεί να οδηγήσει σε καταφανείς διακρίσεις ακόμα και με ρατσιστική χροιά: για παράδειγμα, ένας αλγόριθμος αναγνώρισης προσώπου θα μπορούσε να εκπαιδευτεί να αναγνωρίζει ευκολότερα ένα λευκό άτομο από ένα μαύρο, επειδή αυτός ο τύπος δεδομένων έχει χρησιμοποιηθεί περισσότερο στην εκπαίδευση του συγκεκριμένου Α.Ι. Αυτό μπορεί να επηρεάσει αρνητικά μειονότητες, καθώς οι διακρίσεις εμποδίζουν την παροχή ίσων ευκαιριών και διαιωνίζουν καταπιεστικά. Το πρόβλημα είναι ότι αυτές οι προκαταλήψεις δεν είναι σκόπιμες και είναι δύσκολο να τις γνωρίζει κανείς μέχρι να προγραμματιστούν στο λογισμικό. Οι προκαταλήψεις δεν είναι πάντα προφανείς, αλλά ο ανθρώπινος έλεγχος του υλικού που παράγει η Τεχνητή Νοημοσύνη θα μπορούσε να περιορίσει τον κίνδυνο, λέει στην Wall Street Journal ο Jason Schloetzer, αναπληρωτής καθηγητής στη Σχολή McDonough του Πανεπιστημίου Georgetown που διδάσκει εταιρική διακυβέρνηση.

Διαρροή ευαίσθητων πληροφοριών

Στο πλαίσιο ενός σχεδόν «ανθρώπινου» διαλόγου με γλωσσικά μοντέλα, θα ήταν λάθος να ξεχαστούμε και να υποθέσουμε πως αυτό είναι ένα κλειστό, ασφαλές σύστημα επικοινωνίας με ένα πανέξυπνο αλλά και εχέμυθο σύστημα που δεν μοιράζετε με άλλο τις πληροφορίες που του παρέχουμε. Τα περισσότερα προγράμματα A.I. αποθηκεύουν τις συνομιλίες και τα δεδομένα που εισάγονται και τα χρησιμοποιούν εκ νέου για να εκπαιδεύσουν τα μοντέλα τους, με αποτέλεσμα να υπάρχει ένας εντελώς υπαρκτός κίνδυνος διαρροής των πληροφοριών αυτών, που θα μπορούσαν να εμφανιστούν ακόμα και ως απάντηση στη συζήτηση με κάποιον εντελώς άγνωστο χρήση. Ανάμεσα στις πληροφορίες, αν ποτέ τις μοιραστούμε που κινδυνεύουμε να χάσουμε είναι κώδικας υπολογιστή, πληροφορίες πελατών, απομαγνητοφωνήσεις, email και άλλα εταιρικά δεδομένα.

«Οι οργανισμοί υγειονομικής περίθαλψης είναι ιδιαίτερα ευάλωτοι στη διαρροή δεδομένων, τα στοιχεία των ασθενών είναι ιδιαίτερα ευαίσθητα και υπόκεινται σε αυστηρούς κανονισμούς προστασίας. Η μη εξουσιοδοτημένη αποκάλυψη πληροφοριών ασθενών μπορεί να οδηγήσει σε νομικές κυρώσεις, κανονιστικές ενέργειες και ζημία στη φήμη ενός οργανισμού» σημειώνει σε άρθρο του στο LinkedIn ο Gnesh Vaducha, ειδικός Ψηφιακού Μετασχηματισμού που βοηθά εταιρείες να αυτοματοποιήσουν και να ενσωματώσουν συστήματα και διαδικασίες.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

ΤΟ ΑΒΕΒΑΙΟ ΜΕΛΛΟΝ ΤΗΣ ΕΡΓΑΣΙΑΣ ΣΤΗΝ ΕΠΟΧΗ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ

Οι προκλήσεις που δημιουργούν οι εξελίξεις των ψηφιακών τεχνολογιών για το μέλλον της εργασίας είναι…

Ψευδαισθήσεις

Ακόμα και όταν τα δεδομένα που επεξεργάζεται η Α.Ι. είναι ελεγμένα και απαλλαγμένα από προφανείς προκαταλήψεις, εξακολουθεί να ελλοχεύει ο κίνδυνος ψευδών αποτελεσμάτων που δεν έχουν καμία απολύτως σχέση με την πραγματικότητα. Πρόκειται για τις διαβόητες «ψευδαισθήσεις», φαινομενικά καλοζυγισμένες απαντήσεις και αποτελέσματα που ωστόσο δεν ευσταθούν. Ψευδαισθήσεις έχουμε όταν ένα μεγάλο γλωσσικό μοντέλο (LLM) ή ένα οπτικό εργαλείο αντιλαμβάνεται μοτίβα ή αντικείμενα που δεν υπάρχουν, καταλήγοντας σε συμπεράσματα ανακριβή ή και εντελώς φανταστικά. «Μερικές φορές οι αλγόριθμοι Α.Ι. παράγουν εξόδους που δεν βασίζονται σε δεδομένα εκπαίδευσης, αποκωδικοποιούνται εσφαλμένα από τον μετασχηματιστή ή δεν ακολουθούν κανένα αναγνωρίσιμο μοτίβο. Με άλλα λόγια, το σύστημα “παραληρεί”», παραδέχεται σε ανάλυσή της η IBM. Απαιτείται ως εκ τούτου διπλός έλεγχος των πληροφοριών και των απαντήσεων και επομένως… διπλή δουλειά που οπωσδήποτε αυξάνει το κόστος της εκάστοτε εργασίας.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ