ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΚΑΙ XΡΗΜΑΤΟΠΙΣΤΩΤΙΚΟΣ ΤΟΜΕΑΣ
- 20.03.24 12:23
Τα τελευταία χρόνια η τεχνητή νοημοσύνη έχει γνωρίσει ραγδαία ανάπτυξη χάρη στην αύξηση της υπολογιστικής ισχύος και τη βελτίωση των διαθέσιμων τεχνικών. Η χρήση της επηρεάζει την επίλυση πολύπλοκων θεμάτων με ακρίβεια, οδηγώντας σε εξοικονόμηση χρόνου και κόστους για ολοένα αυξανόμενο αριθμό δραστηριοτήτων.
Οφέλη και κίνδυνοι
Η τεχνολογία της τεχνητής νοημοσύνης χρησιμοποιείται όλο και περισσότερο στην παροχή χρηματοπιστωτικών υπηρεσιών, επιτρέποντας την ανάπτυξη νέων εφαρμογών, προϊόντων και επιχειρηματικών μοντέλων. Σύμφωνα με πρόσφατη έκθεση της Ευρωπαϊκής Αρχής Τραπεζών, τα ευρωπαϊκά πιστωτικά ιδρύματα χρησιμοποιούν συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένης της μηχανικής μάθησης, για την πρόληψη της απάτης και την αποτροπή ξεπλύματος μαύρου χρήματος, για την αυτοματοποιημένη εξυπηρέτηση πελατών, την κανονιστική συμμόρφωση, καθώς και για την αξιολόγηση της πιστοληπτικής ικανότητας των πελατών. Επιπλέον, η τεχνητή νοημοσύνη έχει εφαρμογές στην αξιολόγηση του προς ασφάλιση κινδύνου από τις ασφαλιστικές επιχειρήσεις, στην απόφαση για το αν θα καλύψουν τον κίνδυνο, στον προσδιορισμό της τιμής του ασφάλιστρου και στον καθορισμό των όρων της ασφαλιστικής σύμβασης. Πεδία εφαρμογής της τεχνητής νοημοσύνης αποτελούν επίσης η αυτοματοποιημένη προώθηση και πώληση χρηματοπιστωτικών προϊόντων, η ταυτοποίηση νέων πελατών και η παροχή χρηματοοικονομικών συμβουλών.
Ωστόσο, όπως κάθε μορφή καινοτόμου τεχνολογίας, η τεχνητή νοημοσύνη δεν προσφέρει μόνο οφέλη, αλλά ενέχει και κινδύνους. Τα μοντέλα με βάση τα οποία λειτουργεί η τεχνητή νοημοσύνη μπορεί να υποπέσουν σε λάθη ή ανακρίβειες, να ενσωματώσουν μεροληψία, να μην έχουν σταθερή απόδοση ή να μην είναι ξεκάθαρο πώς έφτασαν στα συμπεράσματα τα οποία εξάγουν. Τυχόν εσφαλμένη λειτουργία των μοντέλων παράγει νομικούς κινδύνους και κινδύνους δυσφήμισης για τις επιχειρήσεις που τα χρησιμοποιούν, και δημιουργούνται επίσης θέματα ψηφιακής επιχειρησιακής ανθεκτικότητας και ασφάλειας. Αυτό διότι η τεχνητή νοημοσύνη είναι ευάλωτη σε κυβερνοεπιθέσεις, σε λειτουργικούς κινδύνους όσον αφορά την τεχνολογική υποδομή αλλά και το λογισμικό που χρησιμοποιείται, σε κινδύνους υποκλοπής δεδομένων και ζητήματα προστασίας προσωπικών δεδομένων και πνευματικής ιδιοκτησίας. Πρόσθετος λόγος ανησυχίας είναι η αυξανόμενη εξάρτηση του χρηματοπιστωτικού τομέα από τρίτους παρόχους υπηρεσιών (π.χ. μεγάλες εταιρίες τεχνολογίας). Τέλος, αναφύονται κίνδυνοι που συνδέονται με τις δυνητικές επιπτώσεις της τεχνητής νοημοσύνης στο σύνολο της οικονομίας, αλλά και ευρύτερα της κοινωνίας, όπως η απώλεια θέσεων εργασίας, ο κίνδυνος παραπληροφόρησης και χειραγώγησης, και το περιβαλλοντικό αποτύπωμα της αυξημένης χρήσης ενέργειας που απαιτείται για την εκπαίδευση και λειτουργία τέτοιων συστημάτων.
Τραπεζική εποπτεία και ΑΙ Act
Αντιμέτωπες με το ραγδαία αναπτυσσόμενο τεχνολογικό περιβάλλον, οι εποπτικές αρχές οφείλουν να παρακολουθούν στενά τις εξελίξεις στον χώρο της τεχνητής νοημοσύνης και στο σχετικό κανονιστικό πλαίσιο, και να είναι θέση να αναγνωρίζουν και να κατανοούν αν και με ποιο τρόπο τα εποπτευόμενα ιδρύματα υιοθετούν ή παρέχουν λύσεις τεχνητής νοημοσύνης, ώστε να μπορούν να αξιολογούν τους σχετικούς κινδύνους.
ΟΙ ΕΠΟΠΤΙΚΕΣ ΑΡΧΕΣ ΟΦΕΙΛΟΥΝ ΝΑ ΠΑΡΑΚΟΛΟΥΘΟΥΝ ΣΤΕΝΑ ΤΙΣ ΕΞΕΛΙΞΕΙΣ ΣΤΟΝ ΧΩΡΟ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ ΚΑΙ ΣΤΟ ΣΧΕΤΙΚΟ ΚΑΝΟΝΙΣΤΙΚΟ ΠΛΑΙΣΙΟ, ΚΑΙ ΝΑ ΕΙΝΑΙ ΘΕΣΗ ΝΑ ΑΝΑΓΝΩΡΙΖΟΥΝ ΚΑΙ ΝΑ ΚΑΤΑΝΟΟΥΝ ΑΝ ΚΑΙ ΜΕ ΠΟΙΟ ΤΡΟΠΟ ΤΑ ΕΠΟΠΤΕΥΟΜΕΝΑ ΙΔΡΥΜΑΤΑ ΥΙΟΘΕΤΟΥΝ Η ΠΑΡΕΧΟΥΝ ΛΥΣΕΙΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗΣ, ΩΣΤΕ ΝΑ ΜΠΟΡΟΥΝ ΝΑ ΑΞΙΟΛΟΓΟΥΝ ΤΟΥΣ ΣΧΕΤΙΚΟΥΣ ΚΙΝΔΥΝΟΥΣ.
Η Τράπεζα της Ελλάδος παρακολουθεί τη διαδικασία υιοθέτησης του ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη, γνωστού ως AI Act, ο οποίος θα εισαγάγει εναρμονισμένους κανόνες για την εφαρμογή τεχνητής νοημοσύνης σε προϊόντα και υπηρεσίες σε όλους τους επιχειρηματικούς τομείς –συμπεριλαμβανομένου του χρηματοπιστωτικού– στην Ευρωπαϊκή Ένωση. Στόχος του Κανονισμού είναι να αντιμετωπίσει κινδύνους που αφορούν την υγεία, την ασφάλεια και τα θεμελιώδη ανθρώπινα δικαιώματα, και να προστατέψει τη δημοκρατία, το κράτος δικαίου και το περιβάλλον.
Ο Κανονισμός παρέχει τη μεθοδολογία για την κατηγοριοποίηση των συστημάτων τεχνητής νοημοσύνης βάσει του κινδύνου που αυτά ενέχουν. Kατά την εφαρμογή του θα αναγνωρίζονται: (α) συστήματα τα οποία εγκυμονούν μη αποδεκτούς κινδύνους και άρα θα απαγορεύονται, όπως για παράδειγμα συστήματα κοινωνικής βαθμολόγησης φυσικών προσώπων (social scoring), (β) συστήματα τα οποία θεωρούνται υψηλού κινδύνου και τα οποία θα πρέπει να συμμορφώνονται με αυστηρές κανονιστικές απαιτήσεις, (γ) συστήματα με αναγνωρισμένους κινδύνους διαφάνειας και (δ) συστήματα χαμηλού κινδύνου, τα οποία θα αναπτύσσονται και θα χρησιμοποιούνται χωρίς πρόσθετες νομικές υποχρεώσεις.
Από τα μέχρι τώρα διαθέσιμα σχέδια του Κανονισμού διαφαίνεται ότι ιδιαίτερο ενδιαφέρον για τον χρηματοπιστωτικό τομέα παρουσιάζουν τα συστήματα τεχνητής νοημοσύνης που υποστηρίζουν υπηρεσίες πιστοληπτικής αξιολόγησης φυσικών προσώπων και υπηρεσίες αξιολόγησης κινδύνου και τιμολόγησης σχετικά με προϊόντα ασφάλισης ζωής και υγείας, τα οποία θα κατατάσσονται στα συστήματα υψηλού κινδύνου. Επίσης ενδιαφέρον παρουσιάζουν τα συστήματα αυτοματοποιημένης αλληλεπίδρασης με πελάτες μέσω μηχανισμών chatbots, για τα οποία θα εφαρμόζονται απαιτήσεις διαφάνειας, ώστε ο πελάτης να γνωρίζει πάντοτε ότι αλληλεπιδρά με ένα πληροφοριακό σύστημα και όχι με πραγματικό υπάλληλο.
Αναμένεται ότι σύντομα θα αναπτυχθούν σε ευρωπαϊκό επίπεδο εποπτικές μεθοδολογίες και κατευθυντήριες γραμμές σύμφωνες με το πνεύμα του Κανονισμού για την τεχνητή νοημοσύνη, οι οποίες θα υποστηρίζουν τις εποπτικές ομάδες στο έργο τους και τις οποίες θα κληθεί να εφαρμόσει και η Τράπεζα της Ελλάδος.
Τεχνολογική καινοτομία στην Τράπεζα της Ελλάδας
Παράλληλα, η Τράπεζα της Ελλάδος συγκεντρώνει τεχνογνωσία ως προς την εφαρμογή καινοτόμων τεχνολογιών και διερευνά τις δυνατότητες χρήσης τους για να βελτιώσει τη λειτουργία της και την άσκηση των εποπτικών της αρμοδιοτήτων. Η διαδικασία προσαρμογής υποστηρίζεται από τη συμμετοχή σε εστιασμένες εκπαιδευτικές δράσεις της Ευρωπαϊκής Ένωσης και του Ευρωσυστήματος. Συγκεκριμένα, στελέχη της Τράπεζας λαμβάνουν μέρος στην Ευρωπαϊκή Ακαδημία Εποπτείας Ψηφιακών Χρηματοπιστωτικών Υπηρεσιών (EU Supervisory Digital Finance Academy) που διοργανώνεται από την Ευρωπαϊκή Επιτροπή σε συνεργασία με τις Ευρωπαϊκές Εποπτικές Αρχές (ΕΒΑ, EIOPA, ESMA) και το Florence School of Banking and Finance του European University Institute. Η Ακαδημία παρέχει κατάρτιση σε θέματα προηγμένων τεχνολογιών, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, και βοηθά τις συμμετέχουσες αρχές να μοιραστούν γνώση και εμπειρία, και να αλληλεπιδράσουν με άλλες αρχές εντός της ευρωπαϊκής εποπτικής κοινότητας. Επιπλέον, στο πλαίσιο του Ευρωσυστήματος, ο Ενιαίος Εποπτικός Μηχανισμός διερευνά τη χρήση εργαλείων εποπτικής τεχνολογίας (SupTech) που χρησιμοποιούν τεχνητή νοημοσύνη και παρέχει ανάλογη κατάρτιση στο προσωπικό των εθνικών εποπτικών αρχών.
ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΚΑΙ ΔΗΜΟΚΡΑΤΙΑ: ΕΥΚΑΙΡΙΕΣ ΚΑΙ ΠΡΟΚΛΗΣΕΙΣ
Η ενσωμάτωση της ΑΙ σε μια δημοκρατία μπορεί να τη βελτιώσει, να την ενισχύσει δίνοντας…
Επίσης, τα τελευταία χρόνια η Τράπεζα της Ελλάδος έχει αναλάβει σημαντικές πρωτοβουλίες ως προς την παρακολούθηση της εφαρμογής τεχνολογικής καινοτομίας στον χρηματοπιστωτικό τομέα, που περιλαμβάνουν την ίδρυση Κόμβου Καινοτομίας και του Προστατευμένου Κανονιστικού Περιβάλλοντος (Regulatory Sandbox). Μέσω αυτών, η Τράπεζα της Ελλάδος διερευνά ενδιαφέρουσες χρήσεις καινοτόμων τεχνολογιών στην αγορά και έχει έρθει σε επαφή με εταιρίες που αναπτύσσουν εφαρμογές τεχνητής νοημοσύνης.
Συνοψίζοντας, η χρήση τεχνητής νοημοσύνης στον χρηματοπιστωτικό τομέα αποφέρει σημαντικά οφέλη, αλλά συνεπάγεται και ενδεχόμενους κινδύνους. Για τον λόγο αυτό, η Τράπεζα της Ελλάδος παρακολουθεί στενά τις εξελίξεις εντός και εκτός Ελλάδος, συμβάλλει ενεργά στους διαλόγους και στη δημιουργία κατάλληλων εποπτικών μεθοδολογιών σε εθνικό και ευρωπαϊκό επίπεδο, και δίνει έμφαση στην κατάρτιση των στελεχών της και στην επαφή με την αγορά.
*Η Χριστίνα Παπακωνσταντίνου είναι Υποδιοικήτρια της Τράπεζας της Ελλάδος