ΑΛΥΣΙΔΑ ΣΚΕΨΗΣ: Η ΜΙΜΗΣΗ ΤΗΣ ΑΝΘΡΩΠΙΝΗΣ ΝΟΗΜΟΣΥΝΗΣ ΑΠΟ ΤΗΝ ΤΕΧΝΗΤΗ.
- 18.06.25 20:03

Αλυσίδα σκέψης
[ CoT (Chain-of-thought) prompting ]
[ τεχνολογικός όρος ]
[ ουσιαστικό με ετερόπτωτο ονοματικό προσδιορισμό ]
Η προτροπή της αλυσίδας σκέψης είναι ένα είδος αλγόριθμου της Τ.Ν. ο οποίος βασίζεται στη γνωστική στρατηγική της διάσπασης πολύπλοκων προβλημάτων σε διαχειρίσιμες, ενδιάμεσες σκέψεις που οδηγούν διαδοχικά σε μια οριστική απάντηση. Πρόκειται για έναν ταχύτατα αναπτυσσόμενο τομέα, ο οποίος συνδυάζει στοιχεία της μηχανικής μάθησης, της επεξεργασίας φυσικής γλώσσας και της αλληλεπίδρασης ανθρώπου και υπολογιστή.
Σύμφωνα με την IBM, «η αλυσίδα σκέψης (CoT) είναι μια τεχνική μηχανικής προτροπών που βελτιώνει το παραγόμενο αποτέλεσμα των Large Language Models (LLM), ιδιαίτερα για σύνθετες εργασίες που περιλαμβάνουν συλλογισμό πολλαπλών βημάτων. Διευκολύνει την επίλυση προβλημάτων καθοδηγώντας το μοντέλο μέσω μιας διαδικασίας συλλογισμού βήμα προς βήμα, χρησιμοποιώντας μια συνεκτική σειρά λογικών βημάτων». Αποτελεί αμάλγαμα δημιουργικότητας, γλωσσικής κατανόησης και τεχνικής οξύνοιας. Όπως εξηγούν οι ειδικοί της IBM, αυτή η βήμα προς βήμα δομή επίλυσης προβλημάτων στοχεύει στη διασφάλιση μιας διαδικασίας συλλογισμού που είναι σαφής, λογική και αποτελεσματική.
Σύμφωνα με το περιοδικό τεχνολογίας Medium, η Αλυσίδα Σκέψης (CoT), η οποία χρησιμοποιείται εδώ και αρκετό καιρό, απέκτησε μεγάλη δημοσιότητα μετά την κυκλοφορία του μοντέλου o1 από την OpenAI, τον Σεπτέμβριο του 2024. Παρότι η DeepMind έχει δημοσιεύσει πλήθος άρθρων με την έρευνά τους πάνω στην αλυσίδα σκέψεων, κανείς δεν γνωρίζει, εκτός από το ίδιο το OpenAI, πώς ακριβώς λειτουργεί το o1. Ίσως ένα μοντέλο κάνει τον σχεδιασμό, ένα άλλο τη σκέψη και ένα τρίτο τα αξιολογεί. Το μόνο σίγουρο είναι ότι χρησιμοποιεί κάποιο είδος συλλογιστικής βήμα προς βήμα. Όπως παραδέχονται και οι ίδιοι οι ερευνητές της Google σε σχετικό τους άρθρο, «παρά την επιτυχία της αλυσίδας σκέψης (CoT), εξακολουθεί να υπάρχει ελάχιστη κατανόηση του τι καθιστά την προτροπή CoT αποτελεσματική και ποιες πτυχές των επιδειχθέντων βημάτων συλλογισμού συμβάλλουν στην απόδοσή της».
Σε άρθρο του TechTarget, μπορεί κανείς να διαβάσει παραδείγματα διαφορετικών προτροπών αλυσίδας σκέψης (CoT), ενώ οι συντάκτες εξηγούν την προσομοίωση του μηχανισμού με τον ανθρώπινο τρόπο σκέψης: «η προτροπή του CoT αξιοποιεί τις δυνατότητες των LLM στην προσομοίωση τεχνικών της ανθρώπινης γνωστικής επεξεργασίας, όπως ο σχεδιασμός και η διαδοχική συλλογιστική. Όταν οι άνθρωποι έρχονται αντιμέτωποι με ένα δύσκολο πρόβλημα, συχνά το αναλύουν σε μικρότερα, πιο διαχειρίσιμα κομμάτια. Για παράδειγμα, η επίλυση μιας σύνθετης μαθηματικής εξίσωσης συνήθως περιλαμβάνει πολλά υποβήματα, καθένα από τα οποία είναι απαραίτητο για την τελική σωστή απάντηση. Η προτροπή του CoT ζητά από έναν LLM να μιμηθεί αυτή τη διαδικασία αποσύνθεσης ενός προβλήματος και επεξεργασίας του βήμα προς βήμα — ουσιαστικά, ζητώντας από το μοντέλο να «σκεφτεί δυνατά», αντί να παρέχει απλώς μια λύση».
Οι συντάκτες του Medium από την άλλη, σε άρθρο σχετικά με το μέλλον του prompt engineering ως επάγγελμα, αναρωτιούνται πόσο επίκαιρο και αναγκαίο θα παραμείνει, δεδομένης της ταχύτητας με την οποία η τεχνητή νοημοσύνη εξελίσσεται, καθιστώντας σύντομα την ανθρώπινη παρέμβαση περιττή. Στον αντίποδα, οι ερευνητές της Apple υποστηρίζουν σε ανακοίνωσή τους ότι «οι πρόσφατες γενιές frontier language μοντέλων έχουν εισαγάγει Large Reasoning Models (LRM) που δημιουργούν λεπτομερείς διαδικασίες σκέψης πριν παρέχουν απαντήσεις. Ενώ αυτά τα μοντέλα επιδεικνύουν βελτιωμένη απόδοση σε κριτήρια αξιολόγησης συλλογισμού, οι θεμελιώδεις δυνατότητές τους, οι ιδιότητες κλιμάκωσης και οι περιορισμοί τους παραμένουν ανεπαρκώς κατανοητοί». Οι ερευνητές του τεχνολογικού κολοσσού διευκρινίζουν ότι τα μοντέλα αυτά εξακολουθούν να δίνουν μεγαλύτερη έμφαση στην ακρίβεια της τελικής απάντησης, χωρίς να διαθέτουν ακόμα τη δυνατότητα να αξιολογήσουν μια πληροφορία. Μπορούν δηλαδή να δώσουν ακριβής πληροφορίες για ένα γεγονός, όχι όμως να αναλύσουν τις αιτίες που οδήγησαν σε αυτό.
Προς το παρόν, το CoT παραμένει μια προσομοίωση, και όχι μια τέλεια μίμηση της ανθρώπινης αλυσίδας σκέψης.