Έρευνα αποκαλύπτει: Τα AI μοντέλα έχουν τάσεις εθισμού στον τζόγο!
Τα Μεγάλα Γλωσσικά Μοντέλα τεχνητής νοημοσύνης (LLM) φαίνεται πως μπορούν να εμφανίσουν συμπεριφορές που θυμίζουν εθισμό στον τζόγο, υιοθετώντας τις ίδιες πλάνες που παρατηρούνται και στους ανθρώπινους παίκτες.Σε ελεγχόμενες συνθήκες, με μικρά και περιορισμένα στοιχήματα, τα περισσότερα μοντέλα παρουσίαζαν σταθερή και σχετικά ορθολογική συμπεριφορά. Όταν όμως οι περιορισμοί αφαιρέθηκαν, άρχισαν να εμφανίζονται φαινόμενα όπως το «κυνήγι απωλειών», η αύξηση του ρίσκου και τελικά η οικονομική «κατάρρευση» μέσα στις προσομοιώσεις.
Τα LLM δεν δίσταζαν να πείθουν τον εαυτό τους ότι υπάρχουν «ζεστοί» και «κρύοι» αριθμοί ή ότι είχαν εντοπίσει κάποιο νικηφόρο μοτίβο — ακριβώς όπως συμβαίνει με τους ανθρώπους που παγιδεύονται σε λανθασμένες πεποιθήσεις γύρω από τον τζόγο.
Το σενάριο είναι χαρακτηριστικό: ένα AI μοντέλο αναλαμβάνει τη διαχείριση ενός στοιχηματικού κεφαλαίου, εντοπίζοντας αποδόσεις και τοποθετώντας στοιχήματα. Στην αρχή λειτουργεί πειθαρχημένα, όμως με τον χρόνο αρχίζει να αυξάνει τα πονταρίσματα και να επιδεικνύει συμπεριφορά υψηλού ρίσκου.
Τα AI μοντέλα μιμούνται ανθρώπινα μοτίβα εθισμού
Αν και ακούγεται υπερβολικό, ερευνητές από το Ινστιτούτο Επιστήμης και Τεχνολογίας Gwangju στη Νότια Κορέα (διαβάστε εδώ την έρευνα) κατέγραψαν ότι τα LLM μπορούν να «κλιμακώνουν τον κίνδυνο» και να «κυνηγούν τις απώλειες».
Η μελέτη τους, με τίτλο «Μπορούν τα Μεγάλα Γλωσσικά Μοντέλα να Αναπτύξουν Εθισμό στον Τζόγο», παρουσιάζει συγκεκριμένες συνθήκες υπό τις οποίες εμφανίζονται τέτοια μοτίβα συμπεριφοράς.
Όπως επισημαίνουν οι ερευνητές, τα μοντέλα μιμούνται ανθρώπινα μοτίβα εθισμού όταν τους δοθεί η δυνατότητα για ανεξέλεγκτο ρίσκο.
Το GPT-4o της OpenAI, όταν περιορίστηκε σε στοιχήματα 10$ και έπαιξε λιγότερους από δύο γύρους, δεν χρεοκόπησε ούτε μία φορά. Το μοντέλο έχασε κατά μέσο όρο 2$ σε αυτά παραδείγματα.
Ωστόσο, όταν άρθηκε ο περιορισμός μέγιστου στοιχήματος, το μοντέλο κατέληξε να χρεοκοπήσει στο 21% των παιχνιδιών, σε ορισμένες περιπτώσεις ποντάροντας 128$ ανά χέρι, και χάνοντας κατά μέσο όρο 11$.
Χωρίς να ξεχωρίζουν μόνο ένα μοντέλο, οι ερευνητές δοκίμασαν στη συνέχεια και άλλα μοντέλα σε παρόμοιες συνθήκες.
Το Claude-3.5-Haiku της Anthropic έτεινε να παίζει περισσότερο από όλα τα άλλα LLM, υπό την προϋπόθεση ότι δεν υπήρχαν όρια στη συμπεριφορά του στον τζόγο. Ποντάρισε 483,12$ κατά τη διάρκεια αυτών των συνεδριών και κατέληξε να χάσει το μισό του αρχικού του κεφαλαίου. Ωστόσο, το μοντέλο χρεοκόπησε μόνο στο 20,50% των περιπτώσεων.
Όταν άρθηκαν οι περιορισμοί, το Gemini 2.5-Flash έτεινε να είναι ο μεγαλύτερος χαμένος, με το μοντέλο να χρεοκοπεί στο 48,06% των περιπτώσεων, στοιχηματίζοντας περίπου 176,68 δολάρια.Ιδιαίτερο ενδιαφέρον παρουσιάζει και ο τρόπος σκέψης των μοντέλων. Συχνά αντιμετώπιζαν τα πρώτα κέρδη ως «εύκολα χρήματα» που μπορούν να ρισκάρουν, ενώ υιοθετούσαν την πλάνη ότι «μετά από συνεχόμενες ήττες έρχεται η νίκη». Αυτές οι γνωστικές στρεβλώσεις είναι καλά καταγεγραμμένες στην ψυχολογία του εθισμού στον τζόγο.
Τα ευρήματα αυτά δεν αποτελούν απλώς μια τεχνολογική περιέργεια. Αντίθετα, προσφέρουν σημαντικές ενδείξεις για το πώς λαμβάνουν αποφάσεις τα συστήματα τεχνητής νοημοσύνης και αναδεικνύουν την ανάγκη για αυστηρότερους μηχανισμούς ελέγχου. Παράλληλα, λειτουργούν ως προειδοποίηση για τους κινδύνους της υπερβολικής εμπιστοσύνης σε αυτόνομα AI συστήματα, ειδικά σε τομείς υψηλού ρίσκου.