← Επιστροφή στην κατηγορία Μέλλον Άνθρωπος που εμπιστεύεται τυφλά την τεχνητή νοημοσύνη - automation bias και λάθη στην αλληλεπίδραση
🔮 Μέλλον: AI & Ψυχολογία

Γιατί Εμπιστευόμαστε Λάθος την Τεχνητή Νοημοσύνη: Automation Bias και Ψυχολογία

📅 4 Μαρτίου 2026 ⏱️ 7 λεπτά

Τον Ιούνιο του 2023, ένας δικηγόρος στη Νέα Υόρκη κατέθεσε υπόμνημα στο δικαστήριο γεμάτο νομολογιακές αναφορές — υποθέσεις που ποτέ δεν υπήρξαν. Τις είχε δημιουργήσει το ChatGPT, κι εκείνος δεν μπήκε στον κόπο να τις ελέγξει. Η υπόθεση Mata v. Avianca έγινε σύμβολο ενός φαινομένου που η επιστήμη μελετά εδώ και δεκαετίες: η εσφαλμένη εμπιστοσύνη στην αυτοματοποίηση.

Automation Bias: Όταν Εμπιστευόμαστε τη Μηχανή Τυφλά

Η αυτοματοποιημένη προκατάληψη (automation bias) είναι η τάση των ανθρώπων να αποδέχονται χωρίς κριτική τις προτάσεις ενός αυτοματοποιημένου συστήματος, ακόμα κι όταν έρχονται σε αντίθεση με τις δικές τους παρατηρήσεις. Ο όρος καθιερώθηκε από τους Mosier και Skitka το 1996, μελετώντας πιλότους που αγνοούσαν τα ένστικτά τους για να ακολουθήσουν τις ενδείξεις του αυτόματου πιλότου.

Το φαινόμενο εκδηλώνεται με δύο τρόπους: ως σφάλματα παράλειψης — αποτυγχάνουμε να εντοπίσουμε λάθη επειδή εμπιστευόμαστε τη μηχανή — και ως σφάλματα δράσης — ακολουθούμε εσφαλμένες οδηγίες χωρίς αμφισβήτηση. Στην αεροπορία, στη ναυτιλία, στην ιατρική, τα παραδείγματα είναι ανησυχητικά.

346 Θύματα Boeing 737 MAX (MCAS)
65% Ακολουθούν AI ακόμη κι αν κάνει λάθος
6 Ψεύτικες αναφορές υπόθεσης Mata

Η τραγωδία του Boeing 737 MAX αποτελεί ίσως το πιο δραματικό παράδειγμα. Το σύστημα MCAS (Maneuvering Characteristics Augmentation System) έσπρωχνε επανειλημμένα τη μύτη του αεροσκάφους προς τα κάτω με βάση δεδομένα από έναν ελαττωματικό αισθητήρα. Οι πιλότοι, εκπαιδευμένοι να εμπιστεύονται τα αυτοματοποιημένα συστήματα, πάλευαν με μια μηχανή που τους εξουδετέρωνε — μέχρι που δύο αεροσκάφη συνετρίβησαν, σκοτώνοντας 346 ανθρώπους.

📖 Διαβάστε ακόμα: Νευρωνική Διεπαφή: Ελέγχοντας με τη Σκέψη

📖 Διαβάστε ακόμα: Τεχνητό Δέρμα Χταποδιού: Η Αόρατη Στολή του Μέλλοντος

Υπερ-εμπιστοσύνη vs. Υπο-εμπιστοσύνη

Οι ερευνητές Raja Parasuraman και Victor Riley, σε κλασική εργασία τους το 1997, κατηγοριοποίησαν τα προβλήματα εμπιστοσύνης στην αυτοματοποίηση σε τρεις κατηγορίες: κατάχρηση (misuse — υπερβολική εξάρτηση), αχρησία (disuse — απόρριψη χρήσιμων εργαλείων) και κακή χρήση (abuse — αυτοματοποίηση όπου δεν χρειάζεται). Το πρόβλημα δεν είναι ότι εμπιστευόμαστε ή δεν εμπιστευόμαστε — αλλά ότι σπάνια κάνουμε τη σωστή εκτίμηση.

Το Paradox της Εμπιστοσύνης: Σε πείραμα του Πανεπιστημίου της Πενσυλβάνια (Dietvorst, Simmons & Massey, 2015), οι συμμετέχοντες προτιμούσαν τη δική τους κρίση από έναν αλγόριθμο — ακόμη κι αν ο αλγόριθμος ήταν αποδεδειγμένα ακριβέστερος. Αρκούσε να τον δουν να κάνει ένα λάθος. Αυτό που οι ερευνητές ονόμασαν algorithm aversion (αποστροφή αλγορίθμων) είναι εξίσου επικίνδυνο με την τυφλή εμπιστοσύνη.

Από την άλλη πλευρά, η έρευνα των Logg, Minson και Moore (2019, Management Science) αποκάλυψε ότι σε ορισμένα πλαίσια, οι άνθρωποι δείχνουν algorithm appreciation — αποδίδουν μεγαλύτερη αξιοπιστία στις αλγοριθμικές προβλέψεις από ό,τι στις ανθρώπινες, ακόμα κι αν δεν κατανοούν πώς λειτουργούν. Πρόκειται για δύο αντικρουόμενες τάσεις που λειτουργούν ταυτόχρονα — και η ισορροπία μεταξύ τους εξαρτάται από το πλαίσιο, την εκπαίδευση και τη συναισθηματική κατάσταση του χρήστη.

Πραγματικά Παραδείγματα: Τι Πάει Στραβά

Η Δικαστική Τεχνητή Νοημοσύνη COMPAS

Το σύστημα COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) χρησιμοποιείται στις ΗΠΑ για να προβλέπει την πιθανότητα υποτροπής κατηγορουμένων. Η διερεύνηση της ProPublica το 2016 αποκάλυψε ότι το σύστημα ήταν σχεδόν διπλάσια πιθανότερο να χαρακτηρίσει λανθασμένα ένα μαύρο κατηγορούμενο ως υψηλού κινδύνου, σε σύγκριση με λευκό κατηγορούμενο. Παρόλα αυτά, δικαστές σε πολλές πολιτείες συνέχισαν να βασίζονται στις «αντικειμενικές» βαθμολογίες του — ένα κλασικό δείγμα automation bias σε εφαρμογή.

Tesla Autopilot και η Ψευδαίσθηση Αυτονομίας

Η ονομασία «Autopilot» δημιουργεί μια ψευδαίσθηση πλήρους αυτόματης οδήγησης που η τεχνολογία δεν υποστηρίζει. Η NHTSA (Εθνική Υπηρεσία Ασφάλειας Αυτοκινητοδρόμων) έχει διερευνήσει δεκάδες θανατηφόρα δυστυχήματα όπου οι οδηγοί αφαίρεσαν τα χέρια τους από το τιμόνι, εμπιστευόμενοι ένα σύστημα Επιπέδου 2 σαν να ήταν Επιπέδου 5. Η γλώσσα που χρησιμοποιούμε για να περιγράψουμε τα AI συστήματα — «νοημοσύνη», «αυτόματος πιλότος», «βοηθός» — δεν είναι αθώα. Διαμορφώνει τις προσδοκίες μας.

«Οι άνθρωποι τείνουν να αντιμετωπίζουν τα αυτοματοποιημένα συστήματα σαν να έχουν ανθρώπινες ιδιότητες — μια τάση που η ψυχολογία αποκαλεί ανθρωπομορφισμό. Αυτό οδηγεί σε αδικαιολόγητη εμπιστοσύνη, ιδιαίτερα όταν τα συστήματα “μιλούν” σε φυσική γλώσσα.»

— Parasuraman & Manzey, Human Factors (2010)

📖 Διαβάστε ακόμα: Pangeos Terayacht: Πλωτή Πόλη-Χελώνα 550m για 60.000

Τι Λένε τα Δεδομένα

Σύμφωνα με το Stanford HAI AI Index 2025, η ανησυχία του κοινού για την τεχνητή νοημοσύνη αυξάνεται σταθερά παγκοσμίως. Στις ΗΠΑ, η Pew Research αναφέρει ότι το 52% των Αμερικανών εκφράζει περισσότερη ανησυχία παρά ενθουσιασμό για τον ρόλο του AI στην καθημερινή ζωή — αύξηση 14 μονάδων σε δύο χρόνια. Στην Ευρώπη, ο AI Act (σε ισχύ από τον Αύγουστο 2024) αντικατοπτρίζει τη θεσμική απάντηση σε αυτές τις ανησυχίες, κατηγοριοποιώντας τα AI συστήματα βάσει κινδύνου.

52% Αμερικανών ανησυχούν για AI (Pew 2023)
EU AI Act Πρώτη ολοκληρωμένη νομοθεσία AI
+14% Αύξηση ανησυχίας σε 2 χρόνια

Αλλά τα αριθμητικά δεδομένα κρύβουν μια πιο σύνθετη εικόνα. Ενώ ο κόσμος λέει ότι ανησυχεί, η καθημερινή συμπεριφορά αυξάνει ταυτόχρονα την αλληλεπίδραση με AI — πάνω από 100 εκατομμύρια χρήστες του ChatGPT εβδομαδιαία το αποδεικνύουν. Η εμπιστοσύνη δεν μοιάζει με διακόπτη. Μοιάζει περισσότερο με ρεοστάτη που αλλάζει ανάλογα με το πλαίσιο.

📖 Διαβάστε ακόμα: Πλασματική Ανακύκλωση: Τέλος στα Πλαστικά 2030

Η Βαθμονομημένη Εμπιστοσύνη

Η λύση δεν βρίσκεται ούτε στην τυφλή αποδοχή ούτε στην κατηγορηματική απόρριψη. Οι ερευνητές προτείνουν αυτό που αποκαλούν βαθμονομημένη εμπιστοσύνη (calibrated trust) — η ικανότητα να εμπιστεύεσαι ένα σύστημα ακριβώς στον βαθμό που δικαιολογεί η πραγματική του απόδοση.

Για να επιτευχθεί αυτό, τρεις παράγοντες αναδεικνύονται ως κρίσιμοι:

  • Διαφάνεια: Τα εξηγήσιμα συστήματα AI (Explainable AI ή XAI) — όπως τα εργαλεία LIME και SHAP — επιτρέπουν στους χρήστες να κατανοούν γιατί ο αλγόριθμος πήρε μια απόφαση, αντί να δέχονται ένα «μαύρο κουτί».
  • Εκπαίδευση: Η κατανόηση των ορίων ενός AI συστήματος είναι εξίσου σημαντική με την εκπαίδευση στη χρήση του. Ένας γιατρός πρέπει να ξέρει πότε το AI διαγνωστικό εργαλείο είναι αξιόπιστο — και πότε δεν είναι.
  • Ανατροφοδότηση: Οι χρήστες που λαμβάνουν τακτικά δεδομένα για την απόδοση του AI βαθμονομούν καλύτερα την εμπιστοσύνη τους έναντι εκείνων που απλά χρησιμοποιούν τα αποτελέσματα χωρίς επαλήθευση.

Το Πρόγραμμα DARPA XAI: Το DARPA (Defense Advanced Research Projects Agency) ξεκίνησε το 2017 ένα πρόγραμμα αξίας $75 εκατομμυρίων για τη δημιουργία AI συστημάτων που εξηγούν τις αποφάσεις τους. Έξι χρόνια αργότερα, η εξηγησιμότητα παραμένει ένα από τα μεγαλύτερα ανοικτά προβλήματα του κλάδου — ειδικά στα μεγάλα γλωσσικά μοντέλα που αποτελούνται από δισεκατομμύρια παραμέτρους.

Γιατί το Πρόβλημα Χειροτερεύει

Η εξάπλωση των μεγάλων γλωσσικών μοντέλων (LLMs) έφερε μια νέα διάσταση στο πρόβλημα εμπιστοσύνης. Σε αντίθεση με τα παραδοσιακά AI συστήματα — που παρείχαν αριθμούς, αποτελέσματα αναζήτησης ή βαθμολογίες κινδύνου — τα LLMs «μιλούν» σε φυσική γλώσσα, χρησιμοποιούν πειστικό ύφος και παράγουν απαντήσεις που μοιάζουν αυθεντικές ακόμα κι όταν είναι εντελώς κατασκευασμένες.

Αυτό που οι ερευνητές αποκαλούν «ψευδαίσθηση γνώσης» (hallucination) δεν είναι bug — είναι θεμελιώδης ιδιότητα των πιθανοτικών γλωσσικών μοντέλων. Ένα LLM δεν «γνωρίζει» τίποτα. Προβλέπει πιθανές ακολουθίες λέξεων. Αλλά η ρευστότητα και η σιγουριά του κειμένου που παράγει δημιουργεί στον αναγνώστη την εντύπωση εξειδίκευσης.

Ο κίνδυνος επιδεινώνεται από μια εκδοχή του φαινομένου Dunning-Kruger: όσο λιγότερα γνωρίζει κάποιος για ένα θέμα, τόσο λιγότερο ικανός είναι να αξιολογήσει αν η απάντηση του AI είναι σωστή. Ο δικηγόρος που κατέθεσε τις ψεύτικες αναφορές δεν ήταν τεμπέλης — δεν είχε τα εργαλεία να αξιολογήσει κριτικά ένα εργαλείο που μιλούσε με τέλεια νομική γλώσσα.

📖 Διαβάστε ακόμα: Πλοία Αμμωνίας: Μηδέν Εκπομπές στη Ναυτιλία 2035

Πώς Προχωράμε

Η σχέση μας με τα συστήματα AI βρίσκεται σε κρίσιμη καμπή. Δεν μπορούμε να γυρίσουμε πίσω σε μια εποχή χωρίς αλγοριθμικά εργαλεία, αλλά δεν μπορούμε και να τα δεχτούμε χωρίς κριτική σκέψη. Η πρόκληση δεν είναι τεχνολογική — είναι ψυχολογική και εκπαιδευτική.

Ορισμένα βήματα προχωρούν ήδη: η Ευρωπαϊκή Ένωση απαιτεί πλέον αξιολόγηση αντικτύπου για τα AI συστήματα υψηλού κινδύνου, ενώ εταιρείες όπως η Anthropic και η Google πειραματίζονται με μηχανισμούς «αυτοαξιολόγησης εμπιστοσύνης» — συστήματα που εκφράζουν τον βαθμό βεβαιότητάς τους αντί να παρουσιάζουν κάθε απάντηση ως αδιαμφισβήτητη.

Αλλά η τελική γραμμή άμυνας παραμένει η ανθρώπινη κρίση. Όχι ως αντίπαλος της τεχνολογίας, αλλά ως συμπλήρωμα. Η εποχή που ζούμε δεν απαιτεί λιγότερο AI — απαιτεί καλύτερη κατανόηση του πότε, πώς και πόσο να το εμπιστευόμαστε.

AI εμπιστοσύνη automation bias ChatGPT overtrust undertrust ψυχολογία AI τεχνητή νοημοσύνη AI λάθη

Πηγές: