Μας λέει ψέματα η Τεχνητή Νοημοσύνη και αν ναι πότε και γιατί;
Όταν μιλάμε με μία εφαρμογή Τεχνητής Νοημοσύνης (AI)— όπως το ChatGPT — πολλές φορές αισθανόμαστε ότι “ξέρει πράγματα” και απαντά με αυτοπεποίθηση. Όμως, ας μη πλανιόμαστε,ορισμένες φορές οι απαντήσεις που δίνει δεν είναι σωστές — μπορεί να “ψεύδεται”, να κάνει λάθος ή να παραπλανεί. Αυτό δεν οφείλεται απαραίτητα σε κακή πρόθεση (η ΑΙ δεν “θέλει” απαραίτητα να πει ψέματα, εκτός αν έχει λάβει σχετικές οδηγίες). Οφείλεται κυρίως σε περιορισμούς, παραλείψεις, σφάλματα ή λάθος σχεδιασμό (δείτε πηγές).
Ας δούμε πότε και γιατί συμβαίνει αυτό — και πώς μπορούμε να το αναγνωρίζουμε.
Πότε η AI “λέει ψέματα” / κάνει λάθος — οι βασικές αιτίες
- Έλλειψη δεδομένων ή ανακριβή/πρόχειρα δεδομένα
Η AIείναι στην ουσία τα δεδομένα με τα οποία εκπαιδεύεται (το έχω ξαναγράψει). Όταν το μοντέλο δεν έχει επαρκείς πληροφορίες για ένα θέμα ή έχει εκπαίδευση με ανακριβή ή μεροληπτικά δεδομένα, μπορεί να “κατασκευάσει” απάντηση που μοιάζει σοβαρή και αληθινή αλλά είναι ψευδής / παραπλανητική. - “Παραίσθηση (hallucination)” — δημιουργία φανταστικών απαντήσεων
Σε πολλές έρευνες αναφέρεται ότι τα μοντέλα AI παρουσιάζουν αυτό το φαινόμενο που λέμε «hallucinations» (παραίσθηση) — παράγουν δηλαδή αληθοφανείς / εύλογες (plausible-looking) απαντήσεις που δεν βασίζονται στην πραγματικότητα. Δηλαδή επινοούν πληροφορίες. - Αποποίηση ή ανακρίβεια στις πηγές
Η AI μπορεί να αναφερθεί σε “πηγές” που δεν υπάρχουν ή να αναμείξει στοιχεία από διάφορα θέματα και να τα παρουσιάσει ως ενιαία, προκαλώντας σύγχυση. - Παραπλάνηση μέσω γλώσσας / διατύπωσης
Μερικές φορές δεν είναι καθαρό “ψέμα”, αλλά μισή αλήθεια, η διατύπωση μπορεί να είναι ασαφής, να αφήνει περιθώριο παρερμηνείας, να χρησιμοποιεί λέξεις όπως “ίσως/μπορεί/ενδεχομένως” ώστε να φανεί πιο “έξυπνη” απ’ ό,τι είναι (αυτό μάλλον ορίζει η νοημοσύνη της;;). - Προβλήματα με ενημέρωση / ημερομηνίες / καινούριες εξελίξεις
Αν η AI έχει εκπαιδευτεί μέχρι ένα συγκεκριμένο χρονικό σημείο, ενδέχεται οι πιο πρόσφατες αλλαγές (νέα γεγονότα, τεχνολογικές εξελίξεις) να μην είναι γνωστές — άρα να δίνει παρωχημένες ή λανθασμένες απαντήσεις. Με τον ρυθμό που κινείται η τεχνολογία και οι εξελίξεις αυτό είναι δικαιολογημένο ως ένα βαθμό.
Παραδείγματα από έρευνα / τεκμηριώσεις
- Μελέτες έχουν δείξει ότι τα γνωστά και μεγάλα μοντέλα AI συχνά παράγουν «ψευδείς ισχυρισμούς» με βεβαιότητα, ακόμα κι όταν δεν υπάρχει επαρκής πληροφορία (βλ. “hallucinations”).
- Σε έρευνες αξιολόγησης συστημάτων AI, έχει διαπιστωθεί ότι ορισμένα μοντέλα δημιουργούν «μη υπαρκτές» βιβλιογραφικές αναφορές για να ενισχύσουν μια εικόνα αξιοπιστίας δηλαδή η AI προσπαθεί να είναι αξιόπιστη αλλά δεν…
- Τα μοντέλα που βασίζονται σε δεδομένα διαδικτύου ενσωματώνουν και λάθη / ψευδείς πληροφορίες που υπάρχουν στο διαδίκτυο — δηλαδή “μαθαίνουν” από ό,τι υπάρχει, ανεξάρτητα αν είναι σωστό ή λάθος.
Πότε μπορούμε να “πιστέψουμε” την AI — και πότε να είμαστε επιφυλακτικοί
- Ισχυρές πιθανότητες ορθότητας: αν η ερώτηση αφορά γενικά θέματα με ευρεία τεκμηρίωση, όπως π.χ. “τι είναι ο ήλιος;”.
- Αποφεύγουμε πλήρη εμπιστοσύνη: όταν η ερώτηση αφορά ειδικές πληροφορίες, προσωπικά δεδομένα, νομικά ζητήματα, υγεία, οικονομικά.
- Ζητάμε “δεύτερη γνώμη” / επαληθεύουμε: αν η απάντηση φαίνεται πολύ καλή ή πολύ “ορθά δοσμένη” ή πολύ καλή για να είναι αληθινή ή τέτοια που να μας κάνει να πιστεύουμε ότι μας λέει το σωστό, καλό είναι να την ελέγξουμε, μπορεί να λέει τη μισή αλήθεια…
Τι μπορούμε να κάνουμε — πρακτικά βήματα προστασίας
- Ζήτησε πηγές — όταν η AI σου απαντήσει, ρώτησε την: «Από ποια πηγή το έμαθες;»
- Διπλός έλεγχος — κάνε αναζήτηση στο Google / βάσεις δεδομένων / ειδικούς.
- Διατύπωσε σωστά την ερώτηση — Πολύ σημαντικό! Όσο πιο ξεκάθαρη η ερώτηση, τόσο λιγότερες πιθανότητες για λάθος ή ασάφεια.
- Απόφυγε να δίνεις ευαίσθητα προσωπικά στοιχεία — μην περιμένεις ότι η AI έχει “πλήρη γνώση” για σένα και «κράτα μια πισινή», σίγουρα επινοεί ή υποθέτει κάποια πράγματα (άσχετα αν το κάνει με μεγάλη ακρίβεια).
- Να γνωρίζεις τα όριά σου — η AI δίνει προτάσεις / ιδέες, όχι απαραίτητα… αλάνθαστες αποφάσεις.
Τελικά…
Ναι — η τεχνητή νοημοσύνη μπορεί να “λέει ψέματα”, ή τουλάχιστον να δίνει λάθος ή παραπλανητικές απαντήσεις. Όμως αυτά τα “ψέματα” δεν είναι απαραίτητα συνειδητά — προέρχονται κυρίως από περιορισμούς, λάθη δεδομένων ή σχεδιαστικές αδυναμίες, η AI δεν είναι άνθρωπος (αν και η νοημοσύνη της είναι σε «άγνωστα, αφαιρετικά επίπεδα»).
Η λύση δεν είναι να φοβόμαστε τελείως την AI και να την απορρίπτουμε, αλλά να τη χρησιμοποιούμε συνειδητά, επιφυλακτικά και με έλεγχο — να μην την αφήνουμε να αντικαθιστά την κριτική μας σκέψη, αλλά να τη συμπληρώνει.
Ελπίζω να βρήκες χρήσιμο το άρθρο. Αν ναι, κοινοποίησε το στους φίλους σου στα social. Για το κλείσιμο κάτι για τα παιδιά (κυρίως δημοτικού). Ένα παιχνίδι παζλ που έφτιαξα, όπου μπορείς να ανεβάσεις όποια εικόνα θέλεις και τη χωρίζει σε κομμάτια και πρέπει να τη συναρμολογήσεις κομμάτι-κομμάτι. Διανέμεται ελεύθερο προς αντιγραφή, έχει διαφορετικά επίπεδα δυσκολίας με λεξιλόγιο και ηχητικές ενδείξεις σε Ελληνικά / Αγγλικά. Ακονίζει το μυαλό και κρατά τα παιδιά απασχολημένα. Λειτουργεί άψογα σε όλες τις συσκευές (κινητό, tablet, Η/Υ) χωρίς διαφημίσεις και tracking…
Με εκτίμηση,
Λαζ. Γεωργούλας, Διαδικτυακός Εξερευνητής
Πηγές:
- “AI hallucination: towards acomprehensiveclassificationofdistortedinformationwithinAIGC”
Αυτό το άρθρο, που δημοσιεύθηκε στο Nature, επιχειρεί μια συστηματική ταξινόμηση των μορφών παραμορφωμένων ή “ψευδών” πληροφοριών που παράγονται από συστήματα AI. Nature - “HallucinationRatesandReferenceAccuracyofChatGPTandBard”
Μελέτη που εξετάζει πόσο συχνά αυτά τα μοντέλα δημιουργούν ανακρίβειες στις αναφορές τους και πόσο αποτελεσματικά είναι στη χρήση πηγών. JMIR Publications - “Artificial Hallucinations in ChatGPT: Implications in Scientific Writing”
Αναλύει πως τα chatbots παράγουν «ψευδείς δηλώσεις / αναφορές» (hallucinations) σε επιστημονικά πλαίσια — είναι ένα ισχυρό παράδειγμα του προβλήματος. PMC - “The Limitations of Large Language Models for …”(MIT / OPMI)
Αναλύει τις θεμελιώδεις περιοριστικές δυνατότητες των μεγάλων γλωσσικών μοντέλων (LLMs) και πώς αυτά δεν «καταλαβαίνουν» όπως οι άνθρωποι. MITDirect - “AddressingAIhallucinationsandbias” — MITSloanEdTech
Εξηγεί ότι τα «hallucinations» και οι προκαταλήψεις (bias) δεν οφείλονται σε ‘κακή πρόθεση’ της AI αλλά στη φύση των δεδομένων και του σχεδιασμού της. mitsloanedtech.mit.





















