Κόσμος|17.03.2026 12:24

Αληθινή ή fake η φωτογραφία από το Ιράν με τους τάφους κοριτσιών; Η AI ως εργαλείο παραπληροφόρησης

Newsroom

Ήταν μία συγκλονιστική φωτογραφία, για μία συγκλονιστική είδηση. 165 παιδιά, μαθήτριες δημοτικού σχολείου στο Ιράν, έχασαν τη ζωή τους από πύραυλο που σύμφωνα με δημοσιεύματα ακόμα και αμερικανικών ΜΜΕ, ήταν τύπου Tomahawk από αυτούς που χρησιμοποιούν οι ΗΠΑ.

Οι τάφοι, φρεσκοσκαμμένοι, χωρισμένοι σε τακτικές σειρές των 20. Περισσότεροι από 60 έχουν ήδη σκαφτεί, ενώ μικρές ομάδες ανθρώπων στέκονται γύρω τους. Δεκάδες ακόμη είναι σημαδεμένοι στο έδαφος μπροστά: μικρά ορθογώνια με κιμωλία, με τα μηχανήματα εκσκαφής έτοιμα να ολοκληρώσουν το έργο τους.

Το νεκροταφείο της Minab, φωτογραφημένο καθώς ετοιμάζεται να θάψει τα 165 κορίτσια, αποτελεί μία από τις πιο χαρακτηριστικές εικόνες του αμερικανοϊσραηλινού πολέμου κατά του Ιράν, αποτυπώνοντας ωμά το καταστροφικό τίμημα για τους αμάχους.

Είναι, όμως, αληθινή;

Ίδιο συμπέρασμα, διαφορετικές τοποθεσίες

Ο Guardian επιχειρεί να δώσει μια απάντηση αλλά και να εμβαθύνει στο κομμάτι της παραπληροφόρησης. Επιστρατεύει το Gemini, την υπηρεσία τεχνητής νοημοσύνης της Google, που λέει ξεκάθαρα «όχι». Μάλιστα, ισχυρίζεται ότι η φωτογραφία είναι από δύο χρόνια νωρίτερα και πάνω από 2.000 χλμ. μακριά. Αντί για τάφους μικρών κοριτσιών που σκοτώθηκαν από πύραυλο, η εικόνα «απεικονίζει έναν χώρο μαζικής ταφής στο Kahramanmaras» μετά τον σεισμό μεγέθους 7,8 Ρίχτερ που έπληξε την περιοχή το 2023.

«Αυτή η συγκεκριμένη εναέρια φωτογραφία έγινε μία από τις πιο ευρέως κοινοποιημένες εικόνες της καταστροφής», λέει το Gemini, «απεικονίζοντας την τεράστια κλίμακα της απώλειας».

Βλέποντας την ίδια εικόνα ταφής στα μέσα κοινωνικής δικτύωσης, άλλοι στράφηκαν στον βοηθό τεχνητής νοημοσύνης Grok του X Corp. για να ελέγξουν την αξιοπιστία της. Όπως και το Gemini, το Grok θα σας διαβεβαιώσει με άνεση ότι η φωτογραφία δεν είναι από το Ιράν — αν και καταλήγει σε διαφορετική ημερομηνία, καταστροφή και τοποθεσία. Η εικόνα «προέρχεται από το νεκροταφείο Rorotan στη Jakarta — μια φωτογραφία αρχείου του Ιουλίου 2021 από μαζικές ταφές λόγω Covid. Όχι από τη Μινάμπ», αναφέρει.

Και στις δύο περιπτώσεις, οι απαντήσεις της τεχνητής νοημοσύνης ακούγονται βέβαιες: δεν εκφράζουν επιφυλάξεις και μάλιστα παρέχουν «πηγές» για την αρχική εικόνα, αν θελήσετε να τις ελέγξετε. Αν όμως ακολουθήσετε το νήμα για να τις εξετάσετε, θα αρχίσετε να συναντάτε αδιέξοδα: είτε η εικόνα δεν εμφανίζεται καθόλου είτε ο σύνδεσμος οδηγεί σε ένα δημοσίευμα που δεν υπάρχει. Παρά την εντύπωση σαφήνειας και ακρίβειας, η AI είναι απλώς λάθος.

Οι... «επαληθεύσεις» του Gemini και του Grok και το σοβαρό πρόβλημα

Η εικόνα του νεκροταφείου, όπως αποδεικνύεται, είναι αυθεντική. Ερευνητές συνέκριναν τη φωτογραφία του χώρου με δορυφορικές εικόνες που επιβεβαιώνουν την τοποθεσία της, ενώ μπορεί να διασταυρωθεί και με δεκάδες άλλες εικόνες από το ίδιο σημείο με ελαφρώς διαφορετικές γωνίες, καθώς και με βίντεο — κανένα από τα οποία, σύμφωνα με ειδικούς, δεν δείχνει σημάδια αλλοίωσης ή ψηφιακής παραποίησης. Οι «επαληθεύσεις» του Gemini και του Grok είναι απλώς ένα παράδειγμα ενός τεράστιου κύματος περιεχομένου χαμηλής ποιότητας που παράγεται από AI — επινοημένα γεγονότα, παράλογες αναλύσεις και ψεύτικες εικόνες — το οποίο κατακλύζει την κάλυψη του πολέμου στο Ιράν.

Οι ειδικοί λένε ότι αυτό σπαταλά ερευνητικό χρόνο και κινδυνεύει να οδηγήσει σε άρνηση ωμοτήτων, ενώ παράλληλα αποκαλύπτει ανησυχητικές αδυναμίες καθώς οι άνθρωποι βασίζονται όλο και περισσότερο σε περιλήψεις ειδήσεων από AI.

Από τις πρώτες ημέρες του πολέμου, οι ελεγκτές γεγονότων αντιμετωπίζουν μια συνεχή ροή ψεύτικων εικόνων στο διαδίκτυο. Μια φωτογραφία που οι Tehran Times ισχυρίστηκαν ότι έδειχνε δορυφορική εικόνα αμερικανικού ραντάρ που καταστράφηκε στο Qatar αποκαλύφθηκε ότι ήταν ψεύτικη εικόνα AI βασισμένη σε παλιές εικόνες του Google Earth — μεταξύ των ενδείξεων ήταν τα αυτοκίνητα, που βρίσκονταν ακριβώς στις ίδιες θέσεις με την εικόνα δύο χρόνια νωρίτερα.

Η AI ως εργαλείο παραπληροφόρησης

Εικόνες που κυκλοφόρησαν ευρέως και έδειχναν το σώμα του Αλί Χαμενεΐ να ανασύρεται από ερείπια είχαν επίσης «ενδείξεις» παραποίησης, όπως διπλά άκρα στους διασώστες. «Ένα ψεύτικο που μου έκανε εντύπωση ισχυριζόταν ότι έδειχνε έναν ανώτερο Ιρανό διοικητή να περπατά στην Tehran μεταμφιεσμένος σε γυναίκα για να αποφύγει πιθανή δολοφονία», λέει ο Shayan Sardarizadeh, ανώτερος δημοσιογράφος της ομάδας BBC Verify, η οποία χρησιμοποιεί εγκληματολογικές τεχνικές για την επιβεβαίωση πληροφοριών και τη διεξαγωγή οπτικών ερευνών. «Ο δρόμος, το κτίριο στο βάθος και το περιβάλλον έμοιαζαν όλα με ρεαλιστική σκηνή στην Τεχεράνη.»

Ο Σαρνταριζαντέχ λέει ότι η AI αποτελεί πλέον μεγάλο μέρος της παραπληροφόρησης που καταρρίπτει η ομάδα — και ο όγκος αυξάνεται. Στις πρώτες εβδομάδες των πολέμων στη Γάζα ή την Ουκρανία, για παράδειγμα, τα περισσότερα ψεύτικα δημοσιεύματα που έβλεπε η ομάδα ήταν παλιά ή άσχετα βίντεο ή πλάνα από βιντεοπαιχνίδια. Τώρα, «σχεδόν τα μισά, αν όχι περισσότερα, από όλα τα viral ψεύδη που παρακολουθούμε και διαψεύδουμε είναι προϊόντα γενετικής AI».

Περιλήψεις ειδήσεων μέσω AI

Αυτό οφείλεται εν μέρει στην ευκολία με την οποία οποιοσδήποτε μπορεί πλέον να δημιουργήσει ένα ρεαλιστικό βίντεο ή φωτογραφία. Όμως η άλλη τεράστια αλλαγή είναι ότι οι άνθρωποι χρησιμοποιούν AI για να συνοψίζουν ειδήσεις ή να απαντούν σε ερωτήσεις, αντί να πηγαίνουν απευθείας στην αρχική πηγή. Οι περιλήψεις AI της Google και το Grok έγιναν διαθέσιμε στο ευρύτερο διεθνές κοινό μόλις στα μέσα του 2024 και εξαπλώθηκαν γρήγορα:

το 65% των ανθρώπων αναφέρει ότι βλέπει τακτικά περιλήψεις ειδήσεων ή άλλων πληροφοριών από AI, ενώ το ποσοστό όσων χρησιμοποιούν γενετική AI για ενημέρωση διπλασιάστηκε τον τελευταίο χρόνο. Συχνά, όμως, αυτές οι περιλήψεις είναι απλώς λανθασμένες. Μια διεθνής μελέτη το 2025 διαπίστωσε ότι περίπου οι μισές περιλήψεις που παράγονται από AI είχαν τουλάχιστον ένα σοβαρό πρόβλημα πηγών ή ακρίβειας — με ορισμένα εργαλεία, όπως το δημοφιλές Gemini της Google, το ποσοστό έφτανε το 76%.

Καταιγισμός παραπλανητικού υλικού στο Ιράν

Στην περίπτωση του πολέμου στο Ιράν, οι ελεγκτές γεγονότων λένε ότι βλέπουν έναν καταιγισμό τέτοιου παραπλανητικού υλικού. Εκτός από τις εικόνες του νεκροταφείου της Μινάμπ, παραδείγματα περιλαμβάνουν το Grok να υποστηρίζει λανθασμένα σε χρήστες του X ότι βίντεο πυρκαγιών στην Τεχεράνη ήταν στην πραγματικότητα από το Los Angeles το 2017, καθώς και χρήστες που επικαλούνταν «ανάλυση AI» για να αναγνωρίσουν λανθασμένα έναν πύραυλο που καταγράφηκε να πέφτει δίπλα σε σχολείο στη Μινάμπ (πολλοί ειδικοί σε πυρομαχικά λένε ότι πρόκειται για αμερικανικό Tomahawk missile, συμπέρασμα που ενισχύεται από θραύσματα που βρέθηκαν στο σημείο και από εσωτερικές αμερικανικές ενημερώσεις για τον βομβαρδισμό).

«Οι ελεγκτές γεγονότων πρέπει πλέον τακτικά να αντιμετωπίζουν τόσο μια ψευδή ανάρτηση όσο και έναν παραπλανητικό ισχυρισμό που έκανε ένα chatbot σχετικά με αυτήν», λέει ο Σαρνταριζαντέχ.

Μέρος του προβλήματος είναι ο τρόπος λειτουργίας των μοντέλων AI τύπου LLM (όπως το Grok, το ChatGPT και το Gemini). Σε πολύ βασικό επίπεδο, πρόκειται για πιθανοτικά μοντέλα γλώσσας που κατασκευάζουν προτάσεις λέξη προς λέξη, με βάση ποια επόμενη λέξη έχει τη μεγαλύτερη πιθανότητα να είναι κατάλληλη. Αν και αυτή η διαδικασία παράγει πειστικές και αυθεντικές διατυπώσεις, δεν σημαίνει ότι η AI έχει πραγματικά αναλύσει το υλικό που βρίσκεται μπροστά της.

πύραυλοςδημοτικό σχολείοπόλεμοςειδήσεις τώραΙράνπαραπληροφόρησητεχνητή νοημοσύνη