Τεχνολογία|28.03.2026 21:01

Τα πολιτικά deepfakes και η τρομακτική επιρροή τους - Από τον Τραμπ σε ΑΙ γυναίκες με στολή

Newsroom

Οι δημιουργοί περιεχομένου στο διαδίκτυο δεν περιορίζονται απλώς στο να φτιάχνουν ψεύτικες εικόνες και βίντεο με γνωστά δημόσια πρόσωπα, αλλά κατασκευάζουν και ανθρώπους και τους χρησιμοποιούν σε στρατιωτικά πλαίσια, κάτι που μπορεί να τους αποφέρει χρήματα και ακόμη και να λειτουργήσει ως αποτελεσματική προπαγάνδα, σύμφωνα με ερευνητές τεχνητής νοημοσύνης.

Μερικά από αυτά τα διαδικτυακά avatars είναι σεξουαλικοποιημένες εικόνες γυναικών που φορούν στολή παραλλαγής και έχουν προσελκύσει σημαντικό κοινό, βοηθώντας στη δημιουργία ενός ιδεατού προφίλ πολιτικών προσωπικοτήτων όπως ο Ντόναλντ Τραμπ, ακόμη κι αν ο θεατής γνωρίζει ότι το περιεχόμενο δεν είναι αληθινό, λένε οι ειδικοί.

«Αναμειγνύουμε τα όρια ανάμεσα στα πολιτικά καρτούν και την πραγματικότητα», είπε στον Guardian ο Ντάνιελ Σιφ, αναπληρωτής καθηγητής πολιτικής τεχνολογίας στο Πανεπιστήμιο Purdue και συνδιευθυντής του Governance and Responsible AI Lab (Grail). «Πολλοί άνθρωποι αισθάνονται ότι αυτές οι εικόνες ή τα βίντεο ή οι ιστορίες που μεταφέρουν, μοιάζουν αληθινά».

Η ποσότητα των πολιτικών deepfakes έχει αυξηθεί δραματικά τα τελευταία χρόνια, σύμφωνα με τη βάση δεδομένων του Grail. Από την αρχή του 2025, ο οργανισμός έχει καταγράψει περισσότερες από 1.000 αναρτήσεις στα αγγλικά σε μέσα κοινωνικής δικτύωσης που περιλαμβάνουν ψεύτικες εικόνες ή βίντεο γνωστών πολιτικών προσωπικοτήτων και πολιτικά σημαντικών θεμάτων και γεγονότων. Στα προηγούμενα 8 χρόνια μαζί, ο οργανισμός είχε καταγράψει 1.344 τέτοια περιστατικά. Αυτή η αύξηση οφείλεται κυρίως στη βελτίωση της τεχνολογίας της παραγωγικής τεχνητής νοημοσύνης, η οποία έχει επιτρέψει στους ανθρώπους να δημιουργούν γρήγορα τέτοιο περιεχόμενο, σύμφωνα με τον Σιφ.

«Έχουμε κάνει “πολύ εύκολο” το να δημιουργήσεις μια σκηνή που φαίνεται αρκετά ρεαλιστική και να τοποθετήσεις πραγματικά άτομα μέσα σε σκηνές», είπε ο Σαμ Γκρέγκορι, εκτελεστικός διευθυντής του Witness, οργανισμού αφιερωμένου στα ανθρώπινα δικαιώματα και την καταπολέμηση της παραπλανητικής AI. Αλλά τα ψεύτικα avatars – που μιμούνται πραγματικούς καθημερινούς ανθρώπους αντί για γνωστά πρόσωπα – είναι μια διαφορετική υπόθεση.

ΑΙ γυναίκες με στολή, Τραμπ και… φωτογραφίες από πατούσες

Τον Δεκέμβριο του 2025, ένας λογαριασμός για την Τζέσικα Φόστερ, μια ξανθιά ΑΙ γυναίκα που απεικονίζεται συχνά σε στολή του αμερικανικού στρατού, «ανέβηκε» στο Instagram και άρχισε να μοιράζεται φωτογραφίες της Φόστερ πάνω σε κουκέτες σε στρατώνες, καθισμένη σε καρέκλα γραφείου με τα πόδια πάνω στο γραφείο και να περπατά σε διάδρομο αεροδρομίου με ψηλά τακούνια δίπλα στον Τραμπ, σύμφωνα με το Fast Company. Οι δημιουργοί σκόπιμα τόνιζαν τα παπούτσια και έκαναν τις πατούσες της να εμφανίζονται έντονα.

Οι εικόνες της Φόστερ, που δεν είναι πραγματικό άτομο, προσέλκυσαν περισσότερους από 1 εκατομμύριο ακολούθους στο Instagram. Οι αναρτήσεις συνδέθηκαν με λογαριασμό στο OnlyFans, μια πλατφόρμα κυρίως για δημιουργούς πορνογραφικού περιεχομένου, όπου οι επισκέπτες μπορούσαν να αγοράσουν φωτογραφίες από πατούσες υποτίθεται της Φόστερ. «Γιατί δεν απαντάς ΠΟΤΕ;» ρώτησε ένας χρήστης το προφίλ της Φόστερ στο Instagram, σύμφωνα με την Washington Post.

Ο λογαριασμός έχει αφαιρεθεί τις τελευταίες ημέρες. «Πολλή από την ΑΙ δημιουργία γίνεται ουσιαστικά για να πάρεις κλικ και χρήματα ή να κατευθύνεις τους ανθρώπους σε μια πιο επικερδή πλατφόρμα», είπε ο Γκρέγκορι.

Πολιτική αξιοποίηση και προπαγάνδα

Αλλά αυτά τα εργαλεία μπορούν επίσης να εξυπηρετήσουν πολιτικούς σκοπούς. Κατά τη διάρκεια του πολέμου στο Ιράν, μια σειρά από βίντεο εμφανίστηκε στα μέσα κοινωνικής δικτύωσης με ψεύτικες Ιρανές στρατιωτικούς που λένε: «Αγαπημένε μου, έλα στο Ιράν», ανέφερε το BBC. Ένα από τα στοιχεία που προδίδει τη μη γνησιότητά τους είναι ότι το Ιράν απαγορεύει στις γυναίκες να υπηρετούν σε μάχιμους ρόλους.

Οι δημιουργοί επίσης κατασκεύασαν μια AI γυναίκα αστυνομικό που έχει περισσότερους από 26.000 ακολούθους στο TikTok. Ένα βίντεο την δείχνει να χαμογελά με το κείμενο: «Ο πρόεδρος Τραμπ απέλασε πάνω από 2,5 εκατομμύρια ανθρώπους από τη χώρα. Είναι αυτό που ψηφίσατε; Ναι». Το βίντεο είχε πάνω από 200 likes και 23 σχόλια, περιλαμβανομένου: «απολύτως ναι».

@copgirl1

yes

? original sound - Copgirl

Κατά τη διάρκεια των εκλογών του 2024, ο Τραμπ επίσης μοιράστηκε AI εικόνες που έδειχναν οπαδούς της τραγουδίστριας Τέιλορ Σουίφτ να τον υποστηρίζουν. Από το 2024, ο Τραμπ και ο Λευκός Οίκος έχουν μοιραστεί τουλάχιστον 18 deepfakes στα μέσα κοινωνικής δικτύωσης, σύμφωνα με τη βάση δεδομένων του Grail.

Αλλά το ζήτημα δεν περιορίζεται στην Δεξιά. Ο κυβερνήτης της Καλιφόρνια, Γκάβιν Νιούσομ, που πολλοί προβλέπουν ότι θα είναι υποψήφιος για πρόεδρος το 2028, επίσης άρχισε να μοιράζεται deepfakes με στόχο τον Τραμπ, συμπεριλαμβανομένου ενός που δείχνει τον Τραμπ να χαμογελά σε ένα ολόγραμμα του Τζέφρι Έπσταϊν.

Οι ερευνητές τεχνητής νοημοσύνης είπαν ότι τα πολιτικά deepfakes μπορούν να είναι πειστικά ακόμα κι αν οι χρήστες γνωρίζουν ότι δεν είναι αληθινά. Η Φόστερ «περπατάει με ψηλά τακούνια, σε στρατιωτική στολή, το στρατιωτικό της σήμα είναι εντελώς λάθος. Δεν υπάρχει λόγος να βρίσκεται με τον πρόεδρο Τραμπ και τον Νικολάς Μαδούρο», είπε ο Γκρέγκορι. «Τίποτα από αυτά, αν το σκεφτείς, δεν βγάζει πολύ νόημα ή "στέκεται" σε εξονυχιστικό έλεγχο. Αλλά οι άνθρωποι δεν ψάχνουν απαραίτητα πράγματα που είναι αληθινά, ψάχνουν πράγματα που αντιπροσωπεύουν τις πεποιθήσεις τους».

Έτσι, τα deepfakes μειώνουν την πιθανότητα οι άνθρωποι να ξανασκεφτούν αυτές τις πεποιθήσεις, είπε η Βαλέρια Βιρτσχάφτερ, ερευνήτρια στο Ίδρυμα Brookings για την τεχνητή νοημοσύνη και αναδυόμενες τεχνολογίες. Τα deepfakes είναι «απλώς ένα ακόμη στρώμα που προστίθεται στη διαδικασία της ενίσχυσης, αντί της επανεξέτασης, αυτών που οι άνθρωποι θεωρούν αληθινά», είπε η Βιρτσχάφτερ.

«Είναι σαν φάρμα τρολ»

Οι ερευνητές ανησυχούν ότι η κατάσταση θα χειροτερέψει. Η τεχνολογία που χρησιμοποιήθηκε για την Φόστερ θα μπορούσε επίσης να χρησιμοποιηθεί για να παραχθούν αυτό που οι ερευνητές περιγράφουν ως «σμήνη AI», ικανά να «συντονίζονται αυτόνομα, να διεισδύουν σε κοινότητες και να κατασκευάζουν συναίνεση αποτελεσματικά», σύμφωνα με πρόσφατη μελέτη. «Είναι σαν φάρμα τρολ χωρίς να χρειάζονται πλέον άνθρωποι», είπε η Βιρτσχάφτερ.

Αλλά οι άνθρωποι μπορούν ακόμη να σταματήσουν κακόβουλους χρήστες από το να χρησιμοποιούν AI για να αποσταθεροποιήσουν την κοινωνία, είπαν οι ερευνητές. Η Συμμαχία για την Προέλευση και Αυθεντικότητα Περιεχομένου έχει αναπτύξει ένα «τεχνικό πρότυπο για εκδότες, δημιουργούς και καταναλωτές για να γνωστοποιούν την προέλευση και τις επεξεργασίες του ψηφιακού περιεχομένου», σύμφωνα με την ομάδα. «Ενσωματώνεται σε μια φωτογραφία που τραβάς με κάμερα ή σε περιεχόμενο που δημιουργήθηκε ή επεξεργάστηκε με AI και στη συνέχεια διανέμεται σε μια πλατφόρμα, έτσι προορίζεται να είναι ένα σύνολο κρυπτογραφημένων μεταδεδομένων», είπε ο Γκρέγκορι.

Οι εταιρείες τεχνολογίας πρέπει στη συνέχεια να χρησιμοποιούν αυτές τις πληροφορίες για να επισημάνουν αν το περιεχόμενο περιέχει AI, είπε ο Γκρέγκορι. Το LinkedIn, το Pinterest, το TikTok και το YouTube έχουν δεσμευτεί να επισημαίνουν περιεχόμενο που δημιουργείται με AI. Αλλά ένας ερευνητής από το μέσο ενημέρωσης Indicator δημοσίευσε πρόσφατα 200 εικόνες και βίντεο AI σε αυτές τις πλατφόρμες για να δει αν τα έχουν επισημάνει. Βρήκε ότι τα πιο επιμελή – LinkedIn και Pinterest – είχαν επισημάνει μόνο το 67% αυτού του περιεχομένου, ενώ στο Instagram επισημάνθηκαν μόλις 15 από 105 ψεύτικες εικόνες.

Το εποπτικό συμβούλιο της Meta δήλωσε πρόσφατα ότι ανησυχεί από αναφορές ότι η εταιρεία «εφαρμόζει με ασυνέπεια» τα πρότυπα της Συμμαχίας «ακόμη και σε περιεχόμενο που δημιουργείται από τα δικά της εργαλεία AI, και ότι μόνο ένα μέρος αυτής της παραγωγής λαμβάνει σωστή επισήμανση». Ο Γκρέγκορι είπε ότι η ασυνεπής επισήμανση οφείλεται σε «έλλειψη πολιτικής βούλησης στα ανώτατα επίπεδα» των μεγάλων εταιρειών τεχνολογίας. «Δεν χρειάζεται να εγκαταλείψουμε την ικανότητα να ξεχωρίζουμε το πραγματικό από το συνθετικό», είπε. «Αλλά πρέπει να δράσουμε γρήγορα».

μέσα κοινωνικής δικτύωσηςειδήσεις τώραsocial mediaτεχνητή νοημοσύνη