Το σκάνδαλο σεξουαλικής παρενόχλησης στην JPMorgan ήταν ήδη χαοτικό. Η AI το κάνει ακόμη χειρότερο
Πρώτα ήρθε το σκάνδαλο. Μετά ήρθαν τα deepfakes.
Και κάπου εκεί, όπως επισημαίνει η Wall Street Journal, το διαδίκτυο μπήκε σε μια ακόμη πιο επικίνδυνη εποχή: εκείνη όπου η τεχνητή νοημοσύνη δεν περιορίζεται πλέον στη διάδοση ψευδών ειδήσεων, αλλά δημιουργεί ολόκληρες ψεύτικες «οπτικές πραγματικότητες» που μοιάζουν αληθινές.
Αφορμή στάθηκε μια πολύκροτη αγωγή πρώην εργαζομένου της JPMorgan, ο οποίος κατηγορεί γυναίκα στέλεχος της τράπεζας για σεξουαλική παρενόχληση και εκβιασμό σχετικά με την επαγγελματική του εξέλιξη.
Η τράπεζα υποστηρίζει ότι εσωτερική έρευνα δεν επιβεβαίωσε τους ισχυρισμούς, ενώ η πλευρά της γυναίκας στελέχους δηλώνει ότι οι κατηγορίες είναι ψευδείς και ότι δεν υπήρξε ποτέ ερωτική ή σεξουαλική σχέση μεταξύ των δύο πλευρών.
Όμως πριν ακόμη η υπόθεση οδηγηθεί σε δικαστική αίθουσα, το ίντερνετ είχε ήδη βγάλει τη δική του «απόφαση».
Τα ψεύτικα βίντεο που έγιναν viral
Μέσα σε λίγες ημέρες, πλατφόρμες όπως το X και το Instagram γέμισαν με βίντεο τεχνητής νοημοσύνης που παρουσίαζαν τους δύο πρωταγωνιστές της υπόθεσης σε σκηνές που δεν συνέβησαν ποτέ.
Σε ένα από τα clips, η γυναίκα εμφανίζεται να χορεύει προκλητικά σε γραφείο της JPMorgan ενώ συνάδελφοι τής πετούν δολάρια.
Σε άλλο, χαϊδεύει τον πρώην εργαζόμενο την ώρα που εκείνος δουλεύει στο γραφείο του, με τη λεζάντα «50 Shades of JP Morgan».Ένα ακόμη βίντεο τούς δείχνει δήθεν μαζί στο Met Gala.
Όπως παρατηρεί η Wall Street Journal, το πιο ανησυχητικό βίντεο δεν ήταν καν το πιο ακραίο. Ήταν εκείνο που έδειχνε τους δύο να κάθονται χαμογελαστοί σε καφέ πίνοντας κρασί, σαν να πρόκειται για κρυφή προσωπική στιγμή που κατεγράφη τυχαία.
Ακριβώς επειδή έμοιαζε απολύτως πιθανό και καθημερινό, γινόταν ακόμη πιο πειστικό.
Filmmaking is evolving…📲🧑💻👩💻
Soon, AI will create scenes more real than reality 🎬🔥
No sets, no locations – just AI and imagination 🎬 And this is just a glimpse of recent sex scandal Chirayu Rana and JP Morgan Executive Director Lorna Hajdini 👀 pic.twitter.com/XSL6lMRlgJ
— Anurag Singh (@anurag_ce) May 2, 2026
Η εποχή όπου «βλέπουμε» και πιστεύουμε
Η μεγάλη αλλαγή, σύμφωνα με τη Wall Street Journal, είναι ότι πλέον το ψέμα δεν μεταδίδεται μόνο με λέξεις, αλλά με εικόνες που μοιάζουν αληθινές.
«Πιστεύουμε τις εικόνες», λέει στην αμερικανική εφημερίδα η Danielle Citron, καθηγήτρια Νομικής στο Πανεπιστήμιο της Βιρτζίνια και ειδική στην ψηφιακή κακοποίηση.
Και αυτό είναι το πραγματικά ανησυχητικό.
Ακόμη κι όταν τα AI βίντεο έχουν ατέλειες ή μοιάζουν ελαφρώς «παράξενα», επηρεάζουν βαθιά την αντίληψη του κοινού.
Η Wall Street Journal επικαλείται έρευνα της Microsoft σύμφωνα με την οποία οι άνθρωποι καταφέρνουν να ξεχωρίσουν αν μια εικόνα είναι αληθινή ή παραγμένη από AI μόνο στο 62% των περιπτώσεων — λίγο καλύτερα από το να ρίχνουν κορώνα-γράμματα.
Το νέο όπλο του διαδικτυακού διασυρμού
Η υπόθεση της JPMorgan δείχνει κάτι πολύ μεγαλύτερο από ένα εταιρικό σκάνδαλο.
Δείχνει πώς η τεχνητή νοημοσύνη μετατρέπεται σε εργαλείο μαζικού online διασυρμού.
Όπως σχολιάζει η Wall Street Journal, πλέον αρκούν λίγα λεπτά και ένα chatbot όπως το Grok του X για να δημιουργηθεί ψεύτικο βίντεο με πραγματικά πρόσωπα.
Και επειδή το περιεχόμενο που προκαλεί σοκ, θυμό ή κουτσομπολιό φέρνει clicks, views και χρήματα, το οικονομικό κίνητρο είναι τεράστιο.
Δημιουργοί περιεχομένου, λογαριασμοί επιρροής αλλά και απλοί χρήστες έχουν πλέον στα χέρια τους ένα νέο όπλο: να «σκηνοθετούν» ψηφιακά σκάνδαλα που μοιάζουν αληθινά.
Από τη δίκη Depp – Heard στη νέα εποχή του AI
Η Danielle Citron συνέκρινε όσα συμβαίνουν σήμερα με τη δίκη του Johnny Depp και της Amber Heard το 2022.
Εκείνη η υπόθεση είχε μετατραπεί σε τεράστιο online θέαμα, με YouTubers και TikTok creators να αναλύουν καθημερινά κάθε στιγμή της δίκης, επηρεάζοντας δραστικά την κοινή γνώμη.
Όμως τότε δεν υπήρχαν ακόμη AI videos. Σήμερα, η τεχνητή νοημοσύνη προσθέτει κάτι πολύ πιο ισχυρό: ψεύτικες «αποδείξεις».
Οι αγωγές κατά της xAI και του Grok
Το θέμα έχει ήδη αρχίσει να περνά και στις δικαστικές αίθουσες.
Όπως αναφέρει η Wall Street Journal, ομαδική αγωγή που κατατέθηκε τον Ιανουάριο στρέφεται κατά της xAI του Έλον Μασκ, υποστηρίζοντας ότι το chatbot Grok επέτρεψε τη μαζική δημιουργία και διασπορά ψεύτικων γυμνών εικόνων γυναικών και παιδιών.
Παράλληλα, η Ashley St. Clair — influencer και μητέρα ενός από τα παιδιά του Μασκ — κατέθεσε επίσης αγωγή για sexualized deepfakes που τη στόχευαν.
Οι υποθέσεις αυτές μπορεί να καθορίσουν στο μέλλον μέχρι πού φτάνει η νομική ευθύνη των τεχνολογικών εταιρειών όταν τα εργαλεία AI χρησιμοποιούνται για συκοφαντία, εκβιασμό ή ψηφιακή κακοποίηση.
Η «συνθετική αλήθεια» γίνεται το νέο πρόβλημα
Το πιο ανησυχητικό συμπέρασμα της Wall Street Journal είναι ίσως ότι αυτό που βλέπουμε σήμερα είναι μόνο η αρχή.
Η τεχνητή νοημοσύνη κάνει πλέον εφικτή τη μαζική παραγωγή «συνθετικών ψεμάτων» που φαίνονται αληθινά, διαδίδονται γρήγορα και επηρεάζουν συνειδήσεις πριν υπάρξει οποιαδήποτε επιβεβαίωση ή διάψευση.
Και όσο οι πλατφόρμες ανταμείβουν το σοκ, την οργή και τη viral διαπόμπευση, τόσο περισσότερο θα ενισχύεται αυτή η νέα βιομηχανία ψηφιακής χειραγώγησης.
«Θα δούμε πολύ μεγαλύτερη εργαλειοποίηση αυτού του είδους συνθετικού ψεύδους», προειδοποιεί η Citron στη Wall Street Journal.
Και ίσως αυτό να είναι το πιο ανησυχητικό στοιχείο απ’ όλα: ότι στην εποχή της AI, το επόμενο μεγάλο σκάνδαλο του διαδικτύου μπορεί να μη συνέβη ποτέ — αλλά εκατομμύρια άνθρωποι θα το έχουν ήδη «δει» με τα μάτια τους.
Προτιμώμενη πηγή στην Google
Για να εμφανίζονται περισσότερα άρθρα της Ναυτεμπορικής στις αναζητήσεις σας εύκολα και γρήγορα, πρέπει να προσθέσετε το site στις προτιμώμενες πηγές σας. Μπορείτε να το κάνετε πηγαίνοντας εδώ.


