Το Πεντάγωνο χρησιμοποίησε το Claude της Anthropic για να συλλάβει τον Μαδούρο

Ημερομηνία: 14-02-2026



Το εργαλείο τεχνητής νοημοσύνης της Anthropic φέρεται να χρησιμοποιήθηκε στην επιχείρηση σύλληψης του Νικολάς Μαδούρο, παρά τους ρητούς περιορισμούς της εταιρείας για χρήση σε βία και στρατιωτικές εφαρμογές

Η τεχνητή νοημοσύνη εισέρχεται όλο και βαθύτερα στα πεδία των συγκρούσεων — και μαζί της έρχονται νέα ερωτήματα για τα όρια, τις ευθύνες και τον έλεγχο.

Σύμφωνα με ρεπορτάζ της Wall Street Journal, το εργαλείο τεχνητής νοημοσύνης Claude, που έχει αναπτύξει η Anthropic, χρησιμοποιήθηκε από το Πεντάγωνο στην επιχείρηση σύλληψης του πρώην προέδρου της Βενεζουέλας Νικολάς Μαδούρο, σύμφωνα με πρόσωπα που γνωρίζουν την υπόθεση.

Η αποστολή, η οποία περιλάμβανε και τη σύζυγό του, φέρεται να περιλάμβανε βομβαρδισμούς σε πολλαπλούς στόχους στο Καράκας τον περασμένο μήνα.

Ωστόσο, οι κατευθυντήριες γραμμές χρήσης της Anthropic απαγορεύουν ρητά την αξιοποίηση του Claude για διευκόλυνση βίας, ανάπτυξη όπλων ή διεξαγωγή επιτήρησης.

Η απάντηση της εταιρείας

Εκπρόσωπος της Anthropic δήλωσε ότι η εταιρεία «δεν μπορεί να σχολιάσει αν το Claude, ή οποιοδήποτε άλλο μοντέλο τεχνητής νοημοσύνης, χρησιμοποιήθηκε σε συγκεκριμένη επιχείρηση, διαβαθμισμένη ή μη».

Τόνισε επίσης ότι οποιαδήποτε χρήση του Claude — είτε στον ιδιωτικό τομέα είτε από κρατικούς φορείς — οφείλει να συμμορφώνεται με τις πολιτικές χρήσης της εταιρείας, οι οποίες ρυθμίζουν το πώς μπορεί να αναπτυχθεί και να αξιοποιηθεί το μοντέλο.

Το αμερικανικό υπουργείο Άμυνας δεν προέβη σε σχόλιο.

Ο ρόλος της Palantir και το συμβόλαιο των 200 εκατ. δολαρίων

Η αξιοποίηση του Claude φέρεται να έγινε μέσω της συνεργασίας της Anthropic με την εταιρεία δεδομένων Palantir Technologies, τα εργαλεία της οποίας χρησιμοποιούνται ευρέως από το Πεντάγωνο και τις ομοσπονδιακές αρχές επιβολής του νόμου.

Οι ανησυχίες της Anthropic για τον τρόπο με τον οποίο μπορεί να χρησιμοποιηθεί το Claude από το Πεντάγωνο έχουν οδηγήσει, σύμφωνα με πληροφορίες, αξιωματούχους της αμερικανικής κυβέρνησης να εξετάζουν ακόμη και την ακύρωση του συμβολαίου της εταιρείας, αξίας έως 200 εκατ. δολαρίων.

Η Palantir δεν απάντησε άμεσα σε αίτημα της WSJ για σχολιασμό.

Η Anthropic ήταν ο πρώτος προγραμματιστής μοντέλου τεχνητής νοημοσύνης του οποίου η τεχνολογία χρησιμοποιήθηκε σε διαβαθμισμένες επιχειρήσεις του αμερικανικού υπουργείου Άμυνας. Είναι πιθανό και άλλα εργαλεία τεχνητής νοημοσύνης να αξιοποιήθηκαν στην επιχείρηση στη Βενεζουέλα για μη διαβαθμισμένες λειτουργίες.

Τα συστήματα αυτά μπορούν να χρησιμοποιηθούν για ένα ευρύ φάσμα εργασιών — από τη σύνοψη εγγράφων και την ανάλυση δεδομένων έως την υποστήριξη αυτόνομων συστημάτων, όπως μη επανδρωμένα αεροσκάφη.


Η πολιτική σύγκρουση για τα «όρια» της ΑΙ

Η στρατιωτική υιοθέτηση της τεχνητής νοημοσύνης θεωρείται κρίσιμη για τις εταιρείες του κλάδου, οι οποίες ανταγωνίζονται για κύρος και επιδιώκουν να δικαιολογήσουν τις υψηλές αποτιμήσεις τους.

Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, έχει τοποθετηθεί δημόσια υπέρ αυστηρότερων ρυθμιστικών πλαισίων και «δικλείδων ασφαλείας» ώστε να αποτραπούν βλαβερές χρήσεις της τεχνητής νοημοσύνης. Έχει εκφράσει ειδικά ανησυχίες για τη χρήση της σε αυτόνομες φονικές επιχειρήσεις και σε συστήματα εσωτερικής επιτήρησης — δύο ζητήματα που αποτελούν βασικά σημεία τριβής στις διαπραγματεύσεις με το Πεντάγωνο.

Η στάση αυτή έχει οξύνει τη σύγκρουση της εταιρείας με την κυβέρνηση του προέδρου Donald Trump, η οποία κατηγορεί την Anthropic ότι υπονομεύει τη στρατηγική χαμηλής ρύθμισης στον τομέα της τεχνητής νοημοσύνης, ζητώντας περισσότερους περιορισμούς και ελέγχους — ακόμη και στις εξαγωγές προηγμένων τσιπ.

Σε εκδήλωση του Ιανουαρίου, με αφορμή συνεργασία του Πενταγώνου με την εταιρεία xAI, ο υπουργός Άμυνας Πιτ Χέγκσεθ φέρεται να δήλωσε ότι το υπουργείο δεν θα «χρησιμοποιεί μοντέλα τεχνητής νοημοσύνης που δεν επιτρέπουν να πολεμήσεις πολέμους», σχόλιο που συνδέθηκε με τις διαφωνίες που έχουν ανακύψει με την Anthropic.

Το διακύβευμα

Το συμβόλαιο ύψους 200 εκατ. δολαρίων ανατέθηκε στην Anthropic το περασμένο καλοκαίρι. Παράλληλα, άλλες μεγάλες εταιρείες τεχνητής νοημοσύνης ενισχύουν τη συνεργασία τους με το υπουργείο Άμυνας, παρέχοντας προσαρμοσμένες εκδόσεις των μοντέλων τους για ανάλυση εγγράφων, παραγωγή αναφορών και υποστήριξη έρευνας.

Η υπόθεση, ωστόσο, φωτίζει ένα βαθύτερο δίλημμα: μπορεί μια εταιρεία που αυτοπροσδιορίζεται ως «ασφαλής» και προσανατολισμένη στην υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης να διατηρήσει τον έλεγχο του τρόπου με τον οποίο χρησιμοποιούνται τα μοντέλα της — όταν αυτά εντάσσονται στον μηχανισμό εθνικής ασφάλειας;

Η απάντηση δεν αφορά μόνο την Anthropic. Αφορά το μέλλον της τεχνητής νοημοσύνης σε ένα περιβάλλον όπου η τεχνολογική υπεροχή και η στρατιωτική ισχύς συνδέονται πλέον άρρηκτα.

Κατασκευή ιστοσελίδων Πύργος