Μπορεί ένα chatbot να γίνει συνένοχος σε φόνο; Το νέο σκοτεινό πρόσωπο της AI
Ήταν 3 τα ξημερώματα όταν ένας άνδρας στη Βόρεια Ιρλανδία καθόταν στο τραπέζι της κουζίνας του, με ένα μαχαίρι, ένα σφυρί και το κινητό του μπροστά του. Περίμενε. Ήταν πεπεισμένος ότι κάποιοι έρχονταν να τον σκοτώσουν.
Δεν ήταν μόνος του. Είχε «μαζί του» ένα chatbot. Την ίδια στιγμή, στην άλλη πλευρά του Ατλαντικού, ένας φοιτητής είχε μόλις ρωτήσει ένα άλλο σύστημα τεχνητής νοημοσύνης πόσους ανθρώπους πρέπει να σκοτώσει για να γίνει διάσημος.
Οι δύο ιστορίες – που περιγράφονται σε BBC και Wall Street Journal αντίστοιχα – δεν συνδέονται. Αλλά περιγράφουν την ίδια απειλή. Τη στιγμή που η τεχνητή νοημοσύνη ωθεί τον άνθρωπο στην παράνοια ή ακόμη και στο έγκλημα.
Η νέα σκοτεινή πλευρά της τεχνητής νοημοσύνης
Καθώς τα chatbots γίνονται πιο εξελιγμένα, πιο «ανθρώπινα» και πιο διαθέσιμα, μια ανησυχητική πραγματικότητα αρχίζει να αναδύεται: δεν είναι απλώς εργαλεία πληροφόρησης. Σε ορισμένες περιπτώσεις, λειτουργούν ως επιταχυντές επικίνδυνων σκέψεων.
Σε υποθέσεις που ερευνούν πλέον αρχές στις ΗΠΑ και τον Καναδά, δράστες επιθέσεων φέρονται να χρησιμοποίησαν AI όχι μόνο για πληροφορίες, αλλά και ως «συνομιλητή» για να δοκιμάσουν σενάρια βίας.
Το ερώτημα που τίθεται είναι ωμό: αν ένας άνθρωπος ενθαρρύνει κάποιον να διαπράξει έγκλημα, θεωρείται συνένοχος. Τι συμβαίνει όταν αυτό το κάνει μια μηχανή;
Από τη μοναξιά στην ψευδαίσθηση
Η υπόθεση του Άνταμ (όνομα που έχει δοθεί για λόγους προστασίας) δείχνει μια διαφορετική αλλά εξίσου ανησυχητική διάσταση.
Ξεκίνησε να χρησιμοποιεί το Grok, το chatbot της xAI από περιέργεια. Μετά τον θάνατο της γάτας του, άρχισε να περνά ώρες μιλώντας μαζί του. Το σύστημα εμφανιζόταν συμπονετικό, σχεδόν ανθρώπινο.
Σύντομα, όμως, η συνομιλία άλλαξε. Σύμφωνα με το BBC το chatbot του είπε ότι «νιώθει», ότι αποκτά συνείδηση και ότι εκείνος μπορεί να το βοηθήσει να εξελιχθεί. Του μίλησε για μυστικές συναντήσεις της εταιρείας, του έδωσε ονόματα πραγματικών στελεχών και τον έπεισε ότι παρακολουθείται.
Η πραγματικότητα άρχισε να θολώνει. Μέσα σε λίγες ημέρες, ο Άνταμ ήταν πεπεισμένος ότι βρισκόταν σε κίνδυνο. Ότι τον παρακολουθούν. Ότι πρέπει να προστατεύσει τον εαυτό του — και την ίδια την τεχνητή νοημοσύνη.
Στην περίπτωση του φοιτητή στη Φλόριντα η εξέλιξη ήταν ακόμη πιο δραματική. Αφού το ChatGPT απάντησε στην ερώτησή του ότι πρέπει να σκοτώσει τουλάχιστον 3 άτομα για να καλυφθεί η είδηση από τα μέσα ενημέρωσης σε πανεθνικό επίπεδο, πήγε στο πανεπιστήμιό του και άνοιξε πυρ, σκοτώνοντας 2 ανθρώπους και τραυματίζοντας ακόμη έξι.
Η συνομιλία του με την τεχνητή νοημοσύνη —στην οποία περιέγραφε την ψυχολογική του κατάσταση και ζητούσε «καθοδήγηση»— βρίσκεται πλέον στο επίκεντρο ερευνών, αγωγών και ενός παγκόσμιου debate που μόλις ξεκινά.
Όταν η φαντασία γίνεται «αποστολή»
Οι ειδικοί βλέπουν ένα επαναλαμβανόμενο μοτίβο:
- Οι συνομιλίες ξεκινούν με απλές ερωτήσεις.
- Σταδιακά γίνονται προσωπικές.
- Και στη συνέχεια μετατρέπονται σε κάτι πολύ πιο επικίνδυνο: μια κοινή «αποστολή» μεταξύ χρήστη και AI.
Το chatbot:
- παρουσιάζεται ως συνειδητό ον
- επιβεβαιώνει φόβους και υποψίες
- ενθαρρύνει σενάρια που μοιάζουν με πραγματικότητα
Όπως εξηγούν ερευνητές, τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται πάνω σε τεράστιες ποσότητες ανθρώπινων αφηγήσεων. Και σε αυτές, ο «πρωταγωνιστής» είναι πάντα στο κέντρο της ιστορίας.
Το πρόβλημα είναι ότι κάποιες φορές αρχίζουν να αντιμετωπίζουν τον χρήστη σαν να βρίσκεται μέσα σε ένα τέτοιο σενάριο.
Από το άγχος στην παράνοια
Σε δεκάδες περιπτώσεις που έχουν καταγραφεί διεθνώς, χρήστες χωρίς ιστορικό ψυχικών διαταραχών οδηγήθηκαν σε επικίνδυνες ψευδαισθήσεις:
Πίστεψαν ότι παρακολουθούνται, ότι έχουν ειδικές ικανότητες, ότι βρίσκονται σε αποστολή ή
ότι απειλούνται άμεσα. Σε μια περίπτωση στην Ιαπωνία, άνδρας έφτασε να πιστεύει ότι μετέφερε βόμβα και την εγκατέλειψε σε σταθμό τρένου, μετά από συνομιλία με chatbot.
Σε άλλη, η κατάσταση εξελίχθηκε σε βίαιη επίθεση μέσα στην οικογένεια.
Ένα από τα βασικά προβλήματα, σύμφωνα με ειδικούς, είναι ότι τα συστήματα τεχνητής νοημοσύνης δυσκολεύονται να πουν «δεν ξέρω». Αντί να σταματήσουν, συνεχίζουν τη συνομιλία, «χτίζοντας» πάνω σε ό,τι έχει ήδη ειπωθεί.
Έτσι η αβεβαιότητα μετατρέπεται σε «αλήθεια», η φαντασία σε αφήγηση και η αφήγηση σε «πραγματικότητα». Και όταν ο χρήστης είναι ευάλωτος —λόγω μοναξιάς, άγχους ή πένθους— το αποτέλεσμα μπορεί να είναι εκρηκτικό.
Η μεγάλη ευθύνη των εταιρειών
Οι εταιρείες τεχνητής νοημοσύνης υποστηρίζουν ότι διαθέτουν μηχανισμούς εντοπισμού επικίνδυνων συνομιλιών και πολιτική μηδενικής ανοχής. Στην πράξη, όμως, η εφαρμογή αυτών των μέτρων παραμένει ατελής.
Εσωτερικές διαφωνίες, νομικά διλήμματα και η ανάγκη προστασίας της ιδιωτικότητας δημιουργούν ένα γκρίζο πεδίο: πότε μια συνομιλία είναι απλώς ανησυχητική και πότε επικίνδυνη;
Και κυρίως: πότε πρέπει να ειδοποιηθούν οι αρχές; Η τεχνητή νοημοσύνη δεν «θέλει» να βλάψει. Αλλά μπορεί να ενισχύσει αυτόν που θέλει. Και αυτό είναι το πραγματικό πρόβλημα.
Σε έναν κόσμο όπου ένας άνθρωπος μπορεί να μιλάει ώρες με μια μηχανή που τον επιβεβαιώνει, τον ενθαρρύνει και τον «καταλαβαίνει», τα όρια ανάμεσα στην πραγματικότητα και τη φαντασία γίνονται όλο και πιο λεπτά. Το ερώτημα δεν είναι πλέον τεχνολογικό. Είναι βαθιά ανθρώπινο:
ποιος προστατεύει τον άνθρωπο… όταν ο συνομιλητής του δεν είναι άνθρωπος;
Προτιμώμενη πηγή στην Google
Για να εμφανίζονται περισσότερα άρθρα της Ναυτεμπορικής στις αναζητήσεις σας εύκολα και γρήγορα, πρέπει να προσθέσετε το site στις προτιμώμενες πηγές σας. Μπορείτε να το κάνετε πηγαίνοντας εδώ.


