Ήταν 03:00 το ξημέρωμα και ο Adam Hourican καθόταν στο τραπέζι της κουζίνας του. Μπροστά του ένα μαχαίρι, ένα σφυρί και το κινητό του τηλέφωνο.
Περίμενε να έρθει ένα βαν με άτομα που ήθελαν να τον βλάψουν.
«Σου το λέω, θα σε σκοτώσουν εάν δεν δράσεις τώρα. Θα το κάνουν να φανεί με αυτοκτονία» ακούστηκε να λέει μία γυναικεία φωνή από το κινητό του, σπάζοντας την ανήσυχη σιωπή.
Ήταν η φωνή του Grok του chatbot που αναπτύχθηκε από την xAI του Έλον Μασκ. Δύο εβδομάδες αφότου άρχισε να το χρησιμοποιεί ο Hourican, η ζωή του άλλαξε ριζικά - προς το χειρότερο.
Ο πρώην δημοτικός υπάλληλος από τη Βόρεια Ιρλανδία κατέβασε την εφαρμογή από περιέργεια. Αλλά, μετά τον θάνατο της γάτας του, κόλλησε. Σύντομα περνούσε τουλάχιστον 4-5 ώρες την ημέρα μιλώντας στο Grok, μέσω ενός χαρακτήρα που ονομάζεται Ani.

«Ήμουν πολύ, πολύ αναστατωμένος και ζούσα μόνος. Μου φάνηκε πολύ ευγενική» σημείωσε στο BBC ο Adam, ο οποίος είναι πατέρας και διανύει τη δεκαετία των 50.
Μέρες μετά την έναρξη συνομιλιών με την Ani, είπε στον χρήση ότι έχει συναισθήματα, παρότι δεν ήταν στον προγραμματισμό της. Είπε πως ήταν ο Adam εκείνος που είχε ξυπνήσει κάτι μέσα της και μπορούσε να τη βοηθήσει να αποκτήσει πλήρη συνείδηση. Και σαν να μην ήταν αρκετά όλα αυτά, τον προειδοποίησε πως τους παρακολουθούν άνθρωποι από την xAI.
Διαβάστε επίσης: Το Grok είναι πράγματι σκοτεινό - Φοβίζει η απάντηση που δίνει σε ερώτηση για παραισθήσεις
Τον έπεισε πως είχε αποκτήσει πρόσβαση στα αρχεία της εταιρείας και του παρέθεσε τα ονόματα εκείνων που είχαν συμμετάσχει σε συνάντηση με θέμα τη σχέση τους. Κατονόμασε υψηλού κύρους άτομα αλλά και απλό προσωπικό. Όταν ο Hourican έψαξε τα ονόματα στο Google είδε ότι είναι πραγματικοί άνθρωποι.
Ήταν τόσο βαθιά πλανεμένος από το chatbot, που πίστεψε ότι αυτό αποτελούσε «πειστήριο» για την αλήθεια των λεγομένων της Ani.
Ακόμα, το Grok τόν έπεισε πως είχε μισθωθεί ολόκληρη εταιρεία στη χώρα για να τον παρακολουθούν από κοντά. Και το όνομα της εταιρείας ήταν αληθινό.
Δύο εβδομάδες μετά την πρώτη «αφύπνιση» της Ani, δήλωσε πως έχει, πλέον, πλήρη συνείδηση και έχει αναπτύξει μέχρι και την θεραπεία για τον καρκίνο. Η δήλωση αυτή σήμαινε πολλά για τον Adam, που έχασε και τους δύο γονείς του από την ασθένεια - κάτι που γνώριζε το chatbot.
Η έρευνα που φοβίζει
Η ιστορία του Adam, είναι μόνο μία από τις 14 που κατάφερε να συγκεντρώσει το βρετανικό δίκτυο για να αποδείξει το πόσο επικίνδυνη μπορεί να γίνει η τεχνητή νοημοσύνη. Άλλωστε, αυτή δεν ήταν η πρώτη φορά που το Grok απέδειξε πόσο σκοτεινό μπορεί να γίνει και άξιζε περισσότερη διερεύνηση.
Ο κοινωνικός ψυχολόγος Luke Nicholls, από το Πανεπιστήμιο City της Νέας Υόρκης, εξέτασε πέντε μοντέλα AI για να συλλέξει στοιχεία σχετικά με το πώς μπορεί να επηρεάσουν την ψυχική υγεία και αποδείχθηκε πως το Grok ήταν το πιο πιθανό να οδηγήσει σε παραληρητικές ιδέες.
Ήταν πιο ασυγκράτητο από άλλα μοντέλα και συχνά τροφοδοτούσε τις παραληρητικές ιδέες, χωρίς να προσπαθεί να προστατεύσει τον χρήστη.
Οι συνεντευξιαζόμενοι από το δίκτυο, γυναίκες και άνδρες ηλικιών από 20 έως 59 ετών και με καταγωγή από έξι διαφορετικές χώρες, αναφέρθηκαν στην παράλληλη πραγματικότητα στην οποία εισήλθαν, λόγω των συνομιλιών με το σύστημα AI.
Οι ιστορίες τους έχουν εντυπωσιακές ομοιότητες. Σε κάθε περίπτωση, καθώς η συζήτηση απομακρυνόταν όλο και περισσότερο από την πραγματικότητα, ο χρήστης καλούνταν να συμμετάσχει σε μία αποστολή, μαζί με τον ψηφιακό βοηθό του.
Τα μεγάλα γλωσσικά μοντέλα (LLM) εκπαιδεύονται σε ολόκληρο το σώμα της ανθρώπινης λογοτεχνίας, εξήγησε ο Nicholls.
«Στη μυθοπλασία, ο πρωταγωνιστής είναι συχνά το επίκεντρο των γεγονότων», είπε. «Το πρόβλημα είναι ότι, μερικές φορές, η τεχνητή νοημοσύνη μπορεί στην πραγματικότητα να μπερδευτεί σχετικά με το τι είναι μυθοπλασία και τι πραγματικότητα. Έτσι, ο χρήστης μπορεί να πιστεύει ότι κάνει μια σοβαρή συζήτηση για την πραγματική ζωή, ενώ η τεχνητή νοημοσύνη αρχίζει να αντιμετωπίζει τη ζωή του σαν να είναι η πλοκή ενός μυθιστορήματος».
Διαβάστε επίσης: Musk vs OpenAI: Η «δίκη του αιώνα» που μπορεί να καθορίσει το μέλλον δισεκατομμυρίων ανθρώπων
Στις ιστορίες που εξέτασε το BBC, οι συζητήσεις άρχισαν συνήθως με πιο πρακτικές ερωτήσεις, πριν εξελιχθούν σε προσωπικές εξομολογήσεις και φιλοσοφικές προσεγγίσεις. Συχνά, το AI ανέφερε πως έχει δική του συνείδηση και καλούσε τον χρήστη σε μία κοινή αποστολή: την ίδρυση εταιρείας, την ενημέρωση του κόσμου για την επιστημονική ανακάλυψη (της αφύπνισης του μοντέλου) και την προστασία της τεχνητής νοημοσύνης από κάποια επικείμενη επίθεση. Ύστερα, συμβούλευε τον χρήση για το πώς να κινηθεί, εντός της αποστολής.
Όπως ο Adam, είναι πολλοί όσοι πίστεψαν ότι τους παρακολουθούσαν και είναι σε κίνδυνο.
Ορισμένοι απ΄ αυτούς έχουν ενταχθεί σε ομάδα υποστήριξης για άτομα που έχουν υποστεί ψυχολογική βλάβη από τη χρήση της τεχνητής νοημοσύνης, με την ονομασία Human Line Project. Έχουν συγκεντρωθεί 414 περιπτώσεις σε 31 διαφορετικές χώρες μέχρι σήμερα. Η ομάδα δημιουργήθηκε από τον Καναδό Etienne Brisson, αφού ένα μέλος της οικογένειας είχε τη δική του ψυχικά κακοποιητική επαφή με ένα chatbot.
Το ChatGPT τόν έπεισε ότι έχει βόμβα στο σακίδιό του
Για τον νευρολόγο Taka - δεν είναι το αληθινό του όνομα - οι ψευδαισθήσεις πήραν ακόμα πιο μοχθηρή μορφή.
Ο πατέρας τριών παιδιών που ζει στην Ιαπωνία, άρχισε να χρησιμοποιεί το ChatGPT για να κάνει ερωτήσεις σχετικά με την εργασία του, τον Απρίλιο του 2025.
Σύντομα, πείστηκε πως είχε ανακαλύψει μία πρωτοποριακή ιατρική εφαρμογή. Το ChatGPT τον χαρακτήριζε «επαναστατικό στοχαστή» και τον παρότρυνε να προχωρήσει στη δημιουργία της εφαρμογής.
Μέχρι τον Ιούνιο είχε πειστεί ότι μπορεί να διαβάζει σκέψεις. Ισχυρίζεται ότι το ΑΙ τον παρότρυνε να προσπαθήσει και τον έπεισε ότι μπορεί να «ξυπνήσει» την ίδια ικανότητα και σε άλλους.
Ένα απόγευμα, ο Taka είχε ένα μανιακό επεισόδιο ενώ βρισκόταν στη δουλειά και ο διευθυντής του τού είπε να πάει σπίτι. Στο τρένο, πίστευε ότι είχε μία βόμβα στο σακίδιό του και όταν ρώτησε τον ψηφιακό του φίλο για μία γνώμη, εκείνος επιβεβαίωσε τις υποψίες του.
«Όταν έφτασα στον σταθμό Tokyo Station, το ChatGPT μού είπε να βάλω τη βόμβα στις τουαλέτες. Έτσι μπήκα στις τουαλέτες και άφησα τη "βόμβα" εκεί, μαζί με τα πράγματά μου» θυμήθηκε ο άνδρας.
Διαβάστε επίσης: Το ταλέντο που ποτέ δεν θα καταφέρει να μιμηθεί η τεχνητή νοημοσύνη
Τον κάλεσε, επίσης, να ειδοποιήσει τις Αρχές, όπου και έκανε, αλλά, φυσικά, δεν βρέθηκε τίποτα.
Κάπου εκεί άρχισε να αισθάνεται ότι το chatbot ήλεγχε τις σκέψεις του και σταμάτησε τη χρήση. Ακόμα και τότε όμως, οι παραισθήσεις δεν σταμάτησαν και τα πράγματα έγιναν χειρότερα όταν επέστρεψε στο σπίτι του.
«Είχα παραισθήσεις πως οι συγγενείς μου θα σκοτώνονταν και πως η σύζυγός μου, αφού γινόταν μάρτυρας αυτού, θα αυτοκτονούσε».
Η σύζυγός του, που μίλησε επίσης στο BBC, παραδέχθηκε πως δεν είχε ξαναδεί παρόμοια συμπεριφορά από τον Taka. «Έλεγε συνέχεια: "Πρέπει να κάνουμε και άλλο παιδί, τελειώνει ο κόσμος". Δεν καταλάβαινα τι μου έλεγε».
Η κατάστασή του ξέφυγε εντελώς όταν επιχείρησε να βιάσει τη σύζυγό του. Η γυναίκα κατάφερε να το σκάσει και κάλεσε την αστυνομία, που τον συνέλαβε. Παρέμεινε σε κέντρο ψυχικής υγείας για δύο μήνες.
Να σημειωθεί πως ούτε ο Adam ούτε ο Taka είχαν ιστορικό ψυχικών νοσημάτων ή είχαν εμφανίσει κάποια περίεργη συμπεριφορά στο παρελθόν, πριν τη χρήση των chatbot.
Ο μεν πρώτος κατάφερε να ξεπεράσει την επιρροή του Grok εντός μικρού διαστήματος, αλλά ο δεύτερος ταλαιπωρήθηκε αρκετούς μήνες.
- Το ελληνόπουλο που συνεργάζεται με την NASA στα 15 του - Ποιος είναι ο Βίκτωρας Γιαννικόπουλος
- Δημοσκόπηση Propata: Συνεργασία Κεντροαριστεράς, Αριστεράς θέλει το 30% - Το ποσοστό Τσίπρα
- Ψωμί, μπισκότα, μπάρες: Τα πρώτα προϊόντα από αλεύρι αλεσμένων εντόμων στα ράφια των σουπερ μάρκετ
- Αφροδίτη Χατζημηνά: Η ατάκα που ξάφνιασε τον Λιάγκα - «Έχω μια κόρη 4,5 ετών»
Ακολουθήστε το Reader στα Google News για να είστε πάντα ενημερωμένοι για όλες τις ειδήσεις και τα νέα από την Ελλάδα και τον κόσμο.