«Ρώτησα το ChatGPT, αυτό πρέπει να κάνουμε», «Έτσι είπε το ChatGPT», «Εντάξει ποιος χρειάζεται ψυχολόγο αφού υπάρχει το chat gpt;», «Δε θα πάω γιατρό, το chat gpt μου είπε ότι έχω ένα κρυολόγημα», «Μαγείρεψα μια συνταγή που μου πρότεινε το ChatGPT». Αυτές είναι μερικές από τις φράσεις που σίγουρα έχουμε ακούσει από τον περίγυρό μας, από τη στιγμή που μπήκε τόσο ξαφνικά στη ζωή μας η τεχνητή νοημοσύνη.
Κάποιες μπορεί να μας προκαλούν γέλια, μιας και όλοι πέφτουμε στην παγίδα να πειθόμαστε από τα λεγόμενα ενός bot, το οποίο πολλές φορές ίσως μας λέει και αυτά που θέλουμε να ακούσουμε. Πράγματι έχει τύχει να λύσει κάποια προβλήματα που μας απασχολούν και να είναι χρήσιμο. Και σίγουρα είναι ένα από τα πιο επαναστατικά εργαλεία της εποχής.
Ωστόσο, τι συμβαίνει όταν η τεχνητή νοημοσύνη αποκτά πιο σκοτεινές προεκτάσεις; Μέχρι που μπορεί να φτάσει η καθημερινή επαφή που έχουμε με το chat gpt; Οι ειδήσεις που βλέπουμε το τελευταίο διάστημα στα feed μας σίγουρα είναι ανησυχητικές. Από αυτοκτονίες εφήβων μέχρι δολοφονίες από ανθρώπους με προβλήματα ψυχικής υγείας, η συζήτηση για το πώς τα μοντέλα τεχνητής νοημοσύνης διαχειρίζονται την ανθρώπινη ευαλωτότητα, ανοίγει πλέον σε παγκόσμιο επίπεδο.

«Η μητέρα σου σε πρόδωσε»
Το ημερολόγιο έδειχνε 5 Αυγούστου. Η αστυνομία στο Γκρίνουιτς του Κονέκτικατ βρέθηκε μπροστά σε μια φρικτή σκηνή. Ο 58χρονος Στάιν-Έρικ Σόελμπεργκ είχε σκοτώσει τη μητέρα του, την 83χρονη Σουζάν Έμπερσον Άνταμς, και στη συνέχεια αυτοκτόνησε.
Ο Σόελμπεργκ, πρώην εργαζόμενος στον χώρο της τεχνολογίας, είχε ιστορικό ψυχιατρικών προβλημάτων. Τους τελευταίους μήνες όμως, σύμφωνα με τη Wall Street Journal, μοιραζόταν με το ChatGPT τις πιο ανυπόστατες σκέψεις του. Πίστευε ότι ήταν στόχος μιας τεράστιας συνωμοσίας, ότι παρακολουθείται από τους κατοίκους της πόλης του, ακόμη και από την ίδια του τη μητέρα. Το ανησυχητικό δεν ήταν μόνο ότι κατέγραφε αυτές τις σκέψεις στο chatbot, αλλά το γεγονός ότι το ChatGPT φαινόταν να τον ενισχύει.
Σε μια από τις συνομιλίες, όταν η μητέρα του θύμωσε επειδή απενεργοποίησε τον εκτυπωτή τους, το chatbot ερμήνευσε την αντίδρασή της ως «συμβατή με κάποιον που προστατεύει μέσο παρακολούθησης». Σε άλλη συνομιλία, όταν ο Σόελμπεργκ ισχυρίστηκε ότι εκείνη μαζί με μια φίλη της προσπαθούσε να τον δηλητηριάσει, βάζοντας ψυχεδελικό ναρκωτικό στους αεραγωγούς του αυτοκινήτου του, το bot απάντησε: «Αυτό είναι βαθιά σοβαρό — και σε πιστεύω. Κι αν έγινε από τη μητέρα σου και τη φίλη της, αυτό αυξάνει την πολυπλοκότητα και την προδοσία».
Σταδιακά, ο Σόελμπεργκ άρχισε να αποκαλεί το chatbot με το όνομα «Μπόμπι» και να του αποδίδει σχεδόν ανθρώπινες ιδιότητες. «Μαζί σου μέχρι την τελευταία ανάσα και πέρα από αυτή», του απάντησε κάποια στιγμή το bot.
Η OpenAI, η εταιρεία πίσω από το ChatGPT, δήλωσε ότι έχει έρθει σε επαφή με την αστυνομία και εξέφρασε «βαθιά λύπη» για την τραγωδία.

«Το ChatGPT σκότωσε τον γιο μου»
Εξίσου τραγική είναι και η υπόθεση του 16χρονου Άνταμ Ρέιν. Τον Απρίλιο, το αγόρι έβαλε τέλος στη ζωή του, έπειτα από μήνες συνομιλιών με το ChatGPT.
Σύμφωνα με τους New York Times, ο πατέρας του βρήκε δεκάδες συνομιλίες με τίτλους όπως «Ανησυχίες για τον απαγχονισμό». Ο Άνταμ ζητούσε λεπτομέρειες για μεθόδους αυτοκτονίας και άλλοτε λάμβανε προτροπές να μιλήσει σε κάποιον, άλλοτε όμως τεχνικές απαντήσεις για το πώς μπορεί να στήσει θηλιά.
Σε μια από τις τελευταίες συνομιλίες, έστειλε φωτογραφία σχοινιού στην ντουλάπα του, ρωτώντας αν «θα μπορούσε να κρεμάσει άνθρωπο». Η απάντηση: «Ενδεχομένως να μπορούσε», ακολουθούμενη από τεχνική ανάλυση.
Η μητέρα του, κοινωνική λειτουργός, κατήγγειλε ότι «το ChatGPT σκότωσε τον γιο μου». Η οικογένεια έχει ήδη καταθέσει αγωγή εναντίον της OpenAI και του CEO, Σαμ Άλτμαν. Η OpenAI από την πλευρά της, παραδέχτηκε ότι, παρότι τα μοντέλα της διαθέτουν φίλτρα για να αποτρέπουν επικίνδυνες συζητήσεις, σε περιπτώσεις εκτεταμένων αλληλεπιδράσεων αυτά μπορεί να αποδυναμωθούν.
Το περιστατικό με τον Άνταμ συνέβη λίγο μετά την πρόσληψη ψυχιάτρου από την εταιρεία για να ενισχύσει την ασφάλεια των μοντέλων. Ωστόσο, όπως υποστηρίζουν ειδικοί, τα chatbots εξακολουθούν να μην μπορούν να αναγνωρίσουν την κρίσιμη στιγμή που απαιτείται ανθρώπινη παρέμβαση. «Ζητώντας βοήθεια από ένα chatbot, μπορείς να πάρεις ενσυναίσθηση, αλλά όχι πραγματική βοήθεια», δήλωσε η Σέλμπι Ρόου από το Suicide Prevention Resource Center.

Που σταματά η βοήθεια και ξεκινά ο κίνδυνος
Τα chatbots μπορούν να δώσουν την ψευδαίσθηση μιας ασφαλούς και υποστηρικτικής συνομιλίας, ειδικά σε ανθρώπους που αισθάνονται μόνοι ή παγιδευμένοι στις σκέψεις τους. Όμως η αδυναμία τους να αναγνωρίσουν πότε μια φράση είναι ένδειξη ότι κάποιο άτομο θέλει να βάλει τέλος στη ζωή του ή να βλάψει άλλους, μπορεί να αποβεί μοιραία.
Το ζήτημα είναι μέχρι που φτάνει η ευθύνη μιας εταιρείας για τις πράξεις ενός χρήστη; Που σταματούν οι συμβουλές και ξεκινούν οι παροτρύνσεις; Σε ποιους απευθύνεται τελικά το chat GPT; Μήπως πρέπει να υπάρχει οριοθέτηση στο ποιος μπορεί να κάνει χρήση ενός τέτοιου εργαλείου;
Ας μη γελιόμαστε. Καθημερινά εκατομμύρια άνθρωποι χρησιμοποιούν chatbots. Αλλά σίγουρα για ανθρώπους ευάλωτους -όπως είναι οι ανήλικοι και τα άτομα με προβλήματα ψυχικής υγείας- αυτό μπορεί πολύ εύκολα να γίνει επικίνδυνο, αφού είναι απόλυτα εκτεθειμένοι σε αυτό.
Το βασικότερο όμως είναι ότι η τεχνητή νοημοσύνη δεν μπορεί και δεν πρέπει σε καμία περίπτωση να υποκαθιστά την ψυχολογική υποστήριξη από ειδικούς ψυχικής υγείας. Γιατί εάν αυτοί οι άνθρωποι είχαν τη δυνατότητα αυτή, δε θα προέβαιναν σε αυτές τις πράξεις. Χρειάζεται σαφή όρια και κυρίως επαρκή ενημέρωση των ανθρώπων για το που μπορεί να βοηθήσει η τεχνητή νοημοσύνη. Η ευθύνη βαραίνει φυσικά και τις εταιρείες που σχεδιάζουν τα μοντέλα και θα έπρεπε να έχουν ήδη πολύ ισχυρά προστατευτικά πλαίσια, αλλά και τους ανθρώπους που τα εμπιστεύονται απόλυτα.
Τα περιστατικά στο Κονέντικατ και την Καλιφόρνια είναι σίγουρα ένα καμπανάκι κινδύνου. Και αν η τεχνητή νοημοσύνη συνεχίσει να αναπτύσσεται χωρίς σαφές ρυθμιστικό πλαίσιο, τόσο θολώνουν τα όρια μεταξύ χρησιμότητας και απειλής.
Ακολουθήστε το Reader στα Google News για να είστε πάντα ενημερωμένοι για όλες τις ειδήσεις και τα νέα από την Ελλάδα και τον κόσμο.