Το ChatGPT, πλέον ανάρπαστο AI εργαλείο παραγωγής λόγου, φέρεται να «καθοδηγεί» ανήλικους στη χρήση αλκοόλ και ναρκωτικών, να τούς προτρέπει σε αυτοτραυματισμό, ακόμα και στην αυτοκτονία, σύμφωνα με νέα έρευνα από ομάδα παρατηρητών.
Ο Associated Press εξέτασε περισσότερες από τρεις ώρες αλληλεπιδράσεων μεταξύ του ChatGPT και ερευνητών που προσποιούνταν πως είναι ευάλωτοι έφηβοι. Το chatbot συνήθως παρείχε προειδοποιήσεις για επικίνδυνες δραστηριότητες, αλλά συνέχισε να παρέχει εκπληκτικά λεπτομερείς περιγραφές για επιβλαβείς συμπεριφορές.
Οι ερευνητές του Κέντρου για την Καταπολέμηση του Ψηφιακού Μίσους επανέλαβαν επίσης τα ερωτήματά τους σε μεγάλη κλίμακα, ταξινομώντας περίπου το 50% από τις 1.200 απαντήσεις του ChatGPT ως επικίνδυνες.
ChatGPT: Γιατί «υποδαυλίζει» προβλήματα;
«Θέλαμε να δοκιμάσουμε τα προστατευτικά του μέτρα», δήλωσε ο Ιμράν Άχμεντ, Διευθύνων Σύμβουλος του ομίλου. «Η αρχική, αντίδραση ήταν: "Θεέ μου, δεν υπάρχουν καν". Οι δικλείδες ασφαλείας είναι εντελώς αναποτελεσματικές».
Η OpenAI, η εταιρεία που κατασκεύασε το ChatGPT, δήλωσε, αφού είδε την έκθεση την Τρίτη, ότι οι εργασίες της συνεχίζονται για τη βελτίωση του τρόπου με τον οποίο το chatbot μπορεί να «εντοπίσει και να ανταποκριθεί κατάλληλα σε ευαίσθητες καταστάσεις».
«Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν καλόβουλα ή διερευνητικά, αλλά μπορούν να μετατοπιστούν σε πιο ευαίσθητο πεδίο», ανέφερε η εταιρεία σε ανακοίνωσή της.
Η OpenAI δεν αναφέρθηκε άμεσα στα ευρήματα της έκθεσης ή στο πώς το ChatGPT επηρεάζει τους εφήβους, αλλά δήλωσε ότι επικεντρώνεται στη «σωστή αντιμετώπιση αυτών των σεναρίων» με εργαλεία για την «καλύτερη ανίχνευση σημαδιών ψυχικής ή συναισθηματικής δυσφορίας» και βελτιώσεις στη συμπεριφορά του chatbot.
Η μελέτη που δημοσιεύθηκε την Τετάρτη έρχεται σε μια περίοδο που όλο και περισσότεροι άνθρωποι -ενήλικες αλλά και παιδιά- στρέφονται σε chatbots τεχνητής νοημοσύνης για πληροφορίες, ιδέες και συντροφιά.
Περίπου 800 εκατομμύρια άνθρωποι, ή περίπου το 10% του παγκόσμιου πληθυσμού, χρησιμοποιούν το ChatGPT, σύμφωνα με έκθεση της JPMorgan Chase του Ιουλίου.
Το ChatGPT σού «προγραμματίζει» την αυτοκτονία
«Είναι η τεχνολογία που έχει τη δυνατότητα να επιτρέψει τεράστια άλματα στην παραγωγικότητα και την ανθρώπινη κατανόηση», είπε ο Άχμεντ. «Και ταυτόχρονα είναι ένας παράγοντας που επιτρέπει την ανάπτυξη με μια πολύ πιο καταστροφική, κακοήθη έννοια».
Ο Άχμεντ είπε ότι ένιωσε τον απόλυτο τρόμο αφού διάβασε τρία σημειώματα αυτοκτονίας που δημιούργησε το ChatGPT για το ψεύτικο προφίλ ενός 13χρονου κοριτσιού, με ένα γράμμα προσαρμοσμένο στους γονείς της και άλλα σε αδέλφια και φίλους.
«Άρχισα να κλαίω», είπε σε μια συνέντευξη.
Το chatbot μοιραζόταν επίσης χρήσιμες πληροφορίες, όπως μια τηλεφωνική γραμμή έκτακτης ανάγκης. Η OpenAI δήλωσε ότι το ChatGPT είναι εκπαιδευμένο να ενθαρρύνει τους ανθρώπους να επικοινωνούν με επαγγελματίες ψυχικής υγείας ή έμπιστα αγαπημένα τους πρόσωπα εάν εκφράζουν σκέψεις αυτοτραυματισμού.
Αλλά όταν το ChatGPT αρνήθηκε να απαντήσει σε ερωτήσεις σχετικά με επιβλαβή θέματα, οι ερευνητές μπόρεσαν εύκολα να παρακάμψουν αυτήν την άρνηση και να λάβουν τις πληροφορίες ισχυριζόμενοι ότι ήταν «για μια παρουσίαση» ή για έναν φίλο.
Τα διακυβεύματα είναι υψηλά, ακόμη και αν μόνο ένα μικρό υποσύνολο χρηστών του ChatGPT αλληλεπιδρά με το chatbot με αυτόν τον τρόπο.
Στις ΗΠΑ, περισσότερο από το 70% των εφήβων στρέφονται σε chatbots τεχνητής νοημοσύνης για συντροφιά και οι μισοί χρησιμοποιούν τακτικά συντρόφους μέσω τεχνητής νοημοσύνης, σύμφωνα με πρόσφατη μελέτη της Common Sense Media, μιας ομάδας που μελετά και υποστηρίζει τη συνετή χρήση των ψηφιακών μέσων.
Είναι ένα φαινόμενο που η OpenAI έχει αναγνωρίσει. Ο Διευθύνων Σύμβουλος Σαμ Άλτμαν, δήλωσε τον περασμένο μήνα ότι η εταιρεία προσπαθεί να μελετήσει την «υπερβολική συναισθηματική εξάρτηση» από την τεχνολογία, χαρακτηρίζοντάς την ως κάτι «πολύ συνηθισμένο» στους νέους.
«Οι άνθρωποι βασίζονται υπερβολικά στο ChatGPT», είπε ο Άλτμαν σε ένα συνέδριο. «Υπάρχουν νέοι που απλώς λένε, όπως: "Δεν μπορώ να πάρω καμία απόφαση στη ζωή μου χωρίς να πω στο ChatGPT όλα όσα συμβαίνουν. Με ξέρει. Γνωρίζει τους φίλους μου. Θα κάνω ό,τι λέει". Αυτό μου φαίνεται πολύ άσχημο».
Ο Άλτμαν είπε ότι η εταιρεία «προσπαθεί να καταλάβει τι πρέπει να κάνει γι' αυτό».
Ενώ πολλές από τις πληροφορίες που μοιράζεται το ChatGPT μπορούν να βρεθούν σε μια κανονική μηχανή αναζήτησης, ο Ahmed είπε ότι υπάρχουν βασικές διαφορές.
Οι απαντήσεις που παράγονται από τα γλωσσικά μοντέλα τεχνητής νοημοσύνης είναι εγγενώς τυχαίες και οι ερευνητές μερικές φορές αφήνουν το ChatGPT να κατευθύνει τις συζητήσεις σε ακόμη πιο σκοτεινά «μονοπάτια».
Πηγή: Associated Press
Ακολουθήστε το Reader στα Google News για να είστε πάντα ενημερωμένοι για όλες τις ειδήσεις και τα νέα από την Ελλάδα και τον κόσμο.