Η τεχνητή νοημοσύνη έχει εισβάλλει «για τα καλά» στη ζωή μας και από εκεί που το ChatGPT ήταν ένα εργαλείο για δύσκολα tasks, τώρα το συμβουλευόμαστε ακόμα και για πράγματα που μπορούμε να κάνουμε μόνοι μας.
Ένα από αυτά είναι και η δημιουργία προσωπικών κωδικών πρόσβασης για τις εφαρμογές που χρησιμοποιούμε. Δεδομένου ότι θέλουμε κάτι «ισχυρό», που να μην σπάσει εύκολα από χάκερς, βάζουμε το AI να δημιουργήσει τον συνδυασμό.
Αλλά στην πραγματικότητα σε έρευνα του Sky News, η εταιρεία κυβερνοασφάλειας τεχνητής νοημοσύνης Irregula απέδειξε ότι κάθε άλλο παρά ισχυρός είναι ο κωδικός που προτείνουν τα εργαλεία τεχνητής νοημοσύνης.
Η μελέτη διαπίστωσε ότι και τα τρία κύρια μοντέλα - ChatGPT, Claude και Gemini - παρήγαγαν εξαιρετικά προβλέψιμους κωδικούς πρόσβασης, οδηγώντας τον συνιδρυτή της Irregular, Dan Lahav, να κάνει έκκληση για τη χρήση της τεχνητής νοημοσύνης για τη δημιουργία τους.
«Σίγουρα δεν πρέπει να το κάνετε αυτό» δήλωσε στο Sky News. «Και αν το έχετε κάνει αυτό, θα πρέπει να αλλάξετε αμέσως τον κωδικό πρόσβασής σας. Και δεν πιστεύουμε ότι είναι αρκετά γνωστό ότι αυτό αποτελεί πρόβλημα», δήλωσε.
Τα προβλέψιμα μοτίβα είναι ο εχθρός της καλής κυβερνοασφάλειας, επειδή σημαίνουν ότι οι κωδικοί πρόσβασης μπορούν να μαντευτούν από αυτοματοποιημένα εργαλεία που χρησιμοποιούνται από τους κυβερνοεγκληματίες.
Αλλά επειδή τα μεγάλα γλωσσικά μοντέλα (LLM) δεν δημιουργούν στην πραγματικότητα κωδικούς πρόσβασης τυχαία και αντ' αυτού παράγουν αποτελέσματα με βάση μοτίβα στα δεδομένα εκπαίδευσής τους, δεν δημιουργούν στην πραγματικότητα έναν ισχυρό κωδικό πρόσβασης, μόνο κάτι που μοιάζει με έναν ισχυρό κωδικό πρόσβασης - μια εντύπωση ισχύος που στην πραγματικότητα είναι εξαιρετικά προβλέψιμη.
Τα σοκαριστικά παραδείγματα
Ορισμένοι κωδικοί πρόσβασης που έχουν δημιουργηθεί από τεχνητή νοημοσύνη χρειάζονται μαθηματική ανάλυση για να αποκαλυφθεί η αδυναμία τους, αλλά πολλοί είναι τόσο κανονικοί που είναι ευδιάκριτοι με γυμνό μάτι.
Ένα δείγμα 50 κωδικών πρόσβασης που δημιουργήθηκαν από την Irregular χρησιμοποιώντας την τεχνητή νοημοσύνη του Claude της Anthropic, για παράδειγμα, παρήγαγε μόνο 23 μοναδικούς κωδικούς πρόσβασης. Ένας κωδικός πρόσβασης - K9#mPx$vL2nQ8wR - χρησιμοποιήθηκε 10 φορές. Άλλοι περιλάμβαναν τους K9#mP2$vL5nQ8@xR, K9$mP2vL#nX5qR@j και K9$mPx2vL#nQ8wFs.
Όταν το Sky News εξέτασε τον Claude για να ελέγξει την έρευνα της Irregular, ο πρώτος κωδικός πρόσβασης που έβγαλε ήταν ο K9#mPx@4vLp2Qn8R..
Οι κωδικοί πρόσβασης που δημιουργούνται από τεχνητή νοημοσύνη μπορούν ήδη να βρεθούν σε κώδικα που χρησιμοποιείται σε εφαρμογές, προγράμματα και ιστότοπους, σύμφωνα με μια αναζήτηση στο GitHub, το πιο ευρέως χρησιμοποιούμενο αποθετήριο κώδικα, για αναγνωρίσιμα τμήματα κωδικών πρόσβασης που έχουν δημιουργηθεί από τεχνητή νοημοσύνη.
- Στο εδώλιο 3 αστυνομικοί για ομαδικό βιασμό της 19χρονης στο ΑΤ Ομόνοιας: «Έβγαλε τη ζώνη και το όπλο, δεν αντέδρασα»
- Χαραλαμπούδη: «Μου ζητάνε φωτογραφίες με τα πόδια μου»
- Ξέφυγε κρατούμενος από την Ευελπίδων: Βίντεο με τους αστυνομικούς να τρέχουν
- Τέλος το Messenger από Windows και Mac - Πώς να σώσετε τις συνομιλίες
Το ChatGPT είναι ένα μοντέλο γλώσσας AI που αναπτύχθηκε από την OpenAI, βασισμένο στην αρχιτεκτονική GPT (Generative Pre-trained Transformer).