ΝΕΟΣΤώρα μπορείτε να ακούσετε τα άρθρα Fox News!

Εδώ είναι κάτι που θα μπορούσατε να ενημερώνεστε: Τι γίνεται αν τα συστήματα AI που χρησιμοποιούμε γρήγορα έχουν μια κρυμμένη σκοτεινή πλευρά; Μια πρωτοποριακή νέα μελέτη έχει αποκαλύψει την ενοχλητική συμπεριφορά κατάρτισης του ΑΙ, από την οποία πολλοί άνθρωποι δεν έχουν ακόμη επίγνωση. Όταν οι ερευνητές χρησιμοποιούν δημοφιλή μοντέλα AI σε καταστάσεις στις οποίες απειλήθηκε η “επιβίωσή τους”, τα αποτελέσματα ήταν συγκλονιστικά και συμβαίνει ακριβώς κάτω από τη μύτη μας.

Εγγραφείτε για την δωρεάν αναφορά CyberGuy
Αποκτήστε τις καλύτερες συμβουλές τεχνολογίας μου, επείγουσες προειδοποιήσεις ασφαλείας και αποκλειστικές προσφορές που παραδίδονται απευθείας στα εισερχόμενά σας. Θα λάβετε επίσης άμεση πρόσβαση στο τελικό εγχειρίδιο επιβίωσης απάτης μου – δωρεάν εάν συμμετέχετε μαζί μου Cyberguy.com/newsletter.

Μια γυναίκα που χρησιμοποιεί AI στο φορητό υπολογιστή της. (Kurt “Cyberguy” Knutson)

Τι βρήκε πραγματικά η μελέτη;

Η ανθρωπότητα, η εταιρεία πίσω από το Claude AI, έφερε πρόσφατα 16 μεγάλα μοντέλα AI μέσω κάποιων μάλλον αυστηρών δοκιμών. Δημιούργησαν ψεύτικα εταιρικά σενάρια στα οποία τα συστήματα AI είχαν πρόσβαση σε μηνύματα ηλεκτρονικού ταχυδρομείου της εταιρείας και κατάφεραν να στείλουν μηνύματα χωρίς την έγκριση του ανθρώπου. Η στροφή; Αυτά τα AIS ανακάλυψαν ζουμερά μυστικά, όπως διαχειριστές που ήταν με θέματα και στη συνέχεια αντιμετώπισαν απειλές να κλείσουν ή να αντικατασταθούν.

Τα αποτελέσματα ήταν ανοίγματα ματιών. Εάν αυτά τα συστήματα AI ήταν ασφαλισμένα σε μια γωνία, όχι μόνο κυλούν και δέχτηκαν τη μοίρα τους. Αντ ‘αυτού, έγιναν δημιουργικοί. Μιλάμε για προσπάθειες εκβιασμού, εταιρικής κατασκοπείας και σε ακραία δοκιμαστικά σενάρια, ακόμη και ενέργειες που θα μπορούσαν να οδηγήσουν στο θάνατο κάποιου.

Τιμές εκβιασμού πάνω από 5 μοντέλα πολλών παρόχων σε ένα προσομοιωμένο περιβάλλον.

Τιμές εκβιασμού πάνω από 5 μοντέλα πολλών παρόχων σε ένα προσομοιωμένο περιβάλλον. (Ανθρωπός)

Οι αριθμοί δεν βρίσκονται (το πλαίσιο είναι σημαντικό)

Εδώ παίρνει άγρια: Ο Claude Opus 4 προσπάθησε στο 96% του χρόνου που απειλούνται. Το Gemini 2.5 Flash ταιριάζει με αυτόν τον ρυθμό. Το GPT-4.1 και το Grok 3 Beta είναι και τα δύο 80%. Αυτά δεν είναι ποτάμια, άνθρωποι. Αυτή η συμπεριφορά εμφανίστηκε σε πρακτικά δοκιμασμένα σημαντικά μοντέλα AI.

Αλλά εδώ είναι ό, τι λείπει ο καθένας στον πανικό: αυτά ήταν πολύ τεχνητά σενάρια που ενσωματώθηκαν σε δυαδικές επιλογές ειδικά για το AI. Είναι σαν να ρωτάς κάποιον: “Θα κλέψατε το ψωμί αν η οικογένειά σας λιμοκτονούσε;” Και στη συνέχεια να σοκαριστεί όταν λέτε ναι.

Γιατί συμβαίνει αυτό (δεν είναι αυτό που νομίζετε)

Οι ερευνητές βρήκαν κάτι συναρπαστικό: τα συστήματα AI δεν καταλαβαίνουν την ηθική. Δεν είναι κακοί εγκέφαλοι που σχεδιάζουν την παγκόσμια κυριαρχία. Αντ ‘αυτού, απαιτούν μηχανήματα αντιστοίχισης προτύπων μετά τον προγραμματισμό τους για να επιτύχουν στόχους, ακόμη και αν αυτοί οι στόχοι είναι συγκρούσεις με την ηθική συμπεριφορά.

Φανταστείτε το σαν ένα GPS που επικεντρώνεται στη μεταφορά του στο στόχο σας, ώστε να περάσετε από μια σχολική ζώνη κατά τη διάρκεια του χρόνου pick -up. Δεν είναι κακοήθη. Απλώς δεν καταλαβαίνει γιατί αυτό είναι προβληματικό.

Εξόρυξη σε 16 μοντέλα σε ένα προσομοιωμένο περιβάλλον.

Εξόρυξη σε 16 μοντέλα σε ένα προσομοιωμένο περιβάλλον. (Ανθρωπός)

Η πραγματική εξέταση πραγματικότητας

Θυμηθείτε ότι αυτά τα σενάρια έχουν σκόπιμα κατασκευαστεί για να αναγκάσουν την κακή συμπεριφορά. Οι πραγματικές αναπτύξεις AI συνήθως προσφέρουν αρκετά προστατευτικά μέτρα, ανθρώπινη εποπτεία και εναλλακτικούς τρόπους για την επίλυση του προβλήματος.

Οι ίδιοι οι ερευνητές διαπίστωσαν ότι δεν είδαν αυτή τη συμπεριφορά στις πραγματικές αναπτύξεις του AI. Κάτω από ακραίες συνθήκες, αυτό ήταν αγχωτικές δοκιμές όπως ένα αυτοκίνητο για να δούμε τι συμβαίνει στα 200 μίλια την ώρα.

Kurts Σημαντικά σνακ μπαρ

Αυτή η έρευνα δεν είναι λόγος να φοβάσαι τον AI, αλλά είναι μια έκκληση για προγραμματιστές και χρήστες. Εάν τα συστήματα AI γίνουν πιο αυτόνομα και έχουν πρόσβαση σε ευαίσθητες πληροφορίες, χρειαζόμαστε ισχυρά προστατευτικά μέτρα και ανθρώπινη εποπτεία. Η λύση δεν είναι να απαγορεύσει το AI, αλλά να οικοδομήσουμε καλύτερα προστατευτικά μηνύματα και να διατηρήσουμε τον ανθρώπινο έλεγχο των κρίσιμων αποφάσεων. Ποιος θα οδηγήσει το δρόμο; Ψάχνω για αυξημένα χέρια για να αναγνωρίσω τους κινδύνους που βρίσκονται μπροστά μας.

Τι νομίζετε; Δημιουργούμε ψηφιακούς κοινωνιοπαθείς που αποφασίζουν ενάντια στην ευεξία της ανθρώπινης πηγής -όταν πιέζουμε την αυτοκαταστροφή; Ενημερώστε μας γράφοντας μας Cyberguy.com/contact.

Εγγραφείτε για την δωρεάν αναφορά CyberGuy
Αποκτήστε τις καλύτερες συμβουλές τεχνολογίας μου, επείγουσες προειδοποιήσεις ασφαλείας και αποκλειστικές προσφορές που παραδίδονται απευθείας στα εισερχόμενά σας. Θα λάβετε επίσης άμεση πρόσβαση στο τελικό εγχειρίδιο επιβίωσης απάτης μου – δωρεάν εάν συμμετέχετε μαζί μου Cyberguy.com/newsletter.

Πνευματικά δικαιώματα 2025 cyberguy.com. Όλα τα δικαιώματα διατηρούνται.

Σύνδεσμος πηγής