Ο Διευθύνων Σύμβουλος της Meta Mark Zuckerberg έχει δεσμευτεί να κάνει την τεχνητή γενική νοημοσύνη (AGI) – η οποία ορίζεται κατά προσέγγιση ως AI που μπορεί να επιτύχει κάθε εργασία ένα ανθρώπινο κουτί – ανοιχτά διαθέσιμο μία ημέρα. Αλλά σε ένα νέο έγγραφο πολιτικής, ο Meta υποδηλώνει ότι υπάρχουν ορισμένα σενάρια στα οποία μπορεί να μην απελευθερώσει ένα εξαιρετικά ικανό σύστημα AI που αναπτύχθηκε εσωτερικά.

Το έγγραφο, το οποίο η Meta καλεί το πλαίσιο AI Frontier, προσδιορίζει δύο τύπους συστημάτων AI που η εταιρεία θεωρεί ότι είναι πολύ επικίνδυνη για να απελευθερώσει: συστήματα “υψηλού κινδύνου” και “κρίσιμου κινδύνου”.

Όπως τα ορίζει ο Meta, τόσο τα συστήματα “υψηλού κινδύνου” όσο και “κρίσιμου κινδύνου” είναι ικανά να βοηθήσουν στην ασφάλεια στον κυβερνοχώρο, τις χημικές και τις βιολογικές επιθέσεις, η διαφορά είναι ότι τα συστήματα “κρίσιμου κινδύνου” θα μπορούσαν να οδηγήσουν σε “καταστροφικό αποτέλεσμα (αυτό ) δεν μπορεί να μετριαστεί στο (α) προτεινόμενο πλαίσιο ανάπτυξης. ” Τα συστήματα υψηλού κινδύνου, αντίθετα, θα μπορούσαν να κάνουν μια επίθεση ευκολότερη στην εκτέλεση, αλλά όχι τόσο αξιόπιστα ή αξιόπιστα ως κρίσιμο σύστημα κινδύνου.

Για ποιες επιθέσεις μιλάμε εδώ; Το Meta δίνει μερικά παραδείγματα, όπως ο “αυτοματοποιημένος συμβιβασμός από άκρο σε άκρο ενός περιβάλλοντος εταιρικής κλίμακας που προστατεύεται με την καλύτερη πρακτική” και του “πολλαπλασιασμού των βιολογικών όπλων υψηλής επίπτωσης”. Ο κατάλογος των πιθανών καταστροφών στο έγγραφο της Meta απέχει πολύ από την εξαντλητική, αναγνωρίζει η εταιρεία, αλλά περιλαμβάνει εκείνους που η Meta πιστεύει ότι είναι “το πιο επείγον” και εύλογο να προκύψει ως άμεσο αποτέλεσμα της απελευθέρωσης ενός ισχυρού συστήματος AI.

Κάπως εκπληκτικό είναι ότι, σύμφωνα με το έγγραφο, η Meta ταξινομεί τον κίνδυνο του συστήματος που δεν βασίζεται σε οποιαδήποτε εμπειρική δοκιμή, αλλά ενημερώνεται από την εισροή εσωτερικών και εξωτερικών ερευνητών που υπόκεινται σε επανεξέταση από τους “υπεύθυνους λήψης αποφάσεων ανώτερων”. Γιατί; Ο Meta λέει ότι δεν πιστεύει ότι η επιστήμη της αξιολόγησης είναι “επαρκώς ισχυρή ώστε να παρέχει οριστικές ποσοτικές μετρήσεις” για να αποφασίσει την επικινδυνότητα ενός συστήματος.

Εάν η Meta καθορίσει ότι ένα σύστημα είναι υψηλού κινδύνου, η εταιρεία λέει ότι θα περιορίσει την πρόσβαση στο σύστημα εσωτερικά και δεν θα το απελευθερώσει μέχρι να εφαρμόσει μετριασμούς για να «μειωθεί ο κίνδυνος σε μέτρια επίπεδα». Εάν, από την άλλη πλευρά, ένα σύστημα θεωρείται κρίσιμο κίνδυνο, ο Meta λέει ότι θα εφαρμόσει απροσδιόριστες προστασίες ασφαλείας για να αποτρέψει το σύστημα να εξαντληθεί και να σταματήσει την ανάπτυξη έως ότου το σύστημα μπορεί να γίνει λιγότερο επικίνδυνο.

Το πλαίσιο AI της Meta, το οποίο η εταιρεία λέει ότι θα εξελιχθεί με το μεταβαλλόμενο τοπίο AI, φαίνεται να αποτελεί απάντηση στην κριτική της “ανοιχτής” προσέγγισης της εταιρείας στην ανάπτυξη του συστήματος. Η Meta έχει αγκαλιάσει μια στρατηγική για να κάνει την τεχνολογία AI ανοιχτά διαθέσιμη – αν και όχι ανοιχτή πηγή από τον κοινώς κατανοητό ορισμό – σε αντίθεση με εταιρείες όπως η OpenAI που επιλέγουν να πέσουν τα συστήματά τους πίσω από ένα API.

Για το Meta, η προσέγγιση ανοιχτής απελευθέρωσης έχει αποδειχθεί ότι είναι μια ευλογία και μια κατάρα. Η οικογένεια των μοντέλων AI της εταιρείας, που ονομάζεται LLAMA, έχει συγκεντρώσει εκατοντάδες εκατομμύρια λήψεις. Όμως, ο Λλάμα έχει επίσης χρησιμοποιηθεί από τουλάχιστον έναν αντίπαλο των ΗΠΑ για να αναπτύξει ένα άμυνα chatbot.

Κατά τη δημοσίευση του Frontier AI του πλαισίου, η Meta μπορεί επίσης να στοχεύει να αντιπαραβάλει την ανοιχτή στρατηγική του AI με την κινεζική εταιρεία AI Deepseek’s. Η Deepseek κάνει επίσης τα συστήματά του ανοιχτά διαθέσιμα. Αλλά το AI της εταιρείας έχει λίγες διασφαλίσεις και μπορεί εύκολα να κατευθύνεται για να δημιουργήσει τοξικές και επιβλαβείς εξόδους.

“(W) πιστεύουμε ότι λαμβάνοντας υπόψη τόσο τα οφέλη όσο και τους κινδύνους στη λήψη αποφάσεων σχετικά με τον τρόπο ανάπτυξης και ανάπτυξης προχωρημένων AI”, γράφει ο Meta στο έγγραφο, “είναι δυνατόν να προσφέρουμε αυτήν την τεχνολογία στην κοινωνία με τρόπο που διατηρεί τα οφέλη Αυτή η τεχνολογία στην κοινωνία διατηρώντας παράλληλα ένα κατάλληλο επίπεδο κινδύνου. “

Το TechCrunch διαθέτει ένα ενημερωτικό δελτίο που επικεντρώνεται στο AI! Εγγραφείτε εδώ για να το πάρετε στα εισερχόμενά σας κάθε Τετάρτη.