Hiya, λαοί, καλώς ήλθατε στο κανονικό ενημερωτικό δελτίο AI της TechCrunch. Εάν θέλετε αυτό στα εισερχόμενά σας κάθε Τετάρτη, εγγραφείτε εδώ.

Μπορεί να έχετε παρατηρήσει ότι παραλείψαμε το ενημερωτικό δελτίο την περασμένη εβδομάδα. Ο λόγος; Ένας χαοτικός κύκλος ειδήσεων AI έκανε ακόμα πιο πανδεμόνι από την ξαφνική άνοδο της κινεζικής εταιρείας Deepseek και την ανταπόκριση από την πρακτικά γωνιά της βιομηχανίας και της κυβέρνησης.

Ευτυχώς, επιστρέφουμε στην πορεία – και όχι μια στιγμή πολύ σύντομα, λαμβάνοντας υπόψη τις εξελίξεις του περασμένου Σαββατοκύριακου από το OpenAI.

Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, σταμάτησε στο Τόκιο για να κάνει μια συνομιλία με τον Masayoshi Son, τον Διευθύνοντα Σύμβουλο της ιαπωνικής ομάδας Softbank. Το Softbank είναι ένας σημαντικός επενδυτής και συνεργάτης της OpenAI, έχοντας υποσχεθεί να βοηθήσει στη χρηματοδότηση του τεράστιου έργου υποδομής του κέντρου δεδομένων OpenAI στις ΗΠΑ

Έτσι, ο Altman πιθανότατα αισθάνθηκε ότι χρωστάει γιο λίγες ώρες της εποχής του.

Για τι μίλησαν οι δύο δισεκατομμυριούχοι; Πολλή αφαίρεση εργασίας μακριά μέσω AI “πράκτορες”, ανά μεταχειρισμένο αναφορά. Ο γιος δήλωσε ότι η εταιρεία του θα δαπανήσει 3 δισεκατομμύρια δολάρια ετησίως για τα προϊόντα OpenAI και θα συνεργαστεί με την OpenAI για να αναπτύξει μια πλατφόρμα, “Cristal (SIC) Intelligence”, με στόχο την αυτοματοποίηση εκατομμυρίων ροών εργασίας παραδοσιακά λευκών κολάρο.

“Με την αυτοματοποίηση και την αυτονομία όλων των καθηκόντων και των ροών εργασίας της, η SoftBank Corp. θα μετατρέψει τις επιχειρήσεις και τις υπηρεσίες της και θα δημιουργήσει νέα αξία”, δήλωσε η SoftBank σε δελτίο τύπου τη Δευτέρα.

Ρωτάω, όμως, τι είναι ο ταπεινός εργαζόμενος να σκεφτεί όλα αυτά αυτοματοποίησης και αυτόνομης;

Όπως και ο Sebastian Siemiatkowski, ο διευθύνων σύμβουλος της Fintech Klarna, ο οποίος συχνά καυχιέται για το AI που αντικαθιστά τους ανθρώπους, ο γιος φαίνεται να είναι της άποψης ότι οι πράκτορες για τους εργαζόμενους μπορούν μόνο να προκαλέσουν τον υπέροχο πλούτο. Το Glossed Over είναι το κόστος της αφθονίας. Σε περίπτωση που η ευρεία αυτοματοποίηση των θέσεων εργασίας περάσει, η ανεργία σε τεράστια κλίμακα φαίνεται το πιο πιθανό αποτέλεσμα.

Είναι αποθαρρυντικό ότι εκείνοι που βρίσκονται στην πρώτη γραμμή του αγώνα AI – εταιρείες όπως η OpenAI και επενδυτές όπως η SoftBank – επιλέγουν να δαπανήσουν συνεντεύξεις τύπου ζωγραφίζοντας μια εικόνα αυτοματοποιημένων εταιρειών με λιγότερους εργαζόμενους στη μισθοδοσία. Είναι επιχειρήσεις, φυσικά – όχι φιλανθρωπικές οργανώσεις. Και η ανάπτυξη του AI δεν είναι φθηνή. Αλλά ίσως οι άνθρωποι θα εμπιστεύονταν την AI εάν εκείνοι που καθοδηγούσαν την ανάπτυξή τους έδειξαν λίγο περισσότερη ανησυχία για την ευημερία τους.

Τρόφιμα για σκέψη.

Νέα

Βαθιά έρευνα: Η OpenAI ξεκίνησε έναν νέο AI “Agent” που έχει σχεδιαστεί για να βοηθήσει τους ανθρώπους να διεξάγουν σε βάθος, πολύπλοκη έρευνα χρησιμοποιώντας το ChatGPT, την πλατφόρμα Chatbot που λειτουργεί με AI της εταιρείας.

O3-Mini: Σε άλλες ειδήσεις OpenAI, η εταιρεία ξεκίνησε ένα νέο μοντέλο AI “συλλογισμό”, O3-Mini, μετά από μια προεπισκόπηση τον περασμένο Δεκέμβριο. Δεν είναι το πιο ισχυρό μοντέλο του OpenAi, αλλά το O3-Mini διαθέτει βελτιωμένη απόδοση και ταχύτητα απόκρισης.

Απαγορεύω τον επικίνδυνο εκεί: Από την Κυριακή στην Ευρωπαϊκή Ένωση, οι ρυθμιστικές αρχές του μπλοκ μπορούν να απαγορεύσουν τη χρήση συστημάτων AI που θεωρούν ότι δημιουργούν “απαράδεκτο κίνδυνο” ή βλάβες. Αυτό περιλαμβάνει το AI που χρησιμοποιείται για την κοινωνική βαθμολογία και την υποσυνείδητη διαφήμιση.

Ένα παιχνίδι για το AI “Doomers”: Υπάρχει ένα νέο παιχνίδι για την κουλτούρα του AI “Doomer”, χαλαρά βασισμένη στην εξαφάνιση του Sam Altman ως Διευθύνων Σύμβουλος της OpenAi τον Νοέμβριο του 2023. Οι συνάδελφοί μου Dominic και Rebecca μοιράζονται τις σκέψεις τους μετά την παρακολούθηση της πρεμιέρας.

Τεχνική για την ενίσχυση των αποδόσεων καλλιέργειας: Το X “Moonshot Factory” της Google ανακοίνωσε την τελευταία της απόφαση. Η κληρονομική γεωργία είναι μια εκκίνηση με γνώμονα τη μάθηση και τη μηχανική εκμάθηση που στοχεύει στη βελτίωση του τρόπου με τον οποίο καλλιεργούνται οι καλλιέργειες.

Ερευνητικό έγγραφο της εβδομάδας

Τα μοντέλα συλλογιστικής είναι καλύτερα από το μέσο AI σας για την επίλυση προβλημάτων, ιδιαίτερα τα ερωτήματα που σχετίζονται με την επιστήμη και τα μαθηματικά. Αλλά δεν είναι ασημένια σφαίρα.

Μια νέα μελέτη από ερευνητές της κινεζικής εταιρείας Tencent διερευνά το ζήτημα της “υποβαθμιστικής” σε μοντέλα συλλογισμού, όπου τα μοντέλα πρόωρα, ανεξήγητα εγκαταλείπουν δυνητικά υποσχόμενες αλυσίδες σκέψης. Σύμφωνα με τα αποτελέσματα της μελέτης, τα πρότυπα “υποεκπροσώπησης” τείνουν να εμφανίζονται πιο συχνά με σκληρότερα προβλήματα, οδηγώντας τα μοντέλα να εναλλάσσονται μεταξύ των αλυσίδων λογικής χωρίς να φτάνουν σε απαντήσεις.

Η ομάδα προτείνει μια επιδιόρθωση που χρησιμοποιεί μια “ποινή αλλαγής σκέψης” για να ενθαρρύνει τα μοντέλα να “αναπτύξουν διεξοδικά” κάθε γραμμή λογικής πριν εξετάσει εναλλακτικές λύσεις, ενισχύοντας την ακρίβεια των μοντέλων.

Μοντέλο της εβδομάδας

Πιστώσεις εικόνας:Γουρούνι

Μια ομάδα ερευνητών που υποστηρίχθηκαν από τον ιδιοκτήτη της Tiktok ByTeDance, την κινεζική εταιρεία AI Moonshot, και άλλοι κυκλοφόρησαν ένα νέο ανοιχτό μοντέλο ικανό να δημιουργήσει σχετικά υψηλής ποιότητας μουσική από προτροπές.

Το μοντέλο, που ονομάζεται Yue, μπορεί να εξάγει ένα τραγούδι μέχρι και λίγα λεπτά με τα φωνητικά και τα κομμάτια υποστήριξης. Είναι κάτω από μια άδεια Apache 2.0, που σημαίνει ότι το μοντέλο μπορεί να χρησιμοποιηθεί εμπορικά χωρίς περιορισμούς.

Ωστόσο, υπάρχουν μειονεκτήματα. Το τρέξιμο Yue απαιτεί μια ογκώδη GPU? Η δημιουργία ενός τραγουδιού 30 δευτερολέπτων διαρκεί έξι λεπτά με ένα NVIDIA RTX 4090. Επιπλέον, δεν είναι σαφές εάν το μοντέλο εκπαιδεύτηκε χρησιμοποιώντας δεδομένα που προστατεύονται από πνευματικά δικαιώματα. Οι δημιουργοί του δεν έχουν πει. Εάν αποδειχθεί ότι τα τραγούδια που προστατεύονται από πνευματικά δικαιώματα ήταν πράγματι στο σετ κατάρτισης του μοντέλου, οι χρήστες θα μπορούσαν να αντιμετωπίσουν μελλοντικές προκλήσεις IP.

Αρπαγή

Συνταγματικοί ταξινομητές
Πιστώσεις εικόνας:Ανθρωπικός

Το AI Lab Anthropic ισχυρίζεται ότι έχει αναπτύξει μια τεχνική για να υπερασπιστεί πιο αξιόπιστα εναντίον του AI “jailbreaks”, των μεθόδων που μπορούν να χρησιμοποιηθούν για να παρακάμψουν τα μέτρα ασφαλείας του συστήματος AI.

Η τεχνική, οι συνταγματικοί ταξινομητές, βασίζεται σε δύο σύνολα μοντέλων AI “ταξινομητή”: έναν ταξινομητή “εισόδου” και έναν ταξινομητή “εξόδου”. Ο ταξινομητής εισροών προσαρτάται σε ένα προστατευμένο μοντέλο με πρότυπα που περιγράφουν τα jailbreaks και άλλα απαγορευμένα περιεχόμενα, ενώ ο ταξινομητής εξόδου υπολογίζει την πιθανότητα ότι μια απάντηση από ένα μοντέλο συζητά επιβλαβή πληροφορίες.

Ο Anthropic λέει ότι οι συνταγματικοί ταξινομητές μπορούν να φιλτράρουν την “συντριπτική πλειοψηφία” των jailbreaks. Ωστόσο, έρχεται με κόστος. Κάθε ερώτημα είναι 25% πιο υπολογιστικά απαιτητικό και το προστατευμένο μοντέλο είναι 0,38% λιγότερο πιθανό να απαντήσει σε αβλαβές ερωτήσεις.