Το Alphabet, η μητρική εταιρεία τεχνολογίας Giant Google, δεν υπόσχεται πλέον ότι ποτέ δεν θα χρησιμοποιήσει την τεχνητή νοημοσύνη (AI) για σκοπούς όπως η ανάπτυξη όπλων και εργαλείων επιτήρησης.

Η εταιρεία έχει ξαναγράψει τις αρχές που καθοδηγούν τη χρήση του AI, ρίχνοντας ένα τμήμα που απέκλεισε τις χρήσεις που “πιθανόν να προκαλέσουν βλάβη”.

Σε μια ανάρτηση ιστολογίου Ο ανώτερος αντιπρόεδρος της Google James Manyika και ο Demis Hassabis, ο οποίος οδηγεί το AI Lab Google Deepmind, υπερασπίστηκε την κίνηση.

Υποστηρίζουν ότι οι επιχειρήσεις και οι δημοκρατικές κυβερνήσεις πρέπει να συνεργαστούν για την AI που “υποστηρίζει την εθνική ασφάλεια”.

Υπάρχει συζήτηση μεταξύ των εμπειρογνωμόνων και των επαγγελματιών του AI σχετικά με τον τρόπο με τον οποίο η ισχυρή νέα τεχνολογία πρέπει να διέπεται σε ευρεία άποψη, πόσο μακριά θα πρέπει να επιτρέπεται στα εμπορικά κέρδη να καθορίζουν την κατεύθυνσή της και τον καλύτερο τρόπο να προστατεύονται από τους κινδύνους για την ανθρωπότητα γενικά.

Υπάρχει επίσης αμφισβήτηση γύρω από τη χρήση του AI στο πεδίο της μάχης και στις τεχνολογίες παρακολούθησης.

Το blog δήλωσε ότι οι αρχικές αρχές AI της εταιρείας που δημοσιεύθηκαν το 2018 έπρεπε να ενημερωθούν καθώς η τεχνολογία είχε εξελιχθεί.

“Τα δισεκατομμύρια άνθρωποι χρησιμοποιούν AI στην καθημερινή τους ζωή. Η AI έχει γίνει μια τεχνολογία γενικής χρήσης και μια πλατφόρμα που χρησιμοποιούν αμέτρητες οργανώσεις και άτομα για την κατασκευή εφαρμογών.

“Έχει μετακινηθεί από ένα εξειδικευμένο ερευνητικό θέμα στο εργαστήριο σε μια τεχνολογία που γίνεται τόσο διαδεδομένη όσο τα κινητά τηλέφωνα και το ίδιο το Διαδίκτυο”, ανέφερε η ανάρτηση στο blog.

Ως αποτέλεσμα, αναπτύχθηκαν επίσης αρχές AI αρχές, οι οποίες θα μπορούσαν να καθοδηγήσουν τις κοινές στρατηγικές, ανέφερε.

Ωστόσο, ο κ. Hassabis και ο κ. Monsika δήλωσαν ότι το γεωπολιτικό τοπίο έγινε όλο και πιο περίπλοκο.

“Πιστεύουμε ότι οι δημοκρατίες θα πρέπει να οδηγήσουν στην ανάπτυξη του AI, καθοδηγούνται από βασικές αξίες όπως η ελευθερία, η ισότητα και ο σεβασμός των ανθρωπίνων δικαιωμάτων”, ανέφερε η ανάρτηση στο blog.

“Και πιστεύουμε ότι οι εταιρείες, οι κυβερνήσεις και οι οργανισμοί που μοιράζονται αυτές τις αξίες θα πρέπει να συνεργαστούν για να δημιουργήσουν AI που προστατεύει τους ανθρώπους, προωθεί την παγκόσμια ανάπτυξη και υποστηρίζει την εθνική ασφάλεια”.

Η δημοσίευση στο blog δημοσιεύθηκε ακριβώς μπροστά από την οικονομική έκθεση του Alphabet στο τέλος του έτους, δείχνοντας αποτελέσματα που ήταν ασθενέστερα από τις προσδοκίες της αγοράς και χτύπησαν την τιμή της μετοχής της.

Αυτό ήταν παρά την αύξηση κατά 10% των εσόδων από την ψηφιακή διαφήμιση, τον μεγαλύτερο εργοστάσιο της, που ενισχύθηκε από τις εκλογικές δαπάνες των ΗΠΑ.

Στην αναφορά των κερδών της, η εταιρεία δήλωσε ότι θα δαπανήσει 75 δισ. Δολάρια (60 δισ. Δολάρια) σε έργα AI φέτος, 29% περισσότερο από ό, τι οι αναλυτές της Wall Street είχαν αναμένουν.

Η εταιρεία επενδύει στην υποδομή για την εκτέλεση της AI, της AI Research και εφαρμογών όπως η αναζήτηση που τροφοδοτείται με AI.

Η πλατφόρμα AI της Google Gemini εμφανίζεται τώρα στην κορυφή των αποτελεσμάτων αναζήτησης Google, προσφέροντας μια σύνοψη AI γραπτή και αναδύεται στα τηλέφωνα Google Pixel.

Αρχικά, πολύ πριν από την τρέχουσα αύξηση του ενδιαφέροντος για την ηθική του AI, οι ιδρυτές της Google, Sergei Brin και Larry Page, δήλωσαν ότι το σύνθημά τους για την επιχείρηση ήταν “Μην είστε κακοί”. Όταν η εταιρεία αναδιαρθρώθηκε με το όνομα Alphabet Inc το 2015, η μητρική εταιρεία άλλαξε στο “Do the Right Thing”.

Από τότε, το προσωπικό της Google μερικές φορές έσπρωξε πίσω από την προσέγγιση που υιοθετήθηκε από τα στελέχη τους. Το 2018 Η επιχείρηση δεν ανανέωσε σύμβαση για εργασία AI με το Πεντάγωνο των ΗΠΑ μετά από παραιτήσεις και μια αναφορά που υπογράφηκε από χιλιάδες υπαλλήλους.

Φοβόταν ότι το “Project Maven” ήταν το πρώτο βήμα προς τη χρήση της τεχνητής νοημοσύνης για θανατηφόρους σκοπούς.