Μια βρετανική τράπεζα, η Starling Bank, εξέδωσε προειδοποίηση για ένα νέο κύμα απατών που χρησιμοποιούν τεχνητή νοημοσύνη για να αναπαράγουν τις φωνές των ανθρώπων. Οι απατεώνες μπορούν να δημιουργήσουν πειστικούς κλώνους φωνής από μόνο λίγα δευτερόλεπτα ήχου, που βρίσκονται συχνά σε διαδικτυακά βίντεο, ανέφερε η τράπεζα σε δελτίο τύπου.
Ο δανειστής μόνο στο διαδίκτυο είπε ότι αυτές οι απάτες είναι εξαιρετικά αποτελεσματικές, με εκατομμύρια ανθρώπους να κινδυνεύουν δυνητικά. Η έρευνα της τράπεζας διαπίστωσε ότι πάνω από το ένα τέταρτο των ερωτηθέντων είχαν γίνει στόχος τέτοιων απατών το περασμένο έτος και πολλοί δεν γνώριζαν την απειλή, CNN αναφέρθηκε.
«Οι άνθρωποι δημοσιεύουν τακτικά περιεχόμενο στο Διαδίκτυο που έχει ηχογραφήσεις της φωνής τους, χωρίς ποτέ να φαντάζονται ότι τους κάνει πιο ευάλωτους στους απατεώνες», δήλωσε στο δελτίο τύπου η Lisa Grahame, διευθύντρια ασφάλειας πληροφοριών της Starling Bank.
Σύμφωνα με την έρευνα, το 46% των ερωτηθέντων δεν γνώριζε ότι υπήρχαν τέτοιες απάτες και ότι το 8% θα έστελνε όσα χρήματα ζητούσε ένας φίλος ή μέλος της οικογένειας, ακόμα κι αν πίστευαν ότι η κλήση φαινόταν περίεργη.
Για να προστατευτούν, οι άνθρωποι συμβουλεύονται να δημιουργήσουν μια «ασφαλή φράση» με τα αγαπημένα τους πρόσωπα. Αυτή η μοναδική φράση μπορεί να χρησιμοποιηθεί για την επαλήθευση της ταυτότητας κατά τη διάρκεια τηλεφωνικών κλήσεων. Η τράπεζα συνέστησε να μην κοινοποιηθεί η ασφαλής φράση μέσω κειμένου, κάτι που θα μπορούσε να διευκολύνει τους απατεώνες να το ανακαλύψουν, αλλά, εάν κοινοποιηθεί σήμερα, το μήνυμα θα πρέπει να διαγραφεί μόλις το δει το άλλο άτομο.
Καθώς η τεχνολογία AI συνεχίζει να προοδεύει, οι ανησυχίες για την πιθανότητα κακής χρήσης της αυξάνονται. Οι δημιουργοί του ChatGPT και του OpenAI, έχουν αναγνωρίσει ακόμη και τους κινδύνους που σχετίζονται με τα εργαλεία αναπαραγωγής φωνής.