
ΠΗΓΗ: ΒΒC
Εκατοντάδες χιλιάδες συνομιλίες χρηστών με το chatbot τεχνητής νοημοσύνης Grok του Ελον Μασκ βρέθηκαν εκτεθειμένες σε αποτελέσματα μηχανών αναζήτησης, χωρίς να έχουν αντιληφθεί οι ίδιοι οι χρήστες ότι οι διάλογοί τους γίνονταν δημόσια προσβάσιμοι.
Το πρόβλημα προκύπτει από τη λειτουργία «share» της πλατφόρμας, η οποία δημιουργεί μοναδικούς συνδέσμους κάθε φορά που ένας χρήστης πατά το κουμπί κοινοποίησης.
Αντί να περιορίζεται μόνο στον αποδέκτη, η συνομιλία γινόταν παράλληλα προσβάσιμη και από τις μηχανές αναζήτησης. Την Πέμπτη, αναζήτηση στην Google εμφάνισε σχεδόν 300.000 τέτοιες συνομιλίες.
Η πρώτη αναφορά για το ζήτημα έγινε από το Forbes, που υπολόγισε πάνω από 370.000 εκτεθειμένα transcripts.
Ανάμεσα στα παραδείγματα που είδε το BBC περιλαμβάνονται συνομιλίες στις οποίες το Grok κλήθηκε να δημιουργήσει ασφαλή κωδικό, να δώσει πλάνα διατροφής για απώλεια βάρους, να απαντήσει σε ιατρικά ερωτήματα ή να εξηγήσει πώς παρασκευάζεται ναρκωτική ουσία κατηγορίας Α σε εργαστήριο.
Δεν είναι η πρώτη φορά που συνομιλίες με chatbots εμφανίζονται δημόσια, πέρα από την πρόθεση των χρηστών.
Η OpenAI είχε δοκιμάσει παρόμοιο πείραμα με το ChatGPT, το οποίο στη συνέχεια σταμάτησε, υπογραμμίζοντας ότι τα chats είναι εξ ορισμού ιδιωτικά και κοινοποιούνται μόνο αν το επιλέξει ο χρήστης.
Αντίστοιχα, η Meta είχε δεχθεί κριτική όταν κοινοποιημένες συνομιλίες με το Meta AI εμφανίστηκαν σε δημόσια ροή.
Οι ειδικοί μιλούν για σοβαρό ζήτημα ιδιωτικότητας.
Ο Λουκ Ροσέρ, αναπληρωτής καθηγητής στο Oxford Internet Institute, χαρακτήρισε τα chatbots «καταστροφή ιδιωτικότητας σε εξέλιξη», σημειώνοντας ότι οι διαρροές μπορούν να αποκαλύψουν προσωπικά δεδομένα όπως ονόματα, τοποθεσίες, λεπτομέρειες ψυχικής υγείας ή επιχειρηματικές πληροφορίες.
Η Καρίσα Βελίζ, αναπληρώτρια καθηγήτρια Φιλοσοφίας στο Oxford Institute for Ethics in AI, επισήμανε πως το γεγονός ότι οι χρήστες δεν ενημερώνονται πως οι κοινοποιημένες συνομιλίες θα εμφανιστούν σε αποτελέσματα αναζήτησης είναι «προβληματικό».
«Η τεχνολογία δεν μας λέει καν τι κάνει με τα δεδομένα μας – και αυτό είναι πρόβλημα», ανέφερε.