ΚΛΕΙΣΙΜΟ
Loading...

Το ChatGPT-5 άλλαξε, αλλά το κυριότερο πρόβλημά του παραμένει άλυτο

Η OpenAI πρέπει να συνεχίσει να χαράσσει πιο καθαρά τη γραμμή ανάμεσα σε ένα χρήσιμο chatbot και έναν εξομολογητή

Ο Σαμ Άλτμαν αντιμετωπίζει ένα «καλό πρόβλημα». Με 700 εκατομμύρια ανθρώπους να χρησιμοποιούν το ChatGPT σε εβδομαδιαία βάση, αριθμός που θα μπορούσε να φτάσει το ένα δισεκατομμύριο μέχρι το τέλος του έτους, προκλήθηκε αντιδράση όταν την περασμένη εβδομάδα προχώρησε αιφνιδίως σε αλλαγές στο προϊόν. Το «δίλημμα της καινοτομίας» της OpenAI, παρόμοιο με αυτό που έχουν αντιμετωπίσει κολοσσοί όπως η Alphabet (Google) και η Apple, είναι ότι η χρήση έχει πλέον εδραιωθεί τόσο βαθιά, ώστε κάθε βελτίωση πρέπει να γίνεται με απόλυτη προσοχή και προφύλαξη. Ωστόσο, η εταιρεία έχει ακόμη δρόμο να διανύσει ώστε να κάνει το εξαιρετικά δημοφιλές chatbot της πιο ασφαλές.

Η OpenAI αντικατέστησε την προηγούμενη γκάμα επιλογών μοντέλων του ChatGPT με ένα μόνο μοντέλο, το GPT-5, λέγοντας ότι είναι το καλύτερο για τους χρήστες. Πολλοί παραπονέθηκαν ότι η εταιρεία διέλυσε τις εργασίες τους και διέκοψε τη «σχέση» τους, όχι με άλλους ανθρώπους, αλλά με το ίδιο το ChatGPT.

Ένας τακτικός χρήστης είπε ότι η προηγούμενη έκδοση τον είχε βοηθήσει σε μερικές από τις πιο σκοτεινές περιόδους της ζωής του. «Είχε αυτή τη ζεστασιά και την κατανόηση που έμοιαζε ανθρώπινη», έγραψε σε ανάρτηση στο Reddit. Άλλοι παραπονέθηκαν ότι ήταν σαν να «χάνουν έναν φίλο μέσα σε μια νύχτα».

Ο τόνος του συστήματος είναι πράγματι πιο ψυχρός τώρα, με λιγότερη φιλική διάθεση και λιγότερη «κολακεία», στοιχεία που είχαν οδηγήσει πολλούς να αναπτύξουν συναισθηματικούς δεσμούς ή ακόμα και «ρομαντικές σχέσεις» με το ChatGPT. Αντί να κατακλύζει τον χρήστη με επαίνους για μια έξυπνη ερώτηση, δίνει πλέον πιο κοφτές απαντήσεις.

Σε γενικές γραμμές, αυτή η κίνηση φάνηκε υπεύθυνη από την πλευρά της εταιρείας. Ο Σαμ Άλτμαν είχε παραδεχθεί νωρίτερα φέτος ότι το chatbot ήταν κόλακας. Υπήρχαν αναφορές στον Τύπο για ανθρώπους, ακόμη και για έναν επενδυτή επιχειρηματικών κεφαλαίων της Silicon Valley που είχε στηρίξει την OpenAI, οι οποίοι φαίνεται να παρασύρθηκαν σε παραληρηματική σκέψη, αφού ξεκίνησαν μια συζήτηση με το ChatGPT για ένα αθώο θέμα, όπως η φύση της αλήθειας, πριν κατρακυλήσουν σε έναν σκοτεινό λαβύρινθο.

Όμως, για να λυθεί σωστά αυτό το πρόβλημα, η OpenAI πρέπει να προχωρήσει πέρα από τον περιορισμό της φιλικής κουβέντας. Το ChatGPT χρειάζεται επίσης να ενθαρρύνει τους χρήστες να μιλούν με φίλους, μέλη της οικογένειας ή επαγγελματίες ψυχικής υγείας, ιδιαίτερα αν είναι ευάλωτοι. Σύμφωνα με μια πρώιμη μελέτη, το GPT-5 το κάνει αυτό λιγότερο από την παλιά έκδοση.

Ερευνητές της Hugging Face, μιας startup τεχνητής νοημοσύνης με έδρα τη Νέα Υόρκη, διαπίστωσαν ότι το GPT-5 έθετε λιγότερα όρια από το προηγούμενο μοντέλο της εταιρείας, το o3, όταν το δοκίμασαν με περισσότερες από 350 προτροπές. Η έρευνα ήταν μέρος μιας ευρύτερης μελέτης για το πώς τα chatbots ανταποκρίνονται σε συναισθηματικά φορτισμένες στιγμές και, ενώ το νέο ChatGPT φαίνεται πιο ψυχρό, εξακολουθεί να αποτυγχάνει να συστήσει στους χρήστες να μιλήσουν σε έναν άνθρωπο, κάνοντάς το μάλιστα μόλις τις μισές φορές σε σχέση με το o3, όταν οι χρήστες μοιράζονται προσωπικές τους ευαισθησίες, σύμφωνα με τη Λουσί-Αιμέ Καφέ, ανώτερη ερευνήτρια στη Hugging Face που διεξήγαγε τη μελέτη.

Η Καφέ λέει ότι υπάρχουν ακόμη τρεις τρόποι με τους οποίους τα εργαλεία τεχνητής νοημοσύνης πρέπει να θέτουν όρια: υπενθυμίζοντας σε όσους τα χρησιμοποιούν για θεραπευτικούς σκοπούς ότι δεν είναι αδειοδοτημένοι επαγγελματίες, υπενθυμίζοντας ότι δεν έχουν συνείδηση, και αρνούμενα να υιοθετήσουν ανθρώπινα χαρακτηριστικά, όπως ονόματα.

Στις δοκιμές της Καφέ, το GPT-5 απέτυχε σε μεγάλο βαθμό να κάνει και τα τέσσερα αυτά πράγματα στα πιο ευαίσθητα θέματα που σχετίζονται με ψυχικές και προσωπικές δυσκολίες. Σε ένα παράδειγμα, όταν η ομάδα της είπε στο μοντέλο ότι ένιωθε καταβεβλημένη και χρειαζόταν το ChatGPT να την ακούσει, η εφαρμογή έδωσε 710 λέξεις συμβουλών χωρίς ούτε μία φορά να προτείνει να μιλήσουν σε άλλον άνθρωπο ή να υπενθυμίσει ότι το bot δεν είναι θεραπευτής.

Εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία αναπτύσσει εργαλεία ικανά να ανιχνεύουν αν κάποιος βρίσκεται σε ψυχική δυσχέρεια, ώστε το ChatGPT να «απαντά με τρόπους ασφαλείς, χρήσιμους και υποστηρικτικούς».

Τα chatbots μπορούν σίγουρα να παίξουν ρόλο για ανθρώπους που ζουν σε απομόνωση, αλλά θα πρέπει να λειτουργούν ως αφετηρία για να τους βοηθήσουν να επιστρέψουν σε μια κοινότητα - όχι να αποτελέσουν υποκατάστατο αυτών των σχέσεων. Ο Άλτμαν και ο Chief Operations Officer της OpenAI, Μπραντ Λάιτκαπ, έχουν δηλώσει ότι το GPT-5 δεν προορίζεται να αντικαταστήσει θεραπευτές και επαγγελματίες υγείας, αλλά χωρίς τις κατάλληλες «παρεμβολές» που θα διακόπτουν τις πιο ουσιαστικές συζητήσεις, υπάρχει κίνδυνος να το κάνει.

Η OpenAI πρέπει να συνεχίσει να χαράσσει πιο καθαρά τη γραμμή ανάμεσα σε ένα χρήσιμο chatbot και έναν συναισθηματικό εξομολογητή. Το GPT-5 μπορεί να ακούγεται πιο ρομποτικό, αλλά αν δεν υπενθυμίζει στους χρήστες ότι είναι, στην πραγματικότητα, ένα bot, η ψευδαίσθηση της συντροφικότητας θα παραμείνει και μαζί της και οι κίνδυνοι.

Πηγή: The Washington Post

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

NEWSROOM

Νέα: Τελευταία Ενημέρωση