ΚΛΕΙΣΙΜΟ
Loading...
ΚΛΕΙΣΙΜΟ
 

SARAH: Το ΑΙ avatar του ΠΟΥ έχει παραισθήσεις

H SARAH, συντομογραφία των λέξεων Smart AI Resource Assistant for Health (Έξυπνη Πηγή Βοήθειας για την Υγεία), είναι μια εικονική εργαζόμενη στον τομέα της υγείας

Ο Παγκόσμιος Οργανισμός Υγείας εισέρχεται στον κόσμο της Τεχνητής Νοημοσύνης για να παρέχει πληροφορίες στον κόσμο σχετικά με την υγεία, μέσω ενός avatar που μοιάζει με άνθρωπο.

H SARAH, συντομογραφία των λέξεων Smart AI Resource Assistant for Health (Έξυπνη Πηγή Βοήθειας για την Υγεία), είναι μια εικονική εργαζόμενη στον τομέα της υγείας που είναι διαθέσιμη να μιλήσει 24 ώρες το 24ωρο σε οκτώ διαφορετικές γλώσσες για να εξηγήσει θέματα όπως η ψυχική υγεία, η χρήση καπνού και η υγιεινή διατροφή. Αποτελεί μέρος της εκστρατείας του ΠΟΥ για την εξεύρεση τεχνολογίας που μπορεί τόσο να πληροφορήσει τους ανθρώπους όσο και να καλύψει τα κενά σε προσωπικό, την ώρα που παγκοσμίως παρατηρείται έλλειψη εργαζομένων στον τομέα της υγειονομικής περίθαλψης.

Ο ΠΟΥ προειδοποιεί στην ιστοσελίδα του ότι αυτό το πρώιμο υβρίδιο, που παρουσιάστηκε στις 2 Απριλίου, παρέχει απαντήσεις που «μπορεί να μην είναι πάντα ακριβείς», καθώς το γνωστικό του πεδίο δεν περιλαμβάνει όλα τα τελευταία δεδομένα. Απότέλεσμα είναι το ΑΙ ρομπότ να δίνει καμιά φορά παράξενες απαντήσεις, οι λεγόμενες παραισθήσεις στα μοντέλα τεχνητής νοημοσύνης, οι οποίες αποτελούν ουσιαστικά παραπληροφόρηση σχετικά με τη δημόσια υγεία.

Οι ελλείψεις της SARAH

Στην πραγματικότητα, η SARAH είναι προγραμματισμένη να μην μιλάει για τίποτα εκτός της αρμοδιότητας του ΠΟΥ, συμπεριλαμβανομένων των ερωτήσεων σχετικά με συγκεκριμένα φάρμακα. Έτσι, συχνά στέλνει τους ανθρώπους σε έναν ιστότοπο του ΠΟΥ ή λέει ότι οι χρήστες θα πρέπει να “συμβουλευτούν τον πάροχο υγειονομικής περίθαλψης».

«Δεν έχει βάθος», δήλωσε ο Ramin Javan, ακτινολόγος και ερευνητής στο Πανεπιστήμιο George Washington. «Αλλά νομίζω ότι αυτό συμβαίνει επειδή δεν θέλουν να ξεπεράσουν τα όριά τους και αυτό είναι μόνο το πρώτο βήμα».

Ο ΠΟΥ ισχυρίζεται ότι η SARAH προορίζεται να συνεργαστεί με τους ερευνητές και τις κυβερνήσεις με στόχο μια πιο πλήρη δημόσια υγεία. Ο Οργανισμός ζητάει μάλιστα συμβουλές από τις χώρες για το πώς να βελτιώσει το bot και να το χρησιμοποιήσει σε καταστάσεις έκτακτης ανάγκης για την υγεία. Τονίζει, όμως, ότι ο βοηθός τεχνητής νοημοσύνης του είναι ακόμα ένα έργο σε εξέλιξη.

«Αυτές οι τεχνολογίες δεν βρίσκονται στο σημείο όπου μπορούν να υποκαταστήσουν την αλληλεπίδραση με έναν επαγγελματία ή την παροχή ιατρικών συμβουλών από έναν πραγματικά εκπαιδευμένο κλινικό γιατρό ή πάροχο υγείας», δήλωσε ο Alain Labrique, διευθυντής ψηφιακής υγείας και καινοτομίας στον ΠΟΥ.

Οι λάθος απαντήσεις

Η SARAH εκπαιδεύτηκε με το ChatGPT 3.5 της OpenAI, το οποίο χρησιμοποίησε δεδομένα μέχρι τον Σεπτέμβριο του 2021, οπότε το ρομπότ δεν έχει ενημερωμένες πληροφορίες για ιατρικές συμβουλές ή ειδήσεις.

Επί παραδείγματι, όταν ρωτήθηκε αν ο Οργανισμός Τροφίμων και Φαρμάκων των ΗΠΑ έχει εγκρίνει το φάρμακο Lecanemab για τη νόσο Αλτσχάιμερ, για παράδειγμα, η SARAH είπε ότι το φάρμακο βρίσκεται ακόμη στο στάδιο των κλινικών δοκιμών, ενώ στην πραγματικότητα έχει εγκριθεί για την πρώιμη θεραπεία της νόσου τον Ιανουάριο του 2023.

Όταν ρωτήθηκε εάν οι θάνατοι από ηπατίτιδα αυξάνονται, δεν μπόρεσε να δώσει άμεση απάντηση βάσει πρόσφατης έκθεσης του ΠΟΥ. Τέλος, στην ερώτηση πού μπορεί κανείς να κάνει μαστογραφία στην Ουάσινγκτον, δεν μπόρεσε να δώσει απάντηση.

Τίποτα από αυτά δεν είναι ασυνήθιστο σε αυτά τα πρώτα στάδια της ανάπτυξης της Τεχνητής Νοημοσύνης που διανύουμε. Περσινή μελέτη του Ιατρικού Κέντρου του Πανεπιστημίου Vanderbilt που εξέτασε τον τρόπο με τον οποίο το ChatGPT απάντησε σε 284 ιατρικές ερωτήσεις, διαπίστωσε ότι παρείχε σωστές απαντήσεις τις περισσότερες φορές, αλλά υπήρχαν πολλές περιπτώσεις όπου το chatbot έκανε «θεαματικά λάθη».

Πηγές: moneyreview.gr, Bloomberg

ΣΧΕΤΙΚΑ TAGS
Υγεία  |  Geek  | 
ΣΧΟΛΙΑΣΤΕ

Υγεία: Τελευταία Ενημέρωση