ΚΛΕΙΣΙΜΟ
Loading...
 

Η αβάσταχτη ελαφρότητα των αλγορίθμων.

*Της Άννας Προδρόμου

Kathimerini.com.cy

info@kathimerini.com.cy

Το περασμένο φθινόπωρο, η Δρ. Jahna Otterbacher, συντονίστρια του Κυπριακού Κέντρου για την Αλγοριθμική Διαφάνεια CyCAT, και επικεφαλής της ομάδας TAG στο Ερευνητικό Κέντρο για τα Διαδραστικά Μέσα, Ευφυή συστήματα, και Αναδυόμενες Τεχνολογίες RISE με την ερευνητική της ομάδα άρχισαν να παρατηρούν τις ετικέτες, τα λεγόμενα tags, τα οποία επικολλούν διάφορα προγράμματα αυτόματης επικόλλησης ετικετών σε φωτογραφίες ανθρώπων. Τα προγράμματα αυτά χρησιμοποιούν νευρωνικά δίκτυα για να ‘διδάξουν’ στους υπολογιστές πως να βλέπουν και να διαφοροποιούν τα περίπλοκα πράγματα. Αναγνωρίζουν αντικείμενα όπως ο ουρανός, το χώμα αλλά κάνουν και διακρίσεις μεταξύ δυο όμοιων κατά τα άλλα αντικειμένων, όπως δυο διαφορετικών τύπων τυριών. Παρατήρησαν πως τα προγράμματα αυτά απέδιδαν στους εικονιζόμενους υποκειμενικά και αόριστα χαρακτηριστικά και συχνά έκαναν λάθη στον εντοπισμό φύλου. «Φανταστείτε η φωτογραφία σας να έχει ετικέτα «μαγείρεμα» επειδή είστε γυναίκα, να συνδέεται με ειδήσεις παραβατικότητας επειδή είστε έγχρωμος ή να συνοδεύεται με την ετικέτα «νοημοσύνη» απλά επειδή τυγχάνει να είστε λευκός άντρας» ανέφερε η Δρ. Otterbacher.

Η ερευνητική ομάδα άρχισε να εξετάζει κατά πόσο ή σε ποιο βαθμό οι ετικέτες αυτές εμπεριείχαν μεροληψία χρησιμοποιώντας προγράμματα ετικετοποίησης εικόνων, όπως το Clarifai API, Microsoft Vision, Amazon Rekognition, Google Cloud Vision και φωτογραφίες από το Chicago Face Database (CFD) οι οποίες απεικονίζουν μόνο πρόσωπα, σε κοινό φόντο, προερχόμενα από όλες τις φυλετικές ομάδες. «Δεδομένης της οπτικής κουλτούρας η οποία κυριαρχεί στις συνδιαλλαγές μας εντός του διαδικτύου, είναι σημαντικό να επιτύχουμε μια καλύτερη κατανόηση των προκαταλήψεων τα οποία εμπεριέχονται στις εφαρμογές αναγνώρισης εικόνων» λέει η Δρ. Jahna Otterbacher.

Τα αποτελέσματα ήταν άκρως διαφωτιστικά. Οι αλγόριθμοι ετικετών εικόνας, σίγουρα δεν είναι αντικειμενικοί όταν επεξεργάζονται εικόνες ανθρώπων και συχνά προχωρούν, πέρα από την περιγραφή συγκεκριμένων διακριτών εξωτερικών χαρακτηριστικών (καστανός/ή), σε αυθαίρετες κρίσεις αποδίδοντας και συναισθηματικά χαρακτηριστικά (σοβαρός/ή, φιλικός/ή). Επίσης ενώ δεν βρέθηκαν στοιχεία που να εξάγουν ετικέτες με αρνητικές κρίσεις σχετικά με τη φυσική εμφάνιση, θετικές ετικέτες όπως "ελκυστική", "σέξι" και "ωραία εμφάνιση" χρησιμοποιήθηκαν από αλγορίθμους και αποδίδονταν αποκλειστικά σε γυναίκες. Κάποιοι μάλιστα από τους αλγορίθμους συστηματικά χρησιμοποιούσαν αυτές τις ετικέτες σε φωτογραφίες γυναικών με ασιατικά χαρακτηριστικά. Προχωρούσαν επίσης διεξάγοντας συμπεράσματα ως προς τον χαρακτήρα ενός ατόμου αποδίδοντας για παράδειγμα ετικέτες όπως "καλός" σε συνδυασμό με την ετικέτα "ελκυστικός" διαιωνίζοντας το γνωστό «ό,τι είναι όμορφο είναι και καλό». Τρανταχτό παράδειγμα μεροληψίας η ετικέτα "νοημοσύνη" η οποία ανευρέθηκε επικολλημένη από το Clarifai σε ποσοστό 96% σε φωτογραφίες οι οποίες απεικόνιζαν άνδρες. Παρατηρήθηκαν επίσης αρκετά συχνά λάθη στην αναγνώριση φύλου εις βάρος των γυναικών.

Αυτό είναι αρκετά ανησυχητικό, καθώς οι προγραμματιστές, οι οποίοι χρησιμοποιούν τέτοια προγράμματα στην εργασία τους αλλά και οι τελικοί χρήστες, οι εικόνες των οποίων επεξεργάζονται στο πλαίσιο ενός συστήματος που χρησιμοποιούν, πιθανόν να μην αντιλαμβάνονται ότι ένας αλγόριθμος σχεδιασμένος για την επισήμανση περιεχομένου εικόνας, παράγει υποκειμενικές ετικέτες.

Η Google κατά λάθος απέδειξε τους κινδύνους από την χρήση ακατάλληλου λογισμικού αναγνώρισης εικόνας πολύ νωρίς όταν το 2015, ένας έγχρωμος άνδρας σε φωτογραφία είχε ‘χαρακτηριστεί’ ως γορίλας. Δεν μπορεί κανείς να παραβλέψει επίσης περιπτώσεις της Apple με το iphoneX το οποίο δεν μπορούσε να διακρίνει άτομα με ασιατικά χαρακτηριστικά. Πολυάριθμα βεβαίως και τα σφάλματα στην ταξινόμηση φύλου όταν η φωτογραφία αφορούσε άτομα με σκούρο δέρμα σε σύγκριση με λευκό δέρμα. Σεξιστικά επίσης περιστατικά παρατηρούνται στη μηχανή αναζήτησης Google όπου ετικέτες πχ. "μαγείρεμα", "ψώνισμα" αποδίδονται σε εικονιζόμενες γυναίκες.
Λαμβάνοντας λοιπόν υπόψη την ευρεία χρήση αυτών των αλγορίθμων στο πληροφοριακό μας οικοσύστημα, η μεροληπτική ταξινόμηση εικόνων μπορεί να συμβάλει όχι μόνο στην ενίσχυση των υφιστάμενων κοινωνικών προκαταλήψεων αλλά ίσως και στην επιδείνωσή τους. Δεδομένου ότι οι υπηρεσίες προσκόλλησης ετικετών στο διαδίκτυο δεν είναι διαφανείς, είναι σημαντικό οι χρήστες να είναι βέβαιοι ότι η υπηρεσία που χρησιμοποιείται για τη ταξινόμηση τους θα αντιμετωπίζει δίκαια κάθε κοινωνική ομάδα. Τι μπορεί να γίνει λοιπόν; Οι ερευνητές και οι επαγγελματίες θα πρέπει να διατηρούν ένα υγιές σκεπτικισμό αναπτύσσοντας παράλληλα νέες τεχνικές. Μέχρις ότου όμως τέτοιες τεχνικές είναι εφικτές, επιβάλλεται η ενδελεχής εξέταση των αδιαφανών αυτών εργαλείων, ανιχνεύοντας τις ρίζες των κοινωνικών προκαταλήψεων στην ανάλυση των αποτελεσμάτων τους.

ΣΧΟΛΙΑΣΤΕ

Άλλα άρθρα συγγραφέα

Kathimerini.com.cy

Προσωπικότητες στην ''Κ'': Τελευταία Ενημέρωση

X