ΚΛΕΙΣΙΜΟ
Loading...
 

Ρατσισμός σε χορήγηση δανείων μέσω της τεχνητής νοημοσύνης

Η Deloitte εντοπίζει το πρόβλημα στα δεδομένα που καταχωρίζονται

Kathimerini.gr

Η τεχνητή νοημοσύνη έχει πρόβλημα φυλετικής προκατάληψης και μάλιστα το πρόβλημα των διακρίσεων της ΑΙ μπορεί να είναι ακόμη πιο σοβαρό όταν πρόκειται για τραπεζικές και χρηματοπιστωτικές υπηρεσίες.

Οπως επισημαίνει η Deloitte, τα συστήματα τεχνητής νοημοσύνης είναι ουσιαστικά τόσο καλά όσο τα δεδομένα που τους έχουν καταχωρίσει: τα ελλιπή ή μη αντιπροσωπευτικά σύνολα δεδομένων θα μπορούσαν να περιορίσουν την αντικειμενικότητα της τεχνητής νοημοσύνης, ενώ οι υφιστάμενες προκαταλήψεις στις ομάδες ανάπτυξης που εκπαιδεύουν τέτοια συστήματα θα μπορούσαν να διαιωνίσουν αυτόν τον κύκλο προκατάληψης.

Tα ελλιπή ή μη αντιπροσωπευτικά σύνολα δεδομένων θα μπορούσαν να περιορίσουν την αντικειμενικότητα της τεχνητής νοημοσύνης, επισημαίνει η Deloitte.

Η χορήγηση δανείων μπορεί να είναι ένα τέτοιο παράδειγμα, καθώς ο κίνδυνος να μεροληπτεί ένα σύστημα ΑΙ κατά ορισμένων ομάδων που θεωρούνται ότι βρίσκονται στο περιθώριο είναι υπαρκτός, σύμφωνα με το πρώην στέλεχος του Twitter Ράμαν Τσοουντχάρι. Μάλιστα, υπάρχει ακόμα πολύς δρόμος αναφορικά με τις διακρίσεις: από τα συστήματα βιομετρικής ταυτοποίησης που αναγνωρίζουν λανθασμένα τα πρόσωπα των μαύρων και των μειονοτήτων, μέχρι τις εφαρμογές λογισμικού αναγνώρισης φωνής που αποτυγχάνουν να διακρίνουν φωνές με τοπική προφορά.

«Οι αλγοριθμικές διακρίσεις είναι πολύ εμφανείς στον δανεισμό», δήλωσε η Τσοουντχάρι σε πάνελ στο Money 20/20 στο Αμστερνταμ. Η ίδια αναφέρθηκε στο παράδειγμα του Σικάγου, στο οποίο τη δεκαετία του ’30 παρατηρήθηκε μια άρνηση χορήγησης δανείων σε γειτονιές μαύρων. Συγκεκριμένα, η πιστοληπτική αξιολόγηση των ακινήτων καθοριζόταν σε μεγάλο βαθμό από τα φυλετικά δημογραφικά χαρακτηριστικά μιας συγκεκριμένης γειτονιάς. «Υπήρχε ένας τεράστιος χάρτης με όλες τις περιφέρειες του Σικάγο και τραβούσαν κόκκινες γραμμές σε όλες τις περιφέρειες που ήταν κυρίως αφροαμερικανικές και δεν τους έδιναν δάνεια», πρόσθεσε. «Μερικές δεκαετίες αργότερα αναπτύσσονται αλγόριθμοι που προσδιορίζουν την επικινδυνότητα διαφόρων περιοχών και ατόμων. Και ενώ μπορεί να μην περιλαμβάνεται στα δεδομένα η φυλή κάποιου, αυτό ουσιαστικά γίνεται σιωπηρά».

Πράγματι, η Αντζι Μπους, ιδρύτρια της Black Women in Artificial Intelligence, μιας οργάνωσης που στοχεύει στην ενδυνάμωση των μαύρων γυναικών στον τομέα της τεχνητής νοημοσύνης, λέει στο CNBC ότι όταν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται ειδικά για αποφάσεις έγκρισης δανείων, έχει διαπιστωθεί ότι ελλοχεύει ο κίνδυνος αναπαραγωγής των υφιστάμενων προκαταλήψεων που υπάρχουν στα ιστορικά δεδομένα που χρησιμοποιούνται για την εκπαίδευση των αλγορίθμων. «Αυτό μπορεί να επιφέρει αυτόματες αρνήσεις δανείων σε άτομα από περιθωριοποιημένες κοινότητες, ενισχύοντας τις φυλετικές ή έμφυλες ανισότητες», πρόσθεσε. Είναι ζωτικής σημασίας για τις τράπεζες να αναγνωρίσουν ότι η εφαρμογή της τεχνητής νοημοσύνης ως λύση μπορεί ακούσια να διαιωνίσει τις διακρίσεις», δηλώνει η ίδια.

Ο Φροστ Λι, ένας προγραμματιστής που ασχολείται με την τεχνητή νοημοσύνη και τη μηχανική μάθηση για πάνω από μια δεκαετία, δήλωσε στο CNBC ότι η διάσταση της «εξατομίκευσης» στην ενσωμάτωση δεδομένων της ΑΙ μπορεί επίσης να είναι προβληματική. Ειδικά για τον τραπεζικό τομέα, ο Λι υποστηρίζει ότι είναι πιο δύσκολο να εντοπιστεί ποιος φταίει για τη μεροληψία που παρατηρείται. «Ενα καλό παράδειγμα είναι πόσες fintech startups είναι ειδικά για αλλοδαπούς, επειδή ένας απόφοιτος του Πανεπιστημίου του Τόκιο δεν θα μπορέσει να πάρει πιστωτική κάρτα ακόμη κι αν εργάζεται στην Google – ωστόσο, κάποιος από κάποιο τοπικό κολέγιο μπορεί εύκολα να πάρει μια πιστωτική κάρτα, επειδή οι τραπεζίτες γνωρίζουν καλύτερα τα σχολεία της περιοχής τους», πρόσθεσε ο Λι.

 

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

Άλλα άρθρα συγγραφέα

Kathimerini.gr

Νέα: Τελευταία Ενημέρωση