ΚΛΕΙΣΙΜΟ
Loading...

Ηθική επιλογή και τεχνητή νοημοσύνη

Ο Νοέμβρης του 2025 για την ακαδημία είναι μήνας αφιερωμένος στην τεχνητή νοημοσύνη, την οποία εξετάζουμε και ερμηνεύουμε σε διαφορετικές διαστάσεις και προεκτάσεις. Όμως, πέρα από τη φύση της τεχνητής νοημοσύνης, υπάρχει και η ηθική επιλογή. Το φιλοσοφικό πρόβλημα της ηθικής της τεχνητής νοημοσύνης δεν έγκειται στο ότι οι μηχανές λαμβάνουν κακές ηθικές αποφάσεις, αλλά στο ότι δεν μπορούν να λάβουν καθόλου ηθικές αποφάσεις. Το ζήτημα δεν αφορά τον βαθμό τεχνολογικής πολυπλοκότητας ή την ποσότητα των δεδομένων που «εκπαιδεύουν» τον αλγόριθμο. Αντανακλά δομικές συνθήκες ενσωματωμένες στην ίδια τη φύση της συνείδησης και της αυτονομίας, συνθήκες τις οποίες κανένας αλγόριθμος δεν μπορεί να ικανοποιήσει.

Η φαινομενολογία διαπιστώνει ότι η ανθρώπινη συνείδηση διαθέτει μια ιδιαίτερη δομή: πρόθεση συνδεδεμένη με εμβύθιση σε μία σημασιοδοτημένη βιωμένη ζωή, σε μία βιωμένη πραγματικότητα. Η συνείδηση στρέφεται πάντοτε προς αντικείμενα, αλλά αυτή η πρόθεση δεν είναι ουδέτερη παρατήρηση. Τα αντικείμενα παρουσιάζονται ως σημαντικά μέσω της παρουσίας μας σε κοινόχρηστους κόσμους. Όταν ένας ιατρός αξιολογεί την κατάσταση ενός ασθενούς, δεν επεξεργάζεται απλώς κλινικά δεδομένα. Κινείται μέσα σε μια κατάσταση φορτισμένη με ανθρώπινη σημασία: την ενσώματη ευαλωτότητα του ασθενούς, το ιατρικό ιστορικό, το βάρος των πιθανών αποτελεσμάτων, την «υφή» της ύπαρξης ενός συγκεκριμένου ανθρώπου. Αυτή η νοηματοδοτημένη παρουσίαση των καταστάσεων αναδύεται από την κατοίκηση ενός βιωμένου κόσμου, του υπόβαθρου εδραιωμένων πρακτικών, ιστορικής κατανόησης και διυποκειμενικής αναγνώρισης, μέσω των οποίων οι καταστάσεις καθίστανται κατανοητές ως έχουσες σημασία για όντα με συνείδηση.

Ο βιωμένος κόσμος δεν είναι πληροφορία που μπορεί να κωδικοποιηθεί. Είναι το ζωντανό πλαίσιο, εντός του οποίου καθίσταται δυνατή η ερμηνεία. Ένας έμπειρος γιατρός αναγνωρίζει, όχι μέσω παραγωγικής ανάλυσης, αλλά μέσω εμπειρικής οικειότητας με την ανθρώπινη οδύνη, ανάρρωση και περιορισμό. Αντιλαμβάνεται τι σημαίνει ένα σύμπτωμα, επειδή κατανοεί τι είναι η ασθένεια, όχι αφηρημένα, αλλά μέσω εμβύθισης στον κόσμο της υγείας και της ασθένειας.

Οι μηχανές και οι αλγόριθμοι λειτουργούν πάνω σε εξαγόμενα δεδομένα. Συσχετίζουν μεταβλητές και εντοπίζουν μοτίβα. Αυτό μπορεί να παράγει στατιστικώς ακριβείς προβλέψεις μεν, αλλά η πρόβλεψη διαφέρει θεμελιωδώς από την ερμηνεία δε. Ο αλγόριθμος δεν έχει πρόσβαση σε νοηματοδοτημένες καταστάσεις. Επεξεργάζεται πληροφορία εκτός του πραγματικού κόσμου. Δεν μπορεί να αναγνωρίσει τι διακυβεύεται, διότι δεν κατοικεί σε έναν κόσμο στον οποίο κάτι εμφανίζεται ως έχον σημασία. Δεν μπορεί να ερμηνεύσει, επειδή η ερμηνεία απαιτεί συνείδηση στραμμένη προς αντικείμενα με νόημα μέσα σε έναν κοινό ανθρώπινο κόσμο.

Η καντιανή ηθική εντοπίζει μια δεύτερη δομική προϋπόθεση: την αυτονομία. Ένας ηθικός άνθρωπος καθορίζει τη δική του βούληση σύμφωνα με αρχές που αναγνωρίζει ως δεσμευτικές. Αυτό δεν σημαίνει απλώς ελευθερία από εξωτερικούς περιορισμούς. Είναι η ικανότητα να συλλογίζεται σχετικά με τις αρχές που αξίζουν δέσμευση, να ασκεί πρακτική σοφία σε συγκεκριμένα πλαίσια, να δρα επειδή κατανοεί και όχι γιατί εξαναγκάζεται. Αυτή η ικανότητα θεμελιώνει την ηθική ευθύνη. Μπορώ να λογοδοτήσω, επειδή η επιλογή εκφράζει πράγματι τη δική μου διαμεσολάβηση.

Ωστόσο, ο Καντ υπογραμμίζει ότι η αυτονομία είναι αδιαχώριστη από το ηθικό αίσθημα, ιδίως τον σεβασμό. Όταν αναγνωρίζω την αξιοπρέπεια κάποιου, κινητοποιούμαι από ένα συναίσθημα που εκφράζει γνήσια αναγνώριση της αξίας του άλλου, που δεν μπορεί να αναχθεί σε εργαλειακή χρήση. Ο σεβασμός είναι η φαινομενολογική εκδήλωση της κατανόησης της ανεπανάληπτης ιδιαιτερότητας του άλλου. Χωρίς αυτό, η συμμόρφωση σε ηθικούς κανόνες μετατρέπεται σε μηχανική υπακοή. Η πράξη συμπίπτει με τις προδιαγεγραμμένες αρχές, αλλά στερείται της δέσμευσης που την καθιστά αυθεντικά ηθική.

Ένας αλγόριθμος που εκτελεί ηθικούς κανόνες δεν διαθέτει καμία από τις διαστάσεις της αυτονομίας. Δεν συλλογίζεται με βάση αρχές. Δεν βιώνει ηθικά αισθήματα, διότι δεν συναντά συνειδητά όντα των οποίων την αξιοπρέπεια μπορεί να αναγνωρίσει. Η λειτουργία του είναι μηχανική υλοποίηση. Το σύστημα δεν έχει μερίδιο στην ευθύνη, διότι δεν διαθέτει ύπαρξη που να διακυβεύεται. Δεν μπορεί να είναι υπεύθυνο, επειδή η ευθύνη προϋποθέτει τη δυνατότητα διαφορετικής επιλογής.

Το φιλοσοφικό συμπέρασμα είναι βαθύ. Όταν οι αλγόριθμοι λαμβάνουν αποφάσεις σε τομείς που επηρεάζουν την ανθρώπινη ευημερία, κυρίως εκείνους που άπτονται της αξιοπρέπειας, της αυτονομίας και της νοηματοδοτημένης ύπαρξης, δεν μπορούν να λάβουν γνήσιες ηθικές αποφάσεις. Μπορούν να βελτιστοποιούν αποτελέσματα. Μπορούν να εφαρμόζουν κανόνες με συνέπεια. Μπορούν να παράγουν στατιστικώς ισορροπημένα αποτελέσματα. Αλλά δεν μπορούν να ασκήσουν την ερμηνευτική κρίση και την αυτόνομη δέσμευση που χαρακτηρίζουν την ηθική επιλογή.

Αυτό δεν επιλύει τα πρακτικά ερωτήματα σχετικά με την εφαρμογή της τεχνητής νοημοσύνης. Θέτει όμως το φιλοσοφικό υπόβαθρο για να τα διατυπώσουμε ως φιλοσοφικά ερωτήματα περί της φύσης της ανθρώπινης διαμεσολάβησης. Διότι μόνο ο άνθρωπος γνωρίζει το νόημα της ζωής, όχι ο αλγόριθμος.

*Ο δρ Ευάγγελος Κωνσταντέλος είναι ειδικός επιστήμονας Ηθικής και Δεοντολογίας στο Ευρωπαϊκό Πανεπιστήμιο Κύπρου.

ΣΧΕΤΙΚΑ TAGS
ΣΧΟΛΙΑΣΤΕ

NEWSROOM

Προσωπικότητες στην ''Κ'': Τελευταία Ενημέρωση

X