Όταν σκεφτόμαστε την επίδραση της τεχνητής νοημοσύνης (AI) στην ανθρωπότητα, οι περισσότεροι σπεύδουν να κάνουν υπαρξιακά ερωτήματα για την πιθανότητα εξαφάνισης του ανθρώπου και την κυριαρχία των ρομπότ στον κόσμο. Όμως, αντί να εστιάζουμε στις δυστοπικές προειδοποιήσεις για το τι μπορεί να συμβεί, υπάρχει μια μορφή σοβαρής διάκρισης που ήδη συμβαίνει, σχεδόν χωρίς καμία ρύθμιση ούτε προστατευτικούς μηχανισμούς.
Σύμφωνα με τον Ιndependent, αυτή η διάκριση επηρεάζει τις γυναίκες και άλλες περιθωριοποιημένες ομάδες με πολύ απτούς τρόπους, από το αν θα εγκριθεί ένα δάνειο, μέχρι την ανάληψη μιας θέσης εργασίας ή ακόμα και τη σωστή διάγνωση ενός σοβαρού προβλήματος υγείας. Και εάν δεν απαιτήσουμε ανάληψη ευθυνών τώρα, κινδυνεύουμε η AI να μας πάει προς τα πίσω, ενσωματώνοντας τις σημερινές ανισότητες στα δομικά στοιχεία του μελλοντικού κόσμου. Και τα σημάδια ότι αυτό ήδη συμβαίνει είναι ξεκάθαρα.
Προσλήψεις
Πρόσφατα αναφέρθηκε ότι το 40% των επιχειρήσεων στο Ηνωμένο Βασίλειο χρησιμοποιούν AI στις διαδικασίες πρόσληψης. Αυτό μπορεί να ακούγεται ως ένας ακίνδυνος τρόπος να απλοποιηθεί η χρονοβόρα διαδικασία, ιδίως όταν τα εργαλεία AI υπόσχονται να επιλέξουν τους υποψήφιους που «ταιριάζουν» καλύτερα. Όμως, αυτά τα μοντέλα εκπαιδεύονται με τεράστιες ποσότητες δεδομένων, που οδηγούν στο να «μαντεύουν» ποιοι υποψήφιοι θα πετύχουν, κάτι που, λόγω των υπαρχουσών ανισοτήτων, μπορεί να τα κάνει να θεωρούν ότι οι λευκοί άνδρες είναι πιο κατάλληλοι για ανώτερες θέσεις.
Ορισμένοι υποστηρίζουν ότι η λύση είναι να κρύβεται το φύλο των υποψηφίων. Ωστόσο, ακόμα και τότε έχει αποδειχτεί ότι οι αλγόριθμοι κάνουν διακρίσεις μέσω υποκατάστατων, εντοπίζοντας λέξεις-κλειδιά στα βιογραφικά, όπως το γυναικείο ομαδικό άθλημα «netball» ή το όνομα ενός σχολείου θηλέων. Άλλη μελέτη έδειξε ότι τα εργαλεία πρόσληψης με βάση την AI κάνουν διακρίσεις ανάλογα με το μοτίβο της ομιλίας.
Είναι αξιοσημείωτο ότι, ακόμα και πριν την υποβολή αίτησης, η AI επηρεάζει τις πιθανότητες των γυναικών να βρουν δουλειά: οι διαφημίσεις για υψηλόβαθμες θέσεις εμφανίζονταν σχεδόν έξι φορές συχνότερα σε άνδρες παρά σε γυναίκες, σύμφωνα με τον αλγόριθμο διαφημίσεων της Google.
Δημιουργία περιεχομένου
Το ChatGPT αριθμεί ήδη 100 εκατομμύρια μηνιαίους χρήστες. Όμως, όπως και άλλα μεγάλα γλωσσικά μοντέλα (LLMs), βασίζεται σε σύνολα δεδομένων που εμπεριέχουν προκαταλήψεις. Έτσι, δεν αναπαράγει μόνο τις ανισότητες, αλλά τις ενισχύει. Μελέτη της Unesco διαπίστωσε «ξεκάθαρες αποδείξεις μεροληψίας» κατά των γυναικών στο περιεχόμενο που παράγεται από δημοφιλείς πλατφόρμες AI. Για παράδειγμα, τα μοντέλα ανέθεταν σε άνδρες επαγγέλματα υψηλού κύρους, όπως «μηχανικός» ή «γιατρός», ενώ για τις γυναίκες ρόλους όπως «οικιακή βοηθός» ή ακόμη και «ιερόδουλη».
Καθώς η χρήση των LLMs αυξάνεται, η επίδραση αυτών των αφηγημάτων εντείνεται. Υπολογίζεται ότι μέχρι το τέλος του έτους, έως και το 30% του διαφημιστικού περιεχομένου των μεγάλων οργανισμών θα παράγεται από AI (από λιγότερο από 2% το 2022).
Αιτήσεις δανείων
Υπάρχει ήδη ένα παγκόσμιο χρηματοδοτικό χάσμα 17 δισ. δολαρίων, το οποίο επηρεάζει σοβαρά την ισότητα των φύλων. Όταν οι γυναίκες δεν είναι οικονομικά ανεξάρτητες, αυξάνεται ο κίνδυνος για προβλήματα όπως η ενδοοικογενειακή βία και οι αναγκαστικοί γάμοι. Οι προγραμματιστές αλγορίθμων, κυρίως Αμερικανοί άνδρες και υψηλού εισοδήματος, δεν εκπροσωπούν το κοινό που βαθμολογούν. Έτσι, το ιστορικό διακρίσεων στις χρηματοδοτήσεις επαναλαμβάνεται μέσω των συστημάτων AI αξιολόγησης πιστοληπτικής ικανότητας.
Ποινική δικαιοσύνη
Το εργαλείο Compas, που χρησιμοποιείται στις ΗΠΑ για αποφάσεις σχετικά με προφυλάκιση και ποινές, «μαντεύει» την πιθανότητα υποτροπής. Όμως, εκπαιδεύεται με βάση υπάρχοντα δεδομένα συλλήψεων, σε μια χώρα όπου η συστημική φυλετική προκατάληψη σημαίνει ότι οι μαύροι δέχονται ελέγχους πέντε φορές συχνότερα από την Αστυνομία χωρίς αιτία. Έτσι, ακόμα και όταν ο αλγόριθμος δεν λαμβάνει υπόψη τη φυλή, αναπαράγει έναν φαύλο κύκλο φυλετικής στοχοποίησης.
Το Compas προβλέπει επίσης υπερβολικά υψηλό κίνδυνο υποτροπής για γυναίκες, οδηγώντας σε άδικες ποινές για κρατούμενες που είναι συχνά θύματα κακοποίησης. Στο Ηνωμένο Βασίλειο, μελέτη έδειξε ότι η χρήση AI για εντοπισμό «επικίνδυνων» περιοχών οδηγεί σε αστυνομικούς που περιμένουν βία και συχνότερα προβαίνουν σε συλλήψεις με βάση την προκατάληψη.
Αναγνώριση προσώπου
Η τεχνολογία αναγνώρισης προσώπου, με ευρεία εφαρμογή από την αστυνόμευση μέχρι την πρόσβαση σε κτίρια, εμφανίζει σοβαρές διακρίσεις. Μελέτες έδειξαν ότι τα προϊόντα μεγάλων εταιρειών είχαν έως και 35% ποσοστό σφάλματος για γυναίκες με σκούρο δέρμα, ενώ για άνδρες με ανοιχτό δέρμα το ποσοστό ήταν μόλις 0,8%.
Υγειονομική περίθαλψη
Αλγόριθμοι που προβλέπουν ηπατική νόσο από αιματολογικές εξετάσεις απέτυχαν να εντοπίσουν τη νόσο στις γυναίκες δύο φορές συχνότερα σε σχέση με τους άνδρες, σύμφωνα με μελέτη του UCL. Στις ΗΠΑ, αλγόριθμος που καθορίζει ποιοι ασθενείς χρειάζονται περισσότερη φροντίδα παρουσίασε φυλετική προκατάληψη, ευνοώντας τους λευκούς ασθενείς έναντι των μαύρων, ακόμα και όταν οι δεύτεροι είχαν πιο σοβαρές παθήσεις. Η μελέτη στο Science εκτίμησε ότι αυτή η μεροληψία μείωσε πάνω από το μισό τον αριθμό των μαύρων ασθενών που εντοπίζονταν ως προτεραιότητα για φροντίδα.
Σχέσεις
Καθώς η κοινωνία παλεύει με τον μισογυνισμό στα social media, εκατομμύρια άνθρωποι κατεβάζουν εφαρμογές AI «συντρόφων», οι οποίες μετατρέπουν τις γυναίκες σε αντικείμενα χωρίς βούληση. Οι εφαρμογές αυτές προβάλλονται ως «ανώτερες» από τις πραγματικές γυναίκες, υποσχόμενες υπακοή και ευχαρίστηση χωρίς συνέπειες. Πολλοί άνδρες τις κακοποιούν εικονικά και μοιράζονται screenshots για να επιδείξουν ποιος μπορεί να κάνει τα πιο χυδαία πράγματα. Το 2023, οι 11 πιο δημοφιλείς AI chatbots στο Google Play Store είχαν συνολικά 100 εκατομμύρια downloads.
Ποιοι φτιάχνουν την AI;
Για να αντιμετωπίσουμε την ανισότητα στην AI, απαιτούνται πολυπολιτισμικές και ισότιμες ομάδες δημιουργίας. Η τεχνολογία από μόνη της δεν είναι μισογυνική, αλλά έχει σοβαρές συνέπειες λόγω των προκατειλημμένων δεδομένων και της έλλειψης διαφορετικότητας στους δημιουργούς. Μόνο το 12% των ερευνητών AI παγκοσμίως είναι γυναίκες και ακόμα κι αν ηγούνται καινοτόμων προσπαθειών για ασφαλή και ηθική AI, οι ομάδες με γυναίκες λαμβάνουν έξι φορές λιγότερη χρηματοδότηση σε σχέση με τους άνδρες συναδέλφους τους.
Η AI υπόσχεται ένα λαμπρό μέλλον με θετικό αντίκτυπο. Αλλά αν δεν προτεραιοποιήσουμε την ισότητα και την ασφάλεια από το στάδιο του σχεδιασμού, κινδυνεύουμε να διαιωνίσουμε προκαταλήψεις και να επιστρέψουμε σε σκοτεινές εποχές. Ελπίζουμε κάποιος να διαβάζει τα ψιλά γράμματα.