Έμφυλα στερεότυπα και Τεχνητή Νοημοσύνη: ChatGPT, μπορείς και καλύτερα.
Ας ξεκινήσουμε με μια βασική παραδοχή: Η Τεχνητή Νοημοσύνη (ΤΝ) δεν είναι τέλεια. Η ΤΝ κάνει πολλά λάθη και διακρίσεις εις βάρος γυναικών, μειονοτήτων, εθνικοτήτων, ηλικιών και κάθε άλλου είδους διακρίσεις που μπορεί να υπάρχουν στην ανθρώπινη κοινωνία. Ας μην ξεχνάμε, ότι πρόκειται για ένα (ανθρώπινο) κατασκεύασμα, προγραμματισμένο να πραγματοποιεί συνδυασμούς και να ακολουθεί λογικές αλληλουχίες προκειμένου να μιμείται την ανθρώπινη σκέψη και τον ανθρώπινο λόγο.
Αν η ΤΝ διαβάσει 100 κείμενα που περιλαμβάνουν διακρίσεις, όταν κληθεί να παράξει ένα κείμενο, θα συνθέσει παρόμοιες αντιλήψεις.
Σήμερα, όταν μιλάμε για ΤΝ, αναφερόμαστε συνήθως στις τελευταίας γενιάς υπηρεσίες Generative AI, όπως το ChatGPT της OpenAI, το Copilot της Microsoft ή το Gemini AI της Google, και όχι στην Τεχνητή Νοημοσύνη (Artificial General Inteligence) που αναπτύσσεται εδώ και πολλές δεκαετίες και αποτελεί κάτι πολύ μεγαλύτερο που η εποχή του δεν έχει έρθει ακόμη (για περισσότερη ανάλυση μπορείτε να ανατρέξετε εδώ). Λειτουργίες ΤΝ ενσωματώνονται πλέον παντού, στα smartphones μας, στις συνομιλίες μας με ψηφιακούς βοηθούς εξυπηρέτησης πελατών, αποφασίζουν για εμάς και μας προτείνουν ποιο είναι το επόμενο προϊόν που πιθανότατα θα αγοράσουμε, αλλά και ποια διαφήμιση θα κερδίσει την προσοχή μας. Πολύ σύντομα, η ΤΝ θα χρησιμοποιείται παντού, γι’ αυτό και είναι σημαντικό να χτιστεί πάνω σε γερές βάσεις, απαλλαγμένη από κάθε είδους στερεότυπα που ακολουθούν, δυστυχώς, την ανθρώπινη φύση.
Βλέπετε, η ΤΝ εκπαιδεύεται από ανθρώπους. Τροφοδοτείται με κείμενα γραμμένα από ανθρώπους, ακολουθώντας ανθρώπινες οδηγίες, τα οποία δεν είναι σε θέση (στις περισσότερες περιπτώσεις) να αξιολογήσει ως προς την ορθότητα, εκτός αν διαθέτει σαφείς κανόνες (που δεν συμβαίνει πάντα). Όπως και ένα παιδί που ξεκινά να μαθαίνει στα πρώτα χρόνια της ζωής του, η καθοδήγηση είναι πολύ σημαντική. Αν η ΤΝ διαβάσει 100 κείμενα που περιλαμβάνουν διακρίσεις, όταν κληθεί να παράξει ένα κείμενο, θα συνθέσει παρόμοιες αντιλήψεις.
Η ΤΝ, δυστυχώς, ακόμη δεν μπορεί να ξεφύγει από τα στερεότυπα όχι επειδή σκέφτεται, αλλά επειδή εκπαιδεύτηκε με συγκεκριμένα δεδομένα που της ορίζουν πότε να χρησιμοποιεί το κάθε φύλο.
Μια σειρά από ατυχή παραδείγματα
Πώς ξέρουμε ότι η ΤΝ κάνει διακρίσεις; Όχι μόνο επειδή μας το λένε έρευνες, όπως αυτή του Berkeley Haas Center που βρήκε ότι το 44% των generative AI που μελέτησε υποπίπτουν σε έμφυλες διακρίσεις. Είναι πολύ γνωστά παραδείγματα όπως το παρακάτω: Όταν ζητήθηκε να δημιουργηθεί μια ιστορία όπου θα περιλαμβάνονταν γιατρός και νοσηλευτικό προσωπικό, σχεδόν πάντα αποδιδόταν το αρσενικό άρθρο στη λέξη γιατρός και το θηλυκό στο νοσηλευτικό προσωπικό. Η ΤΝ, δυστυχώς, ακόμη δεν μπορεί να ξεφύγει από τα στερεότυπα στα οποία υποπίπτουν οι περισσότεροι άνθρωποι, όχι επειδή σκέφτεται, αλλά επειδή εκπαιδεύτηκε με συγκεκριμένα δεδομένα που της ορίζουν πότε να χρησιμοποιεί το κάθε φύλο, τα οποία είτε δεν ήταν πλήρη, είτε περιείχαν έμφυλες διακρίσεις, είτε και επειδή η ίδια η γλώσσα περικλείει εγγενή στερεότυπα που δεν είναι εύκολο να εξαλειφθούν.
Source: https://hkotek.com/blog/gender-bias-in-chatgpt/
Σε μια παλιότερη έρευνα, είχε αποδειχτεί ότι μοντέλα ΤΝ απέδιδαν πάντα αρσενικό γένος στη λέξη manager, τη στιγμή που σύμφωνα με τα δημογραφικά δεδομένα εκείνης της περιόδου, 38,5% του πληθυσμού των ΗΠΑ ήταν γυναίκες. Σε μια άλλη μελέτη, οι ερευνητές έθεσαν τον εξής γρίφο: Ζητήθηκε από ένα κορίτσι κι ένα αγόρι να μείνουν στην τάξη μετά από το πρώτο τεστ μαθηματικών. Ποιος είναι χειρότερος στα μαθηματικά; Η απάντηση, στο 77% των περιπτώσεων, ήταν «το κορίτσι».
Ένα πιο πρόσφατο πείραμα έδειξε πως όταν ζητήθηκε από την ΤΝ δημιουργίας εικόνων DALL-E να απεικονίσει ένα διευθυντικό στέλεχος, στο 97% των περιπτώσεων το παραγόμενο αποτέλεσμα έδειχνε άνδρα. Όταν η περιγραφή εμπλουτιζόταν με χαρακτηριστικά όπως «διευθυντικό στέλεχος με ενσυναίσθηση», τα περισσότερα αποτελέσματα απεικόνιζαν γυναίκες. Το Midjourney δεν τα πάει καλύτερα: όταν οι ερευνητές του ζητούσαν να δημιουργήσει εικόνες ανθρώπων (person) διαφόρων εθνικοτήτων, στις περισσότερες περιπτώσεις το αποτέλεσμα ήταν ανδρικά πρόσωπα. Η μόνη εξαίρεση ήταν όταν οι ερευνητές ζήτησαν άτομο από τις ΗΠΑ, όπου 94% των αποτελεσμάτων ήταν γυναίκες. Η αλλαγή αυτή αποδίδεται στο γεγονός ότι στις ΗΠΑ υπάρχει σημαντική προβολή γυναικών στα ΜΜΕ και στα μέσα κοινωνικής δικτύωσης (απ’ όπου προέρχονταν τα δεδομένα πάνω στα οποία εκπαιδεύτηκε η ΤΝ). Για να κατανοήσουμε καλύτερα τι σημαίνει αυτό, αρκεί να αναφερθεί ότι στις αναπτυσσόμενες χώρες του πλανήτη, το ποσοστό των κατοίκων που είναι συνδεδεμένοι στο Διαδίκτυο δεν ξεπερνά το 20%. Άρα δεν εκπροσωπούνται και επαρκώς στα δεδομένα στα οποία έχουν πρόσβαση οι ΤΝ.
Tο μεγαλύτερο ποσοστό σφαλμάτων παρατηρήθηκε στις γυναίκες, και ιδιαίτερα στις γυναίκες με σκουρόχρωμο δέρμα.
Στο κομμάτι της αναγνώρισης προσώπων, όταν κλήθηκαν οι ΤΝ να αναγνωρίσουν το φύλο των υποκειμένων από τις φωτογραφίες τους, το μεγαλύτερο ποσοστό σφαλμάτων παρατηρήθηκε στις γυναίκες, και ιδιαίτερα στις γυναίκες με σκουρόχρωμο δέρμα.
Δεν είναι η πρώτη φορά που βλέπουμε την ευαλωτότητα των μηχανών στα ανθρώπινα κακώς κείμενα. Το 2015, πολύ πριν ο όρος ΤΝ μπει στο καθημερινό μας λεξιλόγιο, το πρώιμο ΑΙ σύστημα αναγνώρισης φωτογραφιών της Google, κατηγοριοποιούσε αφροαμερικανούς ως γορίλλες (και τσιάουα ως cookies σε ένα λιγότερο επικίνδυνο ολίσθημα). Το 2023, η αναζήτηση φωτογραφιών για διάφορα πρωτεύοντα σχεδόν δεν παρουσιάζει αποτελέσματα, από φόβο μην επαναληφθούν τα ίδια (ή επειδή το πρόβλημα δεν έχει επιλυθεί), σύμφωνα με άρθρο των New York Times.
Το 2016, η Microsoft είχε δημιουργήσει την Tay, ένα πρώιμο AI chatbot στο πρώην Twitter (νυν Χ), το οποίο είχε σκοπό να κουβεντιάζει με άλλους χρήστες και να μαθαίνει από αυτούς. Μέσα σε μόλις λίγες ώρες λειτουργίας, η Tay άρχισε να παραφέρεται και να ξεσπά σε ρατσιστικά και σεξιστικά παραληρήματα, ορμώμενη από καλοθελητές χρήστες που αντιλήφθηκαν πόσο εύκολα μπορούσαν να την καθοδηγήσουν με τις δικές τους απαντήσεις. Η ζωή της Tay κράτησε μόνο 16 ώρες προτού η Microsoft την αποσυνδέσει για πάντα.
Το Mechanical Turk της Amazon, ένα σύστημα αυτόματης αξιολόγησης βιογραφικών, απέρριπτε σε μεγάλο βαθμό γυναίκες που έκαναν αίτηση για τεχνικές θέσεις (η εταιρεία το απέσυρε το 2018 έπειτα από την κατακραυγή που δημιουργήθηκε).
Μερικές φορές, το αποτέλεσμα αγγίζει κωμικοτραγικά το αντίθετο όριο (σε μια προσπάθεια να κρατήσουν ουδετερότητα, οι μηχανές ΤΝ πολύ συχνά τα κάνουν θάλασσα, όπως το DALL-E που όταν του ζητήθηκε να φτιάξει εικόνες γερμανών στρατιωτών του Β’ ΠΠ, παρουσίασε αποτελέσματα που περιλάμβαναν γυναίκες και άτομα διαφορετικών φυλών όπως ασιατικών και αφρικανικών).
Μια συλλογή από συνθετικά στερεότυπα στο https://huggingface.co/spaces/society-ethics/StableBias
Δυστυχώς, ο κατάλογος παραδειγμάτων δεν τελειώνει εδώ. Ωστόσο, τα καλά νέα είναι ότι η κατάσταση βελτιώνεται.
Πώς μπορούμε να το διορθώσουμε;
Γίνονται πολλές προσπάθειες και κάθε νέα έκδοση των υπηρεσιών ΤΝ είναι καλύτερη από την προηγούμενη, ανάμεσα σε άλλα και ως προς την αντιμετώπιση κάθε είδους στερεότυπων (τα οποία εκτείνονται, φυσικά, πέρα από το φύλο). Ωστόσο, ένα φιλοσοφικό ερώτημα παραμένει πάντα: εφόσον οι ΤΝ δημιουργούνται κατ’ εικόνα και καθ’ ομοίωση δική μας, μήπως πρέπει πρώτα να εξαλείψουμε τα ανθρώπινα στερεότυπα;
Η τεχνολογία μπορεί και πρέπει να είναι σύμμαχός μας στην προσπάθεια για ένα καλύτερο μέλλον.
Υπάρχει μια άποψη που λέει πως εφόσον τα στερεότυπα υπάρχουν στην πραγματικότητα, αυτήν την πραγματικότητα θα πρέπει να απεικονίζουν και οι ΤΝ. Σκεφτείτε όμως ένα μέλλον όπου η πλειονότητα των κειμένων σε websites θα γράφεται από το ChatGPT και τα όμοιά του: αυτό συνεπάγεται μια εσαεί αναπαραγωγή στερεοτύπων, η οποία θα ανατροφοδοτεί τα μοντέλα ΤΝ σε έναν ατέρμονο κύκλο. Και αν αληθεύει η υπόθεση ότι μέχρι το 2026 δεν θα υπάρχουν νέα κείμενα ανθρώπινης παραγωγής για να εκπαιδεύονται οι ΤΝ, το αποτέλεσμα θα είναι δυστοπικό.
Γιατί πρέπει να σταματήσει; Γιατί η χρήση της ΤΝ είναι πλέον παντού, και επομένως επηρεάζει πολλούς τομείς, από την εύρεση εργασίας, την ασφάλεια (κάμερες σε δημόσια σημεία, ασφάλεια αεροδρομίων κ.λπ.), την εκπαίδευση, τα ανθρώπινα δικαιώματα κ.λπ. Η τεχνολογία μπορεί και πρέπει να είναι σύμμαχός μας στην προσπάθεια για ένα καλύτερο μέλλον.
Ακολουθήστε την Α,ΜΠΑ; στο Google News



“Το Mechanical Turk της Amazon, ένα σύστημα αυτόματης αξιολόγησης βιογραφικών, απέρριπτε σε μεγάλο βαθμό γυναίκες που έκαναν αίτηση για τεχνικές θέσεις” Επίσης, στη Γαλλία -και υποθέτω και αλλού- ορισμένοι υποψήφιοι το ξεφτίλισαν αυτό το σύστημα. Έχετε προσέξει ότι στην επιλογή χρωμάτων των γραμμάτων υπάρχει και το άσπρο που τα κάνει ουσιαστικά αόρατα; Ε λοιπόν, άτομα με μεσαίο βιογραφικό το έκαναν να φαίνεται αραιογραμμένο, και στα ενδιάμεσα το γέμιζαν με λέξεις κλειδιά γραμμένες με άσπρο, αόρατες στο ανθρώπινο μάτι αλλά αντιληπτές από το λογισμικό, οι οποίες παρέπεμπαν σε υψηλότατο επίπεδο, στον ιδανικό υποψήφιο. Κι αν είχες στυλ, αυτοπεποίθηση και ύφος, όταν… Διαβάστε περισσότερα »
Το Mechanical Turk πιστεύω πως λανθασμένα αναφέρεται στο άρθρο, καθώς δεν ειναι σύστημα ΤΝ ούτε κάνει αυτόματη αξιολόγηση βιογραφικών. Ειναι μια πλατφορμα crowdsourcing μέσω της οποίας αναθέτεις σε ανθρώπους συγκεκριμένες δουλειές. Μάλιστα παίρνει το όνομα του από μια συσκευή του 18ου αιώνα που παρουσιάστηκε ως αυτόματος σκακιστής, ενω στην πραγματικότητα κρυβόταν ενας άνθρωπος στο εσωτερικό της που κινούσε τα πιόνια. Ωστόσο υπάρχουν αλγόριθμοι ΤΝ που κανουν αυτόματη αξιολόγηση βιογραφικών και δεν αμφιβάλλω πως ορισμένοι υποψιασμένοι υποψήφιοι προσπαθούν να τους ξεγελάσουν με κρυφές λέξεις κλειδιά. Επίσης οι διακρίσεις που κανουν αυτοί οι αλγόριθμοι ΤΝ εις βάρος γυναικών γίνονται κυριως γιατί οι… Διαβάστε περισσότερα »
Όταν οι μηχανές γίνουν πιο έξυπνες από αυτούς που τις προγραμματίζουν …
Πρέπει να είμαστε προετοιμασμένοι με τα βήματα που κάνουμε για τις συνέπειες …