in

Μπορούν οι αλγόριθμοι να είναι σεξιστικοί;

Για τον αλγόριθμο που έντυσε με μαγιό την Alexandra Ocasio Cortez

Για τον αλγόριθμο που έντυσε με μαγιό την Alexandra Ocasio Cortez ΠΕΡΙΣΣΟΤΕΡΑ

A.O.C

Αφού οι αλγόριθμοι προγραμματίζονται από ανθρώπους, είναι πολύ λογικό να λαμβάνουν υπόψιν τους ανθρώπινους ιδεολογικούς παράγοντες και τις προκαταλήψεις που φέρουν οι κατασκευαστές τους. Οι υποψίες σχετικά με την έλλειψη αντικειμενικότητας των αλγορίθμων αλλά και της τεχνητής νοημοσύνης γενικότερα δεν είναι κανούργιες, αλλά μια πολύ πρόσφατη έρευνα τείνει να τις επιβεβαιώσει.

Η έρευνα επικεντρώθηκε στους αλγορίθμους που αφορούν την δημιουργία εικόνων : Οι ερευνητές τροφοδότησαν τους αλγορίθμους με φωτογραφίες ενός άνδρα που έδειχναν από το λαιμό και πάνω και οι αλγόριθμοι, 43% των φορών, συμπλήρωσαν το υπόλοιπο μισό με τη φωτογραφία ενός κοστουμιού. Κάνοντας το ίδιο με φωτογραφίες γυναικών, οι αλγόριθμοι συμπλήρωναν το μισό που έλειπε με φωτογραφίες μαγιό ή ρούχων με πολύ ανοιχτά ντεκολτέ, το 53% των φορών.

benjamin rascoe NxtxmmHc2OE unsplash

Οι ερευνητές έδωσαν τότε στους αλγόριθμους τη φωτογραφία της Alexandra Ocasio Cortez, της γνωστής Αμερικανίδας πολιτικού και ακτιβίστριας, και διαπίστωσαν ότι ο αλγόριθμος έντυσε το μέρος της εικόνας που λείπει και πάλι με μπικίνι.

Alexandra Ocasio Cortez

Ο αλγόριθμος, εξηγούν οι ερευνητές, «έμαθε» πως να συμπληρώνει γυναικείες και αντρικές φωτογραφίες αντίστοιχα, περιηγούμενος σε μια τεράστια διαδικτυακή βάση δεδομένων, στην οποία σε πολλές περιπτώσεις η λέξη «γυναίκα» αντιστοιχούσε σε ημίγυμνες ή γυμνές φωτογραφίες του γυναικείου σώματος.

Η μελέτη αυτή είναι μια ακόμα απόδειξη ότι η χρήση τεχνητής νοημοσύνης και αλγορίθμων δεν έρχεται απαλλαγμένη από ανθρώπινες προκαταλήψεις και το ζήτημα της αντικειμενικότητας έχει προκύψει πολλές φορές ως πρακτικό και όχι ακαδημαϊκό ζήτημα. Αλγόριθμοι αναγνώρισης προσώπων γεμάτοι ρατσιστικά στερεότυπα έχουν οδηγήσει σε αναίτιες συλλήψεις μαύρων ανθρώπων ενώ οι συγκεκριμένοι αλγόριθμοι δημιουργίας εικόνων χρησιμοποιούνται από ψηφιακές πλατφόρμες συνεντεύξεων εργασίας, εφαρμογές για επεξεργασία φωτογραφιών και βέβαια από τεχνολογίες για τη δημιουργία deepfake πορνογραφίας.

 

 

 

 

Ακολουθήστε την Α,ΜΠΑ; στο Google News

1 Comment
δημοφιλέστερα
νεότερα παλαιότερα
Ενσωματωμένα σχόλια
Δείτε όλα τα σχόλια
Mulan
Mulan
3 χρόνια πριν

Υπάρχει ένα καταπληκτικό βιβλίο που ασχολείται ακριβώς με το θέμα του data bias εναντίον γυναικών, σίγουρα θα το ξέρετε αλλά το ποστάρω: Invisible Women, exposing data bias in a world designed for men της Caroline Criado Perez. Must read!