in

Η Amazon αποσύρει εργαλείο τεχνητής νοημοσύνης που έδειξε σημάδια προκατάληψης κατά των γυναικών

Tο νέο μηχάνημα βαθμολόγησης φάνηκε να μην συμπαθεί τις γυναίκες

Με βάση τo πειραματικό εργαλείο βαθμολόγησης που χρησιμοποιούν οι αγοραστές για να αξιολογούν τα προϊόντα της Amazon, δημιουργήθηκε ένα αυτοματοποιημένο σύστημα προσλήψεων που χρησιμοποιούσε τεχνητή νοημοσύνη, ώστε να μπορεί να βαθμολογεί τους υποψήφιους σε κλίμακα από 1 εως 5 αστέρια ΠΕΡΙΣΣΟΤΕΡΑ

Amazon

Με βάση τo πειραματικό εργαλείο βαθμολόγησης που χρησιμοποιούν οι αγοραστές για να αξιολογούν τα προϊόντα της Amazon, δημιουργήθηκε ένα αυτοματοποιημένο σύστημα προσλήψεων που χρησιμοποιούσε τεχνητή νοημοσύνη, ώστε να μπορεί να βαθμολογεί τους υποψήφιους σε κλίμακα από 1 εως 5 αστέρια.

«Όλοι ήθελαν αυτό το άγιο εργαλείο» αναφέρει ένας εκ των εργαζομένων. «Ήθελαν κυριολεκτικά ένα μηχάνημα που όταν θα του έδιναν 100 βιογραφικά, αυτό θα επέλεγε κατευθείαν 5. Έτσι κάναμε προσλήψεις»

Σε μια δήλωση ένας αντιπρόσωπος της Amazon είπε ότι το εργαλείο δεν χρησιμοποιήθηκε ποτέ από τους υπεύθυνους πρόσληψης προσωπικού για την αξιολόγηση των υποψηφίων.

Σύμφωνα με το Reuters, η Amazon ασχολήθηκε με τη δημιουργία της τεχνητής νοημοσύνης για να βοηθήσει κατά τη διαδικασία πρόσληψης ανθρώπων, αλλά το πλάνο τινάχτηκε στον αέρα όταν ανακάλυψε πως το σύστημα έκανε διακρίσεις κατά των γυναικών.

Το 2015, η εταιρεία αντιλήφθηκε ότι η αξιολόγηση δεν ήταν ουδέτερη ως προς το φύλο του υποψηφίου.

Όπως ισχυρίστηκε η Amazon το σύστημα τεχνητής νοημοσύνης- που χρησιμοποιήθηκε ειδικότερα για θέσεις προγραμματιστών και τεχνικών- εκπαιδεύτηκε σε δεδομένα που είχαν καθοριστεί μια δεκαετία πριν. Τα πρότυπα που καθόριζαν την επιλογή είχαν υποβληθεί κυρίως από άντρες, κάνοντας πιο έντονη την αντανάκλαση της κυριαρχίας των ανδρών μέσα στη βιομηχανία της τεχνολογίας.

Το σύστημα φάνηκε να «τιμωρεί», βαθμολογώντας λιγότερο, βιογραφικά με τη λέξη «γυναίκες», όπως στην περίπτωση που μία υποψήφια έγραφε ότι ήταν «αρχηγός της γυναικείας ομάδας σκακιού». Επίσης υποβάθμισε τα βιογραφικά υποψήφιων που ήταν απόφοιτοι γυναικείων κολεγίων.

Ωστόσο διάφορες πηγές υποστηρίζουν πως η Amazon δεν βασίστηκε ποτέ εξ ολοκλήρου σε αυτά τα εργαλεία πρόσληψης, κάνοντας διάφορες τροποποιήσεις στο σύστημα ώστε να μην προβαίνει σε έμφυλες διακρίσεις. Τελικά οι διακρίσεις λόγω φύλου μαζί με άλλα προβλήματα που παρουσίαζε το πρόγραμμα (πχ.πρότεινε υποψηφίους που δεν διέθεταν τα κατάλληλα προσόντα) οδήγησαν στην οριστική διακοπή του, στις αρχές της προηγούμενης χρονιάς.

Καταγραφή 73
Τα τελευταία στοιχεία των εταιρειών από το 2017
Reuters Graphics by Han Huang

«Σίγουρα δεν θα εμπιστευόμουν το σύστημα τεχνητής νοημοσύνης να λάβει μία απόφαση πρόσληψης από μόνο του», είπε ο αντιπρόεδρος της εταιρίας Linkedln Talent Solutions στον John Persin του Reuters.

Τα υπολογιστικά μοντέλα βασίστηκαν σε αλγορίθμους που δεν αξιολογούσαν τις κοινές ικανότητες. Αντ’αυτού ευνοούσε υποψηφίους που χρησιμοποιούσαν ρήματα που συναντούσε κανείς συνήθως στα βιογραφικά ανδρών υποψηφίων, όπως «εκτέλεσα» και «αντιλήφθηκα».

Οι προσπάθειες άλλων εταιρειών, να αυτοματοποιήσουν τις διαδικασίες επιλογής προσωπικού διεκόπησαν μετά από αυτό. Παρόλ’αυτα περίπου το 55% των μάνατζερ ανθρωπίνου δυναμικού δήλωσαν ότι επιθυμούν να γίνει η τεχνητή νοημοσύνη καθημερινό κομμάτι της δουλειάς τους μέσα στα επόμενα πέντε χρόνια, σύμφωνα με έρευνα του 2017 που διεξήχθη από την εταιρία CareerBuilder.

Ακολουθήστε την Α,ΜΠΑ; στο Google News

1 Comment
δημοφιλέστερα
νεότερα παλαιότερα
Ενσωματωμένα σχόλια
Δείτε όλα τα σχόλια
ντε
ντε
5 χρόνια πριν

έφταιγε η “τεχνητή νοημοσύνη” και την έκοψαν;
νομίζω αν το διαβάσει κανείς καλύτερα θα καταλάβει ότι πρόκειται για έναν αλγόριθμο που κατασκευάστηκε από μια εταιρία, δηλαδή από ανθρώπους, οι οποίοι έκαναν την επιλογή του τι να κατατάσσεται ως “καλό”.
επομένως;
κακοί υπολογιστές που δείχνετε προτίμηση με βάση το φύλο… 😀