Το 2015, όταν ακόμη το ChatGPT δεν υπήρχε στο λεξιλόγιο κανενός, η τεχνητή νοημοσύνη είχε ήδη αρχίσει να επηρεάζει αρκετά όσους αναζητούσαν εργασία. Εκείνη τη χρονιά, η Amazon διαπίστωσε ότι οι αλγόριθμοι μηχανικής μάθησης, τους οποίους χρησιμοποιούσε για να επιταχύνει τη διαδικασία πρόσληψης, ήταν «προκατειλημμένοι» κατά των γυναικών.

Συγκεκριμένα, σύμφωνα με το Reuters, διέγραφαν κατά λάθος βιογραφικά που αναφέρονταν σε οτιδήποτε γυναικείο, π.χ. τις υποψήφιες που μπορεί να είχαν συμμετάσχει σε κάποιο «γυναικείο κλαμπ σκάκι».

Οι αλγόριθμοι είχαν εκπαιδευτεί να αναζητούν υποψηφίους με χαρακτηριστικά που έμοιαζαν με εκείνα όσων είχε προσλάβει παλιότερα η Amazon, αναπαράγοντας ανισότητες μεταξύ των φύλων που προϋπήρχαν ήδη.

Οι αντίστοιχες περιπτώσεις διακρίσεων σε ό,τι αφορά τις προσλήψεις που γίνονται με την τεχνητή νοημοσύνη είναι πάρα πολλές, γι’ αυτό και η Επιτροπή Ίσων Ευκαιριών Απασχόλησης των ΗΠΑ άρχισε να προσφέρει καθοδήγηση στους εργοδότες, ώστε να διασφαλιστεί ότι η AI δεν θα θέσει σε κίνδυνο τις σωστές διαδικασίες πρόσληψης.

«Το μάθημα από αυτήν την υπόθεση της Amazon είναι ότι δεν μπορεί κανείς να αναθέτει την πρόσληψη στην τεχνητή νοημοσύνη πιστεύοντας ότι όλα είναι εντάξει», είπε στο CNBC ο Ifeoma Ajunwa, καθηγητής νομικής στο Πανεπιστήμιο της Βόρειας Καρολίνας.

Όπως επισημαίνει το CNBC, η μεροληψία σε ό,τι αφορά τις προσλήψεις δεν αποτελεί καινούργιο φαινόμενο. Εδώ και πολύ καιρό, κάποιες ομάδες ανθρώπων αγνοούνται αδικαιολόγητα, αλλά όπως προσθέτει ο Ifeoma Ajunwa, η τεχνητή νοημοσύνη αναπαράγει αυτή τη διάκριση σε κλίμακα.

Σε ορισμένες περιοχές, όπως η πόλη της Νέας Υόρκης, οι νομοθέτες αναπτύσσουν πολιτικές για να ρυθμίσουν τα «τυφλά σημεία» της τεχνολογίας, η οποία όμως «είναι πάντα πολύ πιο μπροστά από τους νομοθέτες», λέει η Lindsay Greene, δικηγόρος εργατικού ικαίου.

Πώς η τεχνητή νοημοσύνη επιδεινώνει τις διακρίσεις στις προσλήψεις

Η AI είναι τόσο αμερόληπτη, όσο οι άνθρωποι που την αναπτύσσουν. Σε ό,τι αφορά τις προσλήψεις, υπάρχουν πολλά σημεία, στα οποία οι κωδικοποιημένες προκαταλήψεις στην τεχνητή νοημοσύνη μπορούν να επηρεάσουν τις πιθανότητες των υποψηφίων να εξασφαλίσουν θέσεις εργασίας.

Για παράδειγμα:

  • Η τεχνητή νοημοσύνη παρεξηγεί τα χρονικά κενά ενός βιογραφικού: Σύμφωνα με τον Ajunwa, τα φίλτρα AI μπορεί λανθασμένα να αποκλείουν υποψηφίους με κενά στα βιογραφικά τους. Είναι λιγότερο πιθανό να αποκλείουν αυτόματα τα γεμάτα βιογραφικά, ακόμα κι αν αυτό σημαίνει ότι παρέχουν μόνο μια σύντομη εξήγηση για το διάστημα χωρίς εργασία.
  • Η ΑΙ δεν είναι προγραμματισμένη έτσι ώστε να καταλαβαίνει όλα τα πρόσωπα: Η τεχνητή νοημοσύνη δεν είναι πάντα αρκετά έξυπνη, ώστε να καταλάβει κάθε πρόσωπο από μια φωτογραφία. Για παράδειγμα, όπως λέει ο Ifeoma Ajunwa, το πιο σκούρο δέρμα δεν ερμηνεύεται πάντα από την AI με τον σωστό τρόπο. Επίσης, μπορεί να μην αναγνώσει σωστά τη γλώσσα του σώματος, να παρερμηνεύσει την έκφραση κάποιου που δεν κοιτάει την κάμερα του υπολογιστή και να απορρίψει κάποιον επειδή δεν καταλαβαίνει την προφορά του.
  • Ελέγχοντας τα μέσα κοινωνικής δικτύωσης των υποψηφίων: Σύμφωνα με τη Lindsay Greene, συχνά οι εργοδότες χρησιμοποιούν αυτοματοποιημένη τεχνολογία για να «τσεκάρουν» στο ίντερνετ τα social media των υποψηφίων. Για να αποφύγει κανείς κάτι τέτοιο, θα πρέπει να διατηρεί τους προσωπικούς λογαριασμούς του ιδιωτικούς, αφαιρώντας το περιεχόμενο που μπορεί να δώσει λανθασμένη εντύπωση σε κάποιον υπεύθυνο προσλήψεων.

Διαβάστε ακόμη

Στις αγορές με senior preferred ομόλογο βγαίνει η Alpha Bank – Στόχος 400 εκατ. ευρώ

Ολα όσα συμβαίνουν μέσα στο ΜΙΤ – Ποιοι γίνονται δεκτοί, τα δίδακτρα και τα ασύλληπτα εργαστήρια

Green Tank: Σε τροχιά μείωσης των εκπομπών αερίων θερμοκηπίου η Ελλάδα

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ