Το πρόβλημα της δικαιοσύνης σε έναν αυτοματοποιημένο κόσμο

Η απλή προσθήκη μιας ανθρώπινης διαδικασίας αναθεώρησης σε μια αλγοριθμική απόφαση δεν εξαφανίζει τους δύσκολους συμβιβασμούς

Τι σημαίνει η απόφαση μιας μηχανής να είναι «δίκαιη»; Μέχρι στιγμής, η δημόσια συζήτηση έχει επικεντρωθεί κυρίως στο ζήτημα της προκατάληψης και των διακρίσεων.

  • Αυτό είναι κατανοητό: οι περισσότεροι άνθρωποι θα περίμεναν ότι οι μηχανές θα ήταν λιγότερο προκατειλημμένες από τους ανθρώπους (μάλιστα, αυτό αναφέρεται συχνά ως αιτιολογία για τη χρήση τους σε διαδικασίες όπως η πρόσληψη προσωπικού), οπότε είναι σωστό να δίνεται προσοχή στα στοιχεία που αποδεικνύουν ότι μπορούν να είναι και αυτές προκατειλημμένες.

Αλλά η λέξη «δίκαιη» έχει πολλές ερμηνείες, και το «αμερόληπτη» είναι μόνο μία από αυτές. Βρέθηκα πρόσφατα στο αποδέκτη μιας αυτοματοποιημένης απόφασης, γεγονός που με έκανε να σκεφτώ τι πραγματικά σημαίνει να αισθάνεσαι ότι έχεις τύχει δίκαιης μεταχείρισης και πόσο δύσκολο μπορεί να είναι να διατηρήσεις αυτές τις αρχές σε έναν όλο και πιο αυτοματοποιημένο κόσμο.

  • Έχω έναν προσωπικό λογαριασμό Gmail τον οποίο χρησιμοποιώ για αλληλογραφία σχετικά με ένα έργο βιβλίου στο οποίο εργάζομαι. Ξύπνησα ένα πρωί τον Νοέμβριο και ανακάλυψα ότι δεν είχα πλέον πρόσβαση σε αυτόν.

Ένα μήνυμα από την Google έλεγε ότι η πρόσβασή μου είχε «περιοριστεί παγκοσμίως» επειδή «φαίνεται ότι το Gmail χρησιμοποιήθηκε για την αποστολή ανεπιθύμητου περιεχομένου. Το spam αποτελεί παραβίαση των πολιτικών της Google». Το σημείωμα ανέφερε ότι η απόφαση είχε ληφθεί με «αυτόματη επεξεργασία» και ότι αν πίστευα ότι ήταν λάθος, θα μπορούσα να υποβάλω έφεση.

  • Δεν είχα στείλει κανένα spam και δεν μπορούσα να φανταστώ γιατί ο αλγόριθμος της Google πίστευε ότι το είχα κάνει. Αυτό με δυσκόλευε να ξέρω τι να γράψω στο πλαίσιο κειμένου «έφεση», εκτός από μια πανικόβλητη εκδοχή κάτι σαν:

«Δεν το έκανα (ό,τι κι αν είναι αυτό)!» και «Σας παρακαλώ βοηθήστε με, χρειάζομαι πραγματικά πρόσβαση στο email μου και στα αρχεία μου». (Προς ανακούφισή μου, συνειδητοποίησα αργότερα ότι δεν είχα χάσει την πρόσβαση στο δίσκο μου).

Δύο ημέρες αργότερα, έλαβα απάντηση: «Μετά την εξέταση της προσφυγής σας, η πρόσβαση του λογαριασμού σας παραμένει περιορισμένη για την υπηρεσία αυτή».

  • Δεν μου δόθηκαν περισσότερες πληροφορίες σχετικά με το τι υποτίθεται ότι είχα κάνει ή γιατί απορρίφθηκε η προσφυγή, αλλά μου είπαν ότι «αν διαφωνείτε με αυτή την απόφαση, μπορείτε να υποβάλετε νέα προσφυγή».

Προσπάθησα ξανά και απορρίφθηκε και πάλι. Το έκανα αυτό μερικές ακόμη φορές – από περιέργεια, σε αυτό το σημείο, για το πόσο καιρό θα μπορούσε να συνεχιστεί αυτός ο βρόχος της καταδίκης.

  • Μια ματιά στο Reddit έδειξε ότι και άλλοι άνθρωποι είχαν περάσει παρόμοια πράγματα. Τελικά, τα παράτησα. (Η Google αρνήθηκε να σχολιάσει το ρεκόρ.)

Μεταξύ των ρυθμιστικών αρχών, μια δημοφιλής απάντηση στο ερώτημα πώς να γίνουν οι αυτοματοποιημένες αποφάσεις πιο «δίκαιες» είναι να επιμείνουμε ότι οι άνθρωποι μπορούν να ζητήσουν από έναν άνθρωπο να τις εξετάσει.

  • Αλλά πόσο αποτελεσματική είναι αυτή η θεραπεία;

Πρώτον, οι άνθρωποι είναι επιρρεπείς στην «αυτοματοποιημένη αυταρέσκεια» – μια τάση να εμπιστεύονται υπερβολικά τη μηχανή.

Στην περίπτωση του σκανδάλου των ταχυδρομείων του Ηνωμένου Βασιλείου, για παράδειγμα, όπου οι υποδιοικητές των ταχυδρομείων κατηγορήθηκαν εσφαλμένα για κλοπή λόγω ενός ελαττωματικού συστήματος υπολογιστή που ονομάζεται Horizon, ένας δικαστής το 2019 κατέληξε στο συμπέρασμα ότι οι άνθρωποι στα ταχυδρομεία επέδειξαν «μια απλή θεσμική εμμονή ή άρνηση να εξετάσουν τυχόν εναλλακτικές λύσεις στην άποψή τους για το Horizon».

  • Ο Ben Green, ειδικός σε θέματα αλγοριθμικής δικαιοσύνης στο Πανεπιστήμιο του Μίσιγκαν, λέει ότι μπορεί να υπάρχουν και πρακτικά προβλήματα σε ορισμένους οργανισμούς. «Συχνά οι ανθρώπινοι επόπτες έχουν σφιχτό χρονοδιάγραμμα – έχουν πολλές υποθέσεις να εξετάσουν», μου είπε.

«Πολλές από τις περιπτώσεις που έχω εξετάσει είναι περιπτώσεις όπου η απόφαση βασίζεται σε κάποιο είδος στατιστικής πρόβλεψης», είπε, αλλά “οι άνθρωποι δεν είναι πολύ καλοί στο να κάνουν αυτές τις προβλέψεις, οπότε γιατί να είναι καλοί στην αξιολόγησή τους;”.

  • Μόλις καταλάγιασε η ανίσχυρη οργή μου για το ηλεκτρονικό μου ταχυδρομείο, διαπίστωσα ότι είχα κάποια συμπάθεια για την Google. Με τόσους πολλούς πελάτες, ένα αυτοματοποιημένο σύστημα είναι ο μόνος πρακτικός τρόπος για τον εντοπισμό παραβιάσεων των πολιτικών της.

Και ενώ αισθανόμουν βαθιά άδικο να πρέπει να υπερασπιστώ την υπόθεσή μου χωρίς να γνωρίζω τι είχε ενεργοποιήσει το σύστημα, ούτε κάποια εξήγηση για τις παγίδες που έπρεπε να αποφύγω σε μια προσφυγή, μπορούσα επίσης να καταλάβω ότι όσο περισσότερες λεπτομέρειες προσέφερε η Google σχετικά με τον τρόπο λειτουργίας του συστήματος, τόσο πιο εύκολο θα ήταν για τους κακούς να το παρακάμψουν.

  • Αλλά αυτό είναι το θέμα. Στα ολοένα και περισσότερο αυτοματοποιημένα συστήματα, ο στόχος της διαδικαστικής δικαιοσύνης – να αισθάνονται οι άνθρωποι ότι η διαδικασία ήταν δίκαιη απέναντί τους – συχνά έρχεται σε σύγκρουση με άλλους στόχους, όπως η ανάγκη για αποτελεσματικότητα, προστασία της ιδιωτικής ζωής ή ασφάλεια. Δεν υπάρχει εύκολος τρόπος να εξαφανιστούν αυτές οι αντιπαραθέσεις.

Όσον αφορά το λογαριασμό ηλεκτρονικού ταχυδρομείου μου, όταν αποφάσισα να γράψω για την εμπειρία μου σε αυτή τη στήλη, έστειλα μήνυμα ηλεκτρονικού ταχυδρομείου στο γραφείο Τύπου της Google με τις λεπτομέρειες για να δω αν θα μπορούσα να συζητήσω το θέμα.

  • Μέχρι το τέλος της ημέρας, η πρόσβασή μου στο λογαριασμό ηλεκτρονικού ταχυδρομείου μου είχε αποκατασταθεί. Χάρηκα, φυσικά, αλλά δεν νομίζω ότι πολλοί άνθρωποι θα το θεωρούσαν αυτό ως ιδιαίτερα δίκαιο.

Τ.Σ.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο