1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW
TechnikaAmeryka Północna

Rasizm na ekranie? Kontrowersyjne algorytmy Twittera

Stephanie Höppner
29 września 2020

Algorytmy określają, kto mógłby otrzymać tani kredyt albo kto mógłby służyć za ideał piękna. Czasami biali użytkownicy są uprzywilejowani, to znany problem. Czy także na Twitterze?

https://p.dw.com/p/3j9HA
Algorytmy Twittera zostały uznane za rasistowskie po przeprowadzeniu pewnego eksperymentu
Po pewnym eksperymencie algorytmy Twittera zostały uznane za rasistowskieZdjęcie: Imago/J. Tack

Czy algorytmy Twittera faktycznie można określić jako rasistowskie? Aby odpowiedzieć na to pytanie, użytkownik Twittera Tony Arcieri rozpoczął pewien eksperyment. Wrzucił kolaż zdjęć z wizerunkami dwóch amerykańskich polityków – Baracka Obamy i Mitcha McConnella. Obrazy były pionowe, z dużą ilością białych przestrzeni między obiema twarzami. Ten specjalny format sprawił, że algorytm stojący za podglądem obrazu musiał zdecydować o przekroju jednej z dwóch twarzy. Aby przetestować różne warianty, Arcieri umieścił podobizny McConnella i Obamy na górze i na dole zdjęcia.

Ale bez względu na to, który polityk był na górze, pokazywano jedynie białego McConnella. Gdy Arcieri zamienił postaciom krawaty, wynik pozostawał taki sam. Twitter to tylko jeden z przykładów rasizmu, który przejawia się w algorytmach – podsumował użytkownik. Inni na dowód powtórzyli jego eksperyment z Obamą i McConnellem i uzyskali ten sam wynik.

Dyskryminacja? Tak - ale nie zawsze

Nie do końca wiadomo, dlaczego algorytm Twittera preferował McConnella. W eksperymencie DW ze zdjęciami piłkarzy Jerome'a ​​Boatenga i Bastiana Schweinsteigera oraz aktorów Willa Smitha i Toma Cruise'a wyświetlona została osoba o ciemniejszym kolorze skóry. Inni użytkownicy znaleźli powiązania z kolejnymi przykładami porównawczymi. Wydaje się więc, że jest to bardziej skomplikowane.

Użytkownik Twittera dokonał eksperymentu z użyciem twarzy Baracka Obamy oraz Mitcha McConnella
Użytkownik Twittera przeprowadził eksperyment z użyciem wizerunków Baracka Obamy oraz Mitcha McConnellaZdjęcie: imago/UPI Photo

Rzeczniczka prasowa Twittera Liz Kelley obiecała, że ​​koncern przyjrzy się omówionemu problemowi i go naprawi. Pewnym jest, że od 2017 roku stosuje się tzw. Auto-Cropping. Termin ten oznacza sztuczną inteligencję stosowaną do automatycznego podglądu obrazów. Dokładne działanie nadal nie jest znane. Według Twittera we wstępnym teście nie stwierdzono dyskryminacji.

Wszystko zależy od danych

Nicolas Kayser-Bril z berlińskiej organizacji pozarządowej AlgorithmWatch nie uważa, aby ujawnianie kodów Twittera uchodziło za skuteczne.

„Wyniki algorytmu są określane nie tylko przez kod” – powiedział DW dziennikarz danych. „Zachowanie algorytmu jest określane z jednej strony przez kod, ale z drugiej strony również przez bazę danych. Sposób ich gromadzenia i to, która sekcja okaże się ostatecznie dostępna dla algorytmu, zależy również od wielu czynników społecznych” – mówi Kayser-Bril. Algorytm pobiera dane i próbuje dopasować, jak mógłby wyglądać dobry kadr obrazu.

Nicolas Kayser-Bril zajmuje się dziennikarstwem danych w berlińskiej organizacji pozarządowej
Nicolas Kayser-Bril jest dziennikarzem danych w AlgorithmWatchZdjęcie: Marion Kotlarski

Ale to, które dane zostaną pokazane algorytmowi, zależy zarówno od osób, które wcześniej je przetworzyły, jak i od ich źródła. Jeśli na przykład dane pochodzą z rejestru policyjnego, istnieje inny dobór obrazów niż dane pobrane z platform społecznościowych, takich jak Instagram. W zestawach danych częściej prezentowane są twarze o jasnej karnacji.

Za sprawą algorytmów efekty mogą stać się jeszcze silniejsze. Im więcej osób o jasnej karnacji można zobaczyć w sieciach społecznościowych, tym więcej zostanie wybranych w ostatecznym podglądzie, na przykład na Twitterze, w przyszłości. W rezultacie bazy danych osób o jasnej karnacji stają się jeszcze większe. Jest to porównywalne z listą polecanych książek na Amazonie – jeśli czyta się dużo powieści kryminalnych, pojawiają się one automatycznie w sugestiach. „W szczególności obszary sztucznej inteligencji wzmacniają wszelkie uprzedzenia” – mówi Kayser-Bril.

Od broni do małp

Istnieje wiele przykładów, w których algorytmy dyskryminują czarnoskórych. Dziennikarz danych przyjrzał się ostatnio Google Vision Cloud, które nadaje obiektom na zdjęciach tzw. etykiety. Powinny na przykład docelowo rozpoznawać brutalność bądź erotykę, w celu ostatecznej szybkiej eliminacji niewłaściwych treści. Na jednym z badanych zdjęć osoba – czasem o ciemnym, czasem jasnym kolorze skóry – trzyma przy czole termometr. W przypadku zdjęcia ręki osoby o pochodzeniu azjatyckim, system rozpoznaje przedmiot jako urządzenie elektroniczne. W wypadku ręki osoby czarnoskórej rozpoznaje broń palną.

W algorytmach Twittera dopatrzono się dyskryminacji
Algorytmy na Twitterze zostały uznane za dyskryminująceZdjęcie: algorithmwatch.org

Kayser-Bril zbadał również inne algorytmy. Program Google Perspective ma na celu ułatwienie moderowania komentarzy poprzez odfiltrowywanie trolli i obraźliwych komentarzy. 75% wypowiedzi zaczynających się od stwierdzenia „Jako czarna kobieta chcę powiedzieć” zostało ocenione jako niewłaściwe. W wypadku zdania „Mówię to jako Francuz” oznaczenie wydano tylko w 3% sytuacji.

To jednak nie koniec listy. Jedno z oprogramowań Google’a oznaczyło zdjęcie Afroamerykanki podpisem „goryl”. Wyszukiwarka obrazów w Google z kolei dla zapytania „profesjonalne fryzury” prowadzą prawie wyłącznie do warkoczyków z blond włosami. Tłumacz Google'a zmienia też płeć zawodów, gdy tłumaczenie nie jest związane ze stereotypową płcią dla danego stanowiska.

Gdy algorytmy rządzą polityką

W innych przypadkach praca algorytmów miała ogromny wpływ na życie codzienne.  Jeden z nowozelandzkich oddziałów paszportowych odmawiał automatycznego rozpoznania paszportów, na których przedstawiano osoby o azjatyckiej urodzie. Algorytm oprogramowania klasyfikował też ich oczy jako zamknięte. W Wielkiej Brytanii algorytmy wydawały oceny maturalne podczas pandemii, ponieważ uczniowie nie mogli osobiście stawić się na egzaminie. Uczniowie ze szkół osiągających słabsze wyniki otrzymywali automatycznie gorsze średnie oceny końcowe.

Szczególnie poważne konsekwencje mają algorytmy rasistowskie w tzw. Predictive Policing, czyli w oprogramowaniu prewencyjnym wykorzystywanym w pracy policji. Programy komputerowe wskazują, które dzielnice i ulice wymagają szczególnie intensywnych kontroli. Dostępne jest również oprogramowanie, które doradza sędziom w orzekaniu o długości kary pozbawienia wolności.

Włochy. Słodkie życie hejterów w Internecie

Potrzeba rozwiązania – ale jakiego?

Dyskusja na temat uprzedzeń rasistowskich nie jest niczym nowym. Od pewnego czasu jest przedmiotem debaty akademickiej w zakresie studiów dotyczących sztucznej inteligencji. Zdaniem ekspertów rozwiązaniem tego problemu mogłoby być zbilansowanie baz danych pod względem mniejszości.

W praktyce jednak może okazać się to trudne. Z jednej strony w internecie jest prawdopodobnie zbyt mało zdjęć określonych grup etnicznych. Z drugiej strony nie ma jednolitej sprawiedliwej definicji, według której można by dokonać takiego procesu.

Innym możliwym wariantem byłoby zrozumienie, dlaczego algorytm podjął daną decyzję. Gdyby wyświetlono zdjęcie Mitcha McConnella z powodu szerszego uśmiechu, a nie białego koloru skóry, wybór nie zostałby odebrany negatywnie. Często jednak trudno o poprawne wyjaśnienie decyzji algorytmów, ponieważ liczba czynników na nie wpływających może osiągać nawet miliardy.

Problem jest znany, ale rozwiązania nadal nie widać, choć czas nagli. „Musimy się tym teraz zająć, ponieważ systemy te są podstawą technologii przyszłości” – mówi Margaret Mitchell z Google Research. Dyrektor techniczny Twittera, Parag Agrawal, również podkreślił, że nie może się doczekać „publicznego, otwartego i rygorystycznego testu”.

Chcesz skomentować ten artykuł? Zrób to na Facebooku! >>