DogađajiRadoznala Lola

Pustili su robote da izaberu najljepšu ženu svijeta. I to nije dobro prošlo.

tekst: Sara Velaga

Kako bi se izbjegla pristrasnost prilikom ocjenjivanja na izborima ljepote, ljudi su došli na ideju da mašine preuzmu stvar u svoje ruke i objektivno zaključe ko je najljepša među svim takmičarkama. Rekli bismo da je to sasvim opravdana i dobra odluka, jer se temelji na simetriji lica, pjegicama, drugim dijelovima tijela kako bi se donio sud o tome koja je najprivlačnija.

Beauty.Al lansiran je ove godine, nakon čega je gotovo 6000 ljudi iz gotovo sto država učitalo svoje fotografije u nadi da će baš njihove biti prepoznate kao primjerci ljudske ljepote. Međutim, čini se da ni roboti nisu mogli biti objektivni, a ni pomalo rasistički nastrojeni. Naime, kada su se pojavili rezultati, ispostavilo se da roboti ljude tamne kože nisu ocijenili kao privlačne.

Od 44 pobjednika, skoro svi su bili bijelci, a neki su bili azijci, dok je samo jedna osoba imala tamnu kožu. Činjenica je da se više bijelaca svakako prijavilo, ali da je bio nezanemariv broj ljudi tamne kože iz Indije i Afrike. To je pokrenulo kontroverzu oko toga da se algoritmi za proračun privlačnosti temelje na predrasudama i daju uvredljive rezultate. Kada je Microsoft pustio milenijalski računarski program, Tay u martu, ubrzo je počeo koristiti rasistički jezik i promovisati neo-naciste na Tviteru. Sve se objasnilo izmicanju kontrole računara čovjeku, ali postavlja se pitanje, ko zapravo njime upravlja?

Od 44 pobjednika, skoro svi su bili bijelci, a neki su bili azijci, dok je samo jedna osoba imala tamnu kožu.

Glavni problem je u tome što se manjinske grupe često uopšte ne predstavljaju u podacima, što znači da se ne stvara generalna slika temeljena na objektivnom rezultatu. Možda ćete imati 98% tačnosti u procjeni, ali 2% zanemarenih će uticati na stvarnu sliku koju želite poslati i predstaviti svijetu. Potrebno je omogućiti jednako predstavljanje ljudi različitih rasa, kako bi se došlo do stvarnog presjeka stanja i objektivne slike, jer na ovaj način to je nemoguće.

Međutim, ovo nije novi problem, već nešto što se već godinama dešava. Prošle godine u aplikaciji za Guglove slike crni ljudi su bili označeni kao gorile. Problematično je bilo i lociranje mjesta zločina, kao i praćenja kriminalaca, gdje su se često pojavljivali upravo crnci. Međutim, ključ promjene i rješavanja ovog problema ne leži u promjeni algoritma, već institucionalnom rješavanju problema koji će omogućiti ravnopravnost svim ljudima.

Ono što je međutim iznenadilo tim stručnjaka koji stoje iza čitave ideje, jeste kako je odluka robota zapravo bila drastično drugačija od njihove i kako oni nikada za te ljude ne bi rekli da su najljepši. Ko zna, možda ljudi ne bi pokazali toliko rasizma u svom izboru, ali i robote su programirali ljudi.