Prijava
Lola Magazin
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Čitanje: Pustili su robote da izaberu najljepšu ženu svijeta. I to nije dobro prošlo.
Podijeli
Lola MagazinLola Magazin
Font ResizerAa
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Pretraga
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Loguj se Prijava
Zaprati Lolu
© 2022 Lola
Lola Magazin > Blog > Uncategorized > Pustili su robote da izaberu najljepšu ženu svijeta. I to nije dobro prošlo.
Uncategorized

Pustili su robote da izaberu najljepšu ženu svijeta. I to nije dobro prošlo.

Brankica Rakovic
Objavljeno 16/12/2014 14:44
Brankica Rakovic
Podijeli
Podijeli

Kako bi se izbjegla pristrasnost prilikom ocjenjivanja na izborima ljepote, ljudi su došli na ideju da mašine preuzmu stvar u svoje ruke i objektivno zaključe ko je najljepša među svim takmičarkama. Rekli bismo da je to sasvim opravdana i dobra odluka, jer se temelji na simetriji lica, pjegicama, drugim dijelovima tijela kako bi se donio sud o tome koja je najprivlačnija.

Beauty.Al lansiran je ove godine, nakon čega je gotovo 6000 ljudi iz gotovo sto država učitalo svoje fotografije u nadi da će baš njihove biti prepoznate kao primjerci ljudske ljepote. Međutim, čini se da ni roboti nisu mogli biti objektivni, a ni pomalo rasistički nastrojeni. Naime, kada su se pojavili rezultati, ispostavilo se da roboti ljude tamne kože nisu ocijenili kao privlačne.

Od 44 pobjednika, skoro svi su bili bijelci, a neki su bili azijci, dok je samo jedna osoba imala tamnu kožu. Činjenica je da se više bijelaca svakako prijavilo, ali da je bio nezanemariv broj ljudi tamne kože iz Indije i Afrike. To je pokrenulo kontroverzu oko toga da se algoritmi za proračun privlačnosti temelje na predrasudama i daju uvredljive rezultate. Kada je Microsoft pustio milenijalski računarski program, Tay u martu, ubrzo je počeo koristiti rasistički jezik i promovisati neo-naciste na Tviteru. Sve se objasnilo izmicanju kontrole računara čovjeku, ali postavlja se pitanje, ko zapravo njime upravlja?

Od 44 pobjednika, skoro svi su bili bijelci, a neki su bili azijci, dok je samo jedna osoba imala tamnu kožu.

fejs

Odsustvo ljudske regulacije ovakvog programa doprinijelo je tome da se program počeo baviti suludim stvarima, koje su mu se činile prikladne u nedostatku pravih informacija.

Iako postoje teorije o tome zašto se favorizuju bijelci, glavni je problem u tome što ovakvi algoritmi koji trebaju predstavljati standarde ljepote ne obuhvataju dovoljno manjina, ističe Aleks Zavoronkov, zaposlenik u Beauty.AI. Iako tvorci nisu kreirali algoritam koji će svijetlu put tretirati kao simbol ljepote, upute su vodile tome da robot sam dođe do tog zaključka.

On je takođe dodao kako je boja kože kod ljudi u ovom slučaju svedena na jednak uzorak, što je dovelo tome da računar prepoznaje određeni tip izgleda kao poželjan. Najjednostavnije objašnjenje je prema njegovom mišljenju upravo to da su ljudi koji su kreirali algoritam duboko u sebi imali svoje preference kada su u pitanju ideali ljepote. Na temelju njihovih predrasuda nastao je navodni objektivni algoritam, koji je u suštini pokazao dobro znano da ljudski projekti zapravo ne mogu ne imati ljudski dodir i mišljenje.

Iako tvorci nisu kreirali algoritam koji će svijetlu put tretirati kao simbol ljepote, upute su vodile tome da robot sam dođe do tog zaključka

kandidati

Glavni problem je u tome što se manjinske grupe često uopšte ne predstavljaju u podacima, što znači da se ne stvara generalna slika temeljena na objektivnom rezultatu. Možda ćete imati 98% tačnosti u procjeni, ali 2% zanemarenih će uticati na stvarnu sliku koju želite poslati i predstaviti svijetu. Potrebno je omogućiti jednako predstavljanje ljudi različitih rasa, kako bi se došlo do stvarnog presjeka stanja i objektivne slike, jer na ovaj način to je nemoguće.

Međutim, ovo nije novi problem, već nešto što se već godinama dešava. Prošle godine u aplikaciji za Guglove slike crni ljudi su bili označeni kao gorile. Problematično je bilo i lociranje mjesta zločina, kao i praćenja kriminalaca, gdje su se često pojavljivali upravo crnci. Međutim, ključ promjene i rješavanja ovog problema ne leži u promjeni algoritma, već institucionalnom rješavanju problema koji će omogućiti ravnopravnost svim ljudima.

Ono što je međutim iznenadilo tim stručnjaka koji stoje iza čitave ideje, jeste kako je odluka robota zapravo bila drastično drugačija od njihove i kako oni nikada za te ljude ne bi rekli da su najljepši. Ko zna, možda ljudi ne bi pokazali toliko rasizma u svom izboru, ali i robote su programirali ljudi.

TAGOVANO:izborizbor za Misodlukarasizamroboti
Podijeli članak
Twitter Email Kopiraj link Štampaj
Autor Brankica Rakovic
Follow:
Kada biste život u njegovim najradosnijim izdanjima zamišljali kao žensku osobu, mogli biste da ga zamislite u liku Brankice Raković
Prethodni članak U odbranu djetinjstva: Tako ne brinem za njega, tako od njega stvaram kretena!
Sledeći članak Beogradski vodič ugostio više od 30.000 turista

Slični postovi

Finalistikinja izbora za mis Engleske se prva u istoriji takmičila bez šminke

Autor Redakcija 1 min za čitanje
FEMINIZAMIZDVOJENO

Neprestano biram šta je manje sebično: ne rađati uopšte ili rađati po cijenu života?

Autor Redakcija 7 min za čitanje
ZABAVNIKIZDVOJENO

Roboti počeli da prave čvarke na Balkanu

Autor Lola Magazin 1 min za čitanje
Lola Magazin
  • Kontakt
  • Impressum
  • Prava korišćenja
  • Kontakt
  • Impressum
  • Prava korišćenja

© Prava zadržava Lola Magazin

Pozdrav od Lole!

Prijavi se ako možeš