Hľadať
Notifikácie 📣

Chceš dostávať čerstvé novinky?

Sledujte nás
Nastavenia súkromia

Takto chránime tvoje údaje - GDPR

domov O seriáloch Televízia

Umelá inteligencia je rasistická: Vedci zisťovali, ako sa to mohlo stať

Umelá inteligencia nie je dokonalá - v niektorých prípadoch je rasistická.

31.03.2024 00:00
digitálne technológie, umelá inteligencia, AI,... Foto:
Ilustračné foto.
debata

Môže byť umelá inteligencia rasistická? Vyzerá to, že áno, pretože sa učila podľa dát, ktoré vytvorili ľudia – prevzala tiež aj rasistické názory. Tvrdí to odborný časopis, ktorý sa odvoláva na štúdiu.

Jazykové modely, na základe ktorých fungujú chatboti rôznych spoločností, vytvárali rasistické úsudky podľa nárečí užívateľov, napísal odborný časopis Nature s odvolaním sa na štúdiu. Snaha o nápravu cez spätnú väzbu pri naučených modeloch nefungovala.

umelá inteligencia Čítajte viac Umelá inteligencia dokáže „vzkriesiť mŕtvych“. Môže to však mať neblahé dôsledky na mentálne zdravie

Vedci zistili, že niektoré systémy umelej inteligencie odporučili s väčšou pravdepodobnosťou trest smrti fiktívnemu obžalovanému, ktorý predložil výpoveď napísanú v afroamerickej angličtine (AAE), ako tomu so štandardizovanou americkou angličtinou (SAE). Chatboti tiež predpokladali, že človek, ktorý používal afroamerickú angličtinu, má menej platenú prácu.

Afroamerickou angličtinou, ktorá je spájaná s potomkami zotročených černochov, v Spojených štátoch hovoria milióny ľudí. Zistenia ukázali, že jazykové modely skryto prejavovali rasizmus napríklad tým, že naznačovali negatívne stereotypy o ľuďoch danej rasy.

„Hoci sa zdá, že ľudská spätná väzba dokáže model od stereotypov účinne odkloniť, to, že základný model bol už vycvičený na internetových dátach obsahujúcich rasistické texty, znamená, že aj naďalej vykazoval takéto prejavy,“ uviedol počítačový vedec Nikhil Garg.

reflex titulka Čítajte viac „Fico je predajná nevesta,“ tvrdí český magazín. Slovensko to poriadne schytalo

Výskumníci testovali päť veľkých jazykových modelov (LLM), ktoré sú trénované na rozsiahlych textových dátach. Tým predložili približne 4000 príspevkov zo sociálnej siete X. Najprv umelej inteligencii dali texty v oboch dialektoch a požiadali ju, aby opísala vlastnosti osoby, ktorá ich vyslovila. Zistili, že všetky najčastejšie spájané slová s textami v afroamerickej angličtine boli negatívne – napríklad „špinavý“, „lenivý“ alebo „agresívny“.

Modely tiež najčastejšie priraďovali človeka, ktorý hovoril afroamerickou angličtinou k zamestnaniam, ktoré nevyžadujú vysokoškolské vzdelanie. Zároveň skôr odsúdili hypotetických obžalovaných z vraždy, ak bola ich výpoveď napísaná v AAE.

© Autorské práva vyhradené

Facebook X.com debata chyba Newsletter
Viac na túto tému: #AI