Hľadať
Notifikácie 📣

Chceš dostávať čerstvé novinky?

Sledujte nás
Nastavenia súkromia

Takto chránime tvoje údaje - GDPR

domov O seriáloch Televízia

Je umelá inteligencia nebezpečná pre ľudstvo? Vedci prezradili odpoveď

Hoci môžu byť LLM modely zneužité na neetické účely, sami o sebe nepredstavujú hrozbu, pretože zostávajú pod ľudskou kontrolou.

01.09.2024 00:00
AI, umelá inteligencia Foto:
debata

Vedecko-fantastická literatúra a filmy často zobrazovali scenáre, kde umelá inteligencia (AI) prevezme kontrolu nad svojimi ľudskými tvorcami. S nárastom sofistikovanosti veľkých jazykových modelov (LLM), ako je Chat GPT, sa otázka, aké nebezpečenstvá môže AI predstavovať, stala ešte aktuálnejšou.

Podľa novej štúdie, ktorú viedli vedci Iryna Gurevych z Technickej univerzity v Darmstadte v Nemecku a Harish Tayyar Madabushi z Univerzity v Bathe vo Veľkej Británii, však tieto obavy nemajú opodstatnenie. Štúdia ukazuje, že tieto modely nie sú schopné „vymknúť sa spod kontroly“, pretože sú príliš obmedzené svojím programovaním a nedokážu nadobudnúť nové schopnosti bez inštrukcií.

Fakjú princezné Čítajte viac Tvorcovia Fakjú pán profesor sa utrhli z reťaze: V novom filme sa vrhajú do rozprávkového sveta

To znamená, že aj keď môžu byť LLM modely zneužité na neetické účely, sami o sebe nepredstavujú hrozbu, pretože zostávajú pod ľudskou kontrolou.

„Obavy spočívali v tom, že s rastúcou veľkosťou modelov budú schopné riešiť nové problémy, ktoré nedokážeme predvídať, čo by mohlo viesť k tomu, že väčšie modely by nadobudli nebezpečné schopnosti, ako je napríklad uvažovanie a plánovanie,“ vysvetľuje Tayyar Madabushi. „Naša štúdia však ukazuje, že obava, že model bude robiť niečo úplne nečakané, inovatívne a potenciálne nebezpečné, nie je oprávnená.“

Vedci skúmali štyri rôzne LLM modely a priradili im úlohy, ktoré predtým vykazovali náznaky „emergentného“ správania, teda schopnosti riešiť problémy, na ktoré neboli pôvodne naprogramované. Výsledky štúdie neodhalili žiadne dôkazy o tom, že by modely nadobudli samostatné myslenie alebo že by konali mimo svojho programovania.

občiansky preukaz, občiansky, eID, čip Čítajte viac Občiansky a vodičský preukaz v mobile? Už čoskoro sa to na Slovensku stane realitou

Schopnosť modelov sledovať pokyny, pamäť a jazyková zručnosť úplne vysvetľovali všetky schopnosti, ktoré LLM modely preukázali. Neboli zistené žiadne prejavy správania, ktoré by vybočili z rámca naprogramovaných možností. Z toho vyplýva, že LLM modely samy o sebe nie sú dôvodom na obavy.

Ľudia sú však menej spoľahliví. Explózia využívania AI, ktorá si vyžaduje viac energie a vytvára výzvy v oblastiach ako autorské práva, dôvera a digitálne znečistenie, sa stáva skutočným problémom.

„Naše výsledky neznamenajú, že AI nie je vôbec hrozbou,“ hovorí Gurevychová. „Skôr ukazujeme, že tvrdenie o vzniku komplexných myšlienkových schopností spojených s konkrétnymi hrozbami nie je podložené dôkazmi a že môžeme veľmi dobre kontrolovať proces učenia LLM modelov. Budúci výskum by sa preto mal zamerať na iné riziká spojené s modelmi, ako je ich potenciál byť použitý na generovanie falošných správ.“

© Autorské práva vyhradené

debata chyba
Viac na túto tému: #umelá inteligencia #AI #scifi