Vedecko-fantastická literatúra a filmy často zobrazovali scenáre, kde umelá inteligencia (AI) prevezme kontrolu nad svojimi ľudskými tvorcami. S nárastom sofistikovanosti veľkých jazykových modelov (LLM), ako je Chat GPT, sa otázka, aké nebezpečenstvá môže AI predstavovať, stala ešte aktuálnejšou.
Podľa novej štúdie, ktorú viedli vedci Iryna Gurevych z Technickej univerzity v Darmstadte v Nemecku a Harish Tayyar Madabushi z Univerzity v Bathe vo Veľkej Británii, však tieto obavy nemajú opodstatnenie. Štúdia ukazuje, že tieto modely nie sú schopné „vymknúť sa spod kontroly“, pretože sú príliš obmedzené svojím programovaním a nedokážu nadobudnúť nové schopnosti bez inštrukcií.
Čítajte viac Tvorcovia Fakjú pán profesor sa utrhli z reťaze: V novom filme sa vrhajú do rozprávkového svetaTo znamená, že aj keď môžu byť LLM modely zneužité na neetické účely, sami o sebe nepredstavujú hrozbu, pretože zostávajú pod ľudskou kontrolou.
„Obavy spočívali v tom, že s rastúcou veľkosťou modelov budú schopné riešiť nové problémy, ktoré nedokážeme predvídať, čo by mohlo viesť k tomu, že väčšie modely by nadobudli nebezpečné schopnosti, ako je napríklad uvažovanie a plánovanie,“ vysvetľuje Tayyar Madabushi. „Naša štúdia však ukazuje, že obava, že model bude robiť niečo úplne nečakané, inovatívne a potenciálne nebezpečné, nie je oprávnená.“
Vedci skúmali štyri rôzne LLM modely a priradili im úlohy, ktoré predtým vykazovali náznaky „emergentného“ správania, teda schopnosti riešiť problémy, na ktoré neboli pôvodne naprogramované. Výsledky štúdie neodhalili žiadne dôkazy o tom, že by modely nadobudli samostatné myslenie alebo že by konali mimo svojho programovania.
Čítajte viac Občiansky a vodičský preukaz v mobile? Už čoskoro sa to na Slovensku stane realitouSchopnosť modelov sledovať pokyny, pamäť a jazyková zručnosť úplne vysvetľovali všetky schopnosti, ktoré LLM modely preukázali. Neboli zistené žiadne prejavy správania, ktoré by vybočili z rámca naprogramovaných možností. Z toho vyplýva, že LLM modely samy o sebe nie sú dôvodom na obavy.
Ľudia sú však menej spoľahliví. Explózia využívania AI, ktorá si vyžaduje viac energie a vytvára výzvy v oblastiach ako autorské práva, dôvera a digitálne znečistenie, sa stáva skutočným problémom.
„Naše výsledky neznamenajú, že AI nie je vôbec hrozbou,“ hovorí Gurevychová. „Skôr ukazujeme, že tvrdenie o vzniku komplexných myšlienkových schopností spojených s konkrétnymi hrozbami nie je podložené dôkazmi a že môžeme veľmi dobre kontrolovať proces učenia LLM modelov. Budúci výskum by sa preto mal zamerať na iné riziká spojené s modelmi, ako je ich potenciál byť použitý na generovanie falošných správ.“