DNV predstavuje základy pre dosiahnutie dôveryhodnej umelej inteligencie
Høvik, Norway, 25. marec 2026 – Nový výskum spoločnosti DNV, ktorá sa zaoberá overovaním a riadením rizík, identifikoval základné predpoklady pre dosiahnutie spoľahlivej umelej inteligencie v kontexte priemyselných procesov kritických z hľadiska bezpečnosti. Podľa štúdie s názvom „Assurance of AI-Enabled Systems“ (Overovanie systémov využívajúcich umelú inteligenciu) je možné osvedčené zásady riadenia rizík prispôsobiť tak, aby zodpovedali zložitosti a neistote systémov využívajúcich umelú inteligenciu. Hoci umelá inteligencia prináša nové riziká, osvedčené metódy overovania z odvetví kritických z hľadiska bezpečnosti už poskytujú solídny východiskový bod pre ich riešenie.
Štúdia poukazuje na to, že umelá inteligencia mení povahu rizika, pretože nefunguje ako pevná a predvídateľná zložka. V dôsledku toho je tradičné jednorazové overenie nedostatočné a zdôrazňuje sa potreba nepretržitého a adaptívneho overovania počas celého životného cyklu
Programme Director for AI Assurance at DNV
Christian Agrell, programový riaditeľ pre oblasť zabezpečenia umelej inteligencie v spoločnosti DNV, uviedol: „Vytvorenie dôveryhodnej umelej inteligencie si nevyžaduje, aby sme začínali od nuly. Máme už pevné základy v oblasti moderného zabezpečenia a vedy o rizikách, ako aj dlhoročné skúsenosti so správou digitálnych technológií v prostrediach s vysokým rizikom. Premyslené uplatňovanie týchto princípov nám umožňuje budovať systémy, ktoré zostávajú bezpečné a spoľahlivé aj v priebehu svojho vývoja. Dôveryhodná umelá inteligencia závisí od predvídateľného správania v podmienkach neistoty, a práve to nám tieto základy pomáhajú zabezpečiť.“
Tento výskum čerpá z desaťročí skúseností spoločnosti DNV v oblasti overovania a riadenia rizík v kritickej infraštruktúre, vrátane námorného a energetického sektora. Medzi základné princípy vytvárania dôveryhodnej umelej inteligencie patria:
Systémový model, ktorý zachytáva celý systém využívajúci umelú inteligenciu
Tento model zachytáva spôsob, akým umelá inteligencia interaguje s ľuďmi, digitálnymi a fyzickými komponentmi a svojím prevádzkovým prostredím. Umožňuje pochopiť vznikajúce správanie, neočakávané interakcie a riziká špecifické pre daný kontext, ktoré nie je možné odhaliť len na základe skúmania samotnej komponenty umelej inteligencie.
Modulárny prístup
Rizikový model, ktorý využíva hodnotenie založené na neistote a princípy modulárneho riadenia rizík s cieľom rozložiť komplexné systémy so všetkými ich zložitými a vznikajúcimi rizikami na zvládnuteľné časti na všetkých úrovniach systému.
Prepojenie tvrdení s dôkazmi
Tieto štruktúrované argumenty spájajú tvrdenia typu „systém je bezpečný“ s overiteľnými dôkazmi, predpokladmi a odôvodneniami. Vytvára to transparentný a kontrolovateľný rámec na preukázanie spoľahlivosti počas celého životného cyklu.
Neustále overovanie s ohľadom na kontext, ktoré sa prispôsobuje vývoju umelej inteligencie
Systémy využívajúce umelú inteligenciu sa v priebehu času menia v dôsledku aktualizácií modelov, zmien v údajoch a kolísania prevádzkových podmienok. Na zachovanie spoľahlivosti je potrebné zabezpečovať nepretržité overovanie, nie len jednorazovú kontrolu. To zahŕňa monitorovanie v reálnom čase, pravidelné aktualizácie podkladov a prehodnocovanie rizík a požiadaviek, aby dôvera v systém zostala zachovaná počas celého jeho životného cyklu
„Tieto základy poskytujú priemyslu jasný a praktický spôsob, ako budovať a udržiavať dôveryhodnú umelú inteligenciu. Už teraz spolupracujeme so spoločnosťami, ktoré si uvedomujú potenciál umelej inteligencie, ale aj riziká, ktoré môže predstavovať pre kľúčové služby, ktoré poskytujú. Vyzývam ďalšie organizácie, aby sa k nám pridali pri riešení a riadení rizík spojených s umelou inteligenciou,“ dodal Agrell.
Toto stanovisko je súčasťou širšej činnosti spoločnosti DNV zameranej na podporu zodpovedného zavádzania umelej inteligencie v priemysle a je v súlade s odporúčanými postupmi spoločnosti (DNVRP0671) v oblasti zabezpečenia umelej inteligencie.
