Bezpečnost AI (safety)

AI safety řeší, aby chování modelů nevedlo k nepřijatelným dopadům na lidi, procesy a rozhodování. Zaměřuje se na robustnost, spolehlivost, vyhnutí se emergentním rizikům a na možnost lidského zásahu. Součástí je hodnotitelná kritéria bezpečnosti, scénářové testy a red-teaming zaměřený na „co se může pokazit“. U úředních agend vyžaduje definovat hranice použití, fallbacky na lidský posudek a právo na přezkum. Podstatné je monitorovat výstupy v provozu, aby se zachytil drift, halucinace nebo nezamýšlené chování. Dokumentace limitů modelu zvyšuje důvěru a usnadňuje komunikaci s veřejností. Bezpečnostní požadavky se mají promítat do smluv s dodavateli i do interních směrnic. Nedostatečná safety praxe vede k reputačním škodám a regulatorním rizikům.

» Slovník pojmů eGovernmentu