AI security kryje hrozby jako data poisoning, model stealing, adversarial inputy a jailbreaky. Potřebuje bezpečný MLOps: řízení přístupu, izolaci prostředí, audit, podpisy artefaktů a řízení tajemství. Vstupy Je nezbytné filtřovat a validovat, ideálně s detekcí anomálií a ratelimitingem. Tréninkové datasety musí být chráněny, protože často obsahují citlivé informace a reprezentují IP organizace. Modely je vhodné vynucovat přes API/gateway, ne volně sdílet váhy. Incident response playbooky mají pokrývat úniky promptů, otrávené datasety i kompromitované poskytovatele. Mapování hrozeb na ATLAS/TTPs pomáhá plánovat detekce a obrany. Pravidelné pen-testy a red-team cvičení odhalí slabiny dřív, než to udělají útočníci.