Adversariální příklady vypadají pro člověka normálně, ale model je kvůli drobným perturbacím vyhodnotí chybně. Riziko je vysoké u rozpoznávání obrazu, textu i zvuku, zejména v bezpečnostních a verifikačních scénářích. Obrany zahrnují robustní trénink, regularizaci, filtrování vstupů a detekci anomálií. Pomáhá ensemble přístup, defensivní augmentace a lidský dohled ve sporných případech. V eGovernmentu se odporučuje explicitně testovat odolnost u vysokorizikových použití. Dokumentace limitů a threat model snižují provozní překvapení. Red-teaming AI patří do předprodukčních testů i průběžného monitoringu. Chybí-li těchto opatření může AI generovat systematicky chybné úřední výstupy.