Anotace: |
Příspěvek diskutuje otázku, jak lze ověřit funkční a provozní bezpečnost systémů s umělou inteligencí v případech, kdy je kvůli jejich vysoké složitosti nebo schopnosti autonomního vývoje nelze posoudit běžnými metodami. Případy ověřování jsou nástrojem volby v případě nasazení nových, potenciálně bezpečnostně kritických technologií, pro které nejsou stávající zkušenosti z reálného světa dostatečné. V autonomních a poloautonomních systémech narážejí standardizované postupy pro hodnocení bezpečnosti stále více na své limity. I ty nejjednodušší bezpečnostní koncepce mohou být velmi rozsáhlé, pokud jsou automatizovány složité úkoly v komplikovaných provozních prostředích. Řada opatření, jako je například řízení nejistot při rozpoznávání prostředí*, se vzájemně ovlivňuje a tvoří více vrstev ochrany ("architektura vrstev ochrany"). Provozní prostředí a úkoly, které mají být automatizovány těmito autonomními nebo poloautonomními systémy, mohou být velmi složité. To vyžaduje, aby jejich ochranné vrstvy byly založeny na softwaru, který je podle evropského regulačního návrhu považován za systém umělé inteligence.
|