Prohlížeč má zakázaný Javascript. Prosím, povolte ho pro plnou funkčnost systému a obnovte stránku.
Prohlížeč má zakázané cookies. Prosím, povolte je pro plnou funkčnost systému a obnovte stránku.
Zavřít režim celé obrazovky
Název:
|
Safety in AI systems |
Další názvová informace:
|
|
Překlad:
|
Bezpečnost v systémech umělé inteligence |
Autor:
|
Adler, Rasmus |
Klíčové slovo:
|
bezpečnost funkční bezpečnost provozní hodnocení inteligence umělá nástroje standardizace systémy |
Anotace:
|
Příspěvek diskutuje otázku, jak lze ověřit funkční a provozní bezpečnost systémů s umělou inteligencí v případech, kdy je kvůli jejich vysoké složitosti nebo schopnosti autonomního vývoje nelze posoudit běžnými metodami. Případy ověřování jsou nástrojem volby v případě nasazení nových, potenciálně bezpečnostně kritických technologií, pro které nejsou stávající zkušenosti z reálného světa dostatečné. V autonomních a poloautonomních systémech narážejí standardizované postupy pro hodnocení bezpečnosti stále více na své limity. I ty nejjednodušší bezpečnostní koncepce mohou být velmi rozsáhlé, pokud jsou automatizovány složité úkoly v komplikovaných provozních prostředích. Řada opatření, jako je například řízení nejistot při rozpoznávání prostředí*, se vzájemně ovlivňuje a tvoří více vrstev ochrany ("architektura vrstev ochrany"). Provozní prostředí a úkoly, které mají být automatizovány těmito autonomními nebo poloautonomními systémy, mohou být velmi složité. To vyžaduje, aby jejich ochranné vrstvy byly založeny na softwaru, který je podle evropského regulačního návrhu považován za systém umělé inteligence. |
Jazyk dokumentu:
|
eng |
|
Název zdroje:
|
KANbrief |
Ročník:
|
|
Číslo:
|
3 |
Rozsah (stránky):
|
s. 6-7 |
Rok vydání:
|
2022 |
|
Publikováno na URL:
|
|
Připojené soubory:
|
Safety in AI systems |
|
|
|
{{'asyncop.tasklist' | i18n}}