Vstup do E-learningu

10. 4. 2024

Nabídka auditu kybernetická bezpečnost/Umělá Inteligence/AI

Dovolujeme si Vás informovat o zahájení auditní činnosti pro oblast ISO normy ISO/IEC 42001:2023, kterou spouštíme ve spolupráci se společností TAYLLORCOX s.r.o. Nastavené procesy využití umělé inteligence následně řešíme vypracováním bezpečnostní dokumentace pro zajištění souladu s NIS 2. 

Norma definuje požadavky na tzv. Systém řízení umělé inteligence (AIMS). Ten má zajistit, že organizace bude prvky AI využívat etickým a legálním způsobem bez ohledu na konkrétní technologii, proces či činnost, ve které bude AI nasazena, či na vývoj technologie v budoucnosti.

Systém řízení umělé inteligence (AIMS) obsahuje tyto základní prvky:

  • Porozumění specifikům a potřebám organizace se zaměřením na využití AI
  • Jasný přístup a závazek vedení k etickému a transparentnímu využívání AI
  • Přijetí strategie pro využití umělé inteligence
  • Určení rolí a odpovědností jednotlivých organizačních složek a funkcí v organizaci za využití a kontrolu nad AI
  • Identifikace rizik plynoucích z využití umělé inteligence – pro organizaci i pro další dotčené subjekty
  • Nastavení opatření a kontrol ke snížení nepřijatelně vysokých rizik plynoucích z využití AI nástrojů
  • Zajištění kvalifikace, odborné přípravy a dostatečných zdrojů pro zaměstnance podílející se na využití AI
  • Nastavení pravidelného hodnocení a aktualizace AI rizik, dostatečnosti kontrol a celého nastaveného procesu a odstraňování jejich slabin.
  • Dokumentování celého systému a všech relevantních postupů a rozhodnutí

Cílem auditu je ověření shody postupu organizace při zavádění a využívání AI nástrojů s normou ISO/IEC 42001:2023. V případě identifikovaných nesouladů pak ověření, jestli je konkrétní kontrola z pohledu organizace nutná, pokud ano, nastavení kroků k odstranění nesouladu.

Po ověření splnění podmínek a požadavků dané normy následuje certifikace a vystavení mezinárodně uznávaného certifikátu o souladu s normou ISO/IEC 42001:2023.

Cílové skupiny

  • příspěvkové organizace, zejména v oblasti školství, zdravotnictví a poskytování sociálních služeb
  • organizace, které jsou v režimu současného zákona č. 181/2014 Sb., o kybernetické bezpečnosti, nebo které budou regulovány směrnicí NIS2, resp. novým zákonem o kybernetické bezpečnosti
  • subjekty podílející se na činnosti kritické infrastruktury
  • alší organizace využívající umělou inteligenci v praxi 

AI Act

V rámci Evropské unie bude v nejbližší době definitivně schválena první komplexní regulace využití umělé inteligence, tzv. AI Act. Při činnostech, ve kterých jsou rizika spojené s umělou inteligencí nepřijatelná, bude její využití zakázáno.

Využití umělé inteligence pro další účely bude přípustné. Organizace, které budou AI nástroje vyvíjet, nasazovat na trh či zavádět do praxe, však budou muset plnit řadu dalších povinností, právě proto aby předešly negativním dopadům do práv lidí. Bude to platit zejména pro tzv. vysoce rizikové oblasti, jimiž budou například:

  • Kritická infrastruktura
  • Školství a vzdělávání
  • Zdravotnictví
  • Výběr a hodnocení zaměstnanců
  • Výkon práva a některé činnosti bezpečnostních orgánů

Při vývoji, nasazování a používání AI bude nutné přijmout řadu opatření ke snížení rizik. Tato povinnost bude pro vysoce rizikové AI systémy s největší pravděpodobností platit už od roku 2025, pro další, méně rizikové AI systémy, v následujícím období.

Požadavky AI Actu na vývoj a zavádění vysoce rizikových nástrojů a procesů využívajících umělou inteligenci budou do velké míry totožné se Systémem řízení umělé inteligence dle normy ISO/IEC 42001:2023. AI Act bude vyžadovat, stejně jako ISO 42001:2023, zavedení procesu pro identifikaci a řízení rizik spojených s využitím umělé inteligence, zavedení a dokumentování opatření pro snižování nepřijatelně vysokých rizik, dokumentaci postupů, určení rolí a odpovědností jednotlivých útvarů v organizaci atd.

Zavedením postupů podle normy ISO 42001:2023 tak organizace, které hodlá umělou inteligenci k zefektivnění své činnosti využívat, získá náskok. Klíčové prvky a postupy pro kontrolované, odpovědné, etické a transparentní využití AI může zavést už nyní, v souladu s mezinárodně uznávaným standardem, a tím se lépe připravit nejen na novou regulaci, ale i na rozšiřující se nabídku služeb využívajících AI prvky. Sníží tím rizika negativní publicity či zásahu od dozorových orgánů v oblasti AI regulace, včetně udělení pokut či jiných sankcí.

V případě zájmu využijte náš poptávkový formulář nebo využijte kontaktů na webu.

S bezpečností pomůžeme i vaší organizaci. Obraťte se na nás.