Umělá inteligence (AI) se stala nedílnou součástí mnoha odvětví a její vývoj nabírá na obrátkách. S rostoucím rozmachem těchto technologií však vyvstává zásadní otázka: Jak zajistit, aby byla AI nejen inovativní, ale také bezpečná?
Regulace a mezinárodní spolupráce
V posledních letech došlo k několika zásadním posunům v regulaci AI, a to nejen v rámci Evropské unie, ale také na globální úrovni. Příkladem může být situace v Itálii, kde byla společnost OpenAI dočasně zablokována kvůli obavám o ochranu osobních údajů. Tento krok vyvolal širší diskuzi na evropské úrovni, která vedla k vytvoření mezinárodní „akční skupiny“ sdružující regulátory z Německa, Francie, Kanady a Jižní Koreje.
Dalším zásadním momentem byla diskuse o ochraně duševního vlastnictví v souvislosti s AI modely. Umělá inteligence, která generuje obsah na základě existujících dat, vyvolává obavy v oblasti autorských práv. Vznikl například spor mezi mediálními domy a poskytovateli AI, kde se řešilo, zda systémy jako GPT mohou legálně využívat chráněné materiály k trénování modelů.
Evropská unie se přiklonila k detailnější regulaci a důraz klade na transparentnost a bezpečnost AI modelů. Nová legislativa, která vstupuje v platnost postupně od roku 2024, představuje přísné požadavky na dokumentaci a sledovatelnost algoritmů. To sice zajišťuje vyšší míru ochrany uživatelů, ale současně vyvolává kritiku ze strany softwarových inženýrů, kteří se obávají zpomalení inovací v oboru.
Bezpečnost na prvním místě
Dříve panovala tendence rychle uvádět AI modely na trh bez důkladného otestování jejich bezpečnosti. Příkladem může být zmiňované období v letech 2021 a 2022, kdy AI modely vznikaly bez větší regulace a zabezpečení. Dnes se však většina velkých technologických firem zaměřuje na maximalizaci ochrany dat a odpovědný vývoj AI. Společnosti jako OpenAI, Google či Microsoft aktivně spolupracují s regulátory a implementují opatření, která mají minimalizovat rizika zneužití.
„Vzít toto za své musí i koncový dodavatel, který má velké jazykové modely jako součást svého řešení,“ říká Vojtěch Černý, ředitel inovací firmy Algotech. „Je potřeba znát různé alternativy, abychom s AI dosáhli kýženého výsledku, aniž bychom snižovali bezpečnost nebo porušovali regulace. Mít vlastní cloud je v tomto pro nás velkou výhodou.“
Evropský a americký přístup
Přístupy k regulaci AI se v různých částech světa liší. Zatímco Evropa nastavuje přísná pravidla a klade důraz na odpovědnost, USA se dlouho orientovaly spíše na podporu inovací. To se však mění a americká administrativa připravuje vlastní legislativní opatření, aby udržela rovnováhu mezi technologickým pokrokem a ochranou společnosti. Budoucnost AI bude z velké části záviset právě na schopnosti technologických firem a regulátorů najít společnou cestu k odpovědnému vývoji.
Dohled a implementace v České republice
V České republice bude nad implementací nových pravidel dohlížet Úrad pro ochranu osobních údajů. Klíčovou výzvou bude zajistit, aby tito regulátoři měli dostatek odborných znalostí a technické expertízy pro efektivní dozor nad touto rychle se rozvíjející oblastí. Kritickým aspektem je také fakt, že současná údajová infrastruktura nemusí být dostatečně robustní pro dohled nad sofistikovanými AI systémy.