Názor Davida Strejce: Trump a závod o umělou inteligenci

„Donald Trump v prvních měsících svého druhého prezidentského období jasně deklaroval ambici, že Spojené státy musí být první zemí, která vyvine umělou obecnou inteligenci (AGI). A Trump to nevidí jen jako technologickou výzvu, ale jako klíčovou bitvu, která rozhodne o budoucnosti světa,“ říká David Strejc.

Válečná rétorika jako nástroj k získání podpory

Podle Strejce je klíčovým prvkem Trumpovy strategie jeho jazyk. „Trump AGI prezentuje jako válečný konflikt, zejména proti Číně. Neustále zdůrazňuje, že vítěz této bitvy získá obrovskou moc. To mu umožňuje získat podporu veřejnosti i politiků pro masivní investice do vývoje AI.“

Například při oznámení projektu „Stargate“ Trump prohlásil: „Země, která ovládne umělou inteligenci, bude vládnout světu.“ Tento přístup podle Strejce připomíná studenou válku, kdy soupeření o kosmický program nebo jaderný arzenál legitimizovalo obří vládní investice.

Dvojí komunikační strategie: mezi urychlením vývoje a varováním před riziky

Trumpova rétorika není jen o podpoře vývoje AGI, ale i o zdůrazňování jejích rizik. „Na jedné straně deregulací urychluje vývoj, na druhé straně varuje před deepfakes a jinými hrozbami. Tím se staví do role odpovědného lídra, který si je vědom rizik, ale zároveň žene USA kupředu.“

Projekt „Stargate“ podle Strejce ukazuje tuto dvojí komunikaci. „Trump ho prezentuje jako historické partnerství mezi státem a soukromým sektorem, čímž vytváří dojem kontrolovaného a bezpečného vývoje, a ne jako riskantní experiment s nejistým výsledkem.“

Geopolitika: závod s Čínou a snaha o technologickou suverenitu

„Trump využívá závod o AGI k redefinici vztahů s Čínou. Tvrdí, že pokud Čína získá AGI jako první, USA ztratí ekonomickou i bezpečnostní kontrolu.“ Proto jeho administrativa:

  • Zrušila regulace, které zpomalovaly vývoj,
  • Navázala úzkou spolupráci s technologickými giganty, jako jsou OpenAI, Oracle a SoftBank.

„Závod s Čínou se stal hlavním argumentem pro urychlený vývoj AI bez ohledu na možná rizika,“ vysvětluje Strejc.

Nový model spolupráce: stát a soukromý sektor jako partneři

Trump mění tradiční vztah mezi vládou a technologickým sektorem. „Místo regulace přichází přímá spolupráce. Projekt Stargate je toho důkazem – firmy jako OpenAI nyní dostávají přístup ke státním zdrojům podobně jako v Číně.“

„Trumpovo druhé funkční období přineslo zásadní posun – AI už není jen technologickým tématem, ale otázkou národní bezpečnosti a geopolitiky,“ uzavírá Strejc.

Zda tato strategie skutečně zajistí USA prvenství v AGI, není jisté. „Ale Trump vytvořil nový přístup k umělé inteligenci, který může výrazně změnit globální vztahy.“

Umělá inteligence, fake news a deepfakes jsou hrozbou pro demokracii a demokratické volby, varují experti

V prvních třech čtvrtletích roku 2023 se setkala s ransomwarovým útokem každá 34. společnost, což je nárůst o 4 % oproti loňskému roku. Kybernetické hrozby jsou početnější, rafinovanější a hůře odhalitelné. Hackerské skupiny jsou lépe organizované a také využívají umělou inteligenci. Kybernetické útoky jsou často spojovány se škodami nebo krádežemi dat a financí. Ale kyberzločinci často vytvářejí i falešná data a šíří chaos a dezinformace.

Umělá inteligence ovlivňuje naše každodenní životy a může mít dopad i na demokratické volby. Usnadňuje vytváření přesvědčivého obsahu pro nejrůznější skupiny v masovém měřítku, a to při velmi nízkých nákladech. Experti se proto obávají ovlivnění nebo i pádu věcných a ideologických debat a podkopání samotné podstaty demokratických voleb.

Prezidentské volby v USA v roce 2020 a obavy z hackování voleb

Demokratické volby stojí na několika pilířích: Svobodná veřejná diskuse, kde se konfrontují a zvažují protichůdné názory, spravedlivý volební proces a zaručené pokojné předání moci podle výsledků hlasování. Ovšem v posledních letech čelí tento dlouhodobě zažitý model novým problémům.

Před volbami v USA v roce 2020 byla věnována zvýšená pozornost spolehlivosti a odolnosti hlasovacích zařízení. Do popředí zájmu se dostaly různé testy zranitelností. Iniciativa DefCon Voting Village poskytla platformu pro hackery, kteří mohli zpochybnit bezpečnost různých hlasovacích zařízení. Potenciální zranitelnosti se často dostaly na titulní stránky novin a výsledkem byly další obavy z možných hackerských útoků. Proto se některé země, jako je Nizozemsko, které dlouho využívalo digitální hlasování, vrátily k ručnímu papírovému hlasování. Ve Spojených státech mezitím federální vláda vyčlenila miliardy na posílení infrastruktury státních hlasovacích zařízení. Kritici ovšem namítali, že tyto testy probíhají v nereálných podmínkách. Zajímavé je, že do této doby nebyly celosvětově zaznamenány žádné zprávy o pokusech o nabourání do hlasovacích přístrojů se záměrem zmanipulovat výsledky voleb.

„Důvodem může být složitost tohoto postupu, manipulace s výsledky voleb není jednoduchá. Vyžaduje prolomení několika distribuovaných off-line systémů, ale co je naprosto zásadní, celý útok se musí odehrát bez odhalení. Jakékoli podezření by mohlo okamžitě zneplatnit sčítání hlasů a papírové zálohy nabízí spolehlivou metodu ruční kontroly. To by mohlo vysvětlit, proč se o to, pokud je nám známo, dosud nikdo nepokusil. To však neznamená, že demokratický systém nebyl napaden,“ říká Miloslav Lujka, Country Manager Czech Republic, Slovakia & Hungary z kyberbezpečnostní společnosti Check Point Software Technologies.

Figure SEQ Figure \* ARABIC 2 – Hackers at DEF CON voting village. Image from Threatpost.com.

„Nyní je zřejmé, že primárním cílem útoků na demokratické volební systémy není nutně podpora konkrétních kandidátů, ale podkopání demokratického systému jako takového. Vlivové kampaně mají za cíl prohloubit rozpory ve společnosti, často podporou extremistů ze všech stran. Přesně k tomu slouží také neustálé veřejné diskuse a obavy týkající se spolehlivosti hlasovacích zařízení,“ upozorňuje Miloslav Lujka.

Pokračující snahy o odhalování zranitelností elektronických hlasovacích zařízení, které měly většinou posílit jejich důvěryhodnost a demokratický systém, měly nechtěně opačný účinek. Je možné, že ve skutečnosti oslabily důvěru veřejnosti v důvěryhodnost těchto systémů a legitimitu výsledků voleb. Přestože posuzování odolnosti hlasovacích zařízení v umělých podmínkách může být přínosné pro akce typu Voting Village, mediální akce a bezpečnostní průmysl, existuje k tomu i řada výhrad. Jsou zjištěné zranitelnosti skutečně zneužitelné? Jsou vůbec cílem útočníkům? A převažují potenciální rizika nad výsledným snížením důvěry veřejnosti ve výsledky voleb?

Možná právě tento pohled vedl CISA (Agenturu pro kybernetickou bezpečnost a bezpečnost infrastruktury) k přehodnocení komunikační strategie. Namísto vytrvalého upozorňování na zranitelnosti a nedostatky hlasovacích zařízení se CISA rozhodla zaměřit v průběhu roku 2020 na pozitivní sdělení a ujišťování o bezpečnosti a spolehlivosti amerického hlasovacího systému. Tato změna postoje CISA vyvrcholila tím, že prezident Trump odvolal jejího ředitele Chrise Krebse. Zatímco Krebs prohlásil, že tyto volby byly nejbezpečnější v americké historii, prezident Trump výsledky voleb vehementně zpochybňoval, což vyvrcholilo událostmi 6. ledna v Kapitolu a narušením pokojného předání moci.

Společnost FOX Network nedávno souhlasila se zaplacením 787 milionů dolarů v rámci žaloby podané společností Dominion, výrobcem hlasovacích zařízení. Společnost FOX byla žalována za vědomě nepravdivé tvrzení, že stroje společnosti Dominion změnily výsledky voleb ve prospěch prezidenta Bidena.

Umělá inteligence a automatizovaný obsah

Blíží se řada dalších významných voleb, včetně prezidentských voleb v USA v roce 2024, a sílí obavy, že pokrok v oblasti umělé inteligence může být zneužit k dalšímu narušení demokratického procesu. Předchozí technologie se používaly především v kampaních, které měly za úkol přiřazovat specifický obsah k cílovému publiku. Nové technologie umožňují autonomní vytváření obsahu na míru, což tyto obavy ještě dále zvyšuje.

Skandál Cambridge Analytica, který vypukl v roce 2018, se týkal neoprávněného využívání informací uživatelů sociálních médií. Tyto informace byly využívány k vytváření profilů voličů a poskytování obsahu, který úzce odpovídal světonázoru cílových skupin. Slabým místem těchto vlivových operací byly náklady na vývoj obsahu, který vyžadoval lidské tvůrce zběhlé v jazyce, kultuře, politice a psychologii cílové země. AI technologie ale nabízí efektivnější vytváření personalizovaného obsah. V současné době lze nastavit konkrétní parametry konverzace, jako je věk, pohlaví a zeměpisná poloha, a vzniká tak působivý personalizovaný obsah zaměřený na předem definovaný cíl. Podobné chatboty se již komerčně využívají, kupříkladu jako účinné nástroje zákaznického servisu.

Skutečný průlom spočívá ve schopnosti vytvářet personalizovaný obsah v masovém měřítku při nízkých nákladech. Kvalita textu se zlepšila do té míry, že má umělá inteligence podle profesora Yuvala Noaha Harariho schopnost předvídat a manipulovat s našimi pocity, myšlenkami a volbami nad rámec našeho vlastního chápání.

Audiovizuální díla na počkání

Pokrok ve vytváření hlasového a obrazového obsahu pomocí AI rozostřuje hranice mezi pravými a zfalšovanými událostmi. Nástroje jsou stále dostupnější, takže roste obava, že bude téměř nemožní rozlišovat mezi autentickými zprávami a deepfake podvrhy, zejména v politické oblasti. Ačkoli deepfake technologie měly původně sloužit zejména k finančním podvodům, už se staly i politickou zbraní. Během komunálních voleb v Chicagu se třeba objevil zfalšovaný zvukový záznam, na němž údajně kandidát Paul Vallas podporuje policejní agresi. Na internetu se objevily i další podobné výmysly, které se vydávaly za Elizabeth Warrenovou nebo ukrajinského prezidenta Volodymyra Zelenského.

Tyto pokroky v oblasti umělé inteligence, schopnost vytvářet personalizované texty a vést dialogy na mikroúrovni, by mohly způsobit, že politické diskuse budou postrádat věcný základ. V kombinaci s vytvářením a šířením deepfaků to může mít dalekosáhlé důsledky pro demokratické procesy, protože se vytratí svobodná smysluplná výměna myšlenek a názorů.

Výzvy v oblasti umělé inteligence

Je třeba zdůraznit, že na rozdíl od předchozích technologických výzev, jejichž řešení bylo založeno na technologiích, je tento nový trend výzvou mnohem zásadnější a zkoušce čelí náš vztah k pravdě jako takové. Potýkáme se složitými otázkami, které jsou více filozofické a morální než technologické, co se týče povahy poznání, spolehlivosti zdrojů, pověsti veřejných osobností a samotného způsobu, jakým utváříme naše chápání reality.

K účinnému řešení těchto výzev potřebujeme spolupráci mnoha zúčastněných stran. Především poskytovatelé AI musí přijmout proaktivní opatření, aby zabránili zneužívání jejích postupů, regulační orgány musí přehodnotit a aktualizovat normy a nařízení. Jako společnost se musíme věnovat rozdílům mezi svobodou projevu a způsobem, jakým se v této digitální éře chováme.

Základní podmínkou pro hodnocení informací je pochopení kontextu, v němž se objevují. To zahrnuje pochopení zdroje informací, identity mluvčího a jeho motivací. Kritickou roli hrají regulace, protože spoléhat se na schopnost jednotlivce rozpoznat spolehlivost zdroje se ukázalo jako neefektivní.

Další výzvou je hranice mezi právem na svobodu projevu a snahou o dosažení pravdy. Doposud byla upřednostňována svoboda projevu. A klamání v politice je smutnou realitou. Nejvyšší soud v USA rozhodl, že první dodatek má přednost a v praxi nelze zakázat lhaní ve veřejném projevu. Vzhledem ke stírání hranic mezi skutečností a výmysly stojí za to znovu zvážit rovnováhu mezi těmito hodnotami.

Měl by někdo, kdo vytvoří zvukový soubor, obrázek nebo video s nepravdivým obsahem, nést trestní odpovědnost? Význam důvěryhodnosti bude v budoucnu pravděpodobně hrát stále důležitější roli.

Mediální a technologická řešení

V době, kdy se tradiční média potýkají s popularitou sociálních médií, by mohlo dojít k potenciálnímu obratu. Lidé hledají spolehlivé zdroje a mohou se tak znovu obrátit na mainstreamová média, která více dbají na ověřování faktů, redakční standardy a odpovědnost. Projekty zaměřené na poskytování širšího kontextu budou mít stále větší význam.

Pozor na přehnaná varování

„Existuje možnost, že opakovaná varování a zdůrazňování hrozeb plynoucích z AI může problém ještě zhoršit. Stejně jako přehnaný důraz na zranitelnosti hlasovacích strojů mohl neúmyslně oslabit demokracii tím, že podkopal důvěru veřejnosti v hlasovací mechanismy,“ dodává Miloslav Lujka. „Je nezbytné si udržet nadhled a pamatovat si, že jsme se vždy potýkali s neúplnými informacemi a že manipulace, rétorické obraty a otevřené lži nevznikly až v éře AI, ale byly tu vždy. Navíc přehled případů skutečného zneužití umělé inteligence naznačuje, že k masivnímu ovlivnění našeho vnímání reality a politického diskurzu je ještě daleko.“

Novinky od českého týmu společnosti Check Point Software Technologies:

Facebook: https://www.facebook.com/CheckPointCzech

Twitter: https://twitter.com/CheckPointCzech

LinkedIn: https://cz.linkedin.com/showcase/checkpointczech

Sledujte novinky o bezpečnostním týmu Check Point Research:

Blog: https://research.checkpoint.com/

Twitter: https://twitter.com/_cpresearch_

Sledujte novinky o společnosti Check Point Software Technologies:

Twitter: http://www.twitter.com/checkpointsw
Facebook: https://www.facebook.com/checkpointsoftware
Blog: http://blog.checkpoint.com
YouTube: http://www.youtube.com/user/CPGlobal
LinkedIn: https://www.linkedin.com/company/check-point-software-technologies

O výzkumném týmu Check Point Research

Check Point Research poskytuje zákazníkům společnosti Check Point Software a širší bezpečnostní komunitě detailní informace o kyberhrozbách. Výzkumný tým shromažďuje a analyzuje data o globálních kyberútocích ze sítě ThreatCloud, chrání tak před hackery a zajišťuje, že všechny produkty Check Point jsou aktualizované a mají nejnovější ochranu. Výzkumný tým se skládá z více než 100 analytiků a výzkumných pracovníků, kteří spolupracují také s dalšími bezpečnostními společnostmi, donucovacími orgány a organizacemi CERT.

O společnosti Check Point Software Technologies

Check Point Software Technologies Ltd. (www.checkpoint.com) je přední poskytovatel kyberbezpečnostních řešení pro vlády a organizace po celém světě. Chrání zákazníky před kyberútoky 5. generace prostřednictvím unikátních řešení, která nabízí bezkonkurenční úspěšnost zachycení malwaru, ransomwaru a jiných pokročilých cílených hrozeb. Check Point nabízí víceúrovňovou bezpečnostní architekturu, Infinity Total Protection s pokročilou prevencí hrozeb 5. generace, a tato kombinovaná produktová architektura chrání podnikové sítě, cloudová prostředí a mobilní zařízení. Check Point navíc poskytuje nejkomplexnější a nejintuitivnější nástroje pro správu zabezpečení. Check Point chrání více než 100 000 organizací všech velikostí.

Exit mobile version