Česká asociace umělé inteligence představila manuál Deepfake 2024: Obranná strategie pro české firmy, který má poskytnout zaměstnancům srozumitelný přehled o tzv. deepfakes, tedy falešných videích, podvržených fotkách nebo audionahrávkách. Jejich počet totiž podle dat asociace loni světově vzrostl na desetinásobek. Jen v Evropě byl zaznamenán nárůst těchto útoků o 780 procent.
Vysoký nárůst byl způsoben především pokrokem v oblasti používání a vývoje umělé inteligence. Ředitel asociace Lukáš Benzl upozornil, že trh je nasycen volně dostupnými nástroji, díky kterým je tvorba nebo manipulace s multimédii otázkou několika minut. „Rychlý rozvoj umělé inteligence, kterého jsme byli v roce 2023 svědky, mění pravidla hry. Hrozby spojené se sofistikovanými útoky a syntetickými médii budou v roce 2024 patřit k jedněm z nejpalčivějších problémů v kontextu bezpečnostní politiky firem,“ uvedl.
Pro firmy a značky toto riziko platí také. Může jít o techniky, které ohrožují značku organizace, napodobují pracovníky a používají podvodnou komunikaci k získání přístupu k citlivým informacím. Phishing, tedy typ kybernetického útoku zneužívající falešnou identitu, bude s rozvojem AI podle odborníků ještě větší výzvou než kdykoliv předtím. Mezi příklady patří napodobení hlasu nadřízeného v telefonu, deepfakes v on-line schůzkách a pohovorech, zveřejnění falešného firemního prohlášení nebo třeba vydírání zaměstnanců falešnými snímky s nahotou, uvedla asociace.
Deepfakes jsou jen těžko rozpoznatelné. Například podle výzkumu anglické University College London dokážou lidé rozpoznat umělou nahrávku pouze v 73 procentech případů. Výzkum zkoumal hlasové deepfakes v angličtině a mandarínštině.
Během loňského roku se jich na sociálních sítích objevilo nespočet. Velkou reakci ale vyvolaly zejména údajné fotky ze zatčení Donalda Trumpa nebo snímek zobrazující výbuch poblíž Pentagonu. V období parlamentních voleb na Slovensku bylo pomocí řetězových e-mailů šířeno deepfake audio, na němž lídr strany Progresivní Slovensko Michal Šimečka údajně diskutoval o plánech na manipulaci s volbami.
V českém prostředí se například objevila umělá nahrávka, kde bývalý prezident Václav Klaus apeluje na posluchače, aby brali vážně globální změny klimatu a bojovali s lhostejností. Klaus je přitom znám jako „popírač“ změn klimatu způsobených činností člověka. Nahrávku na sociální síti zveřejnil účet Investigace cz.
Materiál, který asociace umělé inteligence připravila, má poskytnout zaměstnancům českých firem a organizací přehled o současných i nadcházejících trendech ve falešných multimédiích, metodách jejich detekce a autentizace a strategiích k obraně proti těmto hrozbám.
Před nástroji umělé inteligence varoval na konferenci o společenské odolnosti vůči hybridním hrozbám ředitel Bezpečnostní informační služby Michal Koudelka. Zmínil v souvislosti s tím falešná videa s prezidentem Pavlem. „Videa s generálem Pavlem, přinejmenším většina z nich, prokazatelně pocházela z Ruska. Technologie, která byla použita při jejich přípravě, nebyla umělá inteligence, avšak bylo to velmi dobře, velmi dovedně sestříhané video. Až vstoupí do hry umělá inteligence, a nebude to tak dlouho trvat a dnes už její použití stoupá, bude velmi těžké, respektive ještě těžší, to odhalit,“ upozornil.
BIS se podle něj na rizika spojená s rozmachem umělé inteligence a deepfake videí připravuje. „Ten problém je velmi vážný, hovoří se o tom v celém světě, na všech úrovních. Umělá inteligence je velmi dobrý služebník, ale pokud ji proti nám použije náš protivník, náš nepřítel, tak riziko je zásadní a velké. Připravujeme se na to, spolupracujeme se špičkovými odborníky,“ řekl Koudelka.