Kyberbezpečnostní společnost Check Point Software Technologies v této souvislosti upozornila redakci Finančních a ekonomických informací (faei.cz), že kybernetické hrozby a deepfake technologie, kdy se upravuje se především mimika obličeje a řeč jednotlivých aktérů, ovlivňují důvěru ve volby i jejich průběh.
Podle firmy nejde pouze o technologickou hrozbu, ale i o demokratickou výzvu pro všechny členské státy:
„Prověřili jsme 36 parlamentních, regionálních a prezidentských voleb, které se konaly od září 2023 do února 2024, a zjistili jsme, že nejméně v deseti případech byly použity k dezinformačním kampaním deepfake videa a audio záznamy s klonováním hlasu.“
„Často nejde o práci tzv. osamělých vlků, ale o koordinované akce profesionálních skupin. V souvislosti s Evropskými volbami můžeme očekávat novou vlnu podvrhů napříč jednotlivými zeměmi,“ informoval redakci faei.cz Daniel Šafář, manažer středoevropského regionu kyberbezpečnostní společnosti Check Point Software Technologies.
„Například během nedávných parlamentních voleb na Slovensku jsme viděli snahu ovlivnit veřejné mínění pomocí klonování hlasu kandidátů. Při těsných výsledcích voleb mohou rozhodnout o vítězi i velmi drobné vlivy a vychýlit pomyslný jazýček na vahách jedním nebo druhým směrem,“ uvedl Šafář.
„Podobně jsme viděli snahu ovlivnit polské volby pomocí videa se zvukem generovaným AI technologiemi. Ale i mnoho dalších zemí má podobné fatální zkušenosti. Úspěch, jakkoli těžce měřitelný, těchto podvrhů ještě zvýší motivaci dalších útočníků v nadcházejících volbách,“ dodal manažer.
Podle odborníků mohou být deepfake podvrhy použity k šíření dezinformací a manipulaci s veřejným míněním, ale je zde i potenciální hrozba kybernetických útoků na infrastrukturu volebních systémů. Je proto nutná ostražitost a spolupráce na všech úrovních, aby byla zachována integrita volebního procesu.
Deepfake technologie využívají strojové učení a umělou inteligence k vytváření nebo úpravě videí a zvukových nahrávek, aby vypadaly a zněly autenticky. Vyobrazené osoby pak mohou dělat a říkat věci, které ve skutečnosti nikdy neudělaly ani neřekly. V kontextu voleb mohou podobná videa poškodit reputaci politiků, šířit falešné zprávy a dezinformace a ve finále i ovlivnit rozhodování voličů.
Na Telegramu jsou stovky kanálů (přibližně 400-500) a skupin, které nabízí deepfake služby, od automatizovaných botů, kteří uživatele provedou celým procesem, až po personalizované služby poskytované přímo jednotlivými kyberzločinci. Ceny začínají na dvou dolarech za video, za 100 dolarů si lze zaplatit více videí a pokusů. Vytváření podvodného obsahu je tak znepokojivě dostupné.
Umělá inteligence ale může fungovat také jako účinná obrana. Analytické nástroje založené na AI dokáží odhalit vzorce v online konverzacích a vydat varování například v případě opakovaných dotazů na osobní údaje nebo žádosti o zaslání peněz. Integrací tohoto typu analýzy do seznamovacích platforem a chatovacích služeb by mohlo dojít ke snížení rizika pro uživatele.
„Stejně jako u ostatních typů kyberpodvodů, i v tomto případě platí, že nejlepší ochranou je obezřetnost. Uživatelé by si měli důkladně rozmyslet, s kým sdílejí své soukromé informace a osobní fotografie.
Při seznamování on-line je třeba si svůj protějšek alespoň částečně prověřit, účty na sociálních sítích bez historie a s jedinou fotografií jsou jasným varovným signálem. Pomoci může i zpětné ověření profilové fotografie ve vyhledávači, protože podvodníci často využívají fotky jiných lidí náhodně stažené z internetu,“ sdělil redakci faei.cz Ondřej Šťáhlavský ze společnosti Fortinet.