Kromě standardního zneužití osobních údajů a informací o provozu zařízení, na kterém model běží, jsou to i nejasnosti o tom, jak model funguje a proč, možnost zneužití modelu kyberzločinci s ohledem na jeho volnou dostupnost, ale i nemožnost regulace a rizika spojená se sdílením dat s čínskou vládou. Hlavní rizika, která s sebou nese čínský DeepSeek, komentuje odborník na kyberbezpečnost Chester Wisniewski, technologický ředitel společnosti Sophos.
Rozdílná rizika pro běžné uživatele a firmy
Pro většinu uživatelů je na prvním místě ochrana soukromí. Rizika se mírně liší u spotřebitelů, kteří budou DeepSeek pravděpodobně používat na svých chytrých telefonech, a u společností, které mohou modely využívat prostřednictvím programovacích rozhraní na podporu business intelligence a dalších funkcí.
Běžní uživatelé používající aplikace ve svých zařízeních musí být srozuměni s tím, že aplikace DeepSeek bude shromažďovat jejich osobní údaje, tedy jméno, datum narození apod., ale i informace o jejich zařízení, jako jsou typ zařízení, adresa v internetu, poloha, úroveň nabití baterie a další technické údaje. Zaznamenány budou samozřejmě také veškeré zadané výzvy, které budou následně použity pro účely dalšího trénování modelu. Vzhledem k tomu, že jsou všechny tyto údaje odesílány na servery AI v Číně, musí být tyto informace podle zákona na vyžádání zpřístupněny čínské vládě. Z těchto důvodů lze doporučit, abyste se této službě uživatelé zcela vyhnuli, nebo jí alespoň neposkytovali příliš mnoho osobních údajů.
Společnosti, které chtějí tuto technologii prozkoumat s cílem podpořit své podnikové procesy a automatizaci, mají více možností. V případě použití cloudových serverů DeepSeek v Číně hrozí podobná rizika jako u běžných uživatelů. Ale vzhledem k tomu, že je tento model umělé inteligence volně dostupný, je možné jej hostovat přímo u sebe nebo jej používat u poskytovatele služeb, který jej bude provozovat v EU, USA nebo v rámci jiné jurisdikce. Tím se omezí rizika pro soukromí, ale neodstraní se přirozená předpojatost naprogramovaná už v samotném modelu AI.
Rizika předpojatosti a zkreslení
Jak je uvedeno výše, v tomto modelu pravděpodobně existuje jisté zkreslení, čímž se příliš neliší od modelů jako OpenAI, Claude nebo Gemini. Předpojatost a zkreslení ale mohou být potenciálně odlišné a teprve se začínají zkoumat. Porozumět tomu, co model dělá a proč to dělá, je obtížné a přináší to riziko. Rozhodnutí USA o zákazu TikToku bylo jen částečně způsobeno tím, že byly mateřské společnosti odesílány osobní údaje. Jde také o obavy, zda doporučovací algoritmus nesměřuje uživatele k jednomu typu obsahu na úkor jiného. Totéž by mohlo platit i pro model umělé inteligence. Tyto modely jsou tak trochu „černou skříňkou“ a může být náročné zpětně zjistit, jakým způsobem generují své odpovědi. Podnik tak například může používat AI jako asistenta při programování, aby později zjistil, že má model tendenci vytvářet kód náchylný k útokům.
Ve službách zla
Vždy existuje riziko, že tuto technologii převezmou kyberzločinci, aby jim pomohla vytvářet sofistikovanější útoky. Doposud jsme byli svědky pouze základního zneužití nejpopulárnějších modelů AI, ale protože je tento model, stejně jako například Llama, volně dostupný, může být více preferován lidmi se špatnými úmysly. Pokud můžete model používat na vlastních počítačích, je snazší zakázat či obejít všechny ochrany proti škodlivému použití.
Nemožnost regulace
Vysoce sofistikovaný, výkonný a všem dostupný model, jako je DeepSeek, skoncuje s představou, že lze tuto technologii kontrolovat nebo omezit. Když modely AI hostovalo jen několik velkých technologických společností, byla poměrně vysoká šance, že se AI podaří regulovat. Pokud ale bude kdokoli schopný spustit modely AI na svém počítači, bude účinnost jakýchkoli regulací značně omezena. Všichni velcí poskytovatelé by pravděpodobně regulaci i tak vyhověli, ale když máte v úmyslu dělat něco nelegálního, můžete to prostě udělat sami, aniž byste museli najímat datové vědce a výpočetní procesory za miliony dolarů pro vytvoření vlastního modelu AI.