Názory a argumenty

Jan Fingerland: Izraelci v Gaze nasadili umělou inteligenci. Je dost chytrá?

Názory a argumenty

Jan Fingerland: Izraelci v Gaze nasadili umělou inteligenci. Je dost chytrá?
Kouř stoupá po izraelském úderu na Gazu uprostřed probíhajícího konfliktu mezi Izraelem a palestinskou islamistickou skupinou Hamás, pohled ze Sderotu v jižním Izraeli

Plus

O umělé inteligenci se v souvislosti s válkou v Gaze zatím mluvilo především kvůli výrobě falešných obrazů z bojišť. Teď přibylo nové téma, totiž skutečnost, že izraelská armáda používá umělou inteligenci pro identifikaci cílů. I to je vlastně přelom, možná ještě epochálnější.
Jan Fingerland

Přepis epizody

Přepis mluveného slova do textu je prováděn automatizovaným systémem a proto obsahuje mnoho nepřesností. Je určen pouze pro rychlou orientaci a vyhledávání. Nalezené výsledky vyhledávání jsou v přepisu zvýrazněny podbarvením.
  • O umělé inteligenci se v souvislosti s válkou v Gaze zatím mluvilo především kvůli výrobě falešných obrazů z bojišť. Teď přibylo nové téma, totiž skutečnost, že izraelská armáda používá umělou inteligenci pro identifikaci cílů. I to je vlastně přelom, možná ještě pochmurnější. Umělou inteligenci v boji pravděpodobně použili už Rusové na Ukrajině při nasazení samostatně se rozhodujících dronu. Podobné zbraně vyvíjejí i Američané a Číňané. Izraelci se svou aplikací AI přišli v roce 2019 a poprvé ve větším měřítku ji nasadili při střetnutí s Hamasem v Gaze v roce 2021. V tomto případě šlo o výběr vojenských cílů pro střelbu. Podle izraelských tvrzení se tím množství cílů mnohonásobně zvětšilo a umožňuje pálit nejen intenzivněji, ale i přesněji. Systém absorpce pravděpodobně využívá schopnost rychle a ve velkých objemech kombinovat informace několika druhů od pozorování z dronů přes různé databáze až po odposlechy. Pravděpodobně také pracuje s informacemi získanými ze sledování pohybu a charakteristického jednání jednotlivců i celých skupin tak může zaměřit třeba ozbrojence, kteří dříve udeřili a pak rychle zmizeli v zástavbě. Možná tedy systém rozpozná místa vstupu do tunelů, skladů nebo skrýší. Některých západních médiích se objevily kritické články, které se snaží izraelská tvrzení zpochybnit proti užití napsali. Zmiňují nejrůznější důvody. Například to, že umělá inteligence se může dopouštět omylů nebo že náhlý nadbytek cílů vede ke střelbě na méně kvalitní terče třeba obydlí nižších kádrů Hamasu a nikoli jen vyšších velitelů. Konkrétně v případě HP sorry, ale každý jí před vybraný cíl ještě podléhá dozoru živého vojáka. Proto se jiný typ kritiky zaměřuje odlišným směrem. Například že izraelští vojáci prý nemají dost času na kvalitní ověřování a rozhodování, že někteří vojáci jsou méně uvážlivý než jiní, že určování cílů nabývá příliš mechanické podoby nebo že systém počítá s tím, že při střelbě na konkrétní cíl zemře předem známé množství civilistů. Jenže toto vše je pravda i o klasickém válčení a nevyplývá z toho nic o tom, jako užívají konkrétně Izraelci a jak jsou nastaveny parametry používání Hep. Sorry, přinejmenším teoreticky je možné, že výsledně je použití umělé inteligence pro civilisty méně ničivé. Avšak ani to nikdo nemůže bezpečně tvrdit. Hodnocení a psali tady dost často, záleží na naladění konkrétních kritiků. První velký text uveřejnil britský The Guardian. Článek se systematicky snaží vyvracet jakákoli oficiální izraelská tvrzení, ale žádný jednoznačný závěr nedělá. Řada dalších autorů sice stavěla na tomto textu, posunula jeho vyznění k větší kritičnosti. Například turecká agentura Anadolu zprávu uveřejnila pod titulkem Izrael využívá umělou inteligenci k identifikaci potenciálních civilních cílů, aby maximalizoval počet palestinských obětí. Zajímavé je, že všechny tyto články přejímají mylný překlad hebrejského slova jako gospel, tedy evangelium. Správně to znamená zvěstování. Dotyční autoři možná neznají dost hebrejštinu, angličtinu, nebo by byly možná tedy ani umělou inteligenci. Zdá se, že nejen ve vojenství, ale v žurnalistice se umělá inteligence ještě nějakou dobu neobejde bez té přírodní.