Trump využívá umělou inteligenci k vedení svých válek – to je nebezpečný zlomový bod

4. 3. 2026

čas čtení 5 minut

Technologie, kterou většina lidí používá pouze jako komunikační nástroj pro každodenní úkoly, údajně pomáhá americké vojenské agresi. A my s tím nemůžeme moc dělat.


Umělá inteligence dokáže mnoho věcí. Může vám seřadit nákupní seznam a zabavit vaše děti, když jsou neposlušné, tím, že jim vymyslí pohádku na dobrou noc šitou na míru. Může vám pomoci být efektivnější v práci a může pomoci vládě fungovat efektivněji.

O čem se píše méně a o čem bychom nyní měli hlasitěji mluvit, jsou rizika spojená s militarizací AI. V posledních třech měsících údajně Bílý dům Donalda Trumpa dvakrát použil AI k provedení změny režimu, nebo – v nejnovějším případě v Íránu – k tomu, aby se k tomu co nejvíce přiblížil a nechal dokončení práce na řadových Íráncích.

 

Nejprve byl model Claude AI od společnosti Anthropic – který většina lidí používá jako o něco náročnější alternativu k ChatGPT – údajně použit k naplánování a provedení únosu Nicoláse Madura z jeho sídla ve Venezuele, ale není jasné, jak byl model konkrétně použit. O víkendu jsme se pak dozvěděli, že tento nástroj umělé inteligence byl znovu použit k analýze zpravodajských informací, které pomohly při přípravě nesmírně ničivého raketového útoku na Írán, zřejmě k identifikaci cílů a provádění simulací.

Je těžké přecenit význam obou těchto momentů. Umělá inteligence byla použita při plánování a provedení vojenských operací, které vedly k neznámému počtu obětí a rozvířily Blízký východ.

Pokud vám to způsobuje nepříjemné pocity, nejste sami. Generální ředitel společnosti Anthropic, Dario Amodei, se zapletl do velmi ošklivé veřejné hádky s americkým prezidentem poté, co odmítl uvolnit dvě „červené linie“ pro Claude: že by neměl být používán pro masové domácí sledování ani k výrobě plně autonomních zbraní, které vybírají a napadají cíle bez smysluplné lidské kontroly. OpenAI rychle zasáhlo a podepsalo dohodu s Pentagonem, i když tvrdí, že podmínky této dohody znamenají, že má ve skutečnosti silnější ochranu než ta, kterou požadovala společnost Anthropic.

Bez ohledu na konkrétní pododstavce smlouvy je třeba zopakovat: nástroj, který začal veřejný život jako komunikativní rozhraní pro shrnování e-mailů a pomoc při psaní motivačních dopisů, nyní sedí někde v řetězci, který mění informace v násilí.

Dříve se otázky jako „Kdo by měl kontrolovat AI a co se stane, pokud bude použita pro vojenské účely?“ diskutovaly mezi akademiky na panelových diskusích v abstraktní rovině. Obavy existovaly, ale zdály se vzdálené, protože se nenaplnily. Když byl v lednu Maduro zatčen speciálními jednotkami a na Írán začaly padat bomby, zřejmě vše s pomocí AI, tento výpočet se změnil.

Základním principem ozbrojeného konfliktu bylo, že existují velké děsivé zbraně, ale nikdy se nepoužívají. Slouží k odstrašení. Teorie vzájemně zaručeného zničení znamenala, že se lidé zdráhali stisknout tlačítko jaderných bomb. (Znepokojivé je, že první náznaky ze scénářů válečných her naznačují, že rozhodovací orgány AI jsou ochotné použít jaderné zbraně.)

Nyní už tato výmluva neplatí. Více zemí bude používat AI ve svém vojenském plánování a akcích – správně, protože se ukázala jako účinná, i když existují zřejmé morální otázky, pokud se AI používá k vojenským rozhodnutím. Když se vojenští historici ohlédnou za tím, co se stalo v posledních několika měsících, je snadné si představit, že si budou myslet, že použití AI tímto způsobem bude podobné jako použití jaderných zbraní na Japonsko: bude to znamenat okamžik, kdy to bylo jasné předtím a nejasné potom.

Co s tím tedy můžeme dělat? Velmi málo. Měli jsme zavést plošný zákaz používání vojenské umělé inteligence. Od toho se však již více než deset let vzdalujeme, od doby, kdy Demis Hassabis zaujal principiální postoj a prohlásil, že svou společnost DeepMind prodá Googlu pouze v případě, že ten souhlasí s tím, že tato technologie nebude používána pro vojenské účely. V loňském roce společnost, nyní nazývaná Alphabet, tiše upustila od svého slibu, že nebude používat umělou inteligenci pro zbraně. A Trumpovy kroky tuto myšlenku hlasitě zmařily.

Nyní však mezinárodní společenství musí tvrdě pracovat na tom, aby Trumpa přivedlo zpět z propasti. Spojenci by měli vyvíjet tlak na Trumpův Bílý dům, aby nejen zodpovědně používal AI pro vojenské účely, ale také přijal závazná omezení. Ta by měla zahrnovat mezinárodní závazky, transparentní standardy pro zadávání veřejných zakázek a smysluplný dohled, ke kterým by se měli připojit i ostatní, místo aby etiku považovali za brzdu jednání. Protože pokud nejmocnější armáda světa normalizuje modely umělé inteligence pro spotřebitele jako součást operací zaměřených na změnu režimu, ocitneme se na druhé straně zrcadla umělé inteligence: budeme v úplně novém, mnohem nebezpečnějším světě.

Zdroj v angličtině ZDE

  • Autor Chris Stokel-Walker je autorem knihy TikTok Boom: The Inside Story of the World’s Favourite App (TikTok Boom: Příběh nejoblíbenější aplikace světa).

-1
Vytisknout
1368

Diskuse

Obsah vydání | 5. 3. 2026