Vojenské AI systémy môžu výrazne zvýšiť riziko eskalácie konfliktov. Niektorí experti varujú, že ich nasadenie môže byť potenciálne nebezpečnejšie než samotné jadrové zbrane.
Moderné vojny produkujú obrovské množstvo dát, ktoré ľudia nedokážu spracovať dostatočne rýchlo. Väčšina armád sa stále oficiálne drží princípu „human in the loop“ – teda človeka v rozhodovacom procese, technologický trend sa však vyvíja opačným smerom. Do popredia sa dostáva umelá inteligencia, ktorá vďaka algoritmom poskytuje pri spracovaní a vyhodnotení údajov obrovskú výhodu.
Armády investujú miliardy do AI systémov, ktoré dokážu spracovať viac dát, reagovať rýchlejšie a rozhodovať efektívnejšie než človek. A práve v tom spočíva paradox modernej vojny.
Technológia, ktorá má armádam pomôcť reagovať rýchlejšie, môže zároveň znížiť čas na premyslenie rozhodnutí. Technológia môže vytvoriť situáciu, v ktorej bude vojna prebiehať rýchlejšie, než ju dokáže človek pochopiť. V extrémnom prípade by tak budúce konflikty mohli prebiehať bez priestoru na pochybnosti, diplomaciu alebo druhú šancu, píše portál Defence News.
Umelá inteligencia sa už stala súčasťou moderných armád. Pomáha analyzovať satelitné snímky, vyberať ciele a zrýchľovať vojenské rozhodovanie. Pentagón ju nasadzuje aj v logistike, plánovaní zásobovania alebo pri predpovedaní porúch vojenskej techniky.
Hoci konečné rozhodnutie stále robí človek, AI sa stáva kľúčovým motorom celého rozhodovacieho reťazca. AI dokáže spracovať obrovské množstvo dát a vyhodnocovať situáciu v priebehu sekúnd. Práve rýchlosť je najväčšou výhodou umelej inteligencie. A zároveň jej najväčším rizikom.
Výskumníci z Harvardu upozorňujú, že AI-poháňané zbraňové systémy predstavujú „novú éru vo vojne“ a môžu priniesť riziká, ktoré doteraz vojenská technológia nepoznala – od nepredvídateľného správania algoritmov až po chyby v klasifikácii cieľov.
Aj dôkladne testované systémy sa totiž môžu v reálnom prostredí správať nečakane. Vojenské AI systémy tak môžu výrazne zvýšiť riziko eskalácie konfliktov. Niektorí experti varujú, že ich nasadenie môže byť potenciálne nebezpečnejšie než samotné jadrové zbrane.
Pentagón v posledných rokoch výrazne zrýchlil spoluprácu s technologickými firmami. Americká armáda sa čoraz viac spolieha na umelú inteligenciu pri rozhodovaní na bojisku.
Nová analýza však varuje, že americká armáda zavádza tieto systémy rýchlejšie, než ich dokáže dôkladne otestovať.
Autori analýzy upozorňujú, že technologický optimizmus môže skrývať vážne riziká. Algoritmy totiž nie sú neomylné. Ak AI nesprávne vyhodnotí situáciu, môže označiť civilistu ako legitímny vojenský cieľ alebo naopak prehliadnuť skutočnú hrozbu.
„Chyby umelej inteligencie sa môžu reťaziť a viesť k zlyhaniu celého systému, ktorý nesprávne identifikuje civilistov ako ciele a zároveň prehliadne skutočné hrozby,“ upozorňujú autori analýzy.
Najväčšou obavou expertov nie je samotná existencia autonómnych zbraní, ale postupné odstránenie človeka z rozhodovacieho reťazca. Analýza organizácie Arms Control Association upozorňuje, že ak sa umelá inteligencia integruje do systémov jadrového velenia a varovania, môže dramaticky skrátiť čas na rozhodovanie. Falošné varovanie, ktoré by si ľudský operátor ešte overil, by sa v automatizovanom systéme mohlo zmeniť na okamžitú reakciu.
Niektorí analytici preto tvrdia, že AI môže byť strategicky nebezpečnejšia než jadrové zbrane – nie kvôli sile výbuchu, ale preto, že môže zrýchliť a automatizovať samotné rozhodovanie o vojne.
Generálny tajomník OSN António Guterres upozornil, že integrácia umelej inteligencie do vojenských systémov môže zvýšiť riziko jadrového konfliktu a zdôraznil, že rozhodnutie o použití jadrových zbraní musí vždy zostať v rukách ľudí.
Historik a autor bestselleru Sapiens Yuval Noah Harari vlani varoval, že umelá inteligencia môže byť v dlhodobom horizonte nebezpečnejšia než jadrové zbrane, pretože dokáže manipulovať informácie, rozhodovanie a samotné fungovanie spoločnosti. Už v roku 2014 podobnú myšlienku vyslovil aj Elon Musk.
Využitie umelej inteligencie na vojenské účely môže mať veľmi závažné dôsledky, ako ukazuje nedávny pokus na King's College London. V ňom dostali modely ChatGPT, Claude a Gemini za úlohu vyriešiť vážne medzinárodné spory, pričom sa počítalo aj s ozbrojenými konfliktmi.
Výsledok však podľa webu New Scientist odborníkov prekvapil. V 95 % prípadov sa totiž umelá inteligencia rozhodla pre použitie jadrových zbraní.
Autori upozorňujú, že ide o simuláciu, nie o skutočné vojenské systémy. Experiment však podľa nich poukazuje na zásadný problém: algoritmy môžu interpretovať jadrové zbrane ako jeden z mnohých strategických nástrojov, zatiaľ čo ľudia ich historicky vnímajú ako poslednú možnosť.
„Jadrové tabu sa pre stroje nezdá byť také silné ako pre ľudí,“ upozorňuje vedúci výskumu Kenneth Payne. „Z hľadiska jadrového rizika sú tieto zistenia znepokojujúce,“ dodáva James Johnson z Univerzity v Aberdeene.
Podľa Payna môže byť dôvodom tejto tendencie absencia emócií a strachu z následkov. Modely napríklad nedokážu precítiť hrôzu z historických udalostí, akou bolo bombardovanie Hirošimy.
Odborníci zatiaľ nepredpokladajú, že by umelá inteligencia získala priamy prístup k jadrovým zbraniam. Za potenciálne nebezpečnú však považujú situáciu, keď si vysokí predstavitelia pod časovým tlakom a v strese nechajú od umelej inteligencie poradiť v podobných veciach, píše Defence News.
Čína varovala, že nadmerné využívanie umelej inteligencie v armáde by mohlo svet uvrhnúť do dystopickej budúcnosti podobnej filmu „Terminátor“.
Kultové dielo režiséra Jamesa Camerona, ktoré bol uvedené do kín v roku 1984, zobrazuje apokalyptickú budúcnosť v ktorej vládu prevzali stroje.
Všetko sa začalo, keď americká vláda vytvorila systém Skynet na princípe novej umelej inteligencie, aby mohol brániť vládne a vojenské počítače. Po spustení získal Skynet kontrolu nad všetkými počítačmi pripojenými k sieti. Vyhodnotil ľudí ako hrozbu a pokúsil sa ich odstrániť pomocou jadrových zbraní.
„Katastrofická budúcnosť zobrazená v americkom filme Terminátor sa jedného dňa môže stať skutočnosťou,“ varoval hovorca čínskeho ministerstva obrany.
Nastaviť hranice umelej inteligencii sa snažia politici na celom svete. Téme sme sa venovali v archívnej reportáži v priloženom videu:
Sledujte Televízne noviny vo full HD a bez reklám na Voyo