Vážné nebezpečí vojenského použití systémů umělého rozumu tkví v jeho účasti v přijetí rozhodnutí o prvním útoku. Píše o tom Breaking Defense s odkazem na bývalého náměstka ministra obrany USA Roberta Warka. (Foto: US Army)
Wark má za to, že se umělý rozum nesmí účastnit kontroly nad jadernými zbraněmi, protože se odpalují podle určitých parametrů a ukazatelů.
V některých situacích může umělý rozum odhadnout neohrožující faktory jako nebezpečné, což je „znepokojivá perspektiva“.
Jako příklad uvádí ruský systém Perimetr, který může vyhodnotit seismickou aktivnost jako jaderné výbuchy, po čemž vyšle žádost do štábu, a nedostane-li náhodou odpověď, může dát povel k vypuštění mezikontinentálních balistických raket.
Wark dodal, že použití umělého rozumu ve vojenských účelech může mít tragické následky dokonce bez jeho přímé účasti v ovládání jaderných zbraní.
Může třeba jít o jeho použití v rozboru průzkumných dat, a rovněž v systémech včasného varování.
„Představte si, že systém umělého rozumu na velitelství čínské armády zanalyzoval data průzkumu, a prohlásil, že USA chystají útok na Čínu, proto doporučuje preventivní úder,“ řekl Wark.
Nicméně poznamenal, že umělý rozum může být nepochybně užitečný pro vojáky, jeho použití však má být omezené a nesmí se týkat jaderných zbraní, poněvadž to může mít za následek „katastrofický scénář“.
Zdroj: breakingdefense.com