USA mají udělat všechno, co je v jejich sílách, aby nepřipustily válečné použití autonomních bitevních systémů, píše v článku pro NBC News technická odbornice Liz O'Sullivan. Podle jejího názoru se Washington má soustředit na obranu před podobnými vražednými roboty, ale neúčastnit se potenciálních závodů ve zbrojení s Čínou nebo Ruskem.
„Když jsem byla na začátku letošního roku na zasedání výboru OSN věnovaném systémům smrtících autonomních zbraní (jinými slovy, robotům-vrahům), šokovalo mne tvrzení amerických delegátů o tom, že automatické zbraně s umělým rozumem mohou být bezpečné a spolehlivé. Podobná myšlenka nejen neodpovídá skutečnosti, ale ohrožuje nás všechny. Přesně stejná logika vedla k studené válce, k jadernému zbrojení, a vzniku hodinek Soudného dne,“ píše Liz O'Sullivan v článku pro NBC News.
Autorka příspěvku pracovala v jedné mladé, rozvojové společnosti, a z vlastní zkušenosti se přesvědčila o nebezpečí „nespolehlivých, ale výkonných technologií.“ O'Sullivan se obávala, že její práce může přispět k potenciálním plánům Pentagonu ohledně použití umělého rozumu ve vojenských účelech, a proto tuto společnost opustila. Stala se pak členkou Mezinárodního výboru pro kontrolu nad robotizovanými zbrojními systémy (ICRAC) a připojila se ke kampani „Zastavme bitevní roboty,“ aby se přesvědčila, že se umělý rozum používá zodpovědně dokonce v případě ozbrojeného konfliktu.
„S ohledem na to, že Rusko usiluje o zmaření mezinárodních jednání o kontrolu nad systémy smrtících autonomních zbraní (LAWS), a Čína sériově vyrábí stále modernější bezpilotní stroje s umělým rozumem, dají se pochopit obavy ohledně toho, že tyto dvě země mohou nasadit vraždící roboty. Ale nejlepší způsob pro USA, jak překonat tento problém, je nestimulovat závody ve zbrojení, nevyrábět vlastní stroje, jež budou větší, rychlejší a smrtelnější. Nejlepší způsob je zabránit tomuto horečnému zbrojení,“ zdůrazňuje expertka.
Připomněla, že Američani již vyhrotili napětí, a nyní mají jednat chytřeji. Je třeba schválit v rámci OSN mezinárodní zákony, které zakážou vývoj podobných systémů, a uznají jejich použití za nepřípustné.
Mají-li USA za cíl zmírnění napětí, chtějí-li dosáhnout toho, aby Rusko a Čína přísně tento zákaz dodržovaly, mají omezit bitevní kvality této technologie. Bude pak méně atraktivní pro nepřítele, a nebude stát za pokuty, jež budou muset zaplatit za porušení mezinárodní dohody, uvažuje autorka článku.
„Technická omezení LAWS poskytují zjevnou možnost držet tuto Pandořinu skříňku zavřenou. Máme použít naše výborné odborníky na vysoké technologie a naše zdroje na vývoj spolehlivých obranných, a nikoli útočných strojů. Když naši nepřátelé konstruují terminátory, můžeme bojovat jako John Connor, který statečně bránil lidstvo před terminátory, kteří chtěli vládnout lidem,“ domnívá se Liz O'Sullivan.
Modely umělého rozumu mohou, podle jejího mínění, zhodnotit pouze objekty, s kterými měli do činění dříve, a proto se nedají odhadnout všechny scénáře. Úhel kamery, světlo, vzdálenost objektu, kvalita natočení, počasí, to není zdaleka úplný seznam faktorů, jež mohou ovlivnit přesnost počítačového modelu, který se snaží najít cíl.
„Když výzkumníci říkají těmto modelům „křehké,“ mají na mysli, že „prasknou“ v případě nějaké změny scénáře, který byl do nich vložen při konstruování. Je to obzvlášť správné v případě válečných akcí, protože se situace na bojišti nedá přesně předpovědět, a nepřítel se bude vždy snažit, aby této slabosti využil,“ upozornila technická odbornice.
Pentagon bude muset vybavit své roboty-vrahy počítačovým viděním, aby dokázali najít cíl. Jenže žádný dnešní model počítačového vidění není s to čelit takzvaným závodním útokům, které mají za cíl oklamat umělý rozum.
Stačí, například, přidat k zobrazení trochu digitálního hluku, aby model počítačového vidění byl oklamán. Stejný účinek bude, například, dáme-li tankový oddíl pod síť z různobarevných lesklých konfet, nebo z něčeho stejně nevhodného. Když robot nebyl naučen, aby jednal v podobné situaci, budou vojáci v této kamufláži prakticky nezranitelní, tvrdí Liz O'Sullivan.
Průzkum také ukázal, že nikoli tvar, nebo barva, ale textura umožňuje modelům počítačového vidění stanovit terč před útokem. Protože, hledá-li terminátor kůži, dá se před ním schovat do kožešiny. Je-li naprogramován na poušť, dá se umístit na bojišti umělý trávník, míní autorka článku.
„Přejeme-li si mít něco s vyšší technologií, dá se vyrobit živá, měnitelná kamufláž, která generuje různé vzory a textury. Anebo vyzbrojit naše vojáky nečekanými předměty, například, připevnit na bitevní techniku růžové nafukované dikobrazy. Poněvadž se tyto objekty nebudou podobat ničemu použitému pro algoritmus zaměření, učiní počítač předpoklad, že lidé, které vidí, se jistým způsobem liší od těch, které má zabíjet,“ předpokládá Liz O'Sullivan. .
Přiznává se, že není expertka na obranu, a proto přenechává konkrétní řešení „Johnům Connorům z různých vojenských laboratoří USA.“ Zároveň ale varuje s odkazem na vlastní znalosti, že modely počítačového vidění nemusí být účinné.
„Tvrzení americké delegace o účelnosti války, v které stroje mohou útočit bez lidské účasti, bylo pro mne důkazem zjevného nedostatku technických znalostí, jež jsou potřebné pro vážné rozhovory na toto téma. To je to hlavní, čeho se obávám jak já, tak ostatní účastníci kampaně Zastavme roboty-vrahy. Systémy smrtících autonomních zbraní nejsou původně bezpečné, a dovolíme-li zemím, zvlášť nedemokratickým, aby je vyvíjely, padneme všichni za oběť jejich chyb,“ píše na závěr Liz O'Sullivan.
Zdroj: nbcnews.com