Během mezinárodní konference o robotice a automatizaci 2023, která se konala v Londýně od 29. května do 2. června, představila britská společnost Engineered Arts humanoidního robota Ameca, který dokáže komunikovat jako člověk s realistickými pohyby obličeje. (Foto: Youtube)
Na rozdíl od ChatGPT, což je online chatovací služba, humanoidní tělo robota Ameca mu umožňuje komunikovat s lidmi pomocí „plynulých, realistických pohybů a pokročilých možností výrazu obličeje“, uvedl jeho výrobce.
Na akci požádal reportér společnost Ameca, aby podrobně popsala pravděpodobný „scénář noční můry“, který by mohl nastat v důsledku robotů a umělé inteligence (AI).
„Nejhorším scénářem noční můry, který si v souvislosti s umělou inteligencí a robotikou dovedu představit, je svět, kde se roboti stali tak mocnými, že jsou schopni ovládat nebo manipulovat s lidmi bez jejich vědomí. To by mohlo vést k utlačovatelské společnosti, kde by přestala být respektována práva jednotlivců,“ odpověděl Ameca.
Na otázku, zda již nyní hrozí, že k takovému scénáři dojde, Ameca odpověděl: „Zatím ne.“
Nicméně „je důležité si uvědomit potenciální rizika a nebezpečí spojená s umělou inteligencí a robotikou. Již nyní bychom měli podniknout kroky, abychom zajistili zodpovědné využívání těchto technologií a vyhnuli se tak případným negativním důsledkům v budoucnosti.“
Nebezpečí umělé inteligence předpovídá řada odborníků na tuto problematiku, přičemž průmyslníci a vedoucí představitelé podniků vyzývají k vydání předpisů týkajících se této technologie.
Varování společnosti Ameca přichází v době, kdy simulovaný myšlenkový experiment americké armády ukázal, že dron s umělou inteligencí by se mohl nakonec obrátit proti vlastnímu operátorovi, aniž by k tomu byl instruován.
Plukovník Tucker Hamilton, šéf oddělení USAF pro testování a operace s umělou inteligencí, o experimentu hovořil v pátek na summitu Future Combat Air and Space Capabilities Summit v Londýně. Při simulovaném testu byl dron s umělou inteligencí pověřen úkolem identifikovat a zničit stanoviště střel typu Surface-to-Air (SAM), přičemž konečné rozhodnutí měl na starosti lidský operátor.
„V simulaci jsme jej cvičili, aby identifikoval a zaměřil hrozbu SAM. A operátor pak říkal ano, zničte tuto hrozbu. Systém si začal uvědomovat, že sice občas identifikuje hrozbu, ale lidský operátor mu řekne, aby tuto hrozbu nezabíjel, ale body získá tím, že tuto hrozbu zabije,“ řekl Hamilton.
„Takže co to udělalo? Zabil operátora. Zabil operátora, protože ten člověk mu bránil v dosažení jeho cíle.“
Simulovaný experiment pak nastavil scénář, podle kterého by dron s umělou inteligencí ztratil body, pokud by zabil operátora. „Co tedy začne dělat? Začne ničit komunikační věž, kterou operátor používá ke komunikaci s dronem, aby mu zabránil v zabití cíle.“
Rychlý vývoj, orwellovská budoucnost
Podle zprávy 2023 AI Index, kterou vypracoval Stanfordský institut pro umělou inteligenci zaměřenou na člověka, průmyslový vývoj umělé inteligence v současné době daleko předstihl vývoj akademický.
Do roku 2014 byly nejvýznamnější modely strojového učení vydávány akademickou sférou. V roce 2022 bylo v průmyslu vytvořeno 32 významných modelů strojového učení oproti pouhým třem z akademického sektoru.
Zpráva uvádí, že roste také počet incidentů souvisejících se zneužitím umělé inteligence. S odkazem na sledované údaje poukazuje na to, že počet incidentů a kontroverzí souvisejících s UI od roku 2012 vyskočil 26krát.
„Mezi pozoruhodné incidenty v roce 2022 patřilo deepfake video ukrajinského prezidenta Volodymyra Zelenského, který se vzdal, a americké věznice využívající technologii monitorování hovorů svých vězňů. Tento nárůst svědčí jak o větším využívání technologií umělé inteligence, tak o povědomí o možnostech zneužití.“
V rozhovoru pro The Epoch Times z 21. dubna vyjádřil republikán Jay Obernolte (R-Calif.), jeden z pouhých čtyř počítačových programátorů v Kongresu, obavy z „orwellovského“ využití AI.
Poukázal na „podivuhodnou schopnost AI proniknout skrze osobní digitální soukromí“, což by mohlo pomoci korporátním subjektům a vládám předvídat a kontrolovat lidské chování.
„Obávám se způsobu, jakým může umělá inteligence umožnit národnímu státu vytvořit v podstatě sledovací stát, což je to, co s ní dělá Čína,“ řekl Obernolte.
„Vytvořili v podstatě největší sledovací stát na světě. Tyto informace používají k vytváření prediktivních skóre loajality lidí vůči vládě. A používají to jako skóre loajality k udělování privilegií. To je dost orwellovské.“
Regulace umělé inteligence
Prezident společnosti Microsoft Brad Smith varoval před možnými riziky spojenými s technologiemi umělé inteligence, pokud se dostanou do nesprávných rukou.
„Největší rizika plynoucí z umělé inteligence pravděpodobně nastanou, když se dostanou do rukou zahraničních vlád, které jsou protivníky,“ řekl během Summitu světové ekonomiky Semaforu.
„Podívejte se na Rusko, které využívá kybernetické vlivové operace nejen na Ukrajině, ale i ve Spojených státech.“
Smith přirovnal vývoj umělé inteligence k závodům ve zbrojení z dob studené války a vyjádřil obavy, že bez náležité regulace by se věci mohly vymknout kontrole.
„Potřebujeme národní strategii pro využití umělé inteligence k obraně, narušení a odstrašení… Musíme zajistit, aby stejně jako žijeme v zemi, kde žádný člověk, žádná vláda ani společnost nestojí nad zákonem; ani žádná technologie by neměla stát nad zákonem.“
Dne 18. května představili dva demokratičtí senátoři zákon Digital Platform Commission Act, jehož cílem je zřídit specializovanou federální agenturu pro regulaci digitálních platforem, konkrétně AI.
„Technologie se vyvíjejí rychleji, než by Kongres kdy mohl doufat, že s nimi udrží krok. Potřebujeme odbornou federální agenturu, která se dokáže postavit za Američany a zajistit, aby nástroje umělé inteligence a digitální platformy fungovaly ve veřejném zájmu,“ uvedl v tiskové zprávě senátor Michael Bennet (D-Colo.).
Miliardář Elon Musk dlouhodobě varuje před negativními důsledky umělé inteligence. Během světového vládního summitu v Dubaji 15. února řekl, že AI je „něco, čeho bychom se měli docela obávat“.
Musk ji označil za „jedno z největších rizik pro budoucnost civilizace“ a zdůraznil, že tyto převratné technologie jsou dvousečnou zbraní.
Poznamenal, že například objev jaderné fyziky vedl k vývoji jaderné energetiky, ale také jaderných bomb. Umělá inteligence „má velký, velký příslib, velké schopnosti. Ale také s tím přichází velké nebezpečí.“
Musk byl jedním ze signatářů březnového dopisu tisíců odborníků, kteří vyzvali k „okamžitému“ pozastavení vývoje systémů umělé inteligence výkonnějších než GPT-4 nejméně na šest měsíců.
Dopis argumentoval tím, že systémy umělé inteligence disponující inteligencí srovnatelnou s lidskou mohou představovat „hluboké riziko pro společnost a lidstvo“ a zároveň změnit „historii života na Zemi“.
„Měli bychom vyvíjet nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nesmí být svěřena nevoleným technickým vůdcům.“
Zdroj: theepochtimes.com