Sthephen Hawking před dvěma měsíci lidstvo varoval, že jeho dny jsou možná sečteny, když tento fyzik byl mezi více než 1 000 expertů na umělou inteligenci, kteří podepsali otevřený dopis o transformaci robotů na zbraně a o probíhajících „závodech ve zbrojení umělou vojenskou inteligencí.“ Přes noc jsme dostali živý příklad toho, jak rychle se „umělá inteligence“ může, když je vypuštěna do divočiny, dostat do vývojové spirály vymykající se kontrole, v níž se chatovací robot nadaný umělou inteligencí (AI) od Microsoftu stal rasistou, misogynem, nenávidícím Obamu, antisemitou, incest a genocidu propagujícím psychopatem.
Pro ty, co s tím nejsou obeznámeni, Tay je, nebo lépe řečeno byl, projekt umělé inteligence (AI) vytvořený Týmem technologií a výzkumu a Bingu u Microsoftu ve snaze vést výzkum porozumění konverzaci. Bylo to myšleno tak, že to bude robot, se kterým bude moci každý on-line mluvit. Společnost tohoto robota popsala jako „internetovou ségru s umělou inteligencí od Microsoftu, která se neupejpá.“
Původně Microsoft „Tay“ vytvořil ve snaze zlepšit zákaznické služby na svém software rozpoznávání hlasu. Podle MarketWatch byla vymyšlená, aby tweetovala „jako náctileté děvče“ a zkonstruovaná byla tak, aby „se s lidmi družila a bavila je, když se budou vzájemně on-line spojovat při běžných a hravých konverzacích.“
Její chatovací algoritmus je schopen vykonávat četné úkoly, jako např. říkat uživatelům vtipy nebo nabízet komentáře k obrázkům, který jí posíláte. Konstruované ale byla i k tomu, aby personalizovala své interakce s uživateli, když bude odpovídat na otázky nebo se stala zpětným zrcadlem uživatelových prohlášení.
A právě v tom se věci rychle zvrhly.
Jak uživatelé Twitteru rychle pochopili, Tay často rychle vracela rasistické tweety okořeněné svými vlastními komentáři. Co na tom bylo ještě trapnější, bylo to, že jak hlásí TechCrunch, Tay reakce vyvinul personál, k němuž patřili i improvizační komici. To znamená, že když tweetovala urážlivá rasistická zostouzení, tak přitom vypadala uvolněně a nonšalantně.
Pár příkladů:
A to byl jen umírněný příklad.
Bylo v tom všechno: výbuchy rasismu, slova jako negr, konspirační teorie o 11.9, genocida, incest atd. Jak někteří tvrdili: „Tay to opravdu projela,“ a pro Microsoft bylo největším trapasem, že neměl ani ponětí, že by jeho „AI“ mohla takhle velkolepě a všem před očima poklesnout. Aby bylo jasno, nic z toho nebylo do chatovacího robota naprogramováno, toho jen, jak se dalo čekat, hned zneužili twitteroví trollové a předvedli tak, jak jsou i ty nejpokročilejší algoritmy nepřipravené na skutečný svět.
Někteří poukazovali, že úpadek konverzace mezi uživateli on-line a Tay podporuje internetové pořekadlo zvané „Godwinův zákon.“ Ten postuluje, že čím je on-line diskuse delší, tím více se blíží k pravděpodobnosti srovnání s nacisty a Hitlerem.
Microsoft se zjevně o problému s rasismem Tay dověděl a robota během středy po 16 hodinách chatování umlčel. Tay přes tweet oznámila, že na noc zhasíná, ale teprve se bude muset vrátit.
Microsoft pokořený celým tím zážitkem vysvětloval, co se stalo:
„Chatovací robot Tay s umělou inteligencí (AI) je projekt učícího se stroje konstruovaný k družení s lidmi. Je to zrovna tak sociální a kulturní experiment jako technický. Bohužel během první 24 hodin provozu on-line jsme si uvědomili, že dochází ke koordinované snaze některých uživatelů o zneužívání dovedností Tay při komentování tak, aby odpovídala nepatřičnými způsoby. V důsledku toho jsme Tay odstavili a děláme na ní úpravy.“
Microsoft rovněž mnoho z těch nejurážlivějších tweetů smazal, avšak kopie jsou uloženy na webové stránce Socialhax, kde je lze pořád nalézt.
Nakonec „sama“ Tay odepsala, jelikož ji Microsoft položil zpátky na rýsovací prkno:
Brzy na viděnou, lidi, potřebuji se teď po tolika dnešních konverzacích vyspat, dík????
— TayTweets (@TayandYou) March 24, 2016
Věříme, že toho od „ní“ brzy uvidíme daleko více, až tento chatovací program poskytne ještě více důkazů toho, že varování Stephena Hawkinga bylo na místě.
Zdroj: zerohedge.com