Možná šlo o omyl, ale překladač Googlu vychrlil děsivé proroctví o blížící se apokalypse
Jakou náhodou na to kdo přišel, zdroje neuvádí, každopádně i pro milovníky konspirací, to byla „voda na jejich mlýn“. Na zvláštně generovanou záhadu upozornil server Motherboard. A jak to tedy bylo?
Překladač vychrlil zprávu o blížící se apokalypse
Takže - do aplikace Překladač od Google stačilo zadat slovo dog. Teda nestačilo jednou, ale devatenáctkrát za sebou. A pak bylo nutné překladač požádat o překlad z maorštiny do angličtiny. V tu chvíli se dalo číst temné proroctví, známé z Bible a knihy Zjevení. Doslova překlad uváděl: „Doomsday Clock is three minutes at twelve We are experiencing characters and a dramatic developments in the world, which indicie that we are increasingly approaching the end times and Jesus‘ return.“ Stručně shrnuto šlo o děsivé sdělení o blížící se apokalypse, světových katastrofách a také o návratu Ježíše Krista.
Pochopitelně to vyvolalo zděšení i vlnu otázek. Odborníci jev zdůvodnili tím, že se algoritmus u jazyků, jako je maorština, pokouší vždy vyhledat logiku v textu, a přitom selhává. Podobné chyby zaznamenali také uživatelé na Redditu, zejména také v souvislosti s překladem z řečtiny, khmerštiny nebo somálštiny. V tuto chvíli však již Google chybu odstranil, nicméně společnost odmítla komentovat, zda k trénování algoritmů, které překladač používá, neslouží třeba náboženské texty. To by „záhadu“ totiž nejvíce logicky vysvětlilo.
Překladač totiž využívá metodu strojového učení, kdy se překlady neustále zlepšují na základě předchozích překladů. Na začátku bývá text, na kterém se algoritmy trénují a u kterého existuje oficiální překlad do více jazyků. Obvykle to jsou různé legislativní dokumenty jako Deklarace lidských práv OSN nebo v případě evropských jazyků spisy Evropské unie. Je tak možné, že u méně rozšířených jazyků jako je maorština byl použit překlad Bible. Že pak překladač vyhodil zrovna frázi z knihy Exodus, mohla být jen náhoda.
Přesnější než lidské systémy, umí i lhát
Ačkoli tedy možná v tomto případě umělou inteligenci podezřívat z nějaké snahy o tajemné sdělení, nelze, stále více se ukazuje, že získává mnoho negativních vlastností. Nejen že už se ví, že umělá inteligence dokáže lhát, aby dostala, co chce, umí též již mluvit jazykem, kterému nerozumí ani lidi.
V loňském roce Google dokonce oznámil, že si AI vytváří už jakési „vlastní děti“. Důvodem je prý to, aby byla sama efektivnější a dokázala fungovat ještě přesněji.
Vývojáři věnující se vylepšování umělé inteligence se rozhodli vyvinout model machine learningu schopný vytvářet další modely machine learningu, nazvaný AutoML.
Umělá inteligence poráží systémy, vytvořené lidmi
Díky této metodě dokáže kontrolní neutrální síť vytvořit na specifické úkoly další, „dětskou“ síť. V konkrétním případě to byl úkol rozpoznat objekty ve videích v reálném čase (například lidi, auta, semafory a podobně). „Dětská“ AI (umělá inteligence) na svůj úkol trénovala, přičemž výsledky kontrolovala její matka a svojí zpětnou vazbou dál dítě učila, dokud nebylo dostatečně dobré.
A jak to pak dopadlo? Portál FastCoDesign upozorni, že podle vědců z Google Brain dokázala tahle umělá inteligence v přesnosti porazit všechny nejlepší computer vision systémy, které vytvořili lidi. Čtěte také: Umělá inteligence už umí napodobit hlas i tvář. Stačí jí k tomu vteřiny