Dobrá zpráva? Věda je o krok blíže umění čtení z mysli a telepatii
Tým, který oznámil, že přečetl slova z mozkové aktivity, do mozku implantova mikroelektrody. Umělá inteligence (Al) se s nimi pak učí komparovat mozkové signály vůči aktivitě hlasového ústrojí. Počítače totiž mají za úkol rozeznat uvnitř hlavy jednotlivá slova.
Je to již druhý výzkum v rozsahu pouhých několika měsíců, který přináší stejné výsledky. V tom prvním případě experti „četli“ slova zapsaná v mozkové aktivitě a převedli je na syntetizovanou řeč. Tehdy ale systémy vlastně jen detekovaly, co mozek slyší, a naučily se to interpretovat jako slova. I když šlo o úspěch, z praktického hlediska to byl spíše prý komplikovanější mikrofon. Jen bral audio delší cestou přes mozek posluchače.
Krok za krokem k úspěchu
Nový průzkum s experimentem šel ale dál a navíc předchozí výsledky potvrdil. Práce vedená vědcem Gopalou Anumanchipallim z UCSF skutečně prezentuje metodu, jak tlumočit mozkovou aktivitu do syntetizované řeči jenom na základě dekódování mozkové aktivity.
Díky této nové vědecké práci se ukazuje, že lze skutečně číst mozkové signály konotující pohyb orgánů pro hlasový projev. Srozumitelněji pro laiky: číst signály mozku, který je vysílá našemu jazyku, hlasivkám, mandlím, čelistem a všem dalším ústrojím, která jsou zodpovědná za to, že naše mluvení probíhá tak, jak se s ním dnes a denně setkáváme. Ano, tak trochu se dá určitě hovořit také o telepatii.
Může se zdát, že komplikovanost hlasového projevu je pro čtení z mysli něco nepraktického. Pro neurovědu je však pochopení a přenesení tohoto složitého procesu dobrou zprávou. Znamená totiž existenci řady různých signálů do různých orgánů. Když to mozková aktivita vezme delší cestou a trvá jí to déle, umožňuje to mezi danými signály je lépe odlišit.
Pokus zatím jen na pěti lidech
Zmíněný vědecký tým svoji práci dokončil díky skenování mozkové činnosti pěti lidí (což byli pacienti, kteří mají kvůli epilepsii voperované mikroelektrody) a nahrávání pohybů jazyku a dalších souvisejících hlasových orgánů.
Jeden z účastníků experimentu předčítal jednotlivá slova a AI algoritmus pak první várku dat (z mozku) přiřadil k druhé várce (to už byly pohyby úst) a udělal mezi nimi rovnítko. Naučil se tak u těchto pěti zapojených lidí tlumočit jejich mozkovou aktivitu do jednotlivých vět. V součtu zvládal interpretovat jenom slova vznikající v hlavě nezávisle (leč srovnatelně) se signály posílanými hlasovému ústrojí.
Stále je co vylepšovat
Pokud by to vše budilo dojem, že hlasivky už nebudeme brzy potřebovat, pak ještě trochu vyčkejme Zatím platí, že tato práce o čtení mysli má ze své povahy stále jisté nedostatky.
Navíc - mozek každého je jiný a algoritmus se pravděpodobně bude muset učit u každého číst slova znovu. Je pak také otázkou, jak bude metoda fungovat u lidí, kteří jsou například ochrnutí a nebudou tedy vůbec k dispozici komparativní data z jejich hlasivek.
Využití může být mnoho
Nicméně vše nasvědčuje tomu, že podobné čtení mysli nebude brzy asi nic složitého. I proto se očekává, že podobných prací jako byly tyto popsané dvě, bude nejspíše přibývat. A to s sebou přinese i hledání dalších způsobů využití, které si dnes ještě neumíme moc představit.
Jestli se však nakonec z mozkového čtení stane další pokus o spolehlivý detektor lží, netradiční postelový pomocník anebo naopak pomocník pro lidi, kteří nemohou z nějakých důvodů mluvit, je otázkou, kterou zodpoví až čas. Čtěte také: První mikroroboti, kteří dokáží bojovat s bakteriemi v našich ústech, jsou na světě