Umělá inteligence nepřemýšlí. Vědci zjistili, že komplexním operacím lidského mozku se ani nepřibližuje

Tým odborníků společnosti Apple testoval dostupné velké jazykové modely a dospěl k názoru, že lidský mozek je pořád nenahraditelný.

kve
Foto BalticServers, Wikipedia Commons, CC BY-SA 3.0

Navykli jsme si poslední roky v souvislosti s umělou inteligencí mluvit o myšlení a také se obávat toho, že díky narůstajícím schopnostem stroje jednou nahradí člověka. Ve skutečnosti ale lidský mozek svými schopnostmi komplexně přemýšlet zdaleka přesahuje všechny aktuálně dostupné modely AI. Tvrdí to skupina vědců ze společnosti Apple ve studii „Iluze myšlení. Pochopení silných a slabých stránek rozumových modelů optikou problémové komplexity“ (The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity). Zveřejnili ji na začátku června a mezi odborníky na umělou inteligenci způsobila poprask.

Tým společnosti Apple ve složení Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio a Mehrdad Farajtabar zkoumal tzv. velké jazykové modely (LLM), které si obyčejně asociujeme s termínem umělá inteligence a od roku 2023 je také hojně využíváme jako pomocníky. Modely jazyka trénované na velkém množství textu jsou postavené na neuronové síti s mnoha parametry, pořád jsou to ale jen algoritmy, které opakují naučené postupy. Zmíněná studie zjistila, že ačkoliv modely jako Claude, Grok nebo DeepSeek působí velmi inteligentně, když čelí nutnosti řešit komplexní problémy, je velmi pravděpodobné, že zkolabují, i když mají dostatek výpočetní kapacity. Modely mají tendenci „overthinkovat“ a zaseknout se na nedůležitých problémech, které by lidský mozek dávno opustil. Ukázala se také zvláštní úměrnost, že čím těžší je problém, tím méně jsou o něm modely schopné přemýšlet.

Studie potvrzuje argumenty, které ve vědeckém světě už roky prosazuje vědec Subbarao (Rao) Kambhampati z Arizona State University. Ten varuje před antropomorfizací umělé inteligence a používání lidských termínů jako je „přemýšlení“ pro něco, co je pořád jen velmi sofistikovanou posloupností algoritmů. Aktuální studie připomíná, že současné modely mají například problém vyřešit tzv. Hanojské věže, matematický hlavolam vymyšlený francouzským matematikem Édouardem Lucasem v roce 1883. Spočívá v – pravidly přesně definovaném – přesouvání kotoučů mezi třemi kolíky (věžemi) a zatímco počítač (nebo nadané sedmileté dítě) matematický problém hravě rozlouskne, velké jazykové modely jako Claude se na něm zaseknou a pravděpodobně vygenerují chybné řešení.

Od umělé inteligence čekáme, že spojí obří výpočetní schopnosti s lidskou kreativitou a schopností porozumění, ale zatímco první je pro ni hračkou, to druhé se jí zatím nedostává. A není vůbec jasné, jestli se to vůbec někdy může naučit. Potvrzuje to ostatně i v únoru zveřejněný výzkum zabývající se schopností velkých učebních modelů chápat delší psané texty. Vědci při pokusu předložili texty lidem a modelům a pak jim kladli otázky zkoumající porozumění. Ani ten nejúspěšnější LLM (ChatGPT-4) ale neměl lepší výsledky než průměrný člověk. Vypadá to, že komplexita a nevídané (a dosud úplně neprozkoumané) schopnosti lidského mozku jednoduše pořád vedou nad algoritmy. 

Tento článek mohl vzniknout jen díky podpoře čtenářů

Podpořte nás

Čtěte dále

  1. Test1
    Deník Alarm