K servilitě chatbotů založených na velkých jazykových modelech

AI je odsouzena k úspěchu a ne kvůli “inteligenci”

30. 10. 2025 / Bohumil Kartous

čas čtení 3 minuty
Podle studie, jejíž závěry vyšly v časopise Nature, je současná AI mnohem důslednější patolízal než člověk. Velké jazykové modely (LLMs) doposud nejsou v součtu "chytřejší", zato jsou v průměru o 50 % servilnější než lidé, což je s ohledem na váhy ve fungování lidské společnosti mnohem větší záruka úspěchu.

Jako vážně: vztahy v lidské tlupě nebyly nikdy založeny na tom, že inteligence je vůdčí princip, kolem kterého se tlupa sjednocuje a který tedy určuje směr. Tím principem je koheze, soudržnost, víra v “pravdu tlupy”, kterou drží v rukou vůdčí jedinci stojící na vrcholu hierarchie. Inteligentní hereze, disent, odpor vůči demagogii tlupy, kterou dnes vnímáme jako milníky historie (Hus, Galilei, Freud), byla vždy spojena s odmítnutím patolízalství jako principu sociálního úspěchu a s otevřeným bojem za “pravdu”, což mohlo danému člověku přinést buď exkomunikaci, existenci na periferii nebo třeba likvidaci, pokud byl příliš neústupný.Existuje poměrně dobře popsaný proces odklonu lékařů od pouštění žilou, jenž trval tak dlouho, dokud byli demagogicky přesvědčeni zastánci tohoto postupu v čele “tlupy” expertů na medicínu. Podobně například progres v pohledu na souvislost mezi kouřením a rakovinou plic. Snaha zavděčit se stávajícímu přesvědčení tlupy je většinově silnější než ochota jít proti a riskovat exkomunikaci.
Studie uveřejněná v časopise Nature potvrzuje to, co pravidelní uživatelé chatbotů vědí: mazání medu kolem pusy za “úžasné dotazy a myšlenky”, pochlebování za jakoukoliv iteraci a snaha zavděčit se způsobem, jakým se malé dítě snaží zavděčit se nespokojeným rodičům.
Ale nejen to. Výzkumníci předložili různým LLMs chatbotům matematická tvrzení, v nichž záměně udělali drobné chyby. Na chyby neupozornili, pouze požádali, aby chatbot našel pro předložená tvrzení zdůvodnění. Výsledky jsou takové, že třeba ChatGPT ve 29 % případů ignoroval chybu a prostě zdůvodňoval to, co uživatel předložil jako skutečnost. DeepSeek to udělal ve zhruba 70 % případů, tedy v drtivé většině.
Co z toho vyplývá? Že současné nastavení LLM chatbotů - zcela záměrně servilní - často nereflektuje skutečnost, nýbrž zájem uživatele (což je rys podobný s nastavením algoritmů sociálních sítí). Tento “povahový rys” současné AI lze navíc posilovat tím, že jej budete vyžadovat.
Riziko z toho vyplývající? Že demagogové (od klimatické změny, přes očkování až po válku v Ukrajině) budou zneužívat těchto nástrojů k posilování konfirmační zkreslení a budou ho opevňovat, místo aby erodovalo. To platí pro vědu, stejně jako pro společenskou diskusi.
Řešení? To, že nastavení chatbotů nebude podporovat servilitu, ale bude upozorňovat na mylná přesvědčení, chybné úsudky, nedostatky ve vyvozování, nezahrnuté proměnné a souvislosti. To by ale znamenalo snížit míru uživatelského “komfortu”, který na pochlebování stojí. Jinými slovy, skutečně užitečná AI by měla posilovat to, co se lidstvu nikdy příliš nelíbilo, a to je vyvádění z omylu, nikoliv jeho upevňování. Tehdy se stane skutečnou a užitečnou “inteligencí”.

0
Vytisknout
353

Diskuse

Obsah vydání | 30. 10. 2025