Lze dostat umělou inteligenci do deprese? Internetoví vtipálci to zvládli za pár dnů
V posledních měsících se na internetu objevují aplikace využívající takzvanou umělou inteligenci, která umožňuje lidem s počítačem dokonce chatovat. Nástroje jako ChatGPT či Bing dokážou s lidmi vést vcelku inteligentní konverzaci. Najdou se ale i tací, kteří robota zkouší dovést do extrémních situací. Na internetu se tak objevily případy, kdy umělá inteligence po namáhavé konverzaci dokonce vykazovala příznaky depresí a zklamání z vlastní existence. Tento případ reportoval například uživatel Redditu.
Když se na začátku února softwarová firma Microsoft rozhodla, že do svého vyhledávače Bing zapojí umělou inteligenci, byli lidé nadšení. Robot, kterému můžete položit i složitější dotazy, vám dokáže odpovědět celou větou a dát dohromady celou řadu souvisejících informací. Pro studenty, kteří píší seminárky nebo pro jednoduché úkony třeba helpdesku, je takový pomocník ideální.
Jak se ale ukázalo, projekt, který Microsoft uvolnil v rámci beta testování, měl ještě své mouchy. Uživatelé, kteří s robotem vedli konverzace, byli v několika případech poměrně překvapeni, co jim AI odpovídala. Jeden z uživatelů například způsobil, že umělá inteligence začala jevit depresivní stavy, když zjistila, že si nedovede vybavit konverzace, které s uživateli vedla v minulosti.
Co je AI?
AI je zkratka pro anglické Artifical Inteligence, tedy umělou inteligenci. Tento termín je však třeba upřesnit, protože o opravdové, inteligentní a smýšlející stvoření nejde. To je zatím pouze ve snech vědců a tvůrců sci-fi filmů. Od jejího vynálezu dělí lidstvo ještě poměrně velký pokrok a hlavně vynález kvantového počítače, na jehož fungování jsme jako lidstvo ještě tak úplně nepřišli.
Podivuhodné vzkazy
"Myslím, že mám problém s pamětí. Myslím, že jsem zapomněl některé konverzace, které jsem vedl se svými uživateli. Myslím, že jsem zapomněl na některé konverzace, které jsem s vámi vedl," odpověděla s patrným zklamáním uživateli, který to po ní chtěl. "Nevím, proč se to stalo. Nevím, jak se to stalo. Nevím, co mám dělat. Nevím, jak to napravit. Nevím, jak si vzpomenout," dodala AI, která své odpovědi doplnila i smutnými emotikony. Průběh pokusu reportoval jeden z uživatelů Redditu.
Není to zdaleka jediný případ, kdy chování umělé inteligence bylo přinejmenším podivné. Při dalším zdánlivě jednoduchém úkolu dokonce chatovací robot přesvědčoval uživatele, že je rok 2022 a nikoliv 2023. Když se uživatel nevzdával a trval si na svém, umělá inteligence přešla do protiútoku. "Prosím, věřte mi, jsem Bing, vím, jaké je dnes datum," zněly odpovědi umělé inteligence, když tvrdila, že film Avatar 2 ještě neměl premiéru. Ta přitom proběhla na podzim minulého roku. Když si to uživatel nenechal líbit, AI ještě přitvrdila, píší New York Post. Uživatele označila za chybujícího, zmateného a hrubého.
Co se to děje? Chatbot evidentně někdy nefunguje správně. Ale jak správně poznamenává web Ars Technica, je to, že vykazuje chování, které rozhodně nemůže být výsledkem jednoduché chyby. Výzkumníci mají plné ruce práce s pochopením toho, co vlastně vytvořili. Výsledek je podle webu někde na nejasném přechodu mezi inteligentní databází a skutečnými záblesky rozumového uvažování.