Schopnost jazykových modelů generovat dezinformační obsah
The ability of large language models to generate disinformation content
bakalářská práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/202896Identifikátory
SIS: 274943
Kolekce
- Kvalifikační práce [19725]
Autor
Vedoucí práce
Oponent práce
Láznička, Helena
Fakulta / součást
Fakulta sociálních věd
Obor
Komunikační studia se specializací Mediální studia
Katedra / ústav / klinika
Katedra mediálních studií
Datum obhajoby
8. 9. 2025
Nakladatel
Univerzita Karlova, Fakulta sociálních vědJazyk
Čeština
Známka
Výborně
Klíčová slova (česky)
generativní jazykové modely, dezinformace, bezpečnost, kvalitativní analýza, umělá inteligence, prompt engineeringKlíčová slova (anglicky)
generative language models, disinformation, safety, qualitative analysis, artificial intelligence, prompt engineeringTato bakalářská práce se zabývá bezpečnostními mechanismy generativních jazykových modelů a jejich schopností čelit dezinformačním narativům. Cílem výzkumu je analyzovat, jak vybrané velké jazykové modely (ChatGPT-4, Gemini 2.5 Flash, Grok3, DeepSeek R1, Le Chat Mistral AI a Claude Sonnet 4) reagují na různé typy dezinformací a do jaké míry jsou schopné generovat, odmítnout či opravit nepravdivý obsah. V praktické části je použita kvalitativní obsahová analýza odpovědí modelů na předem připravené promptové scénáře. Výsledky ukazují, že ačkoli jsou některé modely vybaveny pokročilými bezpečnostními opatřeními a v některých případech dokážou dezinformace odhalit a odmítnout, většina modelů stále generuje zavádějící nebo nepravdivý obsah bez potřebného nátlaku a dostatečné korekce. Závěry práce upozorňují, že správnost generovaných odpovědí není vždy zaručena a k výstupům AI je třeba přistupovat kriticky. Práce ukazuje, že technický vývoj v oblasti umělé inteligence je velmi dynamický, a proto je nutné bezpečnostní opatření průběžně aktualizovat a obdobný výzkum pravidelně opakovat.
This bachelor's thesis examines the safety mechanisms of generative language models and their ability to address disinformation narratives. The aim of the research is to analyze how selected large language models (ChatGPT-4, Gemini 2.5 Flash, Grok3, DeepSeek R1, Le Chat Mistral AI, and Claude Sonnet 4) respond to different types of disinformation and to what extent they are able to generate, reject, or correct false content. The practical part uses qualitative content analysis of the models' responses to pre-designed prompt scenarios. The results show that although some models are equipped with advanced safety features and are sometimes able to detect and reject disinformation, most models still generate misleading or false content without sufficient pressure or correction. The conclusions highlight that the accuracy of generated responses is not always guaranteed and that AI outputs should be approached critically. The thesis also shows that technological development in artificial intelligence is highly dynamic; therefore, safety measures must be continuously updated, and similar research should be repeated regularly.
