Multilingual Detection of Persuasion Techniques in Text using Large Language Models
Vícejazyčná detekce přesvědčovacích technik v textech pomocí velkých jazykových modelů
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/203238Identifikátory
SIS: 277826
Kolekce
- Kvalifikační práce [11982]
Autor
Vedoucí práce
Oponent práce
Kasner, Zdeněk
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Informatika - Jazykové technologie a počítačová lingvistika
Katedra / ústav / klinika
Ústav formální a aplikované lingvistiky
Datum obhajoby
10. 9. 2025
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
velké jazykové modely|propaganda|přesvědčovací techniky|zpracování přirozeného jazykaKlíčová slova (anglicky)
large language models|propaganda|persuasion techniques|natural language processingTato práce využívá open-source velký jazykový model Llama 3.3 pro detailní de- tekci přesvědčovacích technik ve vícejazyčných novinových článcích anotováním textových úseků pomocí strukturovaného JSON výstupu. Implementujeme robustní mechanismus opakovaného dotazování pro řešení chybných výstupů. Zkoumáme zero-shot a few-shot prompting základního modelu a jeho QLoRA fine-tunované varianty a vyhodnocujeme více variant systémových promptů a dvě strategie zarovnání predikovaných textových úseků k článku. Few-shot prompting s příklady ve stejném jazyce se ukazuje jako neje- fektivnější napříč jazyky. Naše zjištění odhalují omezenou mezijazykovou přenositelnost napříč jazyky jak pro in-context learning, tak pro QLoRA fine-tuning. Dále ukazujeme, že QLoRA fine-tuning může kompenzovat omezené vícejazyčné pokrytí modelu. Naše metoda prokazuje adaptabilitu na různá anotační schémata.
This thesis leverages the open-source large language model Llama 3.3 for fine-grained persuasion techniques detection in multilingual news articles, generating span-based an- notations with structured JSON output. We implement a robust reprompting mechanism to address erroneous outputs. We investigate zero-shot and few-shot prompting of the base model and its QLoRA fine-tuned variant, and evaluate multiple system prompt variants and two span-to-article alignment strategies. Few-shot prompting with same- language examples proves to be most effective across languages. Our findings reveal limited cross-lingual transferability for both in-context learning and QLoRA fine-tuning. We also show that QLoRA fine-tuning can compensate for the model's limited multilin- gual coverage. Our method demonstrates adaptability to diverse annotation schemes.
