Multilingual Detection of Persuasion Techniques in Text using Large Language Models
Vícejazyčná detekce přesvědčovacích technik v textech pomocí velkých jazykových modelů
diploma thesis (DEFENDED)
View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/203238Identifiers
Study Information System: 277826
Collections
- Kvalifikační práce [11987]
Author
Advisor
Referee
Kasner, Zdeněk
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Computer Science - Language Technologies and Computational Linguistics
Department
Institute of Formal and Applied Linguistics
Date of defense
10. 9. 2025
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
English
Grade
Excellent
Keywords (Czech)
velké jazykové modely|propaganda|přesvědčovací techniky|zpracování přirozeného jazykaKeywords (English)
large language models|propaganda|persuasion techniques|natural language processingTato práce využívá open-source velký jazykový model Llama 3.3 pro detailní de- tekci přesvědčovacích technik ve vícejazyčných novinových článcích anotováním textových úseků pomocí strukturovaného JSON výstupu. Implementujeme robustní mechanismus opakovaného dotazování pro řešení chybných výstupů. Zkoumáme zero-shot a few-shot prompting základního modelu a jeho QLoRA fine-tunované varianty a vyhodnocujeme více variant systémových promptů a dvě strategie zarovnání predikovaných textových úseků k článku. Few-shot prompting s příklady ve stejném jazyce se ukazuje jako neje- fektivnější napříč jazyky. Naše zjištění odhalují omezenou mezijazykovou přenositelnost napříč jazyky jak pro in-context learning, tak pro QLoRA fine-tuning. Dále ukazujeme, že QLoRA fine-tuning může kompenzovat omezené vícejazyčné pokrytí modelu. Naše metoda prokazuje adaptabilitu na různá anotační schémata.
This thesis leverages the open-source large language model Llama 3.3 for fine-grained persuasion techniques detection in multilingual news articles, generating span-based an- notations with structured JSON output. We implement a robust reprompting mechanism to address erroneous outputs. We investigate zero-shot and few-shot prompting of the base model and its QLoRA fine-tuned variant, and evaluate multiple system prompt variants and two span-to-article alignment strategies. Few-shot prompting with same- language examples proves to be most effective across languages. Our findings reveal limited cross-lingual transferability for both in-context learning and QLoRA fine-tuning. We also show that QLoRA fine-tuning can compensate for the model's limited multilin- gual coverage. Our method demonstrates adaptability to diverse annotation schemes.
