Fine-tuning LLM modelu pro simulaci algoritmu dolování asociačních pravidel

Název práce: Fine-tuning LLM modelu pro simulaci algoritmu dolování asociačních pravidel
Autor(ka) práce: Ježek, Stanislav
Typ práce: Bakalářská práce
Vedoucí práce: Kliegr, Tomáš
Oponenti práce: Sýkora, Lukáš
Jazyk práce: Česky
Abstrakt:
Předkládaná práce se věnuje tématu dotrénování a následnému využití velkých jazykových modelů k hledání častých množin položek. Hlavním cílem práce bylo zjistit, zdali je možné doučit modely pro vyšší úspěšnost na dané úloze. V rámci práce byly dotrénovány dva modely (Deepseek R1 Distill Qwen 7B a Qwen1.5 1.8B Chat) na třech autorem vytvořených datasetech. Pro každý model i dataset bylo zároveň provedeno dotrénování na dvou různých nastaveních trénovací metody. Dotrénované modely byly poté otestovány na čtyřech různých datasetech pro hledání častých množin položek. Každý dataset na každém modelu byl přiložen v promptu a následně byl prompt generován na třech různých nastaveních kreativity modelu. Výstupy modelů byly porovnávány oproti výsledkům algoritmu apriori a následně oproti výsledkům nedotrénované verze daného modelu na stejné úloze. Nejlepších výsledků dosáhl nedotrénovaný model Deepseek R1 s 14 % úspěšností. Následovaly dotrénované modely Deepseek R1 s průměrnou úspěšností blížící se nule. Model Qwen1.5 na úloze hledání častých množin položek ve všech případech selhal. V případě dotrénovaných modelů docházelo k selhání modelů a v případě nedotrénovaného šlo nejčastěji o generování kódu místo výstupu.
Klíčová slova: podpora; Python; Deepseek; fine-tuning; Qwen; CSV; dataset; itemsety; asociační pravidla; algoritmus Apriori; LoRA
Název práce: Fine-tuning a Large Language Model for Simulating Association Rule Mining Algorithms
Autor(ka) práce: Ježek, Stanislav
Typ práce: Bachelor thesis
Vedoucí práce: Kliegr, Tomáš
Oponenti práce: Sýkora, Lukáš
Jazyk práce: Česky
Abstrakt:
The presented work deals with the topic of fine-tuning and subsequent usage of large language models for frequent itemset mining. The main goal of the work was to determine whether it is possible to fine-tune models for higher success rates in this specific task. Within the scope of the work, two models (Deepseek R1 Distill Qwen 7B and Qwen1.5 1.8B Chat) were fine-tuned on three datasets created by the author. For each model and dataset, fine-tuning was also carried out using two different training method settings. The fine-tuned models were then tested on four different datasets for frequent itemset mining. Each dataset was provided to each model in the prompt, and the prompt was subsequently generated using three different creativity settings of the model. The outputs of the models were compared against the results of the Apriori algorithm and subsequently against the results of the non-fine-tuned version of the respective model on the same task. The best results were achieved by the non-fine-tuned Deepseek R1, with a 14% success rate. This was followed by the fine-tuned Deepseek R1 models, with an average success rate approaching zero. Qwen1.5 consistently failed in the frequent itemset mining task. In the case of the fine-tuned models, most of the models broke down, and in the case of the non-fine-tuned model, the most common outcome was code generation instead of producing the expected output.
Klíčová slova: Deepseek; Qwen; CSV; dataset; itemsets; association rules; Apriori algorithm; fine-tuning; LoRA; support; Python

Informace o studiu

Studijní program / obor: Aplikovaná informatika
Typ studijního programu: Bakalářský studijní program
Přidělovaná hodnost: Bc.
Instituce přidělující hodnost: Vysoká škola ekonomická v Praze
Fakulta: Fakulta informatiky a statistiky
Katedra: Katedra informačního a znalostního inženýrství

Informace o odevzdání a obhajobě

Datum zadání práce: 30. 1. 2025
Datum podání práce: 12. 5. 2025
Datum obhajoby: 26. 6. 2025
Identifikátor v systému InSIS: https://insis.vse.cz/zp/91201/podrobnosti

Soubory ke stažení

    Poslední aktualizace: