Fine-tuning a Large Language Model for Simulating Association Rule Mining Algorithms
Thesis title: | Fine-tuning LLM modelu pro simulaci algoritmu dolování asociačních pravidel |
---|---|
Author: | Ježek, Stanislav |
Thesis type: | Bakalářská práce |
Supervisor: | Kliegr, Tomáš |
Opponents: | Sýkora, Lukáš |
Thesis language: | Česky |
Abstract: | Předkládaná práce se věnuje tématu dotrénování a následnému využití velkých jazykových modelů k hledání častých množin položek. Hlavním cílem práce bylo zjistit, zdali je možné doučit modely pro vyšší úspěšnost na dané úloze. V rámci práce byly dotrénovány dva modely (Deepseek R1 Distill Qwen 7B a Qwen1.5 1.8B Chat) na třech autorem vytvořených datasetech. Pro každý model i dataset bylo zároveň provedeno dotrénování na dvou různých nastaveních trénovací metody. Dotrénované modely byly poté otestovány na čtyřech různých datasetech pro hledání častých množin položek. Každý dataset na každém modelu byl přiložen v promptu a následně byl prompt generován na třech různých nastaveních kreativity modelu. Výstupy modelů byly porovnávány oproti výsledkům algoritmu apriori a následně oproti výsledkům nedotrénované verze daného modelu na stejné úloze. Nejlepších výsledků dosáhl nedotrénovaný model Deepseek R1 s 14 % úspěšností. Následovaly dotrénované modely Deepseek R1 s průměrnou úspěšností blížící se nule. Model Qwen1.5 na úloze hledání častých množin položek ve všech případech selhal. V případě dotrénovaných modelů docházelo k selhání modelů a v případě nedotrénovaného šlo nejčastěji o generování kódu místo výstupu. |
Keywords: | podpora; Python; Deepseek; fine-tuning; Qwen; CSV; dataset; itemsety; asociační pravidla; algoritmus Apriori; LoRA |
Thesis title: | Fine-tuning a Large Language Model for Simulating Association Rule Mining Algorithms |
---|---|
Author: | Ježek, Stanislav |
Thesis type: | Bachelor thesis |
Supervisor: | Kliegr, Tomáš |
Opponents: | Sýkora, Lukáš |
Thesis language: | Česky |
Abstract: | The presented work deals with the topic of fine-tuning and subsequent usage of large language models for frequent itemset mining. The main goal of the work was to determine whether it is possible to fine-tune models for higher success rates in this specific task. Within the scope of the work, two models (Deepseek R1 Distill Qwen 7B and Qwen1.5 1.8B Chat) were fine-tuned on three datasets created by the author. For each model and dataset, fine-tuning was also carried out using two different training method settings. The fine-tuned models were then tested on four different datasets for frequent itemset mining. Each dataset was provided to each model in the prompt, and the prompt was subsequently generated using three different creativity settings of the model. The outputs of the models were compared against the results of the Apriori algorithm and subsequently against the results of the non-fine-tuned version of the respective model on the same task. The best results were achieved by the non-fine-tuned Deepseek R1, with a 14% success rate. This was followed by the fine-tuned Deepseek R1 models, with an average success rate approaching zero. Qwen1.5 consistently failed in the frequent itemset mining task. In the case of the fine-tuned models, most of the models broke down, and in the case of the non-fine-tuned model, the most common outcome was code generation instead of producing the expected output. |
Keywords: | Deepseek; Qwen; CSV; dataset; itemsets; association rules; Apriori algorithm; fine-tuning; LoRA; support; Python |
Information about study
Study programme: | Aplikovaná informatika |
---|---|
Type of study programme: | Bakalářský studijní program |
Assigned degree: | Bc. |
Institutions assigning academic degree: | Vysoká škola ekonomická v Praze |
Faculty: | Faculty of Informatics and Statistics |
Department: | Department of Information and Knowledge Engineering |
Information on submission and defense
Date of assignment: | 30. 1. 2025 |
---|---|
Date of submission: | 12. 5. 2025 |
Date of defense: | 26. 6. 2025 |
Identifier in the InSIS system: | https://insis.vse.cz/zp/91201/podrobnosti |