Fine-tuning a Large Language Model for Simulating Association Rule Mining Algorithms

Thesis title: Fine-tuning LLM modelu pro simulaci algoritmu dolování asociačních pravidel
Author: Ježek, Stanislav
Thesis type: Bakalářská práce
Supervisor: Kliegr, Tomáš
Opponents: Sýkora, Lukáš
Thesis language: Česky
Abstract:
Předkládaná práce se věnuje tématu dotrénování a následnému využití velkých jazykových modelů k hledání častých množin položek. Hlavním cílem práce bylo zjistit, zdali je možné doučit modely pro vyšší úspěšnost na dané úloze. V rámci práce byly dotrénovány dva modely (Deepseek R1 Distill Qwen 7B a Qwen1.5 1.8B Chat) na třech autorem vytvořených datasetech. Pro každý model i dataset bylo zároveň provedeno dotrénování na dvou různých nastaveních trénovací metody. Dotrénované modely byly poté otestovány na čtyřech různých datasetech pro hledání častých množin položek. Každý dataset na každém modelu byl přiložen v promptu a následně byl prompt generován na třech různých nastaveních kreativity modelu. Výstupy modelů byly porovnávány oproti výsledkům algoritmu apriori a následně oproti výsledkům nedotrénované verze daného modelu na stejné úloze. Nejlepších výsledků dosáhl nedotrénovaný model Deepseek R1 s 14 % úspěšností. Následovaly dotrénované modely Deepseek R1 s průměrnou úspěšností blížící se nule. Model Qwen1.5 na úloze hledání častých množin položek ve všech případech selhal. V případě dotrénovaných modelů docházelo k selhání modelů a v případě nedotrénovaného šlo nejčastěji o generování kódu místo výstupu.
Keywords: podpora; Python; Deepseek; fine-tuning; Qwen; CSV; dataset; itemsety; asociační pravidla; algoritmus Apriori; LoRA
Thesis title: Fine-tuning a Large Language Model for Simulating Association Rule Mining Algorithms
Author: Ježek, Stanislav
Thesis type: Bachelor thesis
Supervisor: Kliegr, Tomáš
Opponents: Sýkora, Lukáš
Thesis language: Česky
Abstract:
The presented work deals with the topic of fine-tuning and subsequent usage of large language models for frequent itemset mining. The main goal of the work was to determine whether it is possible to fine-tune models for higher success rates in this specific task. Within the scope of the work, two models (Deepseek R1 Distill Qwen 7B and Qwen1.5 1.8B Chat) were fine-tuned on three datasets created by the author. For each model and dataset, fine-tuning was also carried out using two different training method settings. The fine-tuned models were then tested on four different datasets for frequent itemset mining. Each dataset was provided to each model in the prompt, and the prompt was subsequently generated using three different creativity settings of the model. The outputs of the models were compared against the results of the Apriori algorithm and subsequently against the results of the non-fine-tuned version of the respective model on the same task. The best results were achieved by the non-fine-tuned Deepseek R1, with a 14% success rate. This was followed by the fine-tuned Deepseek R1 models, with an average success rate approaching zero. Qwen1.5 consistently failed in the frequent itemset mining task. In the case of the fine-tuned models, most of the models broke down, and in the case of the non-fine-tuned model, the most common outcome was code generation instead of producing the expected output.
Keywords: Deepseek; Qwen; CSV; dataset; itemsets; association rules; Apriori algorithm; fine-tuning; LoRA; support; Python

Information about study

Study programme: Aplikovaná informatika
Type of study programme: Bakalářský studijní program
Assigned degree: Bc.
Institutions assigning academic degree: Vysoká škola ekonomická v Praze
Faculty: Faculty of Informatics and Statistics
Department: Department of Information and Knowledge Engineering

Information on submission and defense

Date of assignment: 30. 1. 2025
Date of submission: 12. 5. 2025
Date of defense: 26. 6. 2025
Identifier in the InSIS system: https://insis.vse.cz/zp/91201/podrobnosti

Files for download

    Last update: