Comparison of Selected Efficient Deep Learning Techniques for Convolutional Neural Networks in Classification

Thesis title: Comparison of Selected Efficient Deep Learning Techniques for Convolutional Neural Networks in Classification
Author: Phamová, Xuan Vi
Thesis type: Bachelor thesis
Supervisor: Zamazal, Ondřej
Opponents: Vacura, Miroslav
Thesis language: English
Abstract:
The deployment of convolutional neural networks (CNNs) on resource-constrained edge devices requires the application of model compression techniques to balance performance, size, and inference time. This thesis investigates three key techniques — weight pruning, quantization, and knowledge distillation — evaluating their impact on CNN performance across various datasets and model architectures. Experimental results show that weight pruning, when applied to simpler custom CNNs, significantly reduces model size while slightly improving accuracy. However, excessive pruning in more complex pretrained models led to a considerable drop in performance, highlighting the need for more advanced strategies in complex architectures. Quantization techniques, particularly Post-Training Quantization (PTQ), proved highly effective in reducing model size by 75-90% and accelerating inference time by up to 1.5-8×, without substantial accuracy degradation. In contrast, Quantization-Aware Training (QAT) offered similar benefits but introduced minor accuracy losses and the risk of overfitting, particularly when applied to larger models like InceptionV3. Knowledge distillation demonstrated strong potential for transferring knowledge from larger teacher models to smaller student models, resulting in improved classification accuracy without increasing model size or inference time. These techniques offer promising solutions for optimizing CNNs, ensuring efficient performance while maintaining competitive accuracy.
Keywords: convolutional neural networks; deep learning; model compression; pruning; quantization; knowledge distillation; efficient deep learning techniques
Thesis title: Srovnání vybraných efektivních technik hlubokého učení pro konvoluční neuronové sítě v klasifikaci
Author: Phamová, Xuan Vi
Thesis type: Bakalářská práce
Supervisor: Zamazal, Ondřej
Opponents: Vacura, Miroslav
Thesis language: English
Abstract:
Nasazení konvolučních neuronových sítí (CNN) na zařízení s omezenými výpočetními prostředky vyžaduje použití technik komprese modelů k vyvážení výkonu, velikosti a rychlosti inferenčního zpracování. Tato bakalářská práce zkoumá tři klíčové techniky — prořezávání, kvantizaci a destilaci znalostí — s cílem vyhodnotit jejich dopad na výkon CNN napříč různými datovými sadami a architekturami modelů. Výsledky experimentů ukazují, že prořezávání vah výrazně snižuje velikost modelu a mírně zlepšuje správnost, pokud je aplikováno na jednodušší vlastní CNN modely. Naopak nadměrné prořezávání u složitějších předtrénovaných modelů vede k výraznému poklesu výkonu, což poukazuje na nutnost pokročilejších strategií u komplexních architektur. Kvantizační techniky, zejména kvantizace po trénování (Post-Training Quantization, PTQ), se ukázaly jako vysoce účinné. Snížily velikosti modelu o více než 75-90 % a zrychlily inferenční dobu až o 1,5-8×, aniž by došlo k významnému poklesu správnosti. Naproti tomu kvantizace s ohledem na trénink (Quantization-Aware Training, QAT) nabídla podobné výhody, ale vedla k drobným ztrátám správnosti a riziku přetrénování, zejména při aplikaci na větší modely jako je InceptionV3. Destilace znalostí prokázala silný potenciál pro přenos znalostí z větších modelů učitelů do menších studentských modelů, což vedlo ke zlepšení správnosti klasifikace bez zvýšení velikosti modelu nebo inferenčního času. Tyto techniky nabízejí slibná řešení pro optimalizaci CNN s cílem zajistit efektivní výkon při zachování konkurenceschopné správnosti.
Keywords: konvoluční neuronové sítě; komprese modelů; prořezávání; kvantizace; efektivní techniky hlubokého učení; hluboké učení; destilace znalostí

Information about study

Study programme: Data Analytics
Type of study programme: Bakalářský studijní program
Assigned degree: Bc.
Institutions assigning academic degree: Vysoká škola ekonomická v Praze
Faculty: Faculty of Informatics and Statistics
Department: Department of Information and Knowledge Engineering

Information on submission and defense

Date of assignment: 24. 10. 2024
Date of submission: 12. 5. 2025
Date of defense: 2025

Files for download

The files will be available after the defense of the thesis.

    Last update: