Regularization methods in Probabilistic Neural Networks and General Regression Neural Networks

Thesis title: Regularization methods in Probabilistic Neural Networks and General Regression Neural Networks
Author: Vinogradov, Grigorii
Thesis type: Bachelor thesis
Supervisor: Šafr, Karel
Opponents: -
Thesis language: English
Abstract:
This thesis investigates the application of regularization techniques in general regression neural networks (GRNN) and probabilistic neural networks (PNN). L1 and L2 regularization has been integrated into GRNN and PNN architectures using a Bayesian formulation of parameter estimation. In contrast to the standard kernel density estimation (KDE) approach, in this work the models were reformulated using a mixture of Gaussians for density estimation, allowing the models to move from a non-parametric to a parametric formulation with minimal changes in interpretation. The models were implemented in Python and their performance was evaluated on real-word datasets. In regression tasks, L1 and L2 regularization led to improvements in model performance, with mean square error reductions in the range of 3,02% to 4,04%. In classification tasks, accuracy improvements ranged from 0,36% to 4,44%. However, a slight performance decrease was observed in some datasets, suggesting that the effect of regularization is data-dependent.
Keywords: General Regression Neural Networks; Probabilistic Neural Networks; regularization methods; machine learning
Thesis title: Regularizační metody v Probabilistic Neural Networks a General Regression Neural Networks
Author: Vinogradov, Grigorii
Thesis type: Bakalářská práce
Supervisor: Šafr, Karel
Opponents: -
Thesis language: English
Abstract:
Tato bakalářská práce se zabývá aplikací regularizačních technik v general regression neural networks (GRNN) a probabilistic neural networks (PNN). Regularizace L1 a L2 byla integrována do architektur GRNN a PNN pomocí Bayesovské formulace odhadu parametrů. Na rozdíl od standardního přístupu jádrového odhadu hustoty (KDE) byly v této práci modely přeformulovány pomocí Gaussovských směsí pro odhad hustoty, což umožnilo modelům přejít z neparametrické formulace na parametrickou s minimálními změnami v interpretaci. Modely byly implementovány v jazyce Python a jejich výkonnost byla vyhodnocena na reálných datových sadách. V regresních úlohách vedla regularizace L1 a L2 ke zlepšení výkonnosti modelů se snížením střední kvadratické chyby v rozmezí 3,02% až 4,04%. V klasifikačních úlohách se přesnost zlepšila v rozmezí od 0,36% do 4,44%. V některých datových sadách však bylo pozorováno mírné snížení výkonu, což naznačuje, že účinek regularizace závisí na datech.
Keywords: regularizace; General Regression Neural Networks; Probabilistic Neural Networks; strojové učení

Information about study

Study programme: Matematické metody v ekonomii/Datové analýzy a modelování
Type of study programme: Bakalářský studijní program
Assigned degree: Bc.
Institutions assigning academic degree: Vysoká škola ekonomická v Praze
Faculty: Faculty of Informatics and Statistics
Department: Department of Statistics and Probability

Information on submission and defense

Date of assignment: 26. 2. 2025
Date of submission: 25. 6. 2025
Date of defense: 2025

Files for download

The files will be available after the defense of the thesis.

    Last update: