Tato diplomová práce komplexně analyzuje možnosti integrace umělé inteligence do procesů softwarového testování a předkládá preskriptivní model pro její efektivní implementaci do firemní praxe. Primárním cílem výzkumu je kriticky zhodnotit reálné technologické přínosy a identifikovat klíčové limity současných AI nástrojů v kontextu zajištění kvality softwaru. Výzkumný design využívá metodologickou triangulaci, jež kombinuje systematickou literární rešerši, kvalitativní šetření formou polostrukturovaných rozhovorů s experty z nadnárodní kyberbezpečnostní společnosti Gen Digital a kvaziexperimentální případovou studii. V rámci experimentu jsou konfrontovány tradiční komerční nástroje vizuální validace (Applitools Eyes) s vlastním architektonickým návrhem, který využívá multimodální velké jazykové modely (LiteLLM/Gemini) a agentické systémy komunikující přes protokol MCP. Empirické výsledky práce prokazují bezprecedentní rychlostní dominanci multimodálních přístupů a jejich flexibilitu v dynamickém prostředí. Výzkum však zároveň definuje a empiricky dokládá takzvaný paradox produktivity, kdy je hrubá úspora strojového času zásadně degradována nutností detailní manuální revize lidským inženýrem v důsledku extrémně vysoké míry falešně pozitivních hlášení a halucinací generovaných modely. Kvalitativní analýza expertíz dále odhaluje, že fundamentální bariérou pro masovou adopci AI není samotná technologická nevyzrálost modelů, nýbrž historický technologický dluh organizací, informační sila a nedostatek byznysového kontextu. Bez předchozí konsolidace začnou autonomní agenti tyto systémové chyby nekontrolovatelně replikovat a škálovat. Ústředním praktickým přínosem práce je návrh čtyřfázového implementačního modelu, jenž slouží jako strategická roadmapa pro mitigaci těchto rizik. Model definuje nutný přechod od absolutní sanace kódové základny, přes zavedení disciplíny kontextového inženýrství pomocí řídicích dokumentů (AGENTS.md), až po pokročilou multi-agentní orchestraci a automatizovanou analýzu kořenových příčin. Tímto přístupem práce proaktivně reflektuje a definuje transformaci role QA inženýra z pasivního vykonavatele manuálních skriptů do pozice strategického architekta a orchestrátora kvality.
The Use of Artificial Intelligence in Software Testing
Autor(ka) práce:
Fischer, Dominik
Typ práce:
Diploma thesis
Vedoucí práce:
Buchalcevová, Alena
Oponenti práce:
Bruckner, Tomáš
Jazyk práce:
Česky
Abstrakt:
This master's thesis comprehensively analyzes the integration possibilities of artificial intelligence into software testing processes and presents a prescriptive model for its effective implementation in corporate practice. The primary objective of the research is to critically evaluate the tangible technological benefits and identify the key limitations of current AI tools within the context of software quality assurance. The research design employs methodological triangulation, combining a systematic literature review, qualitative research through semi-structured interviews with experts from the multinational cybersecurity corporation Gen Digital, and a quasi-experimental case study. The experiment confronts traditional commercial visual validation tools (Applitools Eyes) with a custom architectural design utilizing large multimodal models (LiteLLM/Gemini) and agentic systems operating via the MCP protocol. The empirical results demonstrate the unprecedented speed dominance of multimodal approaches and their flexibility in highly dynamic environments. However, the research simultaneously defines and empirically substantiates the so-called productivity paradox, wherein the gross savings in machine execution time are significantly degraded by the necessity of detailed manual review by human engineers, owing to an extremely high rate of false-positive reports and model-generated hallucinations. Furthermore, the qualitative analysis reveals that the fundamental barrier to mass AI adoption is not the technological immaturity of the models themselves, but rather organizations historical technical debt, information silos, and a lack of business context. Without prior consolidation, autonomous agents will uncontrollably replicate and scale these systemic errors. The central practical contribution of this thesis is the proposal of a four-phase implementation model that serves as a strategic roadmap for mitigating these risks. The model outlines the necessary transition from absolute code-base remediation, through the introduction of context engineering via steering documents (AGENTS.md), to advanced multi-agent orchestration and automated root cause analysis. Through this approach, the thesis proactively reflects and defines the transformation of the QA engineer's role from a passive executor of manual scripts into the position of a strategic architect and orchestrator of quality.
Klíčová slova:
test automation; Large Language Models; quality assurance; case study; CI/CD; software testing; artificial intelligence
Informace o studiu
Studijní program / obor:
Informační systémy a technologie/Řízení podnikové informatiky