Porozumění vnímání dopadů umělé inteligence na soukromí v digitálním světě vysokoškolsky vzdělanou veřejností: Výzkum pomocí polostrukturovaných rozhovorů
Název práce: | Porozumění vnímání dopadů umělé inteligence na soukromí v digitálním světě vysokoškolsky vzdělanou veřejností: Výzkum pomocí polostrukturovaných rozhovorů |
---|---|
Autor(ka) práce: | Vanický, Pavel |
Typ práce: | Diplomová práce |
Vedoucí práce: | Vadinský, Ondřej |
Oponenti práce: | Doležel, Michal |
Jazyk práce: | Česky |
Abstrakt: | Cílem diplomové práce je zjistit, jak vysokoškolsky vzdělaná veřejnost vnímá rizika spojená s datovým soukromím v digitálním světě v kontextu umělé inteligence, která jsou identifikována v akademické literatuře. Metodicky práce kombinuje strukturovanou literární rešerši (38 identifikovaných studií) s polostrukturovanými rozhovory 16 respondentů, které trvaly 575 minut. Na to pak navazuje tematická analýza, která vygenerovala 1 185 zakódovaných úseků textu. Z těchto úseků pak vzešlo 7 tematických okruhů: vnímání sběru a využívání dat v kontextu umělé inteligence, umělá inteligence jako zesilovač rizik soukromí, osobní strategie a přístupy k ochraně soukromí, komercializace a monetizace dat, regulace a mezinárodní legislativní rozdíly, osvěta, digitální gramotnost a doporučení. Práce zjišťuje, že respondenti jsou si vědomi obchodního modelu data za služby. Tento model je vnímán jako všudypřítomná, nevyhnutelná součást digitálního světa. Model respondenti vidí pragmaticky, mnohdy až odevzdaně (11 respondentů vyjádřilo určitou míru vnímané nevyhnutelnosti). Hlavním rozhodovacím faktorem pro používání služeb, které tento model implementují, je úroveň vnímaného užitku. Tento vnímaný užitek pak může být ještě modulován dalšími faktory, jako jsou sociální tlaky okolí, nebo například nedůvěrou v anonymizaci dat, kterou vykazuje 9 respondentů. Respondenti rovněž vyjadřují nespokojenost se současnou úrovní transparentnosti a komunikace, týkající se toků dat ve službách, které využívají. Dalším zjištěním je, že respondenti nevnímají mezinárodní legislativní rozdíly v legislativě jako zásadní problém, který silně ovlivňuje datové soukromí. Výjimkou je však Čína. Tento mezinárodní region respondenti vnímají s určitou mírou skepse k bezpečnosti tamních aplikací. Postoj respondentů tedy můžeme definovat jako spíše selektivní. Nejvíce respondenti vědí o své lokální legislativě (GDPR ), zatímco znalost ostatních mimoevropských legislativních rámců je pouze povrchní. Výjimkou jsou pak respondenti s právním vzděláním, u kterých vidíme vyšší celkovou úroveň znalostí. Z hlediska konkrétních doporučení pro zlepšení situace práce doporučuje: zlepšit srozumitelnost a transparentnost stávající i připravované legislativy, týkající se ochrany osobních údajů a regulace toků dat; (2) posílit tlak regulačních orgánů na poskytovatele digitálních služeb, aby otevřeně komunikovali a monitorovali toky uživatelských dat; (3) systematicky uplatňovat zásady privacy-by-design, pravidelné externí audity, precizní kategorizaci rizik a také umožnění odhlášení v případě že se uživatel nechce účastnit transakcí s daty. Tato opatření povedou ke snížení míry informační asymetrie a k posílení rozhodovací schopnosti uživatelů služeb. |
Klíčová slova: | regulace umělé inteligence; kvalitativní výzkum; umělá inteligence; data za službu; datové soukromí |
Název práce: | Understanding the perception of the impact of artificial intelligence on privacy in the digital world by the university-educated public: Research using semi-structured interviews |
---|---|
Autor(ka) práce: | Vanický, Pavel |
Typ práce: | Diploma thesis |
Vedoucí práce: | Vadinský, Ondřej |
Oponenti práce: | Doležel, Michal |
Jazyk práce: | Česky |
Abstrakt: | The aim of this thesis is to determine how university-educated members of the public perceive the risks associated with data privacy in the digital world in the context of artificial intelligence, as identified in academic literature. Methodologically, the thesis combines structured literature research (38 identified studies) with semi-structured interviews with 16 respondents, which lasted 575 minutes. This is followed by a thematic analysis, which generated 1,185 coded text segments. These segments gave rise to seven thematic areas: perceptions of data collection and use in the context of artificial intelligence, artificial intelligence as an amplifier of privacy risks, personal strategies and approaches to privacy protection, commercialisation and monetisation of data, regulation and international legislative differences, awareness, digital literacy and recommendations. The study finds that respondents are aware of the ‘data for services’ business model. This model is perceived as an ubiquitous, inevitable part of the digital world. Respondents view the model pragmatically, often with resignation (11 respondents expressed a certain degree of perceived inevitability). The main deciding factor for using services that implement this model is the level of perceived benefit. This perceived benefit can then be modulated by other factors, such as social pressures from the environment or, for example, distrust of data anonymisation, which was reported by 9 respondents. Respondents also express dissatisfaction with the current level of transparency and communication regarding data flows in the services they use. Another finding is that respondents do not perceive international legislative differences as a major problem that strongly affects data privacy. However, China is an exception. Respondents view this international region with a certain degree of scepticism regarding the security of local applications. The attitude of respondents can therefore be defined as rather selective. Respondents are most knowledgeable about their local legislation (GDPR), while their knowledge of other non-European legislative frameworks is only superficial. The exception is respondents with legal education, who demonstrate a higher overall level of knowledge. In terms of specific recommendations for improving the situation, the report recommends: improving the clarity and transparency of existing and upcoming legislation on personal data protection and data flow regulation; (2) increasing pressure from regulatory authorities on digital service providers to openly communicate and monitor user data flows; (3) systematically apply the principles of privacy-by-design, regular external audits, precise risk categorisation and also allow opt-outs in cases where users do not want to participate in data transactions. These measures will lead to a reduction in information asymmetry and strengthen the decision-making power of service users. |
Klíčová slova: | data for services; data privacy; qualitative research; artificial intelligence regulation; artificial intelligence |
Informace o studiu
Studijní program / obor: | Znalostní a webové technologie |
---|---|
Typ studijního programu: | Magisterský studijní program |
Přidělovaná hodnost: | Ing. |
Instituce přidělující hodnost: | Vysoká škola ekonomická v Praze |
Fakulta: | Fakulta informatiky a statistiky |
Katedra: | Katedra informačního a znalostního inženýrství |
Informace o odevzdání a obhajobě
Datum zadání práce: | 15. 2. 2024 |
---|---|
Datum podání práce: | 25. 6. 2025 |
Datum obhajoby: | 2025 |
Soubory ke stažení
Soubory budou k dispozici až po obhajobě práce.