Thesis (Selection of subject)Thesis (Selection of subject)(version: 368)
Thesis details
   Login via CAS
Důvěra v algoritmy ve vztahu k antropomorfním tendencím
Thesis title in Czech: Důvěra v algoritmy ve vztahu k antropomorfním tendencím
Thesis title in English: Trust in algorithms in relation to anthropomorphic tendencies
Academic year of topic announcement: 2023/2024
Thesis type: diploma thesis
Thesis language: čeština
Department: Department of Psychology (21-KPS)
Supervisor: Mgr. Josef Kundrát, Ph.D.
Author: hidden - assigned and confirmed by the Study Dept.
Date of registration: 29.01.2024
Date of assignment: 29.01.2024
Administrator's approval: approved
Confirmed by Study dept. on: 07.02.2024
Submitted/finalized: no
Advisors: Mgr. et Mgr. Filip Děchtěrenko, Ph.D.
Guidelines
S rychlým rozvojem technologií se umělá inteligence začíná stávat nedílnou součástí našeho každodenního života. V současné době se můžeme stále více setkávat s využíváním agentů umělé inteligence (AI), kteří jsou využíváni v pracovním i osobním životě. Kromě samotného technologického pokroku je ale potřeba zohlednit i emocionální reakce uživatelů, jak na AI reagují, jak moc jí důvěřují. Důvěra hraje důležitou roli v mezilidských vztazích a stejně tak je klíčová pro přijetí AI technologií a akceptaci automatizovaných doporučení (Wuet al., 2011;Chounget al., 2023). Cílem této práce je zjistit, jestli vnímaná “lidskost” agentů AI má vliv na důvěru v ně. Získané poznatky pomohou k lepšímu porozumění vnímané důvěry v agenty umělé inteligence, přispějí k optimalizaci komunikace uživatelů s AI a k jejímu efektivnímu využívání.

V teoretické části této práce se budeme zabývat povahou důvěry v kontextu interakce s AI. Budou popsány klíčové teorie týkající se přijetí a důvěry v technologie a důvěry v sociální interakce obecně. Primárně se budeme věnovat vlivu antropomorfního zobrazení agentů AI v souvislosti s vnímanou důvěrou. Současné podoby agentů AI mají totiž různé stupně vnímané lidskosti, která má vliv na i na to jakou důvěru k nim uživatelé mají (Lanktonet al., 2015). Literárně přehledová část nám poskytne přehled pro porozumění, co stojí za formováním důvěry v AI a poslouží jako základ pro interpretaci výsledků výzkumné části.

V experimentální části této studie se zaměříme na zkoumání vlivu typové konstrukce agenta, umělé inteligence na míru důvěry uživatelů vněj.Typovékonstrukcise budeme věnovat z hlediska vnímané “lidskosti”. Ukázalo se, že vnímaná “lidskost” má vliv na důvěru, kterou si k nim uživatel vytvoří (Lanktonet al., 2015). Choungs kolegy (2023) uvádí, že když byl agent AI podobný člověku, tak měli respondenti tendenci důvěřovat jemu a když ho vnímali pouze jako technologii, tak spíše věřili jeho operacím. Vytvoříme dotazník, ve kterém budou respondenti hodnotit komunikace člověka s agentem AI za různých podmínek ve vztahu k vnímané “lidskosti” a vnímané důvěře.
References
Akdim, K., Belanche, D., & Flavián, M. (2021). Attitudes toward service robots: Analyses of explicit and implicit attitudes based on anthropomorphism and construal level theory.International Journal of Contemporary Hospitality Management,35(8), 2816–2837. https://doi.org/10.1108/IJCHM-12-2020-1406
Bitkina, O. Vl., Jeong, H., Lee, B. C., Park, J., Park, J., & Kim, H. K. (2020). Perceived trust in artificial intelligence technologies: A preliminary study.Human Factors and Ergonomics in Manufacturing & Service Industries,30(4), 282–290. https://doi.org/10.1002/hfm.20839
Gillespie, N., Lockey, S., Curtis, C., Pool, J., & Ali Akbari. (2023).Trust in Artificial Intelligence: A global study. The University of Queensland; KPMG Australia. https://doi.org/10.14264/00d3c94
Glikson, E., & Woolley, A. W. (2020). Human Trust in Artificial Intelligence: Review of Empirical Research.Academy of Management Annals,14(2), 627–660. https://doi.org/10.5465/annals.2018.0057
Hoff, K. A., & Bashir, M. (2015). Trust in Automation: Integrating Empirical Evidence on Factors That Influence Trust.Human Factors: The Journal of the Human Factors and Ergonomics Society,57(3), 407–434. https://doi.org/10.1177/0018720814547570
Choung, H., David, P., &Ross, A. (2023). Trust in AI andItsRole intheAcceptanceofAI Technologies [Online]. InternationalJournalOfHuman–ComputerInteraction, 39(9), 1727-1739. https://doi.org/10.1080/10447318.2022.2050543
Kim, T. W., & Duhachek, A. (2020). Artificial Intelligence and Persuasion: A Construal-Level Account.Psychological Science,31(4), 363–380. https://doi.org/10.1177/0956797620904985
Lo, C. K. (2023). What Is the Impact of ChatGPT on Education? A Rapid Review of the Literature.Education Sciences,13(4), Article 4. https://doi.org/10.3390/educsci13040410
Nazaretsky, T., Ariely, M.,Cukurova, M., &Alexandron, G. (2022).Teachers' trust in AI ‐powerededucationaltechnology and aprofessionaldevelopment program toimproveit[Online]. BritishJournalOfEducationalTechnology, 53(4), 914-931. https://doi.org/10.1111/bjet.13232
Niedlich, S., Kallfaß, A., Pohle, S., & Bormann, I. (2021). A comprehensive view of trust in education: Conclusions from a systematic literature review.Review of Education,9(1), 124–158. https://doi.org/10.1002/rev3.3239
Qin, F., Li, K., & Yan, J. (2020). Understanding user trust in artificial intelligence-based educational systems: Evidence from China.British Journal of Educational Technology,51(5), 1693–1710. https://doi.org/10.1111/bjet.12994
Shin, M. (2019). Towards an explication of the presence effects on information processing and persuasion: A construal level framework.Dissertations - ALL. https://surface.syr.edu/etd/1024
Trope, Y., & Liberman, N. (2010). Construal-Level Theory of Psychological Distance.Psychological review,117(2), 440–463. https://doi.org/10.1037/a0018963
van Houwelingen, G., van Dijke, M., & De Cremer, D. (2018). Trust maintenance as a function of construal level and attributions: The case of apologies.European Journal of Social Psychology,48(1), 33–46. https://doi.org/10.1002/ejsp.2291
Victor, P., De Cock, M., & Cornelis, C. (2011). Trust and Recommendations. In F. Ricci, L. Rokach, B. Shapira, & P. B. Kantor (Ed.),Recommender Systems Handbook(s. 645–675). Springer US. https://doi.org/10.1007/978-0-387-85820-3_20
Winter, S., & Schulte-Bockholt, L. (2018). When Do We Trust Online Reviews by Similar vs. Dissimilar Users? An Application of Construal Level Theory. In V. Cauberghe, L. Hudders, & M. Eisend (Ed.),Advances in Advertising Research IX: Power to Consumers(s. 287–300). Springer Fachmedien. https://doi.org/10.1007/978-3-658-22681-7_21
Wu, K.,Zhao, Y.,Zhu, Q.,Tan, X., &Zheng, H. (2011). A meta-analysisoftheimpactoftrust on technologyacceptancemodel:Investigationofmoderatinginfluenceofsubjectandcontexttype [Online].InternationalJournalOfInformationManagement,31(6), 572-581. https://doi.org/10.1016/j.ijinfomgt.2011.03.004
 
Charles University | Information system of Charles University | http://www.cuni.cz/UKEN-329.html