Témata prací (Výběr práce)Témata prací (Výběr práce)(verze: 368)
Detail práce
   Přihlásit přes CAS
Zdroje důvěry v inteligentní virtuální asistenty
Název práce v češtině: Zdroje důvěry v inteligentní virtuální asistenty
Název v anglickém jazyce: Sources of trust in intelligent virtual assistants
Klíčová slova: Teorie sociálních reprezentací, důvěra, důvěra v umělou inteligenci, zdroje důvěry, digitální sociologie, automatizace, umělá inteligence, inteligentní virtuální asistent
Klíčová slova anglicky: Theory of social representations, trust, trust in artificial intelligence, sources of trust, digital sociology, automation, artificial intelligence, smart virtual assistant
Akademický rok vypsání: 2018/2019
Typ práce: diplomová práce
Jazyk práce: čeština
Ústav: Katedra sociologie (23-KS)
Vedoucí / školitel: doc. PhDr. Dino Numerato, Ph.D.
Řešitel: skrytý - zadáno vedoucím/školitelem
Datum přihlášení: 29.05.2019
Datum zadání: 29.05.2019
Datum a čas obhajoby: 08.02.2021 09:00
Místo konání obhajoby: Pekařská 16, JPEK405, 405, Zasedací místnost
Datum odevzdání elektronické podoby:05.01.2021
Datum proběhlé obhajoby: 08.02.2021
Oponenti: prof. PhDr. Jiří Kabele, Ph.D.
 
 
 
Kontrola URKUND:
Zásady pro vypracování
Tato diplomová práce se bude zabývat zkoumáním zdrojů důvěry v umělou inteligenci, která je různým způsobem implementovaná do každodenního života a jejíž význam v různých odvětvích lidské činnosti roste. Důvěra v umělou inteligenci bude zkoumána optikou teorie sociálních reprezentací. V návaznosti na Moscoviciho (1984) jsou sociální reprezentace konceptualizovány jako soubor organizovaných a strukturovaných poznatků, hodnot a přesvědčení o specifickém sociálním fenoménu, který činí pro člověka sociální realitu srozumitelnou a který umožňuje komunikaci. Tato práce si klade za cíl zkoumat a určit hlavní zdroje důvěry v umělou inteligenci, a to pomocí těchto výzkumných otázek: Jaké jsou hlavní zdroje důvěry v umělou inteligenci implementované do každodenního života? Jaká rizika si jedinec uvědomuje ve vztahu k umělé inteligenci? Jakým způsobem je důvěra v umělou inteligenci ovlivněna sociálními, politickými, ekonomickými a kulturními faktory? Pro pochopení zdrojů důvěry či nedůvěry v umělou inteligencí budou využity kvalitativní metody zkoumání, konkrétně polo-strukturované rozhovory, kterou budou v případě potřeby obohaceny o pozorování.
Seznam odborné literatury
Abric, J. C. 1996. Specific processes of social representations. Université de Provence, Aix-en-Provence, Francie.
Aluwihare-samaranayake, D. 2012. „Ethics in Qualitative Research: A View of the Perticipants’ and Researches’ World from a Critical Standpoint.” Journal of Qualitative Methods, 11 (2).
Bartholomew, K., Henderson, A. J.Z., Marcia, J.E. 2000. Coding semi-structured interviews in social psychological research. Cambridge: Cambridge University Press
Beck, U. 2018. Riziková společnost. Na cestě k jiné modernitě. SLON: Praha
Beer, D., Burrows, R. 2007. Sociology and, of and in Web 2.0: Some Initial Considerations. Sociological Research Online, 12(5).
Belanger, F., Xu, H. 2015. „The role of information systems research in shaping the future of information privacy.“ Information systems journal, 25(6).
Blascovich, J. 2002. „Social Influence within Immersive Virtual Environments.“ Computer Supported Cooperative Work. CSCW
Boyd, D., Crawford, K. 2012. Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. Information, communication & society, 15 (5).
BOSTRÖM, N. 2017. Superinteligence. Praha: Prostor
Brill, T. M., Munoz, L., Miller, R. J. 2019. Siri, Alexa, and other digital assistants: a study of customer satisfaction with artificial intelligence applications. Journal of Marketing Management, 35(15-16)
Elcheroth, G., Doise, W., Reicher, S. 2011. „On the Knowledge of Politics and the Politics of Knowledge: How a Social Representations Approach Helps Us Rethink the Subject of Political Psychology.“ Political Psychology, 32 (5).
Eriksson, E. H. 2002. Dětství a společnost. Praha: Argo
Frederiksen, M. 2012. „Dimensions of trust: An empirical revisit to Simmel’s formal sociology of intersubjective trust.“ Current Sociology, 60(6)
French, R. M. 1990. „Subcognition and limits of the Turing Test.“ Mind, 99 (393).
Galletta, A. 2013. Mastering the Semi-Structured Interview and Beyond. New York university press: New York & London.
Giddens, A. 2003. Důsledky modernity. Praha: SLON
Harper, D., Thompson, A. R. 2011. Qualitative Research Methods in Mental Health and Psychotherapy. Oxford: John Wiley & Sons.
Hendl, J., Remr, J. 2017. Metody výzkumu a evaluace. Praha: Portál.
Hengstler, M., Enkel, E., Duelli, S. 2016. „Applied artificial intelligence and trust—The case of autonomous vehicles and medical assistance devices.“ Technological Forecasting & Social Changez, 105 (1).
Hoff, K. A., Bashir, M. 2014. Trust in Automation. Human Factors: The Journal Of the Human Factors and Ergonomics Society, 57 (4).
Höijer, B. 2011. Social Representations Theory. A New Theory for Media Research. Nordicom Review, 32 (2).
Hollway, W., Jefferson, T. 2008. „Free association narrative interview. Given LM (ed.)” The Sage Encyclopedia of Qualitative Research Methods. London: SAGE.
Chung, H., Iorga, M., Voas, J., Lee, S. 2017. „Axela, Can I Trust You?“ Computer, 50 (9).
Johns, J. L. 1996. A concept analysis of trust. Journal of Advanced Nursing, 24 (1).
Kim, K., Boelling, L., Haesler, S., Bailenson, J., Bruder, G., Welch, G. F. 2018. Does a Digital Assistant Need a Body? The Influence of Visual Embodiment and Social Behavior on the Perception of Intelligent Virtual Agents in AR 2018. IEEE International Symposium on Mixed and Augmented Reality (ISMAR).
Kyslova, O., Bernyk, E. 2014. „New Media as a Formation Factor for Digital Sociology: The Consequences of the Networking in the Society and the Intellectualization of the Communications.“ Studies of Changing Societies, 2013(3).
Lash, S. 2006. Dialectic of information? A response to Taylor. Information, Communication & Society, 9(5).
Lee, J. D., See, K. A. 2004. „Trust in automation: Designing for appropriate reliance.“ Human Factors: The Journal of the Human Factors and Ergonomics Sociely, 46 (1).
Liu, P., Yang, R., & Xu, Z. (2019). Public acceptance of fully automated driving: Effects of social trust and risk/benefit perceptions. Risk Analysis, 39 (2).
Lloyd, B., Dunveen, G.1992. Gender identities and education: The impact of starting school. London: Harvester-Wheatsheaf.
Luhmann, N. 1979. Trust and power. Avon: Pitman press.
Lupton, D. 2014a. Self-tracking Cultures: Towards a Sociology of Personal Informatics. Proceedings of the 26th Australian Computer-Human Interaction Conference on Designing Futures the Future of Design - OzCHI ’14.
Lupton D. 2014b. „Self-Tracking Modes: Reflexive Self-Monitoring and Data Practices.“ SSRN Electronic Journal.
Madhavan, P., Wiegmann, D. A. 2007. „Similarities and differences between human–human and human–automation trust: an integrative review.“ Theoretical Issues in Ergonomics Science, 8 (4).
Marková, I. A spol. 1998. „Social representations of the individual: a post-Communist perspective.“ European Journal of Social Psychology, 28 (5).
Maříková, H., Petrusek, M., Vodáková, A. 1996. Velký sociologický slovník. Karolinum: Praha
McIntosh, J., Morse, J. M. 2015. Situating and Constructing Diversity in Semi-Structured Interviews. Research Article.
Merrilees, B., Fry, M.-L. 2003. „E‐trust: the influence of perceived interactivity on e‐retailing users“ Marketing Intelligence & Planning, 21 (2).
Miritello, G. a spol. 2013. „Time as a limited resource: Communication strategy in mobile phone networks.” Social Networks, 35 (1).
Moscovici, S. 1988. Notes towards a description of Social Representations. European Journal of Social Psychology, 18 (3).
Morse, J. M., Field, P. A. 1995. Qualitative research methods for health professionals. Psychology.
Nass, C., a spol. 1995. Can Computer Personalities Be Human Personalities? Stanford University.
O’Connor, C. 2012. Using Social representations theory to examine lay explanation of contemporary social crises: The case of Ireland’s recession. University College: London.
Orb, A., Eisenhauer, L., Wynaden, D. 2001. „Ethics in qualitative research.” Journal of Nursing Scholarship, 33 (1).
Peggs, K. 2013. The “Animal-Advocacy Agenda”: Exploring Sociology for Non-Human Animals. The Sociological Review, 61 (3).
Purwanto, P., Kuswandi, K., & Fatmah, F. (2020). Interactive Applications with Artificial Intelligence: The Role of Trust among Digital Assistant Users. Foresight and STI Governance, 14 (2).
Rezaev, A., Tregubova, N. 2018. Are sociologists ready for artificial sociality? Current issues and future prospects for studing artificial intelligence in the social sciences. Monitoring of Public Opinion.
Rotter, J. B. 1967. „A new scale for the measurement of interpersonal trust.“ Journal of Personality 35 (4).
Rousseau, D. M., Sitkin, S.B., Burt, R. S., Camerer, C 1998. „Not So Different After All: A Cross-Discipline View Of Trust.“ Academy of Management Review, 23 (3).
Russell, S., Norvig, P. 2010. Intelligence artificielle: Avec plus de 500 exercices. PEARSON.
Sedláček, J. 1979. Východiska Durkheimovy sociologie. Praha: Univerzita Karlova.
Shamoo, A. E., Resnik, D. B. 2009. Responsible conduct of research. New York: Oxford University Press.
Shapiro, S. C. 1992. Encyclopedia of artificial intelligence second edition. Volume 1. A Wiley-Interscience Publication: New York.
Simmel, G. 1997. Peníze v moderní kultuře a jiné eseje. Praha: SLON
Smith, N., Joffe, H. 2012. How the public engages with global warming: A social representations approach. Public Understanding of Science 22 (1).
Strauss, A. L., Corbin, J. 1999. Základy kvalitativního výzkumu: postupy a techniky metody zakotvené teorie. Brno: Sdružení Podané ruce.
Sun, T. Q., Medaglia, R. (2019). Mapping the challenges of Artificial Intelligence in the public sector: Evidence from public healthcare. Government Information Quarterly, 36 (2).
Wanger, W., Valencia, J. 1996. „Relevance, discourse and the ‘hot’ stable core social representations — A structural analysis of word associations.” British Journal of Social Psychology, 35 (3).
Wanger, W. a spol. 1999. „Theory and Method of Social Representations.“ Asian Journal of Social Psychology 2 (1).
Předběžná náplň práce
Diplomová práce se zabývá zdroji důvěry v umělou inteligenci, a jak jsou tyto zdroje podmíněné sociálními reprezentacemi. Zkoumá, jaká rizika si uživatel uvědomuje při používání umělé inteligence a jak různé faktory ovlivňují uživatelovo smýšlení. Umělá inteligence je v mé práci reprezentovaná inteligentními virtuálními asistenty (IVA). Na základě polo-strukturovaných výzkumných rozhovorů s jejich uživateli jsem jako hlavní zdroje důvěry určil: neutralitu, víru v budoucnost, naplnění očekávání a blízkost, přičemž první dva zdroje jsou stálé a vychází ze sociální struktury, zatímco poslední dva zdroje důvěry vychází přímo ze zkušeností uživatele a jsou proměnlivé v čase. Dále bylo zjištěno, že sociální reprezentace mají významný vliv na zdroje důvěry. Veškeré sociální reprezentace jsem rozdělil do tří kategorií – strojovost, personifikace, nehmatatelnost, dle kterých se dalo posuzovat uživatelovo vnímání umělé inteligence a na základě toho i jeho uvažování o ní. Díky tomu jsem dokázal, že důvěra uživatelů je sociálním reprezentacemi podmíněna. Důležitou součástí důvěry je uvědomování si rizik. V rámci mé práce jsem určil šest hlavních rizik, které si uživatelé uvědomují: nepředpokládaná chyba softwaru, mechanická chyba, zneužití IVA třetí stranou, právní rizika, strach z odcizení a ovládnutí technologiemi. V neposlední řadě se práce zabývá vlivem sociálních, politických, ekonomických a kulturních faktorů, které ovlivňují tvorbu sociálních reprezentací a tím i uvažování a důvěru v umělou inteligenci.
Předběžná náplň práce v anglickém jazyce
The diploma thesis deals with the sources of trust in artificial intelligence, and how these sources are conditioned by social representations. It examines what risks the user is aware of when using artificial intelligence and how various factors affect the user's thinking. Artificial intelligence is represented in my work by intelligent virtual assistants (IVA). Based on semi-structured research interviews with their users, I have identified as the main sources of trust: neutrality, belief in the future, fulfillment of expectations and closeness. The first two sources are constant and based on social structure, while the last two sources of trust are based directly on user experience and are variable over time. It was also found that social representations have a significant impact on sources of trust. I divided all social representations into three categories - mechanicality, personification, intangibility, according to which the user's perception of artificial intelligence could be assessed and, based on that, his thinking about it. Because of this, I have proved that the trust of users is conditioned by social representations. An important part of trust is risk awareness. In my work, I have identified six main risks that users are aware of: unexpected software error, mechanical error, misuse of IVA by a third party, legal risks, fear of alienate and control by technology. Last but not least, the work deals with the influence of
social, political, economic and cultural factors that affect the creation of social representations and thus thinking and confidence in artificial intelligence.
 
Univerzita Karlova | Informační systém UK