Zdroje důvěry v inteligentní virtuální asistenty
Sources of trust in intelligent virtual assistants
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/124693Identifikátory
SIS: 214047
Kolekce
- Kvalifikační práce [19617]
Autor
Vedoucí práce
Oponent práce
Kabele, Jiří
Fakulta / součást
Fakulta sociálních věd
Obor
Sociologie
Katedra / ústav / klinika
Katedra sociologie
Datum obhajoby
8. 2. 2021
Nakladatel
Univerzita Karlova, Fakulta sociálních vědJazyk
Čeština
Známka
Výborně
Klíčová slova (česky)
Teorie sociálních reprezentací, důvěra, důvěra v umělou inteligenci, zdroje důvěry, digitální sociologie, automatizace, umělá inteligence, inteligentní virtuální asistentKlíčová slova (anglicky)
Theory of social representations, trust, trust in artificial intelligence, sources of trust, digital sociology, automation, artificial intelligence, smart virtual assistantDiplomová práce se zabývá zdroji důvěry v umělou inteligenci, a jak jsou tyto zdroje podmíněné sociálními reprezentacemi. Zkoumá, jaká rizika si uživatel uvědomuje při používání umělé inteligence a jak různé faktory ovlivňují uživatelovo smýšlení. Umělá inteligence je v mé práci reprezentovaná inteligentními virtuálními asistenty (IVA). Na základě polo-strukturovaných výzkumných rozhovorů s jejich uživateli jsem jako hlavní zdroje důvěry určil: neutralitu, víru v budoucnost, naplnění očekávání a blízkost, přičemž první dva zdroje jsou stálé a vychází ze sociální struktury, zatímco poslední dva zdroje důvěry vychází přímo ze zkušeností uživatele a jsou proměnlivé v čase. Dále bylo zjištěno, že sociální reprezentace mají významný vliv na zdroje důvěry. Veškeré sociální reprezentace jsem rozdělil do tří kategorií - strojovost, personifikace, nehmatatelnost, dle kterých se dalo posuzovat uživatelovo vnímání umělé inteligence a na základě toho i jeho uvažování o ní. Díky tomu jsem dokázal, že důvěra uživatelů je sociálním reprezentacemi podmíněna. Důležitou součástí důvěry je uvědomování si rizik. V rámci mé práce jsem určil šest hlavních rizik, které si uživatelé uvědomují: nepředpokládaná chyba softwaru, mechanická chyba, zneužití IVA třetí stranou, právní rizika, strach z odcizení a ovládnutí...
The diploma thesis deals with the sources of trust in artificial intelligence, and how these sources are conditioned by social representations. It examines what risks the user is aware of when using artificial intelligence and how various factors affect the user's thinking. Artificial intelligence is represented in my work by intelligent virtual assistants (IVA). Based on semi-structured research interviews with their users, I have identified as the main sources of trust: neutrality, belief in the future, fulfillment of expectations and closeness. The first two sources are constant and based on social structure, while the last two sources of trust are based directly on user experience and are variable over time. It was also found that social representations have a significant impact on sources of trust. I divided all social representations into three categories - mechanicality, personification, intangibility, according to which the user's perception of artificial intelligence could be assessed and, based on that, his thinking about it. Because of this, I have proved that the trust of users is conditioned by social representations. An important part of trust is risk awareness. In my work, I have identified six main risks that users are aware of: unexpected software error, mechanical error, misuse of...
