I takt med att avancerade AI-system får alltmer människoliknande drag blir det svårare att veta om det är en människa eller en maskin i andra änden av telefonen. Nu visar forskning vid Göteborgs universitet att sådana system kan påverka vårt förtroende för de personer vi pratar med.
Professorerna Jonas Ivarsson och Oskar Lindwall har undersökt hur människor tolkar och förhåller sig till beteenden där en av parterna möjligen kan vara en röstbaserad interaktiv tjänst. Olika typer av inspelade samtal har studerats, där ibland ett AI-system utgör den ena parten.
I ett exempel ringer en förmodad bedragare upp vad han tror är en äldre man, men blir i själva verket vidarekopplad och får prata med ett datorsystem som kommunicerar genom förinspelade loopar. Personen försöker länge och väl genomföra bedrägeriförsöket och lyssnar tålmodigt på ”mannens” något virriga och repetitiva berättelser.
– Vi har tittat på hur lång tid det tar innan de förstår att det är ett tekniskt system och varför det är så svårt. Ibland pratar de i en timme med det här systemet, säger Oskar Lindwall, professor i kommunikation.
Relationer skadas när misstänksamheten väcks
I studien upptäckte forskarna att vissa beteenden i samtal mellan två människor tolkades som tecken på att en av dem i själva verket var en robot. Pauser i samtalet tolkades som att ”AI: n” tog tid på sig att processa det som sagts och i de fall den som ringde upp var alltför rakt på sak, uppfattades beteendet som socialt inkompetent, vilket ansågs avslöja att det rörde sig om en AI.
– En följd av att inte kunna vara helt säker på avsikten och identiteten hos den man interagerar med, kan vara att man blir överdrivet misstänksam även när det inte finns fog för det, säger Jonas Ivarsson, professor i informatik.
Han menar att de två tolkningsmöjligheter som uppstår när en misstanke väcks gör att vår interaktion och kommunikation ”saboteras” och blir mindre produktiv.
Problematiskt när AI får en egen röst
Enligt forskarna finns det ett utbrett designperspektiv som driver AI-utvecklingen mot alltmer människoliknande drag.
− Om jag vill ha en av mina artiklar upplästa för mig, då kan det få vara en väldigt personlig röst. Gärna författarens röst. Det skulle jag inte ha något emot. Men det kan också finnas något problematiskt med den strävan, speciellt i situationer där det inte är tydligt vem man kommunicerar med, säger Oskar Lindwall.
I fallet med den misstänkte bedragaren som ringer upp ”den äldre mannen” tar det lång tid innan bluffen avslöjas. Det beror enligt forskarna på att ”den gamle mannen” har en trovärdig mänsklig röst och att hans något förvirrade beteende kan antas ha med hans ålder att göra.
− När en AI har en röst, börjar vi att tillskriva den egenskaper. Vi drar slutsatser om kön, ålder, socioekonomisk bakgrund och liknande. Det blir då svårare för oss att se tecknen som avslöjar att det är en dator vi interagerar med, säger Jonas Ivarsson.
Forskarna ställer sig frågande till att ett AI-system ska ha den typen av röster som är så mänskligt färgade.
− Man bygger en idé om en person bara genom rösten. Den har ett annat fingeravtryck än vad text har och är mycket mer intim. Det går att göra AI som har en väl fungerade och vältalig röst som ändå är uppenbart syntetisk, och det skulle öka transparensen.
Text: Agnes Ekstrand
Om studien
Jonas Ivarsson och Oskar Lindwall har analyserat data som tillgängliggjorts via Youtube. Tre typer av samtal, samt publikens reaktioner och kommentarer har studerats.
I den första typen ringer en robot upp en person och ska boka en frisör. Den uppringda personen är omedveten om att det är en robot i andra änden. I den andra typen ringer en människa upp en annan människa, i samma ärende. I den tredje samtalstypen blir telefonförsäljare vidarebefordrade till ett datorsystem med förinspelat tal.