Klantenservice traint AI modellen

Dit bericht kan worden opgenomen om AI modellen te trainen

Dit gesprek kan worden opgenomen voor trainingsdoeleinden. Hoe vaak heb je die zin al niet gehoord? Ik heb ooit gehoord dat deze gesprekken niet alleen voor trainingsdoeleinden worden gebruikt, maar ook om AI modellen te trainen.

Dit hebben we voorgelegd aan doctor Khiet Truong, universitair hoofddocent aan de Universiteit van Twente. Maar eerst even een stukje uitleg.

Je wordt opgenomen

Bijna elke keer als jij een klantenservice belt, wordt het gesprek opgenomen. Je kunt er vaak ook niet onderuit, tenzij je ophangt. Je weet ook niet óf dat je wordt opgenomen, want het gesprek kán worden opgenomen. Veel vragen dus.

Nu ik zat een tijdje terug in een training en de docent zei: “Je denkt toch niet dat een leidinggevende met klantenservicemedewerkers samen gaat zitten naast elkaar, om al die opgenomen gesprekken terug te gaan luisteren? Die opnames worden heel ergens anders voor gebruikt. Die opnames worden gebruikt om AI modellen te trainen. Om jouw emotie te leren kennen dus. Hoe bel je naar dat bedrijf? Boos, kwaad, enthousiast, verdrietig, alles kan. Het AI model herkent jouw emotie op basis van al die opgenomen gesprekken en stuurt jou vervolgens door naar de medewerker die het beste met die emotie om kan gaan.”

Die uitspraak van die docent bleef hangen bij mij. Dat moest ik uitzoeken.

Herken de staat

“We werken op dit moment aan AI modellen die de staat van de gebruiker kunnen herkennen. Het herkennen van emoties bijvoorbeeld, of het detecteren van hoe een gesprek verloopt. Zitten mensen op één lijn met elkaar en verloopt het gesprek op een prettige manier of niet?” vertelt Khiet Truong, universitair hoofddocent op de Universiteit Twente binnen de Human Media Interaction Group. Truong werkt dagelijks aan alles wat te maken heeft met spraak- of stemtechnologie, voornamelijk paralinguïstiek. Ze houdt zich bezig met hóe je iets zegt, als aanvulling op wát je zegt.

“Uiteindelijk is het doel om technologie te ontwikkelen om dat soort dingen te kunnen detecteren. Om daar bijvoorbeeld conversationele agents voor te maken of robots die kunnen omgaan met die kunnen omgaan met de staat van de gebruiker. Dus als de persoon bijvoorbeeld wat gefrustreerd of wat geïrriteerd is, dan zou de agent daarop moeten kunnen reageren.”

Nu al?

Nu is de vraag natuurlijk of dat dit nu al gebeurt wanneer je een klantenservice belt. Truong is daar nog niet van op de hoogte.

“Ik zou het wel vervelend vinden als bedrijven zeggen, ‘we gebruiken het voor trainingsdoeleinden’ en dat
ze het dan ook nog voor AI doeleinden gebruiken. Maar ik weet wel dat, voor het ontwikkelen en trainen van zo’n agent of de AI technologie daar heb je heel veel data nodig. Je hebt die spontane emoties nodig. En waar komen die spontane emoties vaak voor? Ik kan me voorstellen dat in zo’n klantcontactcenter het heel vaak voorkomt. Dan wil je die gesprekken opnemen om dan die AI-technologie te kunnen trainen.”

Truong bevestigt ook dat het zou kunnen dat we binnenkort niet meer met een medewerker spreken wanneer we een klantenservice bellen, maar met een goed getrainde computer. Google gaf hier op een conferentie in 2018 al een voorbeeld van, door een AI computer een afspraak bij de kapper te laten maken.

Volgens de wet

“Ik weet in Californië geloof ik, staat in de wet dat je moet weten of je met een machine of met een mens spreekt. Over een paar jaar zou het zo kunnen zijn dat je inderdaad met een bot een afspraak maakt. Volgens mij verschijnen er nu al best vaak filmpjes op YouTube of op tv van gesprekken die eigenlijk niet echt plaats hebben gevonden. Dus het is er al wel. En ik denk dat de politiek daar ook een rol in moet spelen. Want het is best gevaarlijke technologie.

En het is best leuk dat we af en toe die filmpjes zien van Trump heeft iets gezegd of Obama heeft iets gezegd of je ziet Rutte op tv iets zeggen wat hij eigenlijk niet gezegd heeft. Dat is allemaal best grappig. Maar daar zitten natuurlijk ook gevaren aan. Ik denk dat we wel moeten nadenken over wat zijn de gevaren en tot hoever wil je gaan.”

We helpen je zo goed mogelijk

De wereld van AI kan dus best schimmig zijn. Want je weet niet wat echt is en wat niet, op dit moment. Gelukkig kun je het nu vaak nog wel horen wanneer je bijvoorbeeld probeert een vrij gesprek aan te gaan zoals Khiet ook zegt. Maar wordt een model extreem getraind op één taak dan hoor je het verschil tussen een computer en een mens eigenlijk.

De wet zou dit verschil dus moeten gaan aangeven. Dan zou je bijvoorbeeld over een paar jaar de zin krijgen uit jouw telefoon: ‘Dit gesprek kan worden opgenomen voor trainingsdoeleinden én om jouw stem en emotie te herkennen om je zo goed mogelijk te helpen.

Interessante linkjes

Lekker doorlezen