Kunstmatige intelligentie (AI) systemen waarvan bedrijven beweren dat ze gezichtsuitdrukkingen kunnen “lezen” is gebaseerd op verouderde wetenschap en riskeert onbetrouwbaar en discriminerend te zijn, heeft een van ’s werelds meest vooraanstaande deskundigen op het gebied van de psychologie van de emotie gewaarschuwd.
Lisa Feldman Barrett, professor in de psychologie aan de Noordoostelijke Universiteit, zei dat dergelijke technologieën een groeiend aantal bewijzen lijken te negeren die het idee ondermijnen dat de basis gezichtsuitdrukkingen universeel zijn in alle culturen. Als gevolg daarvan lopen dergelijke technologieën – waarvan sommige al in de praktijk worden toegepast – het risico onbetrouwbaar of discriminerend te zijn, zei ze.
“Ik weet niet hoe bedrijven kunnen blijven rechtvaardigen wat ze doen als het echt duidelijk is wat het bewijs is,” zei ze. “Er zijn sommige bedrijven die gewoon dingen blijven beweren die onmogelijk waar kunnen zijn.”
Haar waarschuwing komt als dergelijke systemen worden uitgerold voor een groeiend aantal toepassingen. In oktober beweerde Unilever dat zij vorig jaar 100.000 uur tijd had bespaard bij de werving van personeel door dergelijke software in te zetten voor het analyseren van video-interviews.
Het AI-systeem, dat is ontwikkeld door het bedrijf HireVue, scant de gezichtsuitdrukkingen, lichaamstaal en woordkeuze van kandidaten en vergelijkt ze met kenmerken die geacht worden verband te houden met het succes van een baan.
Amazon beweert dat zijn eigen gezichtsherkenningssysteem, Rekognition, zeven basisemoties kan detecteren – geluk, verdriet, boosheid, verrassing, walging, kalmte en verwarring. De EU is naar verluidt bezig met het testen van software die naar verluidt bedrog kan detecteren door middel van een analyse van micro-expressies in een poging om de grensbeveiliging te versterken.
“Gebaseerd op het gepubliceerde wetenschappelijke bewijs, is ons oordeel dat [deze technologieën] niet moeten worden uitgerold en gebruikt om daaruit voortvloeiende beslissingen over het leven van mensen te nemen,” zei Feldman Barrett.
AI kan je emoties lezen. Moet dat?
Lees meer
Voorafgaand aan een toespraak op de jaarlijkse bijeenkomst van de American Association for the Advancement of Science in Seattle, zei Feldman Barrett dat het idee van universele gezichtsuitdrukkingen voor geluk, verdriet, angst, boosheid, verrassing en walging in de jaren ’60 aan kracht had gewonnen nadat een Amerikaanse psycholoog, Paul Ekman, onderzoek had gedaan in Papoea-Nieuw-Guinea, waaruit bleek dat leden van een geïsoleerde stam vergelijkbare antwoorden gaven aan Amerikanen toen ze werden gevraagd om foto’s van mensen met verschillende gezichtsuitdrukkingen te matchen met verschillende scenario’s, zoals “de hond van Bobby is gestorven”.
Er is echter steeds meer bewijs dat er naast deze basisstereotypen een groot verschil is in de manier waarop mensen hun emoties uitdrukken, zowel binnen als buiten culturen.
In westerse culturen, bijvoorbeeld, blijken mensen slechts ongeveer 30% van de tijd te fronsen als ze boos zijn, zei ze, wat betekent dat ze hun gezicht ongeveer 70% van de tijd op een andere manier bewegen.
“Er is een lage betrouwbaarheid,” zei Feldman Barrett. “En mensen fronsen vaak als ze niet boos zijn. Dat is wat we lage specificiteit zouden noemen. Mensen fronsen als ze zich heel hard concentreren, als je een slechte grap vertelt, als ze gas hebben.”
De uitdrukking die wordt verondersteld universeel te zijn voor angst is het veronderstelde stereotype voor een dreiging of woede gezicht in Maleisië, zei ze. Er zijn ook grote verschillen binnen culturen in de manier waarop mensen emoties uitdrukken, terwijl context zoals lichaamstaal en met wie een persoon praat kritisch is.
Advertentie
“AI wordt grotendeels getraind in de veronderstelling dat iedereen op dezelfde manier emoties uitdrukt,” zei ze. “Er wordt zeer krachtige technologie gebruikt om zeer simplistische vragen te beantwoorden.”