13-12-2019 5:53 am Published by Nederland.ai Leave your thoughts

Um grupo de pesquisadores de destaque, alarmado com as conseqüências sociais prejudiciais da inteligência artificial, pediu a proibição da análise automatizada de expressões faciais ao contratar e outras decisões importantes na quinta-feira. O Instituto AI Now da Universidade de Nova York disse que a ação contra esse “reconhecimento de afetação” orientado por software tem a maior prioridade, porque a ciência não justifica o uso da tecnologia e ainda há tempo para interromper a ampla adoção. .

O grupo de professores e outros pesquisadores citaram o exemplo problemático da empresa HireVue, que vende sistemas de entrevistas em vídeo remotas para empregadores como Hilton e Unilever. Ele oferece à IA a capacidade de analisar movimentos faciais, padrões de tom e fala e não libera nenhuma pontuação para os candidatos.

O Centro de Informações sobre Privacidade Eletrônica sem fins lucrativos apresentou uma queixa sobre a HireVue à Comissão Federal de Comércio dos EUA e a AI já criticou a empresa.

A HireVue disse que não viu o relatório da AI Now e não respondeu a perguntas sobre as críticas ou reclamações.

“Muitos candidatos se beneficiaram da tecnologia HireVue para ajudar a remover o viés humano muito importante no processo de recrutamento existente”, disse a porta-voz Kim Paone.

A IA agora, em seu quarto relatório anual sobre os efeitos das ferramentas de inteligência artificial, disse que a busca de emprego é uma das muitas maneiras pelas quais esse software é usado sem responsabilidade, e geralmente favorece grupos privilegiados.

O relatório citou uma análise acadêmica recente de estudos sobre como as pessoas interpretam os estados de humor das expressões faciais. Esse artigo mostrou que a bolsa de estudos anterior mostrou que essas percepções não são confiáveis por várias razões.

“Como as pessoas comunicam raiva, nojo, medo, felicidade, tristeza e surpresa varia consideravelmente entre culturas, situações e até mesmo entre pessoas em uma única situação”, escreveu uma equipe da Northeastern University e do Massachusetts General Hospital.

Empresas, incluindo a Microsoft, comercializam sua capacidade de classificar emoções usando software, segundo o estudo. A Microsoft não respondeu a um pedido de comentário na noite de quarta-feira.

O AI Now também critica a Amazon.com, que fornece análise de expressões de emoção por meio de seu software Rekognition. A Amazon disse à Reuters que a tecnologia Amazon.com determina apenas a aparência física do rosto de uma pessoa e não pretende mostrar o que ela realmente sente.

Em uma teleconferência antes da publicação do relatório, os fundadores da AI Now, Kate Crawford e Meredith Whittaker, disseram que o uso nocivo da IA está se multiplicando, apesar do amplo consenso sobre os princípios éticos, porque não há consequências para violá-los. princípios.

Fonte: https://gadgets.ndtv.com/science/news/researchers-slam-artificial-intelligence-software-that-predicts-emotions-2148093

Tags: , , , , , ,

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

1 × one =

The maximum upload file size: 2 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded.