13-12-2019 5:53 am Pubblicato da Nederland.ai Lascia il tuo commento

Un importante gruppo di ricercatori, allarmato dalle dannose conseguenze sociali dell'intelligenza artificiale, ha chiesto il divieto di analisi automatizzata delle espressioni facciali durante l'assunzione e altre importanti decisioni giovedì. L'AI Now Institute della New York University ha affermato che l'azione contro tale “riconoscimento dell'affetto” guidato dal software aveva la massima priorità, perché la scienza non giustifica l'uso della tecnologia e c'è ancora tempo per fermare l'adozione diffusa .

Il gruppo di professori e altri ricercatori hanno citato l'esempio problematico come la società HireVue, che vende sistemi di intervista video a distanza per i datori di lavoro come Hilton e Unilever. Offre all'intelligenza artificiale la capacità di analizzare i movimenti del viso, i modelli di tono e linguaggio e non rilascia punteggi ai candidati.

Il centro di informazione sulla privacy elettronica senza scopo di lucro ha presentato un reclamo su HireVue alla Federal Trade Commission degli Stati Uniti e AI ha già criticato la società.

HireVue ha affermato di non aver visto il rapporto AI Now e di non aver risposto alle domande sulla critica o sul reclamo.

“Molti candidati hanno beneficiato della tecnologia HireVue per aiutare a rimuovere l'importantissimo pregiudizio umano nel processo di reclutamento esistente”, ha dichiarato la portavoce Kim Paone.

L'intelligenza artificiale ora, nel suo quarto rapporto annuale sugli effetti degli strumenti di intelligenza artificiale, ha affermato che la ricerca di lavoro è uno dei molti modi in cui tale software viene utilizzato senza responsabilità e in genere favorisce gruppi privilegiati.

Il rapporto ha citato una recente analisi accademica di studi su come le persone interpretano gli stati d'animo delle espressioni facciali. Tale articolo ha dimostrato che la precedente borsa di studio ha dimostrato che tali percezioni sono inaffidabili per diversi motivi.

“Il modo in cui le persone comunicano rabbia, disgusto, paura, felicità, tristezza e sorpresa varia considerevolmente tra culture, situazioni e persino tra persone all'interno di un'unica situazione”, ha scritto un team della Northeastern University e del Massachusetts General Hospital.

Le aziende, tra cui Microsoft, commercializzano la loro capacità di classificare le emozioni utilizzando il software, secondo lo studio. Microsoft non ha risposto a una richiesta di commento mercoledì sera.

AI Now critica anche Amazon.com, che fornisce analisi delle espressioni di emozione attraverso il suo software Rekognition. Amazon ha dichiarato a Reuters che la tecnologia Amazon.com determina solo l'aspetto fisico del volto di una persona e non pretende di mostrare ciò che una persona sente realmente.

In una teleconferenza prima della pubblicazione del rapporto, i fondatori di AI Now, Kate Crawford e Meredith Whittaker, hanno affermato che l'uso dannoso dell'IA si sta moltiplicando nonostante l'ampio consenso sui principi etici perché non vi sono conseguenze per la violazione di questi. principi.

Fonte: https://gadgets.ndtv.com/science/news/researchers-slam-artificial-intelligence-software-that-predicts-emotions-2148093

Tag: , , , , , ,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

quattro × 3 =

The maximum upload file size: 2 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded.