18-03-2020 6:38 am Pubblicato da Nederland.ai Lascia il tuo commento

Un giorno dopo che Facebook ha annunciato che si baserebbe maggiormente sulla moderazione dei contenuti basata sull'intelligenza artificiale, alcuni utenti lamentano che la piattaforma commette errori e blocca una serie di messaggi e collegamenti legittimi, inclusi articoli di notizie che contengono articoli sulla pandemia di coronavirus , evidenziandoli come spam.

Mentre pubblicano, gli utenti sembrano ricevere un messaggio secondo cui il loro contenuto – a volte solo un collegamento a un articolo – viola gli standard della community di Facebook. “Stiamo lavorando duramente per limitare la diffusione dello spam, in quanto non vogliamo consentire ai contenuti progettati per indurre in errore o tentare di indurre gli utenti ad aumentare il numero di visualizzazioni”, si legge nelle regole della piattaforma. .

Il problema è anche perché le piattaforme di social media continuano a combattere la disinformazione relativa a Covid-19 . Sui social media, alcuni stanno guidando l'idea che la decisione di Facebook di inviare a casa i moderatori dei contenuti con contratto potrebbe essere la radice del problema.

Facebook respinge questa idea e Guy Rosen, vicepresidente della società per l'integrità, ha twittato che “questo è un bug in un sistema anti-spam, non correlato ai cambiamenti nel nostro personale di moderazione dei contenuti”. Rosen detto che la piattaforma sta recuperando i messaggi.

Ricodifica contattato Facebook per un commento e aggiorneremo questo post se sentiamo qualcosa.

Il problema su Facebook ci ricorda che qualsiasi tipo di sistema automatizzato può ancora incasinare, e questo fatto può diventare più evidente poiché più aziende, tra cui Twitter e YouTube, dipendono dalla moderazione automatizzata dei contenuti durante la pandemia di coronavirus. Le aziende affermano di farlo per soddisfare la distanza sociale perché molti dei loro dipendenti sono costretti a lavorare da casa. Questa settimana hanno anche avvisato gli utenti che, a causa dell'aumento della moderazione automatizzata, è stato possibile eliminare accidentalmente più messaggi.

Lunedì, in un post sul blog , YouTube ha dichiarato ai creatori che la piattaforma passerà all'apprendimento automatico per aiutare con “parte del lavoro normalmente svolto dai revisori”. La società ha avvertito che la transizione significa che determinati contenuti verranno rimossi senza giudizio umano e che sia gli utenti che i collaboratori della piattaforma potrebbero vedere video rimossi dal sito che non violano le norme di YouTube.

La società ha inoltre avvertito che “i contenuti non classificati potrebbero non essere disponibili tramite la ricerca, nella home page o nei consigli”.

Allo stesso modo, Twitter ha detto agli utenti che la piattaforma farà sempre più affidamento sull'automazione e sull'apprendimento automatico per rimuovere “contenuti offensivi e manipolati”. Tuttavia, la società ha riconosciuto che l'intelligenza artificiale non sarebbe un sostituto per i moderatori umani.

“Vogliamo essere chiari: mentre lavoriamo per garantire che i nostri sistemi siano coerenti, a volte possono mancare il contesto offerto dai nostri team e questo può portarci a fare errori”, ha dichiarato la società in un post sul blog .

Per compensare possibili errori, Twitter ha dichiarato che non sospenderà permanentemente gli account “basati esclusivamente sui nostri sistemi di applicazione automatizzati”. Anche YouTube apporta modifiche. “Non colpiremo questo contenuto se non nei casi in cui abbiamo la massima fiducia che sia violento”, ha affermato la società, aggiungendo che i creatori avrebbero l'opportunità di presentare ricorso contro queste decisioni.

Facebook, nel frattempo, afferma che sta lavorando con i suoi partner per inviare i moderatori dei contenuti a casa e farli pagare. La società sta inoltre studiando la revisione temporanea del contenuto remoto per alcuni dei suoi moderatori.

“Noi non aspettiamo che questo avrà implicazioni per le persone che utilizzano la nostra piattaforma in modo notevole, ” la società ha detto Lunedi in una dichiarazione . “Detto questo, potrebbero esserci alcune limitazioni a questo approccio e potremmo vedere tempi di risposta leggermente più lunghi e quindi fare più errori.”

Il passaggio ai moderatori dell'IA non è una sorpresa. Per anni, le aziende tecnologiche hanno spinto strumenti automatizzati come un modo per integrare i loro sforzi per combattere i contenuti offensivi e pericolosi che possono riprodursi sulle loro piattaforme. Mentre l'IA può aiutare ad accelerare la moderazione dei contenuti, la tecnologia può anche avere difficoltà a comprendere il contesto sociale per post o video, esprimendo in tal modo giudizi imprecisi sul loro significato. In effetti, la ricerca ha dimostrato che gli algoritmi che rilevano il razzismo possono essere influenzati dai neri e la tecnologia è stata ampiamente criticata per essere vulnerabile al processo decisionale discriminatorio .

Normalmente, le carenze dell'IA ci hanno portato a fare affidamento su moderatori umani in grado di comprendere meglio la sfumatura. Tuttavia, i revisori dei contenuti umani non sono nemmeno una soluzione perfetta, soprattutto perché devono lavorare lunghi giorni per analizzare parole e immagini traumatiche, violente e offensive. Le loro condizioni di lavoro sono state recentemente riviste.

Ma nell'era della pandemia di coronavirus, far sì che i revisori lavorino fianco a fianco in un ufficio può essere pericoloso, oltre ad aumentare il rischio che il virus si diffonda ulteriormente al grande pubblico. Tieni presente che queste aziende sono riluttanti a consentire ai revisori dei contenuti di lavorare da casa poiché hanno accesso a molte informazioni personali dell'utente, per non parlare dei contenuti molto sensibili.

Tra la nuova pandemia di coronavirus, la classificazione dei contenuti è solo un altro modo in cui ci rivolgiamo all'IA per chiedere aiuto . Dal momento che le persone restano al chiuso e vogliono spostare le loro interazioni personali online, senza dubbio daremo uno sguardo raro al rendimento di questa tecnologia in quanto acquisisce un maggiore controllo su ciò che vediamo sulle piattaforme social più famose al mondo. Senza l'influenza dei revisori umani a cui siamo abituati, questo potrebbe essere un boom per i robot

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

diciassette − 13 =