18-03-2020 6:38 am Veröffentlicht von Nederland.ai Schreibe einen Kommentar

Einen Tag, nachdem Facebook angekündigt hatte, sich stärker auf die Moderation künstlicher Intelligenz zu stützen, beklagen einige Benutzer, dass die Plattform Fehler macht und eine Reihe legitimer Nachrichten und Links blockiert, einschließlich Nachrichtenartikeln mit Nachrichtenartikeln über die Coronavirus- Pandemie , in denen sie hervorgehoben werden als Spam.

Während des Beitrags scheinen Benutzer die Nachricht zu erhalten, dass ihr Inhalt – manchmal nur ein Link zu einem Artikel – gegen die Community-Standards von Facebook verstößt. “Wir arbeiten hart daran, die Verbreitung von Spam zu begrenzen, da wir nicht zulassen möchten, dass Inhalte irreführend sind oder versuchen, Benutzer irrezuführen, um die Zuschauerzahl zu erhöhen”, heißt es in den Regeln der Plattform. .

Das Problem ist auch, dass Social-Media-Plattformen weiterhin gegen Desinformation im Zusammenhang mit Covid-19 kämpfen . SocialMediaLaufwerk einige jetzt die Idee , dass die Entscheidung von Facebook seine vertraglich vereinbarten Inhalt Moderatoren nach Hause schicken die Ursache des Problems sein könnte.

Facebook widerlegt diese Idee, und Guy Rosen, Vice President für Integrität des Unternehmens, twitterte : “Dies ist ein Fehler in einem Anti-Spam-System, der nichts mit Änderungen in unserem Personal für die Moderation von Inhalten zu tun hat.” Rosen sagte die Plattform stellt die Nachrichten wieder her.

Recode kontaktierte Facebook für einen Kommentar und wir werden diesen Beitrag aktualisieren, wenn wir etwas hören.

Das Problem auf Facebook erinnert uns daran, dass jede Art von automatisiertem System immer noch durcheinander geraten kann, und diese Tatsache kann deutlicher werden, da mehr Unternehmen, einschließlich Twitter und YouTube, während der Coronavirus-Pandemie auf die automatische Moderation von Inhalten angewiesen sind. Die Unternehmen geben an, dies zu tun, um soziale Distanz zu erreichen, da viele ihrer Mitarbeiter gezwungen sind, von zu Hause aus zu arbeiten. Diese Woche warnten sie die Benutzer auch davor, dass aufgrund der zunehmenden automatisierten Moderation versehentlich mehr Nachrichten gelöscht werden könnten.

In einem Blog-Beitrag am Montag teilte YouTube den Entwicklern mit, dass sich die Plattform dem maschinellen Lernen zuwenden wird, um “einige der Arbeiten zu unterstützen, die normalerweise von Rezensenten ausgeführt werden”. Das Unternehmen warnte, dass der Übergang bedeutet, dass bestimmte Inhalte ohne menschliches Urteilsvermögen entfernt werden und dass sowohl Benutzer als auch Mitwirkende der Plattform möglicherweise Videos von der Website entfernt sehen, die nicht gegen die YouTube-Richtlinien verstoßen.

Das Unternehmen warnte außerdem, dass “nicht bewertete Inhalte möglicherweise nicht über die Suche, auf der Startseite oder in Empfehlungen verfügbar sind”.

Ebenso hat Twitter den Nutzern mitgeteilt, dass die Plattform zunehmend auf Automatisierung und maschinelles Lernen angewiesen sein wird, um “anstößige und manipulierte Inhalte” zu entfernen. Dennoch erkannte das Unternehmen, dass künstliche Intelligenz kein Ersatz für menschliche Moderatoren sein würde.

“Wir möchten klarstellen: Während wir daran arbeiten, sicherzustellen, dass unsere Systeme konsistent sind, können sie manchmal den Kontext übersehen, den unsere Teams bringen, und dies kann dazu führen, dass wir Fehler machen”, sagte das Unternehmen in einem Blogbeitrag .

Um mögliche Fehler zu kompensieren, sagte Twitter, dass Konten “nur auf der Grundlage unserer automatisierten Durchsetzungssysteme” nicht dauerhaft gesperrt werden. YouTube nimmt auch Anpassungen vor. “Wir werden diesen Inhalt nur dann streichen, wenn wir großes Vertrauen haben, dass er gewalttätig ist”, sagte das Unternehmen und fügte hinzu, dass die Urheber die Möglichkeit hätten, gegen diese Entscheidungen Berufung einzulegen.

Facebook sagt unterdessen, dass es mit seinen Partnern zusammenarbeitet, um seine Content-Moderatoren nach Hause zu schicken und sie bezahlen zu lassen. Das Unternehmen untersucht auch die vorübergehende Überprüfung von Remote-Inhalten für einige seiner Moderatoren.

“Wir erwarten nicht, dass sich dies auf Menschen auswirkt, die unsere Plattform spürbar nutzen”, sagte das Unternehmen in einer Erklärung am Montag . “Allerdings kann dieser Ansatz einige Einschränkungen aufweisen, und wir sehen möglicherweise etwas längere Reaktionszeiten und machen daher mehr Fehler.”

Der Wechsel zu KI-Moderatoren ist keine Überraschung. Seit Jahren setzen Technologieunternehmen automatisierte Tools ein, um ihre Bemühungen zur Bekämpfung der anstößigen und gefährlichen Inhalte, die auf ihren Plattformen entstehen können, zu ergänzen. Während KI dazu beitragen kann, die Moderation von Inhalten zu beschleunigen, kann die Technologie auch Schwierigkeiten haben, den sozialen Kontext für Posts oder Videos zu verstehen, wodurch ungenaue Beurteilungen über deren Bedeutung vorgenommen werden. Tatsächlich hat die Forschung gezeigt, dass Algorithmen, die Rassismus erkennen, gegen Schwarze voreingenommen sein können , und die Technologie wurde allgemein dafür kritisiert, dass sie für diskriminierende Entscheidungen anfällig ist .

Normalerweise haben uns die Mängel der KI dazu veranlasst, uns auf menschliche Moderatoren zu verlassen, die Nuancen besser verstehen können. Rezensenten menschlicher Inhalte sind jedoch auch keine perfekte Lösung, zumal sie lange Tage arbeiten müssen, um traumatische, gewalttätige und beleidigende Wörter und Bilder zu analysieren. Ihre Arbeitsbedingungen wurden kürzlich überprüft.

In Zeiten der Coronavirus-Pandemie kann es jedoch gefährlich sein, Prüfer dazu zu bringen, nebeneinander in einem Büro zu arbeiten, und das Risiko einer weiteren Ausbreitung des Virus in der Öffentlichkeit zu erhöhen. Beachten Sie, dass diese Unternehmen es nur ungern zulassen, dass Inhaltsprüfer von zu Hause aus arbeiten, da sie Zugriff auf viele persönliche Benutzerinformationen haben, ganz zu schweigen von sehr sensiblen Inhalten.

Inmitten der neuen Coronavirus-Pandemie ist die Inhaltsbewertung nur eine weitere Möglichkeit, sich an AI zu wenden, um Hilfe zu erhalten . Da die Leute drinnen bleiben und ihre persönlichen Interaktionen online verschieben möchten, werden wir zweifellos einen seltenen Blick darauf werfen, wie gut diese Technologie funktioniert, da sie mehr Kontrolle über das erhält, was wir auf den beliebtesten sozialen Plattformen der Welt sehen. Ohne den Einfluss menschlicher Gutachter, den wir gewohnt sind, könnte dies ein Boom für die Roboter sein

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

5 × vier =