Werbung

Facebooks KI-Systeme identifizieren und entfernen Hassreden

Auf dem Web Summit 2020 sagte Facebook-CTO Mike Schroepfer, dass sich die Menge an Hassreden, die KI-Systeme entfernen, in nur einem Jahr verfünffacht hat.

Wenn es auf der Welt mehr Hass als Liebe gibt, wissen Sie, dass es ein ernstes Problem mit der Menschheit gibt.

Facebook CTO Mike Schroepfer sagte, dass in nur einem Jahr - vom zweiten Quartal 2019 bis zum zweiten Quartal dieses Jahres - der Betrag von Hassrede Die von Facebook identifizierten und entfernten Systeme für künstliche Intelligenz KI haben sich verfünffacht.

Wenn Sie lernen, dass die Welt so von Hass und damit verbundenen negativen Emotionen getrieben wird, fragen Sie sich, wohin die Welt geht. Was hält der CTO von Facebook von den Ergebnissen des Technologieriesen?

Als CTO von Facebook leitet Mike Schroepfer die Entwicklung der Technologie und der Teams, die es Facebook ermöglichen, Milliarden von Menschen auf der ganzen Welt miteinander zu verbinden. Die Teams arbeiten in Entwicklungsbereichen wie Künstliche Intelligenz AI und Virtuelle Realität VR.

Diese Verbindungen erzeugen Daten, und die Daten sind voller emotionaler Gespräche, Austausche und Meinungen, die zeigen, wer wirklich Menschen sind, was die Essenz des Menschen ist. Möchten Sie mehr hören?

Trotz der weit verbreiteten Skepsis gegenüber Social-Media-Plattformen und der normalerweise ärgerlichen Verbreitung von Desinformation sieht der CTO von Facebook Facebook immer noch als eine treibende Kraft, die im Kern alles tut, um Menschen auf der ganzen Welt dabei zu helfen, sich leichter und einfacher zu verbindenerschwinglich, etwas, das vor ein paar Jahrzehnten nur ein Traum war.

„95, 98, 99 Prozent dieser Erfahrung sind Menschen, die sich nur mit ihren Freunden und ihrer Familie verbinden“, sagte Mike Schroepfer. „Nun, gibt es schlimme Dinge, die passieren, wenn Sie die Reibung für die Kommunikation verringern? Absolut. Und genau das sind wirIch habe in den letzten Jahren gesehen, und warum ich mich so sehr dafür eingesetzt habe, dass Menschen frei kommunizieren können, aber auch Ausrottung der Hassrede , Gewalt, [und] Sprache, die auf der Website einfach nicht erlaubt ist. ”

Werbung

Während Schroepfers Interview mit Jeremy Kahn , leitender Autor bei Fortune Magazine at Web Summit Day Two , Der CTO von Facebook ging sehr detailliert auf die massive Herausforderung sowohl auf technischer als auch auf politischer Ebene ein, die mit der Beseitigung von Desinformation und Hassreden auf Facebook verbunden ist. Facebook hat zum Zeitpunkt des Schreibens über 2,7 Milliarden aktive Nutzer pro Monat, was es zumgrößtes soziales Netzwerk weltweit. Mit anderen Worten, derzeit nutzen 28,5 Prozent der Weltbevölkerung Facebook als Mittel zur sozialen Online-Kommunikation.

Jeremy Kahn fragte Schröder, welche Botschaft er für Kritiker haben würde, die sagen, dass keine Menge Technologie dies beheben wird. Inhaltsmoderation Das Problem, bis Facebook nicht mehr für die Aufmerksamkeit optimiert ist, was seiner Ansicht nach dazu führt, dass teilbare Inhalte positivere, vereinheitlichende Inhalte hervorbringen. Schröder antwortete darauf, dass alle Kommunikationsmedien in der Geschichte, von Zeitungen bis Radio, diesem Dilemma ausgesetzt warendass es nicht neu ist Social-Media-Giganten wie Facebook.

Werbung

"Dies ist nur eine Realität, wenn Menschen sich verbinden. Es gibt gute und schlechte Verwendungszwecke", sagte er. "Die Antwort ist nicht, Plattformen einzudämmen und sie restriktiver zu machen. Es ist als demokratische Gesellschaft zu entscheiden, was erlaubt ist undnicht, und lassen Sie Plattformen unser Bestes tun, um diese Regeln durchzusetzen ", sagte Schroepfer.

Hassreden von Facebook entfernen: Reichen KI-Systeme aus?

Hassreden entfernen von Facebook problematischer Inhalt erfordert nicht nur die Hilfe von KI-Systeme stellt aber auch eine große Herausforderung für die Moderation von Inhalten dar. Schröder sagte, es habe "enorme Fortschritte gegeben, aber wir sind noch nicht fertig".

Wenn Sie jemals frustriert waren, wenn Sie sich mit einem Arbeitsproblem befassten, versetzen Sie sich einfach für einen Tag in Schröfers Schuhe. "Es ist also ein frustrierender Ort, an dem jeden Tag faire Kritik geübt wird, an der wir einen Inhalt vermissen. Und das ist eswarum ich jeden Tag aufstehe - um diese Lücke zu schließen ", sagte der CTO von Facebook.

Werbung

Wie effektiv KI-Systeme sind, um Hassreden zu entfernen

Wie sich herausstellt, scheint Hassreden eine der am schwersten zu erkennenden Kategorien für Maschinen zu sein. Laut Schroepfer identifizieren KI-Systeme jetzt 94,5 Prozent der Hassreden. Vom zweiten Quartal 2019 bis zum zweiten Quartal 2020Die Menge an Hassreden, die die KI-Systeme von Facebook identifiziert und entfernt haben, hat sich verfünffacht, sagte er.

Ebenso musste Facebook Deepfakes verfolgen und bekämpfen. Schroepfer sagte vor 18 Monaten, es gäbe keine Deepfake-Erkennung Prozess. Die meisten Deepfakes werden jetzt erkannt.

Bei Fernarbeit

Schröder sagte, er sei überrascht, wie gut Fernarbeit hat für Facebook-Mitarbeiter gearbeitet, wobei die Produktivität der Mitarbeiter hoch geblieben ist. Was er jedoch als mangelhaft ansieht, ist die menschliche Verbindung von Teams, die im selben Büro arbeiten. In diesem Bereich wird Virtual Reality VR auf der ganzen Linie mehr helfen, aber richtigJetzt ist 2D-Video nicht auf dem neuesten Stand, sagte er.

Werbung

"Technologie ist im Grunde ein Mannschaftssport. Wir müssen zusammenarbeiten, um Dinge zu bauen, Entscheidungen zu treffen und Produkte zu bewerten", sagte Schröder. "Dieses Video-Chat-Zeug ist großartig; es ist einfach nicht dasselbe wie in einem Raum mit einemeine Gruppe von Leuten und eine schwierige Entscheidung zu treffen, ein Projekt abzubrechen, zu schwenken oder diese Funktion über diese Funktion zu stellen. Und genau das denke ich, dass wir vermissen ", sagte er.

Bei der Arbeit im Büro oder bei der Arbeit von zu Hause aus

Schroepfers frühere Firma, Mozilla, hatte eine Arbeit eingerichtet, in der es eine gab verteilte Belegschaft und die Mitarbeiter trafen sich nur einmal im Quartal für eine Woche persönlich. "Wir haben in dieser Woche die geringste Menge an Code geschrieben, aber Sie haben eine ganze Reihe von Beziehungen aufgebaut, eine Reihe von Entscheidungen getroffen und jeder konnte gehen. Arbeit von zu Hause aus und sei super produktiv, weil sie nicht durch Meetings abgelenkt wurden. Ich denke, dass das Modell, zusammenzukommen, um Beziehungen aufzubauen und Entscheidungen zu treffen, und das Verschwinden, um produktive Soloarbeit zu leisten, mehr das Ziel der Welt ist. "In der Tat.

Werbung

Emotional sein gegen Hassreden: Können KI-Systeme den Unterschied erkennen?

Dann gibt es das Thema, nur emotional zu sein und einen schlechten Tag zu haben, ohne Hassrede als Konstante zu bedeuten. Wir waren alle dort, wenn wir so verärgert und frustriert sind über etwas, das uns fast nicht enthalten kann, wenn wir eine Hitze habenStreit mit einem Freund oder Familienmitglied. Und das ist auch ein Teil von Redefreiheit . Wie wird das von Facebook-Moderatoren bewertet und KI-Systeme zum Zeitpunkt der Entscheidung über Hassreden entfernen ?

Das ist der eigentliche Trick - Ihnen die Möglichkeit zu geben, mit anderen zu teilen und zu kommunizieren, und unsere technischen Fähigkeiten und Skalierbarkeit zu nutzen, um alle schlechten Verwendungen und schlechten Schauspieler zu eliminieren, wo wir können ", sagte Schröder.

Verwandte Artikel :

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.