Werbung

Apple räumt mit seinem Tool zur Erkennung von Kindesmissbrauch auf

Experten hatten zuvor vorgeschlagen, dass die kommenden Tools von Apple die Privatsphäre des Einzelnen beeinträchtigen könnten.

Tage nachdem Apple sein Tool Neuralmatch zur Erkennung von Material über sexuellen Missbrauch von Kindern CSAM eingeführt hat, hat das Unternehmen jetzt eine veröffentlicht.FAQ-Dokument um die Verwirrung zu beseitigen, die seine Updates in der breiten Öffentlichkeit verursachten. Das Tool, das noch in diesem Jahr eingeführt werden soll, sorgte im Internet für Furore, die gleichzeitig Lob und Kritik auslösten.

Während einige froh waren, dass das Unternehmen versucht, das Problem der Kinderpornografie anzugehen, bezeichneten andere das Tool als rutschigen Abhang, der es Regierungen in Zukunft ermöglichen würde, Benutzer auszuspionieren.

Letzte Woche hatten wir auch berichtet, dass Apples Neuralmatch es dem Unternehmen ermöglichen würde Bilder auf den iPhones und iCloud der Benutzer scannen, sucht nach "bekannten" Bildern von Kinderpornografie. Wenn CSAM auf einem Gerät gefunden wurde, würde das Unternehmen eine menschliche Überprüfung des Materials durchführen, das Konto des Benutzers deaktivieren und es dem National Center for Missing and Exploited Children NCMEC melden. In scharfem Gegensatz zu den Werten des Unternehmens, die Privatsphäre der Benutzer zu schützen, argumentierten Experten, dass ein solches invasives Werkzeug auf Ersuchen der Regierung umfunktioniert werden könnte, um nach anderem Material zu suchen.

Ein Teil der Verwirrung scheint auf die geplante Veröffentlichung eines anderen Tools von Apple zurückzuführen zu sein, das als Kommunikationssicherheit in Nachrichten bezeichnet wird. Dieses Tool richtet sich an Benutzer von Apple-Geräten im Teenageralter und wurde entwickelt, um sexuell eindeutige Bilder zu erkennen, die über seine geteilt werdenNachrichtendienst, iMessage. Damit dieses Tool funktioniert, muss ein Gerät für eine Person im Alter von 12 Jahren oder jünger registriert und als Kinderkonto in der Familienfreigabefunktion von Apple eingerichtet werden.

Wenn diese Voraussetzungen erfüllt sind, analysieren iPhones Bilder, die über iMessage gesendet oder empfangen werden, und verwischen sie, wenn sie sexuell eindeutig sind. Darüber hinaus warnt die App das Kind davor, auf das Bild zuzugreifen, und bietet gleichzeitig Ressourcen an, um zu helfendas Kind, sagte Apple in seinem FAQ-Dokument. Als zusätzlichen Schutz wird der junge Benutzer auch benachrichtigt, dass, wenn der Benutzer weiterhin auf das Bild zugreift, auch ein Elternteil benachrichtigt wird.

Werbung

Apples CSAM-Tool funktioniert nicht bei allen Bildern, die auf iPhones gespeichert sind, sondern nur bei denen, die in die iCloud hochgeladen werden. Um CSAM zu erkennen, scannt Apple die gespeicherten Bilder in der iCloud nicht, sondern verwendet nur ihren Hash - einen mathematischen Fingerabdruck, umVergleichen Sie ihn mit Hashes von bekanntem CSAM. Wenn ein Benutzer iCloud nicht verwendet, vergleicht das CSAM-Tool nicht die Hashes von allen Bildern in der Fotobibliothek. Der Quell-Hash für CSAM kommt von NCMEC. Sobald CSAM in einem iCloud-Konto erkannt wurde, Apple wird auch eine menschliche Überprüfung durchführen, bevor der Benutzer an NCMEC gemeldet wird, sagte das Unternehmen.

In Bezug auf die Besorgnis, dass der Hash von NCMEC durch einen anderen Hash einer anderen Regierungsbehörde ersetzt werden könnte, hat Apple erklärt, dass es solche Anfragen von Regierungsbehörden wie in der Vergangenheit ablehnen wird. Falls die NCMEC-Datenbank missbraucht wird, um andere einzufügenHashes ist Apple zuversichtlich, dass seine menschliche Überprüfung es aufgreifen wird. Darüber hinaus ist das Unternehmen zuversichtlich, dass sein Tool sehr genau ist und die Wahrscheinlichkeit einer falschen Erkennung jedes Jahr eins zu einer Billion beträgt. Jedenfalls gibt es keine AutomatisierungMeldungen, die auftreten werden, und daher wird der Benutzer nicht gemeldet oder das Konto wird nicht gesperrt.

Werbung

Diese Updates werden vorerst nur in den USA eingeführt, und das Unternehmen wird eine Einzelfallprüfung durchführen, bevor sie in anderen Regionen eingeführt werden.Gizmodo berichtet. Allerdings ist nicht jeder davon überzeugt. Apple soll dies getan habenangeschnallt an den Druck der Regierung um das Geschäft in einigen Bereichen am Laufen zu halten.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.