Im August 2021 gab Apple seine Pläne bekannt, iPhones nach Bildern von sexuellem Missbrauch von Kindern zu scannen. Der Schritt erhielt Applaus von Kinderschutzgruppen, ließ jedoch bei Datenschutz- und Sicherheitsexperten Bedenken aufkommen, dass die Funktion missbraucht werden könnte.

Apple plante ursprünglich, die Scantechnologie für Kinder-Sexual-Abuse-Material (CSAM) in iOS 15 zu integrieren; Stattdessen hat es die Einführung des Features auf unbestimmte Zeit verschoben, um Feedback vor seiner vollständigen Veröffentlichung einzuholen.

Warum wurde die CSAM-Erkennungsfunktion heiß diskutiert und warum hat Apple die Einführung verschoben?

Was macht Apples Foto-Scan-Funktion?

Apple kündigte an, die Funktion zum Scannen von Fotos zu implementieren, um den sexuellen Missbrauch von Kindern zu bekämpfen. Alle Fotos auf den Geräten von Apple-Benutzern werden mit dem von Apple entwickelten "NueralHash"-Algorithmus auf pädophile Inhalte gescannt.

Darüber hinaus verfügen alle von Kindern verwendeten Apple-Geräte über eine Sicherheitsfunktion, die automatisch aktiviert wird Bilder für Erwachsene verwischen, wenn sie von einem Kind empfangen werden, und der Benutzer wird zweimal gewarnt, wenn er versucht, ihn zu öffnen Sie.

instagram viewer

Abgesehen von der Minimierung der Exposition gegenüber Inhalten für Erwachsene, wenn Eltern die Geräte ihrer Kinder für. registrieren zusätzliche Sicherheit, die Eltern würden benachrichtigt, falls das Kind explizite Inhalte von jemandem erhält online.

Weiterlesen: Was Sie über den Kinderschutz von Apple wissen müssen

Was Erwachsene betrifft, die Siri verwenden, um nach allem zu suchen, was Kinder sexualisiert, wird Siri diese Suche nicht durchführen und stattdessen andere Alternativen vorschlagen.

Daten von jedem Gerät, das 10 oder mehr Fotos enthält, die von den Algorithmen als verdächtig eingestuft werden, werden entschlüsselt und einer menschlichen Überprüfung unterzogen.

Wenn sich herausstellt, dass diese oder andere Fotos auf dem Gerät mit etwas aus der von. bereitgestellten Datenbank übereinstimmen Nationales Zentrum für vermisste und ausgebeutete Kinder, wird es den Behörden gemeldet und das Konto des Benutzers wird gesperrt.

Hauptanliegen bezüglich der Foto-Scanfunktion

Die CSAM-Erkennungsfunktion wäre mit der Veröffentlichung von iOS 15 im September 2021 live gegangen, aber in Sicht Aufgrund des weit verbreiteten Aufschreis beschloss Apple, sich mehr Zeit zu nehmen, um Feedback zu sammeln und dies zu verbessern Besonderheit. Hier ist Vollständige Aussage von Apple zur Verspätung:

"Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel nutzen, um sie zu rekrutieren und auszubeuten und die Verbreitung von sexuellem Kindesmissbrauch zu begrenzen Material.

Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir uns entschieden, uns zusätzliche Zeit zu nehmen in den kommenden Monaten, um Input zu sammeln und Verbesserungen vorzunehmen, bevor diese äußerst wichtigen Kindersicherheit veröffentlicht wird Merkmale".

Fast die Hälfte der Bedenken im Zusammenhang mit der Foto-Scan-Funktion von Apple dreht sich um den Datenschutz; die restlichen Argumente umfassen die wahrscheinliche Ungenauigkeit von Algorithmen und den möglichen Missbrauch des Systems oder seiner Lücken.

Lassen Sie es uns in vier Teile aufteilen.

Potenzieller Missbrauch

Zu wissen, dass jedes Material, das mit Kinderpornografie oder bekannten Bildern von sexuellem Missbrauch von Kindern übereinstimmt, ein Gerät in die Liste der "verdächtigen" bringt, kann Cyberkriminelle in Bewegung setzen.

Sie können eine Person absichtlich mit unangemessenen Inhalten über iMessage, WhatsApp oder andere Mittel bombardieren und das Konto dieser Person sperren lassen.

Apple hat zugesichert, dass Benutzer Einspruch einlegen können, falls ihre Konten aufgrund eines Missverständnisses gesperrt wurden.

Insider-Missbrauch

Obwohl diese Funktion für einen wohlwollenden Zweck entwickelt wurde, kann sie für bestimmte Personen zu einer totalen Katastrophe werden, wenn ihre Geräte werden mit oder ohne deren Wissen von Angehörigen, die an der Überwachung ihrer Kommunikation interessiert sind, im System registriert.

Selbst wenn das nicht passiert, hat Apple eine Hintertür geschaffen, um die Daten der Benutzer am Ende des Tages zugänglich zu machen. Jetzt ist es eine Frage der Motivation und Entschlossenheit, auf die persönlichen Daten anderer zuzugreifen.

Verwandt: Was ist eine Hintertür und was macht sie?

Es erleichtert nicht nur eine schwerwiegende Verletzung der Privatsphäre, sondern ebnet auch den Weg für missbräuchliche, giftige oder kontrollierende Verwandte, Vormunde, Freunde, Geliebte, Betreuer und Ex-Partner, um weiter in den persönlichen Raum einer Person einzudringen oder ihre. einzuschränken Freiheit.

Einerseits soll damit sexueller Missbrauch von Kindern bekämpft werden; auf der anderen Seite kann es verwendet werden, um andere Arten von Missbrauch weiter zu verewigen.

Staatliche Überwachung

Apple hat sich immer als eine datenschutzbewusstere Marke als seine Konkurrenten gepriesen. Aber jetzt könnte es ins Rutschen geraten, den nie endenden Anforderungen an Transparenz in Nutzerdaten von Regierungen.

Das von ihm entwickelte System zur Erkennung von pädophilen Inhalten kann verwendet werden, um jede Art von Inhalt auf Telefonen zu erkennen. Das bedeutet, dass Regierungen mit einer Sektenmentalität die Benutzer auf einer persönlicheren Ebene überwachen können, wenn sie es in die Hände bekommen.

Ob unterdrückend oder nicht, die Einmischung der Regierung in Ihr tägliches und persönliches Leben kann beunruhigend sein und eine Verletzung Ihrer Privatsphäre darstellen. Die Vorstellung, dass Sie sich nur dann über solche Invasionen Sorgen machen müssen, wenn Sie etwas falsch gemacht haben, ist ein Denkfehler und sieht den oben genannten rutschigen Hang nicht.

Falscher Alarm

Eines der größten Bedenken bei der Verwendung von Algorithmen zum Abgleich von Bildern mit der Datenbank sind Fehlalarme. Hashing-Algorithmen können fälschlicherweise zwei Fotos als Übereinstimmungen identifizieren, selbst wenn sie nicht identisch sind. Diese Fehler, die als "Kollisionen" bezeichnet werden, sind im Zusammenhang mit Inhalten über sexuellen Missbrauch von Kindern besonders alarmierend.

Forscher fanden mehrere Kollisionen in "NeuralHash", nachdem Apple angekündigt hatte, den Algorithmus zum Scannen von Bildern zu verwenden. Apple beantwortete Fragen zu Fehlalarmen mit dem Hinweis, dass das Ergebnis am Ende von einem Menschen überprüft wird, sodass sich die Leute keine Sorgen machen müssen.

Ist die CSAM-Pause von Apple dauerhaft?

Es gibt viele Vor- und Nachteile der von Apple vorgeschlagenen Funktion. Jeder von ihnen ist echt und hat Gewicht. Es ist noch unklar, welche spezifischen Änderungen Apple an der CSAM-Scanfunktion vornehmen könnte, um seine Kritiker zufrieden zu stellen.

Es könnte das Scannen auf freigegebene iCloud-Alben beschränken, anstatt die Geräte der Benutzer einzubeziehen. Es ist sehr unwahrscheinlich, dass Apple diese Pläne ganz fallen lässt, da das Unternehmen normalerweise nicht geneigt ist, seinen Plänen nachzugeben.

Aus der weit verbreiteten Gegenreaktion und dem Zurückhalten von Apple mit seinen Plänen geht jedoch klar hervor, dass Unternehmen sollten die Forschungsgemeinschaft von Anfang an einbeziehen, insbesondere für eine ungetestete Technologie.

TeilenTweetEmail
Internetsicherheit: Über 50 Tipps, um Ihre Kinder online sicher zu halten

Kinder sind die Hauptziele für Online-Raubtiere und Cyberbullies. Mit diesen praktischen Tipps können Eltern lernen, wie sie online sicher sind.

Weiter lesen

Verwandte Themen
  • Sicherheit
  • iPhone
  • Smartphone-Datenschutz
  • Apfel
  • Online-Datenschutz
  • Überwachung
Über den Autor
Fawad Ali (19 Artikel veröffentlicht)

Fawad ist IT- und Kommunikationsingenieur, aufstrebender Unternehmer und Autor. Er stieg 2017 in die Arena des Content Writing ein und hat seitdem mit zwei digitalen Marketingagenturen und zahlreichen B2B- und B2C-Kunden zusammengearbeitet. Er schreibt über Sicherheit und Technik bei MUO, mit dem Ziel, das Publikum zu informieren, zu unterhalten und zu engagieren.

Mehr von Fawad Ali

Abonniere unseren Newsletter

Abonnieren Sie unseren Newsletter für technische Tipps, Rezensionen, kostenlose E-Books und exklusive Angebote!

Klicken Sie hier, um zu abonnieren