Leser wie Sie helfen, MUO zu unterstützen. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

Apple kündigte Pläne an, Ihre iCloud-Inhalte im August 2021 auf Material zum sexuellen Missbrauch von Kindern (CSAM) zu scannen, um Kinder vor Missbrauch durch Raubtiere zu schützen.

Das Unternehmen plante die Einführung einer neuen CSAM-Erkennungsfunktion in iCloud Photos, die nach solchen Inhalten suchen und übereinstimmende Bilder an Apple melden würde, während die Privatsphäre der Benutzer gewahrt bleibt.

Allerdings stieß das neue Feature auf gemischte Reaktionen. Über ein Jahr nach der ersten Ankündigung lässt Apple seinen Plan, iCloud-Fotos auf CSAM zu scannen, offiziell fallen.

Apple lässt seinen Plan fallen, iCloud auf Kindesmissbrauchsmaterial zu scannen

Laut einem Bericht von VERDRAHTET, Apple weicht von seinem Plan ab, Ihre iCloud nach Inhalten mit Kindesmissbrauch zu scannen. Das Tool würde auf iCloud gespeicherte Fotos scannen, um diejenigen zu finden, die mit bekannten CSAM-Bildern übereinstimmen, die von Kinderschutzorganisationen identifiziert wurden. Es könnte diese Bilder dann melden, da der Besitz von CSAM-Bildern in den meisten Gerichtsbarkeiten, einschließlich der USA, illegal ist.

instagram viewer

Warum Apple seinen Plan zum Scannen von iCloud-Fotos storniert hat

Nach der ersten Ankündigung im Jahr 2021 sah sich Apple mit Gegenreaktionen von Kunden, Gruppen und Einzelpersonen konfrontiert, die sich weltweit für digitalen Datenschutz und Sicherheit einsetzen. iPhones bieten in der Regel mehr Sicherheit als Android-Geräte, und viele betrachteten dies als einen Rückschritt. Während es für Kinderschutzorganisationen ein Gewinn war, schrieben über 90 politische Gruppen später im selben Monat einen offenen Brief an Apple und forderten das Unternehmen auf, den Plan zu stornieren.

Der Brief argumentierte, dass das Tool dies zwar beabsichtigt Kinder vor Missbrauch schützen, könnte es genutzt werden, um die Meinungsfreiheit zu zensieren und die Privatsphäre und Sicherheit der Benutzer zu bedrohen. Aufgrund des zunehmenden Drucks stoppte Apple seine Einführungspläne, um Feedback zu sammeln und die erforderlichen Anpassungen an der Funktion vorzunehmen. Das Feedback sprach sich jedoch nicht für Apples Plan aus, iCloud-Fotos zu scannen, sodass das Unternehmen die Pläne offiziell für immer fallen lässt.

In einer Erklärung gegenüber WIRED sagte das Unternehmen:

"Wir haben... beschlossen, mit unserem zuvor vorgeschlagenen CSAM-Erkennungstool für iCloud-Fotos nicht fortzufahren. Kinder können geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen, und wir werden weiterhin mit Regierungen, Kinderanwälten und anderen zusammenarbeiten andere Unternehmen, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns zu machen alle."

Apples neuer Plan zum Schutz von Kindern

Apple richtet seine Bemühungen zur Verbesserung der im August 2021 angekündigten und im Dezember desselben Jahres eingeführten Kommunikationssicherheitsfunktionen neu aus.

Kommunikationssicherheit ist optional und kann von Eltern und Erziehungsberechtigten verwendet werden, um Kinder vor dem Senden und Empfangen sexuell expliziter Bilder in iMessage zu schützen. Die Funktion verwischt solche Fotos automatisch und das Kind wird vor den damit verbundenen Gefahren gewarnt. Es warnt auch jeden, wenn er versucht, auf Apple-Geräten nach CSAM zu suchen.

Da die Pläne zur Einführung eines CSAM-Erkennungstools abgesagt wurden, freut sich das Unternehmen darauf, die Funktion weiter zu verbessern und auf weitere Kommunikations-Apps auszudehnen.