Apple hat kürzlich neue Kindersicherungen angekündigt, die diesen Herbst mit der Einführung von iOS 15, iPadOS 15 und macOS Monterey erscheinen.
Wir werden uns diese erweiterten Kindersicherheitsfunktionen und die dahinterstehende Technologie im Folgenden genauer ansehen.
Scannen von Material über sexuellen Missbrauch von Kindern
Die bemerkenswerteste Änderung ist, dass Apple neue Technologien verwenden wird, um Bilder zu erkennen, die Bilder von Kindesmissbrauch zeigen, die in iCloud-Fotos gespeichert sind.
Diese Bilder werden als Child Sexual Abuse Material (CSAM) bezeichnet und Apple wird Fälle davon an das National Center for Missing and Exploited Children melden. Das NCMEC ist eine Meldestelle für CSAM und arbeitet mit Strafverfolgungsbehörden zusammen.
Das CSAM-Scannen von Apple wird zum Start auf die USA beschränkt sein.
Laut Apple verwendet das System Kryptographie und wurde unter Berücksichtigung der Privatsphäre entwickelt. Bilder werden auf dem Gerät gescannt, bevor sie in iCloud-Fotos hochgeladen werden.
Laut Apple müssen Sie sich keine Sorgen machen, dass Apple-Mitarbeiter Ihre tatsächlichen Fotos sehen. Stattdessen stellt das NCMEC Apple Image-Hashes von CSAM-Images zur Verfügung. Ein Hash nimmt ein Bild und gibt eine lange, eindeutige Folge von Buchstaben und Zahlen zurück.
Apple nimmt diese Hashes und wandelt die Daten in einen unlesbaren Satz von Hashes um, die sicher auf einem Gerät gespeichert sind.
Verwandt: Wie iOS 15 die Privatsphäre Ihres iPhones besser schützt als je zuvor
Bevor das Bild mit iCloud Photos synchronisiert wird, wird es mit den CSAM-Bildern verglichen. Mit einer speziellen kryptografischen Technologie – Private-Set-Schnittmenge – ermittelt das System, ob eine Übereinstimmung vorliegt, ohne ein Ergebnis preiszugeben.
Wenn eine Übereinstimmung vorliegt, erstellt ein Gerät einen kryptografischen Sicherheitsgutschein, der die Übereinstimmung zusammen mit weiteren verschlüsselten Daten über das Bild codiert. Dieser Gutschein wird mit dem Bild auf iCloud Photos hochgeladen.
Sofern ein iCloud Photos-Konto nicht einen bestimmten Schwellenwert für CSAM-Inhalte überschreitet, stellt das System sicher, dass die Sicherheitsgutscheine nicht von Apple gelesen werden können. Dies ist einer kryptografischen Technologie zu verdanken, die als Secret Sharing bezeichnet wird.
Laut Apple bietet der unbekannte Schwellenwert eine hohe Genauigkeit und sorgt dafür, dass die Wahrscheinlichkeit, ein Konto fälschlicherweise zu kennzeichnen, weniger als eins zu einer Billion beträgt.
Wenn der Schwellenwert überschritten wird, ermöglicht die Technologie Apple, die Gutscheine und die passenden CSAM-Bilder zu interpretieren. Apple überprüft dann jeden Bericht manuell, um eine Übereinstimmung zu bestätigen. Wenn dies bestätigt wird, deaktiviert Apple das Konto eines Benutzers und sendet dann einen Bericht an das NCMEC.
Wenn ein Benutzer der Meinung ist, dass sein Konto irrtümlicherweise von der Technologie gekennzeichnet wurde, wird ein Einspruchsverfahren für die Wiederherstellung eingeleitet.
Wenn Sie Bedenken hinsichtlich des Datenschutzes mit dem neuen System haben, hat Apple bestätigt, dass keine Fotos mit der Kryptographie-Technologie gescannt werden, wenn Sie iCloud-Fotos deaktivieren. Sie können dies tun, indem Sie zu gehen Einstellungen > [Ihr Name] > iCloud > Fotos.
Es gibt ein paar Nachteile beim Deaktivieren von iCloud-Fotos. Alle Fotos und Videos werden auf Ihrem Gerät gespeichert. Dies kann zu Problemen führen, wenn Sie viele Bilder und Videos und ein älteres iPhone mit begrenztem Speicherplatz haben.
Außerdem sind auf dem Gerät aufgenommene Fotos und Videos auf anderen Apple-Geräten mit dem iCloud-Konto nicht zugänglich.
Verwandt: So greifen Sie auf iCloud-Fotos zu
Apple erklärt mehr über die Technologie, die bei der CSAM-Erkennung verwendet wird in a Whitepaper PDF. Sie können auch ein lesen Apple-FAQ mit zusätzlichen Informationen zum System.
In den FAQ weist Apple darauf hin, dass das CSAM-Erkennungssystem nicht verwendet werden kann, um etwas anderes als CSAM zu erkennen. Das Unternehmen sagt auch, dass in den USA und vielen anderen Ländern der Besitz der CSAM-Bilder eine Straftat darstellt und Apple verpflichtet ist, die Behörden zu informieren.
Das Unternehmen sagt auch, dass es jegliche Forderungen der Regierung ablehnen wird, ein Nicht-CSAM-Image zur Hash-Liste hinzuzufügen. Es erklärt auch, warum Nicht-CSAM-Images von Dritten nicht zum System hinzugefügt werden konnten.
Aufgrund menschlicher Überprüfung und der Tatsache, dass die verwendeten Hashes von bekannten und vorhandenen CSAM-Images stammen, sagt Apple, dass Das System wurde entwickelt, um genau zu sein und Probleme mit anderen Bildern oder unschuldigen Benutzern zu vermeiden, die dem. gemeldet werden NCMEC.
Zusätzliches Kommunikationssicherheitsprotokoll in Nachrichten
Eine weitere neue Funktion werden Sicherheitsprotokolle in der Nachrichten-App sein. Dies bietet Tools, die Kinder und ihre Eltern warnen, wenn sie Nachrichten mit sexuell eindeutigen Fotos senden oder empfangen.
Wenn eine dieser Nachrichten empfangen wird, wird das Foto unscharf und das Kind wird ebenfalls gewarnt. Sie können hilfreiche Ressourcen sehen und erfahren, dass es in Ordnung ist, wenn sie das Bild nicht anzeigen.
Die Funktion ist nur für Konten verfügbar, die als Familien in iCloud eingerichtet wurden. Eltern oder Erziehungsberechtigte müssen sich anmelden, um die Kommunikationssicherheitsfunktion zu aktivieren. Sie können sich auch dafür entscheiden, benachrichtigt zu werden, wenn ein Kind unter 12 Jahren ein sexuell eindeutiges Bild sendet oder empfängt.
Für Kinder im Alter von 13 bis 17 Jahren werden die Eltern nicht benachrichtigt. Das Kind wird jedoch gewarnt und gefragt, ob es ein sexuell eindeutiges Bild anzeigen oder teilen möchte.
Verwandt: Wie iOS 15 Intelligenz nutzt, um Ihr iPhone intelligenter denn je zu machen
Messages verwendet maschinelles Lernen auf dem Gerät, um festzustellen, ob ein Anhang oder ein Bild sexuell eindeutig ist. Apple erhält keinen Zugriff auf die Nachrichten oder den Bildinhalt.
Die Funktion funktioniert sowohl für normale SMS- als auch für iMessage-Nachrichten und ist nicht mit der oben beschriebenen CSAM-Scanfunktion verknüpft.
Erweiterte Sicherheitshinweise in Siri und Search
Schließlich wird Apple die Anleitungen für Siri- und Suchfunktionen erweitern, um Kindern und Eltern zu helfen, online sicher zu bleiben und in unsicheren Situationen Hilfe zu erhalten. Apple wies auf ein Beispiel hin, bei dem Benutzer, die Siri fragen, wie sie CSAM oder Ausbeutung von Kindern melden können, Ressourcen erhalten, wie sie eine Anzeige bei den Behörden einreichen können.
Updates werden in Siri und Search eintreffen, wenn jemand Suchanfragen im Zusammenhang mit CSAM durchführt. Eine Intervention wird den Nutzern erklären, dass das Interesse an dem Thema schädlich und problematisch ist. Sie zeigen auch Ressourcen und Partner, um Hilfe bei dem Problem zu erhalten.
Weitere Änderungen mit der neuesten Software von Apple
Die drei neuen Funktionen von Apple wurden in Zusammenarbeit mit Sicherheitsexperten entwickelt und sollen dazu beitragen, dass Kinder online sicher sind. Auch wenn die Funktionen in einigen datenschutzorientierten Kreisen Besorgnis erregen könnten, hat Apple sich über die Technologie geäußert und wie sie Datenschutzbedenken mit Kinderschutz in Einklang bringen wird.
Sie haben bereits von den wichtigsten Änderungen an iOS 15 gehört, aber hier sind alle versteckten Änderungen, die Apple bei der WWDC ausgelassen hat.
Weiter lesen
- iPhone
- Mac
- Apfel
- Smartphone-Datenschutz
- Erziehung und Technologie
Geboren und aufgewachsen im sonnigen Westen von Texas, absolvierte Brent einen BA in Journalismus an der Texas Tech University. Er schreibt seit mehr als 5 Jahren über Technologie und genießt alles, was mit Apple, Zubehör und Sicherheit zu tun hat.
Abonniere unseren Newsletter
Abonnieren Sie unseren Newsletter für technische Tipps, Rezensionen, kostenlose E-Books und exklusive Angebote!
Klicken Sie hier, um sich zu abonnieren