Sicherheit in GLF und Internet - Wichtig für neue User!
Antworten
Wallma
Beiträge: 154
Registriert: 22.07.2018, 06:09

Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Wallma »

Apple hat offenbar damit begonnen, in eigenen Diensten hochgeladene Fotos und Videos auf illegale Inhalte hin zu prüfen, besonders in Hinblick auf Kindesmissbrauch. Man setze aber "bestimmte Techniken" ein, um Material aufzuspüren, das sexuellen Missbrauch von Kindern zeigt.

"Unsere Systeme nutzen – ähnlich wie Spam-Filter für E-Mails – elektronische Signaturen um vermutlichen Kindesmissbrauch aufzuspüren", wie der Konzern auf einer neuen Webseite zum Kinderschutz aufführt. Jeder Treffer werde mit einer individuellen Prüfung verifiziert. Apple melde Fälle von Kindesmissbrauch und schließe die für den Austausch solchen Materials verwendeten Accounts, heißt es weiter.
Besonders schön:
Derartige Techniken könnten künftig auch eingesetzt werden, um Bildmaterial in Diensten mit Ende-zu-Ende-Verschlüsselung zu prüfen – ohne die Bilder einsehen zu können, wie ein PhotoDNA-Miterfinder im vergangenen Jahr gegenüber dem Magazin Wired erklärte. Auch ein lokales Image-Hashing auf den Geräten der Nutzer vor dem Upload sei eine Option, um das Problem zu lösen.
Quelle: https://www.heise.de/mac-and-i/meldung/ ... 31129.html
Aiko
Beiträge: 1549
Registriert: 28.07.2014, 20:45

Re: Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Aiko »

Jedes Bild um ein Pixel verändern und schon klappt es nicht mehr.
Benutzeravatar
Mitleser
Beiträge: 4858
Registriert: 28.01.2011, 17:45
AoA: 2-12

Re: Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Mitleser »

Es wundert mich, dass Apple erst jetzt damit begonnen haben soll, die Dateien in der Cloud auf illegale Inhalte hin zu untersuchen, Microsoft und Co. machen das ja schon lange. Ist ja auch wenig überraschend, schließlich würde Apple im Fall des Falles mit haften, da der Besitz nun einmal strafbar ist. Allerdings hoffe ich, dass da wirklich nur Hash-Werte von bekannten Dateien verglichen werden, denn ansonsten wird es viele Unschuldige treffen, die mit ihren iPhones die üblichen Nackedei-Fotos ihrer Kinder vom Strand oder in der Badewanne machen, denn standardmäßig wird ja alles sofort in die Cloud hochgeladen.
Benutzeravatar
Sakura
Beiträge: 5362
Registriert: 07.10.2008, 12:18
AoA: nicht definiert
Wohnort: In der Stadt mit den zahlreichsten süßesten und zugänglichsten Mädchen

Re: Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Sakura »

Wer eine Cloud nutzt, dem ist sowieso nicht mehr zu helfen.
"Destiny is always revised. Anytime, everywhere." (Siddhartha)
Benutzeravatar
Luna
Beiträge: 8253
Registriert: 04.12.2010, 00:23
AoA: 6~11 flauschig sind!

Re: Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Luna »

Sakura hat geschrieben:Wer eine Cloud nutzt, dem ist sowieso nicht mehr zu helfen.
:shock:

Dann sollte ich besser nicht hier sein. Das Forum befindet sich ja auch in einer Cloud.
Die staatliche Vernichtung von Puppen muss sich für ihre Besitzer wie die Ermordung eines geliebten Familienmitgliedes anfühlen. Konsequent gegen die politische Verfolgung und Inhaftierung von unschuldigen Menschen!

Meine TeleGuard-ID: YHB6PWGT9
Wallma
Beiträge: 154
Registriert: 22.07.2018, 06:09

Re: Apple scannt iCloud-Fotos auf Kindesmissbrauch

Beitrag von Wallma »

Aiko hat geschrieben:Jedes Bild um ein Pixel verändern und schon klappt es nicht mehr.
Das hilft nur bei reinen Prüfsummen wie MD5 oder SHA1/2. Schon minimal bessere Algorithmen zerlegen ein Bild in Teilsegmente und errechnen einen Farbwert pro Segment, und der wird auf Ähnlichkeit (nicht: Identität) verglichen. Und bilderkennende Algorithmen finden einen nackten Menschen, ermitteln die Körperproportion (kindliches Körperschema: großer Kopf, kleiner Körper, k(l)eine Hügelchen) und schlagen Alarm.

siehe Wikipedia "PhotoDNA"
Antworten