Apple Nieuws

Apple introduceert nieuwe veiligheidsfuncties voor kinderen, waaronder het scannen van fotobibliotheken van gebruikers op bekend seksueel misbruikmateriaal

Donderdag 5 augustus 2021 13:00 PDT door Joe Rossignol

Appel vandaag preview van nieuwe kinderveiligheidsfuncties die later dit jaar met software-updates naar zijn platforms zal komen. Het bedrijf zei dat de functies alleen bij de lancering beschikbaar zullen zijn in de VS en in de loop van de tijd zullen worden uitgebreid naar andere regio's.





iphone communicatie veiligheidsfunctie

Communicatie Veiligheid

Ten eerste krijgt de Berichten-app op de iPhone, iPad en Mac een nieuwe functie Communicatieveiligheid om kinderen en hun ouders te waarschuwen bij het ontvangen of verzenden van seksueel expliciete foto's. Apple zei dat de Berichten-app machine learning op het apparaat zal gebruiken om afbeeldingsbijlagen te analyseren, en als wordt vastgesteld dat een foto seksueel expliciet is, wordt de foto automatisch vervaagd en wordt het kind gewaarschuwd.



14 in macbook pro releasedatum

Wanneer een kind een foto probeert te bekijken die als gevoelig is gemarkeerd in de Berichten-app, wordt het erop gewezen dat de foto privé-lichaamsdelen kan bevatten en dat de foto kwetsend kan zijn. Afhankelijk van de leeftijd van het kind zal er ook een optie zijn voor ouders om een ​​melding te ontvangen als hun kind de gevoelige foto gaat bekijken of als ze ervoor kiezen een seksueel expliciete foto naar een ander contact te sturen na een waarschuwing.

Apple zei dat de nieuwe functie voor communicatieveiligheid later dit jaar in updates voor iOS 15, iPadOS 15 en macOS Monterey zal komen voor accounts die als gezin in iCloud zijn ingesteld. Apple heeft ervoor gezorgd dat iMessage-gesprekken beschermd blijven met end-to-end-codering, waardoor privécommunicatie onleesbaar wordt voor Apple.

Foto's scannen op materiaal voor seksueel misbruik van kinderen (CSAM)

Ten tweede kan Apple vanaf dit jaar met iOS 15 en iPadOS 15 bekende afbeeldingen van seksueel misbruik van kinderen (CSAM) detecteren die zijn opgeslagen in iCloud-foto's, zodat Apple deze gevallen kan rapporteren aan het National Center for Missing and Exploited Children (NCMEC) , een non-profitorganisatie die samenwerkt met Amerikaanse wetshandhavingsinstanties.

Apple zei dat zijn methode voor het detecteren van bekende CSAM is ontworpen met het oog op de privacy van gebruikers. In plaats van afbeeldingen in de cloud te scannen, zei Apple dat het systeem op het apparaat zal matchen met een database van bekende CSAM-afbeeldingshashes die worden geleverd door de NCMEC en andere kinderveiligheidsorganisaties. Apple zei dat het deze database verder zal transformeren in een onleesbare set hashes die veilig wordt opgeslagen op de apparaten van gebruikers.

De hashing-technologie, NeuralHash genaamd, analyseert een afbeelding en converteert deze naar een uniek nummer dat specifiek is voor die afbeelding, aldus Apple.

'Het belangrijkste doel van de hash is ervoor te zorgen dat identieke en visueel vergelijkbare afbeeldingen dezelfde hash opleveren, terwijl afbeeldingen die van elkaar verschillen, verschillende hashes opleveren', zegt Apple in een nieuwe whitepaper 'Expanded Protections for Children'. 'Een afbeelding die bijvoorbeeld iets is bijgesneden, vergroot of verkleind of van kleur naar zwart-wit is geconverteerd, wordt identiek behandeld aan het origineel en heeft dezelfde hash.'

Apple csam-stroomschema
Voordat een afbeelding wordt opgeslagen in iCloud-foto's, zei Apple dat er een matchproces op het apparaat wordt uitgevoerd voor die afbeelding tegen de onleesbare reeks bekende CSAM-hashes. Als er een match is, maakt het apparaat een cryptografische veiligheidsvoucher aan. Deze voucher wordt samen met de afbeelding geüpload naar iCloud-foto's en zodra een niet nader genoemde drempel voor overeenkomsten wordt overschreden, kan Apple de inhoud van de vouchers voor CSAM-overeenkomsten interpreteren. Apple beoordeelt vervolgens handmatig elk rapport om te bevestigen dat er een overeenkomst is, schakelt het iCloud-account van de gebruiker uit en stuurt een rapport naar NCMEC. Apple deelt niet wat de exacte drempel is, maar zorgt voor een 'extreem hoog niveau van nauwkeurigheid' dat accounts niet onjuist worden gemarkeerd.

Apple zei dat zijn methode om bekende CSAM te detecteren 'aanzienlijke privacyvoordelen' biedt ten opzichte van bestaande technieken:

• Dit systeem is een effectieve manier om bekende CSAM te identificeren die is opgeslagen in iCloud Foto's-accounts, terwijl de privacy van de gebruiker wordt beschermd.
• Als onderdeel van het proces kunnen gebruikers ook niets leren over de set bekende CSAM-afbeeldingen die wordt gebruikt voor het matchen. Dit beschermt de inhoud van de database tegen kwaadwillig gebruik.
• Het systeem is zeer nauwkeurig, met een extreem laag foutenpercentage van minder dan één op één biljoen rekening per jaar.
• Het systeem beschermt aanzienlijk meer privacy dan scannen in de cloud, omdat het alleen gebruikers rapporteert die een verzameling bekende CSAM hebben opgeslagen in iCloud-foto's.

De onderliggende technologie achter het systeem van Apple is behoorlijk complex en heeft een technische samenvatting met meer details.

'Apple's uitgebreide bescherming voor kinderen is een game changer. Met zoveel mensen die Apple-producten gebruiken, hebben deze nieuwe veiligheidsmaatregelen levensreddend potentieel voor kinderen die online worden verleid en van wie de gruwelijke afbeeldingen worden verspreid in materiaal over seksueel misbruik van kinderen', zegt John Clark, de president en CEO van het National Center for Missing. & Uitgebuite kinderen. 'Bij het National Center for Missing & Exploited Children weten we dat deze misdaad alleen kan worden bestreden als we standvastig zijn in onze toewijding aan de bescherming van kinderen. We kunnen dit alleen doen omdat technologiepartners, zoals Apple, opstaan ​​en hun toewijding kenbaar maken. De realiteit is dat privacy en kinderbescherming naast elkaar kunnen bestaan. We juichen Apple toe en kijken ernaar uit om samen te werken om deze wereld veiliger te maken voor kinderen.'

Uitgebreide CSAM-begeleiding in Siri en zoeken

iphone csam sir
Ten derde zei Apple dat het de begeleiding in Siri en Spotlight Search op alle apparaten zal uitbreiden door extra middelen te bieden om kinderen en ouders te helpen online veilig te blijven en hulp te krijgen bij onveilige situaties. Gebruikers die bijvoorbeeld aan Siri vragen hoe ze CSAM of kinderuitbuiting kunnen melden, worden doorverwezen naar bronnen waar en hoe ze een melding kunnen doen.

De updates voor Siri en Search komen later dit jaar in een update voor iOS 15, iPadOS 15, watchOS 8 en macOS Monterey, aldus Apple.

Opmerking: vanwege de politieke of sociale aard van de discussie over dit onderwerp, bevindt de discussiethread zich in onze politiek nieuws forum. Alle forumleden en sitebezoekers zijn welkom om de thread te lezen en te volgen, maar posten is beperkt tot forumleden met ten minste 100 berichten.

Tags: Apple privacy , Apple kinderbeveiligingsfuncties