Apple Nieuws

Beveiligingsonderzoekers uiten hun alarm over Apple's plannen om iCloud-afbeeldingen te scannen, maar de praktijk is al wijdverbreid

Donderdag 5 augustus 2021 14:04 PDT door Juli Clover

appel vandaag aangekondigd dat met de lancering van iOS 15 en iPad 15 , het zal beginnen met scannen iCloud-foto's in de VS op zoek naar bekend materiaal voor seksueel misbruik van kinderen (CSAM), met plannen om de bevindingen te rapporteren aan het National Center for Missing and Exploited Children (NCMEC).





Kinderveiligheidsfunctie
Voordat Apple zijn plannen bekendmaakte, lekte er nieuws over het CSAM-initiatief, en beveiligingsonderzoekers zijn al begonnen hun bezorgdheid te uiten over hoe Apple's nieuwe beeldscanprotocol in de toekomst zou kunnen worden gebruikt, zoals opgemerkt door Financiële tijden .

Apple gebruikt een 'NeuralHash'-systeem om bekende CSAM-afbeeldingen te vergelijken met foto's op die van een gebruiker iPhone voordat ze naar iCloud worden geüpload. Als er een match is, wordt die foto geüpload met een cryptografische veiligheidsvoucher en bij een bepaalde drempel wordt een beoordeling geactiveerd om te controleren of de persoon CSAM op zijn apparaten heeft.



hoe iPhone over te zetten naar een andere iPhone

Op dit moment gebruikt Apple zijn technologie voor het scannen en matchen van afbeeldingen om kindermisbruik op te sporen, maar onderzoekers maken zich zorgen dat het in de toekomst kan worden aangepast om te scannen op andere soorten beelden die meer zorgwekkend zijn, zoals anti-regeringsborden op protesten.

In een reeks tweets, Johns Hopkins cryptografie-onderzoeker Matthew Groen zei dat CSAM-scannen een 'heel slecht idee' is, omdat het in de toekomst zou kunnen uitbreiden naar het scannen van end-to-end versleutelde foto's in plaats van alleen inhoud die is geüpload naar ‌iCloud‌. Voor kinderen, Appel is het implementeren van een aparte scanfunctie die direct naar seksueel expliciete inhoud zoekt in iMessages, die end-to-end versleuteld zijn.

Green uitte ook zijn bezorgdheid over de hashes die Apple van plan is te gebruiken, omdat er mogelijk 'botsingen' kunnen zijn, waarbij iemand een onschadelijk bestand verzendt dat een hash deelt met CSAM en kan resulteren in een valse vlag.

Apple van zijn kant zegt dat zijn scantechnologie een 'extreem hoog niveau van nauwkeurigheid' heeft om ervoor te zorgen dat accounts niet onjuist worden gemarkeerd, en dat rapporten handmatig worden beoordeeld voordat iemands ‌iCloud‌ account is uitgeschakeld en er wordt een rapport verzonden naar NCMEC.

Green is van mening dat de implementatie van Apple andere technologiebedrijven ertoe zal aanzetten soortgelijke technieken toe te passen. 'Dit zal de dam breken', schreef hij. 'Overheden zullen het van iedereen eisen.' Hij vergeleek de technologie met 'tools die repressieve regimes hebben ingezet'.


Beveiligingsonderzoeker Alec Muffett, die voorheen bij Facebook werkte, zei dat het besluit van Apple om dit soort scans van afbeeldingen te implementeren een 'enorme en regressieve stap voor individuele privacy' was. 'Apple doet afstand van privacy om 1984 mogelijk te maken', zei hij.

Ross Anderson, hoogleraar beveiligingstechniek aan de Universiteit van Cambridge, noemde het een 'absoluut verschrikkelijk idee' dat zou kunnen leiden tot 'gedistribueerde bulksurveillance' van apparaten.

Zoals velen op Twitter hebben opgemerkt, doen meerdere technologiebedrijven al het scannen van afbeeldingen voor CSAM. Google, Twitter, Microsoft, Facebook en anderen gebruiken hashing-methoden voor afbeeldingen om bekende afbeeldingen van kindermishandeling te zoeken en te melden.


Het is ook vermeldenswaard dat Apple was nu al sommige inhoud scannen voor afbeeldingen van kindermishandeling voorafgaand aan de uitrol van het nieuwe CSAM-initiatief. In 2020 zei Apple Chief Privacy Officer Jane Horvath dat Apple screeningtechnologie gebruikte om naar illegale afbeeldingen te zoeken en vervolgens accounts uitschakelt als er bewijs van CSAM wordt gedetecteerd.

hoe de afbeelding van de Apple Music-afspeellijst te veranderen

Appel anno 2019 haar privacybeleid bijgewerkt om op te merken dat het geüploade inhoud zou scannen op 'mogelijk illegale inhoud, inclusief materiaal voor seksuele uitbuiting van kinderen', dus de aankondigingen van vandaag zijn niet helemaal nieuw.

Opmerking: vanwege de politieke of sociale aard van de discussie over dit onderwerp, bevindt de discussiethread zich in onze politiek nieuws forum. Alle forumleden en sitebezoekers zijn welkom om de thread te lezen en te volgen, maar posten is beperkt tot forumleden met ten minste 100 berichten.

Tags: Apple privacy , Apple kinderbeveiligingsfuncties