appel vandaag aangekondigd dat met de lancering van iOS 15 en iPad 15 , het zal beginnen met scannen iCloud-foto's in de VS op zoek naar bekend materiaal voor seksueel misbruik van kinderen (CSAM), met plannen om de bevindingen te rapporteren aan het National Center for Missing and Exploited Children (NCMEC).
Voordat Apple zijn plannen bekendmaakte, lekte er nieuws over het CSAM-initiatief, en beveiligingsonderzoekers zijn al begonnen hun bezorgdheid te uiten over hoe Apple's nieuwe beeldscanprotocol in de toekomst zou kunnen worden gebruikt, zoals opgemerkt door Financiële tijden .
Apple gebruikt een 'NeuralHash'-systeem om bekende CSAM-afbeeldingen te vergelijken met foto's op die van een gebruiker iPhone voordat ze naar iCloud worden geüpload. Als er een match is, wordt die foto geüpload met een cryptografische veiligheidsvoucher en bij een bepaalde drempel wordt een beoordeling geactiveerd om te controleren of de persoon CSAM op zijn apparaten heeft.
hoe iPhone over te zetten naar een andere iPhone
Op dit moment gebruikt Apple zijn technologie voor het scannen en matchen van afbeeldingen om kindermisbruik op te sporen, maar onderzoekers maken zich zorgen dat het in de toekomst kan worden aangepast om te scannen op andere soorten beelden die meer zorgwekkend zijn, zoals anti-regeringsborden op protesten.
In een reeks tweets, Johns Hopkins cryptografie-onderzoeker Matthew Groen zei dat CSAM-scannen een 'heel slecht idee' is, omdat het in de toekomst zou kunnen uitbreiden naar het scannen van end-to-end versleutelde foto's in plaats van alleen inhoud die is geüpload naar iCloud. Voor kinderen, Appel is het implementeren van een aparte scanfunctie die direct naar seksueel expliciete inhoud zoekt in iMessages, die end-to-end versleuteld zijn.
Green uitte ook zijn bezorgdheid over de hashes die Apple van plan is te gebruiken, omdat er mogelijk 'botsingen' kunnen zijn, waarbij iemand een onschadelijk bestand verzendt dat een hash deelt met CSAM en kan resulteren in een valse vlag.
Apple van zijn kant zegt dat zijn scantechnologie een 'extreem hoog niveau van nauwkeurigheid' heeft om ervoor te zorgen dat accounts niet onjuist worden gemarkeerd, en dat rapporten handmatig worden beoordeeld voordat iemands iCloud account is uitgeschakeld en er wordt een rapport verzonden naar NCMEC.
Green is van mening dat de implementatie van Apple andere technologiebedrijven ertoe zal aanzetten soortgelijke technieken toe te passen. 'Dit zal de dam breken', schreef hij. 'Overheden zullen het van iedereen eisen.' Hij vergeleek de technologie met 'tools die repressieve regimes hebben ingezet'.
Dit zijn slechte dingen. Ik wil niet bepaald aan de kant van kinderporno staan en ik ben geen terrorist. Maar het probleem is dat codering een krachtig hulpmiddel is dat privacy biedt, en je kunt niet echt een sterke privacy hebben terwijl je ook elke afbeelding die iemand verzendt in de gaten houdt. — Matthew Groen (@matthew_d_green) 5 augustus 2021
Beveiligingsonderzoeker Alec Muffett, die voorheen bij Facebook werkte, zei dat het besluit van Apple om dit soort scans van afbeeldingen te implementeren een 'enorme en regressieve stap voor individuele privacy' was. 'Apple doet afstand van privacy om 1984 mogelijk te maken', zei hij.
Ross Anderson, hoogleraar beveiligingstechniek aan de Universiteit van Cambridge, noemde het een 'absoluut verschrikkelijk idee' dat zou kunnen leiden tot 'gedistribueerde bulksurveillance' van apparaten.
Zoals velen op Twitter hebben opgemerkt, doen meerdere technologiebedrijven al het scannen van afbeeldingen voor CSAM. Google, Twitter, Microsoft, Facebook en anderen gebruiken hashing-methoden voor afbeeldingen om bekende afbeeldingen van kindermishandeling te zoeken en te melden.
En als je je afvraagt of Google afbeeldingen scant op afbeeldingen van kindermisbruik, antwoordde ik dat in het verhaal dat ik acht jaar geleden schreef: het doet dat **SINDS 2008**. Misschien gaan jullie allemaal zitten en zetten jullie hoeden weer op. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5 augustus 2021
Het is ook vermeldenswaard dat Apple was nu al sommige inhoud scannen voor afbeeldingen van kindermishandeling voorafgaand aan de uitrol van het nieuwe CSAM-initiatief. In 2020 zei Apple Chief Privacy Officer Jane Horvath dat Apple screeningtechnologie gebruikte om naar illegale afbeeldingen te zoeken en vervolgens accounts uitschakelt als er bewijs van CSAM wordt gedetecteerd.
hoe de afbeelding van de Apple Music-afspeellijst te veranderen
Appel anno 2019 haar privacybeleid bijgewerkt om op te merken dat het geüploade inhoud zou scannen op 'mogelijk illegale inhoud, inclusief materiaal voor seksuele uitbuiting van kinderen', dus de aankondigingen van vandaag zijn niet helemaal nieuw.
Opmerking: vanwege de politieke of sociale aard van de discussie over dit onderwerp, bevindt de discussiethread zich in onze politiek nieuws forum. Alle forumleden en sitebezoekers zijn welkom om de thread te lezen en te volgen, maar posten is beperkt tot forumleden met ten minste 100 berichten.
Tags: Apple privacy , Apple kinderbeveiligingsfuncties
Populaire Berichten