Apple Nieuws

Craig Federighi erkent verwarring over de kinderveiligheidsfuncties van Apple en legt nieuwe details over veiligheidsmaatregelen uit

Vrijdag 13 augustus 2021 07:33 uur PDT door Hartley Charlton

Apple's senior vice-president van software engineering, Craig Federighi, heeft vandaag de controversiële plannen van het bedrijf verdedigd veiligheidsvoorzieningen voor kinderen in een belangrijk interview met De Wall Street Journal , waardoor een aantal nieuwe details worden onthuld over de beveiligingen die zijn ingebouwd in het systeem van Apple voor het scannen van fotobibliotheken van gebruikers op materiaal voor seksueel misbruik van kinderen (CSAM).





craig wwdc 2021 privacy
Federighi gaf toe dat Apple vorige week de Aankondiging van de twee nieuwe functies slecht, met betrekking tot het detecteren van expliciete inhoud in Berichten voor kinderen en CSAM-inhoud die is opgeslagen in iCloud-foto's bibliotheken, en erkende de wijdverbreide verwarring rond de tools:

Het is echt duidelijk dat veel berichten behoorlijk door elkaar zijn gegooid in termen van hoe dingen werden begrepen. We zouden willen dat dit voor iedereen wat duidelijker naar voren was gekomen omdat we heel positief en sterk zijn over wat we doen.



hoe lang is een iphone 11 pro

[...]

Achteraf gezien was het gelijktijdig introduceren van deze twee functies een recept voor dit soort verwarring. Door ze tegelijkertijd los te laten, hebben mensen ze technisch verbonden en werden ze erg bang: wat gebeurt er met mijn berichten? Het antwoord is... er gebeurt niets met je berichten.

De functie voor communicatieveiligheid betekent dat als kinderen expliciete afbeeldingen verzenden of ontvangen via iMessage, ze worden gewaarschuwd voordat ze deze bekijken, de afbeelding wazig wordt en er een optie is voor hun ouders om te worden gewaarschuwd. CSAM-scanning daarentegen probeert de foto's van gebruikers te matchen met gehashte afbeeldingen van bekende CSAM voordat ze naar iCloud worden geüpload. Accounts waarbij CSAM is gedetecteerd, worden vervolgens handmatig beoordeeld door Apple en kunnen worden gerapporteerd aan het National Center for Missing and Exploited Children (NCMEC).

in welk jaar kwam de macbook air uit?

De nieuwe functies zijn onderhevig aan veel kritiek van gebruikers, beveiligingsonderzoekers , de Electronic Frontier Foundation (EFF) en Edward Snowden , De voormalige veiligheidschef van Facebook , en zelfs Apple-medewerkers .

Te midden van deze kritiek, richtte Federighi zich op een van de belangrijkste punten van zorg, waarbij hij benadrukte dat het systeem van Apple zal worden beschermd tegen misbruik door regeringen of andere derde partijen met 'meerdere niveaus van controleerbaarheid'.


Federighi onthulde ook een aantal nieuwe details over de beveiligingen van het systeem, zoals het feit dat een gebruiker ongeveer 30 matches voor CSAM-inhoud in zijn Foto's bibliotheek voordat Apple wordt gewaarschuwd, waarna het zal bevestigen of die afbeeldingen echte exemplaren van CSAM lijken te zijn.

Als en alleen als je een drempel haalt van iets in de orde van 30 bekende overeenkomende kinderpornografische afbeeldingen, alleen dan weet Apple iets over je account en weet ook iets over die afbeeldingen, en weet op dat moment alleen over die afbeeldingen, niet over een van uw andere afbeeldingen. Dit is geen analyse, want had je een foto van je kind in de badkuip? Of had je trouwens een foto van een of andere pornografie? Dit komt letterlijk alleen overeen met de exacte vingerafdrukken van specifieke bekende kinderpornografische afbeeldingen.

Hij wees ook op het veiligheidsvoordeel van het plaatsen van het matchingsproces op de iPhone rechtstreeks, in plaats van op de ‌iCloud‌-servers.

Omdat het op de [telefoon] staat, kunnen beveiligingsonderzoekers constant introspecteren wat er gebeurt in de [telefoon]-software van Apple. Dus als er wijzigingen zijn aangebracht die de reikwijdte hiervan op de een of andere manier zouden uitbreiden - op een manier die we hadden beloofd niet te doen - is er verifieerbaarheid, ze kunnen zien dat dat gebeurt.

Op de vraag of de database met afbeeldingen die worden gebruikt om CSAM-inhoud op de apparaten van gebruikers te matchen, zou kunnen worden aangetast door het invoegen van ander materiaal, zoals politieke inhoud in bepaalde regio's, legde Federighi uit dat de database is opgebouwd uit bekende CSAM-afbeeldingen van meerdere kinderveiligheidsorganisaties, met ten minste twee 'in verschillende jurisdicties' om te beschermen tegen misbruik van het systeem.

hoe schermopname te doen op iPhone 11

Deze kinderbeschermingsorganisaties zullen, evenals een onafhankelijke auditor, kunnen verifiëren dat de database met afbeeldingen alleen bestaat uit inhoud van die entiteiten, aldus Federighi.

Federighi's interview is een van de grootste PR-pushbacks van Apple tot nu toe na de gemengde publieke reactie op de aankondiging van de veiligheidsfuncties voor kinderen, maar het bedrijf heeft ook herhaaldelijk geprobeerd om de zorgen van gebruikers aanpakken , een FAQ publiceren en het direct aanpakken van zorgen in interviews met de media .

Tags: The Wall Street Journal , Craig Federighi , Apple veiligheidsfuncties voor kinderen