Apple Nieuws

Apple-medewerkers maken intern hun zorgen over CSAM-detectieplannen

Vrijdag 13 augustus 2021 12:43 PDT door Sami Fathi

Apple-werknemers sluiten zich nu aan bij het koor van individuen die hun bezorgdheid uiten over de plannen van Apple om te scannen iPhone fotobibliotheken van gebruikers voor CSAM of materiaal voor seksueel misbruik van kinderen, naar verluidt zich intern uitspreken over hoe de technologie kan worden gebruikt om foto's van gebruikers te scannen op andere soorten inhoud, volgens een rapport van Reuters .





apple park drone juni 2018 2
Volgens Reuters , heeft een niet-gespecificeerd aantal Apple-medewerkers interne Slack-kanalen gebruikt om hun bezorgdheid over CSAM-detectie te uiten. Medewerkers zijn met name bezorgd dat regeringen Apple zouden kunnen dwingen de technologie te gebruiken voor censuur door andere inhoud dan CSAM te vinden. Sommige werknemers zijn bang dat Apple zijn toonaangevende privacyreputatie schaadt.

Apple-werknemers hebben een Apple intern Slack-kanaal overspoeld met meer dan 800 berichten over het plan dat een week geleden werd aangekondigd, zeiden werknemers die vroegen om niet geïdentificeerd te worden tegen Reuters. Velen uitten hun bezorgdheid dat de functie zou kunnen worden uitgebuit door repressieve regeringen die op zoek waren naar ander materiaal voor censuur of arrestaties, volgens arbeiders die de dagenlange draad zagen.



Eerdere beveiligingswijzigingen bij Apple hebben ook geleid tot bezorgdheid onder werknemers, maar het volume en de duur van het nieuwe debat is verrassend, aldus de werknemers. Sommige posters maakten zich zorgen dat Apple zijn leidende reputatie op het gebied van privacybescherming schaadt.

Volgens het rapport zouden Apple-medewerkers in functies met betrekking tot gebruikersbeveiliging geen deel hebben uitgemaakt van het interne protest.

Sinds zijn aankondiging vorige week , is Apple gebombardeerd met kritiek over zijn CSAM-detectieplannen, die naar verwachting dit najaar nog zullen worden uitgerold met iOS 15 en iPadOS 15. De zorgen draaien vooral rond hoe de technologie een glibberige helling zou kunnen vormen voor toekomstige implementaties door onderdrukkende regeringen en regimes.

kun je een scherm delen op facetime

Apple heeft zich krachtig verzet tegen het idee dat de technologie op het apparaat die wordt gebruikt voor het detecteren van CSAM-materiaal voor een ander doel kan worden gebruikt. In een gepubliceerd FAQ-document , zegt het bedrijf dat het een dergelijk verzoek van regeringen heftig zal weigeren.

Kunnen overheden Apple dwingen om niet-CSAM-afbeeldingen aan de hashlijst toe te voegen?
Apple zal dergelijke verzoeken weigeren. De CSAM-detectiemogelijkheid van Apple is uitsluitend gebouwd om bekende CSAM-afbeeldingen te detecteren die zijn opgeslagen in iCloud-foto's en die zijn geïdentificeerd door experts van NCMEC en andere kinderveiligheidsgroepen. We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen te bouwen en uit te voeren die de privacy van gebruikers aantasten, en hebben die eisen standvastig afgewezen. We zullen ze in de toekomst blijven weigeren. Laat ons duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een regering om het uit te breiden. Bovendien voert Apple menselijke beoordelingen uit voordat ze een melding doen bij NCMEC. In het geval dat het systeem foto's markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen melding gedaan bij de NCMEC.

Een open brief het bekritiseren van Apple en het oproepen van het bedrijf om het plan om CSAM-detectie in te zetten onmiddellijk stop te zetten, heeft op het moment van schrijven meer dan 7.000 handtekeningen verzameld. Het hoofd van WhatsApp heeft ook meegewogen in het debat .

Tags: Apple privacy , Apple kinderbeveiligingsfuncties