Apple Nieuws

Universitaire onderzoekers die een CSAM-scansysteem hebben gebouwd, dringen er bij Apple op aan de 'gevaarlijke' technologie niet te gebruiken

Vrijdag 20 augustus 2021 06:48 PDT door Sami Fathi

Gerespecteerde universitaire onderzoekers luiden de alarmbellen over de technologie achter de plannen van Apple om te scannen iPhone fotobibliotheken van gebruikers voor CSAM, of materiaal voor seksueel misbruik van kinderen, die de technologie 'gevaarlijk' noemen.





appel privacy
Jonanath Mayer, een assistent-professor informatica en public affairs aan de Princeton University, en Anunay Kulshrestha, een onderzoeker aan het Princeton University Center for Information Technology Policy, beiden heeft een opiniestuk geschreven voor De Washington Post , waarin hun ervaringen met het bouwen van beelddetectietechnologie worden geschetst.

De onderzoekers startten twee jaar geleden een project om CSAM te identificeren in end-to-end versleutelde online diensten. De onderzoekers merken op dat ze, gezien hun vakgebied, 'de waarde kennen van end-to-end encryptie, die gegevens beschermt tegen toegang van derden'. Die bezorgdheid, zeggen ze, is wat hen afschuwelijk maakt over het feit dat CSAM 'zich verspreidt op versleutelde platforms'.



hoe lang gaat een airpod mee?

Mayer en Kulshrestha zeiden dat ze een middenweg voor de situatie wilden vinden: een systeem bouwen dat online platforms kunnen gebruiken om CSAM te vinden en end-to-end-codering te beschermen. De onderzoekers merken op dat experts in het veld twijfelden aan het vooruitzicht van een dergelijk systeem, maar ze slaagden erin om het te bouwen en merkten daarbij een aanzienlijk probleem op.

We zochten naar een mogelijke middenweg, waar onlinediensten schadelijke inhoud zouden kunnen identificeren terwijl de end-to-end-codering behouden blijft. Het concept was eenvoudig: als iemand materiaal deelde dat overeenkwam met een database met bekende schadelijke inhoud, zou de service worden gewaarschuwd. Als een persoon onschuldige inhoud zou delen, zou de service niets leren. Mensen konden de database niet lezen of erachter komen of de inhoud overeenkwam, omdat die informatie wetshandhavingsmethoden zou kunnen onthullen en criminelen zou kunnen helpen detectie te ontwijken.

Deskundige waarnemers beweerden dat een systeem als het onze verre van haalbaar was. Na vele valse starts hebben we een werkend prototype gebouwd. Maar we stuitten op een in het oog springend probleem.

Sinds Apple's aankondiging van de functie is het bedrijf gebombardeerd met zorgen dat het systeem achter het detecteren van CSAM op verzoek van onderdrukkende regeringen zou kunnen worden gebruikt om andere vormen van foto's te detecteren. Apple heeft zich sterk verzet tegen een dergelijke mogelijkheid en zegt dat het een dergelijk verzoek van regeringen zal weigeren.

Desalniettemin zijn er wijdverbreide zorgen over de toekomstige implicaties van de technologie die wordt gebruikt voor CSAM-detectie. Mayer en Kulshrestha zeiden dat hun zorgen over hoe regeringen het systeem konden gebruiken om andere inhoud dan CSAM te detecteren, hen 'verontrustte'.

hoe u flitsmeldingen op de iPhone kunt krijgen

Een buitenlandse regering zou bijvoorbeeld een dienst kunnen afdwingen om mensen die ongunstige politieke uitlatingen delen, uit te roeien. Dat is niet hypothetisch: WeChat, de populaire Chinese berichten-app, gebruikt al content matching om dissident materiaal te identificeren. India heeft dit jaar regels uitgevaardigd die een pre-screening van inhoud kunnen vereisen die kritisch staat tegenover het overheidsbeleid. Rusland heeft onlangs Google, Facebook en Twitter beboet voor het niet verwijderen van pro-democratisch protestmateriaal.

We zagen andere tekortkomingen. Het proces voor het matchen van inhoud kan valse positieven hebben en kwaadwillende gebruikers zouden het systeem kunnen misbruiken om onschuldige gebruikers aan onderzoek te onderwerpen.

We waren zo verontrust dat we een stap hebben gezet die we nog niet eerder hadden gezien in de computerwetenschappelijke literatuur: we waarschuwden voor ons eigen systeemontwerp en drongen aan op verder onderzoek naar hoe de ernstige nadelen te verminderen....

Apple is doorgegaan met het wegnemen van de zorgen van gebruikers over zijn plannen, aanvullende documenten publiceren en een pagina met veelgestelde vragen . Apple blijft van mening dat zijn CSAM-detectiesysteem, dat op het apparaat van een gebruiker zal plaatsvinden, in overeenstemming is met zijn al lang bestaande privacywaarden.

Tags: Apple privacy , WashingtonPost.com , Apple veiligheidsvoorzieningen voor kinderen