Apple CSAM
Apple blir kritisert for sine planer om å starte CSAM-scanning, men de har allerede drevet med det siden 2019.

Annonse


“Apple er den største plattformen for distribusjon av barneporno”

Det har vært endel oppstand omkring Apples CSAM-program for å avdekke eventuell barneporno på bilder som lastes opp til iCloud Photos (CSAM, Child Sexual Abuse Material). 

Manuell gjennomgang av mailen din

Nå har Apple overfor 9to5Mac bekreftet at de siden 2019 har scannet etter overgrepsmateriale i iCloud Mail. De bruker “elektroniske signaturer for å avsløre mistanke om utnyttelse av barn. Hver registrert mistanke blir kontrollert manuelt”.

Det vakte 9to5mac’s nysgjerrighet at en av lederne i Apple kunne uttale at “Apple er den største plattform for distribusjon av barneporno”: Hvordan kunne han påstå det hvis selskapet ikke scannet iCloud-fotos?

ITavisen har ved flere anledninger skrevet om CSAM:

Edward Snowden: Apple ruller ut masseovervåkning i hele verden
Ut mot Apple: “Barna vil vokse opp i en dystopi om vi tolererer ubegrenset overvåkning fra private monopoler”
Apple og slangen i Paradis

Flere ledetråder

9to5mac satt også med et par andre ledetråder som tydet på at Apple må ha drevet med en form for CSAM-scanning. I en arkivert versjon av Apples side om barnesikkerhet står følgende:

Annonse


Apple er dedikert til å beskytte barn i hele økosystemet, uansett hvor produktene anvendes og vi støtter innovasjon på området. Vi har utviklet robuste systemer på alle software-nivåer i hele kjeden. Som en del av dette bruker Apple billedmatchningsteknologi til å finne og rapportere utnyttelse av barn. Likesom spamfiltre i e-mail bruker vi elektroniske signaturer til å finne mistenkt utnyttelse av barn. Vi sikrer hver match med individuell gjennomgang. Konti med slikt innhold strider med våre betingelser for service, og vil bli deaktivert.

Apple

Screener for ulovlige bilder

En annen Apple-sjef sa på en teknologikonferanse at virksomheten bruker screeningsteknologi til å lete etter ulovlige bilder og at de deaktiverer konti hvis de finner materiale som viser utnyttelse av barn, men de sa ikke hvordan de oppdager det.

Apple har bekreftet overfor 9to5mac at de har scannet ut- og inngående iCloud Mail for CSAM siden 2019. E-mail er ikke kryptert så det er en triviell oppgave å scanne vedlagte filer som passerer gjennom Apples servere.

“Begrenset scanning av andre data”

Apple opplyste også at de foretar en begrenset scanning av andre data, men ville ikke fortelle hva det var bortsett fra å antyde at det var i “liten skala”.

“Risiko for misbruk fra myndighetenes side”

To akademikere fra Princeton University opplyser at de har laget en prototype av et scanningssystem basert på samme fremgangsmåte som Apples, men de ga opp arbeidet på grunn av den opplagte risikoen for misbruk fra myndighetenes side av slike systemer.

Annonse


Annonse


Annonse


Annonse