Apple har satt seg fore å luke slangen ut av Paradis.

Annonse


Apple og slangen i Paradis

Apple la igår ut en 14 siders pdf hvor selskapet imøtegår noe av kritikken mot CSAM, Apples program for scanning av brukernes bilder for barneporno som de ved treff, vil rapportere til relevante myndigheter (CSAM, Child Sexual Abuse Material).

Massiv kritikk

Apples CSAM-program har møtt kritikk fra sikkerhetseksperter over hele verden. Potensialet for hvilke typer “skadelig” innhold ulike myndigheter kan ønske å få på CSAM-listen, er stort. Politisk aktivisme er bare ett av eksemplene som blir trukket frem.

Blant de mest prominente kritikerne av Apples planer er den amerikanske dissidenten og politisk flyktning Edward Snowden samt Epics Tim Sweeney. 

“Masseovervåkning til hele verden”

“Uansett hvor velmenende dette enn er, så ruller Apple med dette ut masseovervåking til hele verden,” tweetet Snowden. Tim Sweeney fulgte opp dagen etter med en kontring til Apple: “Tenk på barna. Tenk på den dystopi de vil vokse opp i hvis vi tolererer at private monopoler med ubegrensede overvåkningsmuligheter gradvis overtar de styrendes roller, uten å være bundet av liberale demokratiske prosesser.”

Annonse


Temaet engasjerer

Saken har to ganger vært omtalt her i ITavisen og under begge artiklene er det vokst frem noen av de mest interessante kommentarfelt.

Edward Snowden: Apple ruller ut masseovervåkning i hele verden

Ut mot Apple: “Barna vil vokse opp i en dystopi om vi tolererer ubegrenset overvåkning fra private monopoler”

Moralsk betent

Dokumentet Apple la frem igår tar opp potensialet for at den nye CSAM-deteksjonen blir en bakdør inn i privatlivet ditt og spesifiserer blant annet hvilke terskler Apple definerer. 

Det kan for en skeptiker virke som om Apple har sett seg nødsaget til å pønske ut ekstra sikring for å komme kritikken av et program de forventet skulle gli rett inn på riktig side i samfunnets moralsk betente politiske samtale, i møte.

Åpner for tredjepart

En av de mer bemerkelsesverdige opplysningene fra Apple er at systemet vil være åpent for tredjeparts revidering. Apple forklarer at de vil publisere en “Knowledge Base”med rot-hashen av den krypterte CSAM-hash-databasen. Apple vil også tillate brukerne å inspisere den grunnleggende hash-databasen og sammenligne med Knowledge Base:

Brukerne vil kunne inspisere root-hashen til den krypterte databasen som finnes på deres enhet og sammenligne den med den forventede root-hashen i Knowledge Base. At beregningen av rothashen som vises i Innstillinger, er nøyaktig, blir inspisert av sikkerhetseksperter likesom alt annet som angår sikkerheten på iOS-enheten.

Denne tilnærmingen muliggjør teknisk revisjon fra tredjepart: at databasen kun er blitt generert av hash fra deltakende barnesikkerhetsorganisasjoner, uten tillegg, fjerninger eller endringer. For å lette revisjonen er det ikke nødvendig at barnesikkerhetsorganisasjonen leverer sensitiv informasjon som råhash eller kildebilder, det holder at de leverer ikke-sensitiv attestering av hele databasen. Utfra det kan Apple i et sikkert miljø gi tekniske bevis for korrekt utførelse. 

Ikke under kontroll av samme regjering

Apple tok også opp muligheten for at en organisasjon kan inkludere annet enn kjent CSAM-innhold i databasen, og sier at de vil generere databasen i samarbeid med minst to barnesikkerhetsorganisasjoner som ikke er under kontroll av de samme myndigheter:

Apple genererer CSAM-databasen av hash levert av minst to barnesikkerhetsorganisasjoner som opererer i separate, suverene jurisdiksjoner, det vil si ikke under kontroll av samme regjering. Eventuelle hash som bare forekommer i én av de deltagende organisasjonenes database, eller bare i databaser fra en enkelt suveren jurisdiksjon, blir kassert. 

Plantet materiale i CSAM?

Apple avslører også nye detaljer om den manuelle gjennomgangsprosessen som utføres når terskelen for anmeldelse til relevante myndigheter er nådd:

Siden Apple ikke er i besittelse av CSAM-bildene hashene peker til, er det viktig å forstå at Apples kontrollører ikke bare vurderer om et gitt flagget bilde tilsvarer en oppføring i Apples krypterte CSAM-bildedatabase. De bekrefter bare én ting: At i en konto som overskrider matchgrensen er bildene med positivt samsvar CSAM. Dette betyr at hvis ikke-CSAM noen gang uforvarende eller ved tvang, blir satt inn i CSAM-databasen, vil det ikke ha noen effekt med mindre også Apples kontrollører er blitt tvunget til å flagge ikke-CSAM-materiale.

Vanhellig allianse

Apple er tidligere blitt kritisert for å prioritere økonomien fremfor privatlivets ukrenkelighet i sin omgang med kinesiske myndigheter. Epics Tim Sweeney henviser til Apples omgang med den kinesiske regjeringen og tweeter at Apple formodentlig vil være et “redskap for statlig overvåkning hvor det er påkrevd”. 

Den eksistensielle trussel er en vanhellig allianse mellom regjeringen og monopolene som kontrollerer det offentlige ordskiftet og alle våre enheter under dekke av konstitusjonell beskyttelse som private selskaper. 

Tim Sweeney

Selv en grundig dokumentert, nøye gjennomtenkt og snevert definert bakdør er fortsatt en bakdør.

Electronic Frontier Foundation

Apple og den forbudne frukt

Hovedmotivasjonen bak enhver kommersiell virksomhet er økonomisk. Når Apple i sin monopolsituasjon på eget initiativ åpner en bakdør inn til folks intimsfære, er det vanskelig å se annen motivasjon enn omdømmebygging, det gode Apple som luker ut den forbudte frukt i Paradiset. Slangen har fra tidenes morgen fristet (Eva) med epler.

Hele Apples “Security Threat Model Review of Apple’s Child Safety Features” finnes i kildehenvisningen til artikkelen.

Annonse


Annonse


Annonse


Annonse