Edward Snowden
"Hvis de kan søke etter barneporno idag, kan de søke etter hva som helst imorgen."

Annonse


Edward Snowden: Apple ruller ut masseovervåkning i hele verden

Apple kunngjorde denne uken at selskapet fra og med iOS 15 og iPadOS 15 vil kunne oppdage kjente bilder som viser seksuelt misbruk av barn (CSAM, Child Sexual Abuse Material) lagret i iCloud Photos, og rapportere dem til relevante myndigheter og organisasjoner.

Bakdør til ditt privatliv

Planene har vakt bekymring blant sikkerhetseksperter for at dette i fremtiden kan åpne for at Apple kan bli presset av myndigheter til å føye til flere typer bilder på listen over skadelig innhold, det kan for eksempel være politisk aktivisme.

“Uansett hvor velmenende dette enn er, så ruller Apple med dette ut masseovervåking til hele verden,” sa den fremtredende varsleren og politiske flyktningen Edward Snowden og la til at “hvis de kan søke etter barneporno idag, kan de søke etter hva som helst imorgen”.

Apple ikke bekymret

Organisasjonen Electronic Frontier Foundation kritiserte også Apples planer og uttalte at Apple åpner en bakdør til ditt privatliv: “Selv en grundig dokumentert, nøye gjennomtenkt og snevert definert bakdør er fortsatt en bakdør.”

Annonse


Apples CSAM-deteksjon vil ved lanseringen være begrenset til USA. For å imøtegå muligheten for at noen myndighet skal misbruke systemet, vil selskapet se på en eventuell utvidelse land for land etter en juridisk vurdering. Apple har ikke gitt noen tidsramme for en eventuell global utvidelse.

Påfølgende manuell gjennomgang

Apple diskuterte også muligheten for at om systemet skulle korrumperes, så ville den påfølgende manuelle gjennomgangsprosessen fungere som en ekstra barriere og forhindre at flaggede brukere rapporters urettmessig.

Apple fremhevet også at selskapet fikk ros for innsatsen for å bekjempe overgrep mot barn.

Vi støtter Apples tilnærming til barns sikkerhet på nettet. Gitt utfordringene foreldre står overfor er det avgjørende at teknologiselskaper stadig forbedrer verktøyet for å komme nye risikoer i forkjøpet.

Stephen Balkam, Family Online Safety Institute

Barneporno idag, hva som helst imorgen?

Apple innrømmet at det ikke finnes noen absolutt garanti mot at systemet blir misbrukt, men selskapet forplikter seg til utelukkende å bruke systemet til CSAM-deteksjon – så får vi se hvem som husker løftene etter en tid. Når vi først venner oss til litt overvåkning er det kanskje ikke så farlig med litt mer – det er alltid gode argumenter for å bekjempe styggedommen ute i verden.

Oppfølgende artikler:
Ut mot Apple: “Barna vil vokse opp i en dystopi om vi tolererer ubegrenset overvåkning fra private monopoler”

Apple og slangen i Paradis

Annonse