Apple's CSAM-systeem waard ferrifelje, mar it bedriuw hat twa beskermingen

Update: Apple neamde in twadde ynspeksje fan 'e tsjinner, en in profesjonele bedriuw foar kompjûterfisy sketste in mooglikheid fan wat dit koe wurde beskreaun yn "Hoe't de twadde ynspeksje kin wurkje" hjirûnder.
Nei't de ûntwikkelders dielen derfan reverse-manipulearre hawwe, is de iere ferzje fan it Apple CSAM-systeem effektyf tricked om in ûnskuldige ôfbylding te markearjen.Apple ferklearre lykwols dat it ekstra beskermingen hat om te foarkommen dat dit yn it echte libben bart.
De lêste ûntwikkeling barde neidat it NeuralHash-algoritme waard publisearre op 'e iepen boarne-ûntwikkelderswebside GitHub, elkenien kin dermei eksperimintearje ...
Alle CSAM-systemen wurkje troch it ymportearjen fan in databank fan bekende materiaal foar seksueel misbrûk fan bern fan organisaasjes lykas it Nasjonaal Sintrum foar Missing en Exploited Children (NCMEC).De databank wurdt levere yn 'e foarm fan hashes of digitale fingerprinten fan ôfbyldings.
Hoewol de measte technologygiganten foto's scannen dy't yn 'e wolk uploade binne, brûkt Apple it NeuralHash-algoritme op' e iPhone fan 'e klant om in hashwearde fan' e opsleine foto te generearjen, en fergeliket it dan mei de downloade kopy fan 'e CSAM-hashwearde.
Juster bewearde in ûntwikkelder dat hy it algoritme fan Apple omkearde konstruearre hie en de koade frijlitten oan GitHub - dizze claim waard effektyf befêstige troch Apple.
Binnen in pear oeren nei't GitHib waard frijlitten, brûkten de ûndersikers it algoritme mei súkses om in opsetlike falske posityf te meitsjen - twa folslein ferskillende ôfbyldings dy't deselde hashwearde genereare.Dit wurdt in botsing neamd.
Foar sokke systemen is der altyd in risiko fan botsingen, om't de hash fansels in sterk ferienfâldige foarstelling fan 'e ôfbylding is, mar it is ferrassend dat immen it byld sa fluch generearje kin.
De opsetlike botsing hjir is gewoan in bewiis fan konsept.Untwikkelders hawwe gjin tagong ta de CSAM-hash-database, dy't it oanmeitsjen fan falske positiven yn it real-time systeem fereaskje, mar it docht bliken dat botsingsoanfallen yn prinsipe relatyf maklik binne.
Apple befêstige effektyf dat it algoritme de basis is fan har eigen systeem, mar fertelde it moederbord dat dit net de definitive ferzje is.It bedriuw joech ek oan dat it noait fan doel wie it fertroulik te hâlden.
Apple fertelde Motherboard yn in e-post dat de ferzje analysearre troch de brûker op GitHub is in generike ferzje, net de definitive ferzje brûkt foar iCloud Photo CSAM detection.Apple sei dat it ek it algoritme iepenbiere.
"It NeuralHash-algoritme [...] is diel fan 'e ûndertekene bestjoeringssysteemkoade [en] feiligensûndersikers kinne ferifiearje dat har gedrach oerienkomt mei de beskriuwing," skreau in Apple-dokumint.
It bedriuw gie troch te sizzen dat d'r noch twa stappen binne: it útfieren fan in sekundêr (geheim) oerienkommende systeem op har eigen server, en hânmjittich beoardieling.
Apple stelde ek dat neidat brûkers de drompel fan 30 wedstriden passe, in twadde net-iepenbiere algoritme dat rint op Apple's servers de resultaten sil kontrolearje.
"Dizze ûnôfhinklike hash waard keazen om de mooglikheid te fersmiten dat de ferkearde NeuralHash oerienkomt mei de fersifere CSAM-databank op it apparaat fanwegen adversarjale ynterferinsje fan net-CSAM-ôfbyldings en de oerienkommende drompel giet."
Brad Dwyer fan Roboflow fûn in manier om maklik te ûnderskieden tusken de twa ôfbyldings pleatst as in bewiis fan konsept foar in botsing oanfal.
Ik bin nijsgjirrich hoe't dizze ôfbyldings der útsjen yn CLIP fan in ferlykbere mar oare neurale funksje extractor OpenAI.CLIP wurket fergelykber mei NeuralHash;it nimt in ôfbylding en brûkt in neurale netwurk foar in generearje in set fan funksje vectors dy't map oan de ynhâld fan de ôfbylding.
Mar it netwurk fan OpenAI is oars.It is in algemien model dat kin map tusken bylden en tekst.Dit betsjut dat wy it kinne brûke om minsklik-begryplike ôfbyldingynformaasje te ekstrahearjen.
Ik rûn de twa botsingsôfbyldings hjirboppe troch CLIP om te sjen oft it ek foar de gek wie.It koarte antwurd is: nee.Dit betsjut dat Apple in twadde funksje-extractor-netwurk (lykas CLIP) moat kinne tapasse op de ûntdutsen CSAM-ôfbyldings om te bepalen oft se echt of nep binne.It is folle dreger om ôfbyldings te generearjen dy't twa netwurken tagelyk ferrifelje.
As lêste, lykas earder neamd, wurde de ôfbyldings manuell hifke om te befestigjen dat se CSAM binne.
In befeiligingsûndersiker sei dat it ienige wirklike risiko is dat elkenien dy't Apple wol ergerje, falske positiven kin leverje oan minsklike resinsinten.
"Apple hat dit systeem eins ûntworpen, dus de hash-funksje hoecht net geheim te hâlden, om't it iennichste ding dat jo kinne dwaan mei 'non-CSAM as CSAM' is om Apple's antwurdteam te ergerjen mei wat junkôfbyldings oant se filters ymplementearje om te eliminearjen analyze Dy jiskefet yn 'e pipeline binne falske positives,"Nicholas Weaver, in senior ûndersiker oan it Ynstitút fan Ynternasjonale Computer Science oan de Universiteit fan Kalifornje, Berkeley, Motherboard yn in online petear.
Privacy is in kwestje fan tanimmende soarch yn 'e hjoeddeistige wrâld.Folgje alle rapporten yn ferbân mei privacy, feiligens, ensfh yn ús rjochtlinen.
Ben Lovejoy is in Britsk technysk skriuwer en EU-redakteur foar 9to5Mac.Hy is bekend om syn kollums en deiboekartikels, en ferkent syn ûnderfining mei Apple-produkten yn 'e rin fan' e tiid om wiidweidigere resinsjes te krijen.Hy skriuwt ek romans, der binne twa technyske thrillers, in pear koarte science fiction films en in rom-com!


Posttiid: Aug-20-2021