Mfumo wa CSAM wa Apple ulidanganywa, lakini kampuni hiyo ina ulinzi mbili

Sasisha: Apple ilitaja ukaguzi wa pili wa seva, na kampuni ya kitaalam ya maono ya kompyuta ilielezea uwezekano wa nini hii inaweza kuelezewa katika "Jinsi ukaguzi wa pili unaweza kufanya kazi" hapa chini.
Baada ya watengenezaji kubadilisha sehemu zake zilizoundwa, toleo la awali la mfumo wa Apple CSAM limedanganywa kwa ufanisi ili kuashiria picha isiyo na hatia.Walakini, Apple ilisema kwamba ina ulinzi zaidi wa kuzuia hili kutokea katika maisha halisi.
Maendeleo ya hivi punde yalitokea baada ya algoriti ya NeuralHash kuchapishwa kwa tovuti ya msanidi programu huria ya GitHub, mtu yeyote anaweza kuifanyia majaribio...
Mifumo yote ya CSAM hufanya kazi kwa kuleta hifadhidata ya nyenzo zinazojulikana za unyanyasaji wa kingono kwa watoto kutoka kwa mashirika kama vile Kituo cha Kitaifa cha Watoto Waliopotea na Kunyanyaswa (NCMEC).Hifadhidata hutolewa kwa njia ya heshi au alama za vidole za dijiti kutoka kwa picha.
Ingawa makampuni makubwa ya teknolojia huchanganua picha zilizopakiwa katika wingu, Apple hutumia algoriti ya NeuralHash kwenye iPhone ya mteja ili kutoa thamani ya heshi ya picha iliyohifadhiwa, na kisha kuilinganisha na nakala iliyopakuliwa ya thamani ya heshi ya CSAM.
Jana, msanidi programu alidai kuwa alibadilisha algorithm ya Apple na kutoa nambari hiyo kwa GitHub-dai hili lilithibitishwa vilivyo na Apple.
Ndani ya masaa machache baada ya GitHib kutolewa, watafiti walitumia algoriti hiyo kwa mafanikio kuunda picha chanya ya uwongo ya kukusudia-picha mbili tofauti kabisa ambazo zilitoa thamani sawa ya heshi.Hii inaitwa mgongano.
Kwa mifumo hiyo, daima kuna hatari ya migongano, kwa sababu hashi bila shaka ni uwakilishi uliorahisishwa sana wa picha, lakini inashangaza kwamba mtu anaweza kuzalisha picha haraka sana.
Mgongano wa makusudi hapa ni uthibitisho wa dhana tu.Wasanidi programu hawana ufikiaji wa hifadhidata ya hashi ya CSAM, ambayo itahitaji kuundwa kwa chanya za uwongo katika mfumo wa wakati halisi, lakini inathibitisha kuwa mashambulizi ya mgongano ni rahisi kimsingi.
Apple ilithibitisha kwa ufanisi kwamba algorithm ni msingi wa mfumo wake mwenyewe, lakini aliiambia ubao wa mama kwamba hii sio toleo la mwisho.Kampuni hiyo pia ilisema kwamba haikukusudia kuiweka siri.
Apple iliambia Ubao wa Mama katika barua pepe kwamba toleo lililochambuliwa na mtumiaji kwenye GitHub ni toleo la kawaida, sio toleo la mwisho linalotumiwa kugundua iCloud Photo CSAM.Apple ilisema pia ilifichua algorithm.
"Algorithm ya NeuralHash [...] ni sehemu ya msimbo wa mfumo wa uendeshaji uliotiwa saini [na] watafiti wa usalama wanaweza kuthibitisha kwamba tabia yake inalingana na maelezo," iliandika hati ya Apple.
Kampuni iliendelea kusema kuna hatua mbili zaidi: kuendesha mfumo wa sekondari (siri) wa kulinganisha kwenye seva yake mwenyewe, na ukaguzi wa mwongozo.
Apple pia ilisema kwamba baada ya watumiaji kupita kizingiti cha mechi 30, algorithm ya pili isiyo ya umma inayoendesha kwenye seva za Apple itaangalia matokeo.
"Heshi hii huru ilichaguliwa kukataa uwezekano kwamba NeuralHash yenye makosa inalingana na hifadhidata iliyosimbwa ya CSAM kwenye kifaa kwa sababu ya kuingiliwa na maadui wa picha zisizo za CSAM na kuzidi kiwango kinacholingana."
Brad Dwyer wa Roboflow alipata njia ya kutofautisha kwa urahisi kati ya picha mbili zilizochapishwa kama uthibitisho wa dhana ya shambulio la mgongano.
Ninatamani kujua jinsi picha hizi zinavyoonekana katika CLIP ya kichungi cha kipengele cha neural sawa lakini tofauti cha OpenAI.CLIP inafanya kazi sawa na NeuralHash;inachukua picha na hutumia mtandao wa neva ili kutoa seti ya vekta za vipengele vinavyoweka ramani kwa maudhui ya picha.
Lakini mtandao wa OpenAI ni tofauti.Ni muundo wa jumla ambao unaweza kuweka ramani kati ya picha na maandishi.Hii ina maana kwamba tunaweza kuitumia kutoa maelezo ya picha yanayoeleweka na binadamu.
Niliendesha picha mbili za mgongano hapo juu kupitia CLIP ili kuona ikiwa pia ilidanganywa.Jibu fupi ni: hapana.Hii inamaanisha kuwa Apple inapaswa kuwa na uwezo wa kutumia mtandao wa kichuna kipengele cha pili (kama vile CLIP) kwenye picha za CSAM zilizotambuliwa ili kubaini kama ni halisi au bandia.Ni vigumu zaidi kuzalisha picha zinazodanganya mitandao miwili kwa wakati mmoja.
Hatimaye, kama ilivyoelezwa hapo awali, picha hukaguliwa kwa mikono ili kuthibitisha kuwa ni CSAM.
Mtafiti wa usalama alisema kuwa hatari pekee ni kwamba mtu yeyote anayetaka kuudhi Apple anaweza kutoa maoni ya uwongo kwa wakaguzi wa kibinadamu.
"Apple ilitengeneza mfumo huu, kwa hivyo utendakazi wa hashi hauitaji kuwekwa siri, kwa sababu kitu pekee unachoweza kufanya na 'non-CSAM kama CSAM' ni kukasirisha timu ya majibu ya Apple na picha zingine mbaya hadi watekeleze vichungi ili kuondoa. uchambuzi Takataka hizo katika bomba ni chanya za uwongo," Nicholas Weaver, mtafiti mkuu katika Taasisi ya Kimataifa ya Sayansi ya Kompyuta katika Chuo Kikuu cha California, Berkeley, aliiambia Motherboard katika mazungumzo ya mtandaoni.
Faragha ni suala la kuongezeka kwa wasiwasi katika ulimwengu wa leo.Fuata ripoti zote zinazohusiana na faragha, usalama, n.k. katika miongozo yetu.
Ben Lovejoy ni mwandishi wa kiufundi wa Uingereza na mhariri wa EU kwa 9to5Mac.Anajulikana kwa safu zake na nakala za shajara, akichunguza uzoefu wake na bidhaa za Apple kwa wakati ili kupata hakiki za kina zaidi.Pia anaandika riwaya, kuna mambo mawili ya kusisimua ya kiufundi, filamu fupi fupi za uongo za kisayansi na rom-com!


Muda wa kutuma: Aug-20-2021