Apple împotriva abuzului asupra copiilor: nou sistem Hash în iCloud

Apple împotriva abuzului asupra copiilor

măr dorește să abordeze abuzul asupra copiilor cu diferite sisteme de control care sunt integrate în biblioteca însăși. Aceasta este o chestiune foarte complicată de comentat, deoarece poate submina confidențialitatea utilizatorilor. În acest articol vă spunem toate detaliile noului hash de urmărire pe care Apple ar intenționa să îl integreze în sistemul de operare.

Așa ar funcționa hash-ul de urmărire al Apple

Abuzul asupra copiilor este, fără îndoială, o problemă globală care trebuie combătută cu toate instrumentele necesare. Apple vrea să pună bobul de nisip cu instrumentele necesare pentru a putea căuta pornografie infantilă. Acest lucru a fost făcut public în diferite rapoarte neoficiale, deși totul indică faptul că va fi anunțat în cele din urmă în următoarele săptămâni. Acest sistem va fi instalat pe clientul dispozitivului în secțiunea de confidențialitate. Un set de amprentele digitale reprezentând conținut ilegal vor fi descărcate pentru a verifica fiecare fotografie din galerie . Ulterior, va fi efectuată o revizuire manuală pentru a nu lăsa o decizie atât de importantă în mâinile unui algoritm simplu.

fotografii ale aplicației

Aceste tehnici nu sunt noi pentru ecosistem. În acest moment, acestea sunt utilizate în biblioteca iCloud pentru a putea clasifica fotografiile în funcție de conținutul lor. De aceea toată revizuirea se va face întotdeauna pe dispozitiv și nu pe serverele companiei, încercând să garanteze confidențialitatea și securitatea. Deși puteți împiedica oricând iCloud să vă stocheze fotografiile, ceva care ar bloca acest sistem. În plus, aceste instrumente pot îmbunătățiți funcțiile de învățare automată care sunt deja implementate oferind o experiență generală mult mai adecvată. Deși, deși toate aceste funcții vizează combaterea pornografiei infantile, legislația fiecărei țări trebuie luată în considerare în ceea ce privește politica de confidențialitate a datelor. Canalele legale care trebuie urmate atunci când există o coincidență pozitivă în oricare dintre fotografii vor fi, de asemenea, decisive.

Nu este un sistem infailibil sau perfect

Securitate experții au făcut declarații diferite după ce au cunoscut aceste rapoarte, afirmând că acest sistem nu este infailibil. În multe cazuri, algoritmi de hash poate da un fals pozitiv deoarece detectarea unei imagini ca pornografie infantilă poate fi complexă de realizat datorită diversității mari de imagini care poate exista. Ar trebui studiate și implicațiile geopolitice pe care le poate avea acest sistem de algoritmi. Trebuie să se țină seama de faptul că informațiile vor fi puse la dispoziția guvernelor și de aceea pot fi utilizate pentru alte sarcini, cum ar fi suprimarea activismului politic în acele țări în care nu există o democrație deplină.

Elimina obiecte de fotografii cu fotografii

De asemenea, trebuie remarcat faptul că momentan fotografiile care sunt încărcate pe iCloud pentru backup nu sunt criptate ca atare, ci sunt stocate într-un mod criptat. Apple poate furniza întotdeauna cheile pentru decriptarea acestui conținut către un guvern și pentru a vizualiza întreaga bibliotecă a unui anumit utilizator, deși este ceva ce se întâmplă în toate serviciile. Dar, după cum am menționat anterior, aceasta este o primă idee care a fost colectată într-un raport. Acest lucru înseamnă că se poate schimba radical la momentul în care este terminat de a fi anunțat oficial.