Apple mot barnmisshandel: Nytt hashsystem i iCloud

Apple mot barnmisshandel

Apple vill hantera barnmisshandel med olika kontrollsystem som är integrerade i biblioteket självt. Detta är en riktigt komplicerad fråga att kommentera eftersom det kan undergräva användarnas integritet. I den här artikeln berättar vi alla detaljer om den nya spårhash som Apple skulle planera att integrera i operativsystemet.

Så här skulle Apples spårhash fungera

Barnmisshandel är utan tvekan ett globalt problem som måste bekämpas med alla nödvändiga verktyg. Apple vill lägga sitt sandkorn med nödvändiga verktyg för att kunna söka efter barnpornografi. Detta är något som har offentliggjorts i olika rapporter som är inofficiella, även om allt tyder på att det äntligen kommer att meddelas under de kommande veckorna. Detta system kommer att installeras på enhetsklienten i sekretessavsnittet. En uppsättning av fingeravtryck som representerar olagligt innehåll laddas ner för att verifiera varje foto i galleriet . Därefter kommer en manuell granskning att genomföras för att inte lämna ett så viktigt beslut i händerna på en enkel algoritm.

app foton

Dessa tekniker är inte nya för ekosystemet. Just nu används de i iCloud -biblioteket för att kunna kategorisera bilderna beroende på deras innehåll. Det är därför all granskning alltid kommer att göras på enheten och inte på företagets servrar, i försök att garantera integritet och säkerhet. Även om du alltid kan hindra iCloud från att lagra dina foton, något som skulle blockera detta system. Dessutom kan dessa verktyg förbättra maskininlärningsfunktionerna som redan är implementerade erbjuder en mycket mer adekvat allmän upplevelse. Även om alla dessa funktioner syftar till att bekämpa barnpornografi, måste lagstiftningen i vart och ett av länderna beaktas när det gäller dataskyddspolicy. De juridiska kanaler som måste följas när det finns en positiv tillfällighet i någon av fotografierna kommer också att vara avgörande.

Det är inte ett ofelbart eller perfekt system

Säkerhet experter har gjort olika uttalanden efter att ha känt till dessa rapporter och uppgett att detta system inte är ofelbart. I många fall har hash -algoritmer kan ge ett falskt positivt eftersom det kan vara komplext att upptäcka en bild som barnpornografi på grund av den stora mångfalden av bilder som kan finnas. De geopolitiska konsekvenserna som detta algoritmesystem kan ha bör också studeras. Det måste beaktas att informationen kommer att göras tillgänglig för regeringar och det är därför den kan användas för andra uppgifter som att undertrycka politisk aktivism i de länder där det inte finns en fullständig demokrati.

Elimina objetos de tus fotogracias con fotos

Det bör också noteras att de foton som överförs till iCloud för säkerhetskopiering för närvarande inte är krypterade som sådana utan lagras på ett krypterat sätt. Apple kan alltid tillhandahålla nycklarna för att dekryptera detta innehåll till en regering och se hela biblioteket för en specifik användare, även om det är något som händer i alla tjänster. Men som vi har nämnt tidigare är detta en första idé som har samlats i en rapport. Detta innebär att det kan radikalt förändras till när det är klart att tillkännages officiellt.