Vysvetlenie: Ako Apple bude skenovať obrázky zneužívania detí na zariadeniach a prečo dvíha obočie
Očakáva sa, že sa pôvodne spustí v Spojených štátoch, medzi funkcie patrí použitie novej technológie na obmedzenie šírenia CSAM online, najmä prostredníctvom platformy Apple.

Spoločnosť Apple to oznámila aktualizácie softvéru neskôr v tomto roku prinesú nové funkcie ktorý pomôže chrániť deti pred predátormi, ktorí používajú komunikačné nástroje na ich nábor a vykorisťovanie, a obmedzí šírenie materiálu sexuálneho zneužívania detí (CSAM).
Očakáva sa, že sa pôvodne spustí v Spojených štátoch, medzi funkcie patrí použitie novej technológie na obmedzenie šírenia CSAM online, najmä prostredníctvom platformy Apple.
Potom bude na zariadení existovať ochrana pre deti pred odosielaním alebo prijímaním citlivého obsahu s mechanizmami, ktoré upozornia rodičov v prípade, že používateľ má menej ako 13 rokov. Spoločnosť Apple zasiahne aj vtedy, keď sa Siri alebo Vyhľadávanie použije na vyhľadávanie tém súvisiacich s obsahom sexuálneho zneužívania. .
Akú technológiu robí Apple, aby zabránila šíreniu CSAM online?
V blogovom príspevku Apple vysvetlil, že bude používať kryptografické aplikácie cez iOS a iPadOS na porovnávanie známych obrázkov CSAM uložených na iCloud Photo. Táto technológia porovná obrázky na iCloude používateľa so známymi obrázkami, ktoré poskytujú organizácie na ochranu detí. A to sa deje bez toho, aby ste skutočne videli obraz a iba hľadali niečo ako zhodu odtlačkov prstov. V prípade, že sa vyskytnú zhody prekračujúce prahovú hodnotu, spoločnosť Apple nahlási tieto prípady Národnému centru pre nezvestné a zneužívané deti (NCMEC).
Apple objasnil, že jeho technológia má na pamäti súkromie používateľov, a preto sa databáza transformuje na nečitateľnú sadu hash, ktorá je bezpečne uložená na zariadeniach používateľov. Dodal, že predtým, než sa akýkoľvek obrázok nahrá do iCloud, operačný systém ho porovná so známymi hašmi CSAM pomocou kryptografickej technológie nazývanej prienik súkromných množín. Táto technológia tiež určí zápas bez odhalenia výsledku.
V tomto momente zariadenie vytvorí kryptografický bezpečnostný poukaz s výsledkom zápasu a ďalšími zašifrovanými údajmi a uloží ho do iClouds s obrázkom. Technológia prahového tajného zdieľania zaisťuje, že tieto poukážky nemôže spoločnosť Apple interpretovať, pokiaľ účet iCloud Photos neprekročí hranicu známeho obsahu CSAM. Tento limit, ako tvrdil blog, bol zavedený s cieľom poskytnúť extrémne vysokú úroveň presnosti a zaisťuje menej ako jednu ku biliónu biliónov za rok nesprávne nahlásenie daného účtu. Jediný obrázok teda pravdepodobne nespustí výstrahu.
Ak je však prah prekročený, spoločnosť Apple môže interpretovať obsah bezpečnostných poukazov a manuálne skontrolovať každú správu o zhode, deaktivovať účet používateľa a odoslať správu NCMEC. Apple uviedol, že používatelia sa budú môcť odvolať, ak si myslia, že boli nahlásení nesprávne.
Ako fungujú ostatné funkcie?
Nová bezpečnosť komunikácie spoločnosti Apple pre Správy rozmaže citlivý obraz a upozorní dieťa na povahu obsahu. Ak je to povolené z backendu, dieťa by tiež mohlo byť informované, že jeho rodičia boli upozornení na správu, ktorú si prezerali. To isté bude platiť, ak sa dieťa rozhodne poslať citlivú správu. Apple uviedol, že Messages bude používať strojové učenie na zariadení na analýzu obrázkových príloh a určenie, či je fotografia sexuálne explicitná a že Apple nebude mať prístup k správam. Funkcia príde ako aktualizácia účtov nastavených ako rodiny v iCloud pre najnovšie verzie operačného systému.
S aktualizáciou, keď sa používateľ pokúsi vyhľadať potenciálne témy sexuálneho zneužívania detí, Siri a Search vysvetlia, prečo by to mohlo byť škodlivé a problematické. Používatelia tiež dostanú pokyny, ako podať hlásenie o zneužívaní detí, ak o to požiadajú.
| Vysvetlenie: Ako a prečo Google ponúkne väčšiu ochranu deťom online
Prečo to Apple robí a aké obavy vyvoláva?
Veľké technologické spoločnosti sú už roky pod tlakom, aby zakročili proti využívaniu ich platformy na zneužívanie detí. Mnohé správy v priebehu rokov zdôrazňovali, že sa neurobilo dosť na to, aby technológia zastavila sprístupnenie obsahu sexuálneho zneužívania detí.
Oznámenie spoločnosti Apple sa však stretlo s kritikou, pričom mnohí zdôrazňovali, že toto je presne ten druh technológie sledovania, ktorú by mnohé vlády chceli mať a radi by ju zneužili. Skutočnosť, že to pochádza od spoločnosti Apple, ktorá bola dlho zástancom súkromia, mnohých prekvapila.
Odborníci na kryptografiu, ako je Matthew Green z Univerzity Johna Hopkinsa, tiež vyjadrili obavy, že systém by sa mohol použiť na zarámovanie nevinných ľudí, ktorí by im posielali obrázky určené na spustenie zhody pre CSAM. Výskumníkom sa to podarilo celkom jednoducho, povedal pre NPR a dodal, že takéto algoritmy je možné oklamať.
Denník The New York Times však citoval šéfa ochrany osobných údajov spoločnosti Apple Erika Neuenschwandera, ktorý povedal, že tieto funkcie nebudú pre bežných používateľov znamenať nič iné.
Ak uchovávate zbierku materiálu CSAM, áno, je to pre vás zlé, povedal pre publikáciu.
Newsletter| Kliknutím dostanete do doručenej pošty najlepšie vysvetlivky dňa
Majú iné veľké technologické spoločnosti podobné technológie?
Áno. V skutočnosti spoločnosť Apple vstupuje na scénu pomerne neskoro, pretože spoločnosti Microsoft, Google a Facebook upozorňujú orgány činné v trestnom konaní na obrázky CSAM. Apple zaostáva, pretože akákoľvek takáto technológia by bola v rozpore s jej toľko propagovaným záväzkom ochrany súkromia používateľov. Výsledkom bolo, že v roku 2020, keď Facebook oznámil NCMEC 20,3 milióna porušení CSAM, Apple mohol nahlásiť iba 265 prípadov, informoval The New York Times.
Až teraz sa mu podarilo nájsť technologické miesto, ako to urobiť bez toho, aby to ovplyvnilo bežných používateľov alebo ich aspoň vystrašilo. Ako však ukázal prvotný odpor, stále ide o chôdzu po lane.
Zdieľajte So Svojimi Priateľmi: