Apple v srpnu 2021 oznámil, že plánuje skenovat váš obsah na iCloudu, zda neobsahuje materiál pro sexuální zneužívání dětí (CSAM), aby ochránil děti před zneužíváním predátory.
Společnost plánovala spustit novou funkci detekce CSAM ve Fotkách na iCloudu, která by takový obsah vyhledávala a hlásila odpovídající obrázky společnosti Apple, a přitom zachovala soukromí uživatelů.
Nová funkce se však setkala s rozporuplnými reakcemi. Více než rok od prvního oznámení Apple oficiálně upouští od svého plánu skenovat iCloud Photos pro CSAM.
Apple upustil od svého plánu skenovat iCloud na materiály týkající se zneužívání dětí
Podle zprávy od WIREDApple odchází od svého plánu skenovat váš iCloud kvůli obsahu zneužívání dětí. Nástroj by skenoval fotografie uložené na iCloud, aby našel ty, které odpovídají známým obrázkům CSAM, které byly identifikovány organizacemi pro bezpečnost dětí. Poté by mohl tyto obrázky nahlásit, protože držení obrázků CSAM je ve většině jurisdikcí včetně USA nezákonné.
Proč Apple zrušil svůj plán skenovat fotografie na iCloudu
Po prvním oznámení v roce 2021 čelil Apple odporu zákazníků, skupin a jednotlivců, kteří obhajovali digitální soukromí a bezpečnost po celém světě. iPhone obvykle nabízí větší zabezpečení než zařízení Androida mnozí to považovali za krok zpět. I když to byla výhra pro organizace zabývající se bezpečností dětí, více než 90 politických skupin napsalo později tentýž měsíc Applu otevřený dopis, ve kterém společnosti řekli, aby plán zrušila.
Dopis tvrdil, že nástroj sice zamýšlí chránit děti před zneužíváním, mohl by být využit k cenzuře svobody projevu a ohrožení soukromí a bezpečnosti uživatelů. Kvůli rostoucímu tlaku Apple zastavil své plány na spuštění, aby získal zpětnou vazbu a provedl nezbytné úpravy této funkce. Zpětná vazba však nepřála plánu Applu skenovat iCloud Photos, takže společnost od plánů nadobro upouští.
V prohlášení pro WIRED společnost uvedla:
"My máme... se rozhodli nepokročit s naším dříve navrhovaným nástrojem pro detekci sexuálního zneužívání dětí pro iCloud Photos. Děti mohou být chráněny, aniž by společnosti pročesávaly osobní údaje, a my budeme i nadále spolupracovat s vládami, ochránci dětí a další společnosti, které pomáhají chránit mladé lidi, chránit jejich právo na soukromí a učinit internet bezpečnějším místem pro děti i pro nás Všechno."
Nový plán společnosti Apple na ochranu dětí
Apple přesměrovává své úsilí na zlepšení funkcí bezpečnosti komunikace oznámených v srpnu 2021 a spuštěných v prosinci téhož roku.
Bezpečnost komunikace je volitelná a mohou ji využít rodiče a opatrovníci k ochraně dětí před odesíláním a přijímáním sexuálně explicitních obrázků v iMessage. Funkce takové fotky automaticky rozmaže a dítě bude varováno před nebezpečím, které s tím souvisí. Také varuje kohokoli, pokud se pokusí vyhledat CSAM na zařízeních Apple.
Vzhledem k tomu, že plány na spuštění nástroje pro detekci CSAM byly zrušeny, společnost se těší na další vylepšení této funkce a její rozšíření na další komunikační aplikace.