Нова функция в iPhone се превърна в противоречиво въведение и ако сте готови да се откажете от вашия телефон заради нея, с изненада ще разберете, че далеч не сте единствените.
Става въпрос за аналитичната опция CSAM (Child Sexual Abuse Material), която Apple планира да инсталира на iPhone, iPad и Mac от следващия месец. Според двама учени, които са разработвали подобна система в продължение на цели две години, обаче тя е много по-опасна, отколкото се предполага.
Според специалистите от университет в Принстън CSAM лесно може да бъде манипулирана, така че да се използва за наблюдение и цензура. Нещо повече, дизайнът не е свързан с конкретна категория съдържание и лесно може да се промени така, че да следи не за непристойни материали, а за нещо съвсем друго като например политически коментари или финансови данни.
На теория целта на новата iPhone технология е борба с детската порнография, но не е трудно да си представим как в Китай, който е вторият най-голям iPhone пазар, властите веднага ще поискат сканирането на устройствата да бъде за критични към правителството материали. Това няма да бъде прецедент, тъй като Apple вече се съгласи да прехвърли личните данни на своите китайски потребители на сървър, притежаван от китайска компания.
Производителят на iPhone защитава решението си и твърди, че системата е ефективна в основната си задача, за която е създадена. Според наблюдатели обаче по този начин се създава опасен прецедент за нарушаване на личното пространство, а една от основните задачи на Apple е да го защитава.
СSАМ системата ще бъде пусната за iPhone iPadOS, WatchOS и MacOS следващия месец – момент, който сигурно ще накара много фенове да се замислят дали да не прескочат във вражеския Android лагер.
Снимка: Apple
Виж още: Китай проведе лотария за 1.5 млн. долара, за да тества нова цифрова валута