Apple признала, что плохо объяснила технологию сканирования фото на iPhone

0
5

На днях Apple объявила, что в iOS 15 появится необычная функция. Она называется CSAM и сканирует iPhone на предмет запрещенных фото. В частности — изображений жестокого обращения с детьми (включая порно).

Если что-то такое находится, Apple сообщает об этом в организацию NCMEC. Последняя тесно сотрудничает с правоохранительными органами США. Цель благородная, но нововведение вызвало возмущение у пользователей и экспертов.

Apple признала, что плохо объяснила технологию сканирования фото на iPhone

Apple закономерно указали на конфиденциальность. Что если CSAM используют не только для поиска порнографии? Кто помешает хакерам или спецслужбам узнавать другие секреты, хранящиеся на iPhone?

Поднялся скандал. Настолько громкий, что гиганту из Купертино пришлось давать объяснения. Более того, Крейг Федериги, вице-президент Apple, признал вину компании. Журналистам Wall Street Journal он заявил, что корпорация не сумела донести до публики сути CSAM.

Федериги напомнил, что сканирование работает лишь при определенных условиях. Например, должна быть включена функция «Фото iCloud» в настройках айфона. Иначе CSAM просто бесполезна.

Подозрительными считаются исключительно аккаунты со множеством нарушений. Подобные учетные записи отправляются на ручную проверку в Apple. Однако специалисты не имеют доступа ко всей библиотеке снимков.

Помимо прочего, CSAM поддерживает несколько уровней шифрования. Взломать систему практически невозможно — даже спецслужбам. Поэтому злоупотреблений с их стороны ждать не стоит.

Ваш комментарий

Please enter your comment!
Пожалуйста, введите своё имя