Apple будет сканировать фотографии на вашем iPhone

0
21

Недавно Apple объявила о том, что будет сканировать iPhone в США на предмет материалов о сексуальном насилии над детьми (CSAM). В рамках этой инициативы компания сотрудничает с правительством и вносит изменения в iCloud, iMessage, Siri и Search.

Согласитесь, это звучит несколько настораживающе. Мы в России уже давно привыкли к тому, что под предлогом борьбы с действительно ужасными вещами, вводимые меры применяются по совершенно другим мотивам.

Вот и в случае с Apple многие обеспокоились о слежке и рисках утечки данных.

Apple будет сканировать ваши фотографии в iCloud и просматривать их с помощью базы данных Национального центра по проблеме исчезнувших и эксплуатируемых детей (NCME)C, чтобы определить, есть ли какие-либо изображения CSAM. Хотя фактически, компания это делать будет не в облаке, а на вашем устройстве. То есть перед отправкой изображения в хранилище iCloud алгоритм выполнит проверку известных хешей CSAM.

Apple будет сканировать фотографии на вашем iPhone

Когда фотография загружается в iCloud, Apple создает ваучер криптографической безопасности, который хранится вместе с ней. Ваучер содержит сведения, позволяющие определить, соответствует ли изображение известным хешам CSAM.

Если на телефоне отключена синхронизация iCloud, сканирование не будет работать.

Для iMessage Apple такде будет сканировать и размывать изображения CSAM. Компания также внедряет соответствующие алгоритмы в Поиск и Siri.

Все функции Apple призваны помочь остановить CSAM, и на бумаге это выглядит неплохо.

Тем не менее, организация по защите цифровых прав Electronic Frontier Foundation (EFF) раскритиковала Apple в своем сообщении и отметила, что внедрение компании открывает потенциальные лазейки в системе шифрования.

«Сказать, что мы разочарованы планами Apple, — значит ничего не сказать», — добавила EFF. Организация указала, что сканирование контента с использованием заранее определенной базы данных может привести к опасным вариантам использования. Например, в стране, где гомосексуальность является преступлением, правительство «может потребовать, чтобы классификатор был обучен ограничивать очевидный контент ЛГБТК +».

И тут сложно не согласиться. Самая большая проблема в том, что Apple не контролирует базу данных CSAM. Так что… кто знает, к чему это приведет через несколько лет.

Все выглядит так, будто они говорят: «Эй, теперь мы будем легально шпионить за вашими фотографиями». Хотя уверен, что у них и так уже есть всё. Тут только вопрос в легализации.

Жестокое обращение с детьми — это очевидное зло, которому сложно найти конкуренцию. Но попытка Apple работать на полицию, как мне кажется, может быть опасным делом.

У нас есть множество примеров того, как технологии, такие как распознавание лиц, не работают и невинные люди обвиняются в преступлениях, которых они никогда не совершали.

Функции Apple для CSAM появятся позже в этом году в обновлениях iOS 15, iPadOS 15, watchOS 8 и macOS Montere.

Ваш комментарий

Please enter your comment!
Пожалуйста, введите своё имя