Apple не будет искать детское порно на iPhone. Пока

0
0

Всем привет. Недавно Apple анонсировала, что встроит в iOS необычную систему. Она называется CSAM и ищет на устройстве снимки с сексуальным насилием над детьми. О любителях такого контента сообщается организациям, связанным с правоохранительными органами.

Apple не будет искать детское порно на iPhone. Пока

Цель благая, но не без изъянов. Эксперты обратили внимание, что CSAM может срабатывать ложно. Кроме того, нет гарантий, что новинку не используют власти некоторых стран. Им сканирование фото на iPhone послужит для корыстных целей. Например, для преследования оппозиции.

Также Apple столкнулась с негативной реакцией простых пользователей. Людям по душе, что их гаджеты следят за ними.

Сказанное вынудило компанию пересмотреть свои планы. Гигант из Купертино внезапно объявил, что приостанавливает внедрение CSAM. Apple нужно дополнительное время на доработку технологии. Она хочет учесть замечания специалистов и публики.

Дебют CSAM должен был состояться в середине сентября — после презентации iPhone 13. Когда теперь это произойдет — неизвестно.

Ваш комментарий

Please enter your comment!
Пожалуйста, введите своё имя