Правозащитные организации выступили против сканирования фотографий на iPhone

0
2

На днях Apple анонсировала систему CSAM, которая займется выявлением детской порнографии. Делать это она будет на iOS — автоматически сканируя фотографии пользователя. Если что найдет — доложит куда надо.

Цель у CSAM достойная. А вот у методов нашлись противники. Во-первых, сами владельцы iPhone и iPad. Мало кому хочется, чтобы Apple просматривала личные снимки. Пусть даже с помощью алгоритма.

Правозащитные организации выступили против сканирования фотографий на iPhone

Во-вторых, возмутились правозащитники по всему миру. Стало известно о появлении открытого письма Apple. Обращение подписали более 90 организаций по защите гражданских прав.

Они просят Apple отказаться от внедрения CSAM. По простой причине: новинку в своих интересах используют власти многих стран. Они начнут давить на гиганта из Купертино, пытаясь расширить диапазон нежелательных изображений.

Детской порнографией дело не ограничится. Apple станут заставлять — в том числе юридически — искать различные материалы. Например, фото, выставляющие крупных политиков в негативном свете. Или картинки, связанные с протестами.

CSAM — по мнению авторов письма — способствует повсеместной слежке и цензуре. Поэтому Apple лучше вспомнить о ценностях конфиденциальности. Пока еще не поздно.

Ваш комментарий

Please enter your comment!
Пожалуйста, введите своё имя