Apple проверит смартфоны

apple , изображение , конфиденциальность

На смартфоны, продаваемые в США, будет устанавливаться ПО для сканирования изображений на предмет детской порнографии.

Изображение: Getty Images

Apple будет внедрять систему под названием neuralMatch, задача которой анализировать изображения на смартфоне и уведомлять «команду рецензентов», если будут найдены незаконные изображения. Далее уже будет принято решение, передавать ли полученную информацию в правоохранительные органы для расследования ситуации, или нет. Изначально ПО будет внедряться только на территории США. Алгоритм сканирует не только изображения на iPhone, но и загруженные в iCloud, а далее сравнивает их с фотографиями в базе данных известных изображений сексуального насилия над детьми.

Будет ли эта система оценивать изображение как законное или незаконное – зависит от того, как компания настроила алгоритм. По словам представителей Apple, для neuralMatch использованы более двухсот тысяч изображений сексуального насилия, собранные некоммерческим Национальным центром США по пропавшим без вести и эксплуатируемым детям.

Пока система обучена распознавать именно изображения, связанные с сексуальным насилием над детьми, не исключено, что в будущем она может быть адаптирована для сканирования других целевых изображений и текста.

По мнению экспертов Financial Times, планы Apple вызывают тревогу среди исследователей безопасности: не исключено, что такое ПО создаст уязвимости и может поставить под угрозу личные данные миллионов пользователей, а прецедент Apple усилит давление на аналогичные компании, чтобы они внедряли подобные методы.

Какие гарантии будут действовать в случае ошибки или ложного срабатывания neuralMatch, а также кто будет нести ответственность за ошибочную идентификацию, разрушающую жизнь и репутацию – производитель пока не поясняет.

 

По материалам www.xbiz.com.