Воскресенье, 19 мая, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Экономические сценарии

Apple будет просматривать ВСЕ фотографии, загруженные в облако. Правильная цель, но наступает конец частной жизни и «Большой Брат»

Как подтверждается в пресс-релизе, Apple опубликовала сообщение, в котором подробно описывается, как она планирует внедрить функции защиты детей в трех областях: в новых инструментах, доступных для родителей, путем сканирования фотографий iPhone и iCloud, а также в обновлениях Siri и Research.

Функции, которые Apple представит, появятся позже в этом году с обновлениями для iOS 15, iPad OS 15, watchOS 8 и macOS Monterey.

«Эта программа амбициозна, и защита детей — важная обязанность. Со временем эти усилия будут развиваться и расширяться », — пишет Apple.

Среди основных новостей — приложение для сообщений, которое будет включать новые уведомления, которые будут предупреждать детей и их родителей о том, что первые собираются получить фотографии откровенно сексуального характера. Эти изображения также будут не в фокусе, и для их просмотра необходимо будет дать согласие.

Кроме того, родители будут уведомлены, если несовершеннолетний попытается отправить фотографии откровенно сексуального характера.

«Сообщения используют машинное обучение на устройстве для анализа прикрепленных изображений и определения сексуального характера фотографии. Эта функция разработана таким образом, что у Apple нет доступа к сообщениям », — поясняет Apple. Таким образом, теоретически, будет защита частной жизни.

Но это еще одно нововведение, вызывающее сомнения: Apple также планирует добавить обнаружение CSAM, что означает «материалы о сексуальном насилии над детьми». Относится к контенту, в котором описываются действия откровенно сексуального характера с участием ребенка. Новая система позволит Apple обнаруживать известные изображения CSAM, хранящиеся в iCloud Photos, и сообщать о них в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).

Apple заявляет, что ее метод обнаружения CSAM «разработан с учетом конфиденциальности пользователей». Вместо того, чтобы сканировать изображения в облако, система будет соответствовать на устройстве, используя базу данных, предоставленную NCMEC и другими организациями по безопасности детей. Затем Apple превращает эту базу данных в нечитаемый набор хэшей, которые надежно хранятся на устройствах пользователей.

Как бы то ни было, вы хотите поместить анализ изображений в iCloud, он требует, чтобы они были видны, и, возможно, не только программным обеспечением, а также потому, что, каким бы точным ни был анализ ИИ, тем не менее, необходим окончательный человеческий фильтр. Даже если скрыть все под красивой «Политикой конфиденциальности», у нас будет программное обеспечение или человек, который будет читать фотографии, сохраненные в iCloud, даже если для хорошей цели. Но что, если завтра к этим целям, безусловно важным с этической точки зрения, добавятся другие? Немаленькая проблема. Вы доверяете конфиденциальности данных, хранящихся в облаке?


Телеграмма
Благодаря нашему каналу Telegram вы можете быть в курсе публикаций новых статей об экономических сценариях.

⇒ Зарегистрируйтесь сейчас


Умы

В статье Apple будут показаны ВСЕ фотографии, загруженные в облако. Правильная цель, но конец конфиденциальности и «Большой брат» исходит от ScenariEconomici.it .


Это автоматический перевод публикации, опубликованной в журнале Scenari Economici по адресу https://scenarieconomici.it/apple-visionera-tutte-le-foto-caricate-sul-cloud-finalita-giusta-ma-fine-della-privacy-e-arriva-il-grande-fratello/ в Fri, 06 Aug 2021 06:00:48 +0000.