Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Изображение Apple
4343

Это ужасное решение, которое подрывает один из ключевых value proposition iPhone: пользователь сам контролирует свои данные.

Даже если они откатят это решение (а думаю, так и будет), сам факт того, что они это предлагали, будет иметь долгоиграющие последствия для всей индустрии.

Похоже на РКН. Начнём с детей, продолжим чем поинтереснее.

Только с дырой для обхода e2e. Мол, мы не расшифровываем сообщения, мы делаем on device matching и отсылаем в органы только подозрительные.

On Device СОРМ.

39
Ответить

Ещё один чукча не читатель, чукча писатель.
Ничего никуда не отсылается. Сравнивается на устройстве и уходит только факт совпадения. «на том то устройстве сработало совпадение с оьъектом номер 100500».

Сравнивать с ркном затребовавшем в чистом виде хранить все и вся некорректно

5
Ответить

Комментарий недоступен

3
Ответить