Apple погодилася не перевіряти ваші фото. Поки

17

Ми активно висвітлюємо тему нового алгоритму apple по обробці особистих фотографій. За цей час відбулося багато всього цікавого: від анонсу цієї функції до виправдань крейга федериги і виходу цілого faq від apple, в якому були розписані всі нюанси цієї технології. Загалом, чого тільки не було. дочекалися : apple відмовилася від функцій пошуку дитячого порно у ваших фотографіях, відклавши запуск. Здається, звичайні користувачі здобули невелику перемогу в боротьбі за конфіденційність даних. Розповідаємо, що сталося і чи переміг здоровий глузд насправді.

Здається, apple передумала копатися у ваших фотографіях. Чи ні?

Навіщо apple перевіряти фото

Перший анонс нового алгоритму пошуку матеріалів сексуального насильства над дітьми під назвою csam (child sexual abuse material) відбувся 5 серпня 2021 року, викликавши потужну негативну реакцію в мережі. Функції включали в себе пошук зображень сексуального насильства над дітьми за допомогою спеціального алгоритму. Алгоритм також здатний блокувати потенційно неприйнятні повідомлення, відправлені в imessage.

Apple варто зовсім відмовитися від перевірки фотографій

Пізніше компанія пояснила, що оновлення торкнеться тільки фотографії, завантажені в icloud у підозрюваних в цьому діянні. Компанія відхрестилася від того, що знайдений контент буде доступний їй, національному центру зниклих і експлуатованих дітей (ncmec) або поліції.

Apple відмовилася перевіряти фото. Ось чому

Компанія роз’яснила, що вирішила призупинити запуск цієї функції і відкласти впровадження нового алгоритму після великої кількості негативних відгуків користувачів. Apple заявляє, що планує приділити більше часу розробці і консультаціям з приводу впровадження нового алгоритму. Незважаючи на початкові заяви про високу точність роботи технології, компанія планує доопрацювати її і зібрати більше інформації, щоб внести поліпшення.

Новий алгоритм буде нахабно ритися серед ваших фотографій. Кінець конфіденційності?

Пов’язано це з тим, щоб не злити користувачів і не робити з них підозрюваних — нова функція повинна допомогти захищати дітей і захищати їх від небезпеки, а не відправляти невинних користувачів за грати. Точного терміну, на скільки відкладається впровадження алгоритму, компанія не вказує, але каже, що буде покращувати його «в найближчі місяці». Це правильний хід, адже мова йде не про рядовому оновленні ios, а про свободу людей — тут не вийде викрутитися, випустивши оновлення.

Крім того, немає ніякого докладного опису, як компанія планує «консультуватися» і з ким, щоб зібрати інформацію — можливо, це вже якимось чином зачіпає особисті дані користувачів. Гадати можна неймовірно довго, а точну відповідь є лише у компанії. А що ви думаєте з цього приводу? напишіть нам в telegram-чат, давайте обговоримо.

Як apple відреагувала на критику csam

Обурення користувачів і широкий суспільний резонанс зіграли на руку: висловилися експерти в області інформаційної безпеки і навіть сам едвард сноуден, який закликав apple зупинитися і не реалізовувати функції. Це правильно, адже де пошук забороненого дитячого контенту, там недалеко і до стеження за користувачами. Компанія анонсувала нововведення, намагаючись зробити щось хороше , але роз’яснювати принцип його дії почала лише через якийсь час, випускаючи прес-релізи і цілі пояснювальні статті з цього приводу.

Крейг федериги спробував всіх заспокоїти, але вийшло так собі

Незважаючи на скарги , крейг федериги спробував всіх заспокоїти , особисто пояснивши принцип роботи нового механізму обробки фотографій. Він назвав плутаниною весь негатив, що обрушився на компанію в результаті анонсування нововведень, і заявив, що користувачі неправильно зрозуміли наміри компанії.

Ми хотіли б, щоб це стало зрозуміліше для всіх, тому що ми дуже позитивно і рішуче ставимося до того, що робимо, і бачимо, але це неправильно розуміється, — сказав крейг федериги.

Apple буде перевіряти фото. Чому це погано

Компанія пишається тими системами безпеки, які щорічно оновлює і покращує. Ви скануєте обличчя через face id або прикладаєте палець, щоб розблокувати iphone за допомогою touch id. Це захищає пристрій від недоброзичливців. Раптово виробник додає функцію, яка здатна безперешкодно влізти в ваш пристрій і хмарне сховище, щоб знайти якийсь неприйнятний, на її думку, контент. що вона з ним зробить?

У чому сенс touch id, якщо apple зможе безперешкодно проникати у ваші фотографії?

Складно зрозуміти, адже механізм, за заявами компанії, буде працювати дуже точно, але доступу до контенту не матиме ні apple, ні поліція, ні правозахисні організації. Де гарантії того, що алгоритм не буде красти дані або красти особисті фотографії користувачів? гарантій, як завжди, немає. Крім того, це порушує право користувачів на недоторканність особистих даних — зрозуміло, що нерозумно на це сподіватися в 2021 році, але так нахабніти просто не варто.

Компанія і так має доступ до даних користувачів-частина даних шифрується для захисту від злому, але за запитом влади apple запросто розшифрує їх, тому що корпорації не потрібні проблеми з законом і заборона на діяльність. Алгоритм csam-непогана спроба відкрутитися від стеження за користувачами, тільки нікому він не потрібен і не подобається. Люди купують дорогі смартфони apple і користуються сервісами компанії, яка заявляє, що конфіденційність — це її сильна сторона. Виходить, що зовсім навпаки. Чекаємо продовження в цій історії.