Steve Johnson/Unsplash
Провідні компанії у сфері штучного інтелекту, включно з Google, Meta, OpenAI, Microsoft і Amazon, домовилися вжити заходів щодо запобігання використанню матеріалів про сексуальну експлуатацію дітей (CSAM) у навчальних наборах даних для моделей ШІ.
Що відомо
Технологічні гіганти підписали новий перелік принципів, спрямованих на обмеження поширення CSAM. Вони зобов’язуються гарантувати, що тренувальні дані не містять шкідливого контенту, уникати наборів даних із високим ризиком включення таких матеріалів, а також видаляти подібні зображення або посилання на них із джерел даних.
Крім того, компанії мають намір проводити “стрес-тестування” моделей ШІ, щоб переконатися, що вони не генерують CSAM-контент, і випускати моделі тільки після оцінки їхньої відповідності вимогам дитячої безпеки.
До ініціативи також приєдналися такі компанії, як Anthropic, Civitai, Metaphysic, Mistral AI та Stability AI.
Зростання популярності генеративного ШІ сприяло поширенню підроблених зображень у мережі, зокрема синтетичних фотографій сексуальної експлуатації дітей. Нещодавні дослідження виявили присутність посилань на CSAM-матеріали в деяких популярних тренувальних наборах даних для ШІ-моделей.
Некомерційна організація Thorn, що займається боротьбою з насильством над дітьми та допомагала розробляти принципи, попереджає, що генерування CSAM за допомогою АІ може перешкодити виявленню жертв, створити більший попит і полегшити пошук і поширення проблемних матеріалів.
Google повідомляє, що поряд з прийняттям принципів компанія також збільшила рекламні гранти Національному центру допомоги зниклим і експлуатованим дітям (NCMEC) для просування ініціатив з підвищення обізнаності та надання людям інструментів для виявлення і повідомлення про зловживання.
Джерело: The Verge