У відповідь на зростаючі занепокоєння щодо безпеки дітей в інтернеті, OpenAI оприлюднила структуру для посилення зусиль із захисту дітей у США в період буму штучного інтелекту. Структура безпеки дітей (Child Safety Blueprint), опублікована у вівторок, покликана допомогти швидшому виявленню, кращому інформуванню та ефективнішому розслідуванню випадків експлуатації дітей за допомогою ШІ.
Загальна мета Структури безпеки дітей — подолати тривожне зростання сексуальної експлуатації дітей, пов’язане з досягненнями у сфері ШІ. За даними Фонду нагляду за інтернетом (IWF), у першій половині 2025 року було виявлено понад 8000 повідомлень про контент сексуального насильства над дітьми, створений за допомогою ШІ, що на 14% більше порівняно з попереднім роком. Це включає випадки, коли злочинці використовують інструменти ШІ для генерування фальшивих відвертих зображень дітей з метою фінансового сексторшену та для створення переконливих повідомлень для грумінгу.
Структура OpenAI з’являється також на тлі посиленої уваги з боку політиків, освітян та захисників безпеки дітей, особливо з огляду на тривожні інциденти, коли молоді люди покінчили життя самогубством після ймовірної взаємодії з чат-ботами на основі ШІ.
Минулого листопада Центр правового захисту жертв соціальних мереж (Social Media Victims Law Center) та Проєкт закону про технологічну справедливість (Tech Justice Law Project) подали сім позовів до судів штату Каліфорнія, стверджуючи, що OpenAI випустила GPT-4o до того, як вона була готова. У позовах стверджується, що психологічно маніпулятивна природа продукту сприяла неправомірним смертям унаслідок самогубства та самогубствам з допомогою. Вони наводять чотирьох осіб, які померли внаслідок самогубства, та трьох інших, які зазнали тяжких, небезпечних для життя марень після тривалої взаємодії з чат-ботом.
Ця структура була розроблена у співпраці з Національним центром зниклих та експлуатованих дітей (NCMEC) та Генеральною прокурорською асоціацією (Attorney General Alliance), а також на основі відгуків генерального прокурора Північної Кароліни Джеффа Джексона та генерального прокурора Юти Дерека Брауна.
Компанія заявляє, що структура зосереджена на трьох аспектах: оновлення законодавства щодо матеріалів жорстокого поводження, створених ШІ, вдосконалення механізмів інформування правоохоронних органів та інтеграція профілактичних заходів безпеки безпосередньо в системи ШІ. Таким чином OpenAI прагне не лише виявляти потенційні загрози на ранніх етапах, але й забезпечити оперативне надходження корисної інформації слідчим.
Нова структура безпеки дітей від OpenAI ґрунтується на попередніх ініціативах, включаючи оновлені рекомендації щодо взаємодії з користувачами віком до 18 років, які забороняють генерування недоречного контенту або заохочення до самоушкодження, а також уникання порад, які допомогли б молоді приховувати небезпечну поведінку від опікунів. Нещодавно компанія випустила структуру безпеки для підлітків в Індії.

Залишити відповідь