OpenAI додає інструменти з відкритим кодом, щоб допомогти розробникам створювати продукти з безпекою для підлітків

Фото для новини: OpenAI додає інструменти з відкритим кодом, щоб допомогти розробникам створювати продукти з безпекою для підлітків

OpenAI у вівторок повідомила, що випускає набір підказок (prompts), які розробники можуть використовувати, щоб зробити свої застосунки безпечнішими для підлітків. ШІ-лабораторія заявила, що цей набір політик безпеки для підлітків можна використовувати з її моделлю безпеки з відкритою вагою gpt-oss-safeguard.

Замість того, щоб розробляти з нуля механізми безпеки ШІ для підлітків, розробники можуть використовувати ці підказки для посилення своїх продуктів. Вони охоплюють такі питання, як графічне насильство та сексуальний контент, шкідливі ідеали та поведінку щодо тіла, небезпечні дії та випробування, романтичну або насильницьку рольову гру, а також товари та послуги з віковими обмеженнями.

Ці політики безпеки розроблені як підказки, що робить їх легко сумісними з іншими моделями, крім gpt-oss-safeguard, хоча вони, ймовірно, найефективніші в екосистемі OpenAI.

Для написання цих підказок OpenAI співпрацювала з організаціями з безпеки ШІ Common Sense Media та everyone.ai, як повідомила компанія.

«Ці політики на основі підказок допомагають встановити значущий мінімальний рівень безпеки в усій екосистемі, і оскільки вони випущені з відкритим кодом, їх можна адаптувати та вдосконалювати з часом», — заявив у своїй заяві Роббі Торні, керівник відділу оцінки ШІ та цифрових технологій у Common Sense Media.

OpenAI зазначила у своєму блозі, що розробники, зокрема досвідчені команди, часто стикаються з труднощами при перетворенні цілей безпеки на точні та практичні правила. «Це може призвести до прогалин у захисті, непослідовного застосування правил або надто широкої фільтрації», — написала компанія. «Чіткі, добре окреслені політики є критично важливою основою для ефективних систем безпеки».

OpenAI визнає, що ці політики не є вирішенням складних проблем безпеки ШІ. Однак вони ґрунтуються на попередніх зусиллях компанії, включаючи засоби захисту на рівні продуктів, такі як батьківський контроль та прогнозування віку. Минулого року OpenAI оновила настанови для своїх великих мовних моделей (відомі як Model Spec), щоб визначити, як її моделі ШІ повинні поводитися з користувачами віком до 18 років.

Однак сама OpenAI не має бездоганної репутації. Компанія стикається з кількома позовами, поданими сім’ями людей, які вчинили самогубство після надмірного використання ChatGPT. Такі небезпечні взаємодії часто виникають, коли користувач оминає захисні механізми чатбота, і жодні обмеження моделі не є абсолютно непроникними. Проте ці політики є принаймні кроком вперед, особливо враховуючи, що вони можуть допомогти незалежним розробникам.

Comments

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *