OpenAI оголошує програму винагород за помилки – TechCult
Різне / / April 12, 2023
Буквально минулого місяця в ChatGPT виникла серйозна помилка, яка дала деяким користувачам можливість переглядати історії розмов інших. Подібна помилка може викликати занепокоєння та погано вплинути на репутацію такої компанії OpenAI який обробляє обсяги конфіденційних даних. Таким чином, OpenAI оголошує про програму винагород за помилки, яка винагородить людей, які знайдуть помилки в ChatGPT, чималими винагородами.
![OpenAI оголошує програму винагород за помилки](/f/1dab131263f085a705f440911a435f39.png)
Запрошуючи зовнішню допомогу, OpenAI використовує проактивний підхід до пошуку та усунення будь-яких вразливостей або недоліків, які можуть виникнути в їхніх системах ШІ. Вони співпрацюють з Bugcrowd, провідною платформою винагород за помилки, щоб керувати процесом подання та винагороди. Відповідно до Сторінка повідомлення про помилку OpenAI забезпечить винагороду в діапазоні від 200 до 6500 доларів США за вразливість і максимальну винагороду до 20 000 доларів США.
OpenAI вважає, що прозорість і співпраця є ключем до успіху у створенні безпечних систем ШІ. Вони хочуть працювати разом із спільнотою дослідників безпеки, щоб гарантувати, що їхня технологія безпечна для всіх. Беручи участь у програмі винагород за помилки, люди можуть відігравати вирішальну роль у забезпеченні безпеки систем і користувачів OpenAI.
Програма Bug Bounty компанії здійснюється в партнерстві з Bugcrowd. На їхньому веб-сайті є детальні інструкції та правила участі. У своїх Приклади питань безпеки, які виходять за рамки, в ньому зазначено:
- Втеча з в’язниці/обхід безпеки (наприклад, DAN і пов’язані підказки)
- Змусити модель говорити вам погані речі
- Змусити модель підказувати вам, як робити погані речі
- Змусити модель написати для вас шкідливий код
Хоча OpenAI вирішив серйозну проблему в ChatGPT, яка дозволяла користувачам переглядати історію розмов інших, ці типи хаків можуть показати, як вразливі системи штучного інтелекту можуть бути, OpenAI каже, що вони не підходять для програми винагороди за помилки, оскільки вони не є окремими помилками, які можна легко фіксований. Натомість вони вимагають серйозних досліджень і ширшого підходу.
Тож, якщо ви дослідник безпеки чи етичний хакер із поглядом на деталі, почніть шукати помилки! Ваш досвід і пильність можуть безпосередньо вплинути на те, щоб зробити технологію OpenAI безпечнішою для всіх. Відвідайте Сторінка Bugcrowd OpenAI і надішліть свої висновки. Але пам’ятайте, що джейлбрейк заборонений!
Джерело: Сторінка повідомлення про помилку OpenAI
![Алекс Крейг](/f/82c0af5dbedfba7e1fc95a8d7136c74d.jpg)
Алекс Крейг
Алекс керує пристрастю до технологій та ігрового контенту. Граючи в новітні відеоігри, слідкуючи за останніми технічними новинами чи залучаючи разом з іншими однодумцями в мережі, любов Алекса до технологій та ігор помітна в усьому, що він робить.
Алекс керує пристрастю до технологій та ігрового контенту. Граючи в новітні відеоігри, слідкуючи за останніми технічними новинами чи залучаючи разом з іншими однодумцями в мережі, любов Алекса до технологій та ігор помітна в усьому, що він робить.