
OpenAI заявила, що у майбутньому її моделі штучного інтелекту можуть досягти рівня, який становитиме "високий" ризик для кібербезпеки. Компанія оприлюднила оцінку власних технологій і застерегла, що ці моделі потенційно можуть створювати "вразливості нульового дня" або допомагати у складних кіберопераціях.
Як повідомила компанія у своєму блозі, можливості моделей ШІ швидко зростають: результати тестів "захоплення прапора" підвищилися з 27% у GPT-5 до 76% у GPT-5.1-Codex-Max за кілька місяців. OpenAI заявила, що заздалегідь оцінює, чи здатна кожна нова модель досягти рівня, за якого штучний інтелект може розробляти робочі віддалені вразливості або сприяти вторгненням у критичні системи.
Також OpenAI зауважила, що інвестує у створення засобів для аналізу коду, виправлення вразливостей та підтримки команд кіберзахисту. Серед основних механізмів — контроль доступу, посилення інфраструктури, моніторинг і системи реагування.
"Під цим ми маємо на увазі моделі ШІ, які можуть або розробляти робочі віддалені вразливості нульового дня проти добре захищених систем, або суттєво допомагати у складних, прихованих операціях з вторгнення", — наголосили у компанії.
OpenAI додала, що навчає моделі відхиляти шкідливі запити та доповнює це системами моніторингу, які блокують або перенаправляють небезпечні дії. Компанія також співпрацює з червоними командами, які намагаються обійти всі захисні бар’єри, щоб виявити прогалини. Паралельно OpenAI працює зі світовою спільнотою кіберзахисників, зокрема через ініціативи з оцінювання кіберстійкості та спільне вивчення відповідних загроз.
Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний.