Пентагон може розірвати контракт з відомою ШІ-компанією
На фото: будівля Пентагону. Джерело: "Вікіпедія"

Пентагон може розірвати контракт з відомою ШІ-компанією

Пентагон розглядає можливість припинення співпраці з компанією Anthropic через розбіжності щодо умов використання її моделей штучного інтелекту.

Anthropic — це американський стартап в галузі штучного інтелекту, заснований колишніми співробітниками OpenAI. Компанія спеціалізується на розробці загальних систем штучного інтелекту та мовних моделей, керуючись принципом відповідального використання ШІ.

Як повідомляє видання Axios, у міністерстві оборони США наполягають на праві застосовувати інструменти для "всіх законних цілей", включно з чутливими військовими сферами. Anthropic відмовляється знімати обмеження щодо використання ШІ в автономній зброї та масовому спостереженні.

Медійники, посилаючись на свої джерела, зазначили, що Пентагон може скоротити або повністю розірвати партнерство з Anthropic після місяців складних переговорів. Причиною стало небажання компанії дозволити використання її моделей для всіх напрямів військової діяльності без винятків.

Військове відомство вимагає від чотирьох провідних лабораторій штучного інтелекту дозволити застосування їхніх інструментів для "всіх законних цілей", включно з розробкою озброєнь, розвідкою та бойовими операціями. Anthropic наполягає, що дві категорії залишаються закритими — масове спостереження за американцями та повністю автономна зброя.

За словами неназваного чиновника, існує "значна сіра зона" щодо того, що саме підпадає під ці обмеження, і Пентагону незручно узгоджувати окремі сценарії використання або ризикувати блокуванням програм через обмеження моделі Claude.

"Усе обговорюється, зокрема скорочення партнерства або повне його розірвання. Але їм доведеться знайти упорядковану заміну, якщо ми вважаємо, що це правильне рішення", — зазначив неназваний високопосадовець.

Своєю чергою, речник Anthropic заявив, що компанія залишається відданою використанню штучного інтелекту на кордоні для підтримки національної безпеки США. Він також наголосив, що Anthropic не обговорювала використання Claude для конкретних операцій з Міністерством оборони та не вела таких дискусій із галузевими партнерами, крім технічних питань.

Видання зауважило, що торік влітку Anthropic уклала з Пентагоном контракт на суму до 200 мільйонів доларів, а Claude став першою моделлю, розгорнутою в засекречених мережах відомства. ChatGPT від OpenAI, Gemini від Google та Grok від xAI працюють у несекретному середовищі й погодилися зняти стандартні обмеження для співпраці з Пентагоном.

Міністерство оборони США веде з цими компаніями переговори про перехід до засекреченого простору та просуває стандарт "всі цілі законні" для будь-якого використання. За словами чиновника, одна з компаній уже погодилася на ці умови, а дві інші продемонстрували більшу гнучкість, ніж Anthropic.

Anthropic відома принциповою позицією щодо використання та регулювання ШІ. Генеральний директор компанії Даріо Амодей закликав світ "негайно прокинутися", попередивши, що надпотужні системи можуть перевершити людські можливості протягом одного-двох років і принести суттєві загрози. Він також розкритикував уряди та техногігантів за те, що ті, за його словами, заплющують очі на ризики посилення цифрового авторитаризму заради прибутків індустрії.

Нагадаємо, раніше видання The New York Times повідомляло, що поради щодо здоров'я, які надають чатботи зі штучним інтелектом, часто є неправильними. Чатботи не були кращими за Google, який і раніше вважали недосконалим у питаннях здоров'я, коли йдеться про визначення діагнозу або подальших дій.

Ми у соцмережах
TrueUA - Telegram TrueUA - Facebook TrueUA - X TrueUA - YouTube
Завантажити ще
Реклама