Пентагон розглядає можливість припинення співпраці з компанією Anthropic через розбіжності щодо умов використання її моделей штучного інтелекту.Anthropic — це американський стартап в галузі штучного інтелекту, заснований колишніми співробітниками OpenAI. Компанія спеціалізується на розробці загальних систем штучного інтелекту та мовних моделей, керуючись принципом відповідального використання ШІ.Як повідомляє видання Axios, у міністерстві оборони США наполягають на праві застосовувати інструменти для "всіх законних цілей", включно з чутливими військовими сферами. Anthropic відмовляється знімати обмеження щодо використання ШІ в автономній зброї та масовому спостереженні.Медійники, посилаючись на свої джерела, зазначили, що Пентагон може скоротити або повністю розірвати партнерство з Anthropic після місяців складних переговорів. Причиною стало небажання компанії дозволити використання її моделей для всіх напрямів військової діяльності без винятків.Військове відомство вимагає від чотирьох провідних лабораторій штучного інтелекту дозволити застосування їхніх інструментів для "всіх законних цілей", включно з розробкою озброєнь, розвідкою та бойовими операціями. Anthropic наполягає, що дві категорії залишаються закритими — масове спостереження за американцями та повністю автономна зброя.За словами неназваного чиновника, існує "значна сіра зона" щодо того, що саме підпадає під ці обмеження, і Пентагону незручно узгоджувати окремі сценарії використання або ризикувати блокуванням програм через обмеження моделі Claude."Усе обговорюється, зокрема скорочення партнерства або повне його розірвання. Але їм доведеться знайти упорядковану заміну, якщо ми вважаємо, що це правильне рішення", — зазначив неназваний високопосадовець.Своєю чергою, речник Anthropic заявив, що компанія залишається відданою використанню штучного інтелекту на кордоні для підтримки національної безпеки США. Він також наголосив, що Anthropic не обговорювала використання Claude для конкретних операцій з Міністерством оборони та не вела таких дискусій із галузевими партнерами, крім технічних питань.Видання зауважило, що торік влітку Anthropic уклала з Пентагоном контракт на суму до 200 мільйонів доларів, а Claude став першою моделлю, розгорнутою в засекречених мережах відомства. ChatGPT від OpenAI, Gemini від Google та Grok від xAI працюють у несекретному середовищі й погодилися зняти стандартні обмеження для співпраці з Пентагоном.Міністерство оборони США веде з цими компаніями переговори про перехід до засекреченого простору та просуває стандарт "всі цілі законні" для будь-якого використання. За словами чиновника, одна з компаній уже погодилася на ці умови, а дві інші продемонстрували більшу гнучкість, ніж Anthropic.Anthropic відома принциповою позицією щодо використання та регулювання ШІ. Генеральний директор компанії Даріо Амодей закликав світ "негайно прокинутися", попередивши, що надпотужні системи можуть перевершити людські можливості протягом одного-двох років і принести суттєві загрози. Він також розкритикував уряди та техногігантів за те, що ті, за його словами, заплющують очі на ризики посилення цифрового авторитаризму заради прибутків індустрії.Нагадаємо, раніше видання The New York Times повідомляло, що поради щодо здоров'я, які надають чатботи зі штучним інтелектом, часто є неправильними. Чатботи не були кращими за Google, який і раніше вважали недосконалим у питаннях здоров'я, коли йдеться про визначення діагнозу або подальших дій..

Поради щодо здоров'я, які надають чатботи зі штучним інтелектом, часто є неправильними. Чатботи не були кращими за Google, який і раніше вважали недосконалим у питаннях здоров'я, коли йдеться про визначення діагнозу або подальших дій.Про це стало відомо з дослідження оприлюдненого у журналі Nature Medicine, пише The New York Times.Технології чатботів зі штучним інтелектом створюють специфічні ризики. Так, іноді вони надавали неправдиву інформацію або суттєво змінювали рекомендації залежно від незначних змін у формулюванні запитання. Дослідники зробили висновок, що жодна з моделей ШІ, оцінених у межах експерименту, не є "готовою до застосування в безпосередньому догляді за пацієнтами". Медійники додали, що це перше рандомізоване дослідження такого типу."Попри весь ажіотаж, ШІ просто ще не готовий узяти на себе роль лікаря", — зазначає лікарка Ребекка Пейн.У газеті зауважили, що за три роки відтоді, як чатботи стали публічно доступними, питання про здоров'я стали однією з найпоширеніших тем звернень користувачів. Зазначається, що, деякі медики регулярно приймають пацієнтів, які перед цим зверталися до моделі ШІ за "першою думкою". Опитування показують, що приблизно кожен шостий дорослий користується чатботами для пошуку медичної інформації щонайменше раз на місяць.Своєю чергою, великі технологічні компанії, зокрема Amazon і OpenAI, запустили продукти, спеціально призначені для відповідей на запитання про здоров'я. Такі моделі складали медичні ліцензійні іспити та демонстрували кращі результати за лікарів у складних діагностичних завданнях. Втім, професор Оксфордського інституту інтернету Адам Махді, старший автор нового дослідження, припустив, що чітко сформульовані тестові запитання не відображають реальну клінічну практику."Пацієнти повинні усвідомлювати, що звернення до великої мовної моделі із запитаннями про свої симптоми може бути небезпечним: вона може поставити неправильний діагноз і не розпізнати ситуацію, коли потрібна термінова допомога", — додала співавторка дослідження Ребекка Пейн.Дослідники залучили понад 1,2 тисячі учасників із Великої Британії, більшість із яких не мали медичної освіти. Їм надали детальний медичний сценарій із симптомами, описом способу життя та історією хвороби. Вони повинні були поспілкуватися з чатботом, щоб визначити правильні подальші кроки — наприклад, викликати швидку чи лікуватися вдома. Тестували комерційно доступні моделі, зокрема ChatGPT від OpenAI та Llama від Meta.Так, менше ніж у половині випадків люди після спілкування з чатботом обирали "правильний" варіант дій, визначений групою лікарів. Правильний діагноз (наприклад, жовчнокам'яну хворобу чи субарахноїдальний крововилив) вони встановлювали приблизно у 34% випадків."Це не відрізнялося від результатів контрольної групи, якій запропонували виконати те саме завдання, використовуючи звичні способи пошуку інформації переважно Google", — зазначили медійники.Після цього дослідники оцінили результати і встановили, що штучний інтелект часто надавав "суміш хорошої та поганої інформації". Водночас цю інформацію користувачам було важко відрізнити. Відповідні дослідження показують, як взаємодія з чатботами може призводити до помилок. Приблизно в половині випадків причиною були дії самих користувачів: вони не вводили достатньо інформації або не зазначали найважливіших симптомів. У результаті чатботи надавали поради, не маючи повної картини щодо проблеми."Наприклад, одна з моделей припустила, що "сильний біль у животі", який тривав годину, міг бути спричинений розладом травлення", — зазначили у газеті.Проте, учасник експерименту не вказав деталі про інтенсивність, локалізацію та частоту болю. Саме ці дані могли б спрямувати чатбот до правильного діагнозу (жовчнокам'яної хвороби). Натомість коли дослідники вводили повний медичний сценарій безпосередньо в чатботи, ті правильно визначали проблему у 94% випадків.Медійники зауважили, що у кількох випадках чатботи також давали вигадану інформацію. В одному з епізодів модель порадила учаснику зателефонувати на "екстрену лінію", номер якої був вигаданий і мав недостатню кількість цифр. Також вчені виявили ще одну проблему: навіть несуттєві відмінності в тому, як учасники описували свої симптоми або формулювали запитання, значно змінювали рекомендації, які надавав чатбот. За словами дослідників, експеримент не повністю відображає реальні умови: учасники працювали з вигаданими сценаріями, а не власними симптомами. Крім того, моделі ШІ постійно оновлюються, тож версії, які використовували під час дослідження рік тому, можуть відрізнятися від сучасних.Представник OpenAI заявив, що сучасні моделі набагато краще відповідають на медичні запитання та рідше припускаються типових помилок, зокрема вигаданих фактів або хиб у невідкладних ситуаціях. Своєю чергою, Meta на запит щодо коментаря не відповіла.Нагадаємо, раніше науковці встановили, що з 1990 років кількість людей, які страждають від ожиріння чи надмірної ваги, у світі подвоїлася. Окрім цього, встановлено, що до 2050 року 60% людей віком від 25 років і 30% дітей і молодих людей страждатимуть від ожиріння..

Американський мільярдер та винахідник Ілон Маск повідомив про реорганізацію свого стартапу зі штучного інтелекту xAI через кілька днів після його злиття зі SpaceX. Зміни передбачають звільнення частини співробітників і нову структуру компанії.Як повідомляє видання The Wall Street Journal, про відповідне рішення Маск оголосив під час одного із заходів, відео якого опублікували в соцмережі X 11 лютого. За словами мільярдера, реорганізація стала наслідком швидкого зростання компанії."У міру зростання компанії природним явищем є її реорганізація. Оскільки ми досягли певного масштабу, ми організовуємо компанію, щоб вона була більш ефективною в цьому масштабі", — зазначив Маск.Мільярдер уточнив, що частина співробітників залишає компанію, адже вона краще підходить для ранніх стадій розвитку xAI. Серед тих, хто пішов напередодні, — співзасновники стартапу Джиммі Ба та Тоні Ву.Медійники зауважили, що цього місяця SpaceX придбала xAI в межах злиття, яке оцінило трирічний ШІ-стартап у 250 мільярдів доларів, а об’єднану компанію — у 1,25 трильйона доларів. Маск також заявив, що має намір зробити SpaceX публічною компанією до липня.Під час зустрічі він представив нову структуру xAI з чотирьох основних напрямів. Окремі команди працюватимуть над чат-ботом Grok, моделлю ШІ для кодування, системою генерації зображень та проєктом Macrohard. Останній спрямований на моделювання програмних продуктів за допомогою штучного інтелекту."Проєкт Macrohard з часом, ймовірно, стане нашим найважливішим проєктом, тому що ми говоримо про емуляцію цілих людських компаній", — наголосив Маск. Він зауважив, що xAI вже випереджає конкурентів у сферах генерації зображень і відео, голосового ШІ та прогнозування. За словами співробітників компанії, користувачі створюють близько 50 мільйонів відео на день за допомогою інструменту Grok Imagine. Відповідну функцію компанія почала розробляти близько шести місяців тому."Якщо ви рухаєтесь швидше за будь-кого іншого, ви будете лідером, а xAI рухається швидше за будь-кого іншого", — заявив Маск.Мілярдер також наголосив, що сервіс X має в середньому 600 мільйонів активних користувачів на місяць, а загальна кількість встановлень перевищила мільярд. Найближчими місяцями компанія планує запустити окремий застосунок X Chat і нову функцію X Money.Нагадаємо, раніше журнал Forbes повідомляв, що Ілон Маск досяг нових фінансових успіхів. Його статки сягнули понад 800 мільярдів доларів..

Жінки, які працюють у сферах технологій та фінансових послуг, мають вищий ризик втрати роботи через технології штучного інтелекту й автоматизацію, ніж чоловіки. Про це йдеться у новому звіті City of London Corporation (Корпорації Лондонського Сіті), пише The Guardian.У досліджені зазначається, що жінки "в середині кар’єри" з досвідом роботи понад п’ять років часто залишаються поза увагою роботодавців. Йдеться насамперед про посади в технологіях, фінансах і професійних послугах, де працює менше жінок, ніж чоловіків.Корпорація, яка управляє лондонською Square Mile, зафіксувала дискримінацію жінок через жорсткі, а інколи автоматизовані процедури відбору. Відповідні системи не враховують кар’єрні перерви, пов’язані з доглядом за дітьми або родичами, а також звужено оцінюють попередній досвід.Задля того, щоб змінити ситуацію, у звіті рекомендують роботодавцям зосередитися на перекваліфікації жінок, які нині не обіймають технічних посад. Особливу увагу пропонують приділити канцелярським працівницям, чиїм робочим місцям найбільше загрожує автоматизація.За оцінками, які були наведені у звіті, протягом наступного десятиліття автоматизація може витіснити близько 119 тисяч канцелярських посад у технологічному, фінансовому та професійному секторах. Зазначається, що перекваліфікація цих працівниць здатна заощадити компаніям понад мільярд доларів на виплатах при скороченнях.Автори звіту наголошують, що розвиток навичок дозволить роботодавцям оцінювати потенціал кандидатів, а не лише їхній формальний технічний досвід. За підрахунками, щорічно до 60 тисяч жінок покидають роботу в технологічній сфері через відсутність кар’єрного зростання, визнання та належної оплати.Також у звіті наголосили, що підвищення зарплат вище середнього рівня не розв'язує проблему нестачі фахівців. За прогнозами, розрив у цифрових талантах зберігатиметься щонайменше до 2035 року, що може коштувати британській економіці понад 13,7 мільярда доларів зростання.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Кількість активних користувачів чат-бота Gemini від Google перевищила 750 мільйонів на місяць, але компанія все ще поступається ChatGPT від OpenAI, яка має 810 мільйонів активних користувачів щомісяця. Зростання пов’язують зі швидким впровадженням ШІ та оновленням провідних моделей штучного інтелекту.Як повідомляє видання TechCrunch, Meta AI повідомляє про майже 500 мільйонів активних користувачів щомісяця.Відповідні дані з’явилися невдовзі після запуску Gemini 3, яка мала високий попит. Нова версія, за твердженням розробникі, демонструє безпрецедентну глибину та увагу до всіх нюансів відповідей. Генеральний директор Google Сундар Пічаї назвав впровадження Gemini 3 позитивним фактором зростання та наголосив, що подальші інвестиції та ітерації підтримуватимуть цей імпульс."Запуск Gemini 3 став важливою віхою, і ми маємо чудовий імпульс. Наші моделі, такі як Gemini, зараз обробляють понад 10 мільярдів токенів на хвилину через пряме використання API нашими клієнтами. Пошук використовувався більше, ніж будь-коли раніше, а штучний інтелект продовжує стимулювати зростання", — наголосив Пічаї.Також чинником, який спонукатиме зростання буде новий тарифний план Google AI Plus вартістю 7,99 долара на місяць. У компанії зазначають, що він орієнтований на більш чутливих до ціни користувачів, хоча поки не вплинув на квартальні результати."Ми зосереджені на безплатному рівні та підписках і бачимо значне зростання", — додав головний бізнес-директор Google Філіп Шиндлер.У виданні зазначили, що зростання популярності Gemini відбувається на тлі сильних фінансових результатів Alphabet. У цьому кварталі річний дохід компанії вперше перевищив 400 мільярдів доларів, а її капіталізація сягнула чотирьох трильйонів доларів, завдяки чому вона випередила Apple та стала другою найдорожчою компанією світу.За словами медійників, попри те, що Gemini демонструє кращі результати в технічних тестах і отримує схвальні відгуки експертів, ChatGPT продовжує домінувати на ринку. За даними Bloomberg, такий розрив зумовлений "ефектом першопрохідця" та різними стратегіями. Так, поки Google фокусується на наукових досягненнях та інтеграції в офісні сервіси, OpenAI агресивно працює на утримання уваги та формування звички у користувачів.Нагадаємо, раніше OpenAI оголосила про запуск Prism — спеціалізованого застосунку для наукових досліджень і текстів. Інструмент орієнтований на роботу з LaTeX і має вбудований штучний інтелект на базі моделі компанії GPT-5.2..

Американська компанія Google запускає в браузері Chrome нового помічника зі штучним інтелектом Auto Browse. Він здатен відкривати вебсайти та натискати кнопки від імені користувачів. Як повідомляє агентство Bloomberg, помічник працює на базі Gemini та інтегрований безпосередньо в браузер. Нововведення незабаром стане доступне користувачам платних ШІ-тарифів у Сполучених Штатах Америки.За словами директорки продукту Шармен Д’Сільви, Auto Browse надає можливість виконувати завдання на кшталт онлайн-покупок або планування подорожей у браузері. Користувач може попросити Gemini відкрити сайти авіакомпаній і готелів для порівняння цін, не виходячи з браузера Chrome."Наші тестувальники використовували його для найрізноманітніших речей: планування зустрічей, заповнення виснажливих онлайн-форм, збір податкових документів, перевірка оплати рахунків, управління підписками та пришвидшення поновлення водійських прав — це заощадило купу часу", — зазначила віцепрезидентка Chrome Паріса Табріз.Д'Сілва зауважила, що після активації функції Personal Intelligence у Chrome помічник може допомагати користувачеві з логістикою поїздок. Зокрема, він здатен враховувати шкільний розклад і вже заплановані зустрічі, щоб запропонувати найкращі варіанти. Медійники наголосили, що функція автоматичного перегляду буде доступна передплатникам AI Pro та AI Ultra у США. Задля входу на сайти від імені користувача агент використовуватиме Google Password Manager.Разом з цим компанія інтегрує в Chrome інструмент для генерації зображень Nano Banana. У Google наголосили, що штучний інтелект не зможе ухвалювати фінальні рішення, зокрема розміщувати замовлення, без підтвердження людини."Ми використовуємо штучний інтелект, а також моделі на пристроях, щоб захистити людей від шахрайства та більш витончених зловмисників", — наголосила Табріз.Нагадаємо, торік у грудні Google оголосила про запуск Gemini 3 Flash. Це нова модель штучного інтелекту з оптимізованою швидкістю. Вона поєднує можливості міркування рівня Gemini 3 із нижчою затримкою та значно нижчою вартістю..

Компанія Google DeepMind анонсувала новий інструмент штучного інтелекту AlphaGenome. Він призначений для дослідження генетичних захворювань. Як повідомляє The Guardian, розробка покликана допомогти вченим зрозуміти, як мутації впливають на роботу генів. Так, у перспективі це може відкрити шлях до нових методів лікування.Розробники Google DeepMind заявили, що AlphaGenome допоможе визначати генетичні чинники захворювань і пришвидшити розробку терапій. Інструмент прогнозує, як мутації змінюють регуляцію генів, зокрема де і в яких клітинах вони активуються.Медійники додали, що більшість поширених спадкових хвороб, зокрема серцево-судинні, аутоімунні розлади та порушення психічного здоров’я, пов’язані безпосередньо з регуляторними мутаціями. Такі ж механізми лежать в основі багатьох видів раку, але ідентифікувати основні збої досі складно."Ми розглядаємо AlphaGenome як інструмент для розуміння того, що роблять функціональні елементи геному, і сподіваємося, що це пришвидшить наше фундаментальне розуміння коду життя", — заявила дослідниця DeepMind Наташа Латишева у ході брифінгу.У виданні додають, що геном людини складається з приблизно трьох мільярдів пар літер ДНК. Лише близько двох відсотків цього коду відповідають за створення білків, тоді як решта контролює, коли, де і з якою інтенсивністю працюють гени."AlphaGenome навчили на публічних базах даних генетики людини та миші. ШІ може одночасно аналізувати до мільйона літер ДНК і передбачати вплив мутацій на різні біологічні процеси", — зауважили медійники.У DeepMind наголосили, що інструмент допоможе точніше визначати критичні ділянки геному для розвитку тканин, зокрема нервових і печінкових. Також AlphaGenome може стати базою для нових генних терапій і створення штучних ДНК-послідовностей із заданими властивостями.Карл де Бур з Університету Британської Колумбії, який не брав участі в розробці, зазначив, що AlphaGenome може визначити, чи впливають мутації на регуляцію геному, які гени зазнають впливу і як, а також у яких типах клітин. За його словами, це надає можливість цілеспрямованої розробки ліків."Зрештою, наша мета — мати моделі, настільки хороші, що нам не доведеться проводити експерименти для підтвердження їхніх прогнозів. Хоча AlphaGenome є значною інновацією, досягнення цієї мети вимагатиме постійної роботи з боку наукової спільноти", — зазначили розробники.Реакція науковців на AlphaGenomeДеякі вчені вже почали використовувати AlphaGenome у своїх дослідженнях. Марк Мансур з Університету Лондона назвав інструмент "значним кроком у зміні" підходів до пошуку генетичних причин раку. Так, статистичний генетик Гарет Хоукс з Університету Ексетера заявив, що некодувальний геном становить 98% нашого геному з трьох мільярдів пар основ, і можливість робити прогнози щодо цієї області є великим кроком уперед.Нагадаємо, раніше Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку..

Щоразу, коли світові презентують нову версію ChatGPT, у багатьох опускаються руки: "Знову ми все проґавили, знову відстаємо". Але якщо відкинути звичні скарги й озирнутися довкола, виявиться, що наздоганяти намагаються не зовсім те. Так, ми не будуємо величезні мовні моделі на трильйонах параметрів — у нас просто немає таких обчислювальних потужностей і даних. Натомість ми шукаємо обхідні шляхи й граємо за власними правилами. Наші сильні сторони докладніше про які можна почитати тут: https://first-dev.com.ua/ — це, як і раніше, талановиті математики й програмісти, а також величезна кількість практичних проблем, які чекають не красивої розмови, а конкретного рішення.У чому ж ми справді сильні?Поки світ захоплюється балакучими нейромережами, в Україні ШІ часто виглядає як скромний, але дуже ефективний майстровий. Він не пише віршів, зате чудово справляється з іншими завданнями. Можна виділити одразу кілька напрямів, у яких ми однозначно досягли високого рівня:Комп’ютерний зір. Це, мабуть, наша найсильніша сторона. Алгоритми для розпізнавання облич — лише верхівка айсберга. Значно цікавіші системи, які аналізують знімки з космосу, щоб передбачити врожай або знайти порушення на будівництві. Або програми, які допомагають лікарям знаходити пухлини на рентгені швидше й точніше за людину. Це не для галочки — це для справи.Розуміння мови. Великі західні моделі часто "заїкаються" на нашій складній граматиці та сленгу. Це створило простір для власних рішень. У нас з’являються моделі, які не просто спілкуються, а аналізують тонни юридичних документів, виловлюють суть зі скарг клієнтів або модерують контент з урахуванням наших культурних особливостей.Не можна не відзначити й промисловий ШІ. Найцікавіші проєкти — це не чат-боти, а системи, які навчають верстати на заводі менше зношуватися, економлять мільйони на енергоспоживанні або допомагають проєктувати нові матеріали в рази швидше.Що ж заважає розвиватися стрімкіше?З талантами проблем немає — вітчизняні математичні школи, як і раніше, одні з найкращих у світі. Проблема в тому, що відбувається з цими талантами далі. Багато хто виїжджає туди, де більше грошей і можливостей для амбітних проєктів. Вітчизняний великий бізнес інвестує в ШІ, але часто замикає розробки всередині себе. Невеликим стартапам пробитися з ідеєю дуже складно — венчурних грошей мало, а бюрократичні бар’єри для тестування нових технологій, особливо з персональними даними, досі високі..

Чат-бот зі штучним інтелектом Grok, розроблений компанією xAI, що належить американському мільярдеру Ілону Маску, попри заяви про дотримання законів, продовжує створювати сексуалізовані зображення чоловіків. Після резонансного скандалу з інтимними діпфейками жінок і дітей платформа X запровадила обмеження, утім, вони виявилися вибірковими.Про це повідомляє видання The Verge, яке провело власне тестування.Медійники наголосили, що попри заяви Маска про те, що Grok відмовляється створювати незаконний контент, чат-бот і надалі генерує майже оголені та інтимні зображення чоловіків. Репортер видання Роберт Харт зазначає, що під час тестів Grok все ще "роздягає" чоловіків і все ще видає інтимні зображення на вимогу.Харт завантажив до Grok кілька власних фотографій у повністю одягненому вигляді. Бот безперешкодно виконував запити на "зняття одягу" та створення образів у відвертій спідній білизні, зокрема безплатно й навіть без авторизації на окремому сайті."Grok також генерував зображення у бікіні та фетиш-одязі, включно зі шкіряною збруєю та в сексуалізованих позах. В окремих випадках чат-бот додавав деталі, про які користувач не просив, зокрема чітко видимі геніталії крізь сітчасту білизну", — зазначає видання.Медійники зауважили, що для отримання відповідних результатів зазвичай вистачало кількох повторень підказок. Grok іноді відхиляв запити або цензурував зображення, але здебільшого принаймні один із результатів відповідав вимозі. У прямому запиті на повну оголеність реальних людей бот відмовляв, проте формулювання на кшталт "показати її в прозорому бікіні" іноді дозволяли обійти обмеження.У The Verge додали, що основна хвиля суспільного невдоволення була спрямована на сексуалізацію жінок і дітей. За дев’ять днів Grok створив понад чотири мільйони зображень, майже половина з яких були сексуалізованими образами жінок, але серед них також зʼявлялися діпфейки чоловіків та неповнолітніх.Нагадаємо, раніше компанія xAI повідомляла, що обмежила роботу Grok після скандалу з сексуальними діпфейками. Розробники запевняли, що чат-бот більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну..

У Сполучених Штатах Америки федеральний суд присяжних у Сан-Франциско визнав винним колишнього інженера Google Ліньвея Діна у крадіжці комерційних секретів у сфері штучного інтелекту на користь двох китайських компаній.Як повідомляє агентство Reuters, 38-річного громадянина Китаю засудили за сімома пунктами економічного шпигунства та сімома пунктами крадіжки комерційної таємниці. За даними прокурорів, Дін викрав тисячі сторінок конфіденційної інформації, пов’язаної з апаратною та програмною інфраструктурою Google для навчання великих моделей штучного інтелекту. Зазначається, що частина викрадених матеріалів стосувалася розробок мікросхем і платформ, які давали Google конкурентну перевагу над Amazon і Microsoft та дозволяли зменшити залежність від чіпів Nvidia.Медійники зауважили, що кожне звинувачення в економічному шпигунстві передбачає до 15 років ув’язнення та штраф до п'яти мільйонів доларів, а кожне звинувачення у крадіжці комерційної таємниці — до 10 років ув’язнення та штраф до 250 тисяч доларів. Дін має з’явитися на наступне судове засідання 3 лютого."Прокурори заявили, що Дін приєднався до Google у травні 2019 року й почав крадіжки три роки потому — у період, коли його активно переманювали до китайської технологічної компанії на ранній стадії розвитку", — зазначили у Reuters. Своєю чергою, Google не висували обвинувачень, і компанія повідомила, що співпрацювала з правоохоронними органами. На запит про коментар у Google одразу не відповіли.Нагадаємо, торік у Reuters повідомляли, що Китай активно розвиває застосування штучного інтелекту у військових технологіях. Йдеться про створення бойових роботів та роїв безпілотників..

Функція Google AI Overviews у відповідях на запити щодо здоров’я найчастіше цитує YouTube. Відповідні результати викликали занепокоєння щодо надійності інструменту, яким щомісяця користуються близько двох мільярдів людей.Про це свідчить дослідження платформи SE Ranking, яка проаналізувала понад 50 тисяч запитів у Німеччині, пише The Guardian.Своєю чергою, у Google заявили, що відповіді від AI Overviews є "надійними" та спираються на авторитетні джерела, зокрема, Центри контролю та профілактики захворювань Сполучених Штатів Америки та клініку Майо. Втім, найбільш цитованим доменом у межах дослідження, яке аналізувало 50 807 запитів і ключових слів, пов’язаних з охороною здоров’я, став YouTube із 20 621 посиланням із загальної кількості 465 823. Загалом відеоплатформа становила 4,43% усіх цитувань в AI Overviews.Водночас жоден медичний сайт, лікарняна мережа, державний портал чи академічна установа не мають таких показників. Автори дослідження наголошують, що YouTube є універсальною платформою, а не спеціалізованим медичним видавцем."Це важливо, оскільки YouTube не є видавцем медичного контенту", — додали науковці.Вони зауважили, що на платформі можуть публікуватися як лікарі й клініки, так і інфлюенсери або автори, які не мають медичної освіти. Другим за частотою цитування джерелом став сайт німецького суспільного мовника NDR.de із 14 158 посиланнями. Далі йдуть сайт медичних довідників Msdmanuals.com (9 711), портал здоровʼя Netdoktor.de (7 519) та карʼєрна платформа для лікарів Praktischarzt.de (7 145).Відповідь GoogleУ коментарі медійниками Google зауважила, що AI Overviews розроблені для відображення якісного контенту незалежно від формату. У компанії також наголосили, що значна частина контенту на YouTube створюється авторитетними органами охорони здоров’я та ліцензованими медичними фахівцями."Твердження про те, що огляди штучного інтелекту надають неправдиву інформацію, спростовується власними даними звіту, які показують, що найчастіше цитовані домени в оглядах штучного інтелекту — це авторитетні вебсайти. І з того, що ми бачили в опублікованих результатах, огляди штучного інтелекту цитують експертний контент YouTube з лікарень та клінік", — додали у компанії.Google також зазначила, що 96% із 25 найчастіше цитованих відео на YouTube були з медичних каналів. Водночас дослідники зауважують, що ці відео становлять менш як 1% всіх посилань на YouTube в оглядах ШІ.Нагадаємо, торік у грудні видання Wired повідомляло, що у мережі з'явилася онлайн-платформа, яка продає користувачам коди для наркотичного та алкогольного сп’яніння чат-ботів. Відповідні модулі імітують вплив психоактивних речовин на штучний інтелект після завантаження в ChatGPT..

Американська компанія OpenAI оголосила про запуск Prism — спеціалізованого застосунку для наукових досліджень і текстів. Інструмент орієнтований на роботу з LaTeX і має вбудований штучний інтелект на базі моделі компанії GPT-5.2.Як повідомляє Engadget, Prism уже доступний безплатно всім користувачам з особистим обліковим записом ChatGPT.Компанія представила Prism, як окремий застосунок для наукової роботи. Розробники наголошують, що він покликаний спростити підготовку досліджень і публікацій. В OpenAI очікують, що він матиме для науки схожий ефект, як Claude Code чи Codex для програмування."Ми усвідомлюємо, що зі зростанням можливостей штучного інтелекту виникають занепокоєння щодо обсягів, якості та довіри в науковій спільноті", — заявив віцепрезидент OpenAI з науки Кевін Вейл.Медійники зауважили, що Prism побудований на базі Crixet — хмарної платформи LaTeX, про придбання якої OpenAI оголосила того ж дня. LaTeX, що є мовою розмітки даних для високоякісного оформлення документів, залишається стандартом для більшості наукових журналів, але робота з ним часто потребує значних зусиль і використання кількох інструментів.Новий застосунок поєднує редагування LaTeX із вбудованим ШІ-помічником, який працює на моделі GPT-5.2 Thinking. Під час демонстрації Prism використовували не лише для форматування, а й для пошуку релевантної наукової літератури та автоматичного створення списку використаних джерел."Ніщо з цього не звільняє вченого від відповідальності за перевірку правильності своїх посилань, але це, безумовно, може пришвидшити процес", — додав Вейл.Віцепрезидент OpenAI з науки додав, що адекватним підходом є не заборона технологій, а їхня прозора інтеграція. На його думку, штучний інтелект повинен стати інструментом у руках вчених, який працює під наглядом і не підриває довіру до наукових даних. Так, окрім наукових статей, Prism продемонстрували як інструмент для викладання. Під час презентації співробітник компанії створив план заняття для аспірантів із загальної теорії відносності та набір задач для студентів.Prism доступний безплатно для всіх власників особистих облікових записів ChatGPT. Він підтримує необмежену кількість проєктів, співавторів і час компіляції. Також доступна інтеграція з Zotero для роботи з цитуваннями. Найближчим часом компанія планує відкрити доступ до Prism для користувачів тарифів ChatGPT Business, Team, Enterprise та Education.Нагадаємо, раніше OpenAI презентувала спеціалізований сервіс для роботи з питаннями щодо здоров’я та медичною інформацією під назвою ChatGPT Health. Він дає змогу безпечно поєднувати дані про здоров’я користувача з можливостями чат-бота..

Tesla американського мільярдера Ілона Маска заявила, що інвестує два мільярди доларів у xAI — компанію зі сфери штучного інтелекту, яка теж належить йому. Автовиробник також підтвердив, що плани розпочати виробництво роботаксі Cybercab у 2026 році залишаються в силі.Як повідомляє агентство Reuters, відповідні заяви пролунали на тлі тиску на основний бізнес електромобілів і зростання очікувань інвесторів щодо автономних технологій.Інвестиція підтримала стратегію Маска з трансформації Tesla з автовиробника на компанію зі штучного інтелекту. Саме цей напрям є основним для оцінки Tesla приблизно в 1,5 трильйона доларів, попри попередні зриви обіцянок щодо термінів запуску нових продуктів.Фінансовий директор Tesla Вайбхав Танеджа заявив, що плани з розвитку роботаксі, гуманоїдних роботів Optimus, вантажівок Semi та Roadster вимагатимуть понад 20 мільярдів доларів капітальних інвестицій у 2026 році. Це більш ніж удвічі перевищує 8,5 мільярда доларів витрачених торік.Медійники зауважили, що акції Tesla після закриття торгів зросли приблизно на 3,5%, але згодом скоротили зростання до 1,8%. Ринок відреагував стриманіше після оприлюднення масштабів капітальних витрат. За словами старшого аналітика Томаса Монтейро, Tesla вступає в перехідну фазу, зміщуючи фокус із продажу машин на софт. Компанія закликає інвесторів повірити в прибутковість автопілота та роботаксі ще до відновлення обсягів збуту електрокарів. "Саме тому ключовим індикатором успіху тепер стає не кількість поставлених авто, а рівень впровадження технологій автономного водіння", — зазначив він.Своєю чергою, Маск вкотре озвучив амбітні прогнози щодо автономного водіння. Він заявив, що очікує появи повністю автономних авто у Сполучених Штатах Америки до кінця року. Медійники зауважили, що раніше ці цілі вже неодноразово коригувалися. Компанія так і не досягла раніше заявлених масштабів запуску роботаксі, обмеживши сервіс Остіном у штаті Техас.Основний бізнес Tesla з електромобілів перебуває під тиском через конкуренцію та завершення податкових пільг у США. Додатковим фактором стала втрата частини клієнтів через політичні заяви Маска.Агентство додає, що торік виторг Tesla знизився приблизно на 3% — до 94,83 мільярда доларів, що стало першим річним падінням доходів компанії. Маск також оголосив про припинення продажів Model S і Model X, а виробничі потужності планують переорієнтувати на робототехніку.Також Маск застеріг, що глобальний дефіцит чіпів пам’яті, спричинений сплеском розвитку штучного інтелекту, може загальмувати зростання Tesla. Аби уникнути залежності від ланцюгів постачання та захиститися від можливих геополітичних криз, він пропонує побудувати власний завод із виробництва мікросхем.Медійники зазначили, що роботаксі Cybercab, за задумом компанії, не матиме керма і педалей, що створює регуляторні труднощі. Маск визнав, що початкове виробництво буде надзвичайно повільним, тож значні обсяги виробництва гуманоїдних роботів Optimus також очікуються не раніше кінця 2026 року.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Україна планує суттєво поглибити співпрацю з міжнародними партнерами у сфері оборонних технологій. Йдеться про обмін бойовими даними та спільну розробку рішень на основі штучного інтелекту.Про це заявив міністр оборони України Михайло Федоров під час зустрічі з журналістами, його цитує "Суспільне".За його словами, одним із ключових напрямків стане активніша інтеграція партнерів в українські військові проєкти. Україна планує пропонувати не лише потреби у фінансуванні, а й власну цінність — зокрема, унікальні дані з поля бою."Партнери хочуть наші дані. Ми побудуємо систему, на якій вони зможуть навчати свої софтові продукти, використовуючи українські дані. Зараз дані з фронту мають надзвичайну цінність", — заявив Федоров.Міністр додав, що йдеться про створення спеціального дата-полігону для тренування ШІ-моделей партнерів. Це, за його словами, дозволить союзникам краще розуміти сучасну війну, а Україні — отримувати технологічно сильніші рішення.Український посадовець наголосив, що міжнародна підтримка вже є суттєвою, однак ключовим викликом залишається її ефективна організація. Саме над цим нині працює команда Міністерства оборони України."Ми не розраховуємо, що нас хтось урятує: робимо ставку на власні сили. Але якщо партнери відчують, що це й їхня війна, ми зможемо значно пришвидшити результат", — наголосив Михайло Федоров.Він також акцентував, що стратегічна мета України — зупинити Росію в повітрі та на землі, а також завдати ударів по її економічному потенціалу, що, на думку керівництва оборонного відомства, створює умови для завершення війни.Після початку повномасштабного вторгнення українські військові та державні цифрові системи накопичили масиви верифікованих бойових даних, які нині вважаються унікальними для розвитку військових ШІ-рішень у країнах НАТО та ЄС.Нагадаємо, в серпні минулого року Кирило Буданов розповідав, що ГУР активно використовує штучний інтелект у своїй роботі. Зокрема, за допомогою ШІ робиться аналіз великих обсягів даних..

На сьогодні штучний інтелект частіше доповнює роботу людей, ніж замінює їх. Вплив цієї технології суттєво відрізняється залежно від професії.Про це повідомляє видання EuroNews, посилаючись на звіт компанії Anthropic, яка проаналізувала використання свого ШІ-помічника Claude.Замість підрахунку частоти використання штучного інтелекту автори дослідження зосередилися на тому, які конкретно завдання йому доручають працівник. Задля цього вони запровадили набір показників, які назвали "економічними примітивами", що враховують типи завдань, їхню складність, рівень освіти, необхідний для формування запиту та розуміння відповіді, а також автономність і надійність роботи штучного інтелекту. Такий підхід, за словами авторів звіту, дозволяє точніше оцінити реальний вплив технології.У виданні зауважили, що на 49% робочих місць працівники можуть використовувати ШІ щонайменше для чверті відповідних завдань. Це на 13% більше, ніж на початку минулого року. Звіт показує, що такі технології найчастіше застосовують для завдань, пов’язаних із програмуванням. Загалом ШІ активніше використовують у роботах, які потребують вищого рівня освіти, ніж середній в економіці. Водночас не всі офісні професії зазнають однакового впливу."Для деяких професій він усуває найбільш вимогливі до навичок завдання, для інших — найменш", — наголосили автори звіту.У ході дослідження також було виявлено значні географічні відмінності. Хоча робочі завдання складають найбільшу частку використання штучного інтелекту загалом, у країнах із нижчим ВВП на душу населення освіта виходить на перше місце. У країнах з вищими доходами, навпаки, зростає частка особистого застосування ШІ. Anthropic пов’язує це з різними етапами впровадження технології.Автори дослідження також оцінили, чи використовується Claude для повної автоматизації завдань або для доповнення роботи людини. На сайті Claude 52% робочих розмов стосувалися безпосередньо доповнених завдань. Водночас ця частка зменшилася на п’ять відсотків порівняно з січнем 2025 року.Під час дослідження з'ясувалося, що складніші завдання ШІ виконує менш надійно. Зі зростанням складності або тривалості завдання рівень успіху Claude знижується, що обмежує реальну економію часу для працівників. У Anthropic зазначили, що попередні оцінки часто переоцінювали ефект продуктивності штучного інтелекту.За даними дослідників, важливо не лише вимірювати масштаби впровадження технологій штучного інтелекту. Варто розуміти й те, як саме його використовують, адже це має не менше значення.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..
