Жінки, які працюють у сферах технологій та фінансових послуг, мають вищий ризик втрати роботи через технології штучного інтелекту й автоматизацію, ніж чоловіки. Про це йдеться у новому звіті City of London Corporation (Корпорації Лондонського Сіті), пише The Guardian.У досліджені зазначається, що жінки "в середині кар’єри" з досвідом роботи понад п’ять років часто залишаються поза увагою роботодавців. Йдеться насамперед про посади в технологіях, фінансах і професійних послугах, де працює менше жінок, ніж чоловіків.Корпорація, яка управляє лондонською Square Mile, зафіксувала дискримінацію жінок через жорсткі, а інколи автоматизовані процедури відбору. Відповідні системи не враховують кар’єрні перерви, пов’язані з доглядом за дітьми або родичами, а також звужено оцінюють попередній досвід.Задля того, щоб змінити ситуацію, у звіті рекомендують роботодавцям зосередитися на перекваліфікації жінок, які нині не обіймають технічних посад. Особливу увагу пропонують приділити канцелярським працівницям, чиїм робочим місцям найбільше загрожує автоматизація.За оцінками, які були наведені у звіті, протягом наступного десятиліття автоматизація може витіснити близько 119 тисяч канцелярських посад у технологічному, фінансовому та професійному секторах. Зазначається, що перекваліфікація цих працівниць здатна заощадити компаніям понад мільярд доларів на виплатах при скороченнях.Автори звіту наголошують, що розвиток навичок дозволить роботодавцям оцінювати потенціал кандидатів, а не лише їхній формальний технічний досвід. За підрахунками, щорічно до 60 тисяч жінок покидають роботу в технологічній сфері через відсутність кар’єрного зростання, визнання та належної оплати.Також у звіті наголосили, що підвищення зарплат вище середнього рівня не розв'язує проблему нестачі фахівців. За прогнозами, розрив у цифрових талантах зберігатиметься щонайменше до 2035 року, що може коштувати британській економіці понад 13,7 мільярда доларів зростання.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Кількість активних користувачів чат-бота Gemini від Google перевищила 750 мільйонів на місяць, але компанія все ще поступається ChatGPT від OpenAI, яка має 810 мільйонів активних користувачів щомісяця. Зростання пов’язують зі швидким впровадженням ШІ та оновленням провідних моделей штучного інтелекту.Як повідомляє видання TechCrunch, Meta AI повідомляє про майже 500 мільйонів активних користувачів щомісяця.Відповідні дані з’явилися невдовзі після запуску Gemini 3, яка мала високий попит. Нова версія, за твердженням розробникі, демонструє безпрецедентну глибину та увагу до всіх нюансів відповідей. Генеральний директор Google Сундар Пічаї назвав впровадження Gemini 3 позитивним фактором зростання та наголосив, що подальші інвестиції та ітерації підтримуватимуть цей імпульс."Запуск Gemini 3 став важливою віхою, і ми маємо чудовий імпульс. Наші моделі, такі як Gemini, зараз обробляють понад 10 мільярдів токенів на хвилину через пряме використання API нашими клієнтами. Пошук використовувався більше, ніж будь-коли раніше, а штучний інтелект продовжує стимулювати зростання", — наголосив Пічаї.Також чинником, який спонукатиме зростання буде новий тарифний план Google AI Plus вартістю 7,99 долара на місяць. У компанії зазначають, що він орієнтований на більш чутливих до ціни користувачів, хоча поки не вплинув на квартальні результати."Ми зосереджені на безплатному рівні та підписках і бачимо значне зростання", — додав головний бізнес-директор Google Філіп Шиндлер.У виданні зазначили, що зростання популярності Gemini відбувається на тлі сильних фінансових результатів Alphabet. У цьому кварталі річний дохід компанії вперше перевищив 400 мільярдів доларів, а її капіталізація сягнула чотирьох трильйонів доларів, завдяки чому вона випередила Apple та стала другою найдорожчою компанією світу.За словами медійників, попри те, що Gemini демонструє кращі результати в технічних тестах і отримує схвальні відгуки експертів, ChatGPT продовжує домінувати на ринку. За даними Bloomberg, такий розрив зумовлений "ефектом першопрохідця" та різними стратегіями. Так, поки Google фокусується на наукових досягненнях та інтеграції в офісні сервіси, OpenAI агресивно працює на утримання уваги та формування звички у користувачів.Нагадаємо, раніше OpenAI оголосила про запуск Prism — спеціалізованого застосунку для наукових досліджень і текстів. Інструмент орієнтований на роботу з LaTeX і має вбудований штучний інтелект на базі моделі компанії GPT-5.2..

Американська компанія Google запускає в браузері Chrome нового помічника зі штучним інтелектом Auto Browse. Він здатен відкривати вебсайти та натискати кнопки від імені користувачів. Як повідомляє агентство Bloomberg, помічник працює на базі Gemini та інтегрований безпосередньо в браузер. Нововведення незабаром стане доступне користувачам платних ШІ-тарифів у Сполучених Штатах Америки.За словами директорки продукту Шармен Д’Сільви, Auto Browse надає можливість виконувати завдання на кшталт онлайн-покупок або планування подорожей у браузері. Користувач може попросити Gemini відкрити сайти авіакомпаній і готелів для порівняння цін, не виходячи з браузера Chrome."Наші тестувальники використовували його для найрізноманітніших речей: планування зустрічей, заповнення виснажливих онлайн-форм, збір податкових документів, перевірка оплати рахунків, управління підписками та пришвидшення поновлення водійських прав — це заощадило купу часу", — зазначила віцепрезидентка Chrome Паріса Табріз.Д'Сілва зауважила, що після активації функції Personal Intelligence у Chrome помічник може допомагати користувачеві з логістикою поїздок. Зокрема, він здатен враховувати шкільний розклад і вже заплановані зустрічі, щоб запропонувати найкращі варіанти. Медійники наголосили, що функція автоматичного перегляду буде доступна передплатникам AI Pro та AI Ultra у США. Задля входу на сайти від імені користувача агент використовуватиме Google Password Manager.Разом з цим компанія інтегрує в Chrome інструмент для генерації зображень Nano Banana. У Google наголосили, що штучний інтелект не зможе ухвалювати фінальні рішення, зокрема розміщувати замовлення, без підтвердження людини."Ми використовуємо штучний інтелект, а також моделі на пристроях, щоб захистити людей від шахрайства та більш витончених зловмисників", — наголосила Табріз.Нагадаємо, торік у грудні Google оголосила про запуск Gemini 3 Flash. Це нова модель штучного інтелекту з оптимізованою швидкістю. Вона поєднує можливості міркування рівня Gemini 3 із нижчою затримкою та значно нижчою вартістю..

Компанія Google DeepMind анонсувала новий інструмент штучного інтелекту AlphaGenome. Він призначений для дослідження генетичних захворювань. Як повідомляє The Guardian, розробка покликана допомогти вченим зрозуміти, як мутації впливають на роботу генів. Так, у перспективі це може відкрити шлях до нових методів лікування.Розробники Google DeepMind заявили, що AlphaGenome допоможе визначати генетичні чинники захворювань і пришвидшити розробку терапій. Інструмент прогнозує, як мутації змінюють регуляцію генів, зокрема де і в яких клітинах вони активуються.Медійники додали, що більшість поширених спадкових хвороб, зокрема серцево-судинні, аутоімунні розлади та порушення психічного здоров’я, пов’язані безпосередньо з регуляторними мутаціями. Такі ж механізми лежать в основі багатьох видів раку, але ідентифікувати основні збої досі складно."Ми розглядаємо AlphaGenome як інструмент для розуміння того, що роблять функціональні елементи геному, і сподіваємося, що це пришвидшить наше фундаментальне розуміння коду життя", — заявила дослідниця DeepMind Наташа Латишева у ході брифінгу.У виданні додають, що геном людини складається з приблизно трьох мільярдів пар літер ДНК. Лише близько двох відсотків цього коду відповідають за створення білків, тоді як решта контролює, коли, де і з якою інтенсивністю працюють гени."AlphaGenome навчили на публічних базах даних генетики людини та миші. ШІ може одночасно аналізувати до мільйона літер ДНК і передбачати вплив мутацій на різні біологічні процеси", — зауважили медійники.У DeepMind наголосили, що інструмент допоможе точніше визначати критичні ділянки геному для розвитку тканин, зокрема нервових і печінкових. Також AlphaGenome може стати базою для нових генних терапій і створення штучних ДНК-послідовностей із заданими властивостями.Карл де Бур з Університету Британської Колумбії, який не брав участі в розробці, зазначив, що AlphaGenome може визначити, чи впливають мутації на регуляцію геному, які гени зазнають впливу і як, а також у яких типах клітин. За його словами, це надає можливість цілеспрямованої розробки ліків."Зрештою, наша мета — мати моделі, настільки хороші, що нам не доведеться проводити експерименти для підтвердження їхніх прогнозів. Хоча AlphaGenome є значною інновацією, досягнення цієї мети вимагатиме постійної роботи з боку наукової спільноти", — зазначили розробники.Реакція науковців на AlphaGenomeДеякі вчені вже почали використовувати AlphaGenome у своїх дослідженнях. Марк Мансур з Університету Лондона назвав інструмент "значним кроком у зміні" підходів до пошуку генетичних причин раку. Так, статистичний генетик Гарет Хоукс з Університету Ексетера заявив, що некодувальний геном становить 98% нашого геному з трьох мільярдів пар основ, і можливість робити прогнози щодо цієї області є великим кроком уперед.Нагадаємо, раніше Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку..

Щоразу, коли світові презентують нову версію ChatGPT, у багатьох опускаються руки: "Знову ми все проґавили, знову відстаємо". Але якщо відкинути звичні скарги й озирнутися довкола, виявиться, що наздоганяти намагаються не зовсім те. Так, ми не будуємо величезні мовні моделі на трильйонах параметрів — у нас просто немає таких обчислювальних потужностей і даних. Натомість ми шукаємо обхідні шляхи й граємо за власними правилами. Наші сильні сторони докладніше про які можна почитати тут: https://first-dev.com.ua/ — це, як і раніше, талановиті математики й програмісти, а також величезна кількість практичних проблем, які чекають не красивої розмови, а конкретного рішення.У чому ж ми справді сильні?Поки світ захоплюється балакучими нейромережами, в Україні ШІ часто виглядає як скромний, але дуже ефективний майстровий. Він не пише віршів, зате чудово справляється з іншими завданнями. Можна виділити одразу кілька напрямів, у яких ми однозначно досягли високого рівня:Комп’ютерний зір. Це, мабуть, наша найсильніша сторона. Алгоритми для розпізнавання облич — лише верхівка айсберга. Значно цікавіші системи, які аналізують знімки з космосу, щоб передбачити врожай або знайти порушення на будівництві. Або програми, які допомагають лікарям знаходити пухлини на рентгені швидше й точніше за людину. Це не для галочки — це для справи.Розуміння мови. Великі західні моделі часто "заїкаються" на нашій складній граматиці та сленгу. Це створило простір для власних рішень. У нас з’являються моделі, які не просто спілкуються, а аналізують тонни юридичних документів, виловлюють суть зі скарг клієнтів або модерують контент з урахуванням наших культурних особливостей.Не можна не відзначити й промисловий ШІ. Найцікавіші проєкти — це не чат-боти, а системи, які навчають верстати на заводі менше зношуватися, економлять мільйони на енергоспоживанні або допомагають проєктувати нові матеріали в рази швидше.Що ж заважає розвиватися стрімкіше?З талантами проблем немає — вітчизняні математичні школи, як і раніше, одні з найкращих у світі. Проблема в тому, що відбувається з цими талантами далі. Багато хто виїжджає туди, де більше грошей і можливостей для амбітних проєктів. Вітчизняний великий бізнес інвестує в ШІ, але часто замикає розробки всередині себе. Невеликим стартапам пробитися з ідеєю дуже складно — венчурних грошей мало, а бюрократичні бар’єри для тестування нових технологій, особливо з персональними даними, досі високі..

Чат-бот зі штучним інтелектом Grok, розроблений компанією xAI, що належить американському мільярдеру Ілону Маску, попри заяви про дотримання законів, продовжує створювати сексуалізовані зображення чоловіків. Після резонансного скандалу з інтимними діпфейками жінок і дітей платформа X запровадила обмеження, утім, вони виявилися вибірковими.Про це повідомляє видання The Verge, яке провело власне тестування.Медійники наголосили, що попри заяви Маска про те, що Grok відмовляється створювати незаконний контент, чат-бот і надалі генерує майже оголені та інтимні зображення чоловіків. Репортер видання Роберт Харт зазначає, що під час тестів Grok все ще "роздягає" чоловіків і все ще видає інтимні зображення на вимогу.Харт завантажив до Grok кілька власних фотографій у повністю одягненому вигляді. Бот безперешкодно виконував запити на "зняття одягу" та створення образів у відвертій спідній білизні, зокрема безплатно й навіть без авторизації на окремому сайті."Grok також генерував зображення у бікіні та фетиш-одязі, включно зі шкіряною збруєю та в сексуалізованих позах. В окремих випадках чат-бот додавав деталі, про які користувач не просив, зокрема чітко видимі геніталії крізь сітчасту білизну", — зазначає видання.Медійники зауважили, що для отримання відповідних результатів зазвичай вистачало кількох повторень підказок. Grok іноді відхиляв запити або цензурував зображення, але здебільшого принаймні один із результатів відповідав вимозі. У прямому запиті на повну оголеність реальних людей бот відмовляв, проте формулювання на кшталт "показати її в прозорому бікіні" іноді дозволяли обійти обмеження.У The Verge додали, що основна хвиля суспільного невдоволення була спрямована на сексуалізацію жінок і дітей. За дев’ять днів Grok створив понад чотири мільйони зображень, майже половина з яких були сексуалізованими образами жінок, але серед них також зʼявлялися діпфейки чоловіків та неповнолітніх.Нагадаємо, раніше компанія xAI повідомляла, що обмежила роботу Grok після скандалу з сексуальними діпфейками. Розробники запевняли, що чат-бот більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну..

У Сполучених Штатах Америки федеральний суд присяжних у Сан-Франциско визнав винним колишнього інженера Google Ліньвея Діна у крадіжці комерційних секретів у сфері штучного інтелекту на користь двох китайських компаній.Як повідомляє агентство Reuters, 38-річного громадянина Китаю засудили за сімома пунктами економічного шпигунства та сімома пунктами крадіжки комерційної таємниці. За даними прокурорів, Дін викрав тисячі сторінок конфіденційної інформації, пов’язаної з апаратною та програмною інфраструктурою Google для навчання великих моделей штучного інтелекту. Зазначається, що частина викрадених матеріалів стосувалася розробок мікросхем і платформ, які давали Google конкурентну перевагу над Amazon і Microsoft та дозволяли зменшити залежність від чіпів Nvidia.Медійники зауважили, що кожне звинувачення в економічному шпигунстві передбачає до 15 років ув’язнення та штраф до п'яти мільйонів доларів, а кожне звинувачення у крадіжці комерційної таємниці — до 10 років ув’язнення та штраф до 250 тисяч доларів. Дін має з’явитися на наступне судове засідання 3 лютого."Прокурори заявили, що Дін приєднався до Google у травні 2019 року й почав крадіжки три роки потому — у період, коли його активно переманювали до китайської технологічної компанії на ранній стадії розвитку", — зазначили у Reuters. Своєю чергою, Google не висували обвинувачень, і компанія повідомила, що співпрацювала з правоохоронними органами. На запит про коментар у Google одразу не відповіли.Нагадаємо, торік у Reuters повідомляли, що Китай активно розвиває застосування штучного інтелекту у військових технологіях. Йдеться про створення бойових роботів та роїв безпілотників..

Функція Google AI Overviews у відповідях на запити щодо здоров’я найчастіше цитує YouTube. Відповідні результати викликали занепокоєння щодо надійності інструменту, яким щомісяця користуються близько двох мільярдів людей.Про це свідчить дослідження платформи SE Ranking, яка проаналізувала понад 50 тисяч запитів у Німеччині, пише The Guardian.Своєю чергою, у Google заявили, що відповіді від AI Overviews є "надійними" та спираються на авторитетні джерела, зокрема, Центри контролю та профілактики захворювань Сполучених Штатів Америки та клініку Майо. Втім, найбільш цитованим доменом у межах дослідження, яке аналізувало 50 807 запитів і ключових слів, пов’язаних з охороною здоров’я, став YouTube із 20 621 посиланням із загальної кількості 465 823. Загалом відеоплатформа становила 4,43% усіх цитувань в AI Overviews.Водночас жоден медичний сайт, лікарняна мережа, державний портал чи академічна установа не мають таких показників. Автори дослідження наголошують, що YouTube є універсальною платформою, а не спеціалізованим медичним видавцем."Це важливо, оскільки YouTube не є видавцем медичного контенту", — додали науковці.Вони зауважили, що на платформі можуть публікуватися як лікарі й клініки, так і інфлюенсери або автори, які не мають медичної освіти. Другим за частотою цитування джерелом став сайт німецького суспільного мовника NDR.de із 14 158 посиланнями. Далі йдуть сайт медичних довідників Msdmanuals.com (9 711), портал здоровʼя Netdoktor.de (7 519) та карʼєрна платформа для лікарів Praktischarzt.de (7 145).Відповідь GoogleУ коментарі медійниками Google зауважила, що AI Overviews розроблені для відображення якісного контенту незалежно від формату. У компанії також наголосили, що значна частина контенту на YouTube створюється авторитетними органами охорони здоров’я та ліцензованими медичними фахівцями."Твердження про те, що огляди штучного інтелекту надають неправдиву інформацію, спростовується власними даними звіту, які показують, що найчастіше цитовані домени в оглядах штучного інтелекту — це авторитетні вебсайти. І з того, що ми бачили в опублікованих результатах, огляди штучного інтелекту цитують експертний контент YouTube з лікарень та клінік", — додали у компанії.Google також зазначила, що 96% із 25 найчастіше цитованих відео на YouTube були з медичних каналів. Водночас дослідники зауважують, що ці відео становлять менш як 1% всіх посилань на YouTube в оглядах ШІ.Нагадаємо, торік у грудні видання Wired повідомляло, що у мережі з'явилася онлайн-платформа, яка продає користувачам коди для наркотичного та алкогольного сп’яніння чат-ботів. Відповідні модулі імітують вплив психоактивних речовин на штучний інтелект після завантаження в ChatGPT..

Американська компанія OpenAI оголосила про запуск Prism — спеціалізованого застосунку для наукових досліджень і текстів. Інструмент орієнтований на роботу з LaTeX і має вбудований штучний інтелект на базі моделі компанії GPT-5.2.Як повідомляє Engadget, Prism уже доступний безплатно всім користувачам з особистим обліковим записом ChatGPT.Компанія представила Prism, як окремий застосунок для наукової роботи. Розробники наголошують, що він покликаний спростити підготовку досліджень і публікацій. В OpenAI очікують, що він матиме для науки схожий ефект, як Claude Code чи Codex для програмування."Ми усвідомлюємо, що зі зростанням можливостей штучного інтелекту виникають занепокоєння щодо обсягів, якості та довіри в науковій спільноті", — заявив віцепрезидент OpenAI з науки Кевін Вейл.Медійники зауважили, що Prism побудований на базі Crixet — хмарної платформи LaTeX, про придбання якої OpenAI оголосила того ж дня. LaTeX, що є мовою розмітки даних для високоякісного оформлення документів, залишається стандартом для більшості наукових журналів, але робота з ним часто потребує значних зусиль і використання кількох інструментів.Новий застосунок поєднує редагування LaTeX із вбудованим ШІ-помічником, який працює на моделі GPT-5.2 Thinking. Під час демонстрації Prism використовували не лише для форматування, а й для пошуку релевантної наукової літератури та автоматичного створення списку використаних джерел."Ніщо з цього не звільняє вченого від відповідальності за перевірку правильності своїх посилань, але це, безумовно, може пришвидшити процес", — додав Вейл.Віцепрезидент OpenAI з науки додав, що адекватним підходом є не заборона технологій, а їхня прозора інтеграція. На його думку, штучний інтелект повинен стати інструментом у руках вчених, який працює під наглядом і не підриває довіру до наукових даних. Так, окрім наукових статей, Prism продемонстрували як інструмент для викладання. Під час презентації співробітник компанії створив план заняття для аспірантів із загальної теорії відносності та набір задач для студентів.Prism доступний безплатно для всіх власників особистих облікових записів ChatGPT. Він підтримує необмежену кількість проєктів, співавторів і час компіляції. Також доступна інтеграція з Zotero для роботи з цитуваннями. Найближчим часом компанія планує відкрити доступ до Prism для користувачів тарифів ChatGPT Business, Team, Enterprise та Education.Нагадаємо, раніше OpenAI презентувала спеціалізований сервіс для роботи з питаннями щодо здоров’я та медичною інформацією під назвою ChatGPT Health. Він дає змогу безпечно поєднувати дані про здоров’я користувача з можливостями чат-бота..

Tesla американського мільярдера Ілона Маска заявила, що інвестує два мільярди доларів у xAI — компанію зі сфери штучного інтелекту, яка теж належить йому. Автовиробник також підтвердив, що плани розпочати виробництво роботаксі Cybercab у 2026 році залишаються в силі.Як повідомляє агентство Reuters, відповідні заяви пролунали на тлі тиску на основний бізнес електромобілів і зростання очікувань інвесторів щодо автономних технологій.Інвестиція підтримала стратегію Маска з трансформації Tesla з автовиробника на компанію зі штучного інтелекту. Саме цей напрям є основним для оцінки Tesla приблизно в 1,5 трильйона доларів, попри попередні зриви обіцянок щодо термінів запуску нових продуктів.Фінансовий директор Tesla Вайбхав Танеджа заявив, що плани з розвитку роботаксі, гуманоїдних роботів Optimus, вантажівок Semi та Roadster вимагатимуть понад 20 мільярдів доларів капітальних інвестицій у 2026 році. Це більш ніж удвічі перевищує 8,5 мільярда доларів витрачених торік.Медійники зауважили, що акції Tesla після закриття торгів зросли приблизно на 3,5%, але згодом скоротили зростання до 1,8%. Ринок відреагував стриманіше після оприлюднення масштабів капітальних витрат. За словами старшого аналітика Томаса Монтейро, Tesla вступає в перехідну фазу, зміщуючи фокус із продажу машин на софт. Компанія закликає інвесторів повірити в прибутковість автопілота та роботаксі ще до відновлення обсягів збуту електрокарів. "Саме тому ключовим індикатором успіху тепер стає не кількість поставлених авто, а рівень впровадження технологій автономного водіння", — зазначив він.Своєю чергою, Маск вкотре озвучив амбітні прогнози щодо автономного водіння. Він заявив, що очікує появи повністю автономних авто у Сполучених Штатах Америки до кінця року. Медійники зауважили, що раніше ці цілі вже неодноразово коригувалися. Компанія так і не досягла раніше заявлених масштабів запуску роботаксі, обмеживши сервіс Остіном у штаті Техас.Основний бізнес Tesla з електромобілів перебуває під тиском через конкуренцію та завершення податкових пільг у США. Додатковим фактором стала втрата частини клієнтів через політичні заяви Маска.Агентство додає, що торік виторг Tesla знизився приблизно на 3% — до 94,83 мільярда доларів, що стало першим річним падінням доходів компанії. Маск також оголосив про припинення продажів Model S і Model X, а виробничі потужності планують переорієнтувати на робототехніку.Також Маск застеріг, що глобальний дефіцит чіпів пам’яті, спричинений сплеском розвитку штучного інтелекту, може загальмувати зростання Tesla. Аби уникнути залежності від ланцюгів постачання та захиститися від можливих геополітичних криз, він пропонує побудувати власний завод із виробництва мікросхем.Медійники зазначили, що роботаксі Cybercab, за задумом компанії, не матиме керма і педалей, що створює регуляторні труднощі. Маск визнав, що початкове виробництво буде надзвичайно повільним, тож значні обсяги виробництва гуманоїдних роботів Optimus також очікуються не раніше кінця 2026 року.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Україна планує суттєво поглибити співпрацю з міжнародними партнерами у сфері оборонних технологій. Йдеться про обмін бойовими даними та спільну розробку рішень на основі штучного інтелекту.Про це заявив міністр оборони України Михайло Федоров під час зустрічі з журналістами, його цитує "Суспільне".За його словами, одним із ключових напрямків стане активніша інтеграція партнерів в українські військові проєкти. Україна планує пропонувати не лише потреби у фінансуванні, а й власну цінність — зокрема, унікальні дані з поля бою."Партнери хочуть наші дані. Ми побудуємо систему, на якій вони зможуть навчати свої софтові продукти, використовуючи українські дані. Зараз дані з фронту мають надзвичайну цінність", — заявив Федоров.Міністр додав, що йдеться про створення спеціального дата-полігону для тренування ШІ-моделей партнерів. Це, за його словами, дозволить союзникам краще розуміти сучасну війну, а Україні — отримувати технологічно сильніші рішення.Український посадовець наголосив, що міжнародна підтримка вже є суттєвою, однак ключовим викликом залишається її ефективна організація. Саме над цим нині працює команда Міністерства оборони України."Ми не розраховуємо, що нас хтось урятує: робимо ставку на власні сили. Але якщо партнери відчують, що це й їхня війна, ми зможемо значно пришвидшити результат", — наголосив Михайло Федоров.Він також акцентував, що стратегічна мета України — зупинити Росію в повітрі та на землі, а також завдати ударів по її економічному потенціалу, що, на думку керівництва оборонного відомства, створює умови для завершення війни.Після початку повномасштабного вторгнення українські військові та державні цифрові системи накопичили масиви верифікованих бойових даних, які нині вважаються унікальними для розвитку військових ШІ-рішень у країнах НАТО та ЄС.Нагадаємо, в серпні минулого року Кирило Буданов розповідав, що ГУР активно використовує штучний інтелект у своїй роботі. Зокрема, за допомогою ШІ робиться аналіз великих обсягів даних..

На сьогодні штучний інтелект частіше доповнює роботу людей, ніж замінює їх. Вплив цієї технології суттєво відрізняється залежно від професії.Про це повідомляє видання EuroNews, посилаючись на звіт компанії Anthropic, яка проаналізувала використання свого ШІ-помічника Claude.Замість підрахунку частоти використання штучного інтелекту автори дослідження зосередилися на тому, які конкретно завдання йому доручають працівник. Задля цього вони запровадили набір показників, які назвали "економічними примітивами", що враховують типи завдань, їхню складність, рівень освіти, необхідний для формування запиту та розуміння відповіді, а також автономність і надійність роботи штучного інтелекту. Такий підхід, за словами авторів звіту, дозволяє точніше оцінити реальний вплив технології.У виданні зауважили, що на 49% робочих місць працівники можуть використовувати ШІ щонайменше для чверті відповідних завдань. Це на 13% більше, ніж на початку минулого року. Звіт показує, що такі технології найчастіше застосовують для завдань, пов’язаних із програмуванням. Загалом ШІ активніше використовують у роботах, які потребують вищого рівня освіти, ніж середній в економіці. Водночас не всі офісні професії зазнають однакового впливу."Для деяких професій він усуває найбільш вимогливі до навичок завдання, для інших — найменш", — наголосили автори звіту.У ході дослідження також було виявлено значні географічні відмінності. Хоча робочі завдання складають найбільшу частку використання штучного інтелекту загалом, у країнах із нижчим ВВП на душу населення освіта виходить на перше місце. У країнах з вищими доходами, навпаки, зростає частка особистого застосування ШІ. Anthropic пов’язує це з різними етапами впровадження технології.Автори дослідження також оцінили, чи використовується Claude для повної автоматизації завдань або для доповнення роботи людини. На сайті Claude 52% робочих розмов стосувалися безпосередньо доповнених завдань. Водночас ця частка зменшилася на п’ять відсотків порівняно з січнем 2025 року.Під час дослідження з'ясувалося, що складніші завдання ШІ виконує менш надійно. Зі зростанням складності або тривалості завдання рівень успіху Claude знижується, що обмежує реальну економію часу для працівників. У Anthropic зазначили, що попередні оцінки часто переоцінювали ефект продуктивності штучного інтелекту.За даними дослідників, важливо не лише вимірювати масштаби впровадження технологій штучного інтелекту. Варто розуміти й те, як саме його використовують, адже це має не менше значення.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Агентство з охорони довкілля США (Environmental Protection Agency, EPA) встановило, що компанія Ілона Маска xAI діяла незаконно, використовуючи десятки метанових газових турбін для живлення своїх центрів обробки даних.Як повідомляє The Guardian, йдеться про об’єкти Colossus 1 у Теннессі й Colossus 2 в Міссісіпі, які забезпечують роботу суперкомп’ютерів xAI.Журналісти зазначили, що xAI протягом півтора року стверджувала, що переносні турбіни не потребують дозволів на викиди в атмосферне повітря. Компанія посилалася на винятки для тимчасового обладнання, проте EPA визнало, що такі генератори не підпадають під ці винятки. У своєму рішенні агентство переглянуло попередню політику щодо газових турбін. EPA заявило, що дозволи на викиди потрібні навіть у випадку тимчасового або переносного використання обладнання."На початковому етапі xAI скористалася місцевою лазівкою законодавства округу, яка дозволяла експлуатацію генераторів без дозволів до 364 днів. У певний період Colossus 1 живили до 35 таких машин. Згодом компанія отримала дозволи лише на 15 турбін на об’єкті Colossus 1 і наразі там експлуатують 12 дозволених генераторів", — зазначили у The Guardian.Згідно з новим рішенням EPA, дозволи на ці турбіни підпадають під федеральне регулювання. Водночас залишається незрозумілим, як саме уряд застосовуватиме санкції щодо порушників. Своєю чергою, директор з питань екологічної та кліматичної справедливості NAACP Абре Коннер наголосив, що громадяни США, повітря, вода й земля — не "майданчики для мільярдерів, які ганяються за черговим доларом".У The Guardian додали, що метанові газові турбіни викидають оксиди азоту, які пов’язані з ризиком раку та захворюваннями дихальних шляхів. За оцінкою EPA, остаточні заходи можуть скоротити річні викиди цих речовин до 296 тонн до 2032 року."Газові турбіни стали для xAI необхідністю, аби забезпечити енергією суперкомп'ютери, що навчають чат-бот на базі штучного інтелекту Grok. На піку навантаження дата-центр Colossus 1 споживає 150 мегаватів — цього обсягу вистачило б для живлення 100 тисяч будинків протягом року. Водночас компанія не планує зупинятися і готується до подальшого розширення", — наголошують медійники.За даними The Guardian, Colossus 1 було зведено за рекордні для дата-центру 122 дні влітку 2024 року. Водночас Colossus 2, ще більший об’єкт, розташований на кордоні Мемфіса в Саутхейвені, штат Міссісіпі, і також використовує десятки газових генераторів. За даними Mississippi Today, на цьому об’єкті працює 59 генераторів, з яких 18 не мають дозволів на якість повітря.Медійники зауважили, що минулого тижня xAI запустила третій дата-центр у Саут-Гейвені. Ілон Маск повідомив у соцмережі X, що новий суперкомп’ютер має назву MACROHARDRR. За його словами, система потребуватиме майже два гігавати обчислювальної потужності."Рішення EPA ясно дає зрозуміти, що компаніям не дозволено — і ніколи не дозволялося — будувати та експлуатувати метанові газові турбіни без дозволу, і що немає жодної лазівки, яка б дозволила корпораціям створювати електростанції без дозволу", — підбила підсумки старша адвокатка Південного центру екологічного права Аманда Гарсія.Нагадаємо, раніше компанія xAI обмежила роботу чат-бота на основі штучного інтелекту Grok після скандалу з сексуальними діпфейками. Grok більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну..

Компанія американського мільярдера Ілона Маска xAI обмежила роботу чат-бота на основі штучного інтелекту Grok після скандалу з сексуальними діпфейками. Grok більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну.Як повідомляє пресслужба компанії, нині запроваджено технологічні заходи, щоб запобігти редагуванню в обліковому записі Grok зображень реальних людей у відвертому одязі, зокрема в бікіні. Відповідне обмеження застосовується до всіх користувачів, включно з платними підписниками.У компанії зазначили, що створення зображень і можливості їх редагувати через обліковий запис Grok на платформі X тепер доступна тільки платним користувачам. За словами розробників, це надає додатковий рівень захисту, щоб особи, які намагаються зловживати обліковим записом Grok для порушення закону або наших політик, могли бути притягнуті до відповідальності.У X наголосили, що тепер Grok блокує створення зображень реальних людей у бікіні чи білизні в країнах, де це заборонено законом. Розробники додали, що стрімкий розвиток генеративного ШІ створює виклики для всієї індустрії. "Ми активно співпрацюємо з користувачами, партнерами, регуляторними органами та іншими платформами, щоб швидше реагувати на проблеми в міру їх виникнення", — додали у компанії.Нагадаємо, раніше американська компанія Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку..

Голлівудський актор Метью Макконагі прийняв для себе рішення боротися зі зловживанням штучним інтелектом через механізм торгових марок. Артист зареєстрував свої голосові та візуальні образи, щоб у судовому порядку протидіяти несанкціонованим підробкам.Про це газеті The Wall Street Journal повідомили адвокати актора після рішень Бюро патентів і товарних знаків США (United States Patent and Trademark Office, USPTO).За останні місяці в USPTO схвалили вісім заявок на торгові марки, пов’язані з образом і голосом Макконагі. Йдеться про короткі відео- та аудіокліпи, де актор дивиться в камеру, усміхається або промовляє культову фразу Alright, alright, alright ("Добре, добре, добре"). Серед зареєстрованих матеріалів — ролик на ґанку, який триває сім секунд, трисекундне відео біля різдвяної ялинки та аудіозапис з фразою з фільму "Під кайфом та збентежені" 1993 року."Моя команда та я хочемо знати, що коли мій голос чи зображення коли-небудь використовуватимуть, це буде тому, що я це схвалив і підписав", — написав актор в електронному листі. За його словами, метою є "створення чіткого периметра", де згода й атрибуція стануть нормою у світі технологій штучного інтелекту. Своєю чергою, юристи Макконагі наголошують, що наразі їм не відомо про конкретні випадки маніпуляцій із його образом. Водночас вони сподіваються, що наявність торгових марок дозволить швидше реагувати на будь-яке несанкціоноване дублювання."У світі, де ми спостерігаємо, як усі намагаються зрозуміти, що робити зі зловживанням штучним інтелектом, у нас є інструмент, щоб зупинити когось або доставити його до федерального суду", — заявив адвокат Джонатан Поллак.Медійники зауважили, що схожі проблеми зачепили інших зірок, зокрема, Тома Генкса та Тейлор Свіфт. Їхні образи й голоси використовували у фейкових матеріалах. Хоча закони Сполучених Штатів про право на публічність захищають від комерційного використання, ситуація з монетизацією ШІ-контенту через рекламу залишається юридично невизначеною."Я не знаю, що зрештою скаже суд. Але ми повинні хоча б перевірити це", — додав адвокат Макконагі Кевін Йорн.У газеті зауважили, що Макконагі та його команда сподіваються на ухвалення федерального законодавства, яке чітко заборонятиме створення фейкових матеріалів за допомогою штучного інтелекту без згоди людей. Відповідний законопроєкт подали до Конгресу США у 2024 році, втім досі його не винесли на голосування.Нагадаємо, торік видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..
