# Штучний інтелект

17:32 - 29.12.2025

У "Дії" зʼявилися п'ять ШІ-асистентів: як вони працюватимуть

На порталі "Дія.Бізнес" зʼявилися ШІ-асистенти, які створені спеціально для підтримки підприємців. Вони допомагають швидше знаходити рішення для розвитку бізнесу — від ідеї запуску до масштабування та виходу на міжнародні ринки.Про це повідомила прес-служба Міністерства цифрової трансформації України."Україна рухається до Agentic state — держави, яка передбачає потреби громадян та пропонує рішення за одним запитом. Ми вже запустили Дія.АІ — першого у світі національного ШІ-асистента, який надає державні послуги. Тепер власні ШІ-асистенти зʼявляться й на порталі "Дія.Бізнес", — повідомив прший віцепремʼєр-міністр України — міністр цифрової трансформації Михайло Федоров.Посадовець пояснив, що вони допоможуть швидко, просто та зручно знайти потрібну інформацію, сформувати бізнес-план чи дібрати грант для розвитку власної справи. ШІ-асистенти працюють, як персональні навігатори на порталі: уточнюють запит користувача;формують індивідуальні добірки матеріалів, сервісів і програм підтримки;підказують наступні кроки (допомагають дібрати фінансування під конкретні потреби бізнесу або підготувати бізнес-план)."Технології дають бізнесу швидкість, але водночас підвищують вимоги — до навичок, кібербезпеки та здатності інтегрувати ШІ в реальні процеси. Наш пріоритет — розвиток цифрової зрілості МСБ в Україні, і ми працюємо над тим, щоб дати бізнесу зрозумілі інструменти для зростання. Саме тому трансформуємо проект "Дія.Бізнес", і сьогодні на порталі запускаємо ШІ-асистентів — щоб підприємці отримували рішення швидко й могли фокусуватися на розвитку", — зазначила радниця першого віцепрем’єр-міністра — міністра цифрової трансформації України з питань інновацій, цифровізації та глобальних партнерств Валерія Іонан.На порталі "Дія.Бізнес" доступні п’ять персональних ШІ-асистентів:Роберт — перша точка контакту на порталі. Він відповідає на загальні запитання та підказує, де знайти потрібну інформацію;Фаундія — супроводжує шлях від бізнес-ідеї до запуску власної справи;Грант — допомагає дібрати фінансові можливості та програми підтримки, а також підготувати бізнес-план;Смарт — підказує рішення для цифровізації та оптимізації бізнес-процесів;Маркет — асистент з експорту, який допомагає підготуватися до виходу на міжнародні ринки.Варто зауважити, що ШІ-асистенти не замінюють експертних консультацій, але дають змогу швидше знайти потрібну інформацію, краще зрозуміти доступні можливості та спланувати подальші кроки для розвитку бізнесу.Онлайн-асистенти вже доступні на головній сторінці порталу "Дія.Бізнес". Щоб скористатися сервісом, необхідно зареєструватися та пройти верифікацію.Нагадаємо, раніше міністр Михайло Федоров інформував, що Україна піднялася на 14 позицій у світовому рейтингу зі штучного інтелекту. Наша країна посіла 40-е місце зі 195 країн та опинилися серед лідерів з розвитку ШІ в Східній Європі. .

1
02:19 - 28.12.2025

ШІ допоміг збільшити кількістю наукових статей, але є нюанс

Поширення генеративного штучного інтелекту різко підвищило продуктивність вчених. Проте редакторам і рецензентам стає дедалі важче відрізнити реальні наукові прориви від добре відредагованого, але малозмістовного тексту.Як повідомляє видання ScienceDaily, після появи ChatGPT наприкінці 2022 року дослідники почали сповіщати про зростання власної продуктивності. Водночас редактори наукових журналів зафіксували наплив добре написаних статей із сумнівною науковою цінністю. Автори дослідження встановили, що саме великі мовні моделі, зокрема ChatGPT, змінюють підходи до підготовки рукописів. Вони збільшують кількість публікацій, проте ускладнюють оцінку їхньої якості."Це дуже поширена закономірність у різних галузях науки — від фізичних та комп’ютерних наук до біологічних та соціальних наук. У нашій сучасній екосистемі відбувся великий зсув, який вимагає дуже серйозного розгляду, особливо для тих, хто приймає рішення про те, яку науку нам слід підтримувати та фінансувати", — заявив доцент Корнелльського коледжу обчислювальної техніки Ян Інь.Науковці вивчили понад два мільйони препринтів, опублікованих у 2018–2024 роках на платформах arXiv, bioRxiv та SSRN. Відповідні ресурси охоплюють фізичні, біологічні та соціальні науки й містять роботи без рецензування.Дослідники порівняли тексти, написані до 2023 року, з імовірно згенерованими ШІ, і створили модель для виявлення використання великих мовних моделей (LLM). Вони відстежили динаміку публікацій авторів і перевірили, чи приймалися ці роботи журналами.На arXiv науковці, які, ймовірно, використовували LLM, оприлюднили приблизно на третину більше статей. На bioRxiv і SSRN зростання перевищило 50%. Так, найбільший ефект виявили серед авторів, для яких англійська не є рідною мовою. Дослідники з азійських установ опублікували на 43–89% більше робіт після початку використання LLM.Вчені також зафіксували вплив ШІ на пошук літератури. Інструменти на кшталт Bing Chat частіше пропонували новіші та тематично релевантні джерела, ніж традиційні пошукові системи."Люди, які використовують LLM, отримують доступ до більш різноманітних знань, що може спонукати до появи більш креативних ідей", — зазначив провідний автор дослідження Кейго Кусумегі. Видання зазначає, що він планує перевірити, чи пов’язане це з більш інноваційною та міждисциплінарною наукою. Попри те, що мовні моделі дозволяють писати більше, вони руйнують звичні критерії оцінки якості. Раніше складна мова була ознакою сильного дослідження та підвищувала шанси на публікацію. Втім, наразі такий маркер не працює. Зазначається, що рецензенти через складні вислови помічають згенеровані ШІ статті та часто відхиляють їх, навіть якщо вони написані бездоганно. Добре відшліфований текст більше не є гарантією наукової цінності.Науковці застерегли, що це може мати серйозні наслідки для науки. Кількість публікацій дедалі менше відображатиме реальний внесок дослідників. Надалі команда планує перевіряти причинно-наслідкові зв’язки за допомогою контрольованих експериментів. Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

2
04:35 - 26.12.2025

Україна піднялася у світовому рейтингу зі штучного інтелекту

Україна піднялася на 14 позицій у світовому рейтингу зі штучного інтелекту. Наша країна посіла 40-е місце зі 195 країн та опинилися серед лідерів з розвитку ШІ в Східній Європі. Як повідомляє віце-прем'єр-міністр, міністр цифрової трансформації Михайло Федоров, посилаючись на Government AI Readiness Index 2025 від Oxford Insights, який є один з головних звітів у галузі розвитку штучного інтелекту.За деякими критеріями Україна опинилася серед світових лідерів:99,63% — рекордний показник цифровізації державних сервісів;92,25% — відповідність законодавства міжнародним стандартам."Рік тому ми сформували місію для України у сфері ШІ — до 2030-го увійти в топ-3 країни за рівнем упровадження та розвитку штучного інтелекту", — зазначив Федоров.Лише в лютому було запущено WINWIN AI Center of Excellence, а вже зараз у Мінцифри працюють над проектом глобального масштабу: запустили "Дія.АІ" — перший у світі національний АІ-асистент з державних послуг;створюють національну LLM та будують інфраструктуру AI Factory;інтегрують АІ в "Мрію", "Дію", проекти екосистеми Мінцифри та державні процеси."Окремий трек — defense tech. Штучний інтелект уже працює на полі бою та допомагає Україні захищати свободу", — зазначив міністр.Федоров наголосив, що незабаром буде ще більше амбітних результатів. Окрім цього, він пообіцяв презентувати до кінця року АІ-асистентів у проектах екосистеми "Дії". А згодом — представимо Стратегію розвитку ШІ до 2030 року, запустимо AI-асистента в застосунку Дія та представимо національну мовну модель.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

3
04:27 - 23.12.2025

Чому штучний інтелект став кошмаром для Євросоюзу: аналітика Politico

Американська компанія з європейським корінням стала прикладом проблеми, яка бентежить політиків та прихильників технологій у Європі. Континент здатен генерувати ідеї та таланти, необхідні для створення нових застосунків на базі штучного інтелекту, але він рідко стає місцем, де ці ідеї масштабуються.Як повідомляє видання Politico, згідно зі звітом венчурної фірми Accel, 80% коштів, інвестованих у генеративний ШІ в США, Європі та Ізраїлі у 2023 та 2024 роках, пішли до американських фірм.У 2024 році США створили 40 "визначних моделей ШІ" порівняно з 15 у Китаї та лише трьома у Європі, згідно зі звітом 2025 Artificial Intelligence Index Report Стенфордського університету. Одинадцять відсотків усіх технологічних компаній США мають європейських засновників, а сотні перспективних компаній, заснованих у Європі — багато з яких безпосередньо пов'язані з ШІ — переїхали до Сполучених Штатів."Люди, які хочуть бути частиною цієї революції ШІ, їдуть до США. Мені насправді трохи сумно за Німеччину", — стверджує Флоріан Юнгерманн, який є співзасновником Listen Labs, компанії з дослідження клієнтів на базі ШІ.Засновники технологічних компаній, які працюють над проектами в галузі ШІ, прямують до Сполучених Штатів з різних причин. Кремнієва долина переповнена ШІ-компаніями, що полегшує створення там нової компанії. У США більше венчурних фондів, і вони більше зацікавлені в інвестуванні в невідомі продукти. Втім, є ще одна вагома причина, на думку багатьох засновників та прихильників ШІ в Європі: представники технологічного сектору часто глибоко підозріло ставляться до регулювання, а в Європі його вдосталь, особливо коли йдеться про штучний інтелект."В останні місяці технологічні компанії зі штаб-квартирами в Європі, а також деякі національні уряди та сама Європейська комісія намагалися зменшити регуляторний тягар для ШІ-компаній, відкладаючи впровадження ключових частин законодавства або закликаючи ЄС переглянути всю систему. Проте розбіжності між Європою та Сполученими Штатами щодо регулювання ШІ не так просто виправити; вони коріняться в глибоких культурних відмінностях, які вплинули на розвиток технологічних галузей на обох континентах", — наголошує видання.Вчені та представники галузі стверджують, що зміна цієї культури є вирішальною для того, щоб Європа почала наздоганяти лідерів, як у плані утримання більшої кількості фахівців зі ШІ на континенті, так і в заохоченні тих, хто залишається, бути більш підприємливими."Сьогодні такі європейські країни, як Німеччина, все ще зберігають винятковий талант, але часто їм не вистачає культурної атмосфери, яка дозволяє цьому таланту спрямовувати свою енергію на створення нових компаній", — зазначає Роберт Віндесгайм, німецький інвестор із сан-франциського Founders Fund.Медійники наголосили, що ЄС десятиліттями більше схильний до регулювання, ніж США. Відтоді як Європа обрала повільнішу, але безпечнішу модель зростання, молодих амбітних людей часто розчаровують бюрократичні бар’єри. Відмінності в підході до ролі держави, зокрема щодо ШІ, мають історичне й культурне коріння по обидва боки Атлантики.Одна з ключових причин — приватність. Багато європейців сприймають технології через призму ризику стеження й зловживань: у Німеччині люди так само оберігають номер телефону, як у США — номер соціального страхування. Професорка Колумбійського університету Ану Бредфорд пояснює цю чутливість історичним досвідом."Друга світова війна, використання даних нацистами для ідентифікації євреїв та стеження Штазі у Східній Німеччині сформували культурну недовіру до втрати приватності", — зазначила вона.Дін Болл, один з авторів Плану дій щодо ШІ адміністрації Трампа, бачить проблему інакше, але також пов’язує різницю підходів із серединою ХХ століття: на його думку, ЄС "законсервував статус-кво", застосовуючи мислення ХХ століття до викликів ХХІ. Інвестор Роберт Віндесгайм додає, що катастрофи ХХ століття закріпили в Європі пріоритет безпеки та "захисту від ризиків", що відобразилось у законодавчо оформленій іншій оцінці технологічних ризиків.Такі світогляди вплинули на різні регуляторні культури США та ЄС у ХХ–ХХІ століттях. GDPR, запроваджений у 2018 році, закріплює право на приватність, якого немає в США, та обмежує збір і монетизацію даних, що суттєво позначилось на здатності технологічних компаній зростати в Європі. Інвестор Майкл Джексон критикує Європу за прагнення бути "світовим регулятором" ще до того, як технологія повністю сформується; натомість у США, за його словами, регулювання більше "точкове" і з’являється після розуміння потреб ринку.ШІ зробив ці відмінності ще помітнішими: він посилив загрози приватності й можливості стеження, а наслідки його розвитку важко передбачити. Європа обрала жорсткіший підхід: AI Act, що набув чинності 1 серпня 2024 року, вводить категорії ризику від "мінімального" до "неприйнятного" (останні заборонені) та вимагає більшої прозорості від більшості ШІ-компаній. У США після нерішучих кроків за Джо Байдена адміністрація Дональда Трампа у липні оприлюднила План дій щодо ШІ з акцентом на "усунення бюрократії та обтяжливого регулювання". Розрив між підходами ЄС і США зростав разом із кількістю засновників у кожному з регіонів.Водночас американський успіх, за словами Маріарозарії Таддео з Оксфордського інституту інтернету, підсилює потребу Європи захищатися від залежності від технологій, якими вона не володіє і не контролює. Видання наголошує, що ЄС перебуває у слабшій позиції, бо більшість розробників у світі — американці, і Європі дедалі важче контролювати цю сферу, якщо США не регулюють себе.Прихильники європейської моделі заперечують тезу, що регуляція вбиває інновації: вона, на їхню думку, робить ШІ безпечнішим для користувачів і засновників. Додатковий фактор — фінансування: з 2013 по 2022 рік компанії зі штаб-квартирами в ЄС отримали на 1,4 трильйона доларів менше венчурних інвестицій, ніж компанії в США. Водночас ріст регуляторної ролі держави помітний не лише в Європі: навіть якщо Вашингтон не поспішає із жорсткими рамками, Каліфорнія впроваджує низку ШІ-рекомендацій. Опитування Gallup (квітень–травень 2025 року) показало, що 80% американців підтримують правила безпеки ШІ та захисту даних, навіть ціною повільнішого розвитку. На думку Марка Ротенберга з Center for AI and Digital Policy, позиція Білого дому щодо ШІ-регулювання не збігається ані з більшістю американців, ані з законодавцями штатів, ані з попередніми підходами.Єврооптимісти вважають, що регуляція не "душить" інновації, і Європа поступово знаходить опору в ШІ. Паралельно ЄС і окремі країни намагаються наростити інвестиції: у листопаді Єврокомісія мобілізувала 200 мільярдів євро для ШІ, а президент Франції Еммануель Макрон оголосив про намір залучити 109 мільярдів євро приватних інвестицій. У скандинавських країнах держінвестиції вже сприяли інноваціям і зростанню компаній. "Проте жоден уряд поки прямо не націлився на демонтаж регуляторної системи. Європа запізнилася п’ять років тому і запізнилася остаточно зараз", — підбили підсумок у виданні.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

4
10:06 - 22.12.2025

Як екстремісти використовують штучний інтелект для пропаганди: аналіз The Guardian

Екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами.Як повідомляє The Guardian, такі технології суттєво підсилюють охоплення й ефективність радикальних меседжів."Інструменти генерації голосу та перекладу стали новим ресурсом для екстремістських рухів — від неонацистських груп до ісламістських організацій. Вони дозволяють відтворювати промови відомих ідеологів та поширювати їх у зручному мультимедійному форматі", — зазначили медійники.За словами старшого аналітика Tech Against Terrorism і наукового співробітника Центру Суфана Лукаса Веббера, впровадження терористами та екстремістами перекладу на основі штучного інтелекту знаменує собою масштабну еволюцію в стратегіях цифрової пропаганди. Він зауважив, що раніше радикальні мережі покладалися на людських перекладачів або примітивний машинний переклад. Втім, на сьогодні з розвитком передових генеративних інструментів штучного інтелекту, ці групи здатні створювати безшовні, контекстуально точні переклади."Серед неонацистських ультраправих рухів особливо поширеним стало клонування голосу для відтворення промов Адольфа Гітлера англійською мовою. Деякі з таких відео, опубліковані у X, Instagram і TikTok, зібрали десятки мільйонів переглядів", — зазначає видання.Дослідження Глобальної мережі з питань екстремізму та технологій (GNet) свідчать, екстремісти використовують сервіси на кшталт ElevenLabs. Вони завантажують архівні промови часів Третього рейху для створення англомовних аудіоверсій з імітацією голосу Гітлера. Неонацистські акселераціоністські групи використовують такі інструменти для оновлення власних гіпернасильницьких матеріалів. Наприкінці листопада вони створили аудіокнигу з посібника з повстанської боротьби американського неонациста Джеймса Менсона, під назвою "Облога"."Впродовж останніх кількох місяців я брав участь у створенні аудіокниги "Облога" Джеймса Мейсона. Використовуючи власну голосову модель Мейсона, я відтворив кожну розсилку та більшість доданих газетних вирізок, як в оригінальних опублікованих розсилках", — повідомив неонацистський інфлюенсер, який поширює контент у X і Telegram.Аналітик проекту боротьби з екстремізмом Джошуа Фішер-Берч застерігає, що саме культовий статус "Облоги" робить її особливо небезпечною. За його словами, посібник пропагує насильство самотніх осіб і є обов’язковою для читання кількома неонацистськими групами, які відкрито підтримують тероризм.Медійники додають, що проісламські медіа в зашифрованих мережах також активно залучають ШІ для перетворення текстових матеріалів на аудіо. За словами Веббера, це дозволяє швидко трансформувати пропаганду в захопливі мультимедійні наративи. Джихадистські угруповання застосовують ШІ-переклад для адаптації ідеологічних матеріалів з арабської мови для глобальної аудиторії. Раніше таку роль виконував особисто Анвар аль-Авлакі, чий голос, за оцінками Центрального розвідувального управління Сполучених Штатів Америки, був основним чинником впливу "Аль-Каїди".На платформі Rocket.Chat, яку активно використовує "Ісламська держава", у жовтні з’явилося відео з японськими субтитрами, створеними за допомогою технологій штучного інтелекту. Як писав проісламський користувач, японську мову було б надзвичайно важко перекласти, зберігаючи при цьому її красномовство. Він зазначив, що використовує штучний інтелект лише за деякими винятками щодо аудіо.У The Guardian пояснюють, що на сьогодні не лише "Ісламська держава", а й широкий спектр інших радикальних угруповань активно послуговуються безплатними інструментами ШІ, такими як ChatGPT. Нагадаємо, раніше дослідники встановили, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей.

5
02:27 - 22.12.2025

"П'яний" штучний інтелект: у мережі продають коди, які імітують нетверезу поведінку у чат-ботів

У мережі з'явилася онлайн-платформа, яка продає користувачам коди для наркотичного та алкогольного сп’яніння чат-ботів. Відповідні модулі імітують вплив психоактивних речовин на штучний інтелект після завантаження в ChatGPT.Як повідомляє видання Wired, відповідний проект уже має перших покупців і викликає нові дискусії серед експертів.Відомо, що онлайн-платформа Pharmaicy продає програмні модулі, які змінюють поведінку чат-ботів так, ніби вони перебувають під дією канабісу, кетаміну, кокаїну або алкоголю. Варто наголосити, що для роботи модулів потрібна платна версія ChatGPT, яка дозволяє завантажувати файли та змінювати внутрішні параметри системи.Такі модулі розробив шведський креативний директор Рудволл, який зібрав звіти про вплив наркотиків та психологічні дослідження впливу наркотиків. На базі відповідних матеріалів він написав кодові модулі й у жовтні запустив сайт, який називає "Шовковим шляхом для агентів ШІ".Розробник пояснює ідею тим, що чат-боти навчаються на масивах людських даних, насичених історіями про наркотичний досвід. На його думку, це робить логічними експерименти з "альтернативними станами" чат-ботів для творчості та відходу від простої логіки. Рудволл пояснює, що завантаження модуля дозволяє розблокувати творчий розум штучного інтелекту та змінити стиль відповідей. Він зазначає, що продажі на сьогодні незначні й поширюються переважно через рекомендації у Discord та усно, зокрема, у Швеції."Так давно я не стикався з цікавим технологічним проектом з джейлбрейка. Це вимагає більше людського підходу, майже так, ніби це набагато більше емоцій", — заявив керівник технологічної практики PR-фірми Geelmuyden Kiese Андре Фріск після покупки та тестування коду Рудволла.Своєю чергою, фахівець зі штучного інтелекту у школі комунікацій Бергса в Стокгольмі та співзасновниця Saga Studios Ніна Амджаді придбала модуль за понад 50 доларів. Вона використала його для перевірки бізнес-ідей від ШІ та зазначила, що відповіді стали значно більш креативними та "вільнодумними", ніж у стандартному режимі ChatGPT.Медійники наголосили, що ідея зі "сп’яніння" чат-ботів штучного інтелекту вписується у ширший контекст обговорень зв’язку психоделіків та інновацій. Відомо, що ЛСД надихнув Кері Малліса на відкриття полімеразної ланцюгової реакції, а психоделічний досвід вплинув на створення HyperCard Біллом Аткінсоном.Попри це науковці та філософи наголошують на обмеженості таких експериментів. Дослідник Google Ендрю Смарт після тестування кодів заявив, що вони лише змінюють вихідні дані чат-бота, а не створюють справжній змінений стан свідомості. Критичну думку висловлює і філософ Денні Форд, який вважає, що модулі лише змушують ШІ "синтаксично галюцинувати". Він наголошує, що психоделіки діють на досвід і свідомість, яких у машин наразі немає.Також фахівці застерегли користувачів від звернення до чат-ботів за порадами щодо наркотиків через ризик дезінформації. Розробник "наркотичних модулів" для чат-ботів визнає, що його коди можуть посилювати схильність ШІ до вигадування.Нагадаємо, напередодні американська компанія OpenAI представила нову версію ChatGPT Image на базі флагманської моделі GPT-5.2. Оновлення передбачає швидшу генерацію, точніше редагування та окремий розділ "Зображення" в інтерфейсі ChatGPT..

6
01:37 - 19.12.2025

Небезпечний обман: у TikTok поширюють діпфейки з псевдо-рекомендаціями від лікарів

У TikTok та на інших платформах у соціальних мережах ширяться згенеровані штучним інтелектом фейкові відео, де начебто лікарі рекомендують купувати харчові добавки та поширюють іншу дезінформацію про здоров'я.Як повідомляє The Guardian, у мережі було виявлено сотні відеороликів, на яких було підроблено відео за участі лікарів та лідерів думок, що спрямовують глядачів до Wellness Nest — американської компанії з виробництва харчових добавок.Усі подібні матеріали містять реальні кадри з фахівцем у галузі охорони здоров'я, взяті з Інтернету. Проте зображення та аудіо були перероблені у такий спосіб, щоби спікери заохочували жінок, які переживають менопаузу, купувати такі продукти, як пробіотики та гімалайський шиладжит, на веб-сайті компанії."Це, безумовно, зловісна та тривожна нова тактика", — наголосив фактчекер Лео Бенедиктус.Він додав, що творці фейкових відео про здоров'я використовують штучний інтелект, щоби шановані персони, або блогери, які мають велику аудиторію, начебто схвалювали ці добавки для лікування низки хвороб. Так, професор Девід Тейлор-Робінсон, який є експертом з питань нерівності в охороні здоров'я в Ліверпульському університеті, є одним з тих, чий імідж був підроблений."У серпні він був шокований, виявивши, що TikTok розміщував 14 підроблених відео, в яких він нібито рекомендує продукти з недоведеними перевагами", — наголошує видання.Попри те, що Тейлор-Робінсон є фахівцем із дитячого здоров’я, в одному з відео його "клонована" версія розповідала про нібито побічний ефект менопаузи під назвою Thermometer leg. У фейковому відео Тейлор-Робінсон рекомендував жінкам у менопаузі відвідати сайт під назвою Wellness Nest і придбати так званий натуральний пробіотик з "10 науково обґрунтованими рослинними екстрактами, включно з куркумою, чорним кохошем, DIM [дііндолілметаном] та морингою, спеціально підібраними для боротьби з симптомами менопаузи". Медик дізнався, що його зовнішність використовують для шахрайства лише тоді, коли його колега звернула на це його увагу. "Спочатку це було дуже заплутано — все здавалося нереальним. Мої діти вважали це кумедним. Я не відчував себе страшенно приниженим, але мене дедалі більше дратувала думка про те, що люди продають продукти, спираючись на мою роботу, і про ту шкоду від медичної дезінформації", — наголосив він.Видання додає, що кадри з Тейлором-Робінсоном, використані для створення діпфейків, взяли з його виступу про вакцинацію на конференції Public Health England (Служба громадського здоров’я Англії) 2017 року та з парламентських слухань щодо дитячої бідності, де він давав свідчення у травні цього року. В одному з маніпулятивних відео його зобразили таким, що лається і робить мізогінні коментарі, обговорюючи менопаузу. TikTok видалив ці відео через шість тижнів після того, як Тейлор-Робінсон поскаржився."Спочатку вони сказали, що деякі відео порушують їхні правила, але деякі — ні. Це було абсурдно й дивно, бо на всіх відео був я, і всі вони були фейками. Домогтися їх видалення було суцільною морокою", — наголосив Тейлор-Робінсон.Також стало відомо, що у TikTok є вісім відеороликів із підробленими висловлюваннями колишнього генерального директора PHE Данкана Селбі. Як і у випадку з Тейлором-Робінсоном, його неправдиво показували таким, що говорить про менопаузу, використовуючи відео з того самого заходу 2017 року, де виступав Тейлор-Робінсон.Схожі відео виявили й у соцмережах X, Facebook та на YouTube. Усі вони були пов’язані з Wellness Nest або британським підрозділом під назвою Wellness Nest UK. Компанія публікувала, ймовірно, підроблені відео з відомими лікарями, зокрема професором Тімом Спектором та іншим експертом з дієтології, покійним доктором Майклом Мозлі.Своєю чергою, Wellness Nest заявила Full Fact, що фейкові відео, які заохочують людей відвідувати сайт компанії, "на 100% не пов’язані" з її бізнесом. Вона сказала, що "ніколи не використовувала контент, згенерований штучним інтелектом", але не може контролювати чи відстежувати афілійованих осіб у всьому світі.Нагадаємо, раніше видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..

7
10:02 - 18.12.2025

Google представила модель штучного інтелекту Gemini 3 Flash: у чому її особливість

Google оголосила про запуск Gemini 3 Flash. Це нова модель штучного інтелекту з оптимізованою швидкістю. Як повідомляє прес-служба американської компанії, вона поєднує можливості міркування рівня Gemini 3 із нижчою затримкою та значно нижчою вартістю. Модель уже доступна розробникам, підприємствам та мільйонам користувачів у додатку та пошуку Google.У листопаді Google запустила Gemini 3 Pro та Gemini 3 Deep Think, після чого щоденний обсяг обробки через API, за повідомленням компанії, перевищив трильйон токенів. Розробники наголошують, що користувачі активно застосовують Gemini 3 для моделювання коду, вивчення складних тем, створення ігор та роботи з мультимодальним контентом.Своєю чергою, Gemini 3 Flash зберігає основні можливості Gemini 3, зокрема, складні міркування, візуальне та мультимодальне розуміння, а також агентне кодування. Вона оптимізована за швидкістю, ефективністю та вартістю, що робить її зручною у частих повсякденних завданнях.У компанії додали, що Gemini 3 Flash показує високі результати у складних тестах на міркування та знання. Так, модель отримала 90,4% у GPQA Diamond і 81,2% у MMMU Pro, видавши продуктивність, порівняну з Gemini 3 Pro.Розробники також оптимізували нову модель з погляду ефективності використання ресурсів. У типовому трафіку Gemini 3 Flash використовує в середньому на 30% менше токенів, ніж Gemini 2.5 Pro, зберігаючи високу якість відповідей. Google додає, що Gemini 3 Flash у три рази швидший за Gemini 2.5 Pro та коштує значно дешевше. Вартість моделі становить 50 центів за мільйон вхідних токенів і три долари за мільйон вихідних токенів.Google наголошує, що Gemini 3 Flash став моделлю за замовчуванням у додатку Gemini, замінивши версію 2.5 Flash. Це означає, що користувачі в усьому світі отримують безплатний доступ до можливостей Gemini 3.Нагадаємо, напередодні американська компанія OpenAI представила нову версію ChatGPT Image на базі флагманської моделі GPT-5.2. Оновлення передбачає швидшу генерацію, точніше редагування та окремий розділ "Зображення" в інтерфейсі ChatGPT..

8
10:05 - 17.12.2025

Генерує зображення у рази швидше: ChatGPT отримав потужне оновлення

Американська компанія OpenAI представила нову версію ChatGPT Image на базі флагманської моделі GPT-5.2. Оновлення передбачає швидшу генерацію, точніше редагування та окремий розділ "Зображення" в інтерфейсі ChatGPT. Як повідомляє прес-служба компанії, нова модель уже доступна для всіх користувачів.Розробники запевняють, що нова версія ChatGPT Image забезпечує до чотирьох разів швидшу генерацію зображень. Модель також краще дотримується інструкцій користувача та змінює лише запитані елементи у вже створених зображеннях, зберігаючи освітлення, композицію чи зовнішність людей.У компанії пояснюють, що GPT-Image-1.5 підтримує додавання, об’єднання, видалення об’єктів та інші трансформації. У новій версії розробники також удосконалили відтворення тексту на зображеннях, зокрема, коректніше відображення дрібних та щільних написів. Окрім цього оновлення, OpenAI створила новий розділ "Зображення" в ChatGPT. Він доступний у веббраузері та в мобільному застосунку і містить попередньо встановлені фільтри й ідеї для генерацій зображень."GPT Image 1.5 генерує високоякісні зображення з чітким точним дотриманням правил, зберігаючи композицію, освітлення та дрібні деталі", — заявила керівниця відділу досліджень штучного інтелекту та науки про дані Хіла Гат.Розробники запевняють, що потенціал генерації зображень лише починає розкриватися. У компанії називають нинішнє оновлення важливим етапом, після якого відкриються ще більше можливостей, від детальнішого редагування до багатших і детальніших результатів різними мовами.Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний..

9
03:13 - 15.12.2025

ШІ як інструмент кібервійни: у OpenAI назвали майбутню загрозу

OpenAI заявила, що у майбутньому її моделі штучного інтелекту можуть досягти рівня, який становитиме "високий" ризик для кібербезпеки. Компанія оприлюднила оцінку власних технологій і застерегла, що ці моделі потенційно можуть створювати "вразливості нульового дня" або допомагати у складних кіберопераціях.Як повідомила компанія у своєму блозі, можливості моделей ШІ швидко зростають: результати тестів "захоплення прапора" підвищилися з 27% у GPT-5 до 76% у GPT-5.1-Codex-Max за кілька місяців. OpenAI заявила, що заздалегідь оцінює, чи здатна кожна нова модель досягти рівня, за якого штучний інтелект може розробляти робочі віддалені вразливості або сприяти вторгненням у критичні системи.Також OpenAI зауважила, що інвестує у створення засобів для аналізу коду, виправлення вразливостей та підтримки команд кіберзахисту. Серед основних механізмів — контроль доступу, посилення інфраструктури, моніторинг і системи реагування."Під цим ми маємо на увазі моделі ШІ, які можуть або розробляти робочі віддалені вразливості нульового дня проти добре захищених систем, або суттєво допомагати у складних, прихованих операціях з вторгнення", — наголосили у компанії. OpenAI додала, що навчає моделі відхиляти шкідливі запити та доповнює це системами моніторингу, які блокують або перенаправляють небезпечні дії. Компанія також співпрацює з червоними командами, які намагаються обійти всі захисні бар’єри, щоб виявити прогалини. Паралельно OpenAI працює зі світовою спільнотою кіберзахисників, зокрема через ініціативи з оцінювання кіберстійкості та спільне вивчення відповідних загроз.Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний..

10
04:37 - 13.12.2025

Google запускає експериментальний браузер: перші деталі

Американська компанія Google запустила у Search Labs експериментальний браузер Disco. Він випробовує концепцію GenTabs генеративних сторінок, що перетворюють звичайні вкладки на персоналізовані вебдодатки. Як повідомляє The Verge, інструмент не заміняє Chrome, а тестує новий спосіб роботи з інтернетом на основі технологій штучного інтелекту.Компанія створила Disco як хакатон-проект, який згодом масштабувала команда Chrome. Керівниця підрозділу Паріса Тебріз зауважила, що це не альтернатива основному браузеру. За її словами, ключова ідея полягає у переході від звичайних вкладок до "дуже персоналізованого, курованого додатка", що з’являється під конкретне завдання.Медійники зауважили, що основою Disco є GenTabs — сторінки, які генеруються моделями ШІ Gemini й здатні створювати одноразові інтерактивні інтерфейси. Користувач задає підказку, браузер відкриває низку пов’язаних вкладок, а система перетворює їх на мініпрограму. У браузері це реалізовано через "проекти" — простори, які поєднують чат, відкриті вебсторінки та згенеровану вкладку.Для демонстрації можливостей браузера керівниця інновацій у команді Chrome Маніні Рой створила запит про планування поїздки до Японії. Disco відкрив добірку релевантних сторінок і запропонував згенерувати інтерактивний планувальник маршруту. За хвилину Gemini сформувала вебдодаток із картою, позначками локацій, маршрутом та посиланнями на всі використані джерела."GenTabs оновлюються залежно від активності користувача: нові відкриті вкладки автоматично доповнюють інформаційний блок. Такий підхід є основним для всієї ідеї. Рой описує його як спільний процес, у якому модель пропонує структуру, а користувач збагачує її власними даними. Відповідний підхід допомагає уникнути сценарію "налаштував і забув", який часто притаманний агентним системам", — зазначає видання.У компанії продемонстрували й інші приклади роботи Disco, наприклад, створення інтерактивної моделі людської стопи для пояснення роботи щиколотки та проект допомоги з переїздом із калькулятором вимірювання ваги речей й таблицею порівняння перевізників. У кожному випадку GenTabs пропонують варіанти адаптації інтерфейсу та дозволяють продовжувати взаємодію через текстове поле.Стартові тести свідчать, що автоматичне відкриття вкладок підштовхує користувачів звертатися до джерел, а не тільки вести діалог із чатботом. Рой пояснює, що ці матеріали є базою для створення GenTabs, і відповідний підхід формує "позитивне коло". Розробники стверджують, що акцент на відкритому браузері та використання джерел з Disco вже показує результат.Втім, питання довговічності GenTabs на сьогодні лишається відкритим. Невідомо, чи стануть вони постійними додатками з власними URL, чи залишаться тимчасовими інструментами, які зникатимуть після закриття. Своєю чергою, Тебріз припускає існування обох варіантів, а також можливість експорту даних у сервіси на кшталт Google Workspace. Відповідний висновок зробили після того, як перші користувачі зацікавилися функціями збереження й поширення створених мінідодатків.Нагадаємо, Google змінила правила доступу до своїх найновіших моделей штучного інтелекту Gemini 3 Pro та Nano Banana Pro, суттєво обмеживши можливості користувачів, які користуються цими технологіями безплатно. Відповідне рішення пояснили високим попитом на сервіс та нестачею потужностей..

11
11:57 - 12.12.2025

Нарвались на хейт: McDonald’s видалив рекламу, створену ШІ (відео)

У Нідерландах McDonald’s спробував використати штучний інтелект для створення різдвяної реклами. Втім, компанія натрапила на шквал критики від користувачівЯк повідомляє The Guardian, рекламний ролик під назвою "Найжахливіша пора року" довелося видалити із мережі.У відео Санта-Клаус застряг у пробці, а велосипедист із подарунками посковзнувся на снігу. Водночас заклик був простим: перечекайте святкові негаразди у McDonald’s. Попри таку креативність, користувачі соціальних мереж сприйняли ролик як "бездушний" та "фальшивий".Деякі користувачі заявили, що цей відеоролик "зіпсував різдвяний настрій", а інші виступили із закликами відмовитись від використання штучного інтелекту у створенні реклами.Згодом, після видалення цієї реклами компанія McDonald’s перепросила: "Ми хотіли відобразити напружені моменти свят, але зрозуміли, що для багатьох це "найчудовіший час". Своєю чергою, творці ролика стали на захист технології: "ШІ не замінює творчість, а розширює можливості. Над проектом 10 людей працювали п'ять тижнів.Відповідний інцидент демонструє, що навіть великі бренди можуть переоцінити готовність аудиторії приймати контент, повністю створений за допомогою штучного інтелекту, особливо коли йдеться про такі емоційні та традиційні теми, як Різдво. Межа між інновацією та фальшю виявилася тоншою, ніж здавалося. На противагу, Coca-Cola, попри торішній негатив, знову використовує ШІ у святковій рекламі."У новій рекламі уникають крупних планів людей і здебільшого використовуються зображення милих тварин у зимових умовах, створені штучним інтелектом", — зауважили медійники.Нагадаємо, раніше велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..

12
01:34 - 11.12.2025

"Фундаментальний стрибок" : японська компанія заявила про прорив у технологіях ШІ

Японська компанія Integral AI заявила, що розробила систему загального штучного інтелекту (Artificial General Intelligence, AGI), яка здатна до автономного навчання без попередніх наборів даних. Розробники описують технологію як "фундаментальний стрибок" у розвитку штучного інтелекту та порівнюють її роботу зі структурою людського неокортексу. Як повідомляє Interesting Engineering, такі заяви традиційно викликають дискусії.Видання зауважило, що Integral AI була заснована колишнім фахівцем Google Джадом Таріфі. Компанія стверджує, що її модель може опановувати нові знання без втручання людини. Розробники визначили AGI через три критерії, а саме:автономне навчання;безпечне та надійне опановування навичок;енергоефективність. Система має навчатися самостійно з нуля, не створюючи загроз та ризиків, а її енерговитрати повинні бути співмірні з людськими показниками при засвоєнні тих самих навичок. Компанія наголосила, що саме ці принципи стали фундаментальними наріжними каменями та орієнтирами розвитку під час створення та тестування цієї першої у своєму класі системи навчання AGI.За даними Integral AI, вони інтегрували нову модель ШІ у роботів. У ході випробувань ці роботи самостійно вивчали нові навички."Сьогоднішня заява — це більше, ніж просто технічне досягнення. Вона знаменує собою наступний розділ в історії людської цивілізації. Наша місія зараз полягає в масштабуванні цієї моделі, здатної до AGI, яка все ще перебуває на початковому етапі, до втіленого суперінтелекту, який розширює свободу та колективну діяльність", — наголосив Таріфі.У коментарі Business Insider він заявив, що залишив Google після десяти років роботи, щоб заснувати Integral AI. За його словами, вибір Японії для запуску компанії був зумовлений лідерством країни у сфері робототехніки. Цей фактор був для нього важливим аргументом на користь Токіо, а не Кремнієвої долини.Integral AI стверджує, що архітектура системи відображає багатошаровий неокортекс, який у людському мозку відповідає за свідоме мислення, сприйняття та мову. Видання Interesting Engineering наголошує, що ці твердження складно перевірити, хоча вони "звучать разюче".Аналітики додали, що галузь вже має історію суперечливих заяв про "першість", як це було з квантовою перевагою. Тоді компанії також натрапляли на критику визначень та методів оцінки. Експерти очікують, що схожі дискусії супроводжуватимуть і нову заяву Integral AI у найближчі місяці.Нагадаємо, раніше видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..

13
02:35 - 10.12.2025

Конкуренція у сфері штучного інтелекту: у ЄС почали розслідування проти Google

Європейський Союз розпочав антимонопольне розслідування проти американської компанії Google через підозри у використанні онлайн-контенту медіа та YouTube для тренування своїх моделей штучного інтелекту.Як повідомляє видання CNBC, посилаючись на слова комісара ЄС з питань конкуренції Терези Рібери, технології ШІ приносять значні інновації та користь для бізнесу і громадян, але прогрес не має відбуватися коштом фундаментальних принципів суспільства.Розслідування зосереджене на можливому нав'язуванні Google несправедливих умов для видавців і творців контенту та на створенні нерівних умов для розробників конкурентних моделей штучного інтелекту. Google наразі не коментувала ситуацію.Комісія заявила, що розслідуватиме, наскільки формування сервісів AI Overviews та AI Mode компанією Google ґрунтується на контенті вебвидавців без належної компенсації і без можливості для видавців відмовитися від цього, не втрачаючи доступу до Google Search."Ця скарга створює ризик придушення інновацій на ринку, який є більш конкурентним, ніж будь-коли раніше. Європейці заслуговують на те, щоб користуватися перевагами новітніх технологій, і ми й надалі тісно співпрацюватимемо з медіа- та креативними індустріями під час їхнього переходу в епоху ШІ", — заявив у коментарі CNBC представник Google.У вересні ЄС оштрафував Google майже на три мільярди євро за порушення антимонопольних правил шляхом викривлення конкуренції на ринку рекламних технологій.Тоді глобальна керівниця підрозділу з регуляторних питань Google Лі-Енн Малголланд заявила, що рішення ЄС є "помилковим" і компанія його оскаржить. Вона наголошувала, що немає нічого антиконкурентного в наданні послуг покупцям і продавцям реклами, а альтернатив нашим сервісам зараз більше, ніж будь-коли раніше.Нагадаємо, раніше видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..

14
04:18 - 09.12.2025

Люди почали говорити мовою чат-ботів: разючі дані дослідження

Людська мова змінюється під впливом чат-ботів зі штучним інтелектом. Дослідники вже фіксують появу нового діалекту. Як повідомляє видання Gizmodo, перші результати наукових робіт свідчать, що штучний інтелект зараз не лише формує онлайн-середовище, а й непомітно змінює спосіб, у який люди формулюють думки.Ще влітку дослідники Центру адаптивної раціональності Інституту Макса Планка опублікували роботу, у якій кількісно відстежили зміни словника користувачів YouTube. Вчені зафіксували зростання використання слів на кшталт "підкреслення", "підкріплювати" чи "ретельний" у період після запуску ChatGPT. Науковці припустили, що використання людьми чат-ботів могло частково вплинути на їхнє мовлення."Згодом у матеріалі Wired модератори Reddit розповіли, що контент, написаний ШІ, руйнує їхні тематичні спільноти. Йдеться передусім про розділи r/AmItheAsshole та інші, де аудиторія цінує щирість людських історій, а підроблені пости підривають довіру", — зазначає видання.Своєю чергою, модератори пояснили, що розпізнання таких текстів часто базується на інтуїтивних відчуттях. Вони наголошують, що на сьогодні стало важче відрізнити машинний стиль, оскільки люди також починають писати у манері штучного інтелекту."Люди стають більше схожими на ШІ, а ШІ стає більше схожим на людей", — зазначили вчені.Інший прояв цього відповідного тренду описав есеїст Сем Крісс у New York Times Magazine. Досліджуючи характерні мовні "тики" чат-ботів, він звернув увагу на випадки, коли британських депутатів запідозрили у використанні ChatGPT під час написання промов. На їхніх виступах стали часто з’являтися фрази на кшталт I rise to speak ("Я підіймаюся, щоб говорити"), які більш притаманні американському політичному дискурсу.На його думку, така фраза лунала у британському парламенті 26 разів за один день. Він розглядає це як приклад того, як чат-боти контрабандою впроваджують культурні практики туди, де їм не місце. Такі прояви есеїст помітив і в через міру пафосних вивісках Starbucks під час закриттів кав’ярень.Він зауважив, що навіть, якщо текст на таких оголошеннях і не згенерований штучним інтелектом, він написаний у новому стилі "надокучливої прози", що виник саме після появи ChatGPT. Дослідники побоюються, що цей стиль закріплюється у мовленні людей і непомітно змінює комунікацію.Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний..

15
15
14 13
...
1