Генеральний директор OpenAI Сем Альтман оголосив у компанії "режим найвищого пріоритету" або "червоний код", мобілізувавши всі наявні ресурси для екстреного удосконалення флагманського продукту — чат-боту ChatGPT. Як повідомляє The Wall Street Journal, ці дії є прямою відповіддю на зростання конкурентного тиску, особливо з боку Google Gemini.Медійники зауважили, що на сьогодні спостерігається разюче зростання бази користувачів системи Google Gemini. Так, за останні три місяці їх кількість збільшилася з 450 до 650 мільйона осіб, що підсилює загрозу лідерству OpenAI на ринку штучного інтелекту."У корпоративній розсилці Альтман закликав співробітників повністю зосередитися на щоденному покращенні ChatGPT. Основними напрямками роботи визначено: зробити діалоги більш індивідуалізованими, значно підвищити швидкодію, збільшити діапазон знань та сферу застосування. Для досягнення цих цілей буде перерозподілено команди розробників, а звіти про прогрес стануть щоденними", — зазначає видання.Водночас мобілізація ресурсів OpenAI призвела до заморожування низки амбітних довгострокових проектів, зокрема розробки ШІ-агентів для сфер охорони здоров'я та шопінгу, створення персонального помічника Pulse. Така жорстка політика обумовлена необхідністю продемонструвати виразний прогрес інвесторам (включаючи Microsoft, Nvidia та SoftBank) на тлі багатомільярдних вливань. Так, за даними аналітиків, для досягнення окупності до 2030 року при поточних витратах OpenAI потребує річного доходу у 200 мільярдів доларів, що ставить надзвичайно високі вимоги до комерційного успіху ChatGPT. Попри тиск Сем Альтман зберігає оптимізм і анонсував швидкий вихід нового продукту. За його словами, вже цього тижня OpenAI презентуватиме нову розумну ШІ-модель, яка, як очікується, перевершить рішення Google за показниками швидкодії та ефективності. У світі технологій штучного інтелекту готуються до чергового витка гострої конкуренції, де ставки зростають до небувалих розмірів.Нагадаємо, раніше видання Bloomberg повідомляло, що ChatGPT домінує серед конкурентів, випереджаючи Google Gemini за масштабами аудиторії. Попри технологічні переваги Gemini у тестах, зростання кількості користувачів сервісу OpenAI відбувається набагато швидше..
Велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей.Як повідомляє видання The Guardian, інститут безпеки штучного інтелекту дослідив, як 19 моделей, серед яких ChatGPT та Grok, впливають на думки користувачів у ході політичних дискусій.Під час дослідження учасники спілкувалися з моделями приблизно 10 хвилин. За цей час вони обмінювалися в середньому сімома повідомленнями. Перед та після розмови вони зазначали, чи погоджуються з низкою політичних тверджень, що дозволило виміряти зміну позиції. Серед тем дискусій були страйки в державному секторі, вартість життя та інфляція, що дозволило виміряти вплив штучного інтелекту на різні аспекти політичного мислення людей."Найпереконливішими були "інформаційно щільні" відповіді, коли моделі використовували багато фактів і доказів. Водночас саме такі відповіді виявилися найменш точними", — зазначили медійники.Відповідні результати свідчать про те, що оптимізація переконливості може призвести до певних наслідків для правдивості, а відповідна динаміка може мати негативні наслідки для публічного дискурсу та інформаційної екосистеми. Моделі демонстрували вищу ефективність переконання після етапу постнавчання, під час якого їх оптимізували за допомогою так званих моделей винагород. Це дозволило посилити переконливість навіть відкритих моделей на кшталт Llama 3 від Meta чи Qwen від Alibaba."Водночас надання ШІ доступу до персональної інформації користувачів майже не вплинуло на результати. Дослідники наголошують, що здатність ШІ генерувати великі обсяги інформації робить його потенційно впливовішим за людину", — додає видання.Оскільки щільність інформації є основним фактором успіху переконання, це означає, що штучний інтелект може перевершити переконливість навіть впливових людей, враховуючи їхню унікальну здатність генерувати великі обсяги інформації майже миттєво під час розмови.Дослідники наголосили, що існують обмеження реального впливу чат-ботів, зокрема, небажання людей витрачати час на тривалі політичні розмови. Це помітив один з авторів дослідження, науковий співробітник AISI Кобі Хакенбург."Спонукання моделей просто використовувати більше інформації було ефективнішим, ніж усі ці психологічно складніші методи переконання. У реальному житті існує багато чинників, які конкурують за увагу людини, що може зменшувати ефект від таких розмов", — зазначив він.Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний..

В японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний.Як повідомляє Japan Today, чоловік знайшов у лісі гриби, які візуально нагадували їстівні гливи або шиїтаке. Проте він засумнівався в їхній придатності до споживання. Пенсіонер намагався отримати консультацію у місцевому ботанічному саду, але оскільки співробітників не було на місці, вирішив скористатися сучасними технологіями.Він сфотографував знахідку та завантажив знімок у програму зі штучним інтелектом. Нейромережа відповіла, що це "схоже на шиїтаке або гливи" та "дозволив" їсти гриб. "Чоловік довірився висновку ШІ, приготував гриби вдома і з'їв їх. Через півгодини у нього почалася сильна блювота, і його негайно доставили до лікарні. Симптоми були тимчасовими, і він повністю одужав", — зазначає видання.Згодом експертиза підтвердила, що чоловік з'їв цукійотаке (Omphalotus japonicus), відомий як "гриб місячної ночі". Цей отруйний вид часто плутають із їстівними грибами. Такий інцидент є суворим попередженням про небезпеку сліпої довіри до інструментів штучного інтелекту, коли йдеться про критичні для здоров'я питання.Нагадаємо, раніше видання BBC повідомляло, що асистенти зі штучним інтелектом, які дедалі частіше замінюють класичні пошукові системи, спотворюють новинний контент у 45% випадків..

Чат-бот зі штучним інтелектом ChatGPT від компанії OpenAI домінує серед конкурентів, випереджаючи Google Gemini за масштабами аудиторії. Попри технологічні переваги Gemini у тестах, зростання кількості користувачів сервісу OpenAI відбувається набагато швидше.Як повідомляє видання Bloomberg, це пояснюється кращими мережевими ефектами та агресивною стратегією масштабування ChatGPT.Цей сервіс нині має понад 800 мільйонів активних користувачів щотижня, а до кінця року ця цифра може сягнути понад мільярда. Це робить ChatGPT одним із найшвидше зростальних онлайн-продуктів в історії. Керівник OpenAI Сем Альтман послідовно нарощує залученість через додавання персоналізованих налаштувань та свободи спілкування, одночасно намагаючись покрити високі операційні витрати компанії."Чат-бот компанії Google під назвою Gemini у листопаді продемонстрував кращі результати у низці галузевих тестів. Генеральний директор Salesforce Марк Беніофф заявив у соцмережі X, що після користування ChatGPT протягом трьох років він більше до нього не повернеться. Беніофф додав, що стрибок неймовірний, міркування, швидкість, зображення, відео. Все стало чіткішим і швидшим", — зазначає Bloomberg. Попри це за часткою ринку Gemini значно поступається конкуренту. За даними Similarweb, у жовтні вебверсію Gemini відвідували приблизно 153 мільйони разів на місяць, тоді як ChatGPT — понад 1,1 мільярда. До того ж темпи зростання продукту від OpenAI є вищими протягом останніх місяців.Аналітики відзначають кілька чинників, які призупиняють зростанню Gemini. Google традиційно сильніший у корисних сервісах — пошуку, картах, електронній пошті, втім має менший досвід у створенні продуктів із потужними мережевими ефектами, які формують у людей звичку повертатися.Також підхід Google до розвитку штучного інтелекту більше зосереджений на наукових досягненнях. Очільник підрозділу штучного інтелекту Деміс Хассабіс ставить в пріоритет дослідження, тоді як OpenAI сфокусована на зростанні залученості та монетизації, що суттєво впливає на різну динаміку зростання продуктів."OpenAI активно оновлює ChatGPT, додаючи "постійну пам’ять", персоналізацію спілкування, функції еротичного контенту (після повного впровадження вікових обмежень), а також групові чати. Відповідні інструменти мають на меті втримати користувачів та підштовхнути їх до переходу на платні підписки", — зазначають медійники.Своєю чергою, Google також залучає нові можливості для Gemini, які роблять його розумним помічником із глибшою інтеграцією в екосистему Google, зокрема, Docs, Chat, Gmail та Calendar. Втім, такі функції поки менш ефективні у масовому залученні аудиторії. Аналітики зауважили, що для Google повільніший темп розвитку не є критичним. Компанія утримує високі позиції у пошуку, хмарних сервісах і виробництві чипів для штучного інтелекту, що дає змогу розвивати Gemini поступово. Перевага піонера в цій галузі стала головною для ChatGPT, і зупинятися OpenAI не планує. Близько 20% працівників цієї компанії мають досвід роботи в Meta, компанії, що історично спеціалізується на максимізації користувацької взаємодії. Це впливає на вибір стратегії, де OpenAI робить ставку на те, що від ChatGPT буде важче відмовитися, тоді як Google — на те, що його модель буде розумнішою.Нагадаємо, у жовтні стало відомо, що американська компанія OpenAI офіційно анонсувала новий браузер ChatGPT Atlas. Очікується, що він стане потужним конкурентом Chrome, Edge та інших платформ..

Компанія Google змінила правила доступу до своїх найновіших моделей штучного інтелекту Gemini 3 Pro та Nano Banana Pro, суттєво обмеживши можливості користувачів, які користуються цими технологіями безплатно. Відповідне рішення пояснили високим попитом на сервіс та нестачею потужностей. Як повідомляє 9to5Google, на момент запуску Gemini 3 Pro користувачі мали право безкоштовно виконувати до п’яти запитів на день та створювати або редагувати три зображення через Nano Banana Pro.Втім, Google оновили правила користування своїми сервісами. На сьогодні безплатним акаунтам гарантується лише базовий доступ, а добові обмеження можуть часто змінюватися під час роботи з моделлю. Так, кількість доступних зображень також скоротили — з трьох до двох на добу."Створення та редагування зображень має високий попит. Ліміти можуть часто змінюватися та скидатимуться щодня", — наголошує компанія.Також сервіс NotebookLM з 25 листопада тимчасово закрив доступ до нових інфографік та слайдів на базі Nano Banana Pro. Користувачі безплатних тарифних планів повністю втратили можливість працювати з цими форматами, а для власників плану Pro запроваджено додаткові обмеження."Через великий попит ми відчуваємо деякі обмеження у потужностях, проте ми плануємо якомога швидше повернутися до нормального режиму", — зазначила компанія в X (Twittter). Втім, обмеження для акаунтів з планами Google AI Pro та Ultra в додатку Gemini залишаються незмінними. Користувачі мають 100 та 500 запитів на день відповідно.Нагадаємо, у вересні видання The Guardian повідомляло, що модель штучного інтелекту Gemini 2.5 вперше розв’язала реальну задачу, яка виявилася надскладною для програмістів-людей. Штучний інтелект здобув золоту медаль на міжнародному конкурсі з програмування, що відбувся на початку вересня в Азербайджані..

Науковці з університетів Великої Британії та Італії з'ясували, що великі мовні моделі штучного інтелекту не здатні повноцінно розуміти каламбури й часто сприймають за жарт те, що не є ним.Як повідомляє The Guardian, вони дійшли висновку, що алгоритми розпізнають структуру гри слів, але не зчитують її зміст. Дослідження, деталі якого були оприлюднені в науковій статті Pun Unintended: LLMs and the Illusion of Humor Understanding, очолили науковці Кардіффського університету та Венеційського університету Ка'Фоскарі. Вони протестували низку жартів і з’ясували, що моделі майже завжди сприймали каламбур, навіть якщо подвійне значення повністю зникало. Дослідники пояснюють це тим, що системи орієнтуються на знайомі мовні шаблони, а не на сенс, яке має висловлювання."Одним із прикладів був жарт "Я колись був коміком, але моє життя перетворилося на жарт". Навіть коли "життя перетворилося на жарт" змінювали на "моє життя стало хаотичним", моделі все одно вбачали каламбур", — зазначили вчені.Професор Хосе Камачо Колладос зі школи комп’ютерних наук та інформатики Кардіффського університету наголосив, що загалом мовні моделі ШІ схильні запам’ятовувати те, що вони вивчили під час навчання. У такий спосіб вони добре вловлюють наявні каламбури, але це не означає, що справді їх розуміють.У ході дослідження вчені змінювали основні елементи жартів і виявляли, що моделі продовжують шукати подвійні значення, яких не існує. Науковці зазначили, що розуміння гумору штучним інтелектом є лише ілюзією.Рівень успішності моделей у відрізненні справжніх каламбурів від звичайних речень при незнайомій грі слів інколи падав до 20%. Науковці були здивовані креативністю відповідей, але наголосили, що це не компенсує відсутність реального розуміння гумору. Відповідні обмеження важливо розуміти, коли йдеться про застосування моделей у сферах, де потрібні емпатія, чутливість до культурних відмінностей чи точне трактування жартів.Нагадаємо, раніше видання The Guardian повідомляло, що розвиток штучного інтелекту у сфері охорони здоров’я може створити серйозні юридичні труднощі у випадках медичних помилок. Використання таких технологій у клінічних системах зростає вибуховими темпами..

Російський диктатор Володимир Путін особисто не використовує штучний інтелект. Водночас чиновники, які працюють на нього, залучають у своїй роботі відповідні технології.Про це повідомив речник очільника Кремля Дмитро Пєсков, пише агентство Reuters. Він пояснив, що російський уряд використовував інструменти штучного інтелекту, щоб допомогти розібратися з питаннями громадян під час щорічного заходу Путіна у форматі запитань і відповідей. Агентство додає, що раніше Путін закликав до створення національної робочої групи для координації роботи Росії над власними генеративними моделями штучного інтелекту.За словами диктатора, такі технології "життєво важливі для збереження російського суверенітету". У Reuters наголосили, що на виставці, організованій найбільшим російським банком "Сбербанк" для Путіна танцював робот на базі штучного інтелекту з метою продемонструвати технологічні досягнення компанії.Нагадаємо, раніше у Reuters повідомляли, що Китай активно розвиває застосування штучного інтелекту у військових технологіях. Йдеться про створення бойових роботів та роїв безпілотників.Додамо, що у жовтні телеканал BBC повідомляв, що асистенти зі штучним інтелектом, які дедалі частіше замінюють класичні пошукові системи, спотворюють новинний контент у 45% випадків. Найгірші результати показав Gemini — 76% неточних відповідей, що більш ніж удвічі перевищує показники інших платформ..

Англійський співак Пол Маккартні приєднався до протесту музичної індустрії проти використання творчих робіт для навчання моделей штучного інтелекту. Музикант випустить майже повністю беззвучний трек, який стане частиною німого альбому "Is This What We Want?" разом із записами Сема Фендера, Кейт Буш, Ганса Ціммера та гурту Pet Shop Boys.Як повідомляє The Guardian, новий трек Маккартні тривалістю у дві хвилини та 45 секунд містить лише тихе шипіння, поодинокі стуки та фонові звуки студії. Він стане B-стороною платівки "Is This What We Want?", яку планують видати на вінілових пластинках цього місяця.Згідно із задумом авторів, така тиша символізує наслідки, які можуть очікувати індустрію, якщо компанії штучного інтелекту й надалі використовуватимуть творчість музикантів без дозволу та виплати роялті. Такий протестний альбом створено на тлі зростального тиску на уряд Великої Британії, щоб не дозволити технологічним компаніям тренувати генеративні моделі на авторських матеріалах без погодження. Водночас Лондон перебуває під впливом антирегуляторних настанов з боку адміністрації Дональда Трампа у США."Британський уряд не повинен легалізувати крадіжку музики на користь компаній, що займаються штучним інтелектом", — зазначено у трек-листі альбому.Ініціатор проекту, композитор і активіст Ед Ньютон-Рекс, додав, що влада надто прислухається до інтересів американських технологічних корпорацій. На його думку, це шкодить митцям. Безпосередньо Маккартні, який нині гастролює Північною Америкою, неодноразово попереджав, що надмірне використання ШІ може знищити можливості для молодих композиторів та письменників."Ми маємо бути обережними… Якщо ШІ це зруйнує, це буде дуже сумно", — зазначив він.Уряд Великої Британії станом на сьогодні консультується щодо можливих змін у законодавстві про авторське право, які дозволили б "інтелектуальний аналіз текстів та даних" включно з використанням музики, текстів та зображень для тренування моделей штучного інтелекту. Обговорення нової правової системи почнеться не раніше 2026 року. Тим часом держава вже підписала угоди з великими компаніями ШІ, серед яких OpenAI, Google та Anthropic, щоб стимулювати інтеграцію ШІ в економіку.Американський президент Дональд Трамп також висловив підтримку лібералізації правил. Він заявив, що моделі штучного інтелекту повинні мати доступ до пулу знань, захищеного авторським правом, без складних переговорів щодо контрактів.Своєю чергою, критики наголошують, що уряд Великої Британії намагається догодити обом сторонам і втрачає довіру креативного сектору. За даними урядових джерел, міністерка науки, інновацій та технологій Ліз Кендалл працює над компромісним рішенням, визнаючи цінність як творчих індустрій, так і технологічних компаній.Так, у відповідь на заяву Маккартні речник уряду наголосив, що позиція лишається непохитною. Він зазначив, що потрібно поєднувати розвиток штучного інтелекту з надійним захистом авторських прав.Нагадаємо, раніше стало відомо, що асистенти зі штучним інтелектом, які дедалі частіше замінюють класичні пошукові системи, спотворюють новинний контент у 45% випадків..

Компанія Марка Цукерберга Meta оголосила про запровадження нової системи оцінювання співробітників. З наступного року вона вимірюватиме ефективність працівників за їхнім внеском, пов’язаним зі штучним інтелектом. Як повідомляє Busines Insider, компанія запускає власного помічника з ефективності для створення оглядів виконаної роботи.Meta повідомила своїм співробітникам, що вплив, зумовлений технологіями штучного інтелекту, зачепить всіх працівників уже з 2026 року. За словами керівниці відділу кадрів Джанель Гейл, оцінюватимуться не лише навички роботи зі ШІ, а й те, наскільки ці інструменти допомагають досягати відчутних результатів. У внутрішньому меморандумі компанії зазначено, що Meta готує додаткові засоби, які здатні суттєво підвищити загальну продуктивність.Попри це, дані про індивідуальне застосування цих технологій не будуть рахуватися під час оцінки ефективності за 2025 рік. Працівники мають самостійно описати власні досягнення, пов’язані з ШІ, у своїх резюме."Загальновідомо, що впровадження штучного інтелекту — це пріоритет, і ми зосереджені на його використанні для допомоги співробітникам у повсякденній роботі", — повідомив речник Meta.Варто додати, що Meta запускає "Помічника з ефективності роботи зі штучним інтелектом". Для цьогорічного циклу самостійного оцінювання, що стартує 8 грудня, працівники компанії можуть використовувати як внутрішнього помічника Metamate, так і зовнішні моделі, на кшталт Google Gemini, під час підготовки звітів щодо особистих успіхів та зворотного зв’язку.Нагадаємо, раніше Meta оголошувала про запуск у Facebook нового інструменту Content Protection. Відповідна система забезпечує автоматичний захист оригінальних відео та дає авторам можливість керувати тим, як їхній контент використовують інші акаунти..

Словом 2025 року за версією Кембриджського словника стало parasocial ("парасоціальний"). Це слово пов'язане з відчуттям зв'язку з популярною людиною, з якою немає особистих зв'язків, вигаданим персонажем або штучним інтелектом.Про це йдеться на сайті Кембриджського словника, пише The Guardian.Його обрали словом року, адже люди часто звертаються до чат-ботів, лідерів думок та знаменитостей, щоб відчути зв'язок з ними у своєму онлайн-житті. Відповідний термін вперше з'явився в 1956 році. "Тоді соціологи Чиказького університету спостерігали, як телеглядачі вступають у "парасоціальні" стосунки з екранними персонажами, віддзеркалюючи свої зв'язки з родиною та друзями. Але це була лише одностороння прихильність", — зазначили у виданні.The Guardian наголошує, що можливості для асиметричних стосунків різко зросли в епоху інтернету. Це стало реальним завдяки соціальним мережам і штучному інтелекту."Parasocial відображає дух 2025 року. Мільйони людей залучені в парасоціальні стосунки, ще більше — просто заінтриговані їхнім зростанням. Дані це підтверджують: на сайті Cambridge Dictionary спостерігається сплеск пошукових запитів за словом parasocial", — зазначив редактор Кембриджського словника Колін Макінтош.Заручини співачки Тейлор Свіфт із зіркою американського футболу Тревісом Келсі та сповідальний альбом виконавиці Лілі Аллен про розрив стосунків West End Girl назвали парасоціальними моментами року.За словами професорки експериментальної соціальної психології Кембриджського університету Сімони Шналл, парасоціальні стосунки є переосмисленням поняття "фандом". Люди почали частіше звертатися до інфлюенсерів, оскільки довіра до традиційних ЗМІ падає. Однак це може призвести до "нездорових стосунків" із зірками соцмереж."Парасоціальні тенденції набувають нового виміру, оскільки багато людей ставляться до інструментів штучного інтелекту, як-от ChatGPT, наче до друзів або заміни терапії", — сказала Шналл.Серед претендентів на звання "Слово року" також було pseudonymization ("псевдонімізація"). Це процес, під час якого інформація про конкретну людину, як-от ім'я або адреса електронної пошти, замінюється на число або назву без якого-небудь значення, що унеможливлює ідентифікацію (термін пов'язаний із захистом особистих даних). Окрім цього, на це звання претендувало memeify ("створити мем") — перетворювати подію, зображення, людину тощо на мем. Відповідний термін відображає вірусну креативність інтернет-культури.Нагадаємо, раніше словник англійської мови Collins Dictionary обрав слово 2025 року — Vibe coding ("вайбкодинг"). Воно означає програмування через природну мову з використанням штучного інтелекту..

У Сполучених Штатах Америки жінка вперше попросила ChatGPT обрати номери для участі у лотереї Powerball. Таким чином вона виграла 150 тисяч доларів. Про це пише видання Newsweek. Мешканка Вірджинії Керрі Едвардс вгадала чотири з перших п'яти чисел у лотереї Virginia Powerball 8 вересня. Це була її перша участь у "грі на щастя". Також вона обрала опцію Power Play за один долар, що потроїло її виграш. Вона отримала 150 тисяч доларів. Переможниця лотереї пояснила, що вона довго думала, як обрати свої номери, бо ніколи раніше не грала онлайн. Тоді вона вирішила звернутися за допомогою до ChatGPT."ChatGPT, поговори зі мною, поговори зі мною про ці 1,7 мільярда доларів, і чи є у тебе для мене цифри", — розповіла переможниця.Чат-бот на базі штучного інтелекту запропонував їй цифри. Через два дні жінка отримала повідомлення про свою перемогу, проте вона одразу не повірила, а подумала, що це шахраї."Я дивлюся на свій телефон, а там написано "будь ласка, заберіть свій виграш у лотерею", і я подумала, що це шахрайство, я знаю, що не виграла. І ось я йду додому, входжу у свій обліковий запис, а там написано, що ви виграли в розіграші в понеділок, 8 вересня, 50 тисяч доларів, і у вас є множник "три", — розповіла американка.Керрі Едвардс отримала приз від виконавчого директора лотереї Вірджинії Халіда Джонса. Вона віддала усі кошт на благодійність.Нагадаємо, за даними Reuters, американська компанія OpenAI оголосила про запровадження батьківського контролю для десктопних і мобільних версій свого чат-бота ChatGPT. Відповідне рішення є відповіддю на судовий позов від батьків підлітка з Каліфорнії, які стверджують, що їхній син скоїв самогубство після спілкування зі штучним інтелектом..

Американський мільярдер, засновник SpaceX і гендиректор Tesla Ілон Маск вважає, що приблизно через 20 років люди зможуть буквально "переселитися" у тіло гуманоїдного робота Tesla Optimus та жити вічно.Про це він заявив під час зборів акціонерів Tesla, які відбулися 6 листопада.Він пояснив, що це стане можливим завдяки прямому зв’язку між мозком і штучним тілом. За його словами, сигнал управління передаватиметься силою думки."Я думаю, що в якийсь момент ця технологія стане можливою. І це, ймовірно, менше ніж через 20 років. Звісно, ви не будете зовсім такими ж. Ви будете трохи іншими, бо будете в тілі робота, і ментальний знімок буде неточним", — зазначив Маск.Американський мільярдер пояснив, що це буде уже інша людина. Тобто, за його словами, багато чого зміниться. "В якийсь момент, якщо ви захочете потрапити в тіло робота, це стане можливим", — додав винахідник.Нагадаємо, раніше американський мільярдер Ілон Маск заявив, що людство зможе облаштуватися на Марсі до 2055 року. У травні 2025 року Ілон Маск зробив заяву про колонізацію Марса. Він назвав це "страхуванням життя" для людства, адже у майбутньому все життя на Землі буде знищене Сонцем..

Американський стартап Sandbar презентував Stream Ring — гаджет-смарткільце зі штучним інтелектом, який здатний імітувати голос користувача та виступати своєрідним "диктофоном для думок".Цей пристрій записує аудіо, розпізнає мову та генерує відповіді, що звучать як голос власника гаджета. Розробники хотіли, щоби користувач мав змогу вести розмову із самим собою, а штучний інтелект міг аналізувати записані фрази, моделювати голос і створювати ефект "внутрішнього діалогу", повідомляє видання Gizmodo.Stream Ring має вигляд звичайного металевого кільця з вбудованим мікрофоном. Задля того, щоби записати думку або ідею, достатньо піднести його до рота й натиснути сенсорну панель. Підтвердження запису супроводжується тактильним зворотним зв’язком. За словами розробників, пристрій активується лише за бажання користувача, а всі дані шифруються під час зберігання та передавання."Записи зберігаються у додатку Stream, де їх можна переглядати, редагувати або конвертувати в текст. Для користувачів передбачено підписку Stream Pro, яка надає доступ до необмеженої кількості нотаток, чатів і ранніх функцій", — зазначає видання.Компанія надає користувачам безкоштовні три місяці підписки, які входять у комплект, але далі вартість становитиме 10 доларів на місяць для перших клієнтів. Невідомими лишилися технічні характеристики пристрою, зокрема немає інформації щодо тривалості роботи від акумулятора.Проте компанія повідомила, що продаж Stream Ring розпочнеться влітку 2026 року. Гаджет доступний до попереднього замовлення у срібному та золотому кольорах за ціною 249 і 299 доларів відповідно. Важливим є те, що розробники позиціюють Stream Ring не як інструмент продуктивності, а як технологію для креативного мислення. Пристрій має допомагати розширювати здатність людини формулювати ідеї природно та інтуїтивно.Нагадаємо, раніше американська компанія Google оголосила про вихід навесні 2026 року нової розумної колонки Google Home на базі штучного інтелекту Gemini AI. Пристрій отримає потужний процесор і підтримку технологій об'ємного звуку, що має забезпечити якісно новий рівень взаємодії з користувачем..

У середу, 5 листопада, Верховна Рада у першому читанні підтримала законопроект №14057, який передбачає оновлення другої книги Цивільного кодексу України, що безпосередньо стосується прав людини. За прийняття документа за основу з подальшим доопрацюванням проголосував 271 народний депутат.Про це йдеться у трансляції засідання.Законопроект особисто представив спікер парламенту Руслан Стефанчук, який є одним з його ініціаторів. Він назвав цей документ "результатом великої праці, що триває понад п'ять років" і зазначив, що положення другої книги значно застаріли.Фундаментальні зміни та цифрові праваСтефанчук наголосив, що оновлення Кодексу передбачає "переосмислення" і "нове викладення фундаментальних прав людини".Ключові нововведення:репродуктивні права: вперше у Цивільному кодексі прописуються репродуктивні права;право на допомогу: закріплюється право на медичну та реабілітаційну допомогу;право на гідність: пропонується підняти статус права на гідність (поставивши його після права на життя) і викласти його нову структуру;цифрова сфера: вперше розглянуто цілу низку цифрових прав, а також питання, пов’язані з використанням штучного інтелекту у контексті права на зображення, право на голос та право на цифрову ідентичність;честь та репутація: абсолютно по-новому викладаються права, що стосуються честі та репутації, як основи демократичного суспільства, та підхід до питань приватності.Критика з боку медіаПопри підтримку в Раді, законопроект раніше викликав критику з боку українських медійників. Вони побачили в деяких положеннях ризик цензури та загрозу для існування журналістських розслідувань.Суперечки викликали норми про те, що інформація, яка порушує презумпцію невинуватості (тобто вину людини ще не доведено в суді), буде вважатися неправдивою, що дає право на спростування. Крім того, документ передбачає, що особа має право на відповідь на поширену про неї інформацію незалежно від того, чи є ця інформація перевіреною. Директорка "Інституту масової інформації" Оксана Романюк висловила побоювання, що це може змусити медіа надавати ефір будь-кому, хто був згаданий навіть побіжно.Обіцянка доопрацюванняДепутати Володимир Ар’єв та Сергій Соболєв наголосили на необхідності доопрацювати документ, особливо в частині захисту від "замовного медіакілерства".Руслан Стефанчук заявив, що автори законопроекту вже годинами спілкувалися з медійниками та юристами й анонсував подальше доопрацювання положень. Голова Комітету ВР з питань свободи слова Ярослав Юрчишин пояснив, що робоча група погодила низку правок після двох засідань з медіаюристами. Оскільки ці правки не могли бути внесені до першого читання, їх включать до другого, щоб "не збивати цілий кодекс". Робота над удосконаленням тексту триватиме.Нагадаємо, 5 червня Верховна Рада прийняла за основу законопроект №12451 щодо визнання зниклих безвісти українських військовослужбовців померлими..

Китай активно розвиває застосування штучного інтелекту у військових технологіях. Йдеться про створення бойових роботів та роїв безпілотників.Як повідомляє агентство Reuters, китайський державний оборонний гігант Norinco вже представив бойову машину, здатну автономно проводити операції та рухатись на швидкості до 50 кілометрів на годину.Відомо, що її основним елементом стала система DeepSeek — модель штучного інтелекту, яка вважається однією з найпотужніших у Китаї. Попри те, що масштаби розгортання відповідних технологій є державною таємницею, документи демонструють, що Пекін прагне досягти переваги у сфері автономного розпізнавання цілей і підтримки рішень у реальному часі — аналогічно до підходу, який застосовують Сполучені Штати Америки."Не всі заявлені розробки можна підтвердити як чинні системи, проте кількість патентів і дослідницьких проектів свідчить про системність зусиль Китаю", — зазначає Reuters. Так, серед патентів і тендерів китайської армії було виявлено використання та пошук чіпів Nvidia, які Китай заборонив своїм технологічним компаніям, включно з тими, що перебувають під американським експортним контролем. Агентство зауважило, що наразі невідомо, чи закупили ці процесори до введення обмежень, чи вже після цього. Своєю чергою, Nvidia заявила, що не має змоги відстежувати перепродажі старих моделей, а їхнє застосування у військових цілях без офіційної підтримки компанії неможливе.Цього року спостерігається перехід китайських військових підрядників на вітчизняні чіпи Huawei. Це узгоджується з політикою Пекіна щодо "алгоритмічного суверенітету" — зменшення залежності від західних технологій. Аналітичний центр Jamestown Foundation зазначає, що кількість військових закупівель, пов’язаних із DeepSeek, стрімко зросла у 2025 році, а моделі конкурента Alibaba Qwen згадуються значно рідше.Водночас Держдепартамент США заявив, що DeepSeek надає та, ймовірно, продовжить надавати підтримку військовим і розвідувальним операціям Китаю. Вашингтон, за словами речника Державного департаменту, просуває стратегію співпраці у сфері ШІ з "довіреними партнерами", щоб уникнути потрапляння технологій до потенційних ворогів.Агентство додає, що розробники також працюють над створенням роботизованих собак і роїв дронів, що зможуть діяти автономно. Торік у листопаді китайська армія оголосила тендер на створення собак-роботів із системами штучного інтелекту для розвідки та розмінування. Такі машини від компанії Unitree вже брали участь у військових навчаннях.Зазначається, що китайські фахівці розробляють системи на базі DeepSeek для швидкого аналізу супутникових знімків і координації операцій між дронами, радарами та літаками. За оцінками дослідників Сіаньського технологічного університету, система DeepSeek змогла оцінити 10 тисяч бойових сценаріїв за 48 секунд, тоді як традиційне планування потребує 48 годин."Деякі патенти демонструють інтеграцію штучного інтелекту у дрони, які зможуть самостійно розпізнавати, відстежувати та атакувати цілі без прямого втручання людини. Зокрема, Університет Бейхан використовує DeepSeek для підвищення ефективності рою дронів проти "низьких, повільних, малих" цілей — таких, як легкі літаки чи безпілотники", — наголошує Reuters.Журналісти зауважили, що попри офіційні заяви Китаю про намір зберігати людський контроль над автономними військовими системами, західні експерти попереджають, що змагання між Пекіном і Вашингтоном може призвести до ескалації у сфері військового штучного інтелекту. У Сполучених Штатах вже оголосили про плани розгорнути тисячі автономних дронів до кінця цього року.Нагадаємо, раніше видання The Guardian повідомляло, що розвиток штучного інтелекту у сфері охорони здоров’я може створити серйозні юридичні труднощі у випадках медичних помилок. Використання таких технологій у клінічних системах зростає вибуховими темпами..
