# ChatGPT

23:29 - 03.02.2026

У роботі ChatGPT стався глобальний збій: що відомо

У вівторок, 3 лютого, користувачі популярного чат-бота ChatGPT з усього світу повідомляють про серйозні труднощі в роботі сервісу. Масштабний технічний збій зачепив ключові функції платформи, залишивши мільйони людей без доступу до штучного інтелекту.Про це повідомляють профільні ЗМІ з посиланням на дані моніторингового сервісу Downdetector.Що відомо на цей часЗгідно з графіками активності, різкий стрибок скарг почався у вечірні години 3 лютого. Користувачі зазначають, що сервіс або не завантажується зовсім, або видає помилки при спробі згенерувати відповідь.Основні факти про інцидент:географія. Проблеми мають глобальний характер і фіксуються в різних частинах світу;кількість скарг. На піку збою кількість повідомлень про помилки в Downdetector перевищила позначку у 12 500 звернень;причини. Наразі офіційні представники OpenAI не надали пояснень щодо технічних причин несправності.Спеціалісти компанії зазвичай оперативно реагують на подібні ситуації, проте точні терміни відновлення стабільної роботи ChatGPT поки залишаються невідомими.Нагадаємо, унаслідок збою в хмарному сервісі Amazon, який зафіксували 20 жовтня, спостерігалися проблеми в роботі інтернет-сервісів. Зокрема, були недоступні Zoom, Snapchat, Steam, Atlassian та інші. Збій відбувся переважно в американському регіоні..

1
04:24 - 30.01.2026

OpenAI запустила інструмент штучного інтелекту для науковців: у чому його особливість

Американська компанія OpenAI оголосила про запуск Prism — спеціалізованого застосунку для наукових досліджень і текстів. Інструмент орієнтований на роботу з LaTeX і має вбудований штучний інтелект на базі моделі компанії GPT-5.2.Як повідомляє Engadget, Prism уже доступний безплатно всім користувачам з особистим обліковим записом ChatGPT.Компанія представила Prism, як окремий застосунок для наукової роботи. Розробники наголошують, що він покликаний спростити підготовку досліджень і публікацій. В OpenAI очікують, що він матиме для науки схожий ефект, як Claude Code чи Codex для програмування."Ми усвідомлюємо, що зі зростанням можливостей штучного інтелекту виникають занепокоєння щодо обсягів, якості та довіри в науковій спільноті", — заявив віцепрезидент OpenAI з науки Кевін Вейл.Медійники зауважили, що Prism побудований на базі Crixet — хмарної платформи LaTeX, про придбання якої OpenAI оголосила того ж дня. LaTeX, що є мовою розмітки даних для високоякісного оформлення документів, залишається стандартом для більшості наукових журналів, але робота з ним часто потребує значних зусиль і використання кількох інструментів.Новий застосунок поєднує редагування LaTeX із вбудованим ШІ-помічником, який працює на моделі GPT-5.2 Thinking. Під час демонстрації Prism використовували не лише для форматування, а й для пошуку релевантної наукової літератури та автоматичного створення списку використаних джерел."Ніщо з цього не звільняє вченого від відповідальності за перевірку правильності своїх посилань, але це, безумовно, може пришвидшити процес", — додав Вейл.Віцепрезидент OpenAI з науки додав, що адекватним підходом є не заборона технологій, а їхня прозора інтеграція. На його думку, штучний інтелект повинен стати інструментом у руках вчених, який працює під наглядом і не підриває довіру до наукових даних. Так, окрім наукових статей, Prism продемонстрували як інструмент для викладання. Під час презентації співробітник компанії створив план заняття для аспірантів із загальної теорії відносності та набір задач для студентів.Prism доступний безплатно для всіх власників особистих облікових записів ChatGPT. Він підтримує необмежену кількість проєктів, співавторів і час компіляції. Також доступна інтеграція з Zotero для роботи з цитуваннями. Найближчим часом компанія планує відкрити доступ до Prism для користувачів тарифів ChatGPT Business, Team, Enterprise та Education.Нагадаємо, раніше OpenAI презентувала спеціалізований сервіс для роботи з питаннями щодо здоров’я та медичною інформацією під назвою ChatGPT Health. Він дає змогу безпечно поєднувати дані про здоров’я користувача з можливостями чат-бота..

2
12:00 - 12.01.2026

Інтерв’ю з фахівцем з кібербезпеки: про невидимі загрози, маніпуляції й пастки в Інтернеті

Кібератаки, шахрайство, витоки даних і маніпуляції в Інтернеті давно перестали бути абстрактною загрозою. Сьогодні вони стосуються кожного — від пересічного користувача соцмереж до державних установ і об’єктів критичної інфраструктури. В умовах повномасштабної війни кіберпростір фактично став ще одним фронтом, де противник системно збирає дані, здійснює атаки й намагається впливати як на окремих осіб, так і на цілі організації.Про те, чому більшість кібератак починаються з побутових помилок, як шахраї користуються людською довірою, які загрози несе штучний інтелект і діпфейки, а також чому навіть "звичайні" пости в соцмережах можуть становити небезпеку, — ми поговорили з завідувачем кафедри кримінології та інформаційних технологій Національної академії внутрішніх справ, доктором філософії, доцентом й капітаном поліції Владиславом Школьніковим.Особиста кібербезпека: щоденні ризики— Більшість кіберзагроз починаються з побутових речей, які ми робимо щодня і часто не сприймаємо як небезпечні. Чому, на вашу думку, користувачі так часто недооцінюють ці ризики?— Дійсно, "успішні" шахрайства є такими для зловмисників, адже для нас це завжди шкода. Вони реалізуються саме через те, що звичайний користувач не до кінця розуміє базові правила поведінки в кіберпросторі, яких варто дотримуватися. Як мінімум, коли він отримує незрозумілі посилання або дзвінки, то має своєчасно ідентифікувати, що це фішинг або прояв соціальної інженерії.Простими словами, якщо пропозиція дуже заманлива й ситуація складається надто терміново, негайно, стресово, то першочергово треба замислитися, чи дійсно це так, а чи, можливо, це прояв соціальної інженерії або психологічного впливу на користувача. Тут є базове правило: треба бути уважним і, як кажуть, одразу близько до серця не сприймати, а зупинитися й холодним розумом перепровірити всі ці дані, які нам намагаються передати або в чомусь запевнити. Це перше, на що обов’язково варто звернути увагу. І в більшості випадків це рятує від подальших ризиків і наслідків.Фішинг — вид шахрайства, метою якого є виманювання в довірливих або неуважних користувачів мережі персональних даних клієнтів онлайнових аукціонів, сервісів із переказу або обміну валюти, інтернет-магазинів. — Наскільки сьогодні надійні паролі залишаються ефективним інструментом захисту і якими вони мають бути?— Використання надійних паролів — базові навички, такі собі "софт скіли", які потрібно мати. Важливо не боятися цих понять, а вивчати їх. Для прикладу, довжина надійного пароля має бути, як мінімум, 12 символів (якщо це дозволяє інтерфейс додатка чи соцмережі). Маємо розуміти, що чим більше символів у паролі, тим він безпечніший, адже час на його вгадування у зловмисника збільшується.Недостатньо просто цифр й літер — мають бути ще й спеціальні символи. У паролі не повинно бути очевидних комбінацій, які всім відомі: наприклад, "123456789" тощо, або слів, які з нами асоціюються. Важливо, щоб на кожен обліковий запис був свій унікальний пароль.VPN і захист з’єднання— Багато користувачів сприймають VPN виключно як інструмент для зміни локації або доступу до заблокованих сайтів. Для чого насправді він потрібен і чому його не варто сприймати лише як спосіб зміни розташування?— Якщо казати про віртуальні приватні мережі або VPN, то звичайні користувачі не завжди до кінця усвідомлюють їхній функціонал і значущість. Більшість дійсно асоціює VPN зі зміною локації, аби мати змогу потрапити на ресурси інтернет-майданчиків, які заборонені для відвідування на рівні оператора або провайдера зв’язку. Можливо, саме тому ми й почали використовувати VPN, але насправді це також про безпеку, зокрема тоді, коли підключаємося до публічних Wi-Fi-мереж.Тому, якщо є необхідність вийти в Інтернет у публічному місці, найкращий варіант — користуватися мобільним інтернетом або роздати його на інший пристрій. Але в наших реаліях, в умовах ракетних обстрілів, коли є необхідність спускатися в укриття і перебувати там, інколи єдина можливість — скористатися публічною Wi-Fi-мережею. Тоді ми можемо підключатися до таких публічних мереж, але обов’язково з використанням VPN.— А чи всі VPN однаково безпечні і як правильно обирати такі сервіси?— Потрібно розуміти, що VPN — це теж застосунок, який хтось розробляв, тому розробника потрібно перевіряти на предмет того, наскільки якісно він може надавати цей сервіс. Тут також потрібно з’ясувати, щоб він не мав жодного зв’язку з Росії, тобто не був розробником із території РФ або інших країн, які здійснюють ворожі дії стосовно України. Бажано, щоб розробниками були представники країн, які є нашими надійними партнерами або союзниками.Двофакторна аутентифікація та контроль доступу— Які найпоширеніші помилки роблять люди, намагаючись убезпечити свої акаунти?— Якщо ми говоримо про облікові записи, їх потрібно захищати, і це починається зі створення надійного пароля, а також з увімкнення двоетапної перевірки або двофакторної аутентифікації. Коли ми стикаємося з цим механізмом додаткового захисту облікових записів, маємо чітко усвідомлювати, що під час налаштування двофакторної аутентифікації існують різні способи.Один із них — це код, який надсилається у вигляді SMS-повідомлення. Тобто звичайне SMS-повідомлення — код, який у текстовому вигляді передається по відкритих каналах зв’язку. Це вважається двофакторною аутентифікацією, але на сьогодні такий спосіб другого фактора не є надійним. Тому його краще не використовувати.— А який тоді варіант двофакторної аутентифікації сьогодні є найбільш надійним?— Краще використовувати спеціалізовані застосунки, які генерують одноразовий код, що виступає другим фактором і протягом 30 або 40 секунд доступний для введення.Водночас на цьому етапі потрібно усвідомлювати, що ми можемо втратити доступ до такого застосунку. Щоб мінімізувати цей ризик, варто пам’ятати: під час використання спеціалізованого застосунку, який генерує другий фактор, необхідно заздалегідь завантажити резервні ключі. Саме вони дозволять у разі втрати доступу до застосунку відновити доступ до акаунта.Другий фактор — це безпечно, і його потрібно використовувати обов’язково. Але може трапитися ситуація, коли користувач налаштував двофакторну аутентифікацію, а згодом завдав собі ще більшої шкоди — залишився без доступу до облікового запису через втрату застосунку, який генерує цей другий фактор.— Як правильно налаштувати двофакторну аутентифікацію, щоб не втратити доступ до акаунта?— Якщо простими словами, на мобільний пристрій інсталюється спеціалізований застосунок, який генерує одноразові коди, що діють протягом 30 секунд і виступають другим фактором. Але що відбудеться, якщо ми втратимо фізичний пристрій, на якому цей застосунок інстальований? У такому випадку нас врятують попередньо завантажені резервні ключі, які дозволять відновити доступ до акаунта.Якщо говорити про механізми технічного захисту облікових записів, варто згадати ще одну негативну тенденцію — діяльність так званих дроперів, тобто осіб, які надають свої технічні можливості третім особам. Зокрема, може виникати ситуація, коли людині пропонують передати свій обліковий запис у користування третій особі на два-три дні. В обмін обіцяють повернути доступ до акаунта і навіть запропонувати додаткову винагороду.Тут важливо усвідомлювати, що протягом цих двох-трьох днів третя особа може використати обліковий запис у будь-яких, зокрема й зловмисних, цілях. Саме тому від таких пропозицій "трошки підзаробити" потрібно категорично відмовлятися. Наразі спостерігається вкрай негативна тенденція поширення подібних схем, коли зловмиснику необхідно лише тимчасово отримати доступ до акаунта, аби використати його у своїх цілях.Те саме стосується і доступу до банківських карток. У жодному разі не можна передавати критично важливі дані. Зокрема, CVV-код на звороті банківської картки категорично заборонено повідомляти третім особам — навіть співробітники банку не мають права запитувати таку інформацію. Тому, якщо ви стикаєтеся з ситуаціями, коли у вас просять CVV-код, варто замислитися, чи не маєте справу зі зловмисником, і в такому випадку негайно припинити спілкування. Саме такі класичні помилки найчастіше й допускають звичайні громадяни.— Чому люди похилого віку найчастіше стають жертвами шахраїв і які сигнали мають їх насторожувати?— Якщо говорити про людей похилого віку, то у більшості випадків зловмисник діє успішно саме через довіру. Йдеться про громадян, які, можливо, перебувають у скрутному матеріальному становищі й можуть підпадати під психологічний вплив. Тому загальна рекомендація тут проста: на психологічному рівні потрібно бути уважними, пильними й завжди пам’ятати, що безоплатний сир буває лише в мишоловці. Часто це лише заманлива пропозиція, мета якої — шахрайським шляхом отримати гроші або персональні дані.Окрім вищезазначеного, треба звертати увагу на негайність, стресовість, терміновість. Якщо ж бачимо тривожні сигнали, варто зупинитися і замислитися, чи дійсно це правда, а не є проявом якихось шахрайських дій з боку зловмисника.Ризики у соціальних мережах— Наскільки реально, що дані, якими ми ділимося в соцмережах, збираються і можуть бути використані проти нас або проти держави? Чому навіть люди, які не пов’язані з оборонним сектором, можуть бути цікавими ворогу?— Ми, можливо, не до кінця усвідомлюємо ту роль, яку можемо відігравати, і чому можемо бути цікавими третім особам. Зрозуміло, що класичні схеми, пов’язані з отриманням грошей з боку зловмисника, були, є і будуть. Але в умовах повномасштабного вторгнення є й інші ситуації, коли може діяти окрема особа або група осіб, які просто збирають дані про кожного з нас, щоб планувати певні операції, зокрема ракетні обстріли.Тому що всі ми якщо безпосередньо не пов’язані із сектором оборони і безпеки, то маємо знайомих або родичів, які дотичні до оборонних заходів. І, відповідно, через нас потенційно можна дізнатися інформацію про них. Якщо її вже можна отримати, то далі — можливо, і про дислокацію певного підрозділу, який належить до Збройних сил України.А якщо ми працюємо в органах державної влади або в органах місцевого самоврядування, на нас покладається додаткова зона відповідальності. Бо, як правило, державний службовець має доступ до певних баз даних із персональними даними. І хоча як фізична особа він може не становити інтересу для зловмисника, цінними для нього є дані, доступ до яких можна отримати через цього державного службовця в межах організації.— А як зловмисники можуть потрапити в ІТ-інфраструктуру організації через одного працівника? І чому фішинг залишається однією з головних причин успішних кібератак?— Одна з найпоширеніших кібератак — це проникнення до службового пристрою звичайного користувача, який є працівником певного підрозділу або органу, а вже через нього — до ІТ-інфраструктури всієї організації. Зрозуміло, що в такому разі збитків може бути завдано значно більше, адже звичайний користувач, який не до кінця усвідомлює свою роль і місце в системі кібербезпеки установи, може стати тією проміжною ланкою, через яку зловмисник потрапляє в систему організації.Саме тому ми й бачимо в засобах масової інформації масштабні негативні наслідки кібератак — витоки даних та інші інциденти. І в більшості випадків, за статистикою, успішність такої атаки на первинному етапі пов’язана з тим, що звичайний працівник установи, який користується службовим пристроєм і корпоративною електронною поштою, не розпізнає фішинг — повідомлення, спрямоване на інфікування службового пристрою, а згодом і всієї ІТ-інфраструктури організації.У теорії кібербезпеки найслабшим елементом системи кібербезпеки є саме людина. Бо вона піддається психологічному впливу, і саме через неї найчастіше можна отримати доступ до систем.Штучний інтелект і нові загрози— Штучний інтелект стрімко входить у наше життя, але разом із можливостями з’являються і нові загрози. Які реальні кіберзагрози вже виникли через розвиток штучного інтелекту? І як технології діпфейку можуть використовуватися для шахрайства?— Ми вже зараз із засобів масової інформації можемо бачити повідомлення про те, що з використанням технологій діпфейку штучний інтелект дозволяє фактично підробляти обличчя кожного з нас. Якщо говорити про діпфейки, то, умовно, може сидіти одна людина, а на моніторі відображатися обличчя зовсім іншої особи.Діпфейк (від англ. deepfake, від поєднання термінів deep learning ("глибинне навчання") та fake ("підробка")) — методика синтезу зображення людини, яка базується на штучному інтелекті.Як створюється діпфейк? Зображення людини використовують для поєднання і накладення на інші зображення або відеоролики за допомогою штучного інтелекту.Діпфейк-відео найчастіше розміщують на сервісах YouTube, Vimeo, TikTok. Перше "вірусне" діпфейк-відео було з Бараком Обамою: https://youtu.be/cQ54GDm1eL0Вже є зафіксовані факти, пов’язані з використанням систем верифікації — це, зокрема, перевірка за фото. Тобто людина заходить у певний застосунок і, щоб його розблокувати, потрібно просканувати обличчя. Система порівнює обличчя людини в режимі реального часу з тими зразками фото, які були попередньо збережені в цьому застосунку. Сьогодні, з використанням штучного інтелекту, а саме технологій діпфейку, можна підробити обличчя людини та успішно пройти таку верифікацію.Вже були зафіксовані приклади, зокрема ті, які розслідувалися Національною поліцією, коли викривалися шахраї, які, використовуючи цю технологію, успішно отримували доступ до певних застосунків. Тому це виклик, який становить загрозу для кожного з нас. І щоб його мінімізувати, на рівні певних установ, як приватних, так і державних, впроваджуються додаткові механізми захисту від цих шахрайських проявів.— Що можуть зробити звичайні користувачі, щоб мінімізувати ризики від таких загроз?— Сказати точно, як повністю мінімізувати цей ризик для фізичних осіб, щоб у мережі Інтернет взагалі не залишалося жодних цифрових слідів у відкритому просторі, складно. Бо заборон цьому немає, але в контексті загроз, пов’язаних саме зі штучним інтелектом, передусім важливо обов’язково оновлювати програмне забезпечення. Тому що випуск оновлень — це не лише питання зміни функціоналу чи інтерфейсу, а й питання безпеки. Саме під час оновлень підвищується рівень захисту, зокрема фотоверифікації та відеоверифікації в конкретних застосунках.Тому ми маємо певною мірою покладатися на розробників і бути впевненими, що вони зможуть ефективно ідентифікувати шахрайські схеми, які з використанням штучного інтелекту здатні реалізовуватися в тих чи інших застосунках. І якщо розробник постійно вдосконалює свої системи захисту, нам залишається довіряти таким рішенням і обов’язково встановлювати оновлення.— Ви згадали про ризики публікування персональних даних в інтернеті. Які загрози виникають для українців під час використання ChatGPT та інших великих мовних моделей, коли їм передають особисту інформацію?— Перше, що маємо усвідомлювати, — це те, що ChatGPT та інші великі мовні моделі, є зручними і справді можуть допомагати в багатьох питаннях. Але водночас варто розуміти, що ці сервіси надаються конкретними компаніями, які використовують власні обчислювальні потужності та штучний інтелект для обробки наших запитів.Найімовірніше, усе листування і всі дані, які ми передаємо, зберігаються на серверах та інфраструктурі цих компаній. І якщо ми передаємо великі обсяги персональних даних, то в окремих випадках це може бути навіть заборонено — зокрема, коли йдеться про діяльність державного службовця. Тобто надавати персональні дані в межах виконання службових обов’язків категорично заборонено, адже вони зберігатимуться на сторонніх ресурсах.Якщо говорити про фізичних осіб, які не належать до державної служби, зрозуміло, що під час такого спілкування скласти психологічний портрет кожного з нас нескладно. Йдеться про наші психологічні особливості, певні тонкощі, нюанси тощо. І тут важливо чітко усвідомлювати: якщо ми розуміємо цей ризик і все одно передаємо ці дані, то кому саме ми їх передаємо.— Які додаткові ризики виникають при використанні штучного інтелекту, розробленого в інших країнах?— Якщо взяти таку велику мовну модель, як DeepSeek — розробка китайського стартапу, то вона на рівні з ChatGPT дає відповіді на запитання, що нас цікавлять. Тому зрозуміло: якщо ми передаємо свої дані саме в DeepSeek, то вони акумулюються й обробляються розробниками цієї країни, які можуть робити з них певні висновки щодо кожного з нас.Тому важливо на національному рівні усвідомлювати цей ризик і замислюватися, кому саме ми передаємо свої дані, наскільки можемо довіряти отримувачам цієї інформації, тобто розробникам, які потенційно мають до неї доступ, — і вже від цього відштовхуватися у своїх рішеннях.— Що можуть зробити користувачі, щоб мінімізувати ризики під час використання ChatGPT та подібних сервісів? Якою має бути політика щодо використання штучного інтелекту в органах державної влади?— Звичайно, повністю відмовитися від використання ChatGPT або інших великих мовних моделей буде складно. Єдине, що ми можемо зробити, — це обмежити обсяг інформації, яку передаємо, принаймні на рівні захисту персональних даних. Не вказувати реальні прізвища, імена, по батькові чи справжні номери телефонів, а за можливості шифрувати їх або навмисно змінювати окремі дані. Тобто хоча б на цьому рівні ми маємо передбачати такі механізми захисту.Якщо ж говорити саме про органи державної влади, то, на мою думку, тут має діяти пряма й категорична заборона на використання штучного інтелекту не в локальному середовищі, особливо під час виконання службових обов’язків.Як готуються кібератаки— У кіно хакери ламають систему за секунди. Насправді кіберзлочини інколи готуються місяцями або навіть роками. З чого зазвичай починається складна кібератака? І які фактори визначають тривалість підготовки кібератак?— Дійсно, окремі атаки можуть здійснюватися протягом тривалого проміжку часу, і ми маємо це усвідомлювати. Я вже згадував, що нам потрібно оцінювати себе не лише як фізичних осіб, а і як представників певних установ або організацій. Якщо в конкретній установі чи організації є критично важливі чутливі дані, зловмисник може намагатися отримати до них доступ саме через нас.Першим етапом зазвичай стають фішингові розсилки — найчастіше це електронні листи й повідомлення через месенджери. Останні мають шахрайський характер і спрямовані на отримання від нас персональних чи чутливих даних, або ж на інфікування службового пристрою. І тут важливо розуміти: якщо службовий пристрій інфікований, зловмисник може далі переходити до мережі та ІТ-інфраструктури організації, аби уже там завдати шкоди всій установі, наприклад, через масові витоки даних. І якщо зловмисники діють саме за таким сценарієм, то підготовка до атаки може тривати не один місяць — інколи й півроку. Йдеться не про одномоментну атаку, а про проходження низки етапів, які в підсумку здатні завдати масштабної шкоди цілим організаціям.— Чи можете навести приклад кібератаки, яка готувалася тривалий час?— Яскравим прикладом є вірус Petya. Якщо проаналізувати події, пов’язані з Petya, то, за різними оцінками, зловмисники діяли від шести місяців до року, щоб завдати масштабних негативних наслідків. Вони зачепили як приватний сектор, так і органи державної влади — не лише в Україні, а й в інших країнах світу.Petya — сімейство шкідливих програм, що вражає комп'ютери під управлінням сімейства ОС Microsoft Windows. Перші представники були виявлені 2016 року та були звичайними зразками здирницьких вірусів.27 червня 2017 року сталась масштабна атака останнім представником сімейства, який запозичив деякі модулі з попередніх зразків, але, можливо, був створений іншими розробниками та вже був вірусом-винищувачем даних, замаскованим під програму-вимагач.Кіберпростір і війна— Цифрові технології сьогодні стали повноцінною зброєю у війні. Кібератаки впливають на розвідку, управління, логістику та темп бойових дій. Як цифрові технології використовуються під час російсько-української війни й чи можна говорити про постійну кіберкампанію, а не окремі епізоди?— Частково я вже про це говорив: під час повномасштабного вторгнення кіберпростір став тим середовищем, у якому ворог активно діє. За стандартами НАТО кіберпростір сьогодні також вважається зоною ведення бойових дій, і ворог активно використовує цю сферу. Чому? Тому що в сучасному світі дані відіграють надзвичайно важливу роль, а їхня цінність є дуже високою.Фактично ворога цікавить велика кількість даних — як персонального характеру про кожного з нас, фізичних осіб, так і даних про юридичних осіб, цілі організації, незалежно від того, чи мають вони пряму або опосередковану причетність до сектору безпеки й оборони. Збираючи ці дані по крихтах, ворог може сформувати для себе загальну картину, яка потенційно допоможе йому в реалізації тих чи інших військових операцій.Тому діяльність у кіберпросторі сьогодні може мати не лише мотив отримання фінансової вигоди, а й мотив збору даних — як відкритого, так і закритого характеру.— Наскільки небезпечними у цьому контексті є дані, які люди та організації публікують у відкритому доступі?— Усі дані, які ми публікуємо про себе, можуть бути корисними для зловмисника, адже якщо вони перебувають у публічному просторі, то фактично не захищені. Якщо ми розміщуємо у відкритому доступі персональні або інші дані, які потенційно можуть бути цікавими ворогу, то йому, зрозуміло, нескладно їх зібрати, проаналізувати й зробити відповідні висновки.Саме тому сьогодні активно використовується такий напрям, як OSINT — розвідка з відкритих джерел інформації. Чому OSINT є настільки ефективним? Тому що ми, по суті, можемо публікувати про себе та інших велику кількість інформації у відкритому просторі. Зрозуміло, що повністю заборонити це складно, але ми маємо чітко усвідомлювати, що саме публікуємо і які ризики з цього можуть виникати.— Як ці дані можуть бути використані проти конкретної людини?— Ризики можуть бути різними, але якщо говорити в контексті кібератак або кіберпростору, то, як я вже згадував, ідеться про формування психологічного портрета. Зібравши достатню кількість даних про людину, можна скласти загальну картину, яка дозволяє зрозуміти, що її цікавить, які вона має хобі та вподобання. А далі, коли зловмисник це усвідомлює, він починає надсилати повідомлення, які є для нас релевантними й потенційно можуть нас зацікавити.Тобто, якщо ми ніколи не займалися футболом і отримаємо фішинговий лист, пов’язаний із футбольними змаганнями, ймовірно, не звернемо на нього уваги. Але якщо з відкритих джерел стає зрозуміло, що ми більше полюбляємо, наприклад, баскетбол, то зловмисник може використати саме цю тематику або пов’язані з нею події.І якщо якесь повідомлення надто емоційно нас зачіпає, варто зупинитися й замислитися, чи дійсно це правда. Можливо, йдеться лише про якісну маніпулятивну атаку, мета якої — спонукати нас до певних дій.— Яка кінцева мета таких кібератак у контексті війни? І як відрізняється підхід України та Росії до кібероперацій у цілях, методах і пріоритетах?— А яку відповідь від нас очікує зловмисник? Це або передача персональних даних, або ситуація, коли фішинг супроводжується прикріпленими файлами, що містять шкідливе програмне забезпечення. Мета в такому разі — спонукати нас завантажити цей файл і запустити його на своєму пристрої.Що стосується підходів, то вони у нас різняться, адже рівень технологій є різним. В Україні, на щастя, є сучасні технології — як власні розробки, так і рішення наших західних партнерів, які суттєво допомагають не лише протидіяти агресії РФ, а й у деяких випадках ефективно збирати інформацію про ворога. Тому в цьому аспекті ми справді відрізняємося і достатньо якісно реалізуємо цей напрям у межах наявної ситуації.Водночас, з огляду на політику РФ щодо України, противник у більшості випадків націлюється на об’єкти критичної інфраструктури. Зокрема на ті, збір даних про які може дозволити завдавати ракетних ударів і шкоди цивільному населенню. Саме тому об’єкти критичної інфраструктури на території України страждають не лише фізично, а й у кіберпросторі: проти них намагаються здійснювати атаки, збирати дані, а в окремих випадках — навіть зупиняти їхню роботу.З 2014 року наша держава реалізувала низку заходів, спрямованих на суттєве підвищення кіберстійкості об’єктів критичної інфраструктури. Адже саме з цього періоду кібератаки активно застосовувалися проти енергетичних комплексів та інших критичних об’єктів. У 2014-2015 роках були випадки, коли внаслідок таких атак населення залишалося без електропостачання протягом кількох годин. Нині подібних сценаріїв уже не відбувається, оскільки кібероборона значно посилилася, а негативний досвід був врахований.— Але як все-таки кібератаки можуть впливати на бойові дії і ситуацію на фронті? — Зрозуміло, що йдеться, зокрема, про логістичні постачання — отримання інформації про них. Безпосередньо на лінії бойового зіткнення використовуються свої технічні можливості та інструменти для перехоплення даних у радіусі 20-30 кілометрів. Я не є фахівцем у цих деталях, але такий інструментарій там застосовується.Але якщо потрібно перехоплювати дані, які фізично перебувають за 1000-2000 кілометрів, тобто в зовсім інших локаціях, то тут, зрозуміло, зона відповідальності вже лежить у площині кібероперацій. Йдеться про те, як потрапити в систему і як із цієї системи зібрати дані, які потенційно можуть допомогти планувати ті чи інші військові операції.Тому в більшості випадків, відповідаючи на ваше питання, йдеться саме про можливість визначення логістичних постачань, а вже з урахуванням зібраної інформації — планування подальших військових операцій.Технології у роботі правоохоронців— Цифрові загрози змінюють і підхід до роботи правоохоронних органів — від навчання до розслідувань. Майбутні правоохоронці повинні розуміти кіберзагрози, навіть якщо не планують займатися програмуванням. Як у Національній академії внутрішніх справ навчають курсантів кібербезпеці та роблять акцент на практичній підготовці?— У Національній академії внутрішніх справ акцент робиться на практичній підготовці майбутнього поліцейського — курсанта, який уже після випуску може використовувати конкретні інструменти та методики для розкриття і розслідування кримінальних правопорушень. Відповідно, ми впроваджуємо кейсові завдання та практичні симуляції із залученням чинних працівників профільних підрозділів.Можна сказати, що в нас напрацьовані практичні симуляції та завдання, які безпосередньо стосуються питань кібербезпеки, збору й аналізу даних. З урахуванням того, що специфіка цієї роботи передбачає виконання завдань за допомогою персонального комп’ютера, за підтримки керівництва академії розбудовано належну матеріально-технічну базу — зокрема, забезпечено обладнання у вигляді ноутбуків і персональних пристроїв.Крім того, ми постійно намагаємося отримувати відповідне програмне забезпечення, яке використовується в підрозділах поліції, зокрема у сфері кібербезпеки, кримінального аналізу та інших напрямків, що вимагають від працівників застосування сучасних інформаційних інструментів.У підсумку можна сказати, що поєднання теорії та практики дає максимальний результат у підготовці курсантів. Також варто окремо відзначити й подякувати керівництву академії за те, що створені всі необхідні умови для забезпечення такої підготовки на належному рівні.— Наскільки ефективні інтелектуальні камери з розпізнаванням облич у розкритті злочинів? Їх почали встановлювати ще до початку повномасштабного вторгнення. Можете навести приклади, коли вони реально допомогли правоохоронцям, зокрема для фіксації злочинів окупантів у захоплених містах?— Так, на території України розбудована система "Безпечне місто", а подекуди — і "Безпечне село", залежно від рівня та типу населеного пункту. Місцева громада може ухвалювати рішення про розбудову таких систем — камер відеоспостереження, які в режимі реального часу фіксують ті чи інші події, а також у ретроспективі дозволяють відтворювати події, зафіксовані тією чи іншою камерою.На початку повномасштабного вторгнення, коли активні бойові дії, зокрема, відбувалися в Київській області та інших регіонах України, такі камери відеоспостереження дуже часто фіксували воєнні злочини, скоєні ворогом або представниками Збройних сил РФ. Таких прикладів насправді є дуже багато.У Національній поліції профільним збором матеріалів за цим напрямком займається Головне слідче управління, а також інші підрозділи кримінальної поліції, які супроводжують ці категорії воєнних злочинів. Також відомі окремі приклади, пов’язані з функціонуванням системи "Безпечне місто" в Енергодарі (місто-супутник Запорізької АЕС у Запорізькій області, яке перебуває в окупації з 4 березня 2022 року, — ред.), коли під час заходу військових РФ за допомогою камер відеоспостереження фіксувалися випадки завдання шкоди певним об’єктам або приміщенням у цій локації. Після цього окупанти намагалися звинуватити українську сторону, проводячи дезінформаційні кампанії. Саме камери відеоспостереження дозволяли спростовувати ці дезінформаційні твердження з боку представників РФ і, відповідно, ставали доказом того, що вони не відповідали дійсності.— Мобільний зв’язок — одна з ключових частин безпеки, але доступність та анонімність SIM-карток створюють додаткові виклики. Чи впливає доступність і відносна анонімність SIM-карток на розкриття злочинів в Україні?— Звичайно, в Україні існує певна проблема. Вона пов’язана з тим, що SIM-картки можна придбати без надання документів, які посвідчують особу, зокрема паспорта. У країнах Європейського Союзу такої практики немає: перед придбанням SIM-картки там обов’язково потрібно надати документ, що засвідчує особу, — у більшості випадків це паспорт.Це проблема, яка вже тривалий час існує в Україні й потребує врегулювання на законодавчому рівні. Необхідно запроваджувати механізми, які б не створювали додаткових труднощів для правоохоронних органів у ситуаціях, коли номер телефону не прив’язаний до конкретної фізичної або юридичної особи. З погляду запобігання та розкриття злочинів це є серйозним викликом.Водночас варто говорити й про інший аспект. Якщо людина користується SIM-карткою, яка не прив’язана до паспортних даних, значно зростають ризики різноманітних шахрайських схем. Зокрема, йдеться про ситуації, коли номер може бути перехоплений третьою особою — зловмисником — і надалі використаний для отримання доступу до певних застосунків. У більшості випадків йдеться про онлайн-банкінг.Тому тут йдеться вже не просто про рекомендацію, а про пряму відповідальність кожного з нас — прив’язувати номери телефонів, які використовуються для фінансових операцій та онлайн-банкінгу, до паспортних даних. Якщо номер фактично виконує функцію фінансового ідентифікатора, його необхідно захистити у такий спосіб, щоби треті особи, зокрема зловмисники, не могли отримати до нього доступ, перехопити його чи використати для доступу до наших акаунтів.Погляд уперед— На вашу думку, які технології або тренди найбільше змінять кібербезпеку в Україні найближчими 5-10 роками?— Безперечно, йдеться насамперед про штучний інтелект. Ми вже торкалися цієї теми в ході розмови, адже штучний інтелект — це не лише інструмент, який допомагає нам, як добросовісним громадянам, у повсякденному житті та професійній діяльності, а й потужний ресурс, який активно використовують зловмисники. Це тренд, який уже сформувався, і з огляду на темпи розвитку технологій можна очікувати, що його застосування лише зростатиме — серед усіх верств населення, зокрема й у злочинних цілях.Окремо варто згадати й про квантові комп’ютери. У разі їх повноцінного запуску перед сферою кібербезпеки постане ціла низка нових викликів, насамперед пов’язаних із забезпеченням належного рівня шифрування даних. Уже сьогодні активно обговорюється питання, наскільки існуючі системи захисту зможуть залишатися ефективними в умовах появи таких обчислювальних потужностей і як змінюватимуться підходи до кіберзахисту загалом.Ще один постійний виклик — це підготовка кадрового резерву. Інформаційні технології сьогодні присутні практично в усіх сферах суспільного життя, а процеси цифровізації лише пришвидшуються. Водночас людям, які тривалий час працюють у своїй професії, часто стає складніше швидко адаптуватися до нових технологій, які необхідно не лише розуміти, а й активно застосовувати на практиці. Така ж ситуація спостерігається і в сфері кібербезпеки.З урахуванням усіх цих факторів потреба у кваліфікованих фахівцях, здатних на належному рівні забезпечувати захист інформаційних систем, лише зростатиме. Тому одним із ключових завдань на найближчі роки залишається формування кадрового потенціалу, який не просто усвідомлюватиме наявні та майбутні виклики, а й зможе ефективно їм протидіяти, забезпечуючи високий рівень кіберзахищеності організацій і держави загалом..

3
04:35 - 11.01.2026

OpenAI розширила медичні можливості ChatGPT: що нового у консультаціях

Американська компанія OpenAI презентувала спеціалізований сервіс для роботи з питаннями щодо здоров’я та медичною інформацією під назвою ChatGPT Health. Він дає змогу безпечно поєднувати дані про здоров’я користувача з можливостями чат-бота.Як повідомляє прес-служба компанії, доступ до функціоналу спочатку отримає обмежене коло користувачів.Варто наголосити, що питання здоров’я вже є одним із найпоширеніших напрямів використання ChatGPT. За узагальненим аналізом компанії, понад 230 мільйонів людей у світі щотижня ставлять запитання, пов’язані зі здоров’ям і самопочуттям.Розробники стверджують, що ChatGPT Health сформований як окремий захищений простір. Так, розмови, файли, підключені програми та спогади в новому просторі ізольовані від інших чатів і не використовуються для навчання базових моделей OpenAI.Також користувачі можуть безпечно під’єднувати електронні медичні записи та застосунки для здоров’я. Серед них — Apple Health, Function, MyFitnessPal та інші сервіси для відстеження аналізів, харчування, фізичної активності людини. Цей сервіс допомагає тлумачити результати аналізів, готуватися до візитів до медиків, аналізувати дані з гаджетів. Водночас ChatGPT Health не призначений для діагностики чи лікування і має лише підтримувати медичні рішення.Розмови про здоров'я відбуваються так само як і звичайне спілкування з ChatGPT, але базуються на під'єднаній користувачем інформації. Людина зможе завантажувати фото й файли, а також користуватися пошуком, глибоким дослідженням, голосовим режимом і диктуванням. За потреби ChatGPT автоматично використовує під'єднану користувачем інформацію, щоб відповіді були точнішими й більш персоналізованими. Наприклад, ви можете запитати: "Як змінюється мій рівень холестерину?" або "Чи можеш ти підсумувати мої останні результати аналізів перед візитом до лікаря?"."ChatGPT Health розроблено у тісній співпраці з лікарями з усього світу, щоб надавати зрозумілу та корисну інформацію про здоров’я", — наголошують в OpenAI.Протягом понад двох років більше ніж 260 медиків із 60 країн надавали зворотний зв’язок, допомагаючи визначити безпечні та корисні сценарії використання. Модель, яка закладена в основі сервісу, оцінюють за клінічними стандартами через фреймворк HealthBench. Він зосереджується на безпеці, зрозумілості відповідей і коректному спрямуванні користувача до лікаря за потреби.Окремі інтеграції з електронними медичними записами та деякі застосунки наразі доступні лише у Сполучених Штатах Америки. Впродовж найближчих тижнів OpenAI зробить сервіс доступним у вебверсії та на iOS.Нагадаємо, торік у грудні генеральний директор OpenAI Сем Альтман оголосив у компанії "режим найвищого пріоритету" або "червоний код", мобілізувавши всі наявні ресурси для екстреного удосконалення флагманського продукту — чат-боту ChatGPT. Такі дії є прямою відповіддю на зростання конкурентного тиску, особливо з боку Google Gemini..

4
02:27 - 22.12.2025

"П'яний" штучний інтелект: у мережі продають коди, які імітують нетверезу поведінку у чат-ботів

У мережі з'явилася онлайн-платформа, яка продає користувачам коди для наркотичного та алкогольного сп’яніння чат-ботів. Відповідні модулі імітують вплив психоактивних речовин на штучний інтелект після завантаження в ChatGPT.Як повідомляє видання Wired, відповідний проект уже має перших покупців і викликає нові дискусії серед експертів.Відомо, що онлайн-платформа Pharmaicy продає програмні модулі, які змінюють поведінку чат-ботів так, ніби вони перебувають під дією канабісу, кетаміну, кокаїну або алкоголю. Варто наголосити, що для роботи модулів потрібна платна версія ChatGPT, яка дозволяє завантажувати файли та змінювати внутрішні параметри системи.Такі модулі розробив шведський креативний директор Рудволл, який зібрав звіти про вплив наркотиків та психологічні дослідження впливу наркотиків. На базі відповідних матеріалів він написав кодові модулі й у жовтні запустив сайт, який називає "Шовковим шляхом для агентів ШІ".Розробник пояснює ідею тим, що чат-боти навчаються на масивах людських даних, насичених історіями про наркотичний досвід. На його думку, це робить логічними експерименти з "альтернативними станами" чат-ботів для творчості та відходу від простої логіки. Рудволл пояснює, що завантаження модуля дозволяє розблокувати творчий розум штучного інтелекту та змінити стиль відповідей. Він зазначає, що продажі на сьогодні незначні й поширюються переважно через рекомендації у Discord та усно, зокрема, у Швеції."Так давно я не стикався з цікавим технологічним проектом з джейлбрейка. Це вимагає більше людського підходу, майже так, ніби це набагато більше емоцій", — заявив керівник технологічної практики PR-фірми Geelmuyden Kiese Андре Фріск після покупки та тестування коду Рудволла.Своєю чергою, фахівець зі штучного інтелекту у школі комунікацій Бергса в Стокгольмі та співзасновниця Saga Studios Ніна Амджаді придбала модуль за понад 50 доларів. Вона використала його для перевірки бізнес-ідей від ШІ та зазначила, що відповіді стали значно більш креативними та "вільнодумними", ніж у стандартному режимі ChatGPT.Медійники наголосили, що ідея зі "сп’яніння" чат-ботів штучного інтелекту вписується у ширший контекст обговорень зв’язку психоделіків та інновацій. Відомо, що ЛСД надихнув Кері Малліса на відкриття полімеразної ланцюгової реакції, а психоделічний досвід вплинув на створення HyperCard Біллом Аткінсоном.Попри це науковці та філософи наголошують на обмеженості таких експериментів. Дослідник Google Ендрю Смарт після тестування кодів заявив, що вони лише змінюють вихідні дані чат-бота, а не створюють справжній змінений стан свідомості. Критичну думку висловлює і філософ Денні Форд, який вважає, що модулі лише змушують ШІ "синтаксично галюцинувати". Він наголошує, що психоделіки діють на досвід і свідомість, яких у машин наразі немає.Також фахівці застерегли користувачів від звернення до чат-ботів за порадами щодо наркотиків через ризик дезінформації. Розробник "наркотичних модулів" для чат-ботів визнає, що його коди можуть посилювати схильність ШІ до вигадування.Нагадаємо, напередодні американська компанія OpenAI представила нову версію ChatGPT Image на базі флагманської моделі GPT-5.2. Оновлення передбачає швидшу генерацію, точніше редагування та окремий розділ "Зображення" в інтерфейсі ChatGPT..

5
10:05 - 17.12.2025

Генерує зображення у рази швидше: ChatGPT отримав потужне оновлення

Американська компанія OpenAI представила нову версію ChatGPT Image на базі флагманської моделі GPT-5.2. Оновлення передбачає швидшу генерацію, точніше редагування та окремий розділ "Зображення" в інтерфейсі ChatGPT. Як повідомляє прес-служба компанії, нова модель уже доступна для всіх користувачів.Розробники запевняють, що нова версія ChatGPT Image забезпечує до чотирьох разів швидшу генерацію зображень. Модель також краще дотримується інструкцій користувача та змінює лише запитані елементи у вже створених зображеннях, зберігаючи освітлення, композицію чи зовнішність людей.У компанії пояснюють, що GPT-Image-1.5 підтримує додавання, об’єднання, видалення об’єктів та інші трансформації. У новій версії розробники також удосконалили відтворення тексту на зображеннях, зокрема, коректніше відображення дрібних та щільних написів. Окрім цього оновлення, OpenAI створила новий розділ "Зображення" в ChatGPT. Він доступний у веббраузері та в мобільному застосунку і містить попередньо встановлені фільтри й ідеї для генерацій зображень."GPT Image 1.5 генерує високоякісні зображення з чітким точним дотриманням правил, зберігаючи композицію, освітлення та дрібні деталі", — заявила керівниця відділу досліджень штучного інтелекту та науки про дані Хіла Гат.Розробники запевняють, що потенціал генерації зображень лише починає розкриватися. У компанії називають нинішнє оновлення важливим етапом, після якого відкриються ще більше можливостей, від детальнішого редагування до багатших і детальніших результатів різними мовами.Нагадаємо, раніше видання Japan Today повідомляло, що у японській префектурі Нара 70-річний пенсіонер потрапив до лікарні з отруєнням після того, як довірився програмі зі штучним інтелектом, яка неправильно ідентифікувала отруйний гриб як їстівний..

6
03:21 - 08.12.2025

Гендиректор OpenAI оголосив "червоний код" для ChatGPT: що це означає

Генеральний директор OpenAI Сем Альтман оголосив у компанії "режим найвищого пріоритету" або "червоний код", мобілізувавши всі наявні ресурси для екстреного удосконалення флагманського продукту — чат-боту ChatGPT. Як повідомляє The Wall Street Journal, ці дії є прямою відповіддю на зростання конкурентного тиску, особливо з боку Google Gemini.Медійники зауважили, що на сьогодні спостерігається разюче зростання бази користувачів системи Google Gemini. Так, за останні три місяці їх кількість збільшилася з 450 до 650 мільйона осіб, що підсилює загрозу лідерству OpenAI на ринку штучного інтелекту."У корпоративній розсилці Альтман закликав співробітників повністю зосередитися на щоденному покращенні ChatGPT. Основними напрямками роботи визначено: зробити діалоги більш індивідуалізованими, значно підвищити швидкодію, збільшити діапазон знань та сферу застосування. Для досягнення цих цілей буде перерозподілено команди розробників, а звіти про прогрес стануть щоденними", — зазначає видання.Водночас мобілізація ресурсів OpenAI призвела до заморожування низки амбітних довгострокових проектів, зокрема розробки ШІ-агентів для сфер охорони здоров'я та шопінгу, створення персонального помічника Pulse. Така жорстка політика обумовлена ​​необхідністю продемонструвати виразний прогрес інвесторам (включаючи Microsoft, Nvidia та SoftBank) на тлі багатомільярдних вливань. Так, за даними аналітиків, для досягнення окупності до 2030 року при поточних витратах OpenAI потребує річного доходу у 200 мільярдів доларів, що ставить надзвичайно високі вимоги до комерційного успіху ChatGPT. Попри тиск Сем Альтман зберігає оптимізм і анонсував швидкий вихід нового продукту. За його словами, вже цього тижня OpenAI презентуватиме нову розумну ШІ-модель, яка, як очікується, перевершить рішення Google за показниками швидкодії та ефективності. У світі технологій штучного інтелекту готуються до чергового витка гострої конкуренції, де ставки зростають до небувалих розмірів.Нагадаємо, раніше видання Bloomberg повідомляло, що ChatGPT домінує серед конкурентів, випереджаючи Google Gemini за масштабами аудиторії. Попри технологічні переваги Gemini у тестах, зростання кількості користувачів сервісу OpenAI відбувається набагато швидше..

7
09:16 - 01.12.2025

Чому ChatGPT обходить Gemini — аналіз від Bloomberg

Чат-бот зі штучним інтелектом ChatGPT від компанії OpenAI домінує серед конкурентів, випереджаючи Google Gemini за масштабами аудиторії. Попри технологічні переваги Gemini у тестах, зростання кількості користувачів сервісу OpenAI відбувається набагато швидше.Як повідомляє видання Bloomberg, це пояснюється кращими мережевими ефектами та агресивною стратегією масштабування ChatGPT.Цей сервіс нині має понад 800 мільйонів активних користувачів щотижня, а до кінця року ця цифра може сягнути понад мільярда. Це робить ChatGPT одним із найшвидше зростальних онлайн-продуктів в історії. Керівник OpenAI Сем Альтман послідовно нарощує залученість через додавання персоналізованих налаштувань та свободи спілкування, одночасно намагаючись покрити високі операційні витрати компанії."Чат-бот компанії Google під назвою Gemini у листопаді продемонстрував кращі результати у низці галузевих тестів. Генеральний директор Salesforce Марк Беніофф заявив у соцмережі X, що після користування ChatGPT протягом трьох років він більше до нього не повернеться. Беніофф додав, що стрибок неймовірний, міркування, швидкість, зображення, відео. Все стало чіткішим і швидшим", — зазначає Bloomberg. Попри це за часткою ринку Gemini значно поступається конкуренту. За даними Similarweb, у жовтні вебверсію Gemini відвідували приблизно 153 мільйони разів на місяць, тоді як ChatGPT — понад 1,1 мільярда. До того ж темпи зростання продукту від OpenAI є вищими протягом останніх місяців.Аналітики відзначають кілька чинників, які призупиняють зростанню Gemini. Google традиційно сильніший у корисних сервісах — пошуку, картах, електронній пошті, втім має менший досвід у створенні продуктів із потужними мережевими ефектами, які формують у людей звичку повертатися.Також підхід Google до розвитку штучного інтелекту більше зосереджений на наукових досягненнях. Очільник підрозділу штучного інтелекту Деміс Хассабіс ставить в пріоритет дослідження, тоді як OpenAI сфокусована на зростанні залученості та монетизації, що суттєво впливає на різну динаміку зростання продуктів."OpenAI активно оновлює ChatGPT, додаючи "постійну пам’ять", персоналізацію спілкування, функції еротичного контенту (після повного впровадження вікових обмежень), а також групові чати. Відповідні інструменти мають на меті втримати користувачів та підштовхнути їх до переходу на платні підписки", — зазначають медійники.Своєю чергою, Google також залучає нові можливості для Gemini, які роблять його розумним помічником із глибшою інтеграцією в екосистему Google, зокрема, Docs, Chat, Gmail та Calendar. Втім, такі функції поки менш ефективні у масовому залученні аудиторії. Аналітики зауважили, що для Google повільніший темп розвитку не є критичним. Компанія утримує високі позиції у пошуку, хмарних сервісах і виробництві чипів для штучного інтелекту, що дає змогу розвивати Gemini поступово. Перевага піонера в цій галузі стала головною для ChatGPT, і зупинятися OpenAI не планує. Близько 20% працівників цієї компанії мають досвід роботи в Meta, компанії, що історично спеціалізується на максимізації користувацької взаємодії. Це впливає на вибір стратегії, де OpenAI робить ставку на те, що від ChatGPT буде важче відмовитися, тоді як Google — на те, що його модель буде розумнішою.Нагадаємо, у жовтні стало відомо, що американська компанія OpenAI офіційно анонсувала новий браузер ChatGPT Atlas. Очікується, що він стане потужним конкурентом Chrome, Edge та інших платформ..

8
09:50 - 21.11.2025

Групові чати у ChatGPT: OpenAI представила цікаве нововведення

Американська компанія OpenAI оголосила про глобальний запуск групових чатів у ChatGPT. Це сталося після успішного тижневого тестування в Японії, Новій Зеландії, Південній Кореї та Тайвані. Як повідомляє офіційний сайт компанії, відповідна функція стане доступною протягом кількох днів усім користувачам сервісу незалежно від тарифного плану — Free, Go, Plus чи Pro.Групові чати надають можливість об’єднувати до 20 користувачів у спільних розмовах, де можна одночасно формулювати запити до ChatGPT, реагувати на повідомлення, ділитися зображеннями й файлами та брати участь у дискусії. Приєднатися до чату можна через персональне посилання, використовуючи свій акаунт.У новому форматі ChatGPT працює на базі GPT-5.1 Auto — системи, що автоматично визначає оптимальну модель відповіді залежно від змісту запиту та тарифного плану конкретного учасника групового діалогу. В OpenAI наголошують, що модель також отримала нові "соціальні" навички. Бот аналізує хід розмови й реагує лише тоді, коли це доречно, але користувачі можуть примусово звернутися до нього, згадавши ChatGPT у повідомленні.У компанії зауважили, що для початку роботи з груповими чатами користувачам пропонують заповнити свій профіль, вказавши ім’я та завантаживши фото. Усі спільні діалоги будуть зібрані в окремому, спеціально виділеному розділі на бічній панелі інтерфейсу. У налаштуваннях користувач матиме змогу керувати списком учасників, змінювати тему розмови та вимикати сповіщення. Окрім цього, існує можливість самостійно налаштувати ChatGPT так, щоб він поводився по-різному в різних групах, обравши для нього відповідний стиль спілкування чи роль.Розробники пояснюють, що ця функція стане може знадобитися, коли люди планують поїздку на вихідні з друзями. ChatGPT може допомогти порівняти напрямки, скласти маршрут і список речей, де всі братимуть участь і слідкуватимуть за процесом.Нагадаємо, у жовтні стало відомо, що американська компанія OpenAI офіційно анонсувала новий браузер ChatGPT Atlas. Очікується, що він стане потужним конкурентом Chrome, Edge та інших платформ..

9
01:58 - 15.11.2025

Жінка виграла в лотерею $150 тисяч за допомогою ChatGPT

У Сполучених Штатах Америки жінка вперше попросила ChatGPT обрати номери для участі у лотереї Powerball. Таким чином вона виграла 150 тисяч доларів. Про це пише видання Newsweek. Мешканка Вірджинії Керрі Едвардс вгадала чотири з перших п'яти чисел у лотереї Virginia Powerball 8 вересня. Це була її перша участь у "грі на щастя". Також вона обрала опцію Power Play за один долар, що потроїло її виграш. Вона отримала 150 тисяч доларів. Переможниця лотереї пояснила, що вона довго думала, як обрати свої номери, бо ніколи раніше не грала онлайн. Тоді вона вирішила звернутися за допомогою до ChatGPT."ChatGPT, поговори зі мною, поговори зі мною про ці 1,7 мільярда доларів, і чи є у тебе для мене цифри", — розповіла переможниця.Чат-бот на базі штучного інтелекту запропонував їй цифри. Через два дні жінка отримала повідомлення про свою перемогу, проте вона одразу не повірила, а подумала, що це шахраї."Я дивлюся на свій телефон, а там написано "будь ласка, заберіть свій виграш у лотерею", і я подумала, що це шахрайство, я знаю, що не виграла. І ось я йду додому, входжу у свій обліковий запис, а там написано, що ви виграли в розіграші в понеділок, 8 вересня, 50 тисяч доларів, і у вас є множник "три", — розповіла американка.Керрі Едвардс отримала приз від виконавчого директора лотереї Вірджинії Халіда Джонса. Вона віддала усі кошт на благодійність.Нагадаємо, за даними Reuters, американська компанія OpenAI оголосила про запровадження батьківського контролю для десктопних і мобільних версій свого чат-бота ChatGPT. Відповідне рішення є відповіддю на судовий позов від батьків підлітка з Каліфорнії, які стверджують, що їхній син скоїв самогубство після спілкування зі штучним інтелектом..

10
09:08 - 30.09.2025

ChatGPT після самогубства підлітка вводить нові правила для неповнолітніх

Американська компанія OpenAI оголосила про запровадження батьківського контролю для десктопних і мобільних версій свого чат-бота ChatGPT. Відповідне рішення є відповіддю на судовий позов від батьків підлітка з Каліфорнії, які стверджують, що їхній син скоїв самогубство після спілкування зі штучним інтелектом.Як повідомляє агентство Reuters, нові функції дозволять батькам гнучко налаштовувати рівень безпеки та конфіденційності для неповнолітніх користувачів.Користувачі зможуть блокувати доступ своїх дітей до небажаного вмісту. З'явиться можливість керувати функцією збереження історії листування, а також вирішувати, чи можуть діалоги використовуватися для навчання моделей OpenAI. Можна буде встановити режим тиші, повністю блокуючи доступ до сервісу на певний час, а також відключати голосовий режим і функції генерації та редагування зображень."Однак, компанія додала, що батьки не матимуть доступу до стенограм чату підлітка", — зазначає агентство. Втім, у рідкісних випадках, коли системи та навчені експерти виявляють ознаки серйозної загрози безпеці дитини, батьків можуть повідомити лише з інформацією, необхідною для підтвердження безпеки підлітка, заявили в OpenAI, додавши, що їх повідомлять, якщо підліток від’єднає облікові записи.Агентство зазначає, що OpenAI — це компанія, яка щотижня має близько 700 мільйонів активних користувачів своїх продуктів ChatGPT, створює систему прогнозування віку, яка допоможе їй передбачити, чи користувачеві менше ніж 18 років, щоб чат-бот міг автоматично застосовувати налаштування, що відповідають потребам підлітків.Нагадаємо, раніше компанія OpenAI повідомляла, що сканує діалоги користувачів у ChatGPT. У деяких випадках їх навіть можуть передати у поліцію. Йдеться, наприклад, про запобігання реальному злочину або самогубству.

11
03:32 - 16.09.2025

Які ризики для психіки несе спілкування з ШІ: пояснення психолога

Психологи виявили випадки, коли штучний інтелект стає для людини найгіршим порадником, який завжди говорить те, що користувач хоче почути, незалежно від того, наскільки це правильно. Іноді це закінчується трагічно.Як повідомляє видання dev.ua, "психоз ШІ" поки не є офіційним діагнозом, але експерти вважають, що в подібних взаємодіях зі штучним інтелектом відбувається щось "унікальне, дивне та глибоко тривожне". Значна кількість повідомлених випадків стосується людей, які не мають історій психічних захворювань.Клінічний психолог Деррік Халл, який допомагає створювати терапевтичного чатбота в Slingshot AI, висловив думку, що "зареєстровані випадки більше схожі на те, що можна назвати "ШІ-мареннями", ніж на психоз". Халл працює у стартапі над чатботом, який може опонувати користувачам, а не постійно погоджуватись з ними.За словами Халла, психоз є "широким терміном", що описує "галюцинації та різноманітні інші симптоми", яких він не бачив у зареєстрованих випадках. Психолог навів приклад чоловіка, який вважав, що став "піонером" у новій галузі "тимчасової математики" після тривалих діалогів із ChatGPT.Він був переконаний, що його ідеї здатні змінити світ, тоді як його реальне особисте життя залишилося осторонь. Проте ці ілюзії зникли, коли чоловік попросив іншого чатбота на базі штучного інтелекту, Google Gemini, переглянути його теорію. Штучний інтелект жорстоко відповів, що ця робота є лише "прикладом здатності мовних моделей створювати переконливі, але повністю помилкові наративи"."Його впевненість миттєво зникла. Такого не спостерігається в людей, які страждають на шизофренію або інші види психотичних розладів — "прозріння" не проходить так швидко", — наголосив Халл.Видання додає, що схожі результати показало й недавнє дослідження, яке було проведене вченими з King’s College London, які вивчили понад десять випадків людей, що впали в параноїдальне мислення і втратили зв’язок з реальністю. Вони виявили, що хворі явно схильні до марення, але не виявляють ознак галюцинацій і розладів мислення, які є характерними для шизофренії та інших форм психозу.Дослідники описали чатботи на базі штучного інтелекту як "ехокамеру для одного" й попередили у статті, що вони можуть "підтримувати марення таким чином, якого ми раніше не бачили". Халл вважає, що ШІ робить із людською психологією щось унікальне, і це лише початкові стадії цього процесу. "Я прогнозую, що в найближчі роки з’являться нові категорії розладів, які існуватимуть через штучний інтелект", — додав він.Нагадаємо, раніше видання BBC повідомляло, що YouTube, не повідомивши користувачів, застосовував алгоритми штучного інтелекту для редагування відео у форматі Shorts. Внаслідок такого втручання обличчя людей на відео зазнали змін.

12
03:45 - 04.09.2025

У ChatGPT з'явиться батьківський контроль: що зміниться для дітей

Компанія OpenAI планує запустити батьківський контроль у ChatGPT. Це відбудеться протягом наступного місяця.Про це пише NBC.OpenAI стверджує, що батьки незабаром матимуть більше контролю над тим, що їхні підлітки роблять у ChatGPT. Компанія зі штучного інтелекту розширила свої плани щодо втручання в ChatGPT, коли він виявляє потенційні кризи психічного здоров'я користувачів, які можуть призвести до шкоди.Заява компанії з'явилася через тиждень після того, як OpenAI отримала перший позов про неправомірне вбивство від двох батьків з Каліфорнії, які стверджують, що ChatGPT винен у самогубстві їхнього 16-річного сина. Після цієї заяви компанія натякнула, що зміни не за горами."Протягом наступного місяця батьки зможуть краще контролювати використання ChatGPT своїми підлітками", — заявили в OpenAI. Що змінитьсяКомпанія дозволить батькам:пов’язувати свої облікові записи з обліковими записами дітей;встановлювати правила, відповідні віку, для відповідей ChatGPT;керувати такими функціями, як пам’ять бота та історія чатів.Згідно з заявою OpenAI, батьки незабаром також зможуть отримувати сповіщення, коли ChatGPT виявить, що їхній підліток "перебуває в моменті гострого стресу". Нагадаємо, у "Дії" з'явився персональний AI-асистент, який надаватиме державні послуги та консультуватиме користувачів. Він спілкується у форматі чату як жива людина.

13
17:17 - 28.08.2025

Обережно із запитами: діалоги з ChatGPT можуть потрапити до поліції

Компанія OpenAI сканує діалоги користувачів у ChatGPT. У деяких випадках їх навіть можуть передати у поліцію. Йдеться, наприклад, про запобігання реальному злочину або самогубству.На сторінці OpenAI опублікували роз'яснення щодо своєї політики безпеки. "Оскільки впровадження ChatGPT зростало по всьому світу, ми спостерігали, як люди звертаються до нього не лише для пошуку, кодування та написання текстів, а й для прийняття глибоко особистих рішень. У таких масштабах ми іноді стикаємося з людьми, які переживають серйозні психічні та емоційні розлади", — йдеться у повідомленні.Мета компанії — зробити ChatGPT максимально корисним для людей, тому експерти продовжують вдосконалювати систему та розпізнавати та реагувати на ознаки психічного та емоційного дистресу, а також надавати людям допомогу."Наприклад, якщо хтось пише, що хоче завдати собі шкоди, ChatGPT навчений не виконувати інструкції, а натомість визнавати їхні почуття та спрямовувати їх до допомоги. Крім того, відповідно до нашого підходу до глибокошарового захисту, відповіді, що суперечать навчанню з безпеки наших моделей, визначеним нашими класифікаторами, автоматично блокуються, з посиленим захистом для неповнолітніх та використання без авторизації", — зауважили у компанії.Якщо хтось висловлює суїцидальний намір, ChatGPT навчений направляти людей до професійної допомоги. У США ChatGPT направляє людей на номер 988 (гаряча лінія для самогубств та кризових ситуацій), у Великій Британії — на службу Samaritans, а в інших місцях — на findahelpline.com (відкриється в новому вікні). Ця логіка вбудована в поведінку моделі."Коли ми виявляємо користувачів, які планують завдати шкоди іншим, ми спрямовуємо їхні розмови до спеціалізованих каналів, де їх перевіряє невелика команда, навчена нашим політикам використання та уповноважена вживати заходів, зокрема блокувати облікові записи. Якщо експерти визначать, що справа пов’язана з безпосередньою загрозою серйозної фізичної шкоди іншим, ми можемо передати її до правоохоронних органів. Наразі ми не передаємо справи про самоушкодження до правоохоронних органів, щоб поважати конфіденційність людей, враховуючи унікально приватний характер взаємодії ChatGPT", — йдеться у заяві.Нагадаємо, на початку серпня OpenAI офіційно випустила свою нову флагманську мовну модель GPT-5, яка вже доступна для користувачів ChatGPT і розробників. Водночас для безплатного користування сервісом передбачено обмеження на кількість запитів, які можна зробити.

14
10:06 - 08.08.2025

Працює на рівні "доктора філософії": OpenAI випустила найпотужнішу версію ChatGPT

OpenAI офіційно випустила свою нову флагманську мовну модель GPT-5, яка вже доступна для користувачів ChatGPT і розробників. Водночас для безплатного користування сервісом передбачено обмеження на кількість запитів, які може зробити користувач.Як повідомляє видання The Verge, посилаючись на слова очільника компанії Сема Альтмана, GPT-5 став справжнім проривом порівняно з попередніми поколіннями. Посадовець порівняв цю версію ChatGPT з "тим, до чого неможливо повернутися назад", як до першого iPhone з дисплеєм Retina. Окрім цього, він порівняв нову версію з людиною, яка має науковий ступінь на рівні доктора філософії (PhD від латинського Philosophiæ Doctor)."GPT-3 нагадувала розмову зі школярем — іноді отримуєш правильну відповідь, іноді щось дивне. GPT-4 — уже як студент вишу. А GPT-5 — це вперше, коли модель відчувається як експерт рівня PhD", — зазначив Альтман на прес-брифінгу.В OpenAI наголосили, що GPT-5 має вищу точність, швидше відповідає і рідше помиляється. Попри те, що щотижнева аудиторія ChatGPT наближається до 700 мільйонів користувачів, найбільш передовою моделлю на ринку OpenAI не володіла з моменту релізу GPT-4. У компанії впевнені, що GPT-5 поверне лідерство, особливо в ключових сферах."Це найкраща модель у світі для написання коду. Найкраща — для написання текстів. Найкраща — у галузі медицини та в безлічі інших напрямків", — додав Альтман.Наразі однією з перших змін стала відмова від ручного вибору моделей у ChatGPT. Тепер GPT-5 працює як єдина система, в якій вбудований інтелектуальний маршрутизатор, який самостійно перемикається на складнішу версію моделі за необхідності. Наприклад, якщо користувач попросить "подумати ґрунтовно" над поставленим запитанням."Колишній інтерфейс вибору моделей був справжньою головоломкою", — зауважив Альтман.Варто зауважити, що GPT-5 вже доступна всім користувачам ChatGPT. Втім, для безплатного користування передбачено обмеження на кількість запитів, які може зробити користувач. Після того як їх кількість буде вичерпано, модель автоматично перемикатися на легшу версію — GPT-5 mini. Водночас для розробників OpenAI представить три версії:GPT-5;GPT-5 mini;GPT-5 nano — з різною продуктивністю та вартістю.Також у ChatGPT з'являться нові "особистості" моделей. Серед яких є Cynic (Цинік), Robot (Робот), Listener (Слухач) і Nerd (Ботанік), а для окремих чатів тепер можна буде вибирати індивідуальний колір інтерфейсу.У компанії наголосили, що GPT-5 почне еру так званого "програмного забезпечення за запитом". У тестах компанії нова модель перевершила всіх конкурентів на основних бенчмарках для програмістів — SWE-Bench, SWE-Lancer і Aider Polyglot.На прес-брифінгу глава відділу постнавчання OpenAI Янн Дюбуай показав, як GPT-5 за лічені секунди створила сайт для вивчення французької мови з інтерактивною грою. Модель самостійно написала сотні рядків коду, а сайт працював коректно.Нагадаємо, нещодавно Об’єднані Арабські Емірати анонсували, що використовуватимуть штучний інтелект для написання законів. Як повідомляє Financial Times, країна вклала мільярдні інвестиції у розвиток цієї технології, яку планують використовувати для внесення змін в чинні законодавчі акти та для узгодження різних нормативних документів.

15
2
1