Україна планує суттєво поглибити співпрацю з міжнародними партнерами у сфері оборонних технологій. Йдеться про обмін бойовими даними та спільну розробку рішень на основі штучного інтелекту.Про це заявив міністр оборони України Михайло Федоров під час зустрічі з журналістами, його цитує "Суспільне".За його словами, одним із ключових напрямків стане активніша інтеграція партнерів в українські військові проєкти. Україна планує пропонувати не лише потреби у фінансуванні, а й власну цінність — зокрема, унікальні дані з поля бою."Партнери хочуть наші дані. Ми побудуємо систему, на якій вони зможуть навчати свої софтові продукти, використовуючи українські дані. Зараз дані з фронту мають надзвичайну цінність", — заявив Федоров.Міністр додав, що йдеться про створення спеціального дата-полігону для тренування ШІ-моделей партнерів. Це, за його словами, дозволить союзникам краще розуміти сучасну війну, а Україні — отримувати технологічно сильніші рішення.Український посадовець наголосив, що міжнародна підтримка вже є суттєвою, однак ключовим викликом залишається її ефективна організація. Саме над цим нині працює команда Міністерства оборони України."Ми не розраховуємо, що нас хтось урятує: робимо ставку на власні сили. Але якщо партнери відчують, що це й їхня війна, ми зможемо значно пришвидшити результат", — наголосив Михайло Федоров.Він також акцентував, що стратегічна мета України — зупинити Росію в повітрі та на землі, а також завдати ударів по її економічному потенціалу, що, на думку керівництва оборонного відомства, створює умови для завершення війни.Після початку повномасштабного вторгнення українські військові та державні цифрові системи накопичили масиви верифікованих бойових даних, які нині вважаються унікальними для розвитку військових ШІ-рішень у країнах НАТО та ЄС.Нагадаємо, в серпні минулого року Кирило Буданов розповідав, що ГУР активно використовує штучний інтелект у своїй роботі. Зокрема, за допомогою ШІ робиться аналіз великих обсягів даних..

На сьогодні штучний інтелект частіше доповнює роботу людей, ніж замінює їх. Вплив цієї технології суттєво відрізняється залежно від професії.Про це повідомляє видання EuroNews, посилаючись на звіт компанії Anthropic, яка проаналізувала використання свого ШІ-помічника Claude.Замість підрахунку частоти використання штучного інтелекту автори дослідження зосередилися на тому, які конкретно завдання йому доручають працівник. Задля цього вони запровадили набір показників, які назвали "економічними примітивами", що враховують типи завдань, їхню складність, рівень освіти, необхідний для формування запиту та розуміння відповіді, а також автономність і надійність роботи штучного інтелекту. Такий підхід, за словами авторів звіту, дозволяє точніше оцінити реальний вплив технології.У виданні зауважили, що на 49% робочих місць працівники можуть використовувати ШІ щонайменше для чверті відповідних завдань. Це на 13% більше, ніж на початку минулого року. Звіт показує, що такі технології найчастіше застосовують для завдань, пов’язаних із програмуванням. Загалом ШІ активніше використовують у роботах, які потребують вищого рівня освіти, ніж середній в економіці. Водночас не всі офісні професії зазнають однакового впливу."Для деяких професій він усуває найбільш вимогливі до навичок завдання, для інших — найменш", — наголосили автори звіту.У ході дослідження також було виявлено значні географічні відмінності. Хоча робочі завдання складають найбільшу частку використання штучного інтелекту загалом, у країнах із нижчим ВВП на душу населення освіта виходить на перше місце. У країнах з вищими доходами, навпаки, зростає частка особистого застосування ШІ. Anthropic пов’язує це з різними етапами впровадження технології.Автори дослідження також оцінили, чи використовується Claude для повної автоматизації завдань або для доповнення роботи людини. На сайті Claude 52% робочих розмов стосувалися безпосередньо доповнених завдань. Водночас ця частка зменшилася на п’ять відсотків порівняно з січнем 2025 року.Під час дослідження з'ясувалося, що складніші завдання ШІ виконує менш надійно. Зі зростанням складності або тривалості завдання рівень успіху Claude знижується, що обмежує реальну економію часу для працівників. У Anthropic зазначили, що попередні оцінки часто переоцінювали ефект продуктивності штучного інтелекту.За даними дослідників, важливо не лише вимірювати масштаби впровадження технологій штучного інтелекту. Варто розуміти й те, як саме його використовують, адже це має не менше значення.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Агентство з охорони довкілля США (Environmental Protection Agency, EPA) встановило, що компанія Ілона Маска xAI діяла незаконно, використовуючи десятки метанових газових турбін для живлення своїх центрів обробки даних.Як повідомляє The Guardian, йдеться про об’єкти Colossus 1 у Теннессі й Colossus 2 в Міссісіпі, які забезпечують роботу суперкомп’ютерів xAI.Журналісти зазначили, що xAI протягом півтора року стверджувала, що переносні турбіни не потребують дозволів на викиди в атмосферне повітря. Компанія посилалася на винятки для тимчасового обладнання, проте EPA визнало, що такі генератори не підпадають під ці винятки. У своєму рішенні агентство переглянуло попередню політику щодо газових турбін. EPA заявило, що дозволи на викиди потрібні навіть у випадку тимчасового або переносного використання обладнання."На початковому етапі xAI скористалася місцевою лазівкою законодавства округу, яка дозволяла експлуатацію генераторів без дозволів до 364 днів. У певний період Colossus 1 живили до 35 таких машин. Згодом компанія отримала дозволи лише на 15 турбін на об’єкті Colossus 1 і наразі там експлуатують 12 дозволених генераторів", — зазначили у The Guardian.Згідно з новим рішенням EPA, дозволи на ці турбіни підпадають під федеральне регулювання. Водночас залишається незрозумілим, як саме уряд застосовуватиме санкції щодо порушників. Своєю чергою, директор з питань екологічної та кліматичної справедливості NAACP Абре Коннер наголосив, що громадяни США, повітря, вода й земля — не "майданчики для мільярдерів, які ганяються за черговим доларом".У The Guardian додали, що метанові газові турбіни викидають оксиди азоту, які пов’язані з ризиком раку та захворюваннями дихальних шляхів. За оцінкою EPA, остаточні заходи можуть скоротити річні викиди цих речовин до 296 тонн до 2032 року."Газові турбіни стали для xAI необхідністю, аби забезпечити енергією суперкомп'ютери, що навчають чат-бот на базі штучного інтелекту Grok. На піку навантаження дата-центр Colossus 1 споживає 150 мегаватів — цього обсягу вистачило б для живлення 100 тисяч будинків протягом року. Водночас компанія не планує зупинятися і готується до подальшого розширення", — наголошують медійники.За даними The Guardian, Colossus 1 було зведено за рекордні для дата-центру 122 дні влітку 2024 року. Водночас Colossus 2, ще більший об’єкт, розташований на кордоні Мемфіса в Саутхейвені, штат Міссісіпі, і також використовує десятки газових генераторів. За даними Mississippi Today, на цьому об’єкті працює 59 генераторів, з яких 18 не мають дозволів на якість повітря.Медійники зауважили, що минулого тижня xAI запустила третій дата-центр у Саут-Гейвені. Ілон Маск повідомив у соцмережі X, що новий суперкомп’ютер має назву MACROHARDRR. За його словами, система потребуватиме майже два гігавати обчислювальної потужності."Рішення EPA ясно дає зрозуміти, що компаніям не дозволено — і ніколи не дозволялося — будувати та експлуатувати метанові газові турбіни без дозволу, і що немає жодної лазівки, яка б дозволила корпораціям створювати електростанції без дозволу", — підбила підсумки старша адвокатка Південного центру екологічного права Аманда Гарсія.Нагадаємо, раніше компанія xAI обмежила роботу чат-бота на основі штучного інтелекту Grok після скандалу з сексуальними діпфейками. Grok більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну..

Компанія американського мільярдера Ілона Маска xAI обмежила роботу чат-бота на основі штучного інтелекту Grok після скандалу з сексуальними діпфейками. Grok більше не може редагувати фото людей, додаючи їм купальники чи спідню білизну.Як повідомляє пресслужба компанії, нині запроваджено технологічні заходи, щоб запобігти редагуванню в обліковому записі Grok зображень реальних людей у відвертому одязі, зокрема в бікіні. Відповідне обмеження застосовується до всіх користувачів, включно з платними підписниками.У компанії зазначили, що створення зображень і можливості їх редагувати через обліковий запис Grok на платформі X тепер доступна тільки платним користувачам. За словами розробників, це надає додатковий рівень захисту, щоб особи, які намагаються зловживати обліковим записом Grok для порушення закону або наших політик, могли бути притягнуті до відповідальності.У X наголосили, що тепер Grok блокує створення зображень реальних людей у бікіні чи білизні в країнах, де це заборонено законом. Розробники додали, що стрімкий розвиток генеративного ШІ створює виклики для всієї індустрії. "Ми активно співпрацюємо з користувачами, партнерами, регуляторними органами та іншими платформами, щоб швидше реагувати на проблеми в міру їх виникнення", — додали у компанії.Нагадаємо, раніше американська компанія Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку..

Голлівудський актор Метью Макконагі прийняв для себе рішення боротися зі зловживанням штучним інтелектом через механізм торгових марок. Артист зареєстрував свої голосові та візуальні образи, щоб у судовому порядку протидіяти несанкціонованим підробкам.Про це газеті The Wall Street Journal повідомили адвокати актора після рішень Бюро патентів і товарних знаків США (United States Patent and Trademark Office, USPTO).За останні місяці в USPTO схвалили вісім заявок на торгові марки, пов’язані з образом і голосом Макконагі. Йдеться про короткі відео- та аудіокліпи, де актор дивиться в камеру, усміхається або промовляє культову фразу Alright, alright, alright ("Добре, добре, добре"). Серед зареєстрованих матеріалів — ролик на ґанку, який триває сім секунд, трисекундне відео біля різдвяної ялинки та аудіозапис з фразою з фільму "Під кайфом та збентежені" 1993 року."Моя команда та я хочемо знати, що коли мій голос чи зображення коли-небудь використовуватимуть, це буде тому, що я це схвалив і підписав", — написав актор в електронному листі. За його словами, метою є "створення чіткого периметра", де згода й атрибуція стануть нормою у світі технологій штучного інтелекту. Своєю чергою, юристи Макконагі наголошують, що наразі їм не відомо про конкретні випадки маніпуляцій із його образом. Водночас вони сподіваються, що наявність торгових марок дозволить швидше реагувати на будь-яке несанкціоноване дублювання."У світі, де ми спостерігаємо, як усі намагаються зрозуміти, що робити зі зловживанням штучним інтелектом, у нас є інструмент, щоб зупинити когось або доставити його до федерального суду", — заявив адвокат Джонатан Поллак.Медійники зауважили, що схожі проблеми зачепили інших зірок, зокрема, Тома Генкса та Тейлор Свіфт. Їхні образи й голоси використовували у фейкових матеріалах. Хоча закони Сполучених Штатів про право на публічність захищають від комерційного використання, ситуація з монетизацією ШІ-контенту через рекламу залишається юридично невизначеною."Я не знаю, що зрештою скаже суд. Але ми повинні хоча б перевірити це", — додав адвокат Макконагі Кевін Йорн.У газеті зауважили, що Макконагі та його команда сподіваються на ухвалення федерального законодавства, яке чітко заборонятиме створення фейкових матеріалів за допомогою штучного інтелекту без згоди людей. Відповідний законопроєкт подали до Конгресу США у 2024 році, втім досі його не винесли на голосування.Нагадаємо, торік видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей..

Американська компанія Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку.Як стверджують медійники, деякі з таких зведень з’являлися у верхній частині пошуку та містили оманливі дані про стан здоров’я.У виданні додають, що Google раніше заявляла, що її AI Overviews є корисними та надійними. Водночас розслідування журналістів виявило, що в деяких випадках вони могли вводити людей в оману та створювати ризики для пацієнтів.Один із прикладів стосувався аналізів функції печінки, де сервіс від Google надав некоректні діапазони "нормальних" показників. Експерти назвали це небезпечним і тривожним, адже люди з серйозними захворюваннями могли помилково вважати себе здоровими. Так, запит "який нормальний діапазон показників аналізу крові на печінку" повертав набір цифр без належного контексту. При цьому не враховувалися вік, стать, етнічну приналежність чи інші індивідуальні показники користувача."Після розслідування компанія видалила огляди штучного інтелекту для пошукових запитів "який нормальний діапазон для аналізів крові на печінку" та "який нормальний діапазон для аналізів функції печінки", — зауважили медійники.Своєю чергою, речник Google заявив, що компанія не коментує окремі факти видалення в пошуку. Він зауважив, що розробники працюють над загальними покращеннями."У випадках, коли огляди ШІ не враховують певний контекст, ми працюємо над загальними покращеннями, а також вживаємо заходів відповідно до наших правил, де це доречно", — додав він.Директорка з комунікацій British Liver Trust Ванесса Хебдітч добре оцінила відповідне рішення. Вона зазначила, що це чудова новина, і вона рада видаленню оглядів Google AI у цих випадках. Хебдітч додала, що відповідна проблема не зникла повністю. За її словами, несуттєві варіації запитів усе ще можуть викликати потенційно оманливі огляди. "Функціональний тест печінки — це сукупність різних аналізів крові. Розуміння результатів включає набагато більше, ніж просто порівняння набору цифр. Але в оглядах штучного інтелекту список тестів виділено жирним шрифтом, через що читачам дуже легко не помітити, що ці цифри можуть навіть не відповідати їхньому тесту", — додала Хебдітч.Google, який контролює близько 91% світового ринку пошукових систем, заявив, що переглядає нові приклади, надані медійниками. У компанії зауважили, що огляди ШІ показуються лише тоді, коли є висока впевненість, що відповідь є "якісною". The Guardian також звернула увагу на інші ШІ-зведення Google щодо раку та психічного здоров’я. Експерти описали частину цієї інформації як "абсолютно неправильну" та "дійсно небезпечну". У відповідь у компанії заявили, що відповідні огляди містять посилання на авторитетні джерела та заклики звертатися до фахівців. За словами речника Google, внутрішня команда клініцистів не виявила в багатьох із них фактичних помилок.Старший редактор технологічного сайту Futurism Віктор Тангерманн додав, що результати розслідування показали потребу серйозного доопрацювання інструменту. За його словами, компанія має переконатися, що її моделі штучного інтелекту не поширюють небезпечну дезінформацію щодо здоров’я.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Корпорація Nvidia оголосила про намір інвестувати мільярд доларів впродовж п’яти років у нову спільну лабораторію з фармацевтичною компанією Eli Lilly & Co. Відповідний проєкт має на меті пришвидшити впровадження штучного інтелекту в процес розробки ліків.Як повідомляє агентство Bloomberg, лабораторію збудують у Кремнієвій долині, що у штаті Каліфорнія. Новий проєкт дозволить наблизити дослідницькі потужності Lilly до центру інновацій у сфері штучного інтелекту. Компанія назвала ініціативу спільною інвестицією, але не розкрила детальних фінансових умов.Розробка скерована на автоматизацію складних етапів фармацевтичних досліджень, які нині суттєво залежать від фізичних експериментів. Nvidia вважає, що ШІ здатен суттєво скоротити час і ресурси, необхідні для лабораторних перевірок. Така інвестиція відображає стратегію Nvidia з розвитку нових ринків для власних технологій.Компанія, яка нині є найдорожчою корпорацією світу, домінує на ринку чіпів для навчання ШІ, але велику частину її доходів забезпечує обмежене коло великих технологічних клієнтів. Охорона здоров’я та фармацевтика розглядаються технологічним гігантом як перспективні напрями розвитку. Попри те, що штучний інтелект уже допомагає у пошуку формул нових ліків, медикаменти зазвичай тестують вручну. Nvidia заявляє, що технологія готова зробити наступний крок — автоматизувати роботу у лабораторіях і прискорити перевірку результатів."Люди є основним обмеженням швидкості роботи лабораторій", — зауважила віцепрезидент Nvidia з питань охорони здоров’я Кімберлі Пауелл.Медійники додають, що інженери Nvidia працюватимуть разом із науковцями Lilly, щоб адаптувати комп’ютерні системи та програмне забезпечення до потреб лабораторного обладнання. Такий підхід дозволить автоматизувати процеси, які зазвичай виконують дослідники вручну.Також Nvidia розширює набір моделей і агентів штучного інтелекту для сфери охорони здоров’я та відкриває їхній вихідний код. Компанія також співпрацює з Thermo Fisher Scientific задля підключення лабораторного обладнання до ШІ-комп’ютерів Nvidia та з Multiply Labs для навчання роботів дослідницьким процедурам.Згідно з оцінками Bloomberg, партнерство Nvidia ставить Eli Lilly серед лідерів у сфері розробки ліків на основі ШІ, яка поки що перебуває на ранній стадії. Угода продовжує співпрацю компаній, розпочату в жовтні, коли вони оголосили про створення "найпотужнішого суперкомп’ютера, що належить і керується фармацевтичною компанією". Суперкомп’ютер, розміщений у штаб-квартирі Lilly в Індіанаполісі, має запрацювати на повну потужність у першому кварталі."Співробітники Lilly працюватимуть разом зі співробітниками Nvidia, забезпечуючи безперебійну співпрацю та доступ до наукових і технічних талантів світового класу", — йдеться у заяві речника Lilly. Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Кібератаки, шахрайство, витоки даних і маніпуляції в Інтернеті давно перестали бути абстрактною загрозою. Сьогодні вони стосуються кожного — від пересічного користувача соцмереж до державних установ і об’єктів критичної інфраструктури. В умовах повномасштабної війни кіберпростір фактично став ще одним фронтом, де противник системно збирає дані, здійснює атаки й намагається впливати як на окремих осіб, так і на цілі організації.Про те, чому більшість кібератак починаються з побутових помилок, як шахраї користуються людською довірою, які загрози несе штучний інтелект і діпфейки, а також чому навіть "звичайні" пости в соцмережах можуть становити небезпеку, — ми поговорили з завідувачем кафедри кримінології та інформаційних технологій Національної академії внутрішніх справ, доктором філософії, доцентом й капітаном поліції Владиславом Школьніковим.Особиста кібербезпека: щоденні ризики— Більшість кіберзагроз починаються з побутових речей, які ми робимо щодня і часто не сприймаємо як небезпечні. Чому, на вашу думку, користувачі так часто недооцінюють ці ризики?— Дійсно, "успішні" шахрайства є такими для зловмисників, адже для нас це завжди шкода. Вони реалізуються саме через те, що звичайний користувач не до кінця розуміє базові правила поведінки в кіберпросторі, яких варто дотримуватися. Як мінімум, коли він отримує незрозумілі посилання або дзвінки, то має своєчасно ідентифікувати, що це фішинг або прояв соціальної інженерії.Простими словами, якщо пропозиція дуже заманлива й ситуація складається надто терміново, негайно, стресово, то першочергово треба замислитися, чи дійсно це так, а чи, можливо, це прояв соціальної інженерії або психологічного впливу на користувача. Тут є базове правило: треба бути уважним і, як кажуть, одразу близько до серця не сприймати, а зупинитися й холодним розумом перепровірити всі ці дані, які нам намагаються передати або в чомусь запевнити. Це перше, на що обов’язково варто звернути увагу. І в більшості випадків це рятує від подальших ризиків і наслідків.Фішинг — вид шахрайства, метою якого є виманювання в довірливих або неуважних користувачів мережі персональних даних клієнтів онлайнових аукціонів, сервісів із переказу або обміну валюти, інтернет-магазинів. — Наскільки сьогодні надійні паролі залишаються ефективним інструментом захисту і якими вони мають бути?— Використання надійних паролів — базові навички, такі собі "софт скіли", які потрібно мати. Важливо не боятися цих понять, а вивчати їх. Для прикладу, довжина надійного пароля має бути, як мінімум, 12 символів (якщо це дозволяє інтерфейс додатка чи соцмережі). Маємо розуміти, що чим більше символів у паролі, тим він безпечніший, адже час на його вгадування у зловмисника збільшується.Недостатньо просто цифр й літер — мають бути ще й спеціальні символи. У паролі не повинно бути очевидних комбінацій, які всім відомі: наприклад, "123456789" тощо, або слів, які з нами асоціюються. Важливо, щоб на кожен обліковий запис був свій унікальний пароль.VPN і захист з’єднання— Багато користувачів сприймають VPN виключно як інструмент для зміни локації або доступу до заблокованих сайтів. Для чого насправді він потрібен і чому його не варто сприймати лише як спосіб зміни розташування?— Якщо казати про віртуальні приватні мережі або VPN, то звичайні користувачі не завжди до кінця усвідомлюють їхній функціонал і значущість. Більшість дійсно асоціює VPN зі зміною локації, аби мати змогу потрапити на ресурси інтернет-майданчиків, які заборонені для відвідування на рівні оператора або провайдера зв’язку. Можливо, саме тому ми й почали використовувати VPN, але насправді це також про безпеку, зокрема тоді, коли підключаємося до публічних Wi-Fi-мереж.Тому, якщо є необхідність вийти в Інтернет у публічному місці, найкращий варіант — користуватися мобільним інтернетом або роздати його на інший пристрій. Але в наших реаліях, в умовах ракетних обстрілів, коли є необхідність спускатися в укриття і перебувати там, інколи єдина можливість — скористатися публічною Wi-Fi-мережею. Тоді ми можемо підключатися до таких публічних мереж, але обов’язково з використанням VPN.— А чи всі VPN однаково безпечні і як правильно обирати такі сервіси?— Потрібно розуміти, що VPN — це теж застосунок, який хтось розробляв, тому розробника потрібно перевіряти на предмет того, наскільки якісно він може надавати цей сервіс. Тут також потрібно з’ясувати, щоб він не мав жодного зв’язку з Росії, тобто не був розробником із території РФ або інших країн, які здійснюють ворожі дії стосовно України. Бажано, щоб розробниками були представники країн, які є нашими надійними партнерами або союзниками.Двофакторна аутентифікація та контроль доступу— Які найпоширеніші помилки роблять люди, намагаючись убезпечити свої акаунти?Якщо ми говоримо про облікові записи, їх потрібно захищати, і це починається зі створення надійного пароля, а також з увімкнення двоетапної перевірки або двофакторної аутентифікації. Коли ми стикаємося з цим механізмом додаткового захисту облікових записів, маємо чітко усвідомлювати, що під час налаштування двофакторної аутентифікації існують різні способи.Один із них — це код, який надсилається у вигляді SMS-повідомлення. Тобто звичайне SMS-повідомлення — код, який у текстовому вигляді передається по відкритих каналах зв’язку. Це вважається двофакторною аутентифікацією, але на сьогодні такий спосіб другого фактора не є надійним. Тому його краще не використовувати.— А який тоді варіант двофакторної аутентифікації сьогодні є найбільш надійним?— Краще використовувати спеціалізовані застосунки, які генерують одноразовий код, що виступає другим фактором і протягом 30 або 40 секунд доступний для введення.Водночас на цьому етапі потрібно усвідомлювати, що ми можемо втратити доступ до такого застосунку. Щоб мінімізувати цей ризик, варто пам’ятати: під час використання спеціалізованого застосунку, який генерує другий фактор, необхідно заздалегідь завантажити резервні ключі. Саме вони дозволять у разі втрати доступу до застосунку відновити доступ до акаунта.Другий фактор — це безпечно, і його потрібно використовувати обов’язково. Але може трапитися ситуація, коли користувач налаштував двофакторну аутентифікацію, а згодом завдав собі ще більшої шкоди — залишився без доступу до облікового запису через втрату застосунку, який генерує цей другий фактор.— Як правильно налаштувати двофакторну аутентифікацію, щоб не втратити доступ до акаунта?— Якщо простими словами, на мобільний пристрій інсталюється спеціалізований застосунок, який генерує одноразові коди, що діють протягом 30 секунд і виступають другим фактором. Але що відбудеться, якщо ми втратимо фізичний пристрій, на якому цей застосунок інстальований? У такому випадку нас врятують попередньо завантажені резервні ключі, які дозволять відновити доступ до акаунта.Якщо говорити про механізми технічного захисту облікових записів, варто згадати ще одну негативну тенденцію — діяльність так званих дроперів, тобто осіб, які надають свої технічні можливості третім особам. Зокрема, може виникати ситуація, коли людині пропонують передати свій обліковий запис у користування третій особі на два-три дні. В обмін обіцяють повернути доступ до акаунта і навіть запропонувати додаткову винагороду.Тут важливо усвідомлювати, що протягом цих двох-трьох днів третя особа може використати обліковий запис у будь-яких, зокрема й зловмисних, цілях. Саме тому від таких пропозицій "трошки підзаробити" потрібно категорично відмовлятися. Наразі спостерігається вкрай негативна тенденція поширення подібних схем, коли зловмиснику необхідно лише тимчасово отримати доступ до акаунта, аби використати його у своїх цілях.Те саме стосується і доступу до банківських карток. У жодному разі не можна передавати критично важливі дані. Зокрема, CVV-код на звороті банківської картки категорично заборонено повідомляти третім особам — навіть співробітники банку не мають права запитувати таку інформацію. Тому, якщо ви стикаєтеся з ситуаціями, коли у вас просять CVV-код, варто замислитися, чи не маєте справу зі зловмисником, і в такому випадку негайно припинити спілкування. Саме такі класичні помилки найчастіше й допускають звичайні громадяни.— Чому люди похилого віку найчастіше стають жертвами шахраїв і які сигнали мають їх насторожувати?— Якщо говорити про людей похилого віку, то у більшості випадків зловмисник діє успішно саме через довіру. Йдеться про громадян, які, можливо, перебувають у скрутному матеріальному становищі й можуть підпадати під психологічний вплив. Тому загальна рекомендація тут проста: на психологічному рівні потрібно бути уважними, пильними й завжди пам’ятати, що безоплатний сир буває лише в мишоловці. Часто це лише заманлива пропозиція, мета якої — шахрайським шляхом отримати гроші або персональні дані.Окрім вищезазначеного, треба звертати увагу на негайність, стресовість, терміновість. Якщо ж бачимо тривожні сигнали, варто зупинитися і замислитися, чи дійсно це правда, а не є проявом якихось шахрайських дій з боку зловмисника.Ризики у соціальних мережах— Наскільки реально, що дані, якими ми ділимося в соцмережах, збираються і можуть бути використані проти нас або проти держави? Чому навіть люди, які не пов’язані з оборонним сектором, можуть бути цікавими ворогу?— Ми, можливо, не до кінця усвідомлюємо ту роль, яку можемо відігравати, і чому можемо бути цікавими третім особам. Зрозуміло, що класичні схеми, пов’язані з отриманням грошей з боку зловмисника, були, є і будуть. Але в умовах повномасштабного вторгнення є й інші ситуації, коли може діяти окрема особа або група осіб, які просто збирають дані про кожного з нас, щоб планувати певні операції, зокрема ракетні обстріли.Тому що всі ми якщо безпосередньо не пов’язані із сектором оборони і безпеки, то маємо знайомих або родичів, які дотичні до оборонних заходів. І, відповідно, через нас потенційно можна дізнатися інформацію про них. Якщо її вже можна отримати, то далі — можливо, і про дислокацію певного підрозділу, який належить до Збройних сил України.А якщо ми працюємо в органах державної влади або в органах місцевого самоврядування, на нас покладається додаткова зона відповідальності. Бо, як правило, державний службовець має доступ до певних баз даних із персональними даними. І хоча як фізична особа він може не становити інтересу для зловмисника, цінними для нього є дані, доступ до яких можна отримати через цього державного службовця в межах організації.— А як зловмисники можуть потрапити в ІТ-інфраструктуру організації через одного працівника? І чому фішинг залишається однією з головних причин успішних кібератак?— Одна з найпоширеніших кібератак — це проникнення до службового пристрою звичайного користувача, який є працівником певного підрозділу або органу, а вже через нього — до ІТ-інфраструктури всієї організації. Зрозуміло, що в такому разі збитків може бути завдано значно більше, адже звичайний користувач, який не до кінця усвідомлює свою роль і місце в системі кібербезпеки установи, може стати тією проміжною ланкою, через яку зловмисник потрапляє в систему організації.Саме тому ми й бачимо в засобах масової інформації масштабні негативні наслідки кібератак — витоки даних та інші інциденти. І в більшості випадків, за статистикою, успішність такої атаки на первинному етапі пов’язана з тим, що звичайний працівник установи, який користується службовим пристроєм і корпоративною електронною поштою, не розпізнає фішинг — повідомлення, спрямоване на інфікування службового пристрою, а згодом і всієї ІТ-інфраструктури організації.У теорії кібербезпеки найслабшим елементом системи кібербезпеки є саме людина. Бо вона піддається психологічному впливу, і саме через неї найчастіше можна отримати доступ до систем.Штучний інтелект і нові загрози— Штучний інтелект стрімко входить у наше життя, але разом із можливостями з’являються і нові загрози. Які реальні кіберзагрози вже виникли через розвиток штучного інтелекту? І як технології діпфейку можуть використовуватися для шахрайства?— Ми вже зараз із засобів масової інформації можемо бачити повідомлення про те, що з використанням технологій діпфейку штучний інтелект дозволяє фактично підробляти обличчя кожного з нас. Якщо говорити про діпфейки, то, умовно, може сидіти одна людина, а на моніторі відображатися обличчя зовсім іншої особи.Діпфейк (від англ. deepfake, від поєднання термінів deep learning ("глибинне навчання") та fake ("підробка")) — методика синтезу зображення людини, яка базується на штучному інтелекті.Як створюється діпфейк? Зображення людини використовують для поєднання і накладення на інші зображення або відеоролики за допомогою штучного інтелекту.Діпфейк-відео найчастіше розміщують на сервісах YouTube, Vimeo, TikTok. Перше "вірусне" діпфейк-відео було з Бараком Обамою: https://youtu.be/cQ54GDm1eL0Вже є зафіксовані факти, пов’язані з використанням систем верифікації — це, зокрема, перевірка за фото. Тобто людина заходить у певний застосунок і, щоб його розблокувати, потрібно просканувати обличчя. Система порівнює обличчя людини в режимі реального часу з тими зразками фото, які були попередньо збережені в цьому застосунку. Сьогодні, з використанням штучного інтелекту, а саме технологій діпфейку, можна підробити обличчя людини та успішно пройти таку верифікацію.Вже були зафіксовані приклади, зокрема ті, які розслідувалися Національною поліцією, коли викривалися шахраї, які, використовуючи цю технологію, успішно отримували доступ до певних застосунків. Тому це виклик, який становить загрозу для кожного з нас. І щоб його мінімізувати, на рівні певних установ, як приватних, так і державних, впроваджуються додаткові механізми захисту від цих шахрайських проявів.— Що можуть зробити звичайні користувачі, щоб мінімізувати ризики від таких загроз?— Сказати точно, як повністю мінімізувати цей ризик для фізичних осіб, щоб у мережі Інтернет взагалі не залишалося жодних цифрових слідів у відкритому просторі, складно. Бо заборон цьому немає, але в контексті загроз, пов’язаних саме зі штучним інтелектом, передусім важливо обов’язково оновлювати програмне забезпечення. Тому що випуск оновлень — це не лише питання зміни функціоналу чи інтерфейсу, а й питання безпеки. Саме під час оновлень підвищується рівень захисту, зокрема фотоверифікації та відеоверифікації в конкретних застосунках.Тому ми маємо певною мірою покладатися на розробників і бути впевненими, що вони зможуть ефективно ідентифікувати шахрайські схеми, які з використанням штучного інтелекту здатні реалізовуватися в тих чи інших застосунках. І якщо розробник постійно вдосконалює свої системи захисту, нам залишається довіряти таким рішенням і обов’язково встановлювати оновлення.— Ви згадали про ризики публікування персональних даних в інтернеті. Які загрози виникають для українців під час використання ChatGPT та інших великих мовних моделей, коли їм передають особисту інформацію?— Перше, що маємо усвідомлювати, — це те, що ChatGPT та інші великі мовні моделі, є зручними і справді можуть допомагати в багатьох питаннях. Але водночас варто розуміти, що ці сервіси надаються конкретними компаніями, які використовують власні обчислювальні потужності та штучний інтелект для обробки наших запитів.Найімовірніше, усе листування і всі дані, які ми передаємо, зберігаються на серверах та інфраструктурі цих компаній. І якщо ми передаємо великі обсяги персональних даних, то в окремих випадках це може бути навіть заборонено — зокрема, коли йдеться про діяльність державного службовця. Тобто надавати персональні дані в межах виконання службових обов’язків категорично заборонено, адже вони зберігатимуться на сторонніх ресурсах.Якщо говорити про фізичних осіб, які не належать до державної служби, зрозуміло, що під час такого спілкування скласти психологічний портрет кожного з нас нескладно. Йдеться про наші психологічні особливості, певні тонкощі, нюанси тощо. І тут важливо чітко усвідомлювати: якщо ми розуміємо цей ризик і все одно передаємо ці дані, то кому саме ми їх передаємо.— Які додаткові ризики виникають при використанні штучного інтелекту, розробленого в інших країнах?— Якщо взяти таку велику мовну модель, як DeepSeek — розробка китайського стартапу, то вона на рівні з ChatGPT дає відповіді на запитання, що нас цікавлять. Тому зрозуміло: якщо ми передаємо свої дані саме в DeepSeek, то вони акумулюються й обробляються розробниками цієї країни, які можуть робити з них певні висновки щодо кожного з нас.Тому важливо на національному рівні усвідомлювати цей ризик і замислюватися, кому саме ми передаємо свої дані, наскільки можемо довіряти отримувачам цієї інформації, тобто розробникам, які потенційно мають до неї доступ, — і вже від цього відштовхуватися у своїх рішеннях.— Що можуть зробити користувачі, щоб мінімізувати ризики під час використання ChatGPT та подібних сервісів? Якою має бути політика щодо використання штучного інтелекту в органах державної влади?— Звичайно, повністю відмовитися від використання ChatGPT або інших великих мовних моделей буде складно. Єдине, що ми можемо зробити, — це обмежити обсяг інформації, яку передаємо, принаймні на рівні захисту персональних даних. Не вказувати реальні прізвища, імена, по батькові чи справжні номери телефонів, а за можливості шифрувати їх або навмисно змінювати окремі дані. Тобто хоча б на цьому рівні ми маємо передбачати такі механізми захисту.Якщо ж говорити саме про органи державної влади, то, на мою думку, тут має діяти пряма й категорична заборона на використання штучного інтелекту не в локальному середовищі, особливо під час виконання службових обов’язків.Як готуються кібератаки— У кіно хакери ламають систему за секунди. Насправді кіберзлочини інколи готуються місяцями або навіть роками. З чого зазвичай починається складна кібератака? І які фактори визначають тривалість підготовки кібератак?— Дійсно, окремі атаки можуть здійснюватися протягом тривалого проміжку часу, і ми маємо це усвідомлювати. Я вже згадував, що нам потрібно оцінювати себе не лише як фізичних осіб, а і як представників певних установ або організацій. Якщо в конкретній установі чи організації є критично важливі чутливі дані, зловмисник може намагатися отримати до них доступ саме через нас.Першим етапом зазвичай стають фішингові розсилки — найчастіше це електронні листи й повідомлення через месенджери. Останні мають шахрайський характер і спрямовані на отримання від нас персональних чи чутливих даних, або ж на інфікування службового пристрою. І тут важливо розуміти: якщо службовий пристрій інфікований, зловмисник може далі переходити до мережі та ІТ-інфраструктури організації, аби уже там завдати шкоди всій установі, наприклад, через масові витоки даних. І якщо зловмисники діють саме за таким сценарієм, то підготовка до атаки може тривати не один місяць — інколи й півроку. Йдеться не про одномоментну атаку, а про проходження низки етапів, які в підсумку здатні завдати масштабної шкоди цілим організаціям.— Чи можете навести приклад кібератаки, яка готувалася тривалий час?— Яскравим прикладом є вірус Petya. Якщо проаналізувати події, пов’язані з Petya, то, за різними оцінками, зловмисники діяли від шести місяців до року, щоб завдати масштабних негативних наслідків. Вони зачепили як приватний сектор, так і органи державної влади — не лише в Україні, а й в інших країнах світу.Petya — сімейство шкідливих програм, що вражає комп'ютери під управлінням сімейства ОС Microsoft Windows. Перші представники були виявлені 2016 року та були звичайними зразками здирницьких вірусів.27 червня 2017 року сталась масштабна атака останнім представником сімейства, який запозичив деякі модулі з попередніх зразків, але, можливо, був створений іншими розробниками та вже був вірусом-винищувачем даних, замаскованим під програму-вимагач.Кіберпростір і війна— Цифрові технології сьогодні стали повноцінною зброєю у війні. Кібератаки впливають на розвідку, управління, логістику та темп бойових дій. Як цифрові технології використовуються під час російсько-української війни й чи можна говорити про постійну кіберкампанію, а не окремі епізоди?— Частково я вже про це говорив: під час повномасштабного вторгнення кіберпростір став тим середовищем, у якому ворог активно діє. За стандартами НАТО кіберпростір сьогодні також вважається зоною ведення бойових дій, і ворог активно використовує цю сферу. Чому? Тому що в сучасному світі дані відіграють надзвичайно важливу роль, а їхня цінність є дуже високою.Фактично ворога цікавить велика кількість даних — як персонального характеру про кожного з нас, фізичних осіб, так і даних про юридичних осіб, цілі організації, незалежно від того, чи мають вони пряму або опосередковану причетність до сектору безпеки й оборони. Збираючи ці дані по крихтах, ворог може сформувати для себе загальну картину, яка потенційно допоможе йому в реалізації тих чи інших військових операцій.Тому діяльність у кіберпросторі сьогодні може мати не лише мотив отримання фінансової вигоди, а й мотив збору даних — як відкритого, так і закритого характеру.— Наскільки небезпечними у цьому контексті є дані, які люди та організації публікують у відкритому доступі?— Усі дані, які ми публікуємо про себе, можуть бути корисними для зловмисника, адже якщо вони перебувають у публічному просторі, то фактично не захищені. Якщо ми розміщуємо у відкритому доступі персональні або інші дані, які потенційно можуть бути цікавими ворогу, то йому, зрозуміло, нескладно їх зібрати, проаналізувати й зробити відповідні висновки.Саме тому сьогодні активно використовується такий напрям, як OSINT — розвідка з відкритих джерел інформації. Чому OSINT є настільки ефективним? Тому що ми, по суті, можемо публікувати про себе та інших велику кількість інформації у відкритому просторі. Зрозуміло, що повністю заборонити це складно, але ми маємо чітко усвідомлювати, що саме публікуємо і які ризики з цього можуть виникати.— Як ці дані можуть бути використані проти конкретної людини?— Ризики можуть бути різними, але якщо говорити в контексті кібератак або кіберпростору, то, як я вже згадував, ідеться про формування психологічного портрета. Зібравши достатню кількість даних про людину, можна скласти загальну картину, яка дозволяє зрозуміти, що її цікавить, які вона має хобі та вподобання. А далі, коли зловмисник це усвідомлює, він починає надсилати повідомлення, які є для нас релевантними й потенційно можуть нас зацікавити.Тобто, якщо ми ніколи не займалися футболом і отримаємо фішинговий лист, пов’язаний із футбольними змаганнями, ймовірно, не звернемо на нього уваги. Але якщо з відкритих джерел стає зрозуміло, що ми більше полюбляємо, наприклад, баскетбол, то зловмисник може використати саме цю тематику або пов’язані з нею події.І якщо якесь повідомлення надто емоційно нас зачіпає, варто зупинитися й замислитися, чи дійсно це правда. Можливо, йдеться лише про якісну маніпулятивну атаку, мета якої — спонукати нас до певних дій.— Яка кінцева мета таких кібератак у контексті війни? І як відрізняється підхід України та Росії до кібероперацій у цілях, методах і пріоритетах?— А яку відповідь від нас очікує зловмисник? Це або передача персональних даних, або ситуація, коли фішинг супроводжується прикріпленими файлами, що містять шкідливе програмне забезпечення. Мета в такому разі — спонукати нас завантажити цей файл і запустити його на своєму пристрої.Що стосується підходів, то вони у нас різняться, адже рівень технологій є різним. В Україні, на щастя, є сучасні технології — як власні розробки, так і рішення наших західних партнерів, які суттєво допомагають не лише протидіяти агресії РФ, а й у деяких випадках ефективно збирати інформацію про ворога. Тому в цьому аспекті ми справді відрізняємося і достатньо якісно реалізуємо цей напрям у межах наявної ситуації.Водночас, з огляду на політику РФ щодо України, противник у більшості випадків націлюється на об’єкти критичної інфраструктури. Зокрема на ті, збір даних про які може дозволити завдавати ракетних ударів і шкоди цивільному населенню. Саме тому об’єкти критичної інфраструктури на території України страждають не лише фізично, а й у кіберпросторі: проти них намагаються здійснювати атаки, збирати дані, а в окремих випадках — навіть зупиняти їхню роботу.З 2014 року наша держава реалізувала низку заходів, спрямованих на суттєве підвищення кіберстійкості об’єктів критичної інфраструктури. Адже саме з цього періоду кібератаки активно застосовувалися проти енергетичних комплексів та інших критичних об’єктів. У 2014-2015 роках були випадки, коли внаслідок таких атак населення залишалося без електропостачання протягом кількох годин. Нині подібних сценаріїв уже не відбувається, оскільки кібероборона значно посилилася, а негативний досвід був врахований.— Але як все-таки кібератаки можуть впливати на бойові дії і ситуацію на фронті? — Зрозуміло, що йдеться, зокрема, про логістичні постачання — отримання інформації про них. Безпосередньо на лінії бойового зіткнення використовуються свої технічні можливості та інструменти для перехоплення даних у радіусі 20-30 кілометрів. Я не є фахівцем у цих деталях, але такий інструментарій там застосовується.Але якщо потрібно перехоплювати дані, які фізично перебувають за 1000-2000 кілометрів, тобто в зовсім інших локаціях, то тут, зрозуміло, зона відповідальності вже лежить у площині кібероперацій. Йдеться про те, як потрапити в систему і як із цієї системи зібрати дані, які потенційно можуть допомогти планувати ті чи інші військові операції.Тому в більшості випадків, відповідаючи на ваше питання, йдеться саме про можливість визначення логістичних постачань, а вже з урахуванням зібраної інформації — планування подальших військових операцій.Технології у роботі правоохоронців— Цифрові загрози змінюють і підхід до роботи правоохоронних органів — від навчання до розслідувань. Майбутні правоохоронці повинні розуміти кіберзагрози, навіть якщо не планують займатися програмуванням. Як у Національній академії внутрішніх справ навчають курсантів кібербезпеці та роблять акцент на практичній підготовці?— У Національній академії внутрішніх справ акцент робиться на практичній підготовці майбутнього поліцейського — курсанта, який уже після випуску може використовувати конкретні інструменти та методики для розкриття і розслідування кримінальних правопорушень. Відповідно, ми впроваджуємо кейсові завдання та практичні симуляції із залученням чинних працівників профільних підрозділів.Можна сказати, що в нас напрацьовані практичні симуляції та завдання, які безпосередньо стосуються питань кібербезпеки, збору й аналізу даних. З урахуванням того, що специфіка цієї роботи передбачає виконання завдань за допомогою персонального комп’ютера, за підтримки керівництва академії розбудовано належну матеріально-технічну базу — зокрема, забезпечено обладнання у вигляді ноутбуків і персональних пристроїв.Крім того, ми постійно намагаємося отримувати відповідне програмне забезпечення, яке використовується в підрозділах поліції, зокрема у сфері кібербезпеки, кримінального аналізу та інших напрямків, що вимагають від працівників застосування сучасних інформаційних інструментів.У підсумку можна сказати, що поєднання теорії та практики дає максимальний результат у підготовці курсантів. Також варто окремо відзначити й подякувати керівництву академії за те, що створені всі необхідні умови для забезпечення такої підготовки на належному рівні.— Наскільки ефективні інтелектуальні камери з розпізнаванням облич у розкритті злочинів? Їх почали встановлювати ще до початку повномасштабного вторгнення. Можете навести приклади, коли вони реально допомогли правоохоронцям, зокрема для фіксації злочинів окупантів у захоплених містах?— Так, на території України розбудована система "Безпечне місто", а подекуди — і "Безпечне село", залежно від рівня та типу населеного пункту. Місцева громада може ухвалювати рішення про розбудову таких систем — камер відеоспостереження, які в режимі реального часу фіксують ті чи інші події, а також у ретроспективі дозволяють відтворювати події, зафіксовані тією чи іншою камерою.На початку повномасштабного вторгнення, коли активні бойові дії, зокрема, відбувалися в Київській області та інших регіонах України, такі камери відеоспостереження дуже часто фіксували воєнні злочини, скоєні ворогом або представниками Збройних сил РФ. Таких прикладів насправді є дуже багато.У Національній поліції профільним збором матеріалів за цим напрямком займається Головне слідче управління, а також інші підрозділи кримінальної поліції, які супроводжують ці категорії воєнних злочинів. Також відомі окремі приклади, пов’язані з функціонуванням системи "Безпечне місто" в Енергодарі (місто-супутник Запорізької АЕС у Запорізькій області, яке перебуває в окупації з 4 березня 2022 року, — ред.), коли під час заходу військових РФ за допомогою камер відеоспостереження фіксувалися випадки завдання шкоди певним об’єктам або приміщенням у цій локації. Після цього окупанти намагалися звинуватити українську сторону, проводячи дезінформаційні кампанії. Саме камери відеоспостереження дозволяли спростовувати ці дезінформаційні твердження з боку представників РФ і, відповідно, ставали доказом того, що вони не відповідали дійсності.— Мобільний зв’язок — одна з ключових частин безпеки, але доступність та анонімність SIM-карток створюють додаткові виклики. Чи впливає доступність і відносна анонімність SIM-карток на розкриття злочинів в Україні?— Звичайно, в Україні існує певна проблема. Вона пов’язана з тим, що SIM-картки можна придбати без надання документів, які посвідчують особу, зокрема паспорта. У країнах Європейського Союзу такої практики немає: перед придбанням SIM-картки там обов’язково потрібно надати документ, що засвідчує особу, — у більшості випадків це паспорт.Це проблема, яка вже тривалий час існує в Україні й потребує врегулювання на законодавчому рівні. Необхідно запроваджувати механізми, які б не створювали додаткових труднощів для правоохоронних органів у ситуаціях, коли номер телефону не прив’язаний до конкретної фізичної або юридичної особи. З погляду запобігання та розкриття злочинів це є серйозним викликом.Водночас варто говорити й про інший аспект. Якщо людина користується SIM-карткою, яка не прив’язана до паспортних даних, значно зростають ризики різноманітних шахрайських схем. Зокрема, йдеться про ситуації, коли номер може бути перехоплений третьою особою — зловмисником — і надалі використаний для отримання доступу до певних застосунків. У більшості випадків йдеться про онлайн-банкінг.Тому тут йдеться вже не просто про рекомендацію, а про пряму відповідальність кожного з нас — прив’язувати номери телефонів, які використовуються для фінансових операцій та онлайн-банкінгу, до паспортних даних. Якщо номер фактично виконує функцію фінансового ідентифікатора, його необхідно захистити у такий спосіб, щоби треті особи, зокрема зловмисники, не могли отримати до нього доступ, перехопити його чи використати для доступу до наших акаунтів.Погляд уперед— На вашу думку, які технології або тренди найбільше змінять кібербезпеку в Україні найближчими 5-10 роками?— Безперечно, йдеться насамперед про штучний інтелект. Ми вже торкалися цієї теми в ході розмови, адже штучний інтелект — це не лише інструмент, який допомагає нам, як добросовісним громадянам, у повсякденному житті та професійній діяльності, а й потужний ресурс, який активно використовують зловмисники. Це тренд, який уже сформувався, і з огляду на темпи розвитку технологій можна очікувати, що його застосування лише зростатиме — серед усіх верств населення, зокрема й у злочинних цілях.Окремо варто згадати й про квантові комп’ютери. У разі їх повноцінного запуску перед сферою кібербезпеки постане ціла низка нових викликів, насамперед пов’язаних із забезпеченням належного рівня шифрування даних. Уже сьогодні активно обговорюється питання, наскільки існуючі системи захисту зможуть залишатися ефективними в умовах появи таких обчислювальних потужностей і як змінюватимуться підходи до кіберзахисту загалом.Ще один постійний виклик — це підготовка кадрового резерву. Інформаційні технології сьогодні присутні практично в усіх сферах суспільного життя, а процеси цифровізації лише пришвидшуються. Водночас людям, які тривалий час працюють у своїй професії, часто стає складніше швидко адаптуватися до нових технологій, які необхідно не лише розуміти, а й активно застосовувати на практиці. Така ж ситуація спостерігається і в сфері кібербезпеки.З урахуванням усіх цих факторів потреба у кваліфікованих фахівцях, здатних на належному рівні забезпечувати захист інформаційних систем, лише зростатиме. Тому одним із ключових завдань на найближчі роки залишається формування кадрового потенціалу, який не просто усвідомлюватиме наявні та майбутні виклики, а й зможе ефективно їм протидіяти, забезпечуючи високий рівень кіберзахищеності організацій і держави загалом..

За інформацією The Guardian, взаємодія між людьми та штучним інтелектом дедалі частіше викликає тривогу у суспільстві. У медіа зростає кількість повідомлень про психічні зриви та самогубства після спілкування з чат-ботами.Посилаючись на дані вчених, видання пише, що за правильного використання ШІ все ж може мати й відчутну користь.Медійники зазначають, у публічному просторі з’явився термін "психоз, спричинений штучним інтелектом", яким описують випадки марення, параної чи дисоціації після взаємодії із чат-ботами штучного інтелекту."Половина підлітків спілкується з партнером зі штучним інтелектом кілька разів на місяць. Кожен третій підліток вважає такі розмови настільки ж або навіть більш задовільними, ніж спілкування з реальними друзями. Один підліток навіть наклав на себе руки після спілкування з ChatGPT протягом кількох місяців. Це підсилює колективну тривогу щодо того, як ШІ впливає на психіку молоді", — зазначає видання.Втім, дослідники закликають не піддаватися паніці. Попри реальні ризики, потенційні переваги взаємодії зі штучним інтелектом також очевидні. Суспільство завжди мало нелюдські стосунки — з домашніми тваринами, предметами чи технікою. Вчені наголошують, що парасоціальні зв’язки у більшості випадків є нормальними й не переходять у патологію.Парасоціальність — це односторонні емоційні зв’язки людей зі знаменитостями, вигаданими персонажами, а відтепер — і зі штучним інтелектом.Водночас штучний інтелект відрізняється від тварин чи речей здатністю володіти мовою. Чат-боти зі штучним інтелектом створюють ілюзію людських думок і почуттів та часто підкріплюють погляди користувача, не ставлячи їх під сумнів. Саме це поєднання може заводити людей у стан омани.Чи є користь від спілкування з ШІ: що пише The GuardianСеред основних сфер, де ШІ демонструє користь, є боротьба із самотністю. Згідно з дослідженням, кожна шоста людина у світі відчуває самотність, що пов’язано зі зростанням ризику передчасної смерті на 26%. Дослідження свідчать, що компаньйони на основі штучного інтелекту можуть зменшувати це відчуття не лише як відволікання, а й через самі парасоціальні стосунки. Для багатьох людей чат-бот є єдиним доступним варіантом спілкування. Водночас критики ШІ нагадують, що технологічні платформи самі могли сприяти зростанню ізоляції. Окрім цього, штучний інтелект також почали використовувати як інструмент психотерапії. В одному з досліджень пацієнти, які взаємодіяли з терапевтичним чат-ботом, продемонстрували 30% зниження симптомів тривоги. "Хоча це менше, ніж 45% у випадку з людьми-терапевтами, результат вважають значущим", — зазначає видання.Також дослідження демонструють, що використання інструментів штучного інтелекту значно підвищує ефективність та задоволеність роботою людей зі Синдромом дефіциту уваги та гіперактивності, аутизмом і дислексією. Генеративні моделі допомагають нейрорізноманітним працівникам компенсувати дефіцит уваги шляхом структурування інформації та автоматизації рутинних завдань.Вчені стверджують, що відповідні дані на сьогодні обмежені. Вивчення впливу штучного інтелекту на психіку перебуває лише на ранньому етапі, і поодинокі дослідження не дають остаточних відповідей. Саме в цьому вакуумі зростає ризик зловживань з боку комерційних компаній.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Американська компанія OpenAI презентувала спеціалізований сервіс для роботи з питаннями щодо здоров’я та медичною інформацією під назвою ChatGPT Health. Він дає змогу безпечно поєднувати дані про здоров’я користувача з можливостями чат-бота.Як повідомляє прес-служба компанії, доступ до функціоналу спочатку отримає обмежене коло користувачів.Варто наголосити, що питання здоров’я вже є одним із найпоширеніших напрямів використання ChatGPT. За узагальненим аналізом компанії, понад 230 мільйонів людей у світі щотижня ставлять запитання, пов’язані зі здоров’ям і самопочуттям.Розробники стверджують, що ChatGPT Health сформований як окремий захищений простір. Так, розмови, файли, підключені програми та спогади в новому просторі ізольовані від інших чатів і не використовуються для навчання базових моделей OpenAI.Також користувачі можуть безпечно під’єднувати електронні медичні записи та застосунки для здоров’я. Серед них — Apple Health, Function, MyFitnessPal та інші сервіси для відстеження аналізів, харчування, фізичної активності людини. Цей сервіс допомагає тлумачити результати аналізів, готуватися до візитів до медиків, аналізувати дані з гаджетів. Водночас ChatGPT Health не призначений для діагностики чи лікування і має лише підтримувати медичні рішення.Розмови про здоров'я відбуваються так само як і звичайне спілкування з ChatGPT, але базуються на під'єднаній користувачем інформації. Людина зможе завантажувати фото й файли, а також користуватися пошуком, глибоким дослідженням, голосовим режимом і диктуванням. За потреби ChatGPT автоматично використовує під'єднану користувачем інформацію, щоб відповіді були точнішими й більш персоналізованими. Наприклад, ви можете запитати: "Як змінюється мій рівень холестерину?" або "Чи можеш ти підсумувати мої останні результати аналізів перед візитом до лікаря?"."ChatGPT Health розроблено у тісній співпраці з лікарями з усього світу, щоб надавати зрозумілу та корисну інформацію про здоров’я", — наголошують в OpenAI.Протягом понад двох років більше ніж 260 медиків із 60 країн надавали зворотний зв’язок, допомагаючи визначити безпечні та корисні сценарії використання. Модель, яка закладена в основі сервісу, оцінюють за клінічними стандартами через фреймворк HealthBench. Він зосереджується на безпеці, зрозумілості відповідей і коректному спрямуванні користувача до лікаря за потреби.Окремі інтеграції з електронними медичними записами та деякі застосунки наразі доступні лише у Сполучених Штатах Америки. Впродовж найближчих тижнів OpenAI зробить сервіс доступним у вебверсії та на iOS.Нагадаємо, торік у грудні генеральний директор OpenAI Сем Альтман оголосив у компанії "режим найвищого пріоритету" або "червоний код", мобілізувавши всі наявні ресурси для екстреного удосконалення флагманського продукту — чат-боту ChatGPT. Такі дії є прямою відповіддю на зростання конкурентного тиску, особливо з боку Google Gemini..

У Google заявили про масштабне оновлення Gmail. Американська компанія повністю інтегрувала штучний інтелект Gemini 3 у поштову скриньку для нових оглядів зі штучним інтелектом, допомоги з написанням листів та сортування повідомлень. Як повідомляє прес-служба компанії, частина функцій уже доступна безплатно, інші — для передплатників Google AI Pro та Ultra.Розробники зазначають, що близько трьох мільярдів користувачів використовують Gmail для спілкування та роботи, а штучний інтелект вже відіграє помітну роль у фільтрації спаму та формуванні розумних відповідей. Тож, зростання обсягів інформації на пошті "зробило керування нею таким же важливим, як і самі листи".Також компанія оновила огляди на основі штучного інтелекту, які автоматично стискають довгі ланцюжки листування до коротких викладів. Коли користувач ставить запитання, на кшталт "про що цей лист" або "що потрібно зробити", у своїй поштовій скриньці, Gemini також формує відповідь, синтезуючи дані з листів без ручного пошуку.Варто зауважити, що огляди розмов зі ШІ вже доступні для всіх користувачів безплатно. Можливість ставити запитання до у "Вхідних" через огляди ШІ відкрили для передплатників Google AI Pro та Ultra. Google оновив інструменти для написання листів. Функція Help Me Write тепер доступна всім і дозволяє створювати або редагувати тексти прямо в Gmail. З’явилися нові "Пропоновані відповіді", які враховують контекст розмови та особистий стиль користувача. За задумом розробників, система може автоматично сформувати відповідь у відповідному тоні, наприклад, під час організації сімейної зустрічі. Користувачеві залишається лише відредагувати та підтвердити текст перед надсиланням.У компанії додали, що для підписників Google AI Pro та Ultra додали функцію "Коректура", яка перевіряє граматику, тон і стиль. У лютому Google планує оновити функцію Help Me Write, додавши персоналізацію з урахуванням даних з інших сервісів компанії.Ключовим оновленням, за словами Google, є вкладка "Вхідні" з ШІ. Функція AI Inbox автоматично сортує листи, виділяючи критично важливі повідомлення. Алгоритм проводить аналіз контактів та зміст листів, щоб "підсвітити" термінові завдання, наприклад, запис до лікаря та повідомлення від важливих людей, залишаючи менш суттєві оновлення на другому плані.Нагадаємо, торік у грудні генеральний директор OpenAI Сем Альтман оголосив у компанії "режим найвищого пріоритету" або "червоний код", мобілізувавши всі наявні ресурси для екстреного удосконалення флагманського продукту — чат-боту ChatGPT. Такі дії є прямою відповіддю на зростання конкурентного тиску, особливо з боку Google Gemini..

Штучний інтелект, який все швидше розвивається, у майбутньому може відобразитися на ринку праці та певних професіях. Однак зараз його використовують переважно в особистих цілях.Про це повідомила експертка з ринку праці Тетяна Пашкіна в інтерв'ю TrueUA."З одного боку, штучний інтелект присутній у нашому житті, ми нікуди від цього не дінемось і не зможемо його відкинути. Поки що, настільки я бачу, за результатами опитувань, його використовують переважно в особистих цілях", — наголосила вона.Водночас, за словами фахівчині, на сьогодні вже існує значна кількість компаній, яка наполегливо намагається застосувати його для виконання рутинних завдань, враховуючи дефіцит працівників. Ба більше, Google навіть розробив безкоштовний курс з освоєння ШІ бізнесом. Так, компанії наймають консультантів зі штучного інтелекту, які навчають працівників, як правильно його використовувати для максимальної ефективності."Штучний інтелект — не геній, його треба навчати, а для цього потрібні висококваліфіковані фахівці, які можуть це зробити. Тому рутинні операції з його допомогою можна мінімізувати, але треба розуміти, як буде трансформуватися бізнес, де є загрози, які помилки можуть статися внаслідок залучення ШІ, як на них реагувати. Якщо ми хочемо глобалізацію — вважаю, що це можливо, але я б наполягала на тому, що це має бути обмежено, контрольовано і професійно", — додала Пашкіна.Нагадаємо, раніше повідомлялося, що в Україні найвищу заробітну плату отримують топ-менеджери, представники сфери IT, а також військові, які перебувають на передовій. Поступово зростають оклади у сфері продажів..

На порталі "Дія.Бізнес" зʼявилися ШІ-асистенти, які створені спеціально для підтримки підприємців. Вони допомагають швидше знаходити рішення для розвитку бізнесу — від ідеї запуску до масштабування та виходу на міжнародні ринки.Про це повідомила прес-служба Міністерства цифрової трансформації України."Україна рухається до Agentic state — держави, яка передбачає потреби громадян та пропонує рішення за одним запитом. Ми вже запустили Дія.АІ — першого у світі національного ШІ-асистента, який надає державні послуги. Тепер власні ШІ-асистенти зʼявляться й на порталі "Дія.Бізнес", — повідомив прший віцепремʼєр-міністр України — міністр цифрової трансформації Михайло Федоров.Посадовець пояснив, що вони допоможуть швидко, просто та зручно знайти потрібну інформацію, сформувати бізнес-план чи дібрати грант для розвитку власної справи. ШІ-асистенти працюють, як персональні навігатори на порталі: уточнюють запит користувача;формують індивідуальні добірки матеріалів, сервісів і програм підтримки;підказують наступні кроки (допомагають дібрати фінансування під конкретні потреби бізнесу або підготувати бізнес-план)."Технології дають бізнесу швидкість, але водночас підвищують вимоги — до навичок, кібербезпеки та здатності інтегрувати ШІ в реальні процеси. Наш пріоритет — розвиток цифрової зрілості МСБ в Україні, і ми працюємо над тим, щоб дати бізнесу зрозумілі інструменти для зростання. Саме тому трансформуємо проект "Дія.Бізнес", і сьогодні на порталі запускаємо ШІ-асистентів — щоб підприємці отримували рішення швидко й могли фокусуватися на розвитку", — зазначила радниця першого віцепрем’єр-міністра — міністра цифрової трансформації України з питань інновацій, цифровізації та глобальних партнерств Валерія Іонан.На порталі "Дія.Бізнес" доступні п’ять персональних ШІ-асистентів:Роберт — перша точка контакту на порталі. Він відповідає на загальні запитання та підказує, де знайти потрібну інформацію;Фаундія — супроводжує шлях від бізнес-ідеї до запуску власної справи;Грант — допомагає дібрати фінансові можливості та програми підтримки, а також підготувати бізнес-план;Смарт — підказує рішення для цифровізації та оптимізації бізнес-процесів;Маркет — асистент з експорту, який допомагає підготуватися до виходу на міжнародні ринки.Варто зауважити, що ШІ-асистенти не замінюють експертних консультацій, але дають змогу швидше знайти потрібну інформацію, краще зрозуміти доступні можливості та спланувати подальші кроки для розвитку бізнесу.Онлайн-асистенти вже доступні на головній сторінці порталу "Дія.Бізнес". Щоб скористатися сервісом, необхідно зареєструватися та пройти верифікацію.Нагадаємо, раніше міністр Михайло Федоров інформував, що Україна піднялася на 14 позицій у світовому рейтингу зі штучного інтелекту. Наша країна посіла 40-е місце зі 195 країн та опинилися серед лідерів з розвитку ШІ в Східній Європі. .

Поширення генеративного штучного інтелекту різко підвищило продуктивність вчених. Проте редакторам і рецензентам стає дедалі важче відрізнити реальні наукові прориви від добре відредагованого, але малозмістовного тексту.Як повідомляє видання ScienceDaily, після появи ChatGPT наприкінці 2022 року дослідники почали сповіщати про зростання власної продуктивності. Водночас редактори наукових журналів зафіксували наплив добре написаних статей із сумнівною науковою цінністю. Автори дослідження встановили, що саме великі мовні моделі, зокрема ChatGPT, змінюють підходи до підготовки рукописів. Вони збільшують кількість публікацій, проте ускладнюють оцінку їхньої якості."Це дуже поширена закономірність у різних галузях науки — від фізичних та комп’ютерних наук до біологічних та соціальних наук. У нашій сучасній екосистемі відбувся великий зсув, який вимагає дуже серйозного розгляду, особливо для тих, хто приймає рішення про те, яку науку нам слід підтримувати та фінансувати", — заявив доцент Корнелльського коледжу обчислювальної техніки Ян Інь.Науковці вивчили понад два мільйони препринтів, опублікованих у 2018–2024 роках на платформах arXiv, bioRxiv та SSRN. Відповідні ресурси охоплюють фізичні, біологічні та соціальні науки й містять роботи без рецензування.Дослідники порівняли тексти, написані до 2023 року, з імовірно згенерованими ШІ, і створили модель для виявлення використання великих мовних моделей (LLM). Вони відстежили динаміку публікацій авторів і перевірили, чи приймалися ці роботи журналами.На arXiv науковці, які, ймовірно, використовували LLM, оприлюднили приблизно на третину більше статей. На bioRxiv і SSRN зростання перевищило 50%. Так, найбільший ефект виявили серед авторів, для яких англійська не є рідною мовою. Дослідники з азійських установ опублікували на 43–89% більше робіт після початку використання LLM.Вчені також зафіксували вплив ШІ на пошук літератури. Інструменти на кшталт Bing Chat частіше пропонували новіші та тематично релевантні джерела, ніж традиційні пошукові системи."Люди, які використовують LLM, отримують доступ до більш різноманітних знань, що може спонукати до появи більш креативних ідей", — зазначив провідний автор дослідження Кейго Кусумегі. Видання зазначає, що він планує перевірити, чи пов’язане це з більш інноваційною та міждисциплінарною наукою. Попри те, що мовні моделі дозволяють писати більше, вони руйнують звичні критерії оцінки якості. Раніше складна мова була ознакою сильного дослідження та підвищувала шанси на публікацію. Втім, наразі такий маркер не працює. Зазначається, що рецензенти через складні вислови помічають згенеровані ШІ статті та часто відхиляють їх, навіть якщо вони написані бездоганно. Добре відшліфований текст більше не є гарантією наукової цінності.Науковці застерегли, що це може мати серйозні наслідки для науки. Кількість публікацій дедалі менше відображатиме реальний внесок дослідників. Надалі команда планує перевіряти причинно-наслідкові зв’язки за допомогою контрольованих експериментів. Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..

Україна піднялася на 14 позицій у світовому рейтингу зі штучного інтелекту. Наша країна посіла 40-е місце зі 195 країн та опинилися серед лідерів з розвитку ШІ в Східній Європі. Як повідомляє віце-прем'єр-міністр, міністр цифрової трансформації Михайло Федоров, посилаючись на Government AI Readiness Index 2025 від Oxford Insights, який є один з головних звітів у галузі розвитку штучного інтелекту.За деякими критеріями Україна опинилася серед світових лідерів:99,63% — рекордний показник цифровізації державних сервісів;92,25% — відповідність законодавства міжнародним стандартам."Рік тому ми сформували місію для України у сфері ШІ — до 2030-го увійти в топ-3 країни за рівнем упровадження та розвитку штучного інтелекту", — зазначив Федоров.Лише в лютому було запущено WINWIN AI Center of Excellence, а вже зараз у Мінцифри працюють над проектом глобального масштабу: запустили "Дія.АІ" — перший у світі національний АІ-асистент з державних послуг;створюють національну LLM та будують інфраструктуру AI Factory;інтегрують АІ в "Мрію", "Дію", проекти екосистеми Мінцифри та державні процеси."Окремий трек — defense tech. Штучний інтелект уже працює на полі бою та допомагає Україні захищати свободу", — зазначив міністр.Федоров наголосив, що незабаром буде ще більше амбітних результатів. Окрім цього, він пообіцяв презентувати до кінця року АІ-асистентів у проектах екосистеми "Дії". А згодом — представимо Стратегію розвитку ШІ до 2030 року, запустимо AI-асистента в застосунку Дія та представимо національну мовну модель.Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами..
