Кембриджський словник оголосив "галюцинувати" словом 2023 року. Цей термін набув додаткового нового значення, пов’язаного з технологією штучного інтелекту.
Про це повідомив Sky News. Журналісти нагадали, що традиційне визначення "галюцинації" полягає в тому, що хтось відчуває щось, чого не існує, як правило, через стан здоров’я або вживання наркотиків, але тепер це також стосується штучного інтелекту, який створює неправдиву інформацію.
Кембриджський словник зазначає: "Коли штучний інтелект галюцинує, він видає неправдиву інформацію".
Цього року відбувся спалах інтересу до таких інструментів ШІ, як ChatGPT. Доступний чат-бот навіть використовував британський суддя, щоби написати частину судового рішення. Однак це не завжди забезпечує надійну та перевірену інформацію.
Галюцинації штучного інтелекту, також відомі як конфабуляції, виникають, коли інструменти надають неправдиву інформацію, яка може варіюватися від пропозицій, які здаються абсолютно правдоподібними, до таких, які є абсолютно безглуздими.
"Той факт, що штучний інтелект може «галюцинувати», нагадує нам, що людям все ще потрібно використовувати свої навички критичного мислення для використання цих інструментів. ШІ чудово вміє збивати величезні масиви даних, щоби витягнути конкретну інформацію та консолідувати її. Але що оригінальнішими є ваші вимоги до штучного інтелекту, то більша ймовірність, що він зіб’ється зі шляху", — наголосив один із видавців кембриджського словника Вендалін Ніколс.
Джерело: Кембриджський словник
Нагадаємо, президент компанії Microsoft Бред Сміт заявляв, що найбільшою проблемою штучного інтелекту є глибинні фейки. Вони викликають найбільше занепокоєння у цих технологіях. Він поділився думками щодо розв'язання питання, як найкраще регулювати штучний інтелект. Бред Сміт закликав вжити заходів, щоби переконатися, чи люди знають, коли фотографія чи відео справжні, а коли створені штучним інтелектом, потенційно для підлих цілей.
Підписуйтеся на нас в Telegram , щоб дізнаватися важливі та цікаві новини першими