
Американська компанія Google видалила низку медичних оглядів, створених за допомогою генеративного штучного інтелекту. Це сталося після того, як розслідування The Guardian показало їхню потенційну небезпеку.
Як стверджують медійники, деякі з таких зведень з’являлися у верхній частині пошуку та містили оманливі дані про стан здоров’я.
У виданні додають, що Google раніше заявляла, що її AI Overviews є корисними та надійними. Водночас розслідування журналістів виявило, що в деяких випадках вони могли вводити людей в оману та створювати ризики для пацієнтів.
Один із прикладів стосувався аналізів функції печінки, де сервіс від Google надав некоректні діапазони "нормальних" показників. Експерти назвали це небезпечним і тривожним, адже люди з серйозними захворюваннями могли помилково вважати себе здоровими. Так, запит "який нормальний діапазон показників аналізу крові на печінку" повертав набір цифр без належного контексту. При цьому не враховувалися вік, стать, етнічну приналежність чи інші індивідуальні показники користувача.
"Після розслідування компанія видалила огляди штучного інтелекту для пошукових запитів "який нормальний діапазон для аналізів крові на печінку" та "який нормальний діапазон для аналізів функції печінки", — зауважили медійники.
Своєю чергою, речник Google заявив, що компанія не коментує окремі факти видалення в пошуку. Він зауважив, що розробники працюють над загальними покращеннями.
"У випадках, коли огляди ШІ не враховують певний контекст, ми працюємо над загальними покращеннями, а також вживаємо заходів відповідно до наших правил, де це доречно", — додав він.
Директорка з комунікацій British Liver Trust Ванесса Хебдітч добре оцінила відповідне рішення. Вона зазначила, що це чудова новина, і вона рада видаленню оглядів Google AI у цих випадках. Хебдітч додала, що відповідна проблема не зникла повністю. За її словами, несуттєві варіації запитів усе ще можуть викликати потенційно оманливі огляди.
"Функціональний тест печінки — це сукупність різних аналізів крові. Розуміння результатів включає набагато більше, ніж просто порівняння набору цифр. Але в оглядах штучного інтелекту список тестів виділено жирним шрифтом, через що читачам дуже легко не помітити, що ці цифри можуть навіть не відповідати їхньому тесту", — додала Хебдітч.
Google, який контролює близько 91% світового ринку пошукових систем, заявив, що переглядає нові приклади, надані медійниками. У компанії зауважили, що огляди ШІ показуються лише тоді, коли є висока впевненість, що відповідь є "якісною".
The Guardian також звернула увагу на інші ШІ-зведення Google щодо раку та психічного здоров’я. Експерти описали частину цієї інформації як "абсолютно неправильну" та "дійсно небезпечну". У відповідь у компанії заявили, що відповідні огляди містять посилання на авторитетні джерела та заклики звертатися до фахівців. За словами речника Google, внутрішня команда клініцистів не виявила в багатьох із них фактичних помилок.
Старший редактор технологічного сайту Futurism Віктор Тангерманн додав, що результати розслідування показали потребу серйозного доопрацювання інструменту. За його словами, компанія має переконатися, що її моделі штучного інтелекту не поширюють небезпечну дезінформацію щодо здоров’я.
Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами.