
У TikTok та на інших платформах у соціальних мережах ширяться згенеровані штучним інтелектом фейкові відео, де начебто лікарі рекомендують купувати харчові добавки та поширюють іншу дезінформацію про здоров'я.
Як повідомляє The Guardian, у мережі було виявлено сотні відеороликів, на яких було підроблено відео за участі лікарів та лідерів думок, що спрямовують глядачів до Wellness Nest — американської компанії з виробництва харчових добавок.
Усі подібні матеріали містять реальні кадри з фахівцем у галузі охорони здоров'я, взяті з Інтернету. Проте зображення та аудіо були перероблені у такий спосіб, щоби спікери заохочували жінок, які переживають менопаузу, купувати такі продукти, як пробіотики та гімалайський шиладжит, на веб-сайті компанії.
"Це, безумовно, зловісна та тривожна нова тактика", — наголосив фактчекер Лео Бенедиктус.
Він додав, що творці фейкових відео про здоров'я використовують штучний інтелект, щоби шановані персони, або блогери, які мають велику аудиторію, начебто схвалювали ці добавки для лікування низки хвороб. Так, професор Девід Тейлор-Робінсон, який є експертом з питань нерівності в охороні здоров'я в Ліверпульському університеті, є одним з тих, чий імідж був підроблений.
"У серпні він був шокований, виявивши, що TikTok розміщував 14 підроблених відео, в яких він нібито рекомендує продукти з недоведеними перевагами", — наголошує видання.
Попри те, що Тейлор-Робінсон є фахівцем із дитячого здоров’я, в одному з відео його "клонована" версія розповідала про нібито побічний ефект менопаузи під назвою Thermometer leg. У фейковому відео Тейлор-Робінсон рекомендував жінкам у менопаузі відвідати сайт під назвою Wellness Nest і придбати так званий натуральний пробіотик з "10 науково обґрунтованими рослинними екстрактами, включно з куркумою, чорним кохошем, DIM [дііндолілметаном] та морингою, спеціально підібраними для боротьби з симптомами менопаузи". Медик дізнався, що його зовнішність використовують для шахрайства лише тоді, коли його колега звернула на це його увагу.
"Спочатку це було дуже заплутано — все здавалося нереальним. Мої діти вважали це кумедним. Я не відчував себе страшенно приниженим, але мене дедалі більше дратувала думка про те, що люди продають продукти, спираючись на мою роботу, і про ту шкоду від медичної дезінформації", — наголосив він.
Видання додає, що кадри з Тейлором-Робінсоном, використані для створення діпфейків, взяли з його виступу про вакцинацію на конференції Public Health England (Служба громадського здоров’я Англії) 2017 року та з парламентських слухань щодо дитячої бідності, де він давав свідчення у травні цього року. В одному з маніпулятивних відео його зобразили таким, що лається і робить мізогінні коментарі, обговорюючи менопаузу. TikTok видалив ці відео через шість тижнів після того, як Тейлор-Робінсон поскаржився.
"Спочатку вони сказали, що деякі відео порушують їхні правила, але деякі — ні. Це було абсурдно й дивно, бо на всіх відео був я, і всі вони були фейками. Домогтися їх видалення було суцільною морокою", — наголосив Тейлор-Робінсон.
Також стало відомо, що у TikTok є вісім відеороликів із підробленими висловлюваннями колишнього генерального директора PHE Данкана Селбі. Як і у випадку з Тейлором-Робінсоном, його неправдиво показували таким, що говорить про менопаузу, використовуючи відео з того самого заходу 2017 року, де виступав Тейлор-Робінсон.
Схожі відео виявили й у соцмережах X, Facebook та на YouTube. Усі вони були пов’язані з Wellness Nest або британським підрозділом під назвою Wellness Nest UK. Компанія публікувала, ймовірно, підроблені відео з відомими лікарями, зокрема професором Тімом Спектором та іншим експертом з дієтології, покійним доктором Майклом Мозлі.
Своєю чергою, Wellness Nest заявила Full Fact, що фейкові відео, які заохочують людей відвідувати сайт компанії, "на 100% не пов’язані" з її бізнесом. Вона сказала, що "ніколи не використовувала контент, згенерований штучним інтелектом", але не може контролювати чи відстежувати афілійованих осіб у всьому світі.
Нагадаємо, раніше видання The Guardian повідомляло, що велике британське дослідження, у якому взяли участь майже 80 тисяч людей, свідчить, що чат-боти зі штучним інтелектом можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей.