Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

Акценти
|
Някои лекари използват социалните медии, за да споделят разумни съвети за здравословен начин на живот, да разкажат за интересно ново проучване или да запознаят аудиторията с надеждна здравна информация. За съжаление обаче, все по-често се натъкваме на медицински инфлуенсъри, които дори не са истински хора.
Дийпфейк (deepfake) лекарите, създадени с помощта на изкуствен интелект (AI), до голяма степен приличат на истинските. Разликата е в това, че разпространяват невярна здравна информация или рекламират съмнителни продукти, например срещу косопад или за лечение на ендокринни нарушения.
През 2024-а екипът на медицинското списание BMJ разкри три фалшиви профила на реално съществуващи известни лекари във Великобритания, които се използват за реклама на различни продукти.
Австралийският институт Baker Heart and Diabetes предупреди, че видеоклиповете, за които се твърди, че са с участието на реални лекари от института, са фалшиви.
Аватарите могат да бъдат копия на снимките на уважавани лекари или на измислени с чатбот лица. Доц. Аш Хопкинс, който изучава ролята на изкуствения интелект в медицината, признава: „Изумен съм колко истински изглеждат тези лекари и колко убедителни са като заговорят. Те могат да бъдат много опасни, защото е трудно да разбереш, че информацията е поднесена от генерирани с изкуствен интелект персонажи.“
Защо се увеличава броят на deepfake лекарите онлайн
Всъщност това е измама като всяка друга в интернет. Бързият технологичен напредък позволява на почти всеки да създава напълно реалистични образи.
Какво печелят измамниците
Хората, които поднасят невярна здравна информация, целят да предизвикат объркване и страх, да накарат последователите да се съмняват в научно доказани методи за лечение и да ги убедят в ефективността на „чудодейни продукти и терапии“, за да печелят пари. Лекарите са перфектното прикритие, защото техният авторитет придава тежест на казаното.
Доц. Хопкинс пояснява: „Думите им звучат убедително, защото успяват да вмъкнат измислена логика и често засягат теми, които притесняват обикновения човек.“ Техните публикации и клипове могат да бъдат много опасни за последователите с ниска здравна култура и осведоменост и за онези, които поради някаква причина са загубили доверието си в конвенционалната медицина.
Как убеждават и въздействат измислените с AI персонажи
Броят на фалшивите профили в социалните медии започва да расте след 2018 г. Първоначално получените образи не изглеждат толкова автентични, но с появата на иновативни генеративни модели като DALL-E на OpenAI и Google Imagen качеството им се подобрява значително.
Съвременните модели за машинно обучение се базират на масивни бази данни с изображения и видеоклипове, от които се получават близки до съвършенство човешки лица с правдоподобни лицеви изражения. Измамниците съчетават метода за визуализация с друг езиков модел, който пък извлича подходящата реч или текст. Крайният продукт е AI аватар, който може да говори, да изразява емоции и да се движи като реален човек.
Технологиите не само се развиват с бърза скорост, но и са леснодостъпни. Голяма част от генеративните модели за изкуствено създадени образи се откриват лесно и могат да се използват без специални изисквания. Освен това не е необходимо измамникът да е със задълбочени компютърни познания или да работи на скъп компютър. Всеки, който има обикновен компютър или смартфон вече може да създаде фалшива личност.
» Как изкуственият интелект може да се използва за манипулиране на хора |
AI аватарите в здравеопазването
Оказва се, че изкуствено създадени профили на лекари можем да срещнем не само в социалните медии. Все повече компании, които предоставят здравни услуги, използват виртуални чатбот аватари или виртуални медицински сестри. Hippocratic AI например разполага с виртуални асистенти за изпълнението на определени задължения като проследяване на пациенти или подготовка преди извършване на манипулация. Mediktor пък използва виртуален асистент, който участва в оценката на симптомите на болния. В случая не става въпрос за измама, тъй като пациентите знаят предварително, че взаимодействат с изкуствен интелект.
Ботовете могат да подобрят ефективността, но ще повишат ли качеството на здравните грижи?
Даниъл Шиф от AI Lab към университета Purdue споделя: „Аз съм умерен в очакванията си. Това че някой използва AI, за да изпраща автоматични съобщения до пациентите си или да извършва друг вид автоматизирана услуга, съвсем не означава, че ще отделя два пъти повече време да разговаря с болните. Компаниите могат просто да съкратят персонала или да го натоварят още повече.“
Как да се предпазите от измама с дийпфейк лекар
Не разчитайте на това, че сте достатъчно умни, за да разпознаете измама, създадена с помощта на изкуствен интелект.
Изследване от 2023 г. сочи, че AI видео на тема климатичните промени е успяло да заблуди от 27% до 50% от хората. Като се има предвид това, че за две години технологиите са напреднали значително, подобен клип би изглеждал още по-реалистичен към 2025-а. Същото се отнася и за разпространението на здравна информация, особено ако засяга болезнени за обществото теми като ваксините например.
Ролята на ейджизма
Човек е много по-уязвим и заради някои характерни за него предразсъдъци. Ако аватарът изобразява възрастен лекар, е по-вероятно да повярвате на думите му. Това явление е известно като ейджизъм (възрастова дискриминация).
Съвети за разпознаване на фалшиви образи и откриване на невярна информация
- Бъдете наблюдателни – Докато гледате видеоклипа, следете за необичайни черти и особености – повече пръсти, размазани ръце или очи, твърде симетрично лице. Специалисти съветват да обръщате внимание и на по-дребни детайли като коса, която изглежда идеално, странна материя на дрехите, плоски бижута.
- Образовайте се – Даниъл Шиф е на мнение, че нито наблюдателността, нито разработените инструменти за откриване на съдържание, създадено с AI, са достатъчно ефективни. „Най-добрата защита се крие не в очите, а в мозъка. Образовайте се, за да разпознавате фалшивото съдържание“, категоричен е той.
- Проверете дали лекарят от клипа в TikTok съществува – Ако не успеете да откриете нищо за него в други платформи в интернет, е много вероятно да не е реален.
- Бъдете подозрителни, ако лекарят засяга съществена здравна тема – Ако говори за пробив в лечението на тежко заболяване или чудодейно лекарство, е по-добре да потърсите информация в надеждни медицински източници.
Кристофър Дос, учен и професор към корпорация RAND, допълва: „Според мен най-доброто оръжие срещу deepfake лекарите и невярната информация, която разпространяват, е да проявяваме здравословен скептицизъм. Той ще ни подтикне да потърсим допълнителна информация, за да се уверим, че не са ни излъгали.“
Deepfake Doctors: How AI Spreads Medical Disinformation: https://www.medscape.com/viewarticle/deepfake-doctors-how-ai-spreads-medical-disinformation-2025a1000pwh?form=fpf
Продукти свързани със СТАТИЯТА
ТЪНКОТО ИЗКУСТВО ДА НЕ ТИ ПУКА - МАРК МЕНСЪН - ХЕРМЕС
ХИЛЯДА МОЗЪКА: НОВА ТЕОРИЯ ЗА ИНТЕЛЕКТА - ДЖЕФ ХОКИНС - СИЕЛА
СТАТИЯТА е свързана към
- За свободното време
- Живот и Ум
- До какво води прекомерната употреба на психологически термини в социалните медии
- Без бутон "Харесвам" в социалните мрежи, ако искаме да бъдем психично здрави
- Помага или вреди изкуственият интелект на човешкия мозък
- Ще замести ли изкуственият интелект медицинските сестри и какви са рисковете
- Може ли чатбот да замести психотерапевта
- AI инструмент може да предскаже риска от над 1000 заболявания
- Свързана ли е оценката за красота с хоризонталното движение на пръста при разглеждане на снимки онлайн
- Изкуственият интелект има добре развит умствен капацитет, но слаба памет
- Дискриминацията в социалните медии засилва депресията и тревожността при мъжете от малцинствените групи
- Роди се бебе, заченато по метод, контролиран изцяло от изкуствен интелект
Коментари към Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект