Framar.bg 0
0
Е-аптека Промоции
Здравна библиотека
Здравни проблеми Медицинска енциклопедия Заболявания Симптоми и признаци Алтернативна медицина Анатомия Медицински изследвания Лечения Физиология Патология Ботаника Микробиология Фармакологични групи Медицински журнал Взаимодействия История на медицината и фармацията Здравето А-Я
Диагностик
Здравна помощ
Здравен справочник Специалисти Здравни заведения Аптеки Институции и организации Образование Спорт и туризъм Клинични пътеки Нормативни актове Бизнес Социални грижи Форум Консултации
Здравна медия
Здравни новини Любопитно Интервюта Видео Презентации Научни публикации Анкети Бъди активен Кампании
Здраве и начин на живот
Хранене Хранене при... Рецепти Диети Групи храни и ястия Съставки Е-тата в храните Спорт Съвети Психология Лайфстайл Интерактивни
За нас
За Фрамар За реклама Статистика Общи условия Екип Кариера Адреси на аптеки Фрамар Блог Важно Автори Програма за лоялни клиенти Промоционална брошура
Контакти
Назад | Начало Лайфстайл За свободното време Живот и Ум Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

от 01 окт 2025г.
Редактор: Даниела Пройчева
Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект - изображение
  • Инфо
  • Продукти
  • Коментари
  • Свързаност
Инфо
Инфо
Продукти
Коментари
Свързаност

Акценти

  • Deepfake лекари онлайн разпространяват невярна или подвеждаща здравна информация с цел печалба.
  • Фалшивите лекари обикновено са визуални копия на реално съществуващи, уважавани лекари.
  • С наблюдателност, добра информираност и доза здравословен скептицизъм можем да се научим да разпознаваме образите на лекари, които са създадени с изкуствен интелект.

Някои лекари използват социалните медии, за да споделят разумни съвети за здравословен начин на живот, да разкажат за интересно ново проучване или да запознаят аудиторията с надеждна здравна информация. За съжаление обаче, все по-често се натъкваме на медицински инфлуенсъри, които дори не са истински хора.

Дийпфейк (deepfake) лекарите, създадени с помощта на изкуствен интелект (AI), до голяма степен приличат на истинските. Разликата е в това, че разпространяват невярна здравна информация или рекламират съмнителни продукти, например срещу косопад или за лечение на ендокринни нарушения.

През 2024-а екипът на медицинското списание BMJ разкри три фалшиви профила на реално съществуващи известни лекари във Великобритания, които се използват за реклама на различни продукти.

Австралийският институт Baker Heart and Diabetes предупреди, че видеоклиповете, за които се твърди, че са с участието на реални лекари от института, са фалшиви.

Аватарите могат да бъдат копия на снимките на уважавани лекари или на измислени с чатбот лица. Доц. Аш Хопкинс, който изучава ролята на изкуствения интелект в медицината, признава: „Изумен съм колко истински изглеждат тези лекари и колко убедителни са като заговорят. Те могат да бъдат много опасни, защото е трудно да разбереш, че информацията е поднесена от генерирани с изкуствен интелект персонажи.“

Защо се увеличава броят на deepfake лекарите онлайн

Всъщност това е измама като всяка друга в интернет. Бързият технологичен напредък позволява на почти всеки да създава напълно реалистични образи.

жена с руса коса и бяла блуза, която гледа в телефона си

Какво печелят измамниците

Хората, които поднасят невярна здравна информация, целят да предизвикат объркване и страх, да накарат последователите да се съмняват в научно доказани методи за лечение и да ги убедят в ефективността на „чудодейни продукти и терапии“, за да печелят пари. Лекарите са перфектното прикритие, защото техният авторитет придава тежест на казаното.

Доц. Хопкинс пояснява: „Думите им звучат убедително, защото успяват да вмъкнат измислена логика и често засягат теми, които притесняват обикновения човек.“ Техните публикации и клипове могат да бъдат много опасни за последователите с ниска здравна култура и осведоменост и за онези, които поради някаква причина са загубили доверието си в конвенционалната медицина.

Как убеждават и въздействат измислените с AI персонажи

Броят на фалшивите профили в социалните медии започва да расте след 2018 г. Първоначално получените образи не изглеждат толкова автентични, но с появата на иновативни генеративни модели като DALL-E на OpenAI и Google Imagen качеството им се подобрява значително.

Съвременните модели за машинно обучение се базират на масивни бази данни с изображения и видеоклипове, от които се получават близки до съвършенство човешки лица с правдоподобни лицеви изражения. Измамниците съчетават метода за визуализация с друг езиков модел, който пък извлича подходящата реч или текст. Крайният продукт е AI аватар, който може да говори, да изразява емоции и да се движи като реален човек.

Технологиите не само се развиват с бърза скорост, но и са леснодостъпни. Голяма част от генеративните модели за изкуствено създадени образи се откриват лесно и могат да се използват без специални изисквания. Освен това не е необходимо измамникът да е със задълбочени компютърни познания или да работи на скъп компютър. Всеки, който има обикновен компютър или смартфон вече може да създаде фалшива личност.

» Изкуствен интелект генерира атрактивни образи с помощта на генеративно-състезателна невронна мрежа (GAN)

» Как изкуственият интелект може да се използва за манипулиране на хора 

AI аватарите в здравеопазването

Оказва се, че изкуствено създадени профили на лекари можем да срещнем не само в социалните медии. Все повече компании, които предоставят здравни услуги, използват виртуални чатбот аватари или виртуални медицински сестри. Hippocratic AI например разполага с виртуални асистенти за изпълнението на определени задължения като проследяване на пациенти или подготовка преди извършване на манипулация. Mediktor пък използва виртуален асистент, който участва в оценката на симптомите на болния. В случая не става въпрос за измама, тъй като пациентите знаят предварително, че взаимодействат с изкуствен интелект.

Ботовете могат да подобрят ефективността, но ще повишат ли качеството на здравните грижи?

Даниъл Шиф от AI Lab към университета Purdue споделя: „Аз съм умерен в очакванията си. Това че някой използва AI, за да изпраща автоматични съобщения до пациентите си или да извършва друг вид автоматизирана услуга, съвсем не означава, че ще отделя два пъти повече време да разговаря с болните. Компаниите могат просто да съкратят персонала или да го натоварят още повече.“

надпис AI и иконки на фона на изображение на човешки мозък

Как да се предпазите от измама с дийпфейк лекар

Не разчитайте на това, че сте достатъчно умни, за да разпознаете измама, създадена с помощта на изкуствен интелект.

Изследване от 2023 г. сочи, че AI видео на тема климатичните промени е успяло да заблуди от 27% до 50% от хората. Като се има предвид това, че за две години технологиите са напреднали значително, подобен клип би изглеждал още по-реалистичен към 2025-а. Същото се отнася и за разпространението на здравна информация, особено ако засяга болезнени за обществото теми като ваксините например.

Ролята на ейджизма

Човек е много по-уязвим и заради някои характерни за него предразсъдъци. Ако аватарът изобразява възрастен лекар, е по-вероятно да повярвате на думите му. Това явление е известно като ейджизъм (възрастова дискриминация).

Съвети за разпознаване на фалшиви образи и откриване на невярна информация

  • Бъдете наблюдателни – Докато гледате видеоклипа, следете за необичайни черти и особености – повече пръсти, размазани ръце или очи, твърде симетрично лице. Специалисти съветват да обръщате внимание и на по-дребни детайли като коса, която изглежда идеално, странна материя на дрехите, плоски бижута.
  • Образовайте се – Даниъл Шиф е на мнение, че нито наблюдателността, нито разработените инструменти за откриване на съдържание, създадено с AI, са достатъчно ефективни. „Най-добрата защита се крие не в очите, а в мозъка. Образовайте се, за да разпознавате фалшивото съдържание“, категоричен е той.
  • Проверете дали лекарят от клипа в TikTok съществува – Ако не успеете да откриете нищо за него в други платформи в интернет, е много вероятно да не е реален.
  • Бъдете подозрителни, ако лекарят засяга съществена здравна тема – Ако говори за пробив в лечението на тежко заболяване или чудодейно лекарство, е по-добре да потърсите информация в надеждни медицински източници.

Кристофър Дос, учен и професор към корпорация RAND, допълва: „Според мен най-доброто оръжие срещу deepfake лекарите и невярната информация, която разпространяват, е да проявяваме здравословен скептицизъм. Той ще ни подтикне да потърсим допълнителна информация, за да се уверим, че не са ни излъгали.“

Източник:

Deepfake Doctors: How AI Spreads Medical Disinformation: https://www.medscape.com/viewarticle/deepfake-doctors-how-ai-spreads-medical-disinformation-2025a1000pwh?form=fpf

Още по темата:
  • Майка се възмущава на отношението на жените към това да бъдеш родител Майка се възмущава на отношението на жените към това да бъдеш родител
  • Грозната истина за социалните мрежи Грозната истина за социалните мрежи
  • Как хората използват социалните мрежи, когато се почувстват зле Как хората използват социалните мрежи, когато се почувстват зле
  •  Как социалните медии влияят върху самочувствието на родителите Как социалните медии влияят върху самочувствието на родителите
5.0/5 1 оценка

Продукти свързани със СТАТИЯТА

ТЪНКОТО ИЗКУСТВО ДА НЕ ТИ ПУКА - МАРК МЕНСЪН - ХЕРМЕС
19.95лв. / 10.20 €

ТЪНКОТО ИЗКУСТВО ДА НЕ ТИ ПУКА - МАРК МЕНСЪН - ХЕРМЕС

ХИЛЯДА МОЗЪКА: НОВА ТЕОРИЯ ЗА ИНТЕЛЕКТА - ДЖЕФ ХОКИНС - СИЕЛА
20.00лв. / 10.23 €

ХИЛЯДА МОЗЪКА: НОВА ТЕОРИЯ ЗА ИНТЕЛЕКТА - ДЖЕФ ХОКИНС - СИЕЛА

Коментари към Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

От сайта
Напиши коментар 0 коментара
  1. Коментирайте Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект
    www.framar.bg 
    на 01 October 2025 в 18:38
    Коментирайте "Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект"

СТАТИЯТА е свързана към

  • За свободното време
  • Живот и Ум
  • До какво води прекомерната употреба на психологически термини в социалните медии
  • Без бутон "Харесвам" в социалните мрежи, ако искаме да бъдем психично здрави
  • Помага или вреди изкуственият интелект на човешкия мозък
  • Ще замести ли изкуственият интелект медицинските сестри и какви са рисковете
  • Може ли чатбот да замести психотерапевта
  • AI инструмент може да предскаже риска от над 1000 заболявания
  • Свързана ли е оценката за красота с хоризонталното движение на пръста при разглеждане на снимки онлайн
  • Изкуственият интелект има добре развит умствен капацитет, но слаба памет
  • Дискриминацията в социалните медии засилва депресията и тревожността при мъжете от малцинствените групи
  • Роди се бебе, заченато по метод, контролиран изцяло от изкуствен интелект
googletag.pubads().definePassback('/21812339056/Baner300600', [300, 600]).display();
Най-новите публикации
Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелектЗаплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

Заплаха онлайн: Лекуват ни дийпфейк лекари, създадени с изкуствен интелект

от 01 окт 2025г.Прочети повече
FDA одобри очила за забавяне прогресията на късогледството при децаFDA одобри очила за забавяне прогресията на късогледството при деца

FDA одобри очила за забавяне прогресията на късогледството при деца

от 01 окт 2025г.Прочети повече
Джевдет Чакъров: Здравеопазването има нужда от цялостна реформа, а не от мерки на парчеДжевдет Чакъров: Здравеопазването има нужда от цялостна реформа, а не от мерки на парче

Джевдет Чакъров: Здравеопазването има нужда от цялостна реформа, а не от мерки на парче

от 01 окт 2025г.Прочети повече

НАЙ-НОВОТО ВЪВ ФОРУМА

Колоездачен клуб Берое ви кани на спортно състезание с кауза в Стара Загора - 5 октомври 2025 г., неделя, от 10:00 ч.

преди 5 дни, 1 час и 34 мин.

Характерна клинична картина на Морбус мортум

преди 14 дни, 4 часа и 35 мин.
Всички

АНКЕТА

Засегнати ли сте от липсата на вода?

Виж резултатите
Още интересни публикации
Позволявате ли на децата ви да използват социални мрежи Позволявате ли на децата ви да използват социални мрежи

Позволявате ли на децата ви да използват социални мрежи

от 23 юни 2025г. Прочети повече

Е-АПТЕКА ПОСЛЕДНО ОБНОВЕНИ

ВИТАМИН E спрей 30 мл ОМЕГА ВИТА

ЛИВЕРЕКС МАКС капсули * 60 ГРИЙН АКТИВ

ВИТАВЕА ЖЕЛЕ РОЯЛ капсули 200 мг * 50

ПРОПОЛИСОВА (КЛЕЕВА) ТИНКТУРА 30 мл БИЛБО

БИО - КУЛТ капсули * 30

ПОСЛЕДНИ КОМЕНТАРИ

ТОРВАЗИН ПЛЮС 40 мг/10 мг капсули * 30

Коментар на: www.framar.bg отговаря от 01 окт 2025г. в 18:09:19

ИГНАТИА АМАРА 9 СН

Коментар на: www.framar.bg отговаря от 01 окт 2025г. в 18:07:31

ИГНАТИА АМАРА 30 СН

Коментар на: www.framar.bg отговаря от 01 окт 2025г. в 18:05:26

ТОРВАЗИН ПЛЮС 40 мг/10 мг капсули * 30

Коментар на: А. от 01 окт 2025г. в 16:39:40

ИГНАТИА АМАРА 9 СН

Коментар на: Ивана от 01 окт 2025г. в 16:17:57
При възникнало съмнение за здравословен проблем или нужда от лечение, моля винаги се обръщайте за медицинска консултация към квалифициран и правоспособен лекар или фармацевт. В никакъв случай не възприемайте дадената Ви чрез сайта информация като абсолютно достоверна и правилна, дори и същата да се окаже такава.
Данни на Фрамар ООД:
  • Фрамар ООД, ЕИК: 123732525, Стара Загора, ул. Петър Парчевич № 26, телефон: 0875 / 322 000, e-mail: office@framar.bg
  • За контакт
  • Borika
  • MasterCard
  • mastercard securecode
  • Visa
  • verified by visa
Информация:
  • Общи условия
  • Политика за поверителност
  • Политика за използване на бисквитки
  • Право на отказ от договора
  • Рекламации
  • Доставка
  • Плащания
  • Отстъпки за регистрирани клиенти
  • Промоции и безплатна доставка
  • Често задавани въпроси
  • Карта на сайта
  • При възникване на спор, свързан с покупка онлайн, можете да ползвате сайта ОРС
  • Български Фармацевтичен съюз
  • Изпълнителна агенция по лекарствата
  • Комисия за защита на потребителите
  • Министерство на здравеопазването
БДА NextGenerationEU DMCA.com Protection Status
© 2007 - 2025 Аптеки Фрамар. Всички права запазени! Framar.bg във Facebook
Изработка на уеб сайт от Valival