Фалшиво видео в мрежата: Как и защо изкуствен интелект "открадна" глас и интервю на Евронюз България?
Изкуствен интелект "открадна" самоличността и гласа на водещия от Евронюз България - Николай Лефеджиев. Във видеото, което се разпространява в социалните мрежи, е фалшифицирано и интервю на продуцента Анна Михайлова с евродепутата Емил Радев.
Как изкуственият интелект може да ни измами и има ли начини за противодействие - отговорите потърси Бетина Михайлова.
На пръв поглед това е традиционна новинарска емисия на Евронюз България с водещ Николай Лефеджиев. Една от представяните новини обаче привлича вниманието, повече от останалите. Фалшивата информация, която водещият поднася, е за платформа, предлагаща възможност за печалба на месец в особено големи размери.
Не само, че моят образ е използван, а и авторитетът на телевизията. Част от новинарска емисия, в която ние рекламираме една измамна реклама - хора да повярват да вложат парите си и да спечелят 40 000 лв, доколкото си спомням. Нищо такова не сме казвали. Ние не правим такива рекламни съобщения, особено в новините. Така че хората трябва да бъдат спокойни, това е просто измама.
За да имитира достоверност, новината е подкрепена от интервю на продуцента на новините Анна Михайлова с евродепутата Емил Радев. То отново е фалшифицирано. Парадоксът: темата на реалния видеоматериал е именно борбата с финансовите измами в ЕС.
Отвсякъде е видно, че това е манилулирано видео. Ясно е, че не съм задавала тези въпроси. По качеството най-вече може да се разбере, че е много лош опит да се направи фалшива новина. И това, което съм казвала е, че призовавам всъщност зрителите никога да не вярват на подобни новини, да подбират много добре съдържанието, което гледат в интернет, да бъдат по-критични и да бъдат по-взискателни. И аз искрено се надявам никой да не е повярвал на тази манипулация.
Това е поредният случай, в който е използван изкуствен интелект за подобен тип измами с лица от малкия екран. Според експерта по киберсигурност Любомир Тулев става въпрос за мощно устройство, което е така проектирано, че да може да се представи за всеки един от нас, като за целта са необходими базови познания.
Това, което ни трябва обикновено е жертвата, която ще имитираме нейния глас и движения, трябва някакво видео поне 3 минути, в което всъщност въпросният човек - известен политик, журналист, общественик, говори в относително статично движение, т.е. не се движи много. Защо 3 минути? Защото тези платформи, голямата част от тях, работят така че разцепват това, което всъщност е казано в размките на тези минути и успяват да направят шаблон на говора на въпросната жертва. Правейки този шаблон, разбира се, с модели на изкуствен интелект, впоследствие каквото ние напишем в платфорамата като текст, този човек го изрича със същия тембър, интонация, начин на изказване на сричките, думите, на буквите.
На този етап обаче въпросните платформи все още имат пропуски, благодарение на които потребителите могат да засекат измамата. Отличителните знаци са разминаване между картина и звук, както и неправилни ударения на думите.
Това нещо тепърва ще се развива, тепърва ще става все по-добро и по-добро и за съжаление, ще стигнем до етап, в който тези дийп фейк видеа ще бъдат толкова добре направени, че ти няма да знаеш кое е лъжа и кое е истина.
А правна рамка конкретно за тази технология все още няма, но основата вече е положена- през миналата година беше приет първият по рода си европейски закон за изкуствения интелект, който всяка държава-членка ще бъде задължена да вмъкне в законодателството си през следващите 2 години. Дотогава обаче е необходимо да разчитаме само на собственото си критично мислене.