Съдържание:

Дълбоки фалшификати: Neuroset е научен да генерира звукови и видео фалшификати
Дълбоки фалшификати: Neuroset е научен да генерира звукови и видео фалшификати

Видео: Дълбоки фалшификати: Neuroset е научен да генерира звукови и видео фалшификати

Видео: Дълбоки фалшификати: Neuroset е научен да генерира звукови и видео фалшификати
Видео: Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей 2024, Може
Anonim

За да създадем „индивидуална” новинарска картина за всеки от нас и да фалшифицираме избраните в нея медийни репортажи, днес са достатъчни усилията на един програмист. Това казаха на "Известия" специалисти по изкуствен интелект и киберсигурност.

Съвсем наскоро те изчислиха, че това изисква работа на множество екипи. Такова ускорение стана възможно с развитието на технологиите за атаки срещу невронни мрежи и генерирането на аудио и видео фалшификати с помощта на програми за създаване на „дълбоки фалшификати“. Вестник "Известия" наскоро беше подложен на подобна атака, когато три либийски новинарски портала наведнъж публикуваха съобщение, за което се твърди, че се появи в един от броевете. Според експерти в рамките на 3-5 години можем да очакваме нашествие на роботизирани манипулатори, които автоматично ще могат да създават много фалшификати.

Смел нов свят

Има все повече проекти, които настройват информационната картина към възприятието на конкретни потребители. Един пример за тяхната работа беше неотдавнашната акция на три либийски портала, които публикуваха новина, за която се твърди, че е публикувана в броя на "Известия" на 20 ноември. Създателите на фалшификата промениха първата страница на вестника, публикувайки на нея съобщение за преговорите между фелдмаршал Халифа Хафтар и министър-председателя на правителството на националното съгласие (PNS) Файез Сарадж. Фалшификатът с шрифт „Известия“беше придружен от снимка на двамата лидери, направена през май 2017 г. Етикетът с логото на изданието е изрязан от действително публикуван брой от 20 ноември, а всички останали текстове на страницата от броя от 23 октомври.

От гледна точка на специалистите, в обозримо бъдеще подобни фалшификации могат да се извършват автоматично.

Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина
Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина

„Технологиите за изкуствен интелект вече са напълно отворени, а устройствата за получаване и обработка на данни се миниатюризират и стават по-евтини“, Юрий Вилситер, доктор на физико-математическите науки, професор на Руската академия на науките, ръководител на отдела на ФГУП „ГосНИИАС“, каза "Известия". - Затова е много вероятно в близко бъдеще дори не държавата и големите корпорации, а просто частни лица да могат да ни подслушват и шпионират, както и да манипулират реалността. През следващите години ще бъде възможно чрез анализиране на потребителските предпочитания да му се влияе чрез новинарски канали и много хитри фалшификати.

Според Юри Вилситер вече съществуват технологии, които могат да се използват за подобна намеса в психическата среда. На теория нашествието на роботизирани ботове може да се очаква след няколко години, каза той. Ограничаваща точка тук може да бъде необходимостта от събиране на големи бази данни с примери за реакции на реални хора на изкуствени стимули с проследяване на дългосрочните последици. Такова проследяване вероятно ще изисква още няколко години изследвания, преди да се получат последователно целенасочени атаки.

Зрителна атака

Алексей Парфентиев, ръководител на отдела за анализи в SearchInform, също е съгласен с Юрий Вилситер. Според него експертите вече предвиждат атаки срещу невронни мрежи, въпреки че сега на практика няма такива примери.

- Изследователи от Gartner смятат, че до 2022 г. 30% от всички кибератаки ще бъдат насочени към повреда на данните, върху които се обучава невронната мрежа, и кражба на готови модели за машинно обучение. Тогава, например, безпилотните превозни средства могат изведнъж да започнат да бъркат пешеходците за други обекти. И няма да говорим за финансов или репутационен риск, а за живота и здравето на обикновените хора, смята експертът.

В момента се извършват атаки срещу системи за компютърно зрение като част от изследвания. Целта на подобни атаки е да накарат невронната мрежа да открие нещо в изображението, което го няма. Или, обратно, да не види какво е планирано.

Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина
Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина

„Една от активно развиващите се теми в областта на обучението на невронни мрежи са така наречените състезателни атаки („adversarial attacks.“– Известия)“, обясни Владислав Тушканов, уеб анализатор в Kaspersky Lab. - В повечето случаи те са насочени към системите за компютърно зрение. За да извършите такава атака, в повечето случаи трябва да имате пълен достъп до невронната мрежа (т.нар. атаки на бяла кутия) или до резултатите от нейната работа (атаки на черна кутия). Няма методи, които да измамят която и да е компютърна система за зрение в 100% от случаите. Освен това вече са създадени инструменти, които ви позволяват да тествате невронни мрежи за устойчивост на съревнователни атаки и да увеличите тяхната устойчивост.

В хода на такава атака нападателят се опитва по някакъв начин да промени разпознатото изображение, така че невронната мрежа да не работи. Често върху снимката се наслагва шум, подобен на този, който се получава при снимане в лошо осветена стая. Човек обикновено не забелязва добре такава намеса, но невронната мрежа започва да работи неправилно. Но за да извърши такава атака, нападателят се нуждае от достъп до алгоритъма.

Според Станислав Ашманов, генерален директор на Невросет Ашманов, към момента няма методи за справяне с този проблем. Освен това тази технология е достъпна за всеки: обикновен програмист може да я използва, като изтегли необходимия софтуер с отворен код от услугата Github.

Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина
Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина

- Атаката срещу невронна мрежа е техника и алгоритми за измама на невронна мрежа, които я карат да дава фалшиви резултати и всъщност я разбиват като ключалка на вратата, - смята Ашманов. - Например, сега е доста лесно да накарате системата за разпознаване на лица да мисли, че не сте вие, а Арнолд Шварценегер пред нея - това става чрез смесване на неусетни за човешкото око добавки в данните, постъпващи в невронната мрежа. Същите атаки са възможни за системите за разпознаване на реч и анализ.

Експертът е сигурен, че ще става само по-зле - тези технологии са отишли в масите, измамниците вече ги използват и няма защита срещу тях. Тъй като няма защита срещу автоматичното създаване на видео и аудио фалшификации.

Дълбоки фалшификати

Deepfake технологиите, базирани на Deep Learning (технологии за дълбоко обучение на невронни мрежи. - Известия) вече представляват реална заплаха. Видео или аудио фалшификати се създават чрез редактиране или наслагване на лицата на известни хора, които уж произнасят необходимия текст и играят необходимата роля в сюжета.

„Deepfake ви позволява да замените движенията на устните и човешката реч с видео, което създава усещане за реализъм на случващото се“, казва Андрей Бусаргин, директор на отдела за иновативна защита на марката и интелектуална собственост в Group-IB. - Фалшивите знаменитости „предлагат“на потребителите в социалните мрежи да участват в тегленето на ценни награди (смартфони, коли, парични суми) и др. Връзките от такива видео публикации често водят до измамни и фишинг сайтове, където потребителите са помолени да въведат лична информация, включително данни за банкова карта. Такива схеми представляват заплаха както за обикновените потребители, така и за публичните личности, които се споменават в рекламите. Този вид измама започва да свързва образите на знаменитости с измами или рекламирани стоки и тук се натъкваме на щети на личната марка, казва той.

Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина
Шоуто на Труман - 2019: Как невронните мрежи научиха да фалшифицират новинарската картина

Друга заплаха е свързана с използването на "фалшиви гласове" за телефонни измами. Например в Германия киберпрестъпниците използваха гласов дипфейк, за да накарат ръководителя на дъщерно дружество от Обединеното кралство да преведе спешно 220 000 евро в телефонен разговор, представяйки се за мениджър на компания.по сметка на унгарски доставчик. Шефът на британската фирма заподозря трик, когато неговият "шеф" поиска втори паричен превод, но обаждането дойде от австрийски номер. По това време първият транш вече беше преведен по сметка в Унгария, откъдето парите бяха изтеглени в Мексико.

Оказва се, че съвременните технологии ви позволяват да създадете индивидуална новинарска картина, пълна с фалшиви новини. Освен това скоро ще бъде възможно да се различават фалшификати от истинско видео и аудио само чрез хардуер. Според експерти мерките, забраняващи развитието на невронни мрежи, е малко вероятно да бъдат ефективни. Следователно скоро ще живеем в свят, в който ще е необходимо непрекъснато да препроверявате всичко.

„Трябва да се подготвим за това и това трябва да бъде прието“, подчерта Юрий Вилситер. - Човечеството не за първи път преминава от една реалност в друга. Нашият свят, начин на живот и ценности са коренно различни от света, в който са живели нашите предци преди 60 000 години, преди 5 000 години, преди 2 000 години и дори преди 200-100 години. В близко бъдеще човек ще бъде до голяма степен лишен от поверителност и следователно ще бъде принуден да не крие нищо и да действа честно. В същото време нищо в заобикалящата реалност и в собствената личност не може да бъде взето на вяра, всичко ще трябва да се поставя под въпрос и непрекъснато да се препроверява. Но дали тази бъдеща реалност ще бъде ужасна? Не. Просто ще бъде съвсем различно.

Препоръчано: