Вы должны узнать, что реально, а что подделано!

«Силам больше не нужно заглушать информацию. Теперь они могут перегружать нас этим таким большим количеством, что невозможно узнать, что является фактом, а что нет. Способность быть информированной публикой будет только ухудшаться с развитием глубокой фейковой технологии ».

Благодаря достижениям в технологии глубоких подделок теперь можно создавать убедительно вымышленные изображения, используя методы цифрового преобразования. С помощью этой технологии в социальных сетях можно в одночасье создать новую личность самого себя или других. Такие изменения могут нанести серьезный ущерб жизни людей, особенно когда глубокие подделки становятся вирусными. С другой стороны, дип-фейки не обязательно негативны; они могут иногда иметь положительное влияние. Это оказало влияние на кинобизнес, поскольку актерам больше не нужно выполнять опасные трюки; вместо этого профессионалы, которым платят за выполнение этих трюков, превращаются в образ настоящих актеров, использующих эту технологию.

История

Еще в 1997 году было выпущено исследование компьютерной графики и интерактивных технологий, в котором эксперт показал новую звуковую дорожку к текущей видеозаписи выступающего.

Этот, казалось бы, незначительный эксперимент по изменению видеоконтента, скорее всего, был первым маленьким шагом к тому, что сегодня превратилось в технологию «глубокого фальсификации». Теперь возможно автоматизировать процесс реанимации лица с помощью системы машинного обучения. Это был серьезный шаг вперед, и он привел к широкому распространению создания глубоко фальшивых видео во всем мире.

Как и многие новые технологии, массовое внедрение происходит через долгий период времени после изобретения. В 2016 году было выпущено первое программное обеспечение Face2Face, демонстрирующее, как можно использовать технологию захвата лиц в реальном времени для реалистичного воспроизведения видео. Это создало пугающую возможность разрушить многие многообещающие перспективы.

После переломного момента внедрение этой технологии резко возросло. Благодаря повсеместному распространению алгоритмов машинного обучения было создано множество глубоко фейковых фильмов, которые стали вирусными по каналам социальных сетей. Речь идет о широко распространенном известном фейке Обамы. Платформа социальных сетей Snap-chat быстро последовала их примеру, разработав фильтр переключения лица. С появлением приложений для изменения голоса на основе искусственного интеллекта, появились инструменты для создания глубоких подделок видео с открытым исходным кодом и множество проектов с глубокими подделками.

Виральность deep-fake теперь не остановить и, вероятно, будет распространяться и дальше. Для некоторых приложений это может быть положительным моментом. Как правило, глубокие подделки могут иметь огромные негативные последствия для нашего общества в целом. В настоящее время мы вступаем в новую эру, в которой глубокие подделки искусственного интеллекта постепенно станут важным элементом в ряде секторов.

Многие технологические эксперты и футурологи годами предупреждали нас о том, что алгоритмы искусственного интеллекта (ИИ) и машинного обучения, которые являются основными процессами, лежащими в основе глубинных фальшивых технологий, могут оказывать негативное влияние на глобальные сообщества. Когда мы смотрим на картину в целом, у них есть веские основания так говорить, поскольку дип-фейки значительно хуже, чем хорошо известная идея «фейковых новостей». Дип-фейки значительно более эффективны: они могут превратить ложь в надежную истину.

См. также:  Fairmodels: давайте бороться с предвзятыми моделями машинного обучения (часть 2 - визуализация)

Люди сразу же осознали возросшую пользу технологий глубоких подделок и глубоких подделок, когда впервые столкнулись с ними. Это дает возможность многим энтузиастам в любой момент попытаться создать глубокую подделку кого-либо. Для этого нужно только немного программного обеспечения и много вычислительной мощности. Хотя это может показаться иррациональным, развлекательная ценность этой технологии, особенно при создании глубоких подделок кинозвезд и политиков, огромна. Это, несомненно, первая точка контакта для людей, владеющих этой технологией, но реальные приложения обычно значительно проще.

Насколько работает подделка?

Есть несколько процессов, связанных с созданием видео со сменой лица. Во-первых, сотни изображений лиц двух людей обрабатываются системой искусственного интеллекта, известной как кодировщик. При сжатии изображений кодировщик определяет и изучает общие черты двух лиц, сводя их к общим характеристикам.

После этого декодер, вторая система ИИ, обучается извлекать лица из сжатых изображений. Поскольку лица различаются, вы обучаете один декодер распознавать лицо первого человека, а другой — лицо второго человека. Чтобы выполнить замену лица, просто загрузите закодированные изображения в «неправильный» декодер.

Согласно исследованиям, основная концепция глубокого фейка — параллельное обучение двух автокодировщиков. Было замечено, что необработанное изображение может иметь чрезмерную размерность, и автокодировщик использовался для уменьшения размерности и создания компактных представлений изображений, как показано на рисунке скрытое лицо.

Например, сжатое изображение лица человека A загружается в декодер, обученный на человеке B. Затем декодер восстанавливает лицо человека B с выражениями и ориентацией лица A. Для получения убедительного видео, это нужно делать на каждом кадре.

Декодеры не имеют того же веса, что и кодеры. Утверждается, что кодировщик удаляет все стили лица, такие как цвет волос, размер глаз, размер носа и т. Д. В результате от скрытого лица остается только его структура. Затем декодеры используют новый стиль, чтобы придать скрытому лицу новые идентичности.

Генеративная состязательная сеть, или GAN, — еще один метод создания глубоких подделок. Два алгоритма искусственного интеллекта противопоставляются друг другу в GAN. Первый алгоритм, получивший название «генератор», выдает случайный шум и преобразует его в картинку. Затем это синтетическое изображение добавляется к потоку реальных фотографий, например, знаменитостей, которые отправляются в дискриминатор, второй алгоритм. Изначально синтетические картинки не будут иметь ничего общего с человеческими лицами. Однако, если процедура повторяется много раз с обратной связью о производительности, и дискриминатор, и генератор улучшаются. При наличии достаточного количества циклов и обратной связи генератор начнет создавать полностью реалистичные лица людей.

Технологии, необходимые для создания глубокой подделки

Сделать глубокую подделку на стандартном компьютере очень сложно. В основном они создаются на высокопроизводительных настольных компьютерах с очень мощными графическими картами или с использованием вычислительной мощности в облаке. Это позволяет сэкономить время. это сокращает время с дней и недель до часов. Кроме того, это тоже требует опыта. Так как у дип-фейка не должно быть мерцания изображения или несоответствия на лице. Теперь доступно множество инструментов, помогающих создавать глубокие подделки. Несколько компаний создадут для вас deep-fake и обработают все в облаке.

См. также:  Спасибо, что поделились этим, Карина. Здесь было несколько, о которых я не знал.

Как определить глубокую подделку?

Выявить глубокую подделку стало довольно сложно, поскольку лежащая в основе технология стала более продвинутой. Согласно исследованию, проведенному некоторыми американскими исследователями, в глубоко подделанном творении человеческое лицо не моргает нормально. Неудивительно, что большинство изображений, передаваемых на генераторы глубоких подделок, показывают людей с открытыми глазами, поэтому алгоритмы никогда не узнают о моргании. Изначально казалось, что это идеальное решение для обнаружения фейков. Однако вскоре технологии решили эту проблему, и стали появляться дипфейки с мигающими глазами.

Легче обнаружить фейки низкого качества. Либо синхронизация губ будет неправильной, либо оттенок кожи может быть неровным.

Также возможно мерцание по краям транспонированных лиц. Мелкие детали, такие как волосы, особенно трудно обрабатывать на глубокой подделке, особенно там, где видны пряди на челке. Также можно обнаружить плохо обработанные украшения и зубы, а также необычные световые эффекты, такие как непостоянное освещение и отражения радужной оболочки. Правительство, университеты и центры технических исследований постоянно работают над обнаружением глубоких подделок. Точно так же Microsoft, Facebook и другие крупные компании также принимают участие в этой задаче обнаружения подделок.

Плюсы и минусы глубокой подделки

У каждой технологии есть свои плюсы и минусы, так же как и у технологии глубокой подделки есть свои плюсы и минусы. Некоторые из них перечислены ниже: —

Плюсы

  • Искусство

Технология глубокой подделки была использована для «возвращения к жизни» актера Питера Кушинга в фильме «Изгой-один: Звездные войны» в 2016 году, но эту технику можно также использовать для множества других полезных художественных применений. К ним относятся возможность вернуться и изменить диалог видео или фильма без необходимости переснимать его, а также возможность создавать целые фильмы, выбирая из меню докладчиков и вводя сценарий.

В прошлом году британская организация использовала технологию глубокой подделки, чтобы снять видео Дэвида Бекхэма, выступающего с антималярийным посланием на девяти разных языках.

Маркетинговая фирма WPP разработала корпоративные обучающие фильмы, в которых искусственный интеллект использовался для создания докладчика, который мог бы говорить на языке получателя и приветствовать его по имени.

Некоторые российские исследователи использовали эту технологию, чтобы оживить Мона Лизу, создав фильм, в котором она двигает глазами, головой и ртом. И хотя технология глубокого фальсификации представляет собой серьезную проблему в борьбе с фальшивыми новостями, она также использовалась для создания трансляций новостей под руководством ведущих, персонализированных для конкретных зрителей.

  • Простая настройка
См. также:  Голанг - Строительные блоки

Теперь мы можем использовать приложение для создания трехмерной структуры самих себя и изменения цвета, стиля и одежды наших волос, а также примерить множество нарядов. И все это с помощью технологии deep-fake. Создание виртуального пространства, в котором модельеры смогут быстро настроить и опробовать одежду, не создавая ее с нуля.

Минусы

  • Доверие

Начнем с самого простого. Есть несколько причин бояться технологии, которая может заставить кого-либо делать или говорить что-нибудь. Предположим, вы смотрите вечерние новости и наткнулись на пресс-конференцию премьер-министра, подстрекающую к насилию. Но все это было обманом. Премьер-министр может это отрицать, но откуда вы знаете, что это тоже не подделка? По каким критериям вы решаете, чему верить?

Когда в 2017 году американские исследователи выпустили документ, в котором объясняется, как они создали ложное видео с участием президента Барака Обамы, они осветили возможные опасности генеративных технологий. Генеральный директор Google Марк Цукерберг также стал целью фальшивого видео, в котором он, похоже, приписал успех социальной сети тайной группе.

Недавно была предложена услуга Deepnudes, позволяющая пользователям накладывать чью-либо голову на порнографические видео. В настоящее время технология доступна, хотя дебют сайта был отменен.

  • Мошенничество

Еще один повод для беспокойства — финансовое мошенничество. Раньше звуковые дип-фейки использовались для клонирования голосов и обмана слушателей, заставляющих поверить в то, что они разговаривают с кем-то, кого они знают. Ранее в этом году мошенники использовали глубокую подделку голоса технического директора, чтобы попытаться убедить сотрудника компании перевести деньги на счет мошенника. Это не первый раз, когда мошенники используют тот же трюк, чтобы обмануть компанию. Ранее в этом году мошенники создали фальшивку голоса технического директора, чтобы попытаться убедить сотрудника фирмы отправить деньги на счет мошенника. Это не первый случай, когда мошенники используют ту же тактику, чтобы обмануть бизнес.

Заключение

Дип-фейки ужасны, и они нашли отклик у многих людей, особенно тех, кому эта умная технология нанесла ущерб.

Не существует единого правила или постановления, которое могло бы предотвратить использование доступных в настоящее время программных решений с открытым исходным кодом. Нет законодательства, которое могло бы остановить человека с четкой целью, которому нечего терять. Здесь есть дип-фейки, и они хотят остаться. Дип-фейки здесь, и они здесь, чтобы остаться.

Сообщение ясное , действия по смягчению последствий должны быть приоритетными. И мы должны научиться жить в культуре, где все, что нам говорят социальные или обычные СМИ, может быть полностью ложным. В результате мы должны постоянно критически осознавать то, что нас окружает, как людей. Это единственный способ выжить в мире, где практически любое средство массовой информации может лгать вам, а вы никогда не сможете проверить, является ли то, что они говорят, правдой. Впереди захватывающая эпоха, в которой появление глубоко фальшивых технологий сделает неожиданные повороты.

Понравилась статья? Поделиться с друзьями:
IT Шеф
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: