А теперь о технологии deepfake.
Технологии около 5 лет. Строится на синтезе машинного обучения (глубокое, компьютерное... нейросети кароч) и инструмента "подделки". Алгоритм объединяет несколько фотографий, делает синтез и при этом, если доступно больше фотографий, обучается как сделать подделку максимально похожим на конкретный оригинал.
Начиналось все с безобидной замены лиц порноактрис на лица всяких закомплексованных селебрити. Народ ликовал, а селебрити тогда это дико не понравилось и на черном пиаре технология вышла в люди. Можно сказать, через первобытное животное начало))
Алгоритм обучался, время шло. И вот уже лицо Трампа вещает о плохости парижских соглашений для всех сразу. Все всполошились, но быстро поняли что к чему.
Немного об опасности этой технологии:
"Законодатели обеспокоены тем, как эта технология повлияет на будущую предвыборную кампанию и политическую обстановку в целом. Калифорния стала первым штатом, где на законадательном уровне запретили распространение дипфейков с кандидатами во время предвыборной гонки."
...Встречал еще инфо о крупном исследовательском заказе данной технологии на предмет обнаружения, улучшения визуализации и всякого усиления реалистичности. Может это фейк, но военные часто интересуются подобными технологиями. Так что может это и не фейк про дипфейк)
Короче, что я думаю.. Сейчас технология развивается и лет через 5 вот что примерно будет:
1. Дипфейк - инструмент рекламы. Скоро чтобы создать ролик с селебрити не нужно будет снимать селебрити, достаточно "ок" и контракта.
2. В политике этой технологии надо боятся - от подставы простых граждан своего государства (от имени которых можно опубликовать крамольные вещи) до корректировок оцифрованных политических дебатов, где маленькие корректировки могут поменять весь контекст речи. Мелкие шалости могут стать серьезной проблемой
3. Все фильмы будут иметь бесчетное количество сюжетных перипетий). Сейчас уже активно тренируются нейросети вместе с толкателями дипфейка.
4. Если не появятся четкие инструменты распознавания фейка, то подделывать можно будет абсолютно все. А в эпоху сверхдоступности информации, среди всего этого мусора, попробуй потом разбери где оригинал..
А ниже проходное видео данной технологии (для просмотра надо перейти на ресурс), пока нейросети тренируются на фильмах, полно огрехов, ненатуральных движений и есть над чем работать...
Но следить за развитием данной технологии, безусловно, стоит.