DeepFaceLab позволяет заменить лицо, голову и возраст человека на видео, а также оптимизировать движение губ под нужные слова. Для работы нужен компьютер с мощной видеокартой и большим объёмом видеопамяти, исходное видео с лицом-источником и целевое видео, на которое будет накладываться нужное лицо.
Версия: никакой проблемы в таких «фейках» нет. Это одно из качеств современного мира. Тебя могут «подделать», в любом виде. Это значит, что нужно учиться воспринимать не «факты»(именно факты можно подделать), а законы или принципы, по которым производятся эти факты. Еще это можно назвать «стиль».
Представьте, что если такой «фейк» сделали на вашу «маму»(например) какие будут ваши действия? Скорее всего вы скажите, что «это не она, она не могла так сказать/сделать», и пойдёте дальше. То есть вы очень Хорошо знаете свою «маму», но если разбираться, а что это значит, выяснится, что вы знаете буквально ее «стиль». И вы примерно предполагаете что она может сказать, а что нет. То есть все сказанное, вы как будто пропускаете сквозь такой «фильтр-стиль», который становится для вас критерием истины, а не те факты, которые вам предлагаются. И только факты прошедшие этот фильтр имеют право на жизнь.
Это тот мир, в котором мы уже живем. И жизнь в этом мире требует мыслительных усилий. Именно это качество поделит мир на «элиту» и «массы».
Александр, одно из качеств современного мира - доступность общения в онлайне с самыми разными людьми, в том числе не слишком хорошо или вовсе не известными тебе IRL. Наработка анализа по "стилю" происходит так же, как обучается нейросеть - на основании прошлого опыта. А откуда его взять, если речь не идёт о Вашей "маме"?
Прежде чем официально кидать предьяву, полагая, что именно ваше лицо было использовано в дипфейке помните: там мог сниматься атер/актрисса очень похожий на вас. И в этом случае получите обратный иск от него по набору статей.
Ну,, тут-то хотя бы не врите. Вынесите этот "набор статей" на обозрение, поржём.