YouTube to Text Converter

Transcript of 0200 Create and edit any AI video in ComfyUI and Davinci Resolve

Video Transcript:

Это 3Dр. Делаем переход в реальное видео. Теперь это реальное видео переходит в историческое фото. А это у нас медведь. [музыка] [аплодисменты] Привет, друзья. В этом видео я подробно расскажу, как создавать AI видео на своём компьютере, как делать уникальные видеопереходы, оживлять фотографии и вообще создавать всё, что хотите. И всё это бесплатно, локально на своём компьютере бесплатных сервисов. Делать мы это всё будем в Кофе UI. Поехали. И начнём мы с того, что мы возьмём базовый шаблон, встроенный в Conf UI, и его адаптируем. Заходим в templates в Conf UI. Здесь переходим на вкладку Видео. И здесь большое количество разных моделей. Самый интересный из них - это One Animate, но о ней я сделаю отдельное видео. И One 2,2. Вот это First Last Frame. Мы возьмём с вами вот этот шаблон и его адаптируем. Открываем его. Выглядит он у нас вот таким образом. Здесь у нас, по сути, две версии шаблона в одной. Ну, они отличаются, на самом деле, только модельками. Здесь есть версия оригинальная, без ускоряющих Loreр, но, на мой взгляд, она слишком долго работает. Даже на мощных видеокартах вы потратите огромное количество времени. Поэтому мы вот эту версию снизу, которая и выключена, кстати, мы вот так её зажав Ctrl, выделяем, всё удаляем. И вот с этой версией будем работать. Тоже удалим пока что вот эти вот лишние заметочки. удалим все группы снизу, чтобы они нас не отвлекали. Чем меньше нот, тем будет вам всё понятнее и доступней. И мы будем использовать не только встроенные ноды в Кофе UI. И для того, чтобы нам сделать этот шаблон более удобным, мы ещё с вами поставим несколько дополнительных нот. Зайдём в conf UI Manager. Кстати, если хотите, можете поставить мой пак Time Saver, потому что там есть очень интересные ноды. Например, нода Resize, которая очень удобная и позволяет адаптировать размеры изображений очень гибко. Если хотите мой пак поставить, то тогда нужно здесь вот в коменеджере включить channel develop. вот этот вот зайти в custom noteer и в поиске просто написать time saver и отсюда можно установить этот пак confui saver notes. Ну пока я вам буду показывать без этого пака, так скажем, с основными нодами, которыми я рекомендую пользоваться. Мы поставим ноды для сжатого формата JGOF. Для этого мы вернёмся обратно, включим канал Default, стандартный канал, по которому скачиваются ноды. Выбираем здесь опять же менеджер и здесь пишем в поиске JGF. Нас интересует вот этот пак note, Confi UI JGF. Также пишем в поиске Ultimate и также очень популярный packet Ultimate SD Uscale. Тоже его устанавливаем. И ещё ставим pack video Helpers. Вот этот пак Conf UI video helpers. Эти ноды нам пригодятся для более удобной работы с видео, потому что мы удалим теперь вот эти ноды, которые сохраняют видео, встроенные в Conf UI. Они очень ограничены по функционалу. И после установки этих паков вы confui перезапустите, и у вас появятся вот такие ноды. Нас интересуют нода video комбайн из пака Helpers. Вот эта нода. В неё мы подключим готовые картинки, которые будут генериться. То есть это набор изображений, а Noa видеокомбайн будет превращать это всё в видео. Здесь мы в качестве формата можем выбрать, например, H264 или H265. Давайте для начала выберем H264. И, кстати, вы можете здесь выбрать, в том числе и Pro, что очень полезно при последующей обработке видео. Если вы хотите выбрать прорес, то выбираете вот здесь видео Прорес. Но Прорес не будет виден вот здесь вот в браузере. У вас будет сохраняться видеофайл, но превью вы здесь не увидите. Вам нужно будет в папку зайти и там его смотреть. Поэтому я буду показывать на примере H264. Я ставлю вот этот вот параметр CRF где-нибудь на 16. Это сжатие. Чем меньше этот параметр, тем качественнее видео. Ну, меньше 15 смысла ставить нет. 1516 оптимально. Эта нода у нас будет сохранять видео. И файл name prefix мы можем задать куда сохранять. Я сразу вам рекомендую здесь написать видео, поставить косую черту. То есть таким образом он создаст папку видео в папке output и там, например, написать уже AI видео. Вот так. Так будет называться файл, и к нему будет добавляться порядковый номер. Частоту кадров мы поставим 25. И подстроим немножко. Теперь наш шаблон для генерации видео встроенный. То есть мы будем генерировать видео на основе изображений. Это единственно правильный способ. Генерить видео по тексту - это бессмысленная трата времени. Вы не знаете, что получите. Будете долго ждать. Сначала делаем качественную картинку, потом из неё делаем видео. Только так. И здесь конструкция вот такая. Модель one разделена на две части, так называемую low и high. Вот они здесь у нас грузятся. У них у каждой свой сэмплер. Сейчас мы вот это всё вот так выставим, и вы поймёте, как это всё выглядит наглядно, чтобы было понятно, что куда. Вот так разложим. Для начала вот сделаем, а картинки поставим вот здесь сверху. Итак, смотрите, как это всё работает. Модель High Noise и ускоряющая лора для неё попадают в первый сэмпlerр и генерят два шага. Они генерят так называемое движение в начале. То есть они генерят всё, что отвечает за движение. На выходе будет такой специальный двигающийся шум, который моделька Low превращает уже в картинку, тоже с ускоряющей лорой. И это происходит вот в этом в следующем смплере. Здесь, я думаю, вы должны понимать, что это такое. Это промт. То есть мы здесь пишем текстом, описываем, что у нас происходит. Негативный промт можно, в принципе, не трогать, поскольку модель китайская, то и промт прописан на китайском. Можно писать на английском, это неважно. Можно, в принципе, его не трогать. Мы с вами будем работать вот с этими основными параметрами. То есть у нас все параметры я вынесу вверх. Я так делаю в своих workflow и, соответственно, сделаю сейчас в этом примере, чтобы всё это упростить и наглядно вам показать. Вот в этой заметке есть ссылки на модели. Здесь указано, куда их положить, откуда их скачать, но модели довольно большие здесь. Здесь указаны модели FP16. Также есть ссылки на модели FP8. Тоже можно их скачать, но я вам рекомендую сделать по-другому. Я вам рекомендую скачать мои версии моделей, ссылочки на которые я сейчас в эту заметку запишу. Итак, вот такая будет у вас в этом Workflow модифицированная версия заметки. Workflow, естественно, я приложу к видео ссылочку на него. Соответственно, вот эти модельки Artius One High Noise и Artius One Lowise вы скачиваете и кладёте в папку Conf UI Models Diffusion Models. Чем эти модели хороши? Тем, что, во-первых, эти модели сделаны на основе не добавленных LOR Lite X, а прямо исходных моделей Lite X, которые натонированы. Но я эти модели сжал с помощью технологии динамического квантования формат Q4КМ. Сейчас не будем много технических подробностей этих вам рассказывать, я думаю, чтоб сильно вы не запутались. Но смысл в том, что в этих моделях не все слои сжаты. Там, так скажем, часть слоёв в FP16, часть слоёв в Q6, часть в Q4. Таким образом, эти модели занимают в четыре раза меньше места, чем FP16. А по качеству практически такие же. и памяти потребляют тоже меньше. Чтобы эти модельки загрузить, мы добавляем ноды Unet Loader из пака JG, который вы поставили, и выбираем в нём эти модели. Выбираем модельку High. Можно теперь ноду продублировать. Ctrl C, Ctrl V. И здесь выбираем модельку Low. И подключаем модельку High вот сюда. Эти две ноды удаляем, а модельку low, соответственно, вот сюда. У нас получается ещё более компактная конструкция. Вам нужно будет скачать все вот эти модели, положить их туда, куда здесь указано всё. То есть моделья в папку, модель энкодера в папку Encoders или Clip. Я в уроке по Confui рассказывал, что эти папки, они в принципе взаимозаменяемы. И, кстати, если вы скачаете мой пакнот, то там есть очень крутая нода, которая прямо самая популярная в моём паке. Это File Downloader, так она называется. TSver file Downloader. Вот эта нода. Что она делает? В ней вы можете указать ссылки на модели на HAGENF, ссылку на модель и дальше указываете относительный путь. То есть, допустим, models VI. Вот так. И модельку VI вот сюда вставляете вот эту ссылку. И тогда при запуске эта нода автоматически скачает модель и положит её в эту папку. При этом она поддерживает докачку. Если вдруг закачка прервётся, она проверит и впоследствии будет проверять размер файлов. Если вдруг какая-то модель не докачана, то она её скачает. То есть работает она просто здесь список, адрес файла, пробел и путь относительно вот этих папок, то есть models и так далее. Указываете, и модель скачает все файлы автоматически. Но я не буду сейчас её здесь добавлять, потому что если вы пак не ставили, то эта нода у вас не откроется. Я оставлю всё в оригинальной кофеавской заметки ссылки. Это у нас, значит, модельки для генерации мы сюда загрузили. Вот здесь мы выбираем модельку текстового энкодера. У меня она лежит в отдельной подпапке. Я выбираю её вот здесь. И тоже у меня лежит в отдельной подпапке. Вот она. One 21 V. Несмотря на то, что модели 2,2 для вот этих моделей высокого качества 14 млрд параметров, для них используется One 2.1 Y. Вот этот вот Variable Autoder. Опять же, если вы не смотрели мой вводный урок по Confi UI, обязательно посмотрите, там я объясняю, что это такое вообще, как устроена система моделей. Здесь у нас модели разделены, то есть у нас идут отдельно diffusion модели, отдельно клип, который превращает текст в понятной модели вид, и отдельно энкоodдер, который конвертирует изображение и латентное пространство. Вот это L and Space. Этот нам нужен для того, чтобы превратить сначала наши картинки в понятной модели вид, а затем то, что она сделала в понятный нам вид. Таким образом работают вот эти все разделённые модельки. Итак, значит, смотрите, друзья, давайте мы с вами вот этот текст тоже сюда перенесём. Можно, кстати, сделать позитивный промт, он нам нужен. Можно эту ноду переименовать. Давайте её назовём промт. Сделаем побольше. Здесь мы пишем наш промт. То есть сюда мы закидываем картинки. Тоже мы их переименуем. назовём Start Image, а здесь назовём end image. И ещё нам понадобится несколько настроек вынести в наш визуальный интерфейс. Вот сюда нам понадобится вот этот, чтобы здесь в ноде его не писать, а всё вынести отдельно вот сюда. И параметры ширины и высоты нашего видео. И для того, чтобы нам эти параметры вынести, мы добавим ноду int, встроенную в conf UI. Вот эту. Здесь поставим фиксированное значение. Int - это целые числа. Это у нас будет ширина. Продублируем её. Ctrl C, Ctrl V. А это, соответственно, высота. Ширину подключаем к ширине, высоту к высоте. И эти ноды теперь можно разместить, где нам удобно, где мы будем прописывать ширину и высоту видео. Вот сюда их вынесем. Давайте вот так чуть пониже, потому что ещё сит нам нужен. Se у нас - это большое число. И это то же самое, тоже это же нода int. Можно её продублировать. Назовём её си подключим вот сюда в site. Seit. Поставим его вот здесь. Вот так вот можно выставить. Такие вот у нас настроечки: картинки, текст, сит, ширина, высота. Ну и конечное видео у нас будет вот здесь. Соответственно, здесь у нас техническая часть workflow, которой можно не трогать. Все параметры здесь уже настроены, зафиксированы. Вот так их оставим вот здесь снизу. А здесь у нас основные параметры, с которыми мы и будем работать. Ну и, соответственно, что теперь у нас здесь и как работает. В старт иageж мы закидываем картинку, с которой хотим начать генерацию видео. Если end image, то есть если конечная картинка нам не нужна, то мы просто можем в bypass её поставить. Вот так. И всё. И работает только со стартовым изображением. Ну давайте какое-нибудь видео для теста сгенерим. Вот эту старую фотографию мы сейчас оживим. Соответственно, вам нужно написать текстом, что будет происходить на видео. Здесь можно всё стереть и написать, что вы хотите, чтобы здесь было. Я пишу сначала по-русски. Я пишу, что у нас фиксированная камера, мужчины стоят на улице и что-то оживлённо обсуждают. Теперь переводим этот промт на английский. Получаем вот такой вариант. И дальше настраиваем параметры. Пока можно выставить в randomй или в incкремен. Можно написать здесь любое число, там 1 2 3 4 5 6 7. Давайте для начала напишем размеры. Это самое важное. Здесь нам надо задать размеры. Давайте ещё покомпактнее немножко это всё соберём. Вот так сделаем, чтобы всё было на одном экране. Размеры, то есть ширина и высота - это самые важные параметры, потому что если вы поставите очень большие, у вас будет потребляться очень много памяти и, соответственно, генерация видео либо будет очень долгой, либо она вообще не случится. Я напишу размеры 512 на 720. То есть ширина у меня 720, высота 512. И всё. Нажимаем Generate. Давайте посмотрим, что у нас происходит. Вот у нас после нажатия кнопки пошли загружаться модели. Сначала у нас загрузился текстовый энкоoder, потом загрузился, и у нас пошла стартовая картинка вот сюда. Теперь у нас пошли загружаться модели и пошёл работать первый сэмпlerлер. То есть первый сэмплер, он генерит два шага из четырёх. У нас вся картинка генерится за четыре шага. И первые два шага генерятся в виде шума. Вот здесь у нас сейчас это и происходит. Вот у нас сгенерился первый шаг из двух. Сейчас пойдёт второй. И после того, как отработает этот кассемплер, начнёт работать вот этот. И после того, как второй кассемпер отработает, мы получаем готовое видео. Как видим, очень даже у нас получилось интересное видео. Таким простым образом можно взять какие-то архивные фото, оживить, добавить вашему видеоконтенту привлекательности. Как видите, качество очень даже хорошее. Вот мужчины стоят, что-то там обсуждают. Действительно, генерация у меня заняла 260 секунд. Это с загрузкой модели. последующей генерации проходит где-то примерно за 215 секунд. Это на карточке RTX 3080. Если добавить различные ускорялки, так называемые SG attention, Flash Attention, то тогда там можно скорость ещё в два раза увеличить. Особенно хорошо это работает на четырёхтысячных карточках. Ну и сейчас уже на пятитысячных карточках там вообще генерации можно разогнать прямо серьёзно. Но смотрите, вот, допустим, это у нас получилось вот такое видео, где действительно то, что описано, то и происходит, да, мужики стоят и о чём-то там трендят, но мы можем сделать его гораздо детальнее, то есть сделать его реально в Full HD разрешении. И я вам сейчас покажу одну крутую технику, лучшую на сегодняшний момент, потому что я пробовал их все, все апскеллеры. Просто уже реально, поскольку занимаюсь этим уже 5 лет, всеми этими нейронками, и я пробовал все. И сейчас вот самые современные, там Flash VCR, SedVR и прочие штуки. Это всё, конечно, замечательно, но есть гораздо более простой и элегантный способ. У него есть небольшие ограничения, в принципе, но в большинстве кадров он отлично работает. И для того, чтобы его применить, мы добавляем ноду, которая называется Ultimate SD Upscaler. Кликаем два раза по полю с нодами и пишем Ultimate. Поскольку мы установили этот packк, он у нас есть. И выбираем вот этот вариант No upscale. Звучит странно, да? Но сейчас объясню, что это значит. И ещё добавим ноду, встроенную в conf UI, upscale. Выберем её. upscale. Называется она image upscale buy. Это значит, что она увеличивает изображение на какой-то процент. Подключаем сначала в неё наше изображение, потом в ноду Al Ultimate upscale. Вот так можно сразу их расставить вот такую штуку и сделать для них группу, чтобы потом можно было это tscaler включать и выключать одной кнопкой. Вот таким образом я их раскладываю. Подключаю выход ноды Ultimate Upscale в ноду Video combine, где которое видео собирает. Вот так выделяю эти ноды правой кнопкой Add group for selected node. Ну, для них создастся вот такая группа. Назову её upscale. Это будет наш upscaler. Его можно будет включать, если у вас установлен кнот RG3, по-моему, называется, то вот такая кнопочка будет. Я не знаю, есть она сейчас кофе по умолчанию, но если её нет, то вы просто кликаете по группе правой кнопкой, и здесь есть bypass group notes. А потом, опять же, правой кнопкой set groupes to always. Таким образом можно её включать и выключать. В ноде image upscale buy мы выбираем алгоритм самый качественный - это LSOS. Выбираем его. Upscale buy - это во сколько увеличить. Можно поставить сразу в два раза, но я обычно ставлю немножко поменьше. Здесь вы подбираете уже под свои задачи, под свою видеокарту. Я ставлю 1,7. Сейчас объясню, почему. Когда я генерирую видео вот по малой стороне в 512 пикселей и ставлю 1,7, в итоге получается разрушение почти Full HD. И этот UPS работает следующим образом. Он разбивает картинку на так называемые тайлы, на такие вот квадратики. Если я поставлю в два раза увеличить, а размер квадратиков у меня указан вот здесь 512 на 512. Это, в принципе, оптимальный вариант. Можно, конечно, тоже его менять, в принципе. Но вот 512 на 512, если я поставлю в два раза увеличение, то у меня будет генериться восемь квадратов. То есть будет сетка 4х2. При этом там совсем чуть-чуть не хватает пространства, так скажем. Для этого появляется четвёртый квадрат. А если я ставлю 1,7, то получается сетка 6х2, и это гораздо быстрее просто генериться и вполне достаточно. Поэтому я поставил вот такое значение. Соответственно, мы теперь этот Ultimate Upscer подключаем к остальным нодам. Подключаем в него модель. Нас интересует модель вот такая же, которая здесь. Low noise, которая генерит саму картинку, потому что движение у нас уже есть. То есть мы вот отсюда из вот этой ноды, Shift, которая называется у нас, мы из неё перетягиваем модельку вот сюда. Из ноды First Last Frame мы берём позитивный промт, негативный промт и из модельки подключаем Vя. Вот так. Seed мы ставим вот этот вот параметр в fixed ноль. Так же как и здесь. CFG ставим тоже, как и здесь, в единицу. Сэмплеры можно оставить по умолчанию. Вот он мне написал: "Негативный пром-то забыл". Видите, я его не подключил немножко тут надо подправить. Вот так. В принципе, негативный промт вообще не работает. Вот этот можно его убрать, вместо него поставить. Но есть такая conditioning zero. То есть она обнуляет этот вот вот кондининг. Потому что когда у нас CFG стоит один, когда мы используем ускоряющие лоры, негативный промт не работает. Есть метод его обойти, так называемый видео наг, но я сейчас про него рассказывать не буду, чтобы не перегружать качество видео. и так будет очень даже хорошим. Количество шагов мы выставляем в два или три. Давайте поставим три. На мой взгляд, три - это идеальный баланс между качеством и скоростью. Можно поставить вообще там до восьми. И вот здесь, кстати, тоже вот в этих семплерах. Здесь тоже подробно можно об этом рассказать. В принципе, я думаю, вам это будет полезно. Первый смплер, который генерит движение, вот здесь вы можете поставить шагов побольше. Здесь они работают в связке, поэтому здесь надо указывать сначала общее количество шагов. Вот здесь четыре у них стоит. Вы можете поставить, допустим, здесь шесть и здесь шесть. И тогда вы вот здесь вот ставите три. То есть он первые три шага сделает и переключится на этот. А здесь вы тоже вот сюда вбиваете три. Это значит, что он с третьего шага начнёт. Но если вы используете систему апскелинга последующую, то вот это не очень важно. Единственное, что можно, конечно, поднять количество шагов в сэмплере, который отвечает за движение. Тогда движение будет более активным. То есть можно, в принципе, сделать как общее количество шагов вот здесь поставить шесть, но вот здесь написать так, чтобы он генерил четыре шага для движения. То есть здесь поставить четыре, а здесь положено поставить четыре, что он с четвёртого шага начнёт и два всего шага сделает для самой картинки. Я пока не трогаю, оставляю параметры по умолчанию, чтобы вы видели, как модель работает с ними. А в апхиеллере я ставлю три шага. И в принципе вот три шага - это оптималочка для апслара. И самый главный параметр здесь, который влияет на детализацию - это ещё параметр denoise. Вот этот параметр. На него стоит обратить особое внимание. Что он означает? Он означает, насколько сильно картинка будет перерисовываться, в неё будут добавляться детали. Соответственно, этот параметр можно увеличивать, и я его рекомендую вам поставить для начала в 30. И где-то от вот в интервале от 20 до 40, даже, может быть, 45 можно пробовать. Если у вас не видны в процессе вот эти квадратики, на которые делится картинка на готовом видео, то этот параметр можно поднимать. Если вдруг они становятся видны, то тогда его надо опускать. Для большинства видео, да, процентов, наверное, 90. Вот параметр 30. Отлично работает. Итак, в общем, берём всё мы и запускаем теперь наш upscale. Если зайти в консоль, то здесь видно, что, видите, у нас style amount 6, грид 2х3, то есть шесть тайтлов, сетка 2х3. Если бы я здесь поставил не 1,7, а в два раза увеличить, то тайтлов было бы восемь. Ещё два тайтла, а это каждый тайтл примерно по 2 минуты генерится, соответственно. Ну зачем это надо? можно сэкономить довольно много времени, а качество картинки будет всё равно на уровне. Сейчас увидите. И после завершения апсла мы получаем высоко детализированное видео. Обратите внимание, какая детализация. Такое видео уже реально можно спокойно использовать в документалке, и никто вам даже не скажет, что это нейронка. Я специально взял именно этот пример, ни каких-нибудь там аниме и котиков, потому что вот здесь реально видно четыре человека в кадре, там руки, лица, это всё на самом деле очень сложно для нейросети. Вот эта тросточка, то есть такие вот маленькие нюансы, они на самом деле показывают качество и уровень модели. По времени, как я вам говорил, 2 минуты примерно на один тайл уходит. То есть 13 минут у меня занял вот этого видео. Соответственно, если вы подключите, например, синtion, то это будет в два раза быстрее. Но вот у меня на трёхтысячной карточки он нормально не завёлся, но я могу включить flash attention, тогда скорость будет где-то процентов на 40 быстрее. То есть вместо 13 минут upsquale будет занимать минут семь. Я вам сейчас показываю всё со стандартными настройками, потому что это максимально универсальный вариант, который должен работать на практически любом компьютере. А дальше там можно наворачивать уже что угодно. Давайте вот в отдельную вкладочку его закинем. То есть вот у нас изображение до апсла, вот после апсла. И вот если в первый кадр перейти, вот они эти тайлы. Видите? При этом даже видно здесь, что можно было ещё немножко оптимизировать процесс. То есть вот здесь, видите, у меня сюда вписывается шесть тайлов, но по сути вот эти два обрезаны. То есть можно, в принципе, так подобрать такую конфигурацию, что их будет четыре. Я вот сейчас как раз занят тем, что делаю специальную ноду. Пишу ноду для Коfui, которая автоматически будет рассчитывать оптимальный размер тайлов, чтобы сделать их под каждую картинку, чтобы их было четыре и чтобы их размер был оптимален. Тогда можно сократить время апсла ещё выше. И, соответственно, вот эта заметность стайлов, она тоже её не будет. В принципе, здесь её не видно нигде, да? То есть вот как бы как знаете старые поговорки: "Видишь, суслика нет". А он есть. Вот тут где-то есть тайлы, но их не видно. И бывает заметно на каких-то видео, где очень сложное движение камеры и абсолютно однотонный однородный фон. Но такие виде очень редкие. Обычно фон всё-таки чем-то заполнен, поэтому эта технология, на мой взгляд, очень классная. И она работает на любом компьютере. То есть видеопамяти она потребляет мало, потому что каждый тайл здесь 512 на 512. Если вдруг у вас там карточка вообще совсем слабенькая, то можно размер тайла уменьшить. Ну что, друзья, это у нас пример создания из старой фотографии видео. Давайте теперь перейдём к ещё одному примеру, где будем уже использовать endдж, то есть у нас будет сейчас использоваться две картинки: стартовая и конечная. Итак, поехали. Вот у нас есть рендер вот такой. И нам надо сделать переход вот в этот реалистичный кадр и сделать его крутым. И это с помощью нейросетей можно сделать. Итак, смотрите, друзья, берём, экспортируем сначала последний кадр этого рендера в виде картинки. То есть я делаю вот так, перехожу в конец, потом нажимаю стрелочку назад. Это последний кадр. File export current frame as steel. и называю его startframe. Потом я беру первый кадр видео, в которое будет переход файл экспорт current frame as steel и называю его end frame. Потом это мы дело всё сохраняем, до инчикваем, потому что сейчас будет у нас тяжёлый рендер в conf UI. В стаф мы закидываем стартовых кадр. В endrame мы закидываем конечный кадр. Здесь самое главное промт. Что здесь у меня написано? Ну, вы, в принципе, можете прочитать. Я описываю стартовый кадр вначале вкратце чуть-чуть, чтобы нейронка синхронизировалась с тем, что в начале. Потом описываю движение камеры. То есть мы пишем, что камера, куда она летит, какое происходит вращение, и немножечко описываем начальный кадр и в конце описываем конечный кадр. То есть у меня написано Final Shot, да, что мужчина сидит спокойный, типа, и камера статическая внутри. Это важно, чтобы она зафиксировалась, потому что дальше пойдёт у нас уже видео. Соответственно, разрешение для 169 для формата стандартного я обычно выставляю вот такое 512910. Ну, здесь можно чуть-чуть её вменять, если необходимо. И после создания вот такого морфинга я просто беру, закидываю это видео в DVIN, размещаю его между двумя клипами, подрезаю на один где-нибудь два кадра склейки и на склейке кладу переход, который называется Smooth Cut, который дополнительно также уже использует довинчевский морфинг. И вот таким образом, смотрите, какая получается эффектная склейка. Такую склейку невозможно сделать никаким другим способом. Небольшой перепад яркости и цветов я подкорректировал с помощью цветокоррекции. И, в принципе, здесь уже практически незаметен этот переход. Таким образом, можно получать вот такие интересные эффекты, используя нейроночки. Ну что, друзья, workflow я этот бесплатно выложу. По ссылке в описании будет статья на сайте, где будет, соответственно, прямая ссылка на этот Workflow. Ну а внутри Workflow лежат ссылки на мои модели. Соответственно, вы можете скачать их, можете использовать стандартные модели, которые есть в стандартном Workflow Video Generation. Тогда подключаете сначала ноду загрузки модели, за ней ноду, которая называется Laora Loader. Там ускоряющие Lore отдельно подключаются. В моей модели они сшиты. Я сам ими пользуюсь, именно вот этими версиями Q4, потому что это динамическое квантование, как я сказал ранее. Там часть слоёв в Q4, часть в Q6, а основная часть слоёв вообще FP16 и даже FP32 некоторые слои. Соответственно, такая моделька даёт хорошее качество, экономно расходует видеопамять и, соответственно, место тоже на диске занимает меньше, чем модели FP8 и уж тем более, чем модели FP16. И немножко пройдёмся по постобработке. Я вам покажу на примере заставки к этому видео. Смотрите, здесь у нас вот compound cliлип, который вот мы сделали, да? То есть у нас здесь идёт реальный рендер, потом переход, сделанный в нейронке, в кофе UI, потом у нас идёт кусочек настоящего видео. Дальше последний кадр этого видео, вот этот кадр экспортируется опять же в виде картинки. Потом мы берём первый кадр оживлённой фотографии, экспортируем его в виде картинки. И, соответственно, вот у нас идёт такой переход. В проте прописано, что машина уезжает вправо, а камера немножко отдаляется. Соответственно, здесь вот эти наши джентльмены поправляют галсточки. Они ещё не знают, что их ждёт. И вот у нас вот эта фотография оживлённая в Кофе UI. И опять же берётся последний кадр, экспортируется в виде картинки. Берётся первый кадр вот этого видео с медведем. Это уже целиком сделанное в нейронке видео, понятное. И вот берётся первый кадр этого видео и последний кадр вот этот вот, э, чёрно-белой фотографии. И опять же в промте здесь прописано, что в кадр забегает медведь, а они все эти господа, они в ужасе разбегаются. Вот вот этот слева прямо вообще отлично. Он просто испарился. Дополнительно также я написал, что медведь в цвете, а картинка на фоне чёрно-белая. И получается, что на чбка картинку сбегает цветной медведь, что-то дожбавляет эффектности. А дальше в промте прописано, что фон рассыпается и проваливается вниз. Вот видите, что в принципе так и происходит. Соответственно, проваливается вниз, а на его место встаёт фон из вот этого AI видео. И всё. И дальше уже идёт это видео. Ну и дополнительно часто я использую такие плагины, как Motion Blur. Вот здесь вот на нейронке он накинут. Видите? Без него будет такая очень резкая картинка. А с монблюром она более киношная становится. И на всю эту колбасу уже здесь дополнительно применён плагин фильм Look Creator, который добавляет зерна немножко и добавляет небольшую цветкоррекцию. Ну что, друзья, вот такая штука Коfui, это отличное дополнение к Давинчи и фьюжену. Позволяет генерировать любые AI видео у себя на компьютере, совмещать их с монтажом и делать крутые эффекты. Если видео понравилось, ставьте лайк, не подписывайтесь, конечно же, потом не отпишитесь. На сегодня всё. С вами был Санчез и канал Time Saverр. До встречи. На моём канале вас ждёт большое количество уроков по монтажу и визуальным эффектам. Также у нас есть крутые онлайн-курсы, в том числе и бесплатный курс по Fusion. Большое спасибо всем, кто поддерживает канал на Бусте, Патреоне и ВКонтакте. И для патронов каждый месяц я выкладываю уникальные уроки: ке, трекинг, ратоскопинг, моя сборка Коfi UI и различный workflлоow для генерации изображений, видео, музыки и так далее. Превью большинства уроков можно посмотреть на моём сайте. Все ссылки есть в описании. С вами был Санчез и канал Север. До встречи, друзья. เ

0200 Create and edit any AI video in ComfyUI and Davinci Resolve

Channel: Таймсейвер

Convert Another Video

Share transcript:

Want to generate another YouTube transcript?

Enter a YouTube URL below to generate a new transcript.