AI-платформа для генерации фото и видео
Создать систему, которая позволяет:
Генерировать стабильные изображения и видео с одним или несколькими постоянными персонажами (модель/лицо/герой).
Анимировать персонажей: движение, мимика, речь, взаимодействие со средой.
Интегрировать AI-инструменты в удобный рабочий пайплайн для команды контент-мейкеров.
📌 Основные задачи:
Фото (персонаж):
Собрать датасеты (20–50+ фото/кадров).
Обучить LoRA / DreamBooth / Textual Inversion для Stable Diffusion XL.
Создать модель, которую можно вызывать в любом промпте.
Видео (движение, анимация, мимика):
Настроить AnimateDiff + ControlNet для движений персонажа.
Использовать SadTalker / Wav2Lip для озвучивания и анимации лица под голос.
Внедрить FaceFusion / Roop для замены лица в видео.
Обработка сцены и персонализация:
Генерация общих сцен (через SDXL).
Заменить лицо на лицо модели для стабильности.
Оптимизация стиля (реализм / мультяшный / художественный).
Облачные сервисы:
Тестирование Pika Labs, Runway Gen-3, Google Veo для быстрой генерации видео.
Построение пайплайна: локальная кастомизация + быстрая генерация в облаке.
📌 Технический стек:
Stable Diffusion XL / SD 1.5
LoRA, DreamBooth, Textual Inversion
AnimateDiff + ControlNet
SadTalker, Wav2Lip
FaceFusion / Roop
ComfyUI / AUTOMATIC1111
Python + API интеграции
📌 Результаты:
AI-модель персонажа, которая выглядит стабильно в любых фото и видео.
Рабочий пайплайн, где можно быстро делать персонализированные сцены.
Возможность масштабировать (несколько персонажей, разные стили).