Midjourney и другие нейросети обработки изображений - страница 10

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ну человеческое творчество это тоже не всегда (скорее редко) какой-то прорыв, правда? Классические сюжеты конфликтов, основные драматургические приемы - все это известно и не сильно изменилось еще со времен древнегреческих амфитеатров, см. википедию. Любые новые произведения имеют в основе чужое творчество, ну просто потому что автор новинки не вырос как Маугли среди волков, а формировался культурой предыдущих поколений. Поэтому ничего странного, что множество произведений искусства являются не чем-то принципиально новым, а только небольшим шагом вперед или в сторону от предмета вдохновения, а то и вовсе пересказом или компиляцией нескольких источников. Иногда шаг получается большим, и если он удачен, то мы потом знаем такого творца как гения. Ну так и нейросеть способна шагать от оригинала в разной степени.
Ответил в ветке про ChatGPT.
Компания Цукерберга Meтa разрабатывает движок текст-в-видео
https://makeavideo.studio/
На сайте есть примеры, включая анимацию загруженных статичных рисунков.
Midjourney 5 теперь официально запущен
Примеры работ
P.S. Обычно в фильмах про роботов видно, что это компьютерная графика. Но только вглядитесь в картинку робота выше, реально верится, что предмет существует в реале, как фото.
Кстати и картинка становится лучше, освещение.
Учитывая, что уже сейчас нейросети могут дорисовывать картинку в стороны, применение вижу таким:
старый ч/б фильм переводится из 4/3 в 16/9, убирается шум, делается цвет и хороший свет.
Можно будет сменить всех актёров на азиатов или наоборот, омолодить, сделать красивее или страшнее, толще, тоньше.
Трансформация фильма вероятно займёт пару минут.
P.S. Уже сейчас в одной звездно-полосатой стране работает компания, которая старые шоу-программы перемонтирует под современные стандарты, добавляя спец.эффекты и прочее для кабельных ТВ.
Кстати и картинка становится лучше, освещение.
Учитывая, что уже сейчас нейросети могут дорисовывать картинку в стороны, применение вижу таким:
старый ч/б фильм переводится из 4/3 в 16/9, убирается шум, делается цвет и хороший свет.
Можно будет сменить всех актёров на азиатов или наоборот, омолодить, сделать красивее или страшнее, толще, тоньше.
Трансформация фильма вероятно займёт пару минут.
P.S. Уже сейчас в одной звездно-полосатой стране работает компания, которая старые шоу-программы перемонтирует под современные стандарты, добавляя спец.эффекты и прочее для кабельных ТВ.
Видел примеры модификации содержания видео по текстовому описанию. В одном меняли мотоциклиста на спайдермена, в другом обычного человека на вымышленного персонажа.
Ну так вот же двумя постами выше писал, что и Meta уже работает над переводом текст-в-видео
Зайдите и посмотрите https://makeavideo.studio
Предположим, что до фильмов далеко, но вот мультфильмы вполне.
Раньше аниматоры рисовали 15 или 25 кадров на секунду. Теперь 1 кадр превращается в видео длиной 3 секунды. Работа ускорилась в десятки раз.
1. Первый технический вопрос сразу охлаждает пыл: сколько времени занимает генерация одной качественной картинки? Умножте это время на количество кадров фильма.
1. Недолго. Ну по крайней мере в разы быстрее, чем рисует дизайнер
2. Ну как бы ответил ранее. Да, создаётся промт для картинки или рисуется вручную. Ещё загружается фото персонажа, чтобы запомнил и не генерировал других. Для работы действительно нужен хороший оператор AI, но скорость и стоимость работы несопоставима со старыми методами
Аватар 2 Кэмерона. Актёры сыграли свои роли ещё 5 лет назад. А потом 5 лет они работали над спец.эффектами, 3D и 4к. Однако это просто вопрос к специалистам технической части. Через пару лет на создание спец.эффектов для фильма будет уходит максимум месяц. Подправить лица, эмоции, взгляд актёров. Зачем кучи дублей. Не нужны датчики движений. Человек просто ходит по сцене и играет, потом его меняют на динозавра или ещё кого.
Вернёмся к мультикам. Без особых знаний, даже я могу создать раскадровку (комикс) через AI. Если дать доступ к созданию 3 сек анимаций картинки, то на создание 20 минутного эпизода мульта у меня уйдёт пару дней. Музыка автоматом под сцены пишется (тоже пока закрытый AI от Микрософта), озвучка действий и голосов ещё нужна, но и это скоро появится. В итоге в титрах будут перечислены с десяток нейросетей и 1 оператор.
***
Хотел бы отдельно прокомментировать это. Есть фото искусство и художественное.
В обоих случаях AI побеждает
Он делает фотореалистичные сцены с отличным освещением и композицией. Природа, еда, животные. Везде AI (это заметно по Midjourney 5) сделает лучше.
Повторюсь, будет сразу заметно качественное освещение и композиция. Никакого мыла, зернистости и заваленного горизонта, (красных или закрытых глаз).
По картинам тоже. У нас в городе есть некоторые типографии, которые печатают картины на холсте и покрывают специальным лаком, имитирующим ручную работу.
Т.е. создать картину в AI и распечатать в типографии. Повесить в Лувре и там она будет привлекать внимание.
Важно не крутость художника, а крутость творческого мышления, глубины замысла. Один будет рисовать картину месяцами на холсте, другой пару дней в дискорде.
Ну так вот же двумя постами выше писал, что и Meta уже работает над переводом текст-в-видео
Зайдите и посмотрите https://makeavideo.studio
Предположим, что до фильмов далеко, но вот мультфильмы вполне.
Раньше аниматоры рисовали 15 или 25 кадров на секунду. Теперь 1 кадр превращается в видео длиной 3 секунды. Работа ускорилась в десятки раз.
1. Недолго. Ну по крайней мере в разы быстрее, чем рисует дизайнер
2. Ну как бы ответил ранее. Да, создаётся промт для картинки или рисуется вручную. Ещё загружается фото персонажа, чтобы запомнил и не генерировал других. Для работы действительно нужен хороший оператор AI, но скорость и стоимость работы несопоставима со старыми методами
Аватар 2 Кэмерона. Актёры сыграли свои роли ещё 5 лет назад. А потом 5 лет они работали над спец.эффектами, 3D и 4к. Однако это просто вопрос к специалистам технической части. Через пару лет на создание спец.эффектов для фильма будет уходит максимум месяц. Подправить лица, эмоции, взгляд актёров. Зачем кучи дублей. Не нужны датчики движений. Человек просто ходит по сцене и играет, потом его меняют на динозавра или ещё кого.
Вернёмся к мультикам. Без особых знаний, даже я могу создать раскадровку (комикс) через AI. Если дать доступ к созданию 3 сек анимаций картинки, то на создание 20 минутного эпизода мульта у меня уйдёт пару дней. Музыка автоматом под сцены пишется (тоже пока закрытый AI от Микрософта), озвучка действий и голосов ещё нужна, но и это скоро появится. В итоге в титрах будут перечислены с десяток нейросетей и 1 оператор.
Там куча примеров. Конечно, нейросеть разбивает объект на движущиеся элементы (ноги, лапы, колёса, паруса). Далее ими и манипулирвет. Общий объект примерно переводит в 3D. Вот пишу и думаю, что это полноценный подход к анимации. Технологии не стоят на месте и конечно же будет и в этой области качественный прорыв.
// тут сюр конечно)