Серия «Retoch Photo and NeuroArt»

Outpaint в StableDiffusion

Привет!

Хочу рассказать про интересный способ outpainting через ControlNet. Да, сейчас существует уже очень много классных сервисов, которые могут исполнять подобный прием на очень высоком уровне, но преимущество этого способа в том, что все делается прямо в автоматике1111, где под рукой всегда есть все настройки, ползунки, ваши любимые модели и inpaint.

Чтобы воспользоваться этим приемом понадобиться поставить расширение ControlNet и к нему модель inpaint

Для того, чтоб у вас появилось расширение ControlNet, мы заходим во вкладку Extensions внутри вашего автоматика, далее Available и жмем на кнопку Load From. В строке Search начинаем вводить ControlNet и находим его в списке доступный расширений. Так же можно поставить его через вкладку Extensions – Install from URL, введя в верхнюю строчку ссылку на официальную страничку расширения на гитхабе:  https://github.com/Mikubill/sd-webui-controlnet.

На этой же странице на гитхабе мы находим вот эту ссылку https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

От сюда нам понадобиться скачать одну модель “control_v11p_sd15_inpaint.pth” и положить ее в папку с нашим StableDiffusion по пути “ %\stable-diffusion-webui\models\ControlNet “.

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост


Теперь все, что нам осталось – это перезагрузить наш автоматик, выбрать вашу любимую модель и настройки и сгенерировать что-нибудь красивое, желательно в портретном соотношении сторон.

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост


Нажимаем на кнопку Send to img2img и переносим наше изображение, промпт и настройки в соседнюю вкладку.

Здесь, в настройках под изображением, нам нужно, в первую очередь, выставить соотношение сторон, которое мы хотим получить после outpainting, например, я хочу сделать свое изображение из портретного широким в соотношении 16:9, и выкрутить ползунок Denoising strength на уровень от 0.75 до 1. Я выставлю, как раз, единицу. Так же рекомендуется сбросить Seed, но с ним, как и с показателем Denoising можно поэкспериментировать.

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост


Опускаемся еще чуть ниже и разворачиваем вкладку расширения ControlNet. Перетаскиваем наше, раннее сгенерированное изображение, в поле image, нажимаем галочку Enable и выбираем в списке радиокнопок inpaint. Автоматически загрузится модель inpaint и препроцессор inpaint_only – его нужно поменять на inpaint_only+lamaЮ иначе ничего не получится. Указываем, что ControlNet приоритетнее и выбираем изменение размера с заливкой. Все как на скриншоте ниже.

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост


Для улучшения качества можно еще поставить галочку на Pixel Perfect, но это может увеличить время генерации. Если StableDiffusion выдает ошибку о нехватки памяти, то ставим галочку на Low VRAM.

Все, теперь просто нажимаем кнопку шедевр Generate и получаем наше изображение в формате 16:9.

До:

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост


И после:

Outpaint в StableDiffusion Stable Diffusion, Нейронные сети, Арты нейросетей, Гайд, Цифровой рисунок, Девушки, Длиннопост

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, делюсь промптами, фотографиями и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 6

SDXL в automatic 1111

Привет!

Совсем недавно, а точнее пару дней назад, в сеть слили модель от StabilityAISDXL0.9. У сообщества была весьма скептическая позиция по поводу этой модели, хотя я, попользовавшись ею на сервисе ClipDrop, был не совсем согласен с общим мнением. Меня подкупила общая детализация, динамический и цветовой диапазон генераций, а также такой реалистично-киношный стиль изображений. Тем не менее сообщество начало искать способы работы со слитой моделью. Быстро выяснилось, что использовать ее можно через интерфейс ComfyUI. А всего через несколько дней StabilityAI выпустила свою официальную версию SDXL для публичного пользования.
Я не очень люблю интерфейс ComfyUI и пошел читать интернет в поиске решений запуска модели на привычном мне автоматике и нашел вот такое решение.
Я и comfyUI

SDXL в automatic 1111 Гайд, Stable Diffusion, Нейронные сети, Арты нейросетей, Длиннопост

Небольшой дисклеймер.
Модель обучалась на изображениях 1024x1024 и требует 12гб видео памяти. Я запустил ее на 8 VRAM. Я к тому, что можно проделать все эти шаги, а оно все равно не заработает.

Для теста расширения я использовал портативную версию webui от Христа.

А вот само расширение XLdemo .

Чтобы поставить расширение нам нужно зайти во вкладку Extentions-Install from URL и вставить в верхнюю строчку вот этот адрес https://github.com/lifeisboringsoprogramming/sd-webui-xldemo-txt2img.git . Нажимаем Install и перезапускаем наш StableDiffusion.

После перезагрузки у нас появится новая вкладка на панели SDXL 0.9 Demo. В ней мы увидим небольшую пошаговую инструкцию к тому, что делать дальше. Не пугайтесь, там все очень просто.

SDXL в automatic 1111 Гайд, Stable Diffusion, Нейронные сети, Арты нейросетей, Длиннопост

1. Залогиниться на сайте https://huggingface.co/

Если у вас не было там раньше аккаунта, то создайте его. Сайт умеет логиниться аккаунтами гугла, чтоб не пришлось заполнять руками логины\пароли\почты.

2. Зайти на страницу модели на huggingface.
Тык

Дело в том, что разработчики модели на ее странице оставили внизу небольшой опрос. И если его не заполнить, то файлы для скачивания будут попросту не видны.

3. Создаем новый токен на сайте huggingface.

Вот официальная инструкция с сайта как это сделать https://huggingface.co/docs/hub/security-tokens

Вы заходите в свой профиль ( справа, сверху ), переходите в Settings – Access Tokens и снизу будет кнопка New token. Нажимаете на нее, придумываете любое имя Generate a token. Копируем его в буфер обмена.

SDXL в automatic 1111 Гайд, Stable Diffusion, Нейронные сети, Арты нейросетей, Длиннопост

4. Возвращаемся в наш автоматик и переходим там во вкладку Settings. Находим в левом столбце наше расширение SDXL 0.9 Demo и в единственную строку с настройками вставляем наш токен. Убедитесь, что галочка Enable refiner активна.

SDXL в automatic 1111 Гайд, Stable Diffusion, Нейронные сети, Арты нейросетей, Длиннопост

5. Применяем настройки

6. Перезагружаем наш StableDiffusion.

Если все было сделано правильно, то начнется загрузка моделей. Это может занять весьма немало времени, модели весят сильно больше 1.5 и их модификаций.

Все, ждем окончания загрузки, переходим во вкладку SDXL 0.9 Demo и пользуемся новой моделью. Стоит отметить, что она не совместима с лорами и ликорисами для моделей на базе 1.5. То есть, со всеми самыми популярными.

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, делюсь промптами, фотографиями и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 4

StableDiffusion/расширения, настройки

Привет!

После очередной неудачной попыткой обновления автоматика1111 мне пришлось устанавливать все с чистого листа. В связи с этим хочу рассказать о настройках, и расширениях которые я использую и которые считаю мастхев для работы в нейросети.

Когда мы установили все нужные python, Git и скачали все нужное с репозитория ( ссылка на офф гит ), первом делом мы все закрываем и лезем в файл webui-user.bat .

Батник

В строке аргументов дописываем


set COMMANDLINE_ARGS=--xformers --autolaunch --theme dark


Где xformers – трансформатор, оптимизирующий запросы ( ускоряет генерации ), autolaunch – автоматически открывает веб-интерфейс после загрузки StableDiffusion и theme dark – делает все темное и клевое в вашем интерфейсе. Если у вас есть учетная запись ngrok.com и их автотокен, то можно вписать в эту же строку аргументов

--ngrok ВашТокен:ВашЛогин:ВашПароль

Для чего это нужно? Для удаленной работы на вашем сервере StableDiffusion. При загрузке в терминале, по мимо локального адреса, будет генерироваться внешняя ссылка, перейти на которую можно с любого другого места или устройства. Так же можно добавить аргумент –listen. Он позволяет работать на вашем сервере с любого устройства вашей локальной\домашней сети. В адресной строке со стороннего устройства нужно будет перейти по локальному адресу сервера+порт.

Еще перед всеми строками set в батнике можно написать вот такую строку

for /d %%i in (tmp\tmp*,tmp\pip*) do rd /s /q "%%i" & del /q tmp\tmp* & rd /s /q pip\cache

По заверению автора – чистит кэш и не дает разрастись папке нейросети через чур сильно.

Расширения

Список расширений для автоматика без которых, ну, как без рук себя чувствую.

Всех их можно скачать через Extention-Avaible-Load from: через ваш веб-интерфейс. Так же есть ссылка на страницы гитхаба, где авторы расширений подробно о них рассказывают.

- Controlnet

Думаю, что не нуждается в представлении. Имеет просто кучу применений, из которых самые очевидные – позы персонажей, стилизация изображения.

Модели разных типов, размеров и для разных задач можно скачать здесь

Тык
Тык
и Тык

Переходим во вкладку Files and versions и качаем оттуда файлы с расширением .safetensors. Это и есть наши модели. Положить их нужно в папку автоматика %\ stable-diffusion-webui\models\ControlNet.

- Canvas Zoom

Будет очень полезен, если вы много времени проводите во вкладе inpaint. Позволяет отделять ваше изображение от страницы отдельным слоев, дает возможность его увеличить, имеет кучу настраиваемых хоткеев.

- Image Browser

Добавляет возможность просматривать раннее сгенерированные изображения прямо в интерфейсе автоматика. Без него приходится лезть в папку StableDiffusion, искать там папку outputs, там искать свое изображение, случайно ее закрыть и все повторить еще раз, а может и еще раз)

- After Detailer

Прямо из вкладки txt2img позволяет исправлять лица, силуэты и местами руки. С этим расширением проводишь гораздо меньше времени в inpaint.

- Dynamic Thresholding

Предназначен сглаживать шум и убирать эффект пережжённого изображения при больших значениях CFG Scale. На некоторых моделях просто необходим.

- Lycoris

Позволяет использовать файлы Lucoris. Принцип похож на Lora, но не Lora) Точно так же на том же civitai можно найти файлы lycoris, которые будут добавлять вашим генерациям стилизацию или любые другие дополнительные эффекты.

- Civitai Helper

Интеграция с сайтом civitai.com, откуда, скорее всего, вы и скачали большинство своих моделей, лор, ликорисов и текстовых инверсий. После сканирования добавляет обложки и быстрые функции вашим карточкам. Возможность перейти на страницу раздачи на civitai, добавить ключевые слова сразу в ваш промпт.

- Dynamic Prompts

Имеет сразу несколько функций в себе. Дает возможность стилизовать ваши генерации при помощи Wildcards, которые можно скачать на civitai или написать самому. Добавляет ползунок Magic Prompt. В зависимости от силы воздействия будет изменять и добавлять что-то в ваш изначальный промпт.

- Aspect Ratio Selector Plus

Добавляет кнопки быстрой смены разрешения и соотношения сторон для генерации.

Для комфортной работы и генерации практически любых изображений этого должно быть достаточно.

Плюс сверху можно поставить несколько расширений для "поиграться" с генерацией видео

- CD-CN-Animation

Расширение создает весьма интересные видео ролики. Если правильно подобрать настройки, то можно добиться очень качественных и динамичных результатов. По нему я делал обзор вот тут .

-Infinite Zoom

Создает видео с бесконечным эффектом удаления или приближения картинки. Очень редко там получалось что-то достойное, но позалипать очень круто)

-Deptmap

Расширение вычисляет из вашего изображения маску глубины и тепловую маску и на их основе делает небольшие ролики с параллакс эффектом.

А теперь, когда все готово, то мы можем пойти и сгенерировать каких-нибудь красивых картинок

StableDiffusion/расширения, настройки Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Расширение, Длиннопост
StableDiffusion/расширения, настройки Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Расширение, Длиннопост
StableDiffusion/расширения, настройки Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Расширение, Длиннопост

Надеюсь, что вам никогда, ничего переставлять не придется, а мой список расширений и пара настроек была вам полезна =)

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, делюсь промптами, фотографиями и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 3

Zoom от Midjorney и Photoshop+FF

Привет!

В Midjorney появилась функция outpaint, там она называется Zoom. Хочу рассказать как при помощи нее и Photoshop с нейросетью Fire Fly сделать ваши генерации максимально детализированными, четкими и самое главное фотогеничными.

Допустим, что мы сгенерировали в MJ ( Midjorney ) фотореалистичное изображение девушки, идущей по улицу в дождь и применили функцию Zoom 4 раза.

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


На самом деле получается афигенно прямо из коробки, но можно сделать лучше!

Поскольку изображение после зума кукожется до минимального разрешения, то мы теряем в резкости и мелких деталях.

И так, открываем в Phoshop нашу самую широкую картинку и обычным DragAndDrop закидываем остальные в порядке "ширости". То есть самым последнем верхним слоем будет лежать самое первое изображение. Далее выключаем отображение всех слоев, нажав на значок глазика у слоя, кроме фонового слоя и следующего.

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


Ну, а далее выбираем наш слой над фоном, у меня он называется "orig3", убавляем его непрозрачность где-то на половину и нажимаем комбинацию кнопок Ctrl+T, включив режим свободного трансформирования.

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


А дальше мы просто, схватив мышкой за угол изображения, подгоняем картинку так, чтоб наши изображения совпали. Проделываем этот трюк поочередно с каждым из слоев и получаем по итогу что-то такое.

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


Думаю, что вы обратили внимание на то, что у каждого из наших перенесенных слоев на миниатюре есть серый значок. Это обозначение говорит нам о том, что наши слои являются смарт-объектами, а это, в свою очередь, значит, что при любых наших манипуляциях со слоем он не потеряет в детализации и качестве.

Таким вот образом мы получили повышенную детализацию в центре кадра.

Осталось только немного причесать наше изображение.

Поскольку при ZOOMе в MJ генерируется каждый раз новая картинка, а не только заполняются области, то мы имеем на выходи каждый раз различия в каких-то деталях. Я к тому, что при склеивании наших изображений могут появляться явные видимые границы, но с этим нам как раз поможет Photoshop+FF и его инструмент "Удалить".

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


Если Удалить не справляется, то можно воспользоваться классическими восстанавливающими кистями, ну или на крайний случай сделать частотку. Я же не стесняюсь перегенерировать непонравившиеся мне области прямо в Photoshop.

И после всех наших манипуляций, чтоб наш кадр выглядел совсем как не сгенерированная картинка сделаем небольшой кроп на 16:9, накинем на изображение легкую С-образную кривую, добавим немного зерна и резкости.

На выходи у нас получается вот такой результат:

Zoom от Midjorney и Photoshop+FF Нейронные сети, Photoshop, Арты нейросетей, Цифровой рисунок, Midjourney, Длиннопост


Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, делюсь промптами, фотографиями и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 6

Видео из изображения в StableDiffusion

Привет!
Хочу рассказать о расширении для Stable Diffusion, которое позволяет делать интересные короткие видео. Сами ролики получаются хоть и не очень контролируемые в процессе гениреции, но весьма эффектно выглядящие.

Расширение называется SD-CN-Animation.
https://github.com/volotat/SD-CN-Animation
Поставить его можно из вкладки Extension в вашем UI. После установки перезапустите ваш сервер, чтоб на панели появилась новая вкладка SD-CN-Animation.

Расширение позволяет генерировать видео из видео и видео из изображения. Рассмотрим второй вариант – генерацию видео из изображения.

Для начала сгенерируем наш референс. У меня это будет, скажем, цветок.
Выбираем любимую модель, настройки и генерируем.

Видео из изображения в StableDiffusion Нейронные сети, Stable Diffusion, Арты нейросетей, Гайд, Инструкция, Видео, Без звука, Длиннопост


Переходим во вкладку с нашим расширением, внутри него переходим во вкладку txt2vid и вставляем в окно input image наше изображение. Далее выставляем размеры, прописываем промпт, негативы и CGF Scale как при первой генерации.

Видео из изображения в StableDiffusion Нейронные сети, Stable Diffusion, Арты нейросетей, Гайд, Инструкция, Видео, Без звука, Длиннопост


Опускаемся чуть ниже.
Seed можно сбросить – тогда ваша генерация будет более вариативна.
Processing strength ( step 1 ) – можно оставить на значении 0,85. У меня на конечный результат этот ползунок не очень влияет.
Fix frame strength ( step 2 ) – по умолчанию стоит на 0,35. В принципе приемлемый результат. Влияет на визуальный эффект таким образом, что если показатель будет слишком большой, то видео будет “уплывать” вверх, а если очень низкий, то будет совсем статичное. Я выставил значение 0,4.
Сэплер и количество шагов ставим как при генерации первого изображения.
Length ( in frames ) и Video FPS – продолжительность и количество кадров в секунду. Я поставил 120 и 12.

Видео из изображения в StableDiffusion Нейронные сети, Stable Diffusion, Арты нейросетей, Гайд, Инструкция, Видео, Без звука, Длиннопост


В итоге мы получили вот такой интересный результат.


Результат можно найти в папке автоматика outputs – sd-cn-animation – txt2vid

Генерация с такими значениями на моей RTX 3060 ti занимает, примерно, 10 минут.

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, делюсь промптами, фотографиями и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 3 1

Stable Diffusion по локальной сети

Привет!

Сегодня хочу рассказать о том как расшарить по локальной сети ваш Stable Diffusion. Скажем, у вас есть дома компьютер на который установлен автоматик. Но вечерами не хочется сидеть за столом, а хочется лежать в кроватке с ноутбуком и генерировать картинки.

Решение есть!

И, все как мы любим, делается в пару строк и кликов.

Поехали

Чтоб запустить локально с любого устройства в домашней сети – нужно добавить в батнике webui-user.bar ( с которого вы запускаете автоматик ) к строке “set COMMANDLINE_ARGS” вот такой аргумент “--listen” . Выглядит это, примерно, так:

Stable Diffusion по локальной сети Stable Diffusion, Арты нейросетей, Инструкция, Нейронные сети, Длиннопост

Сам батник можно открыть любым блокнотом.

Теперь при запуски неросети в терминале будет отображаться не привычный нам адрес 127.0.0.1:7860, а 0.0.0.0:7860. Это значит, что все получилось.

Stable Diffusion по локальной сети Stable Diffusion, Арты нейросетей, Инструкция, Нейронные сети, Длиннопост

Все, что нам остается сделать – это узнать локальный адрес компьютера на котором установлен автоматик и по нему, добавляя порт :7860, заходить с любого удобного нам устройства. В моем случае – это 192.168.0.195:7860

Stable Diffusion по локальной сети Stable Diffusion, Арты нейросетей, Инструкция, Нейронные сети, Длиннопост

Чтоб узнать свой локальный IP внутри домашней сети нужно в терминале ввести команду ipconfig.

Все, вы великолепны и можете пользоваться нейросетью с любого устройства у себя дома.

З.Ы. Есть нюанс, с аргументом "--listen" перестают работать обновления расширений. Чтобы их поставить просто уберите этот аргумент.

Спасибо тем, кто дочитал до конца!

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, фотографии и рассказываю про обработку:
https://t.me/artemphotography

Картинка бонусом :)

Stable Diffusion по локальной сети Stable Diffusion, Арты нейросетей, Инструкция, Нейронные сети, Длиннопост
Показать полностью 2

Хроматические аберрации ( экшен внутри )

Привет!

Сегодня хочу рассказать о таком оптическом эффекте как хроматические аберрации.
Что это такое, откуда они берутся и как легко и просто с ними бороться.

Вот, что нам говорит по этому поводу Википедия
Хроматические аберрации - искажения изображения из-за зависимости показателя преломления среды от длины волны излучения, проходящего через эту среду (аберрация обусловлена дисперсией света). Из-за явления дисперсии фокусные расстояния для различных длин волн (лучей разных цветов) различны и не попадают в одну точку, называемую фокусом (точкой фокусировки)

Если по-простому, то это паразитное цветное свечение вокруг объекта. Возникает, как правило, на максимально контрастных объектах, а так же из-за не самой лучшей оптики, сильно открытой диафрагме и использования дополнительных фильтров на вашем фотоаппарате.

Обычно бороться с аберрациями на посте нам помогают кисти, уменьшения насыщенности какого-то цвета и всевозможные маски. Я хочу показать как можно от них избавиться не самым явным, но очень простым способом. Мы будем использовать цветовое пространство LAB и фильтр Пыль и Царапины.

У нас есть вот такое фото, сделанное в контровом свете и с использованием софт фильтра:

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


Мы видим, что вокруг нашей модели есть какой-то розовый ореол, а если увеличить изображение, то все становится вообще плохо:

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост

Начнем

Открываем наше изображение в Photoshop. Первое, что мы делаем – это дублируем фоновый слой. Всегда работайте на копии слоя, что можно было в любой момент вернуться к оригиналу. Мы выбираем наш фоновый слой и нажимает комбинацию клавиш CTRL+J.

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


Далее нам нужно перенестись в цветовое пространство LAB. Изначально, если вы ничего не меняли, стоит пространство RGB. Нажимаем на кнопку Изображение на верхней панели и в выпавшем меню переходим в Режим-LAB. Photoshop может спросить о выполнении сведения, нажимайте Нет, иначе все ваши слои схлопнутся в один.

Теперь мы можем перейти во вкладку Каналы нашего выбранного слоя. И первое, что бросается в глаза – это то, что нет больше привычных нам каналов: Красный, Зеленый и Синий. Тут же мы видим каналы a, b И канал яркости. Дело в том, что LAB по-особенному разбивает изображение. Канал “a” отвечает за цвета от зеленого до мадженты, а канал “b” за цвета от синего до желтого и все это отдельно регулируется яркостью в канале “Яркость”.

Но это мы чуть отвлеклись. Переходим во вкладку Каналы. Она находится прямо рядом с кнопкой Слои.

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


Нажимаем левой кнопкой мыши на канал “a”, чтоб выключились остальные и получаем такое изображение.

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост
Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


На нем четко виден контур вокруг нашей модели. Это и есть то, что нам нужно поправить, то есть наша аберрация.

Мы переходим во вкладку Фильтр-Шум-Пыль и Царапины. Все это находится на верхней панели.

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


И в окне с эффектом мы выбираем такое значение при которым наш ореол исчезнет или будет едва виден. Нажимаем OK.

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


У меня получился приемлемый результат на значении 6.

Запоминаем это число и проворачиваем все тоже самое, с теми же значениями в фильтре, только для канала “b”.

Далее включаем все каналы, нажав на самых верхний Lab и переносимся назад в привычное нам пространство RGB. Изображение - Режим - RGB.

До\После:

Хроматические аберрации ( экшен внутри ) Photoshop, Фотография, Фотошоп мастер, Обработка фотографий, Портрет, Хроматические аберрации, Длиннопост


Ну, вот и все!
В пару кликов, без кистей и масок мы избавились от неприятного оптического эффекта. Теперь весь этот процесс можно записать в экшен и автоматизировать все до нажатия одной кнопки.

А на самом деле я уже сделал это за вас! Берите, пользуйтесь!
Значение в фильтре выбрал усредненное, как мне кажется, 6.

https://disk.yandex.ru/d/aGnFP0F0yTUatQ

Спасибо тем, кто дочитал до конца!

З.Ы. Изображение было выбрано только для отработки приема

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, фотографии и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 9

Угадайте звездного капитана юмористической команды «Сборная Красноярска» по описанию одного из участников

Ну что, потренировались? А теперь пора браться за дело всерьез.

Показать полностью

Параллакс в Photoshop. А так можно было?

Привет!

Сегодня хочу рассказать об одном интересном и совсем неочевидном приеме в Photoshop, а именно - как при помощи только нашей любимой программы смонтировать небольшое видео с эффектом параллакса без использования стороннего софта для монтажа видео.

Начнем же!
Для начала переходим в Photoshop, выбираем изображение, которое будем "нарезать" и дублируем фоновый слой.
( всегда работайте с копиями слоев, чтоб можно было в любой момент вернуться к исходному варианту )
Я выбрал вот такое изображение, которое я сам сгенерировал в нейросети.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Копию слоя можно сделать сочетанием клавиш "CTRL"+"J", выделив изначально фоновый слой. Вот так:

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Принцип работы будет такой: мы вырезаем из копии фонового слоя объекты, накладываем их на новые слои, а потом заставляем смещаться по нужным нам направлениям.

Как это сделать?
Я покажу пример с двумя слоями, но их может быть сколько угодно, в зависимости от вашей идеи и начального изображения. Я отделю персонажа от фона и буду их смещать. Повторю, можно выделять отдельные предметы, детали, несколько персонажей и тд. и все это заставить двигаться.

Начнем

Для начала выделим нашего персонажа и вырежем его из фона

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Я использую инструмент "Быстрое выделение" и функцию "Выделить предмет", далее корректирую мышью, если нужно. При помощи клавиши "Alt" можно добавлять или убирать области.

Дальше нам нужно перенести наш выделенный объект на новый слой. Можно создать для этого новый пустой слой и при помощи "CTRL"+"C" и "CTRL"+"V" скопировать нашу выделенную область, а можно просто нажать "CTRL"+"J" и все это сделается автоматически :)

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Теперь нам нужно перенести наш контур назад на "Слой 2". Для этого с зажатой клавишей "CTRL" нажимаем на миниатюру изображения второго слоя, выключаем его видимость ( убираем глазик слева от миниатюры ) и выделяем "Слой 1", делая его активным.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Нажимаем правой кнопкой мыши внутри выделенной области и выбираем пункт "Выполнить заливку...". В новом окне выбираем "С учетом содержимого" и ОК.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Теперь осталось чуть-чуть почистить контуры на фоновом изображении и мы почти готовы к монтированию. Я использую инструмент "Точечная восстанавливающая кисть", но в можете использовать любой удобный вам.
В итоге должно получится что-то такое:

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Ну, а теперь самое интересное - кусочек Premiere внутри Photoshop.
Наверху нажимаем на кнопку "Окно" и выбираем из списка "Шкала времени".

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Но прежде чем начинать, нам так же нужно перевести наши слои в смарт объекты. Делается это очень просто. Нажимаем справа на наш слой правой кнопкой мыши и выбираем пункт "Преобразовать в смарт-объект". На миниатюре слоя должна появится иконка с загнутым листиком.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Ну, а теперь переносимся к нашей шкале времени, раскрываем наши слои и поочередно меняем значение перспективы. Нажав на иконку с часами на отметки в 0 секунд создастся точка отсчета эффекта. Передвигаем ползунок времени в самый конец и нажимаем на на ромбик рядом с часиками. Появится вторая точка, в которой наш эффект будет максимальным.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


А далее, используя инструмент "свободное трансформирование", клавиши "CTRL"+"T", с зажатой кнопкой "ALT" увеличиваем наше изображение до нужного вам значения.

Параллакс в Photoshop. А так можно было? Нейронные сети, Photoshop, Гайд, Портрет, Фотография, Параллакс, Видео, Без звука, Вертикальное видео, Длиннопост


Не забываем после изменения размера нажать на галочку сверху, чтоб сохранить положение.
То же самое проделываем с нашим вторым фоновым слоем, только увеличение по перспективе делаем меньше, чем на первом слое. При первом просмотре внутри Photoshop могут быть фризы. Не пугаемся, он просто рендерится.

Чтоб сохранить видео нажимаем на "Файл"-"Экспортировать"-"Экспорт видео". Там выбираем настройки по вкусу.

Ну, вот и все!
Я показал самый простой кейс, а можно резать изображения на 2, 3 и более слоем и заставлять их двигаться не только вперед и назад, а вообще в любую сторону. Можно добавлять корректирующие слои и при помощи непрозрачности прибавлять яркость, насыщенность и тд. Так же можно добавлять текст, который будет динамично появляться и вообще все, что вы захотите.

Этот способ никак не заменит профессиональные решения по монтажу видео, но, если вы хотите быстро анимировать свое изображение, сделать интересные сторис или просто побаловаться прямо в Photoshop, то этот способ будет очень полезен!

Спасибо тем, кто дочитал до конца!

З.Ы. Изображение было выбрано только для отработки приема

Так же буду рад вас видеть в своем телеграм канале, где я выкладываю свои нейро-арты, фотографии и рассказываю про обработку:
https://t.me/artemphotography

Показать полностью 11
Отличная работа, все прочитано!