![]() | ![]() | ![]() | |||||||||||
![]() |
|
||||||||||||
![]() | ![]() | ![]() | |||||||||||||||
![]() |
|
||||||||||||||||

Техническая поддержка
ONLINE
![]() | ![]() | ![]() | |||||||||||||||||
![]() |
|
||||||||||||||||||
Phygital+ workshop для БКС
ruticker 05.03.2025 16:01:08 Текст распознан YouScriptor с канала Phygital+
распознано с видео на ютубе сервисом YouScriptor.com, читайте дальше по ссылке Phygital+ workshop для БКС
Не достаточно, а самой записи. Вот поэтому с такими форматами данных можем работать. Если говорить про наш интерфейс, я думаю, большинство уже познакомились. Это нодовый интерфейс, где у нас каждая неровная сеть или каждый инструмент — это отдельный блок, который можно перемещать, копировать, соединять друг с другом. Да, у нас также есть ChatGPT. У нас он есть в трёх форматах: 1. **GPT-4** — это обычный GPT, который можете там также в OpenAI получить. То есть у нас он просто в нашем интерфейсе, это оригинальная модель. 2. **Пер** — это та модель, которая помогает вам по одному слову. Например, если я запишу "иконка", он мне сможет быстро сгенерировать промт и помочь также. Вот в этом сократить время на долгие подборы каких-то ключевых слов. 3. **AI Support** — это по сути умный ассистент, который помогает вам больше узнать о продукте. Если у вас есть какие-то вопросы, то есть в целом, я ещё попозже про это скажу. Но в целом, AI Support — это по сути нейронная сеть, которая обычна на нашем интерфейсе, да, на всех в наших нейронных сетях на их настройках. Поэтому, например, если вы хотите узнать, что такое ФГС — новая модель, которая у нас добавилась пару недель назад, можете у него спросить. Также, например, "А что такое КС?" и он даст ответ. Вот, также хочу напомнить, что у нас есть проекты. Я думаю, вы видели, что можете их шарить. У нас также есть история, некоторые её не замечают. Это история всех генераций, которые здесь есть. Да, она доступна по каждому аккаунту. Если вы захотите какие-то из ваших результатов, если вдруг вы их потеряли на воркспейс, вы можете их найти всегда в истории. Вы можете их сохранить, нажав на **Save**. Вы можете также добавить ноду. Вот, а это прямо совсем вкратце про интерфейсы. То, что у нас слева, естественно, есть нейронки и также очень много темплейтов. И важно, что у нас есть **мни поиск**. Например, если мы хотим условно что-то найти, мы можем по-английски. Например, если мы хотим что-то изменить, да, например, мы хотим изменить волосы, можем просто написать "change", у нас появятся все инструменты, темплейты, которые могут под вашу задачу как-то помогать. Например, если введём "icon", да, здесь будет. Вот так. А давайте вернёмся к презентации. Здесь будет немного пересекаться с вашими вопросами, поскольку постаралась сделать такую небольшую обзорную презентацию по нашим возможностям. И я понимаю, что у многих, когда они заходят к нам, у них есть первая проблема, с которой они сталкиваются — это у нас несколько генераторов картинок из текста и какой из них выбрать. У нас на самом деле сейчас представлены самые четыре, наверное, более используемые нейронные сети: это **M Journey**, **DALL-E 3**, **FLX** и **Stable Diffusion**. Stable Diffusion есть в двух моделях, про них тоже расскажу чуть попозже. А самое главное, что нам нужно понять, то что, наверное, самые наиболее используемые и которые дадут вам наиболее хороший результат при минимальных усилиях — это **M Journey** и **FLX**. M Journey хорошо работает для текстур, для абстракций, для фонов, презентаций, для иконок, для дизайн-элементов. Например, вот эта картинка, которая здесь у меня на фоне, я её сгенерировал буквально за 1 минуту. Здесь что важно, сам M Journey у нас такой же функционал, как в Боте в оригинальном, и здесь некоторые настройки вынесены прямо в отдельные параметры, чтобы у вас не плодилось ничего в МТИ, если вы раньше работали с M Journey. Например, если мы включаем тайлинг, можем получить прямо картинку, которую можно копировать друг за другом, и получается растягиваться на бесконечный фон для презентации. Если нужны какие-то большие разрешения, а также M Journey чем хорош, то что он хорошо помогает генерировать дизайн-элементы. Но у него есть небольшие проблемы: это то, что не всегда проходит цензура, особенно если мы говорим про известных людей, которых сейчас нельзя генерировать. И, естественно, по некоторым вещам он выдаёт, что контент может быть потенциально вредным. То есть как потенциально нарушать какие-то нормы морали. Иногда это немного абсурдно, потому что там вообще ничего такого нет. Вот и из-за этого как раз мы рекомендуем попробовать FLX, потому что по сути это такая небольшая замена M Journey в плане того, что более гибкий. Он позволяет генерировать изображение в примерно похожем качестве, как в M Journey, плюс у FLX нет таких артефактов с людьми, как у DALL-E. То есть у DALL-E есть такая проблема, в принципе, как у большинства всех этих нейронок. DALL-E 3, Stable Diffusion — есть проблема, что если вы будете генерировать, например, фотографию для LinkedIn или фотографию, которую вам нужно вставить в презентацию, вы можете увидеть, что у человека могут быть немного какие-то глаза, какие-то стеклянные или шесть пальцев. Это прямо классическая история. FLX с этим справляется просто отлично. Он генерирует вообще без артефактов. У меня никогда не было, чтобы сгенерировал больше пяти пальцев или четыре пальца. Вот поэтому у него качество прямо хорошее. Естественно, из-за этого рекомендуем, если вы хотите делать какие-то фотографии именно с людьми, это, конечно, FLX. Также FLX очень хорошо следует ту, потому что раньше было мнение, что в целом DALL-E — это лучшая нейронка, которая позволяет вам, вот вы вписали условно "иконка красного цвета на синем фоне", а DALL-E поймёт, что вот красная иконка синий фон. А другие нейронки могут поменять местами, могут начать как-то менять цветовую гамму. Вот GС в этом плане даже превосходит DALL-E 3. Он также хорошо следует ту, особенно если у нас несколько цветов. GС с этим справляется не всегда, к сожалению. А у DALL-E третьем на самом деле очень много кейсов по использованию для иконок, логотипов и объёмных имиджей для 3D и для иллюстраций. И также он генерирует очень быстро. Но есть проблема с тем, что у него всего доступно три разрешения. Если мы перейдём, вот все эти картинки, естественно, я здесь сгенерировал, чтобы потом показать вам. Да, то есть условно вот M Journey, который мы сгенерировали, вот DALL-E 3, вот Stable Diffusion и вот FLX. А у DALL-E третьего в нашем интерфейсе у него есть несколько параметров: это **Quality** и **Size**. Quality по сути немного меняет детализацию. Я обычно всегда генерирую на стандарт. Мне кажется, это лучшее соотношение, но некоторые эксперты HD. Но всего три размера: 104 на 1024 и вертикальные, горизонтальные 1698 на 1024. К сожалению, вот такие вот есть ограничения. Но в целом, если мы говорим про генерацию каких-то дизайн-элементов, часто как раз именно квадратного изображения достаточно. А если мы говорим про GС, он принимает любые разрешения до 1524 на 1524. И, наверное, сразу хочу дать такой небольшой лайфхак, потому что понимаю, что иногда писать промт очень тяжело. У нас есть специальная нейронка, обученная на GPT-4 для написания промтов, который прямо генерирует по одному маленькому слову хороший промт и даёт все нужные слова. Вы можете использовать, лучше всего она работает для FLX и для Stable Diffusion, называется **Prompt Generator**. Если мы идём в промт, слева у нас здесь появится просто в списке всё то, что нужно. Например, если мы введём "лого", он нам сделает промт-идею вообще со всем стилем, с всеми нужными элементами прямо за буквально за одну секунду. Мы также можем писать туда на русском, да, то есть это тоже важный момент, то что некоторые нейронные сети не принимают русский язык. Например, не принимают M Journey, не принимают FLX. А если мы хотим сгенерировать промт, можем через Prompt Generator. Например, давайте впишем даже просто "гора", он сгенерирует нам промт на английском, который мы сможем использовать дальше. Вот, DALL-E третий, кстати, понимает на русском языке, поэтому некоторые у нас используют его вот именно на русском. А дальше хочу сказать про нейронную сеть, которая называется **Stable Diffusion**. У нас здесь есть две модели: это **Stable Diffusion XL** — это, наверное, пока что самая такая лучшая модель, в которой наибольшее количество контроля, и есть **Stable Diffusion 3**. Если говорить вкратце, Stable Diffusion — это, наверное, самый наиболее компромиссный вариант, когда вы хотите иметь наибольшее количество свободы, когда вы хотите не переживать, что там нейронка что-то вам не сгенерирует, потому что Stable Diffusion может сгенерировать абсолютно всё. Вот абсолютно все лицензионные персонажи, которые известны. Если мы говорим про то, что знает Stable Diffusion, это примерно до 2021 года. Да, всё то, что знает интернет, знает Diffusion. Вот, Stable Diffusion чем хорош — нет никаких ограничений, больше контроля, потому что больше параметров. Но всё равно встречаются артефакты, всё равно нужны длинные промты. Если мы говорим про уровень контроля, то это достигается тем, что у нас параметры, которые позволяют вам прямо на каждом этапе постараться. Что я имею в виду? Например, у нас в... Вот она так выглядит. У нас здесь вот поле для промта, поле для негативного промта. Например, у нас есть специальные уже пресеты для стилей. Да, например, если вы хотите сгенерировать в каком-то конкретном стиле, вам не нужно писать длинный промт, там использовать. Вы можете просто выбрать нужный стиль и вписать туда то, что мы хотим. Также важный момент, что в Stable Diffusion могут пригодиться параметры, которые очень сильно влияют на генерацию. Это параметры, которые называются **Models** и параметры **Lora**. Что такое Models? Models — это по сути такие основы для генерации в Stable Diffusion XL. Вот представьте, что у вас есть какая-то вещь, которая в цвете один, в цвете два, в цвете три. Или, например, есть вещь, которая в базовом варианте, как iPhone, да, а есть там iPhone Pro, там iPhone Pro Max. И условно, Models — это как раз вариации вот этой базовой версии iPhone, iPhone Pro, Pro Max. И если мы выбираем нужную модель, это позволяет нам направлять генерации в нужное русло. Например, если мы сгенерируем Real, она будет генерировать просто отличное изображение в фотореализме. Если мы хотим сгенерировать аниме, мы можем даже не писать длинный промт, можем просто выбрать нужную модель. А также есть второй параметр — это **Lora**. По сути, это знаете, это такие маленькие дополнительные настройки, которые просто направляют вашу генерацию в какую-то сторону. Да, вот, например, давайте здесь попробуем, что он нам предлагает. Допустим, вот портрет Деппа. Не хочу, можем вообще в целом здесь написать и воспользоваться встроенной функцией улучшения промта прямо отсюда. Вот, на улочку. Вот, кота нам использовать? Нет, не хочу кота. Давайте даже вот так сделаем. И, например, мы используем модель, и у нас есть, например, параметр, который позволяет увеличивать детализацию. Убираем этот параметр, то при всех остальных одинаковых настройках мы увидим, что детализация будет хуже. Также, например, Lora позволяет нам направлять стиль или, например, исправлять какую-то часть генерации. Да, например, он позволяет, например, улучшать глаза или улучшать руки. Можно использовать до трёх Lora одновременно. Вот эти все списки идентичны. Да, просто по умолчанию можете выбирать 1, 2 или сколько вам нужно. Также интересно, что здесь у нас есть стилизованные Lora, которые, например, позволяют вам сгенерировать на Pixel Art. Да, а просто меняя нужную Lora, мы получим нужный результат. А также хочу заметить, что в каждой ноде Stable Diffusion XL, FLX, особенно у них есть такой параметр, как **SD**. Вы иногда можете столкнуться с проблемой, что вы меняете промт, а или вы нажимаете "Старт" ещё раз. То есть для того, чтобы перегенерировать, нужно просто нажать "Старт" ещё раз. Но если вы сталкиваетесь с тем, что у вас картинка каждый раз одна и та же, проверьте, что **Seed** вот здесь не закреплён. А Seed по сути — это начальная точка генерации. И если у вас число будет одно и то же постоянно, то и генерация будет похожа. Поэтому, если вдруг у вас генерации не отличаются, просто здесь закрепляем галочку. Вот, если говорить про различия Stable Diffusion третьего и от Stable Diffusion XL, то на самом деле Stable Diffusion 3 — это более новая модель, но на самом деле она даёт худшее качество. Почему так получается? Потому что в Stable Diffusion 3 больше цензуры, больше ограничений, но по умолчанию он генерирует изображение более качественно. Где мой любимый? Например, давайте снова попробуем сгенерировать фотопортрет. Если мы возьмём и сгенерируем в Stable Diffusion XL, здесь возьмём модельку Realism, мы увидим, что Stable Diffusion XL генерирует по умолчанию 104 на 4, 1536 на 1536. 3 генерирует быстрее, но он иногда у нас здесь вот старая женщина. Да, ну ничего страшного, он хорошо даёт детализацию, даёт меньше артефактов, но иногда даёт изображение размытое, что не очень хорошо, и негативный промт не спасает. Поэтому, если мы говорим про Stable Diffusion 3, он хорош, знаете, для быстрых каких-то концептов фотографий, если вы не хотите там идти в... Но в целом мы видим, что наиболее популярна нейронная сеть — это Diffusion и FLX на данный момент. Ну, естественно, DALL-E не для тех, у кого именно они хотят использовать его. Так вот, допустим, вот у нас мужчина здесь, и вот с детализацией у нас уже другие брови. Так, а по этому моменту вот так. И здесь также я говорю про контроль над генерацией. Почему это важно? Потому что, например, некоторые нейронные сети, например, DALL-E 3, он не может воспринимать на вход изображения. Да, например, у вас есть какой-то референс, и вы хотите на основе этого референса что-то сгенерировать. Можете сделать это в M Journey у нас, но вам нужно будет в начале промта, как вы бы это сделали в Дискорде. Мы скоро сделаем возможность, скорее всего, добавления прямо вот так. А, но, например, в DALL-E третьем нельзя это сделать. Да, а в Stable Diffusion третьем вы тоже не можете подключить изначально изображение, чтобы от этого как бы отталкивать генерацию свою. А в Stable Diffusion XL вы можете это сделать. У нас прямо вот эта отдельная нода Stable Diffusion XL **Image to Image**, и у нас здесь вот прямо есть **Start Image**, которую вы можете подключить. А во FLX также можно подключать **Start Image**. А вот по поводу генераторов здесь, наверное, всё. Если вдруг у кого-то остались вопросы, давайте, может быть, прежде чем перейти к другому блоку, может быть, если есть, давайте попробую ответить. Или в целом пока всё понятно, можно двигаться дальше. Мне понятно. Угу, супер. Ну, если что, то Stable Diffusion третий генерирует больше такой прямо вот какой-то аутентичный портрет, чтобы он был именно портрет портретом. Да, без лишних элементов. XL начинает там что-то кривить душой, а, но зато можем здесь корректировать с помощью модификаторов, с помощью вариаций и так далее. Так, давайте дальше перейдём. По скорости, можно, конечно, по скорости. Я так понимаю, пробовал FLX, он самый медленный, да? А на данный момент, наверное, да, мы стараемся сейчас его ускорить. Вот, но пока что да. Ага, вот если говорить прямо вот по скорости, наверное, по иерархии, то это DALL-E 3, он быстрее, чем потом FLX. Вот, но на самом деле в чём прелесть FLX? На самом деле, наверное, это одно из наиболее частых применений сейчас его, вот именно в бизнесе — это генерация текста. То есть на самом деле даже на аватарке он позволяет хорошо работать с текстом. Нам, потому что вы пробуете это сделать в любой другой нейронной сети. Давайте попробуем сделать, например, "расскажи шки", если генерить, то в ЧМ лучше. Ну, потом сейчас расскажу. Да, допустим, 3К — сложное слово, и попробуем вот этот же промт сразу попробовать во всех нейронных сетях. Да, у нас нодовый интерфейс, можем сделать это легко. Мы всегда тестируем на коварных знаках, вроде знак рубля, знак доллара, знак процента. Вот далеко не многие нейронки справляются с тем, чтобы попробовать написать качественно хотя бы тот же знак процента. Угу. На самом деле со знаком процента точно справляется, да, то есть прям хорошо. У нас даже, по-моему, есть лейт в продукте. Вот здесь, да, **Create Infographic Style**. Они прям вот, ну, справляются сейчас. Ну, красота, да, супер. Так, а меня слышно? Да-да, да, так звук пропал. Да, вот, например, DALL-E, да, справляется прямо отлично со всеми этими задачами. Вот и FLX тоже справится, потому что он прям хорошо понимает. Так, здесь он у меня не принимает, скорее всего, из имени артистов. Вот, кстати, DALL-E тоже он в этом плане не очень хорошо справляется, потому что он часто не пропускает имена каких-то художников, не пропускает имена известных людей. Вот, поэтому, конечно, FLX без цензуры лучше всего справляется. Так, да, они не выдают. Конкретно что? А мы сейчас он не показывает, но мы прям вот буквально на следующем релизе мы это сделаем, потому что прям видим, что на это есть запрос. Да, вот сейчас сравним. Да, что сделали. Я понимаю, что, наверное, промт такой на коленке, но так или иначе задача на самом деле сложная. Да, сгенерировать текст из камней. И вот в целом видим то, что да, можем посмотреть, нажав на любое изображение. Да, что вот он тоже как-то, ну, не очень справляется. У нас по умолчанию стоит версия 0. Если вдруг кому-то это важно, в M Journey 6.1 стоит, можете переключать. У нас здесь есть прямо параметр версии, если вдруг для кого-то это прямо нужно. Вот, а, давайте пока ждём, расскажу про 3D. У нас есть нейрон, который так называется **3D From Image**. Да, она на вход принимает изображение, и лучше всего, конечно, использовать изображение, в котором можно отделить на фоне что-то. Да, а ну давайте сейчас. У меня был, по-моему, дракон. Ну, я скорее про вот, да, именно генерацию, как там проценты и типа подобные объекты, там какие-то, ну, чтобы это было видно, что это какая-то там, как иконка. Триш, там логотип Apple был как иконка, вот сможет он из логотипа Apple сделать 3D модель? Сес? Нет, не 3D модель. Ну да, чтобы она была обм. Вот так, да, ну то есть имитация 3D. И это можно, да, это можно делать в... Да, даже на самом деле этим ещё исправляется. У нас прямо отдельный стиль на это есть по правой кнопке без фона. Можно, чтобы эта Тришка была сразу там, пнш, ставишь её на любой фон. У нас есть отдельная Back, то есть мы подключаем любое изображение. Вот это, да, кстати, тоже у меня было. Вот, про удаление фона. Вот так. Ну вот смотрите, да, вот как справился со сложным текстом. Вот поэтому, вот ещё многие используют, многие используют для генерации каких-то мав для баннеров. Да, когда, например, хотим там написать какой-то текст, понимаем, что не сделает, что он может там. Можно задать E 16 на параметры. Кстати, если у вас в таких нейронах XL, вам нужно сгенерировать изображение отлично 1024 на 1024, можете написать, и он прям даст вам список параметров, список разрешений, которые вам нужно выставить самой. Но то есть здесь выставляем ширину и высоту, и он прям на 3 на 4, вот там 9 на 1, 4 на 5, 4 на 3, 3 на 2, 16 на... Да, вот прямо список, вот те, которые работают хорошо. А вот можем мы сейчас, допустим, выбрать какое-то изображение. Да, вот написано и убрать **Ground**. Это надо было изначально прописать, что без фона. На самом деле лучше это делать несколько шагов. Потом вообще вещь интересная. Здесь я просто тоже написала в небольшом ревью, что на самом деле, вофк, почему-то, если мы впишем в промт **Ground**, он иногда блюрит картинку. Никто не знает, почему, но так происходит. Поэтому там всё тоже связано с фоном. Да, в ФГС лучше это не делать и лучше, конечно, пробовать это там удалить через **Remove Background** через отдельную ноду. Да, то есть лучше сделать два шага, но более точно. Вот поэтому здесь вот так. Ну, давайте попробуем. Почему бы и нет? А так вот я постоянно пользуюсь поиском, потому что на самом деле это позволяет, да, вот, ну, удобно навигировать по приложению и по вообще доступным инструментам. Например, вот я просто писала горячие клавиши. Да, что так быстро достаёшь их все. Я просто такой гипер человек, я не знаю, что писать, то есть быстро передвигаюсь туда-сюда. Вот, ну и просто долго с продуктом работает. Да, у нас на самом деле есть горячие клавиши в приложении. Да, там это базовый Ctrl+C, Ctrl+V, Ctrl+Z, Ctrl... Там, если вы хотите, у нас также есть здесь дополнительные вещи. Например, **Work**, когда прямо отдаляется полностью. Да, есть также, когда у нас они прямо так в рядок встают. Вот, но у меня тут организованный хаос, поэтому я пока не буду. Вот так, сейчас посмотрим, что он нам сделает. Вот в лом для иконок вообще работает хорошо. Вот, и удаление. И в целом, на самом деле, модель, которая используется, у нас многие говорят, что хорошо ещё работает на людях. Да, то есть, например, у нас есть портреты, мы хотим удалить фон. Вот, тоже про это слышали. Вот, поэтому так, что-то, наверное, очередь большая. Сейчас посмотрим, вообще это редкость. Обычно там за 50 секунд генерирует. Сейчас попробуем, может быть, у меня с интернетом что-то не... и она может показаться сложной, но на самом деле, если разобраться, то всё становится гораздо проще. ### Как работает Inpainting Inpainting — это изменение части изображения по маске. Мы берём любое изображение, наводим на него и нажимаем **Inpaint**. Справа появляется окно, где мы можем рисовать. Например, если мы хотим изменить волосы, мы выделяем нужную область, и нейронка изменит всё, что находится в белой зоне маски. #### Примеры использования Inpainting: - **Изменение волос**: Выделяем волосы и указываем, что хотим добавить светлые волосы. - **Удаление объектов**: Например, если на изображении есть стул, который мы не хотим видеть, мы выделяем его и указываем, что хотим увидеть окно вместо стула. ### Различия между Inpainting 1.5 и Inpainting XL - **Inpainting 1.5**: Хорошо меняет объекты, но не всегда учитывает стиль изображения. - **Inpainting XL**: Лучше вписывает изменения в оригинальное изображение, добавляя консистентность, но иногда может менять изображение вне маски. ### Расширение изображения У нас есть отдельная нода для расширения изображения, которая называется **Imom**. Она позволяет увеличить изображение, добавляя новые элементы. Например, мы можем взять изображение и увеличить его, добавив фон. ### Изменение освещения Мы можем подключить любое изображение и указать, какое освещение хотим получить. Это хорошо работает, когда объект в центре изображения. ### Ctrl N Excel Этот инструмент позволяет изменять внешний вид изображения и вытаскивать формы. Он работает в четырёх типах: 1. **Тип Ky**: Вытаскивает линии из изображения, хорошо подходит для иконок и логотипов. 2. **Тип Sketch**: Позволяет получить цветной концепт из нарисованного скетча. 3. **Тип Pose**: Позволяет взять позу из изображения и создать новое изображение на её основе. 4. **Тип Depth**: Генерирует карту глубины, что позволяет менять объекты, сохраняя их расположение. ### Face Restore и Face Enhancer - **Face Restore**: Убирает артефакты с лица. - **Face Enhancer**: Лучше работает с изображениями, где нужно добиться узнаваемости человека. ### Использование изображений как основы для генерации Если мы хотим задать композицию и получить вариацию изображения, используем **Stable Diffusion XL Image to Image** или **FL Image to Image**. Мы можем подключить изображение и задать параметры, чтобы получить желаемый результат. ### Заключение Всё это позволяет нам гибко работать с изображениями, изменять их, добавлять новые элементы и получать качественные результаты. Если у вас есть вопросы или вы хотите попробовать что-то конкретное, дайте знать! **IP Адаптер** по сути ничем не отличается от обычной генерации из текста, просто мы здесь можем подавать на вход изображение вместо промта. Что я имею в виду? У нас есть вот это изображение. Да, так. Ну, давайте, чтобы не ждать, сейчас я открою. Есть темплейт, связанный с этим. У нас есть изображение, и, например, я хочу сгенерировать цветочки в этом стиле. Я не буду писать промт и описывать всё это, потому что с ума сойти. Даже если я попрошу **Describe Image**, скорее всего, мне придётся там с промтом что-то играть, и, скорее всего, я не получу такого же стиля, потому что это, вероятно, чей-то дизайнерский стиль. Вот что делает **IP Адаптер**: он принимает эту картинку как стиль, то есть как промт. Он смотрит на неё и пытается сгенерировать в похожем стиле то, что я пишу. Например, я сгенерировала цветочки, то есть захотела, чтобы в этом стиле у меня были цветочки. Здесь на самом деле параметров много, но просто хочу, чтобы вы запомнили, что если мы хотим сгенерировать какое-то изображение в похожем стиле в ноде **IP Адаптер**, мы должны это изображение как стиль подключать. ### Параметры IP Адаптера - **IP Adapter Weight**: Этот параметр регулирует, насколько сильно будет учитываться стиль. Понижая это число, мы можем добиться более сильного следования стилю, сохраняя при этом оригинальную стилистику. Например, если я подключаю изображение, и оно генерирует женщину вместо цветочков, мне нужно понизить значение до 0.4 или 0.35. ### Кейс с конкретным человеком Когда у нас есть одна фотография человека, и мы хотим сгенерировать что-то с этим человеком, у нас тоже есть темплейт. Я загрузила фотографию себя и с помощью **IP Адаптера** могу получить фотографию с собой. Можно генерировать не только в стилистике, но и в фотореализме. Здесь на самом деле очень помогают стили, которые есть. Мы выбираем другой тип, который называется **Face ID**. Он принимает моё лицо как стиль. Если вы хотите, чтобы особенности человека были учтены, например, цвет глаз, это можно указать в промте. Из-за того, что это **Stable Diffusion XL**, **IP Адаптер** работает без ограничений, и любые стили могут быть использованы. ### Применение IP Адаптера - **Генерация в стилистике**: Можно генерировать изображения в стилистике вашего изображения. - **Генерация с конкретным человеком**: Можно генерировать изображения с любым человеком, используя **Face ID**. ### Использование ControlNet В **IP Адаптере** также есть **ControlNet**. Он позволяет задавать дополнительное изображение и использовать его как референс. Например, если у вас есть логотип Starbucks, вы можете перенести стиль пончиков на стакан и получить логотип Starbucks в формате пончика. ### Улучшение изображений У нас есть ноды, такие как **Creative Upscale**, которые не только увеличивают изображение, но и добавляют детали. Это особенно полезно, если изображение немного размыто. Рекомендую использовать параметры: - **Noise**: 0 - **Steps**: 30 - **Ping**: 32 ### Обучение на собственном стиле Если вы хотите генерировать в своём собственном стиле, можно обучить **Lora**. Для этого вам нужны фотографии и уникальное имя. Например, если у вас есть 15 фотографий, вы можете обучить **Lora** на себе. ### Рекомендации по обучению - Используйте разные ракурсы и фоны. - Дайте уникальное имя вашей **Lora**. - Убедитесь, что у вас достаточно фотографий для обучения. ### Заключение Если у вас есть вопросы или вы хотите попробовать что-то конкретное, дайте знать! Так, а здесь по вопросам всё, да? А можно ли где-то более подробно почитать про параметры, про то, как лучше настраивать, где-то в одном месте? Или только у ассистента спрашивать отдельно про все параметры, про типы идентификаторы и так далее? Ну вот конкретно про обучение. У нас есть инструкция для каждой ноды, она основана на более обширной информации. Также есть документация в Вики. Если здесь вот нажмём, да, у нас прямо есть там по каждой ноде, например, по параметрам, что каждый параметр значит, как он влияет. Здесь не по всем нодам, к сожалению, вот, но по большинству. Да, вот там по пенгу есть, там пошаговая инструкция. Это доступно вот здесь в разделе Вики, но там не по всем нодам. Вот поэтому самая обновлённая информация по каждому параметру — это, конечно, ассистент. Я советую просто им очень удобно пользоваться, что не нужно никуда переходить, да, и как бы всё в одном окне. Вот поэтому здесь вот так вот советую работать с этим. Так, дальше у меня, да, это моё сказать подведение итогов. Да, вот просто топ моих советов, которые я часто сама использую, да, для того чтобы как-то улучшить результаты, генерировать другим. 1. Нажать просто ещё раз **Старт**, чтобы **Seed** не был закреплён. 2. Попробуйте FLX, если генерируется в другой нейросети, и наоборот. 3. Улучшить промт с помощью **Prompt Generator** либо **Prompt Helper**. 4. Попробуйте исправить лица через **Image to Image**, **Face Restore** или **Face Enhancer**. 5. Если вы работаете в **Stable Diffusion XL**, попробуйте использовать другую модель, например, **Realism**. Предпочтительнее могу сейчас просто сразу дать совет. Ой, сейчас, простите, нет, не хну. Есть ещё модель, которая называется **Real Cartoon**. Она хорошо работает для иконок, для в целом каких-то 2D элементов. Да, аниме работает хорошо на аниме. А **ProtoVision** хорошо работает тоже на реализм. **Unstable Diffusers** хорошо работает на логотипах, на картинках. Вот поэтому, если вдруг у вас плохие результаты, иногда можно попробовать поменять модель, и результаты будут намного лучше. Вот если мы проработаем в **SD XL**, попробуйте **Styles**. ### Где учиться Если остаться, вопрос вот затронул элемент про Википедию, про ассистента. На самом деле у нас также достаточно много темплейтов, у нас есть также туториалы на YouTube. У нас есть наше сообщество в Telegram, также у нас есть Telegram-канал, который называется **Plus Creative**. Не знаю, подписаны вы или нет, мы там примерно каждый день, иногда раз в 2 дня, публикуем различные кейсы использования нашего продукта для конкретных случаев. Например, недавно у нас вышла подборка, как использовать нейронные сети в маркетинге. Да, то есть там прямо пошаговая инструкция, как повторить тот или иной кейс. Поэтому, если есть какие-то интересные задумки, если вам нужно вдохновение, советуем тоже там подписаться. У нас также есть статьи на Medium, у нас есть статьи на VC, на DTF по кейсам. Вот и также есть статьи в той Википедии, которую я показывала. У нас здесь есть тоже часть статей в кейсах. Например, как изменять, как фейк делать, как создавать скетчи, как исправлять лица. Вот, поэтому такие вот моменты. И ещё раз про ассистента, просто потому что я считаю, что это, наверное, наиболее понятный и наиболее лучший способ узнать про нейронные сети, про наши ноды. То, что он работает на русском, на английском, да, в принципе, на любом языке и может помочь вам с любыми задачами. Так, сейчас давайте я открою вопрос. Может быть, я почему-то не прошлась. Так, может быть, у вас пока остались сейчас, пока я запомню. Да, у меня есть вопросик по поводу, например, я задала ей вопрос касающийся темы инвестиций и получила ответ, что мой доступ к информации за 2020 год. Так, ещё раз. Вы запросили информацию по индексу Мосбиржи, скажем так, тематика наших инвестиций, и получили ответ, что мне недоступен список компаний в сентябре 2024 года, потому что это будущее событие. А с точки зрения, да, у нас модель, которая обычно была на данных до конкретного года. Да, то есть как только OpenAI обновляет свою базу данных, да, то есть когда там добавляют новую информацию, она у нас тоже обновится. Вот это просто, ну вот, я смотрите, у меня просто коллега пользуется оригинальной версией, и да, да, да, он сказал, что ему эта информация выдаётся. Давайте я запишу, я уточню. Мы вообще ставили последнюю прямо версию 4. Ну вот, я уже несколько вопросов таких задавала именно по касающимся текущих событий. Вот и было ограничение именно, ну вот, октябрь либо ноябрь, самое последнее по четвёртому года. Ничего нету. Вот если попробовать через API, там пишут, что нет доступа к интернету, поэтому я вам ничего не могу предоставить. Да, это только как раз на продукт, на ноды. Я записала, я уточню тогда у наших разработчиков, потому что я прямо помню, что мы меняли. Может быть, там что-то слетело, я уточню, какая там база данных. Спасибо. Ещё есть вопрос. Это Наташа, у нас представитель как раз от копирайтеров. Соответственно, у нас большая часть всех людей, естественно, дизайнеры, но мы рассматривали вас также в помощь нашим копирайтерам на максимально возможных каких-то вещах, которые они тоже могут получить. Поэтому не забрасывать ChatGPT. У нас тоже есть большая потребность с обращением к нему, чтобы он и историю помнил, чтобы он и документы мог какие-то взять к себе и обработать. Такая потребность у нас очень существует. Да, конечно, я запишу тогда, может, приоритизировать, когда ближайшие планы. Я запишу приоритизации по GPT. Так, а так хорошо, есть ещё какие-то вопросы? Да, про SVG ты вроде говорил, расскажешь? Да, да, сейчас мы нашли решение, которое позволяет из картинки делать как раз именно SVG. А сейчас это у нас находится в разработке на нашей тестовой среде. Да, то есть пока что мы тестируем, вот, чтобы не давать ложных надежд, думаю, неделя-две до того, как появится в продукте. Да, то есть у нас это в планах есть, потому что видим запрос. На самом деле на это вот смотрим. Надеюсь, что скоро, как можно раньше, то что все заинтересованы, конечно. Да, ещё вопрос такой: сколько нод всего помещается в проекте? По-моему, у меня было один раз, я там пробовал, и он сказал, что как бы всё, больше нод добавлять не могу. Да, смотрите, у нас показывается предупреждение просто потому, что это, ну, это на самом деле не ограничение, просто предупреждение, да, то есть как бы что дальше у вас может подлагивать. А на самом деле это зависит больше от мощностей, насколько у вас браузер может выдержать. Да, потому что там я сижу с компьютера, у меня там сейчас сколько здесь у меня, там, ну, вообще чуть подлагивает даже. Да, то есть у меня здесь много нод, и у меня в целом хорошо работает быстро. А ограничений в целом нет. У меня были проекты на 100 нод, но мы не советуем просто потому, что когда нужно будет их открыть, иногда срочно, да, вот бывает такое, когда вот нужно срочно какой-то проект, что там вытащить из него, будет просто грузиться чуть дольше. Вот так в целом ограничений нет, насколько выдержит ваше устройство. Ясно. А ещё интересно по поводу обложки. Как менять? Можно ли это? Пока что нет, мы думаем над этим. Очень хотим сами, да, потому что вот это, да, я понимаю. У меня просто, у меня давно, да, у меня тут проектов, как я не знаю кого. Очень хотим сами, да, пока что никак, к сожалению. Да, и меня последний вопрос про звук. Можно ли, ну то есть будет ли или там как-то думаете, чтобы встроить какую-нибудь, если генерация видео идёт, чтобы сгенерировать звук и соответственно встроить его? Угу, я скажу честно, мы об этом думаем. Мы пока ищем решение, которое может подключить нам спокойно через API, да, то есть, чтобы у нас работало спокойно внутри. Думаем над этим, думаем и над генерацией аудио, и на трансформации в аудио, и на синтезе. Думаем, потому что прямо про липсинг у нас часто спрашивают. Да, вот именно про видео. Вот, а думаем, думаем. Вот, думаю, что будем добавлять с вероятностью там 90%. А, но не могу давать стопроцентной гарантии. Вот, но сами про это думаем, да, очень сильно. Вот и если так прям уж совсем по секрету, да, там думаем добавлять там ранвей. Вот, ну посмотрим, насколько получится или нет. Угу, вот. Ну вот как бы в планах расширять именно на другие форматы данных. Да, потому что вот если там вернуться к презентации, то есть тоже там сейчас вот с этим работаем. На самом деле, как бы этого иногда недостаточно. Вот поэтому вот так. Спасибо, у меня вопросов нет. Да, у меня есть вопрос такой, ну просто по организации процесса. Вот эти вот тут я вижу, что очень большое количество нод нейросетей, и поиск он нужен только, вот поиском осуществляется, то есть надо просто забивать. То есть у вас какого-то дополнительной группировки там будет, не будет инструментов слева или справа? Да, здесь как бы она есть, просто, наверное, она не очень заметна. Здесь есть как бы категории. У нас также есть категория, вот здесь по правой кнопке мыши. Да, во многих новых редакторах там можно вызывать эти ноды. Это удобно просто инструментов. Например, у меня на экране они влезают все, я понимаю, что многим там не влезает и половина. Я поэтому просто советую всем пользоваться поиском, потому что, ну, чаще всего так быстрее находить и использовать. Вот, Юль, а как бы тебе хотелось? Коллеги вот тоже прислушиваются к пожеланиям. Вот я поняла, что их очень много, и нужен какой-то краткое описание всех, то есть понимать, что вот у меня есть ноды, которые генерируют лица, есть те, которые заменяют какие-то части, и краткая информация, в чём сильна. Ну то есть, чтобы я вот поиском, пока я найду нужные ноды, пока я их все попробую, но это тоже полезная штука. Но иногда хочется прям краткую информацию. Вот, чтобы при наведении мышки всплывала подсказка, если я не ошибаюсь, да? Ну это всё всплывает, но я имею в виду, что вот я, ну условно говоря, я открыл один файл и быстренько прочитал, что вот эти вот лучше сильны. Вот в эти. Ну вот, вот в этом, что вот эти все описания, они уже были. Да, я думаю, это да, только в интерфейсе. Ну как я по... Да, да, да, вот такая штука, она вот очень как бы удобно. Просто здесь их четыре, а там у вас их сколько? Там больше тридцати. Сразу запомнить очень непросто, и придётся ещё тратить время на то, чтобы понять, куда окунуться, чем генерировать. Вот это вот всё, да, конечно. Ну это наша юзабилити штука, да, я записала. Мы про это думаем сами, да, поэтому точно учтём и точно будем перерабатывать. Спасибо. Спасибо. Так, ещё вопросы? Так, в целом, потому что вот я смотрю, сейчас в Telegram вроде бы на все вопросы мы ответили. Да, ура! Я думаю, на этом пока всё. Возможно, мы будем возвращаться с какими-то вопросами. Опять же, там был слайд с указанием у вас каналов Telegram. Я сюда ссылочки ещё добавлю, да, чтобы были ссылки. Тогда коллеги сразу смогут ориентироваться, на что подписаться, где проще задавать какие-то единичные вопросы. Я думаю, у нас вопрос: работаете ли вы над возможностью, как сказать, совместной работы в проекте? Да, шеринг он есть, вот для того чтобы работать сразу в одном проекте одновременно. Ну, я думаю, тоже было бы полезно, когда есть один рекламный проект, кто-то там в НМ с одним общим изображением сразу работает с визуалом, а кто-то для него уже видео заводит и делает промт, как его расширить. Ну, что-то подобное, не знаю. Угу, честно, мы про это думаем. У нас на самом деле как бы изначально это была такая задумка, да, когда коллаборативный. То есть когда можно несколько человек работать на одном пространстве. Вот, а честно скажу, очень сложная в реализации вещь. Пока, да, как бы это точно в планах ближайших не уверена. Вот, но думаем над этим точно. Вот, супер. Понятно. Тогда я думаю, что мы на этом уже пора бы заканчивать. Нам уже полтора часа с лишним. А все остальные вопросы, если вдруг будут, буду собирать. Если так получится, что что-то у нас накопилось, будет необходимость, обращусь за очередной видео консультацией. Там ещё раз, но я думаю, пока на данный момент всем будет достаточно. Спасибо большое! Да, отлично. Если что, если вдруг появляются какие-то проблемы с продуктом, багами, можете мне спокойно писать. Да, Давид, вот, поэтому тоже будем решать оперативно. Если вдруг там какие-то проблемы появляются. Вот, но в целом мы как бы не должно быть, мы всё решаем оперативно с обновлениями часто. Вот, спасибо большое за внимание. Там скину тогда презентацию, ссылки вставлю, чтобы было удобнее. Вот и могу это, да, видео обязательно пришлём. Вы на Яндекс.Диск выложите? А работает? Да, у нас вроде в России. Пока, да, лучше на Вио. Эх, реальность. Хорошо, по подписке в отличие от YouTube. Ладно, что-нибудь придумаем. Нет, ладно. Ну, если у вас будут предложения, эту встречу, мне кажется, можно диск, там, не знаю, чтобы мы выложили. Да, ну как бы в любом случае запись точно файл будет там. Да, мы всё всегда выкладываем на YouTube, как бы это тоже будет выложено. Там на диск попробуем ещё найти какую-то платформу, да, чтобы можно было всем посмотреть. Конечно. Кошмар. Ну ладно, реальность. Спасибо большое! Очень. Ире, спасибо всем большое! Да, как вы это делаете? Я точно прощаюсь с вами. Всем спасибо! Спасибо! Да, спасибо всем! Желаю хорошей пятницы, выходных. Давайте, пока-пока!
Залогинтесь, что бы оставить свой комментарий