Вопрос насчет поняшных нейросетей
+95
Если мне не изменяет память, кто-то обучал нейросеть на основе картинок с Дерпибуры, с использованием тегов, типа чтобы можно было по Дерпибуровским тегам генерировать картинки. Можете поделиться ссылками на эти нейросети, чтобы самому скачать и поэкспериментировать. Заранее благодарю. (я сам пока не шарю в нейросетях, сорри если что-то не теми терминами описал)
94 комментария
Или AUTOMATIC 1111: github.com/AUTOMATIC1111/stable-diffusion-webui
Модель Pony Diffusion v4: huggingface.co/AstraliteHeart/pony-diffusion-v4
Модель Anything pony: SD Is Magic v1: disk.yandex.ru/d/S8hjMFFzakgARg
Требуется 10 или 11 винда и видеокарта не слабее GeForce GTX 1050.
1
2
3
4
5
6
7
8
p.s. На Питоне я кодить умею, судя по гайдам это нужно будет.
Нужно установить Git, выбрать и скачать графический интерфейс, создать гитовскую папочку и закинуть туда интерфейс и модели. Не помню, качал ли я питон, или интерфейс сам всё сделал после запуска батника… что-то он точно качал.
Возможно, всё это уже устарело и, наверняка, с разными видами интерфейсов свои танцы — нужно искать или просить пошаговый гайд.
Давай начнем сначала — .ckpt файл, интерпретатор Питона версии 3.9, и установленная библиотека torch для Питона — это всё, что мне нужно для работы оффлайн, или нужно что-то еще скачивать?
Еще раз добавлю только, что я этим занимался когда снег лежал — возможно, у кого-то есть более актуальная информация.
Если я всё правильно понял, то он работает именно на pytorch, т.е. torch для python, и на который сверху написали веб-интерфейс для простоты использования, но который использует не все возможности изначального torch. Для обучения/ознакомления этот webUI подойдет, но для более тонких настроек, нужно будет кодить на Питоне.
Если я что-то не так понял — поправьте, плиз
Много букв и картинокСначала распакуй архив. Лучше в корень диска, длинных путей и неанглийских символов оно не любит.
Запусти файл StableDiffusionGui.exe и в открывшемся окне программы нажми кнопку «Open Installer»:
Появится окно установщика:
Но так как у тебя ещё ничего не установлено галочки стоять не будут, а вместо кнопки «Re-Install» будет «Install». Жми на неё и жди пока установщик скачает и поставит всё, что надо. Качать он будет несколько гигов, так что процесс может быть небыстрым. Когда он закончится, а установщик примет вид как на скрине – у тебя будет установленная и готовая к работе StableDiffusion со стандартной моделью.
Но стандартная модель ничего не знает о понях. Поэтому берём понячью модель (модель это файл .ckpt) и кладём её в папку Data\models
После этого идём в настройки:
И выбираем нашу модель, она должна появиться в списке «Stable Diffusion Model»:
Готово! Теперь у тебя установлена StableDiffusion с поячьей моделью.
Чтобы сгенерировать картину нужно ввести в соответствующее поле prompt — то, что должно быть на картинке и negative prompt – чего не должно быть, и нажать кнопку «Generate!».
Например, введём prompt
И negative prompt:
Выставим настройки:
Размер картинки лучше ставить в зависимости от объёма имеющейся у тебя видеопамяти. Чем больше картинка – тем больше памяти потребуется. У меня при генерации картинки размером 1024×1024 нейросеть занимает все 12 гигов.
Нажмём кнопку «Generate!», при первом запуске начнётся процесс загрузки модели:
После чего начнётся собственно генерация:
Т.к. параметр Amount Of Images To Generate у нас стоит 5, то нейросеть сгенерирует 5 артов, которые по мере генерации будут показываться в окне программы. Чтобы увидеть сами файлы нажми кнопку «Open Output Folder»:
Конечно там ещё есть много тонкостей, которые не опишешь так сразу в одном посте, но для начала как-то так.
Собственно сгенерированные арты
Поставил как было раньше — с питоном, гитом и автоматиком, — работает. Ну и бог с ним.
E:\AI\stable-diffusion-webui\venv\Scripts\python.exe -m pip install --upgrade pip
Вместо E:\AI\ — путь до твоей папки stable-diffusion-webui
Всё запускал от имени юзера, не администратора
Спойлер
что означает этот тег?
Что такое «seed» я вроде понял — это набор неких рандомных исходников, но вот с расширенными его параметрами до конца не разобрался.
Возвращаясь к вопросу о p_95 — это какая-то настройка изображения, не связанная с ползунками. Hi-low quality и Hi-low res тоже частенько суют в запросы-антизапросы.
если сделать строгий поиск на p_95 — то его юзали только для purplesmart.ai, которого, как я понял, в принципе нет в открытом доступе для оффлайн-использования.
мне теперь еще интереснее, что этот тег делает
Спойлер
Спойлер
Prompt S/R ищет и заменяет токен, который ты указал первым в поле values, на тот, что идет после запятой и на последующий. Так что, vector должен присутствовать в промте.
Впрочем, вангую, что художники с этим не будут согласны (как минимум, не все).
ВТФ?
хотя предыдущая всё нормально делает