А кто-нить когда-нить, просил ИИ написать промт для ИИ? Интересно, сработает ли?)))
Это часть моего процесса при генерации изображений. Причём, есть вообще лютая штуковина, которая псевдо креативит в заданных рамках: сперва генератор случайных фраз выбирает рандомные из списка по категориям (сцена, свет, объект и т.д.), а потом результат посылается на llm с заданием "ты проф дизайнер. сформулируй из этих слов промт для генерации изображения.". В итоге, из разрозненных тэгов получается сформулированная задача из нескольких предложений.
Вдобавок, "генерация промта по запросу" СИЛЬНО улучшает детализацию и качество изображений. Потому что нейронка за секунды может написать целый рассказ с подробностями из моих косноязычных нескольких слов.
@basЫl, самое главное, чтоб программа умела с ними работать. К примеру, ComfyUI не умеет складывать видеопамять нескольких карт. Может только распределять ресурсы, например, llm модель на одной, а модель изображений на другой видеокарте.
При наличии на борту видеокарты 6Гиг и выше можно нормально кодить с LLM.
Еще зависит от выбора модели. Некоторые заточены под кодинг, другие больше на треп.
Да знаю я. Но у нас все модели квантованные, потому что полные не влезут в оперативку, не говоря уже про видеопамять. Для понимания масштабов: полная GLM 4.7 весит где то в районе 700 гигабайт. Квантованная до неприличия Q2 GGUF версия весит 130гб. То есть, самая тупая модель нагнёт комп со 128г оперативки.
В этом и проблема локальных моделей - они все урезанные в разной степени, чтобы хоть как то запускаться на домашних компах.