Про Qwen на локальной машине
Feb. 28th, 2026 04:10 pmЧто-то на https://chat.qwen.ai суточные лимиты токенов на бесплатных аккаунтах какие-то совсем негуманные стали.
По этому поводу попробовал запускать qwen локально На CPU, с использованием llama.cpp скомпилированной с OpenBLAS. Ну надо сказать работает. Медленнее в разы, конечно, чем на их серверах. Зато в неограниченных количествах. Прикручивать к локальному инстансу нейронки командлайновый клиент, чтобы оно код писало, пока не пробовал, хотя знаю как. Вообще командлайновый клиент там через API работает, а через API лимиты другие.
Хочу ещё попробовать
- Локально погенерировать картинки. Интересно, осилит оно это без NVidia-вской видеокарты?
- Попробовать собрать llama с ROCm и запустить на chara. Там вроде как видеокарата поприличнее. чем на десктопе. Или лучше с Vulcan?
- Попробовать запустить генерацию картинок на ноутбуке Ирины. Там-то как раз NVidia, правда с небольшой памятью. (4гига уже небольшая считается. А я ведь помню времена когда 1Мб считалась большая, а маленькая - 256Кб, но и на ней мы ухитрялись режим 640x400x8bit запускать).
no subject
Date: 2026-02-28 05:06 pm (UTC)stable-diffusion.cpp с Vulkan работает, и с CPU работает (с ROCm, говорят, тоже). Сколько нужно вычислительных мощностей под всё это — вопрос того, с какой точностью хочется контролировать результат, и сколько есть терпения. Некоторые совсем продвинутые методы управления генерацией (ControlNets и далее) s-d.cpp поддерживает между наполовину и скорее нет (и есть ощущение, что полностью поддерживающее эти изыски ПО с ROCm запустить можно, но тяжело, а с Vulkan не судьба сейчас).
4GiB VRAM, видимо, позволит перенести на GPU ощутимую часть, но не всю, работу.