vitus_wagner (
vitus_wagner) wrote2025-03-25 08:33 am
![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Entry tags:
AI на старом железе
Я тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.
Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.
Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.
no subject
no subject
Тут дело в том, что взя экосистема смартфонов заточена на то, что в се что можно - не локально. Даже синтез речи, для которого достаточны жалкие десятки гигабайт словарей, по умолчанию делается server-side, а чтобы работал локально, нужно пароочку кнопок в настройках нажать. Сталкивался с тем, что если это не сделать, то при выезде из зоны покрытия 4G в зону Edge зачитывание fb2-файла вслух затыкаться начинает.
no subject
no subject
Вот именно в FBReader-е я на это и натчкался. Он использует системный TTS Engine. А у того бывает, что после обновления меняется формат словарей. И пока не залезешь в настройки и не скажешь, что словарь надо локально выклачать, работает через онлайн.
no subject
no subject
UPD: запускал через llama.cpp, модель уже не помню, но где-то в начале 2024 года.