AI на старом железе
Mar. 25th, 2025 08:33 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Я тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.
Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.
Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.
no subject
Date: 2025-03-25 02:36 pm (UTC)no subject
Date: 2025-03-25 02:46 pm (UTC)Тут дело в том, что взя экосистема смартфонов заточена на то, что в се что можно - не локально. Даже синтез речи, для которого достаточны жалкие десятки гигабайт словарей, по умолчанию делается server-side, а чтобы работал локально, нужно пароочку кнопок в настройках нажать. Сталкивался с тем, что если это не сделать, то при выезде из зоны покрытия 4G в зону Edge зачитывание fb2-файла вслух затыкаться начинает.
no subject
Date: 2025-03-25 03:28 pm (UTC)no subject
Date: 2025-03-25 05:01 pm (UTC)Вот именно в FBReader-е я на это и натчкался. Он использует системный TTS Engine. А у того бывает, что после обновления меняется формат словарей. И пока не залезешь в настройки и не скажешь, что словарь надо локально выклачать, работает через онлайн.
no subject
Date: 2025-03-26 09:55 am (UTC)no subject
Date: 2025-03-27 01:08 pm (UTC)UPD: запускал через llama.cpp, модель уже не помню, но где-то в начале 2024 года.