AI на старом железе
Mar. 25th, 2025 08:33 amЯ тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.
Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.
Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.