vitus_wagner: My photo 2005 (Default)
vitus_wagner ([personal profile] vitus_wagner) wrote2025-03-25 08:33 am

AI на старом железе

Я тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.

Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.

Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.

[personal profile] fhunter 2025-03-25 02:36 pm (UTC)(link)
Всё равно это упирается в объёмы памяти. Так-то в смартфонах давно (минимум за несколько лет до 2022-го года) уже есть TPU/NPU предназначенный ровно для этого самого. Почему не применяют именно для LLM - это уже другой вопрос (спроса на оффлайн нет? качество результатов от мелкой нейросети плохое?)
stiv_sigmal: (Default)

[personal profile] stiv_sigmal 2025-03-25 03:28 pm (UTC)(link)
FBreader вполне пристойно читает вслух fb2 (и прочие форматы) полностью оффлайн на смартфонах даже десятилетней+ давности. Где дискового пространства всего единицы гигабайт и андроид… Ну, короче, тех времён.
stiv_sigmal: (Default)

[personal profile] stiv_sigmal 2025-03-26 09:55 am (UTC)(link)
Мда уж. Буду знать. Ни разу на это не натыкался, наверное, потому, что до сих пор с относительно старым телефоном хожу.
stanislavvv: (Default)

[personal profile] stanislavvv 2025-03-27 01:08 pm (UTC)(link)
На смартфоне 2020-го года запускал в termux. Оно работало, но грелось и тормозило...

UPD: запускал через llama.cpp, модель уже не помню, но где-то в начале 2024 года.
Edited 2025-03-27 13:18 (UTC)