vitus_wagner: My photo 2005 (Default)
[personal profile] vitus_wagner

Я тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.

Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.

Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.

Date: 2025-03-25 02:36 pm (UTC)
From: [personal profile] fhunter
Всё равно это упирается в объёмы памяти. Так-то в смартфонах давно (минимум за несколько лет до 2022-го года) уже есть TPU/NPU предназначенный ровно для этого самого. Почему не применяют именно для LLM - это уже другой вопрос (спроса на оффлайн нет? качество результатов от мелкой нейросети плохое?)

Date: 2025-03-25 03:28 pm (UTC)
stiv_sigmal: (Default)
From: [personal profile] stiv_sigmal
FBreader вполне пристойно читает вслух fb2 (и прочие форматы) полностью оффлайн на смартфонах даже десятилетней+ давности. Где дискового пространства всего единицы гигабайт и андроид… Ну, короче, тех времён.

Date: 2025-03-26 09:55 am (UTC)
stiv_sigmal: (Default)
From: [personal profile] stiv_sigmal
Мда уж. Буду знать. Ни разу на это не натыкался, наверное, потому, что до сих пор с относительно старым телефоном хожу.

Date: 2025-03-27 01:08 pm (UTC)
stanislavvv: (Default)
From: [personal profile] stanislavvv
На смартфоне 2020-го года запускал в termux. Оно работало, но грелось и тормозило...

UPD: запускал через llama.cpp, модель уже не помню, но где-то в начале 2024 года.
Edited Date: 2025-03-27 01:18 pm (UTC)

Profile

vitus_wagner: My photo 2005 (Default)
vitus_wagner

July 2025

S M T W T F S
  12345
6789 1011 12
13141516 17 1819
20212223 242526
2728293031  

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 29th, 2025 02:14 am
Powered by Dreamwidth Studios