4-битный AI
Aug. 6th, 2025 11:29 pmВ связи с релизом gpt-oss с 4-битным форматом, объяснение этого формата проще показать в виде перечисления, чем длинной простыни рассуждений.
4-битный float (MXFP4) позволяет записать следующие числа:
{-6.0, -4.0, -3.0, -2.0, -1.5, -1.0, -0.5, -0.0, 0.0, 0.5, 1.0, 1.5, 2.0, 3.0, 4.0, 6.0}
И вот вся AI вот на этом типе данных и держится. С учётом потерянного полубита в районе нуля, чую я, что троичные форматы не за горизонтом... Ну или, в этом контексте, base15. Объективная экономия 6%. Если только кто-то научится их быстро умножать и складывать...
4-битный float (MXFP4) позволяет записать следующие числа:
{-6.0, -4.0, -3.0, -2.0, -1.5, -1.0, -0.5, -0.0, 0.0, 0.5, 1.0, 1.5, 2.0, 3.0, 4.0, 6.0}
И вот вся AI вот на этом типе данных и держится. С учётом потерянного полубита в районе нуля, чую я, что троичные форматы не за горизонтом... Ну или, в этом контексте, base15. Объективная экономия 6%. Если только кто-то научится их быстро умножать и складывать...
no subject
Date: 2025-08-11 12:20 pm (UTC)Вот обучение модели с последующим её остругиванием - может быть и HPC.
no subject
Date: 2025-08-12 08:54 am (UTC)Допустим, запустили задачу в agentic mode с subagents и она пишет код бегает часы, а то и дни.
Общего назначения кластер там, или H200 в потолок перемножением матриц загружена, это вопрос деталей реализации. Просто нужно перемножить 8e+18 матриц и всё тут. Чем быстрее, тем лучше.
no subject
Date: 2025-08-12 09:21 am (UTC)Если, грубо говоря, у тебя рабочее множество помещается в память одной машины - это один коленкор. Если нет и тебе нужно творчески его распределять по нодам кластера - совершенно другой.