PrismML Bonsai: 1-bitowy model LLM z 14-krotną redukcją pamięci
PrismML, startup z kalifornijskiego Caltech, twierdzi, że ich 1-bitowy model LLM przewyższa modele z pełną precyzją wag. Bonsai 8B oferuje 14-krotną redukcję pamięci przy zachowaniu konkurencyjnych wyników w benchmarkach. To rzuca wyzwanie dekadzie dominacji modeli opartych na skali parametrów. TL;DR: PrismML wprowadza Bonsai — pierwsze komercyjnie opłacalne 1-bitowe modele LLM, które redukują zużycie pamięci 14-krotnie. […]