Skip to content

Releases: kclhi/llama.cpp

b3051

30 May 17:25
5921b8f
Compare
Choose a tag to compare
llama : cache llama_token_to_piece (#7587)

* llama : cache llama_token_to_piece

ggml-ci

* llama : use vectors and avoid has_cache

ggml-ci

* llama : throw on unknown tokenizer types

ggml-ci

* llama : print a log of the total cache size