Releases: kclhi/llama.cpp
Releases · kclhi/llama.cpp
b3051
llama : cache llama_token_to_piece (#7587)
* llama : cache llama_token_to_piece
ggml-ci
* llama : use vectors and avoid has_cache
ggml-ci
* llama : throw on unknown tokenizer types
ggml-ci
* llama : print a log of the total cache size