mirror of
https://github.com/ggerganov/llama.cpp
synced 2026-04-24 04:21:42 +02:00
llama-ext : fix exports (#22202)
This commit is contained in:
parent
4889afba5f
commit
cd03ec7642
@ -82,9 +82,9 @@ struct llama_device_memory_data {
|
||||
// TODO: convert to C-style data structure
|
||||
using llama_memory_breakdown = std::map<ggml_backend_buffer_type_t, llama_memory_breakdown_data>;
|
||||
|
||||
int32_t llama_model_n_expert (const struct llama_model * model);
|
||||
int32_t llama_model_n_devices(const struct llama_model * model);
|
||||
LLAMA_API int32_t llama_model_n_expert (const struct llama_model * model);
|
||||
LLAMA_API int32_t llama_model_n_devices(const struct llama_model * model);
|
||||
|
||||
ggml_backend_dev_t llama_model_get_device(const struct llama_model * model, int i);
|
||||
LLAMA_API ggml_backend_dev_t llama_model_get_device(const struct llama_model * model, int i);
|
||||
|
||||
llama_memory_breakdown llama_get_memory_breakdown(const struct llama_context * ctx);
|
||||
LLAMA_API llama_memory_breakdown llama_get_memory_breakdown(const struct llama_context * ctx);
|
||||
|
||||
Loading…
Reference in New Issue
Block a user