#pragma once
#include "llama.cpp/include/llama.h"
#include <stdbool.h>
#include <stddef.h>
struct llama_model;
struct llama_sampler;
struct llama_vocab;
struct llama_rs_grammar_trigger {
int type;
char * value;
llama_token token;
};
struct llama_rs_chat_template_result {
char * prompt;
char * grammar;
char * parser;
int chat_format;
bool thinking_forced_open;
bool grammar_lazy;
struct llama_rs_grammar_trigger * grammar_triggers;
size_t grammar_triggers_count;
char ** preserved_tokens;
size_t preserved_tokens_count;
char ** additional_stops;
size_t additional_stops_count;
};
#include "wrapper_utils.h"
#ifdef __cplusplus
extern "C" {
#endif
llama_rs_status llama_rs_json_schema_to_grammar(
const char * schema_json,
bool force_gbnf,
char ** out_grammar);
struct llama_sampler * llama_rs_sampler_init_grammar(
const struct llama_vocab * vocab,
const char * grammar_str,
const char * grammar_root);
struct llama_sampler * llama_rs_sampler_init_grammar_lazy(
const struct llama_vocab * vocab,
const char * grammar_str,
const char * grammar_root,
const char ** trigger_words,
size_t num_trigger_words,
const llama_token * trigger_tokens,
size_t num_trigger_tokens);
struct llama_sampler * llama_rs_sampler_init_grammar_lazy_patterns(
const struct llama_vocab * vocab,
const char * grammar_str,
const char * grammar_root,
const char ** trigger_patterns,
size_t num_trigger_patterns,
const llama_token * trigger_tokens,
size_t num_trigger_tokens);
llama_rs_status llama_rs_sampler_accept(struct llama_sampler * sampler, llama_token token);
void llama_rs_chat_template_result_free(struct llama_rs_chat_template_result * result);
void llama_rs_string_free(char * ptr);
#ifdef __cplusplus
}
#endif