llamamodel: add missing softmax to fix temperature (#3202)

Signed-off-by: Jared Van Bortel <jared@nomic.ai>
This commit is contained in:
Jared Van Bortel
2024-12-04 10:56:19 -05:00
committed by GitHub
parent ffd29eae08
commit 0c70b5a5f4
2 changed files with 3 additions and 1 deletions

View File

@@ -584,7 +584,8 @@ void LLamaModel::initSampler(const PromptContext &promptCtx)
llama_sampler_init_top_p(promptCtx.top_p, 1),
llama_sampler_init_min_p(promptCtx.min_p, 1),
llama_sampler_init_temp(promptCtx.temp),
llama_sampler_init_dist(LLAMA_DEFAULT_SEED)
llama_sampler_init_softmax(),
llama_sampler_init_dist(LLAMA_DEFAULT_SEED),
};
for (auto *smpl : samplers)
llama_sampler_chain_add(chain, smpl);