mirror of
https://github.com/nomic-ai/gpt4all.git
synced 2025-09-10 12:59:09 +00:00
llamamodel: add missing softmax to fix temperature (#3202)
Signed-off-by: Jared Van Bortel <jared@nomic.ai>
This commit is contained in:
@@ -584,7 +584,8 @@ void LLamaModel::initSampler(const PromptContext &promptCtx)
|
||||
llama_sampler_init_top_p(promptCtx.top_p, 1),
|
||||
llama_sampler_init_min_p(promptCtx.min_p, 1),
|
||||
llama_sampler_init_temp(promptCtx.temp),
|
||||
llama_sampler_init_dist(LLAMA_DEFAULT_SEED)
|
||||
llama_sampler_init_softmax(),
|
||||
llama_sampler_init_dist(LLAMA_DEFAULT_SEED),
|
||||
};
|
||||
for (auto *smpl : samplers)
|
||||
llama_sampler_chain_add(chain, smpl);
|
||||
|
Reference in New Issue
Block a user