模型参数设置
模型参数配置
基本参数
高级参数
[-2.0-2.0], 默认值:0.0,此设置旨在根据标记在输入中出现的频率来控制其重复。它会尝试减少那些在输入中 出现次数较多的标记的使用频率,其使用频率与标记出现的频率成正比。标记惩罚会 随着出现次数的增加而变化。负值将鼓励标记重复使用。
[-2.0 至 2.0],默认值:0.0,调整模型重复输入中已使用的特定 token 的频率。 值越高,重复的可能性就越小,负值则相反。token 惩罚不会随着出现次数而变化。 负值会鼓励 token 的重复使用。
[0.0 至 2.0],默认值:1.0,有助于减少输入中 token 的重复。较高的值会降低模型重复 token 的可能性,但过高的值会使输出不够连贯(通常会出现缺少小词的连续句子)。 token 惩罚会根据原始 token 的概率进行调整。
[0.0 至 1.0],默认值:0.0,表示相对于最可能 token 的概率,某个 token 被考虑的最小概率。(该值会根据最可能 token 的置信度而变化。)如果 Min-P 设置为 0.1,则表示它只允许概率至少为最佳选项 1/10 的 token 被考虑。
[0.0 至 1.0],默认值:0.0,基于最可能出现的 token 的概率,仅考虑概率“足够高”的顶级 token。可以将其视为一个动态的 Top-P。较低的 Top-A 值会聚焦于基于最高概率 token 的选择,但范围会更窄。较高的 Top-A 值不一定会影响输出的创造性, 而是会根据最大概率来优化过滤过程。
整数,如果指定,推理将确定性地采样,这样使用相同种子和参数的重复请求应该返回相同的结果。 某些模型无法保证确定性。
格式:字符串数组,路由覆盖的模型备用列表。
格式:字符串,提供商路由的偏好。
格式:字符串,模型推理/思考令牌的配置。
格式:布尔值,是否在响应中包含使用信息。
格式:字符串数组,提示转换列表(仅限 OpenRouter)。
布尔值,启用结果流。
Logit 偏差,Map,接受一个 JSON 对象,该对象将 token(由 token 生成器中的 token ID 指定) 映射到一个从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到 模型生成的对数函数中。具体效果会因模型而异,但 -1 到 1 之间的值应该会降低 或增加被选中的可能性;而 -100 或 100 这样的值应该会导致相关 token 被禁止或被独占选中。
整数,[0 到 20 之间的整数],指定每个标记位置最可能返回的标记数,每个标记都具有相关的对数概率。 如果使用此参数,则必须将 logprobs 设置为 true。
附加参数
说明:附加参数为openrouter.ai-chat-completion 不需要的参数,不用管它。
布尔值,是否返回输出 token 的对数概率。如果为 true,则返回每个输出 token 的对数概率。
布尔值,如果模型可以使用response_format json_schema返回结构化输出。