// 已使用 json5 进行解析,会自动去掉注释,无需手动去除 { "feConfigs": { "lafEnv": "https://laf.dev" // laf环境。 https://laf.run (杭州阿里云) ,或者私有化的laf环境。如果使用 Laf openapi 功能,需要最新版的 laf 。 }, "systemEnv": { "vectorMaxProcess": 15, // 向量处理线程数量 "qaMaxProcess": 15, // 问答拆分线程数量 "tokenWorkers": 50, // Token 计算线程保持数,会持续占用内存,不能设置太大。 "pgHNSWEfSearch": 100 // 向量搜索参数。越大,搜索越精确,但是速度越慢。设置为100,有99%+精度。 }, "llmModels": [ // { // "provider": "OpenAI", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other // "model": "gpt-4o-mini", // 模型名(对应OneAPI中渠道的模型名) // "name": "gpt-4o-mini", // 模型别名 // "maxContext": 125000, // 最大上下文 // "maxResponse": 16000, // 最大回复 // "quoteMaxToken": 120000, // 最大引用内容 // "maxTemperature": 1.2, // 最大温度 // "charsPointsPrice": 0, // n积分/1k token(商业版) // "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 // "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 // "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) // "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) // "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) // "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) // "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) // "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) // "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 // "customExtractPrompt": "", // 自定义内容提取提示词 // "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 // "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) // "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) // }, // { // "provider": "OpenAI", // "model": "gpt-4o", // "name": "gpt-4o", // "maxContext": 125000, // "maxResponse": 4000, // "quoteMaxToken": 120000, // "maxTemperature": 1.2, // "charsPointsPrice": 0, // "censor": false, // "vision": true, // "datasetProcess": true, // "usedInClassify": true, // "usedInExtractFields": true, // "usedInToolCall": true, // "usedInQueryExtension": true, // "toolChoice": true, // "functionCall": false, // "customCQPrompt": "", // "customExtractPrompt": "", // "defaultSystemChatPrompt": "", // "defaultConfig": {}, // "fieldMap": {} // }, // { // "provider": "OpenAI", // "model": "o1-mini", // "name": "o1-mini", // "maxContext": 125000, // "maxResponse": 65000, // "quoteMaxToken": 120000, // "maxTemperature": 1.2, // "charsPointsPrice": 0, // "censor": false, // "vision": false, // "datasetProcess": true, // "usedInClassify": true, // "usedInExtractFields": true, // "usedInToolCall": true, // "usedInQueryExtension": true, // "toolChoice": false, // "functionCall": false, // "customCQPrompt": "", // "customExtractPrompt": "", // "defaultSystemChatPrompt": "", // "defaultConfig": { // "temperature": 1, // "max_tokens": null, // "stream": false // } // }, // { // "provider": "OpenAI", // "model": "o1-preview", // "name": "o1-preview", // "maxContext": 125000, // "maxResponse": 32000, // "quoteMaxToken": 120000, // "maxTemperature": 1.2, // "charsPointsPrice": 0, // "censor": false, // "vision": false, // "datasetProcess": true, // "usedInClassify": true, // "usedInExtractFields": true, // "usedInToolCall": true, // "usedInQueryExtension": true, // "toolChoice": false, // "functionCall": false, // "customCQPrompt": "", // "customExtractPrompt": "", // "defaultSystemChatPrompt": "", // "defaultConfig": { // "temperature": 1, // "max_tokens": null, // "stream": false // } // } { "provider": "DeepSeek", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other "model": "deepseek-r1:32b-qwen-distill-q8_0", // 模型名(对应OneAPI中渠道的模型名) "name": "deepseek-r1:32b-qwen-distill-q8_0", // 模型别名 "maxContext": 128000, // 最大上下文 "maxResponse": 32000, // 最大回复 "quoteMaxToken": 131000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) }, { "provider": "DeepSeek", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other "model": "deepseek-r1:7b-qwen-distill-q8_0", // 模型名(对应OneAPI中渠道的模型名) "name": "deepseek-r1:7b-qwen-distill-q8_0", // 模型别名 "maxContext": 128000, // 最大上下文 "maxResponse": 32000, // 最大回复 "quoteMaxToken": 131000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) }, { "provider": "Qwen", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other "model": "qwen2.5-instruct-32B-8bit", // 模型名(对应OneAPI中渠道的模型名) "name": "qwen2.5-instruct-32B-8bit", // 模型别名 "maxContext": 32000, // 最大上下文 "maxResponse": 32000, // 最大回复 "quoteMaxToken": 131000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) }, { "provider": "Qwen", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other "model": "qwen2.5-instruct-72B-8bit", // 模型名(对应OneAPI中渠道的模型名) "name": "qwen2.5-instruct-72B-8bit", // 模型别名 "maxContext": 128000, // 最大上下文 "maxResponse": 128000, // 最大回复 "quoteMaxToken": 1280000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) }, { "provider": "Qwen", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other "model": "qwen2.5-32b-instruct", // 模型名(对应OneAPI中渠道的模型名) "name": "qwen2.5-32b-instruct", // 模型别名 "maxContext": 32000, // 最大上下文 "maxResponse": 32000, // 最大回复 "quoteMaxToken": 131000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) // "vision": true, // 是否支持图片输入 "datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p) "fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens) }, { "model": "qwen2.5-instruct", "name": "qwen2.5-instruct", "avatar": "/imgs/model/qwen.svg", "maxContext": 32000, "maxResponse": 16000, "quoteMaxToken": 120000, "maxTemperature": 1.2, "charsPointsPrice": 0, "censor": false, "vision": false, "datasetProcess": true, "usedInClassify": true, "usedInExtractFields": true, "usedInToolCall": true, "usedInQueryExtension": true, "toolChoice": true, "functionCall": false, "customCQPrompt": "", "customExtractPrompt": "", "defaultSystemChatPrompt": "", "defaultConfig": {}, "fieldMap": {} }, { "model": "qwen2.5-vl-instruct", "name": "qwen2.5-vl-instruct", "avatar": "/imgs/model/llava_avatar.svg", "maxContext": 2048, "maxResponse": 1024, "quoteMaxToken": 512, "maxTemperature": 1.2, "charsPointsPrice": 0, "censor": false, "vision": true, "datasetProcess": true, "usedInClassify": true } ], "vectorModels": [ // { // "provider": "OpenAI", // "model": "text-embedding-3-small", // "name": "text-embedding-3-small", // "charsPointsPrice": 0, // "defaultToken": 512, // "maxToken": 3000, // "weight": 100 // }, // { // "provider": "OpenAI", // "model": "text-embedding-3-large", // "name": "text-embedding-3-large", // "charsPointsPrice": 0, // "defaultToken": 512, // "maxToken": 3000, // "weight": 100, // "defaultConfig": { // "dimensions": 1024 // } // }, // { // "provider": "OpenAI", // "model": "text-embedding-ada-002", // 模型名(与OneAPI对应) // "name": "Embedding-2", // 模型展示名 // "charsPointsPrice": 0, // n积分/1k token // "defaultToken": 700, // 默认文本分割时候的 token // "maxToken": 3000, // 最大 token // "weight": 100, // 优先训练权重 // "defaultConfig": {}, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度) // "dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到) // "queryConfig": {} // 参训时的额外参数 // } { "provider": "Ollama", "model": "quentinz/bge-large-zh-v1.5:latest", // 模型名(与OneAPI对应) "name": "quentinz/bge-large-zh-v1.5:latest", // 模型展示名 "charsPointsPrice": 0, // n积分/1k token "defaultToken": 512, // 默认文本分割时候的 token "maxToken": 512, // 最大 token "weight": 100, // 优先训练权重 "defaultConfig": { "dimensions": 1024 }, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度) "dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到) "queryConfig": {} // 参训时的额外参数 }, { "provider": "BAAI", "model": "bge-large-zh", // 模型名(与OneAPI对应) "name": "bge-large-zh", // 模型展示名 "charsPointsPrice": 0, // n积分/1k token "defaultToken": 512, // 默认文本分割时候的 token "maxToken": 512, // 最大 token "weight": 100, // 优先训练权重 "defaultConfig": { "dimensions": 1024 }, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度) "dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到) "queryConfig": {} // 参训时的额外参数 }, { "provider": "BAAI", "model": "bge-m3", // 模型名(与OneAPI对应) "name": "bge-m3", // 模型展示名 "charsPointsPrice": 0, // n积分/1k token "defaultToken": 8192, // 默认文本分割时候的 token "maxToken": 8192, // 最大 token "weight": 100, // 优先训练权重 "defaultConfig": { "dimensions": 1024 }, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度) "dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到) "queryConfig": {} // 参训时的额外参数 }, { "model": "m3e-base", "name": "m3e-base", "avatar": "/imgs/model/openai.svg", "charsPointsPrice": 0, "defaultToken": 1024, "maxToken": 512, "weight": 100, "defaultConfig": { "dimensions": 768 } }, { "model": "m3e-large", "name": "m3e-large", "avatar": "/imgs/model/llava_avatar.svg", "maxContext": 2048, "maxResponse": 1024, "quoteMaxToken": 512, "maxTemperature": 1.2, "charsPointsPrice": 0, "censor": false, "vision": true, "datasetProcess": true, "usedInClassify": true } ], "reRankModels": [], "audioSpeechModels": [ { "provider": "OpenAI", "model": "tts-1", "name": "OpenAI TTS1", "charsPointsPrice": 0, "voices": [ { "label": "Alloy", "value": "alloy", "bufferId": "openai-Alloy" }, { "label": "Echo", "value": "echo", "bufferId": "openai-Echo" }, { "label": "Fable", "value": "fable", "bufferId": "openai-Fable" }, { "label": "Onyx", "value": "onyx", "bufferId": "openai-Onyx" }, { "label": "Nova", "value": "nova", "bufferId": "openai-Nova" }, { "label": "Shimmer", "value": "shimmer", "bufferId": "openai-Shimmer" } ] } ], "whisperModel": { "provider": "OpenAI", "model": "whisper-1", "name": "Whisper1", "charsPointsPrice": 0 } }