|
@@ -23,6 +23,7 @@
|
|
|
├── _get_deepseek_model() # 获取DeepSeek模型
|
|
├── _get_deepseek_model() # 获取DeepSeek模型
|
|
|
├── _get_gemini_model() # 获取Gemini模型
|
|
├── _get_gemini_model() # 获取Gemini模型
|
|
|
├── _get_lq_qwen3_8b_model() # 获取本地Qwen3-8B模型
|
|
├── _get_lq_qwen3_8b_model() # 获取本地Qwen3-8B模型
|
|
|
|
|
+├── _get_lq_qwen3_4b_model() # 获取本地Qwen3-4B模型
|
|
|
└── _get_qwen_local_14b_model() # 获取本地Qwen3-14B模型
|
|
└── _get_qwen_local_14b_model() # 获取本地Qwen3-14B模型
|
|
|
'''
|
|
'''
|
|
|
|
|
|
|
@@ -43,6 +44,7 @@ class ModelHandler:
|
|
|
- deepseek: DeepSeek模型
|
|
- deepseek: DeepSeek模型
|
|
|
- gemini: Gemini模型
|
|
- gemini: Gemini模型
|
|
|
- lq_qwen3_8b: 本地Qwen3-8B模型
|
|
- lq_qwen3_8b: 本地Qwen3-8B模型
|
|
|
|
|
+ - lq_qwen3_4b: 本地Qwen3-4B模型
|
|
|
- qwen_local_14b: 本地Qwen3-14B模型
|
|
- qwen_local_14b: 本地Qwen3-14B模型
|
|
|
"""
|
|
"""
|
|
|
|
|
|
|
@@ -63,7 +65,7 @@ class ModelHandler:
|
|
|
|
|
|
|
|
Note:
|
|
Note:
|
|
|
根据配置文件中的MODEL_TYPE参数选择对应模型
|
|
根据配置文件中的MODEL_TYPE参数选择对应模型
|
|
|
- 支持的模型类型:doubao, qwen, deepseek, lq_qwen3_8b, qwen_local_14b
|
|
|
|
|
|
|
+ 支持的模型类型:doubao, qwen, deepseek, lq_qwen3_8b, lq_qwen3_4b, qwen_local_14b
|
|
|
默认返回豆包模型
|
|
默认返回豆包模型
|
|
|
"""
|
|
"""
|
|
|
model_type = self.config.get("model", "MODEL_TYPE")
|
|
model_type = self.config.get("model", "MODEL_TYPE")
|
|
@@ -71,7 +73,7 @@ class ModelHandler:
|
|
|
|
|
|
|
|
if model_type == "doubao":
|
|
if model_type == "doubao":
|
|
|
model = self._get_doubao_model()
|
|
model = self._get_doubao_model()
|
|
|
- if model_type == "gemini":
|
|
|
|
|
|
|
+ elif model_type == "gemini":
|
|
|
model = self._get_gemini_model()
|
|
model = self._get_gemini_model()
|
|
|
elif model_type == "qwen":
|
|
elif model_type == "qwen":
|
|
|
model = self._get_qwen_model()
|
|
model = self._get_qwen_model()
|
|
@@ -79,12 +81,14 @@ class ModelHandler:
|
|
|
model = self._get_deepseek_model()
|
|
model = self._get_deepseek_model()
|
|
|
elif model_type == "lq_qwen3_8b":
|
|
elif model_type == "lq_qwen3_8b":
|
|
|
model = self._get_lq_qwen3_8b_model()
|
|
model = self._get_lq_qwen3_8b_model()
|
|
|
|
|
+ elif model_type == "lq_qwen3_4b":
|
|
|
|
|
+ model = self._get_lq_qwen3_4b_model()
|
|
|
elif model_type == "qwen_local_14b":
|
|
elif model_type == "qwen_local_14b":
|
|
|
model = self._get_qwen_local_14b_model()
|
|
model = self._get_qwen_local_14b_model()
|
|
|
else:
|
|
else:
|
|
|
- # 默认返回豆包
|
|
|
|
|
|
|
+ # 默认返回gemini
|
|
|
logger.warning(f"未知的模型类型 '{model_type}',使用默认gemini模型")
|
|
logger.warning(f"未知的模型类型 '{model_type}',使用默认gemini模型")
|
|
|
- model = model = self._get_gemini_model()
|
|
|
|
|
|
|
+ model = self._get_gemini_model()
|
|
|
|
|
|
|
|
logger.info(f"AI模型初始化完成: {model_type}")
|
|
logger.info(f"AI模型初始化完成: {model_type}")
|
|
|
return model
|
|
return model
|
|
@@ -189,25 +193,25 @@ class ModelHandler:
|
|
|
ChatOpenAI: 配置好的本地Qwen3-8B模型实例
|
|
ChatOpenAI: 配置好的本地Qwen3-8B模型实例
|
|
|
"""
|
|
"""
|
|
|
llm = ChatOpenAI(
|
|
llm = ChatOpenAI(
|
|
|
- base_url="http://192.168.91.253:9000/v1",
|
|
|
|
|
- model="/mnt/Qwen3-8B",
|
|
|
|
|
|
|
+ base_url="http://192.168.91.253:9002/v1",
|
|
|
|
|
+ model="Qwen3-8B",
|
|
|
api_key="dummy", # 本地模型使用虚拟API key
|
|
api_key="dummy", # 本地模型使用虚拟API key
|
|
|
temperature=0.7,
|
|
temperature=0.7,
|
|
|
)
|
|
)
|
|
|
|
|
|
|
|
return llm
|
|
return llm
|
|
|
|
|
|
|
|
- def _get_qwen_local_14b_model(self):
|
|
|
|
|
|
|
+ def _get_lq_qwen3_4b_model(self):
|
|
|
"""
|
|
"""
|
|
|
- 获取本地Qwen3-14B模型
|
|
|
|
|
|
|
+ 获取本地Qwen3-4B-Instruct模型
|
|
|
|
|
|
|
|
Returns:
|
|
Returns:
|
|
|
- ChatOpenAI: 配置好的本地Qwen3-14B模型实例
|
|
|
|
|
|
|
+ ChatOpenAI: 配置好的本地Qwen3-4B模型实例
|
|
|
"""
|
|
"""
|
|
|
llm = ChatOpenAI(
|
|
llm = ChatOpenAI(
|
|
|
- base_url="http://172.16.35.50:8003/v1",
|
|
|
|
|
- model="Qwen3-14B",
|
|
|
|
|
- api_key="sk-dummy", # 本地模型使用虚拟API key
|
|
|
|
|
|
|
+ base_url="http://192.168.91.253:9001/v1",
|
|
|
|
|
+ model="Qwen3-4B",
|
|
|
|
|
+ api_key="dummy", # 本地模型使用虚拟API key
|
|
|
temperature=0.7,
|
|
temperature=0.7,
|
|
|
)
|
|
)
|
|
|
|
|
|