|
|
@@ -55,7 +55,7 @@ class GenerateModelClient:
|
|
|
current_timeout = timeout or self.default_timeout
|
|
|
|
|
|
try:
|
|
|
- logger.info(f"[模型调用] 开始处理 trace_id: {trace_id}, 超时时间: {current_timeout}s")
|
|
|
+ logger.info(f"[模型调用] 开始处理 trace_id: {trace_id}, 超时配置: {current_timeout}s")
|
|
|
|
|
|
prompt_template = task_prompt_info["task_prompt"]
|
|
|
messages = prompt_template.format_messages()
|
|
|
@@ -92,7 +92,7 @@ class GenerateModelClient:
|
|
|
current_timeout = timeout or self.default_timeout
|
|
|
|
|
|
try:
|
|
|
- logger.info(f"[模型流式调用] 开始处理 trace_id: {trace_id}, 超时时间: {current_timeout}s")
|
|
|
+ logger.info(f"[模型流式调用] 开始处理 trace_id: {trace_id}, 超时配置: {current_timeout}s")
|
|
|
|
|
|
prompt_template = task_prompt_info["task_prompt"]
|
|
|
messages = prompt_template.format_messages()
|
|
|
@@ -115,4 +115,4 @@ class GenerateModelClient:
|
|
|
logger.error(f"[模型流式调用] 异常 trace_id: {trace_id}, 耗时: {elapsed_time:.2f}s, 错误类型: {type(e).__name__}, 错误信息: {str(e)}")
|
|
|
raise
|
|
|
|
|
|
-generate_model_client = GenerateModelClient(default_timeout=120, max_retries=3, backoff_factor=1.0)
|
|
|
+generate_model_client = GenerateModelClient(default_timeout=30, max_retries=3, backoff_factor=1.0)
|