mirror of
https://github.com/zhenxun-org/zhenxun_bot.git
synced 2025-12-15 14:22:55 +08:00
🔧 新增功能: - LLM模型管理插件 (builtin_plugins/llm_manager/) • llm list - 查看可用模型列表 (图片格式) • llm info - 查看模型详细信息 (Markdown图片) • llm default - 管理全局默认模型 • llm test - 测试模型连通性 • llm keys - 查看API Key状态 (表格图片,含健康度/成功率/延迟) • llm reset-key - 重置API Key失败状态 🏗️ 架构重构: - 会话管理: AI/AIConfig 类迁移至独立的 session.py - 类型定义: TaskType 枚举移至 types/enums.py - API增强: • chat() 函数返回完整 LLMResponse,支持工具调用 • 新增 generate() 函数用于一次性响应生成 • 统一API调用核心方法 _perform_api_call,返回使用的API密钥 🚀 密钥管理增强: - 详细状态跟踪: 健康度、成功率、平均延迟、错误信息、建议操作 - 状态持久化: 启动时加载,关闭时自动保存密钥状态 - 智能冷却策略: 根据错误类型设置不同冷却时间 - 延迟监控: with_smart_retry 记录API调用延迟并更新统计 Co-authored-by: webjoin111 <455457521@qq.com> Co-authored-by: HibiKier <45528451+HibiKier@users.noreply.github.com>
84 lines
1.9 KiB
Python
84 lines
1.9 KiB
Python
"""
|
|
Zhenxun Bot - 核心服务模块
|
|
|
|
主要服务包括:
|
|
- 数据库上下文 (db_context): 提供数据库模型基类和连接管理。
|
|
- 日志服务 (log): 提供增强的、带上下文的日志记录器。
|
|
- LLM服务 (llm): 提供与大语言模型交互的统一API。
|
|
- 插件生命周期管理 (plugin_init): 支持插件安装和卸载时的钩子函数。
|
|
- 定时任务调度器 (scheduler): 提供持久化的、可管理的定时任务服务。
|
|
"""
|
|
|
|
from nonebot import require
|
|
|
|
require("nonebot_plugin_apscheduler")
|
|
require("nonebot_plugin_alconna")
|
|
require("nonebot_plugin_session")
|
|
require("nonebot_plugin_htmlrender")
|
|
require("nonebot_plugin_uninfo")
|
|
require("nonebot_plugin_waiter")
|
|
|
|
from .db_context import Model, disconnect
|
|
from .llm import (
|
|
AI,
|
|
AIConfig,
|
|
CommonOverrides,
|
|
LLMContentPart,
|
|
LLMException,
|
|
LLMGenerationConfig,
|
|
LLMMessage,
|
|
analyze,
|
|
analyze_multimodal,
|
|
chat,
|
|
clear_model_cache,
|
|
code,
|
|
create_multimodal_message,
|
|
embed,
|
|
generate,
|
|
get_cache_stats,
|
|
get_model_instance,
|
|
list_available_models,
|
|
list_embedding_models,
|
|
pipeline_chat,
|
|
search,
|
|
search_multimodal,
|
|
set_global_default_model_name,
|
|
tool_registry,
|
|
)
|
|
from .log import logger
|
|
from .plugin_init import PluginInit, PluginInitManager
|
|
from .scheduler import scheduler_manager
|
|
|
|
__all__ = [
|
|
"AI",
|
|
"AIConfig",
|
|
"CommonOverrides",
|
|
"LLMContentPart",
|
|
"LLMException",
|
|
"LLMGenerationConfig",
|
|
"LLMMessage",
|
|
"Model",
|
|
"PluginInit",
|
|
"PluginInitManager",
|
|
"analyze",
|
|
"analyze_multimodal",
|
|
"chat",
|
|
"clear_model_cache",
|
|
"code",
|
|
"create_multimodal_message",
|
|
"disconnect",
|
|
"embed",
|
|
"generate",
|
|
"get_cache_stats",
|
|
"get_model_instance",
|
|
"list_available_models",
|
|
"list_embedding_models",
|
|
"logger",
|
|
"pipeline_chat",
|
|
"scheduler_manager",
|
|
"search",
|
|
"search_multimodal",
|
|
"set_global_default_model_name",
|
|
"tool_registry",
|
|
]
|