mirror of
https://github.com/zhenxun-org/zhenxun_bot.git
synced 2025-12-14 21:52:56 +08:00
Some checks failed
检查bot是否运行正常 / bot check (push) Has been cancelled
CodeQL Code Security Analysis / Analyze (${{ matrix.language }}) (none, python) (push) Has been cancelled
Sequential Lint and Type Check / ruff-call (push) Has been cancelled
Release Drafter / Update Release Draft (push) Has been cancelled
Force Sync to Aliyun / sync (push) Has been cancelled
Update Version / update-version (push) Has been cancelled
Sequential Lint and Type Check / pyright-call (push) Has been cancelled
* ⚡️ perf(image_utils): 优化图片哈希获取避免阻塞异步 * ✨ feat(llm): 增强 LLM 管理功能,支持纯文本列表输出,优化模型能力识别并新增提供商 - 【LLM 管理器】为 `llm list` 命令添加 `--text` 选项,支持以纯文本格式输出模型列表。 - 【LLM 配置】新增 `OpenRouter` LLM 提供商的默认配置。 - 【模型能力】增强 `get_model_capabilities` 函数的查找逻辑,支持模型名称分段匹配和更灵活的通配符匹配。 - 【模型能力】为 `Gemini` 模型能力注册表使用更通用的通配符模式。 - 【模型能力】新增 `GPT` 系列模型的详细能力定义,包括多模态输入输出和工具调用支持。 * ✨ feat(renderer): 添加 Jinja2 `inline_asset` 全局函数 - 新增 `RendererService._inline_asset_global` 方法,并注册为 Jinja2 全局函数 `inline_asset`。 - 允许模板通过 `{{ inline_asset('@namespace/path/to/asset.svg') }}` 直接内联已注册命名空间下的资源文件内容。 - 主要用于解决内联 SVG 时可能遇到的跨域安全问题。 - 【重构】优化 `ResourceResolver.resolve_asset_uri` 中对命名空间资源 (以 `@` 开头) 的解析逻辑,确保能够正确获取文件绝对路径并返回 URI。 - 改进 `RenderableComponent.get_extra_css`,使其在组件定义 `component_css` 时自动返回该 CSS 内容。 - 清理 `Renderable` 协议和 `RenderableComponent` 基类中已存在方法的 `[新增]` 标记。 * ✨ feat(tag): 添加标签克隆功能 - 新增 `tag clone <源标签名> <新标签名>` 命令,用于复制现有标签。 - 【优化】在 `tag create`, `tag edit --add`, `tag edit --set` 命令中,自动去重传入的群组ID,避免重复关联。 * ✨ feat(broadcast): 实现标签定向广播、强制发送及并发控制 - 【新功能】 - 新增标签定向广播功能,支持通过 `-t <标签名>` 或 `广播到 <标签名>` 命令向指定标签的群组发送消息 - 引入广播强制发送模式,允许绕过群组的任务阻断设置 - 实现广播并发控制,通过配置限制同时发送任务数量,避免API速率限制 - 优化视频消息处理,支持从URL下载视频内容并作为原始数据发送,提高跨平台兼容性 - 【配置】 - 添加 `DEFAULT_BROADCAST` 配置项,用于设置群组进群时广播功能的默认开关状态 - 添加 `BROADCAST_CONCURRENCY_LIMIT` 配置项,用于控制广播时的最大并发任务数 * ✨ feat(renderer): 支持组件变体样式收集 * ✨ feat(tag): 实现群组标签自动清理及手动清理功能 * 🐛 fix(gemini): 增加响应验证以处理内容过滤(promptFeedback) * 🐛 fix(codeql): 移除对 JavaScript 和 TypeScript 的分析支持 * 🚨 auto fix by pre-commit hooks --------- Co-authored-by: webjoin111 <455457521@qq.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
202 lines
6.7 KiB
Python
202 lines
6.7 KiB
Python
from collections import defaultdict
|
|
|
|
from nonebot.permission import SUPERUSER
|
|
from nonebot.plugin import PluginMetadata
|
|
from nonebot_plugin_alconna import (
|
|
Alconna,
|
|
Args,
|
|
Arparma,
|
|
Match,
|
|
Option,
|
|
Query,
|
|
Subcommand,
|
|
on_alconna,
|
|
store_true,
|
|
)
|
|
|
|
from zhenxun.configs.utils import PluginExtraData
|
|
from zhenxun.services.log import logger
|
|
from zhenxun.utils.enum import PluginType
|
|
from zhenxun.utils.message import MessageUtils
|
|
|
|
from .data_source import DataSource
|
|
from .presenters import Presenters
|
|
|
|
__plugin_meta__ = PluginMetadata(
|
|
name="LLM模型管理",
|
|
description="查看和管理大语言模型服务。",
|
|
usage="""
|
|
LLM模型管理 (SUPERUSER)
|
|
|
|
llm list [--all]
|
|
- 查看可用模型列表。
|
|
- --all: 显示包括不可用在内的所有模型。
|
|
|
|
llm info <Provider/ModelName>
|
|
- 查看指定模型的详细信息和能力。
|
|
|
|
llm default [Provider/ModelName]
|
|
- 查看或设置全局默认模型。
|
|
- 不带参数: 查看当前默认模型。
|
|
- 带参数: 设置新的默认模型。
|
|
- 例子: llm default Gemini/gemini-2.0-flash
|
|
|
|
llm test <Provider/ModelName>
|
|
- 测试指定模型的连通性和API Key有效性。
|
|
|
|
llm keys <ProviderName>
|
|
- 查看指定提供商的所有API Key状态。
|
|
|
|
llm reset-key <ProviderName> [--key <api_key>]
|
|
- 重置提供商的所有或指定API Key的失败状态。
|
|
""",
|
|
extra=PluginExtraData(
|
|
author="HibiKier",
|
|
version="1.0.0",
|
|
plugin_type=PluginType.SUPERUSER,
|
|
).to_dict(),
|
|
)
|
|
|
|
llm_cmd = on_alconna(
|
|
Alconna(
|
|
"llm",
|
|
Subcommand(
|
|
"list",
|
|
Option("--text", action=store_true, help_text="以纯文本格式输出模型列表"),
|
|
alias=["ls"],
|
|
help_text="查看模型列表",
|
|
),
|
|
Subcommand("info", Args["model_name", str], help_text="查看模型详情"),
|
|
Subcommand("default", Args["model_name?", str], help_text="查看或设置默认模型"),
|
|
Subcommand(
|
|
"test", Args["model_name", str], alias=["ping"], help_text="测试模型连通性"
|
|
),
|
|
Subcommand("keys", Args["provider_name", str], help_text="查看API密钥状态"),
|
|
Subcommand(
|
|
"reset-key",
|
|
Args["provider_name", str],
|
|
Option("--key", Args["api_key", str], help_text="指定要重置的API Key"),
|
|
help_text="重置API Key状态",
|
|
),
|
|
Option("--all", action=store_true, help_text="显示所有条目"),
|
|
),
|
|
permission=SUPERUSER,
|
|
priority=5,
|
|
block=True,
|
|
)
|
|
|
|
|
|
@llm_cmd.assign("list")
|
|
async def handle_list(
|
|
arp: Arparma,
|
|
show_all: Query[bool] = Query("all"),
|
|
text_mode: Query[bool] = Query("list.text.value", False),
|
|
):
|
|
"""处理 'llm list' 命令"""
|
|
logger.info("获取LLM模型列表", command="LLM Manage", session=arp.header_result)
|
|
models = await DataSource.get_model_list(show_all=show_all.result)
|
|
|
|
if text_mode.result:
|
|
if not models:
|
|
await llm_cmd.finish("当前没有配置任何LLM模型。")
|
|
|
|
grouped_models = defaultdict(list)
|
|
for model in models:
|
|
grouped_models[model["provider_name"]].append(model)
|
|
|
|
response_parts = ["可用的LLM模型列表:"]
|
|
for provider, model_list in grouped_models.items():
|
|
response_parts.append(f"\n{provider}:")
|
|
for model in model_list:
|
|
response_parts.append(
|
|
f" {model['provider_name']}/{model['model_name']}"
|
|
)
|
|
|
|
response_text = "\n".join(response_parts)
|
|
await llm_cmd.finish(response_text)
|
|
else:
|
|
image = await Presenters.format_model_list_as_image(models, show_all.result)
|
|
await llm_cmd.finish(MessageUtils.build_message(image))
|
|
|
|
|
|
@llm_cmd.assign("info")
|
|
async def handle_info(arp: Arparma, model_name: Match[str]):
|
|
"""处理 'llm info' 命令"""
|
|
logger.info(
|
|
f"获取模型详情: {model_name.result}",
|
|
command="LLM Manage",
|
|
session=arp.header_result,
|
|
)
|
|
details = await DataSource.get_model_details(model_name.result)
|
|
if not details:
|
|
await llm_cmd.finish(f"未找到模型: {model_name.result}")
|
|
|
|
image_bytes = await Presenters.format_model_details_as_markdown_image(details)
|
|
await llm_cmd.finish(MessageUtils.build_message(image_bytes))
|
|
|
|
|
|
@llm_cmd.assign("default")
|
|
async def handle_default(arp: Arparma, model_name: Match[str]):
|
|
"""处理 'llm default' 命令"""
|
|
if model_name.available:
|
|
logger.info(
|
|
f"设置默认模型为: {model_name.result}",
|
|
command="LLM Manage",
|
|
session=arp.header_result,
|
|
)
|
|
_success, message = await DataSource.set_default_model(model_name.result)
|
|
await llm_cmd.finish(message)
|
|
else:
|
|
logger.info("查看默认模型", command="LLM Manage", session=arp.header_result)
|
|
current_default = await DataSource.get_default_model()
|
|
await llm_cmd.finish(f"当前全局默认模型为: {current_default or '未设置'}")
|
|
|
|
|
|
@llm_cmd.assign("test")
|
|
async def handle_test(arp: Arparma, model_name: Match[str]):
|
|
"""处理 'llm test' 命令"""
|
|
logger.info(
|
|
f"测试模型连通性: {model_name.result}",
|
|
command="LLM Manage",
|
|
session=arp.header_result,
|
|
)
|
|
await llm_cmd.send(f"正在测试模型 '{model_name.result}',请稍候...")
|
|
|
|
_success, message = await DataSource.test_model_connectivity(model_name.result)
|
|
await llm_cmd.finish(message)
|
|
|
|
|
|
@llm_cmd.assign("keys")
|
|
async def handle_keys(arp: Arparma, provider_name: Match[str]):
|
|
"""处理 'llm keys' 命令"""
|
|
logger.info(
|
|
f"查看提供商API Key状态: {provider_name.result}",
|
|
command="LLM Manage",
|
|
session=arp.header_result,
|
|
)
|
|
sorted_stats = await DataSource.get_key_status(provider_name.result)
|
|
if not sorted_stats:
|
|
await llm_cmd.finish(
|
|
f"未找到提供商 '{provider_name.result}' 或其没有配置API Keys。"
|
|
)
|
|
|
|
image = await Presenters.format_key_status_as_image(
|
|
provider_name.result, sorted_stats
|
|
)
|
|
await llm_cmd.finish(MessageUtils.build_message(image))
|
|
|
|
|
|
@llm_cmd.assign("reset-key")
|
|
async def handle_reset_key(
|
|
arp: Arparma, provider_name: Match[str], api_key: Match[str]
|
|
):
|
|
"""处理 'llm reset-key' 命令"""
|
|
key_to_reset = api_key.result if api_key.available else None
|
|
log_msg = f"重置 {provider_name.result} 的 " + (
|
|
"指定API Key" if key_to_reset else "所有API Keys"
|
|
)
|
|
logger.info(log_msg, command="LLM Manage", session=arp.header_result)
|
|
|
|
_success, message = await DataSource.reset_key(provider_name.result, key_to_reset)
|
|
await llm_cmd.finish(message)
|