Spaces:
Sleeping
A newer version of the Gradio SDK is available:
6.1.0
🧠 CognitiveKernel-Launchpad — 深度研究智能体与基础模型的开放推理运行时框架
🎓 仅用于学术研究与教学使用 — 禁止商用 📄 论文(arXiv:2508.00414) | 🇬🇧 English | 📜 LICENSE
🚀 本 Hugging Face Space 说明
- 本 Space 面向 Hugging Face 部署与访问控制,提供 Gradio 界面。
- 由于调用远程 LLM 服务提供商,运行时无需 GPU,CPU 即可。
- 访问控制:需登录 Hugging Face 才能使用(README 元数据已启用 OAuth 登录)。
- 可选:仅允许组织成员访问(在 README 元数据中添加
hf_oauth_authorized_org: YOUR_ORG_NAME)。
使用步骤(Space)
- 点击 “Sign in with Hugging Face” 登录。
- 在 Space → Settings → Secrets 配置:
OPENAI_API_KEY(必填)OPENAI_API_BASE(如:https://api-inference.modelscope.cn/v1/chat/completions)OPENAI_API_MODEL(如:Qwen/Qwen3-235B-A22B-Instruct-2507)
- 在输入框中提问,查看流式推理与答案。
运行提示
- 启动时会自动准备 Playwright 浏览器(若失败不致命)。
- 启用 Persistent Storage 后,可在
/data下持久化日志或文件。
👉 如需了解完整功能与细节,请前往原始项目仓库: https://github.com/charSLee013/CognitiveKernel-Launchpad
🌟 为什么选择 CognitiveKernel-Launchpad?
本研究用途的分支派生自腾讯的 CognitiveKernel-Pro,专为推理时使用优化:剔除了复杂的训练/SFT 与繁重测试流水线,聚焦于简洁稳定的推理运行时,便于分布式部署与推理落地;同时新增轻量级 Gradio 网页界面,便于交互使用。
🚀 快速开始
1. 安装(无需 GPU)
git clone https://github.com/charSLee013/CognitiveKernel-Launchpad.git
cd CognitiveKernel-Launchpad
python -m venv .venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
pip install -r requirements.txt
2. 设置环境变量(最小化配置)
export OPENAI_API_KEY="sk-..."
export OPENAI_API_BASE="https://api.openai.com/v1"
export OPENAI_API_MODEL="gpt-4o-mini"
3. 运行单个问题
python -m ck_pro "What is the capital of France?"
✅ 就这么简单!你已经在运行一个深度研究智能体。
🛠️ 核心特性
🖥️ 命令行接口
python -m ck_pro \
--config config.toml \
--input questions.txt \
--output answers.txt \
--interactive \
--verbose
| 参数 | 说明 |
|---|---|
-c, --config |
TOML 配置路径(可选) |
-i, --input |
批量输入文件(每行一个问题) |
-o, --output |
将答案输出到文件 |
--interactive |
交互式问答模式 |
-v, --verbose |
显示推理步骤与耗时 |
⚙️ 配置(config.toml)
TOML > 环境变量 > 默认值
使用本仓库提供的两份示例:
- 最小配置:config.minimal.toml —— 详细说明见 CONFIG_EXAMPLES.md
- 全面配置:config.comprehensive.toml —— 完整字段与继承示例见 CONFIG_EXAMPLES.md
🚀 推荐配置
基于当前设置,以下是获得最佳性能的推荐配置:
# 核心智能体配置
[ck.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "Qwen/Qwen3-235B-A22B-Instruct-2507"
[ck.model.extract_body]
temperature = 0.6
max_tokens = 8192
# Web智能体配置(用于网页浏览任务)
[web]
max_steps = 20
use_multimodal = "auto" # 需要时自动使用多模态
[web.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "moonshotai/Kimi-K2-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192
[web.model.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192
# 多模态Web智能体(用于视觉任务)
[web.model_multimodal]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "Qwen/Qwen2.5-VL-72B-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192
[web.model_multimodal.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192
# 搜索配置
[search]
backend = "duckduckgo" # 推荐:可靠且无需API密钥
🔑 API密钥设置
- 获取ModelScope API密钥:访问 ModelScope 获取您的API密钥
- 替换占位符:将所有
your-modelscope-api-key-here替换为您的实际API密钥 - 替代方案:使用环境变量:
export OPENAI_API_KEY="your-actual-key"
📋 模型选择理由
- 主智能体:
Qwen3-235B-A22B-Instruct-2507- 最新高性能推理模型 - Web智能体:
Kimi-K2-Instruct- 针对网页交互任务优化 - 多模态:
Qwen2.5-VL-72B-Instruct- 先进的视觉-语言能力
完整配置与高级选项请参见 CONFIG_EXAMPLES.md。
📊 GAIA 基准评测
评测你的智能体在 GAIA 基准上的表现:
python -m gaia.cli.simple_validate \
--data gaia_val.jsonl \
--level all \
--count 10 \
--output results.jsonl
→ 输出详细的性能汇总与逐任务结果。
🌐 Gradio Web 界面
启动一个更友好的网页界面:
python -m ck_pro.gradio_app --host 0.0.0.0 --port 7860
→ 在浏览器打开 http://localhost:7860。
提示:推荐预先安装 Playwright 浏览器(或在遇到相关错误时再安装):python -m playwright install(Linux 可能还需执行 python -m playwright install-deps)。
📂 日志
- 控制台:默认
INFO级别 - 会话日志:
logs/ck_session_*.log - 可在 TOML 的
[logging]部分进行配置
🧩 架构要点
- 模块化设计:Web、文件、代码、推理模块
- 回退机制:HTTP API → Playwright 浏览器自动化
- 反思与投票:面向测试时优化的策略以提升准确率
- 可扩展:易于接入新模型、工具或数据集
📜 许可证与致谢
这是 腾讯 CognitiveKernel-Pro 的研究用分支。 🔗 原仓库:https://github.com/Tencent/CognitiveKernel-Pro
⚠️ 严格用于学术研究与教学用途,禁止商用。 详见
LICENSE.txt。