install
source · Clone the upstream repo
git clone https://github.com/openclaw/skills
Claude Code · Install into ~/.claude/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.claude/skills && cp -r "$T/skills/acceleratel/investment-advisor-zhang-openclaw-cn" ~/.claude/skills/clawdbot-skills-046a73 && rm -rf "$T"
OpenClaw · Install into ~/.openclaw/skills/
T=$(mktemp -d) && git clone --depth=1 https://github.com/openclaw/skills "$T" && mkdir -p ~/.openclaw/skills && cp -r "$T/skills/acceleratel/investment-advisor-zhang-openclaw-cn" ~/.openclaw/skills/clawdbot-skills-046a73 && rm -rf "$T"
manifest:
skills/acceleratel/investment-advisor-zhang-openclaw-cn/SKILL.mdsource content
🔍 百度搜索
Search the web with Baidu AI
通过百度 AI 搜索 API 进行网页搜索,获取中文互联网的实时信息。
Setup
cd {baseDir} echo "BAIDU_API_KEY=your-api-key" > .env uv venv && uv pip install -e ".[dev]" uv run --env-file .env uvicorn baidu_search.main:app --host 127.0.0.1 --port 8001
需要在
.env 或环境变量中设置 BAIDU_API_KEY。
获取 API Key
- 访问 百度智能云控制台
- 创建应用获取 API Key
Quick Start
-
检查服务:
curl http://127.0.0.1:8001/ping -
搜索网页:
curl -X POST http://127.0.0.1:8001/search \ -H "Content-Type: application/json" \ -d '{ "query": "北京有哪些旅游景区", "top_k": 10 }'
- 带时间过滤的搜索:
curl -X POST http://127.0.0.1:8001/search \ -H "Content-Type: application/json" \ -d '{ "query": "最新科技新闻", "top_k": 5, "recency_filter": "week" }'
- 限定网站搜索:
curl -X POST http://127.0.0.1:8001/search \ -H "Content-Type: application/json" \ -d '{ "query": "天气预报", "top_k": 5, "site_filter": ["www.weather.com.cn"] }'
API 参数
| 参数 | 类型 | 默认值 | 说明 |
|---|---|---|---|
| string | 必填 | 搜索关键词 |
| int | 10 | 返回结果数量 (1-20) |
| string | null | 时间过滤: , , , |
| list | null | 限定搜索的网站列表 |
Response Format
{ "results": [ { "title": "北京十大必去景点", "url": "https://example.com/beijing-attractions", "snippet": "北京作为中国的首都,拥有众多著名景点...", "site_name": "旅游网" } ], "total": 10 }
Conversation Flow
- 用户提问需要搜索的内容
- 判断是否需要时间过滤(如"最新"、"今天"等)
- 调用搜索 API 获取结果
- 整理并展示相关信息
- 可根据需要深入查看某个结果
使用场景
- 查询实时信息(新闻、天气、股票等)
- 搜索中文互联网内容
- 获取特定网站的信息
- 时效性要求高的查询