crawl-xueqiu-my-timeline

爬取雪球首页关注的时间线,生成投资分析报告和 PDF。当用户提及雪球时间线、投资要闻、市场热点、大 V 观点、投资分析、生成 PDF 报告时立即使用此技能

Safety Notice

This listing is imported from skills.sh public index metadata. Review upstream SKILL.md and repository scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "crawl-xueqiu-my-timeline" with this command: npx skills add cnife/xueqiu-skills/cnife-xueqiu-skills-crawl-xueqiu-my-timeline

crawl-xueqiu-my-timeline

爬取雪球首页关注的时间线,保存为按发言人分组的 Markdown 文件,供 AI 分析总结并生成 PDF 投资报告。

特点

  • 自动过滤官方账号(上市公司、指数、ETF 等行情播报)
  • 按发言人分组输出,发言数量降序排列
  • 组内按时间倒序,越新的内容越靠前

快速开始

# 1. 检查环境
sh skills/crawl-xueqiu-my-timeline/scripts/check-cdp.sh
sh skills/crawl-xueqiu-my-timeline/scripts/check-agent-browser.sh

# 2. 爬取最近 24 小时时间线
skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py

# 3. AI 自动读取、分析、生成 PDF 报告

何时使用

应该触发

  • "帮我看看雪球上今天有什么投资要闻"
  • "生成一份市场热点分析报告"
  • "把关注的雪球大 V 观点整理成 PDF"
  • "最近有什么投资热点"
  • "爬取雪球时间线"
  • "生成投资分析报告"

不应触发

  • "打开雪球网站"(只需浏览器操作)
  • "查看某只股票行情"(查询单一数据)
  • "帮我登录雪球"(简单网页操作)

前置准备

确保 Chrome 处于 Debug 模式并安装 agent-browser:

sh skills/crawl-xueqiu-my-timeline/scripts/check-cdp.sh
sh skills/crawl-xueqiu-my-timeline/scripts/check-agent-browser.sh

AI 任务清单

  1. 检查环境:Chrome Debug 模式 + agent-browser
  2. 执行爬取:运行 crawl_xueqiu_home_timeline_api.py
  3. 读取文件:读取生成的 home_timeline_YYYYMMDD_YYYYMMDD.md
  4. 创建 TODO:根据发言人数量创建分析 TODO 列表
  5. 分发任务:启动 subagent 分析用户发言(并发≤3)
  6. 汇总结果:整合所有 subagent 的分析结果
  7. 生成报告:写入 Markdown 格式投资分析报告
  8. 转换 PDF:使用 mdpdf 转换为 PDF
  9. 清理文件:删除临时 Markdown 文件

AI 分析指引

⚠️ 重要:观点归属判断

只有不以 //> 开头的内容才是发言人自己的观点

标记含义是否总结
无标记行发言人本人的发言✅ 需总结
// 开头被评论的其他用户发言❌ 非本人观点
> 开头被引用的转发内容❌ 非本人观点

注释回复@XXX: 前缀是雪球自动生成的,整行都是发言人自己的观点,应总结。

示例

回复@阿企笔记:要知道很多农村的人需要方言语音设备
//回复@青年完:支付宝本来就有音响
> @阿企笔记:中概股失去增长动力

正确总结:发言人认为农村用户需要方言语音设备

错误总结:发言人讨论了支付宝音响、中概股财报

读取输出文件

爬取脚本会在当前目录生成 Markdown 文件:home_timeline_YYYYMMDD_YYYYMMDD.md

# 读取最新生成的时间线文件
cat home_timeline_*.md

分析报告格式

AI 应按以下结构生成投资分析报告:

# 雪球关注时间线分析报告

## 时间范围
2026-03-05 至 2026-03-06

## 发言人统计
- @产业驱动博弈:19 条
- @管我财:6 条
...(逐一列出所有发言人)

## 发言观点总结

### @发言人 A(发言最多的用户)
- **发言数量**: X 条
- **主要观点**:
  - 观点 1 摘要
  - 观点 2 摘要
- **涉及标的**: $股票 1$, $股票 2$
- **情绪倾向**: 乐观/中性/悲观

### @发言人 B
- **发言数量**: X 条
- **主要观点**:
  - 观点摘要
- **涉及标的**: $股票 3$
- **情绪倾向**: 乐观/中性/悲观

...(继续列出所有发言人,直到最后)...

## 市场热点 TOP3
1. 热点主题 1 - 讨论人数 X
2. 热点主题 2 - 讨论人数 X
3. 热点主题 3 - 讨论人数 X

## 投资建议/风险提示
(基于发言内容的综合分析)

核心原则

  • 必须包含所有发言人,即使只有 1 条发言
  • ✅ 按发言数量降序排列
  • ✅ 只总结本人观点(非 //> 开头的内容)
  • ✅ 分析失败的发言人在报告中标注"⚠️ 分析失败"

分析维度

  1. 按发言人分组:汇总同一用户的所有发言
  2. 观点提取:识别核心观点,去重合并相似内容
  3. 标的识别:提取 $股票名$ 格式的代码
  4. 情绪分析:根据用词判断市场情绪
  5. 热点聚合:统计跨用户讨论的话题

AI 分析流程(Subagent 调度)

步骤 1: 创建 TODO 列表

读取时间线文件后,统计每位发言人的发言数量,按单个用户的发言条数决定 TODO 分配策略:

用户发言数量TODO 分配方式说明示例
单个用户 >10 条独占一个 TODO发言多的用户单独分析@A(15 条) → TODO: 分析@A
单个用户 5-10 条3-5 个用户合并一个 TODO中等发言用户分组分析@B(7 条)+@C(6 条)+@D(5 条) → TODO: 分析@B/@C/@D
单个用户 <5 条所有用户合并一个 TODO发言少的用户统一分析@E(3 条)+@F(2 条)+@G(1 条) → TODO: 分析@E/@F/@G

判断逻辑(按顺序检查,满足即停止):

  1. 遍历所有发言人,将用户按发言数量分组:
    • 高产出组:发言数 >10 条
    • 中产出组:发言数 5-10 条
    • 低产出组:发言数 <5 条
  2. 创建 TODO:
    • 高产出组:每个用户一个独立 TODO
    • 中产出组:每 3-5 个用户合并为一个 TODO(如 10 个用户分成 2-3 个 TODO)
    • 低产出组:所有用户合并为 1 个 TODO

使用当前环境支持的工具管理 TODO(如 OpenCode 的 todowrite 工具)

步骤 2: Subagent 指令模板

每个 subagent 收到如下指令:

分析雪球时间线文件中指定用户的发言

**文件路径**: `<时间线文件绝对路径>`

**需分析的用户**:
- @用户 A:19 条发言
- @用户 B:6 条发言

**分析指引**:
1. 读取文件,定位目标用户的发言段落
2. 只总结本人观点(排除 `//` 或 `>` 开头的内容)
3. 提取:核心观点、涉及标的($xxx$格式)、情绪倾向

**输出要求**:
直接返回分析结果(不要写文件),格式:

### @用户 A
- **发言数量**: 19 条
- **主要观点**:
  - 观点 1
  - 观点 2
- **涉及标的**: $XXX$, $YYY$
- **情绪倾向**: 乐观/中性/悲观

步骤 3: 并发调度

  • 并发限制:同时运行的 subagent 不超过 3 个
  • 执行流程
    1. 填充空闲槽位(启动 subagent)
    2. 等待任一 subagent 完成
    3. 标记 TODO 完成/失败
    4. 继续下一批

步骤 4: 重试机制

  • subagent 失败时自动重试,最多 2 次
  • 持续失败的 TODO 在报告中标注"⚠️ 分析失败",并提示用户可手动分析

步骤 5: 结果汇总

整合所有 subagent 的分析结果,生成完整的投资分析报告:

  • 合并所有发言人的分析
  • 识别跨用户讨论的市场热点 TOP3
  • 综合投资建议/风险提示

环境适配指引

主 agent 应根据当前环境的可用工具选择合适的方法:

  • OpenCode:使用 task 工具启动 subagent,使用 todowrite 管理 TODO
  • Claude Code:使用适合当前环境的方式启动 subagent
  • 核心原则:每个 subagent 分析结果通过上下文直接返回(不写中间文件)

爬取脚本参数

skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py [选项]
参数说明默认值
--hours爬取最近 N 小时24
--days爬取最近 N 天-
--start-date开始日期 (YYYY-MM-DD)-
--end-date结束日期 (YYYY-MM-DD)今天
-o, --output输出文件名自动生成

注意--hours--days--start-date 三个参数互斥。

示例

# 爬取最近 24 小时(默认)
skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py

# 爬取最近 2 小时
skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py --hours 2

# 爬取最近 7 天
skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py --days 7

# 指定日期范围
skills/crawl-xueqiu-my-timeline/scripts/crawl_xueqiu_home_timeline_api.py --start-date 2026-03-01 --end-date 2026-03-06

PDF 输出流程

1. 保存分析报告

将分析报告保存为 雪球时间线_YYYYMMDD_YYYYMMDD.md,日期为时间范围的起始和结束日期。

示例:雪球时间线_20260305_20260306.md

2. 转换为 PDF

bunx mdpdf 雪球时间线_YYYYMMDD_YYYYMMDD.md \
  --style=skills/crawl-xueqiu-my-timeline/assets/github-markdown.css

例如:

bunx mdpdf 雪球时间线_20260305_20260306.md \
  --style=skills/crawl-xueqiu-my-timeline/assets/github-markdown.css

可选参数

  • --border=<size>:页边距(默认 20mm),如 --border=15mm
  • --format=<format>:纸张大小(默认 A4),如 --format=A4
  • --orientation=<orientation>:方向(默认 portrait)
  • --title=<title>:PDF 标题

3. 清理临时文件

rm 雪球时间线_YYYYMMDD_YYYYMMDD.md

完整示例

# AI 写入总结文件 → 雪球时间线_20260305_20260306.md

# 转换为 PDF(当前目录生成 PDF)
bunx mdpdf 雪球时间线_20260305_20260306.md \
  --style=skills/crawl-xueqiu-my-timeline/assets/github-markdown.css

# 删除临时 Markdown 文件
rm 雪球时间线_20260305_20260306.md

结果:当前工作目录生成 雪球时间线_20260305_20260306.pdf


输出格式

爬取脚本生成的 home_timeline_*.md 包含:

  • 文件头:时间范围、生成时间、发言统计表格
  • 按发言人分组:发言数量降序排列
  • 每组内时间倒序:越新的发言越靠前
  • 每条发言:发布时间、内容、引用内容、原文链接
  • 自动过滤:官方账号行情播报

注意事项

  1. 需要先登录雪球账号
  2. 如遇 Verification 验证页面,需手动完成验证后重新运行
  3. 爬取过程自动处理分页和 md5__1038 令牌
  4. 输出文件保存在当前工作目录
  5. Subagent 调度:分析任务通过 subagent 执行,并发数≤3,失败自动重试 2 次
  6. 环境适配:主 agent 根据当前环境工具选择 subagent 启动方式

典型使用场景

  1. 每日投资要闻回顾:爬取最近 24 小时,AI 总结市场热点并生成 PDF 报告
  2. 关注大 V 动态:爬取最近 N 天,AI 分析投资观点变化并生成 PDF 报告
  3. 特定事件追踪:指定日期范围,AI 整理事件期间的讨论并生成 PDF 报告

资源文件

  • assets/github-markdown.css: PDF 样式文件(mdpdf 使用)
  • scripts/check-cdp.sh: 检查 Chrome Debug 模式
  • scripts/check-agent-browser.sh: 检查 agent-browser 安装
  • scripts/crawl_xueqiu_home_timeline_api.py: 爬取脚本(主入口)
  • evals/evals.json: 测试用例集(用于验证技能功能)

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

crawl-xueqiu-user-timeline

No summary provided by upstream source.

Repository SourceNeeds Review
General

PayPilot by AGMS

Process payments, send invoices, issue refunds, manage subscriptions, and detect fraud via a secure payment gateway proxy. Use when a user asks to charge som...

Registry SourceRecently Updated
General

Poem Generator

诗歌生成助手。现代诗、俳句、对联、藏头诗、古诗翻译。Poem generator with free verse, haiku, couplets, acrostic poems, classical poetry translation. Use when you need poem generator cap...

Registry SourceRecently Updated
General

Garmin Sync

Sync activities from Garmin China to Garmin Global using local timestamps and distance to avoid duplicates in a one-way sync process.

Registry SourceRecently Updated