github-repo-search

帮助用户搜索和筛选 GitHub 开源项目,输出结构化推荐报告。当用户说"帮我找开源项目"、"搜一下GitHub上有什么"、"找找XX方向的仓库"、"开源项目推荐"、"github搜索"、"/github-search"时触发。

Safety Notice

This listing is imported from skills.sh public index metadata. Review upstream SKILL.md and repository scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "github-repo-search" with this command: npx skills add yunshu0909/yunshu_skillshub/yunshu0909-yunshu-skillshub-github-repo-search

GitHub 开源项目搜索助手

用途

从用户自然语言需求出发,经过需求挖掘、检索词拆解、GitHub 检索、过滤分类、深度解读,最终产出结构化推荐结果。

目标不是"给很多链接",而是"给用户可理解、可比较、可决策、可直接行动的候选仓库列表"。

适用范围(V1.1)

  • 数据源:GitHub 公开仓库。
  • 默认不授权(不使用用户 Token)。
  • 默认硬过滤:stars >= 100archived=falseis:public
  • 默认输出:单榜单(Top N),榜单内按"仓库归属类型"标注。
  • 本流程默认不包含安装与落地实施(除非用户单独提出)。

配额说明(必须知晓)

  • 未授权 Core API:60 次/小时
  • Search API:10 次/分钟(独立于 Core 额度)。
  • 需要在报告中注明检索时间与配额状态,避免结果不可复现。

工作流程

环节一:需求收敛(必须完成,不可跳过)

硬性门控:环节一是整个流程的前置条件。无论用户的需求描述多么清晰,都必须走完本环节并获得用户明确确认后,才能进入环节二。禁止根据用户的初始描述直接推断需求并开始检索。即使用户说"直接搜就行",也要先输出需求摘要让用户确认。

第一步:需求挖掘与对齐

目标:把"我想看看 XX"转成可执行、可排序、可解释的检索目标。

需确认信息(最少)

  1. 主题(如:agent 记忆、RAG、浏览器自动化)
  2. 数量(Top 10 / Top 20)
  3. 最低 stars(默认 100)
  4. 排序模式(必须二选一):相关性优先 / 星标优先(默认:相关性优先)
  5. 目标形态(必须二选一或多选): 可直接使用的产品 / 可二次开发的框架 / 资料清单/方法论

建议补充信息(可选)

  1. 偏好技术栈(Python/TS/Go 等)
  2. 使用场景(学习、生产、对标)
  3. 排除项(教程仓库、归档仓库、纯论文复现等)
  4. 部署偏好(本地优先/云端优先/混合)

阶段输出(固定格式)

核心诉求:
- 主题:xxx
- 数量:Top N
- 最低 stars:>= 100
- 排序模式:相关性优先 / 星标优先(默认:相关性优先)
- 目标形态:xxx
- 偏好:xxx(可空)
- 排除:xxx(可空)

向用户确认以上信息。用户明确确认后才能进入环节二,否则停在这里继续对齐。


环节二:检索执行(以下环节由模型自主执行,无需用户介入,直到环节四交付报告)

第二步:检索词拆解(5-10 组)

目标:平衡"召回率"和"相关性",避免只靠单词硬搜导致偏题。

拆词规则

每组 query 由以下维度组合:

  1. 核心词:用户目标词
  2. 同义词:替代表达(如 long-term memory / stateful memory)
  3. 场景词:coding、mcp、tool、platform、awesome、curated
  4. 技术词:agent、sdk、framework、database、os
  5. 排除思路:不在 query 里硬写过多负例,放到后续过滤阶段

产出格式

Query-1: "xxx"
目的:高召回核心主题

Query-2: "xxx"
目的:补同义词盲区

第三步:执行检索与候选召回

执行原则

  1. 每组 query 都执行检索(建议每组 30-50 条)。
  2. 合并结果形成候选池。
  3. owner/repo 去重。
  4. 记录检索时间与 API 额度信息。

候选池字段(最少)

  1. owner/repo
  2. stars
  3. description
  4. repo_url
  5. archived
  6. language
  7. updated_at
  8. topics
  9. license

第四步:去重与硬过滤

硬过滤(默认)

  1. stars >= 100
  2. archived = false
  3. is:public

可选硬过滤(按需)

  1. fork = false
  2. 指定语言:language:xxx
  3. 更新时效:最近 6-12 个月

环节三:质量精炼

第五步:噪音剔除与相关性重排

目标:解决"命中 memory 但其实不是 agent memory"的噪音问题。

噪音剔除规则(示例)

  1. 与主题无关的通用工程仓库(即使 stars 很高)
  2. 关键词误命中仓库(仅描述中偶然出现 memory/agent)
  3. 无实质内容或异常仓库

排序原则(V1.1)

star 不再作为主排序,只作为召回门槛之一。 建议综合排序权重:

  1. 需求相关性:35%
  2. 场景适用性:30%
  3. 活跃度(更新时效):15%
  4. 工程成熟度(文档/示例/可维护):15%
  5. stars:5%

第六步:仓库归属类型分类(必须)

目标:让用户一眼看懂"这个仓库到底是什么角色",避免把框架、应用、目录混为一谈。

推荐类型字典

  1. 通用框架层
  2. 应用产品层(可直接使用)
  3. 记忆层/上下文基础设施
  4. MCP 服务层
  5. 目录清单层(awesome/curated)
  6. 垂直场景方案层
  7. 方法论/研究层

第七步:深读与项目介绍撰写(必须)

目标:不是"仓库简介复述",而是输出"对用户有决策价值"的详细介绍。

深读最低要求

每个入选仓库至少查看:

  1. README 核心定位段
  2. 快速开始/功能章节标题
  3. 近期维护信号(更新时间、Issue/PR 活跃)

项目介绍写作要求(固定)

"项目介绍"必须包含两部分并写细:

  1. 这是什么:它在系统架构中的角色和边界
  2. 为什么推荐:它在用户当前目标下的价值(不是泛泛优点)

可补充:

  1. 典型适用场景(1-2 条)
  2. 限制或不适用场景(1 条)

环节四:交付与迭代

第八步:单榜生成与报告交付(最终)

交付结构(固定)

  1. 需求摘要
  2. 检索词清单(5-10 组 + 目的)
  3. 筛选与重排规则(明确写出)
  4. 结果总览(原始召回/去重后/过滤后)
  5. Top N 单榜(表格)
  6. 结论与下一步建议

Top N 表格字段(固定)

仓库星标仓库归属类型项目介绍(是什么 + 推荐理由)其它信息补充链接

"其它信息补充"建议内容

  • 语言 / License / 最近更新时间
  • 上手复杂度(低/中/高)
  • 风险提示(若有)

第九步:用户确认与迭代(可选)

迭代触发条件

用户反馈"太泛/太窄/不够准/解释不够细"。

迭代动作

  1. 调整检索词(增加场景词或同义词)
  2. 调整 stars 门槛(100 -> 200/500)
  3. 增加限定(语言/方向/更新时间)
  4. 调整类型权重(例如优先应用层或优先框架层)

默认参数(V1.1)

  1. 最低 stars:100
  2. 默认输出:Top 10
  3. 默认过滤:archived=false
  4. 默认必须分类:是
  5. 默认项目介绍粒度:详细(至少"是什么 + 为什么推荐")

质量检查清单(交付前自检)

  1. 是否完成需求对齐并明确"目标形态"
  2. 是否有 5-10 组 query 且每组有目的
  3. 是否记录了检索时间与配额状态
  4. 是否执行了去重、硬过滤和噪音剔除
  5. 是否完成仓库归属类型分类
  6. 是否每个推荐都有详细项目介绍(不是一句话)
  7. 是否使用固定表格字段交付
  8. 是否避免把安装实施混入本流程

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

weekly-report

No summary provided by upstream source.

Repository SourceNeeds Review
General

writing-assistant

No summary provided by upstream source.

Repository SourceNeeds Review
General

prd-doc-writer

No summary provided by upstream source.

Repository SourceNeeds Review
General

image-assistant

No summary provided by upstream source.

Repository SourceNeeds Review