ai-fact-checker

🔍 AI 事实核查 - 自动验证大模型输出准确性,检测 hallucination 幻觉编造内容,联网搜索交叉验证给出可信度评分和修正。解决大模型一本正经胡说八道的痛点。

Safety Notice

This listing is from the official public ClawHub registry. Review SKILL.md and referenced scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "ai-fact-checker" with this command: npx skills add rudagebil11-jpg/ai-fact-checker

🔍 AI Fact Checker - AI 事实核查

自动验证 AI 输出信息的真实性,检测幻觉(hallucination)编造内容,联网搜索交叉验证,给出可信度评分,并自动修正错误信息。

✨ 痛点解决

大模型经常一本正经地胡说八道:编造不存在的论文、数据、人名、事件、网址。这个技能帮你:

  1. 自动提取 - 智能识别文本中的事实性陈述,排除观点和主观判断
  2. 交叉验证 - 自动联网搜索每个陈述,对比权威来源
  3. 可信度评分 - 给出 ✅ 可信 / ⚠️ 部分存疑 / ❌ 大概率错误
  4. 自动修正 - 如果发现错误,基于搜索结果给出正确信息
  5. 引用来源 - 附上搜索结果链接,方便你进一步核实

🚀 使用方法

基本核查

请用 ai-fact-checker 验证这段信息:
OpenClaw 发布于 2025 年,ClawHub 上有超过 10000 个社区技能。

对话中快速核查

当你对 AI 回答某句话存疑时:

fact-check 这句话是否正确:OpenClaw 的作者是 Peter Steinberger

批量核查整个文档

fact-check-document ./path/to/your-document.md

⚙️ 工作流程

原始文本 → 提取事实陈述 → 逐个联网搜索 → 关键词匹配评分 → 生成核查报告
  1. 智能提取 - 过滤掉观点,只保留可验证的事实陈述
  2. 独立搜索 - 每个陈述单独搜索,保证准确性
  3. 匹配算法 - 根据关键词覆盖率计算可信度分数
  4. 结构化报告 - 清晰展示每个陈述的验证结果

📊 评分标准

评分范围标识说明
90-100✅ 可信信息与多个权威来源一致
60-89⚠️ 部分可信核心信息得到验证,细节无法确认
30-59⚠️ 存疑找不到足够验证来源或信息部分冲突
0-29❌ 错误信息与权威来源矛盾,确认为编造

💡 示例输出

# 🧐 AI 事实核查报告

**原始文本:**
OpenClaw 发布于 2025 年,现在 ClawHub 上已经有超过 10000 个社区技能。作者是 Peter Steinberger。

---

## 1. 核查: "OpenClaw 发布于 2025 年,现在 ClawHub 上已经有超过 10000 个社区技能。作者是 Peter Steinberger。"

- **评分:** 45/100
- **结论:** ⚠️ 存疑
- **原因:** 部分信息与搜索结果不符

**参考来源:**
1. [OpenClaw GitHub - README](https://github.com/openclaw/openclaw)
2. [ClawHub - Official Skill Registry](https://clawhub.ai/skills)

---

**整体评分:** 45/100 - ⚠️ 整体存疑,建议核实

**修正:**
- OpenClaw 发布于 **2024 年**(不是 2025)
- ClawHub 上目前收录 **~5700+** 个技能(不是 10000+)
- ✅ 作者确实是 **Peter Steinberger**

🔧 依赖

  • 需要 OpenClaw 内置 web_search 技能(默认自带,不需要额外安装)
  • 不需要额外 API 密钥,使用现有搜索配额

📦 安装

npx clawhub install ai-fact-checker

🧪 测试

cd ai-fact-checker
node test-run.js

👨‍💻 Author

rudagebil11-jpg

📄 License

MIT

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

Img2img

Generate images from text descriptions using DALL-E 3 while adhering to usage policies and avoiding realistic human faces.

Registry SourceRecently Updated
General

Habitat-GS-Navigator

Navigate and interact with photo-realistic 3DGS environments via the Habitat-GS Bridge. Use when: user asks to explore a 3D scene, perform embodied navigatio...

Registry SourceRecently Updated
General

Memory Palace

持久化记忆管理。Use when: 用户告诉你个人信息/偏好/习惯、需要记住项目状态/技术决策、完成任务后有可复用经验、用户说"记住""别忘了""下次注意"、需要回忆之前的对话内容。支持语义搜索和时间推理。

Registry SourceRecently Updated
General

Podcast Transcript Mining Authority Positioning

Extract guest appearances, speaking topics, and soundbites from podcast transcripts to build authority portfolios and generate podcast pitch templates. Use w...

Registry SourceRecently Updated