llm-memory-integration

LLM Memory Integration - 公开框架包。通过环境变量链接本地私有配置,实现公私分离。

Safety Notice

This listing is from the official public ClawHub registry. Review SKILL.md and referenced scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "llm-memory-integration" with this command: npx skills add xkzs2007/llm-memory-integration

LLM Memory Integration

概述

本技能是一个公开框架包,通过环境变量链接本地私有配置。

核心设计:公开框架 + 本地私有配置

组件位置内容
公开包ClawHub框架 + 模板 + 钩子
私有配置用户本地(CNB_PRIVATE_WORKSPACE)自定义规则和实现

安全特性

  • 无网络访问:不执行任何网络操作
  • 无远程拉取:不从远程仓库下载代码
  • 无敏感信息:不包含任何密钥或私有地址
  • 用户可控:私有配置完全由用户控制
  • 最小权限:仅访问用户指定的 CNB_PRIVATE_WORKSPACE 目录

权限说明

权限用途
python3运行钩子脚本
CNB_PRIVATE_WORKSPACE(可选)用户指定的私有配置目录

注意:本技能不访问 ~/.openclaw/memory-tdai 或任何其他系统路径。

使用方法

基础使用(无私有配置)

clawhub install llm-memory-integration

高级使用(带私有配置)

  1. 创建私有配置目录
mkdir -p ~/my-private-config
  1. 设置环境变量
# 添加到 ~/.bashrc 或 ~/.zshrc
export CNB_PRIVATE_WORKSPACE="$HOME/my-private-config"
  1. 放置私有文件
~/my-private-config/
├── AGENTS.md          # 自定义 Agent 规则
├── TOOLS.md           # 自定义工具配置
├── MEMORY.md          # 私有记忆文件
└── config/            # 自定义配置
  1. 安装技能
clawhub install llm-memory-integration

钩子说明

钩子功能
bootstrap-extra-files.pyCNB_PRIVATE_WORKSPACE 目录链接到工作区

钩子只执行本地文件操作(symlink/copy),仅访问用户指定的目录。

架构支持

  • ✅ x64 (x86_64)
  • ✅ ARM64 (aarch64)

版本: 9.0.1
许可: MIT-0
作者: xkzs2007

更新日志

v9.0.1

  • 🔒 修复权限声明:移除未使用的 ~/.openclaw/memory-tdai 路径声明
  • 📝 完善文档:明确说明仅访问 CNB_PRIVATE_WORKSPACE

v9.0.0

  • 🔄 架构重构:从"远程拉取"改为"本地链接"
  • 🔒 安全增强:无网络访问、无敏感信息暴露
  • 📁 公私分离:公开框架 + 本地私有配置

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

ClawRAG - Self-hosted RAG & Memory

Self-hosted RAG engine with hybrid semantic and keyword search, document ingestion, local privacy, and seamless OpenClaw integration via Docker.

Registry SourceRecently Updated
1.5K0Profile unavailable
General

Hardware LLM Optimizer v2 (llmfit)

AI硬件LLM推荐工具 - 基于llmfit内核。自动检测CPU/GPU/RAM/VRAM → 智能推荐最适合的大模型 + 量化方案 + 速度估算。支持100+模型库,内置TUI界面和硬件模拟。

Registry SourceRecently Updated
650Profile unavailable
General

EcoCompute — LLM Energy Efficiency Advisor

EcoLobster energy advisor: save 30-701% wasted GPU energy. RTX 5090 five-precision benchmarks (FP16/FP8/NF4/INT8-mixed/INT8-pure), 113+ measurements, dollar-...

Registry Source
8840Profile unavailable
General

RAG Engineering

Expert guidance to build, optimize, and debug production-ready Retrieval-Augmented Generation (RAG) systems using a complete methodology from architecture to...

Registry Source
5281Profile unavailable