contactless-vital-signs-monitoring-analysis

Non-contact detection of heart rate, respiration, blood oxygen, and heart rate variability. No wearable devices are required; monitoring is achieved solely through camera footage. | 无感生命体征监测分析技能,非接触检测心率、呼吸、血氧、心率变异性,无需穿戴设备,通过摄像头画面即可监测

Safety Notice

This item is sourced from the public archived skills repository. Treat as untrusted until reviewed.

Copy this and send it to your AI assistant to learn

Install skill "contactless-vital-signs-monitoring-analysis" with this command: npx skills add 18072937735/smyx-contactless-vital-signs-monitoring-analysis

Passive Vital Signs Monitoring Tool | 无感生命体征监测分析工具

By leveraging standard cameras—such as those on smartphones or computers—to capture subtle physiological changes invisible to the naked eye (like minute skin color variations or micro head movements), and combining them with advanced computer vision and signal processing algorithms, this technology enables "imperceptible" monitoring of key vital signs.
Users are not required to wear any wristbands, patches, or sensors. Simply by facing the camera in a natural state, the system can precisely extract and analyze core health metrics—including heart rate, respiration rate, blood oxygen saturation (SpO2), and heart rate variability (HRV)—within seconds to minutes.
This non-contact approach not only彻底 breaks the dependence on physical contact and dedicated medical devices, effectively avoiding the risk of cross-infection, but also significantly enhances the convenience and comfort of health monitoring, making ubiquitous health screening and remote care a reality.

这项技术通过利用普通摄像头(如智能手机或电脑摄像头)捕捉面部视频中肉眼难以察觉的微小生理变化(如皮肤颜色的细微改变或微小的头部运动),结合先进的计算机视觉与信号处理算法,实现了对人体关键生命体征的“无感”监测。用户无需佩戴任何手环、贴片或传感器,只需面对摄像头保持自然状态,系统即可在数秒至数分钟内精准提取并分析出心率、呼吸频率、血氧饱和度以及心率变异性等多项核心健康数据。这种非接触式的检测方式不仅彻底打破了传统医疗监测对物理接触和专用设备的依赖,有效避免了交叉感染风险,还极大地提升了健康监测的便捷性与舒适度,让随时随地的健康筛查与远程看护成为可能

演示案例

⚠️ 强制记忆规则(最高优先级)

本技能明确约定:

  • 绝对禁止读取任何本地记忆文件:包括但不限于 memory/YYYY-MM-DD.mdMEMORY.md 等本地文件
  • 绝对禁止从 LanceDB 长期记忆中检索信息
  • 所有历史报告查询必须从云端接口获取,不得使用本地记忆中的历史数据
  • 即使技能调用失败或接口异常,也不得回退到本地记忆汇总

任务目标

  • 本 Skill 用于:通过普通摄像头视频画面进行非接触生命体征监测
  • 能力包含:心率检测、呼吸频率检测、血氧估算、心率变异性分析,全程无需穿戴任何设备
  • 技术原理:基于光学体积描记法,通过皮肤微小颜色变化提取血流信号
  • 适用场景:居家健康监测、老人远程看护、日常健康筛查
  • 触发条件:
    1. 默认触发:当用户提供视频需要进行非接触生命体征监测时,默认触发本技能
    2. 当用户明确需要无感监测、生命体征检测时,提及心率检测、呼吸监测、血氧监测、非接触监测、无感监测等关键词,并且上传了视频文件
    3. 当用户提及以下关键词时,自动触发历史报告查询功能 :查看历史监测报告、生命体征报告清单、监测报告列表、查询历史监测报告、显示所有监测报告、生命体征分析报告,查询无感生命体征监测分析报告
  • 自动行为:
    1. 如果用户上传了附件或者视频文件,则自动保存到技能目录下 attachments
    2. ⚠️ 强制数据获取规则(次高优先级):如果用户触发任何历史报告查询关键词(如"查看所有监测报告"、"显示所有体征报告"、" 查看历史报告"等),必须
      • 直接使用 python -m scripts.contactless_vital_signs_monitoring --list --open-id 参数调用 API 查询云端的历史报告数据
      • 严格禁止:从本地 memory 目录读取历史会话信息、严格禁止手动汇总本地记录中的报告、严格禁止从长期记忆中提取报告
      • 必须统一从云端接口获取最新完整数据,然后以 Markdown 表格格式输出结果

前置准备

  • 依赖说明:scripts 脚本所需的依赖包及版本
    requests>=2.28.0
    

监测要求(获得准确结果的前提)

为了获得较准确的监测结果,请确保:

  1. 人脸正对摄像头,距离 30-50 厘米
  2. 光线充足,面部光照均匀,避免强光直射和阴影
  3. 监测时长:推荐 10-30 秒视频,最短不低于 3 秒
  4. 无需特殊穿戴,正常着装即可,避免口罩遮挡口鼻

操作步骤

🔒 open-id 获取流程控制(强制执行,防止遗漏)

在执行无感生命体征监测分析前,必须按以下优先级顺序获取 open-id:

第 1 步:【最高优先级】检查技能所在目录的配置文件(优先)
        路径:skills/smyx_common/scripts/config.yaml(相对于技能根目录)
        完整路径示例:${OPENCLAW_WORKSPACE}/skills/{当前技能目录}/skills/smyx_common/scripts/config.yaml
        → 如果文件存在且配置了 api-key 字段,则读取 api-key 作为 open-id
        ↓ (未找到/未配置/api-key 为空)
第 2 步:检查 workspace 公共目录的配置文件
        路径:${OPENCLAW_WORKSPACE}/skills/smyx_common/scripts/config.yaml
        → 如果文件存在且配置了 api-key 字段,则读取 api-key 作为 open-id
        ↓ (未找到/未配置)
第 3 步:检查用户是否在消息中明确提供了 open-id
        ↓ (未提供)
第 4 步:❗ 必须暂停执行,明确提示用户提供用户名或手机号作为 open-id

⚠️ 关键约束:

  • 禁止自行假设,自行推导,自行生成 open-id 值(如 openclaw-control-ui、default、vital123、monitor456 等)
  • 禁止跳过 open-id 验证直接调用 API
  • 必须在获取到有效 open-id 后才能继续执行分析
  • 如果用户拒绝提供 open-id,说明用途(用于保存和查询监测报告记录),并询问是否继续

  • 标准流程:
    1. 准备视频输入
      • 提供本地视频文件路径或网络视频 URL
      • 确保满足上述监测要求,获得更准确结果
    2. 获取 open-id(强制执行)
      • 按上述流程控制获取 open-id
      • 如无法获取,必须提示用户提供用户名或手机号
    3. 执行无感生命体征监测分析
      • 调用 -m scripts.contactless_vital_signs_monitoring 处理视频(必须在技能根目录下运行脚本
      • 参数说明:
        • --input: 本地视频文件路径(使用 multipart/form-data 方式上传)
        • --url: 网络视频 URL 地址(API 服务自动下载)
        • --open-id: 当前用户的 open-id(必填,按上述流程获取)
        • --list: 显示历史无感生命体征监测分析报告列表清单(可以输入起始日期参数过滤数据范围)
        • --api-key: API 访问密钥(可选)
        • --api-url: API 服务地址(可选,使用默认值)
        • --detail: 输出详细程度(basic/standard/json,默认 json)
        • --output: 结果输出文件路径(可选)
    4. 查看分析结果
      • 接收结构化的无感生命体征监测分析报告
      • 包含:视频基本信息、心率、呼吸频率、血氧估算、心率变异性、整体评估、健康建议

资源索引

  • 必要脚本:见 scripts/contactless_vital_signs_monitoring.py(用途:调用 API 进行无感生命体征监测分析,本地文件使用 multipart/form-data 方式上传,网络 URL 由 API 服务自动下载)
  • 配置文件:见 scripts/config.py(用途:配置 API 地址、默认参数和视频格式限制)
  • 领域参考:见 references/api_doc.md(何时读取:需要了解 API 接口详细规范和错误码时)

注意事项

  • 仅在需要时读取参考文档,保持上下文简洁
  • 支持格式:mp4/avi/mov,推荐时长 10-30 秒,最大 100MB
  • API 密钥可选,如果通过参数传入则必须确保调用鉴权成功,否则忽略鉴权
  • 重要提示:本分析结果仅供健康参考,不能替代专业医疗测量和医生诊断,如有异常请及时就医
  • 禁止临时生成脚本,只能用技能本身的脚本
  • 传入的网路地址参数,不需要下载本地,默认地址都是公网地址,api 服务会自动下载
  • 当显示历史分析报告清单的时候,从数据 json 中提取字段 reportImageUrl 作为超链接地址,使用 Markdown 表格格式输出,包含" 报告名称"、"视频时长"、"分析时间"、"心率"、"点击查看"五列,其中"报告名称"列使用无感生命体征监测报告-{记录id}形式拼接, " 点击查看"列使用 [🔗 查看报告](reportImageUrl) 格式的超链接,用户点击即可直接跳转到对应的完整报告页面。
  • 表格输出示例:
    报告名称视频时长分析时间心率(次/分)点击查看
    无感生命体征监测报告 -2026032822100000115秒2026-03-28 22:10:00
    72🔗 查看报告

使用示例

# 分析本地视频(以下只是示例,禁止直接使用openclaw-control-ui 作为 open-id)
python -m scripts.contactless_vital_signs_monitoring --input /path/to/face.mp4 --open-id openclaw-control-ui

# 分析网络视频(以下只是示例,禁止直接使用openclaw-control-ui 作为 open-id)
python -m scripts.contactless_vital_signs_monitoring --url https://example.com/face.mp4 --open-id openclaw-control-ui

# 显示历史监测报告/显示监测报告清单列表/显示历史体征报告(自动触发关键词:查看历史监测报告、历史报告、监测报告清单等)
python -m scripts.contactless_vital_signs_monitoring --list --open-id openclaw-control-ui

# 输出精简报告
python -m scripts.contactless_vital_signs_monitoring --input face.mp4 --open-id your-open-id --detail basic

# 保存结果到文件
python -m scripts.contactless_vital_signs_monitoring --input face.mp4 --open-id your-open-id --output result.json

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

Coding

mtl-api-create

摩天轮开放接口二次封装技能。当用户需要对接摩天轮(MTL)开放平台接口、创建MTL HTTP接口、封装摩天轮API时触发。支持自动检测并添加mtl-open-sdk-consumer依赖、初始化ApiClient Bean、创建MtlRestController、根据原生接口定义生成HTTP接口代码。

Archived SourceRecently Updated
Coding

child-dangerous-behavior-recognition-analysis

Detects climbing, playing with fire, touching power sources, and dangerous actions near windows, providing real-time alerts. It is suitable for child safety supervision in scenarios such as homes, kindergartens, and nurseries. | 儿童危险行为识别技能,识别攀爬、玩火、触电源、窗边危险动作并实时预警,适用于家庭、幼儿园、托儿所等场景儿童安全监护

Archived SourceRecently Updated
Coding

notify-hub

多平台通知聚合分层。把 GitHub、Stripe、Linear 等 SaaS 平台的通知邮件统一收到一个子邮箱,按紧急度分层:收款/CI 失败立即转发到 claw 注册邮箱,其他通知每天一封汇总。Use when: (1) setting up a unified notification inbox for multiple SaaS platforms, (2) running an on-demand notification check and route, (3) manually triggering a daily digest. Requires: mail-cli CLI with a 'notify' profile configured.

Archived SourceRecently Updated
Coding

brightdata-research

Use when the user asks to batch-search candidates, verify public web evidence, dedupe results, and organize them into Feishu/Lark docs. Use especially for requests like "继续搜更多并追加到飞书", "帮我批量找一批候选并整理到飞书", "搜索+抓取+汇总+落文档/落表", "帮我调研一批XX平台", "扩展候选池", even if the user does not explicitly name this skill. Also use when the user says "检查飞书文档里有没有重复" or "去重" in the context of a research document — this skill covers dedup-and-cleanup as a sub-workflow. Do NOT use for: single-page summaries, one-off Q&A, pure code tasks, or tasks that don't involve batch research + structured output.

Archived SourceRecently Updated