hardware-llm-optimizer

AI硬件LLM推荐工具 - 基于llmfit内核。自动检测CPU/GPU/RAM/VRAM → 智能推荐最适合的大模型 + 量化方案 + 速度估算。支持100+模型库,内置TUI界面和硬件模拟。

Safety Notice

This listing is from the official public ClawHub registry. Review SKILL.md and referenced scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "hardware-llm-optimizer" with this command: npx skills add smseow001/hardware-llm-optimizer-v2

Hardware LLM Optimizer v2.0

基于 llmfit 的智能硬件LLM推荐工具

安装状态

llmfit 已安装在: /usr/local/bin/llmfit

快速使用

当用户问"能跑什么大模型"、"推荐LLM"、"硬件检测"时使用:

1. 查看推荐模型

llmfit recommend

2. 查看所有推荐(JSON格式,便于解析)

llmfit recommend --json

3. 按用途筛选

llmfit recommend --use-case coding
llmfit recommend --use-case chat
llmfit recommend --use-case general
llmfit recommend --use-case embedding

4. 硬件模拟(模拟不同配置)

# 模拟 16GB 显存
llmfit recommend --memory 16G

# 模拟 32GB 显存 + 64GB RAM
llmfit recommend --memory 32G --ram 64G

5. 交互式TUI(需要终端)

llmfit

输出字段说明

字段含义
name模型名称
parameter_count参数量
best_quant推荐量化方案
score综合评分(越高越好)
estimated_tps预估速度(tok/s)
memory_required_gb所需显存
run_mode运行模式(GPU/CPU/MoE)
fit_level匹配度(Perfect/Good/Marginal)

量化方案参考

量化质量速度适用场景
FP16最高最慢大显存GPU
Q8_0很高较快中等显存
Q6_K6-8GB显存
Q4_K_M中高最快4-6GB显存
Q2_K最快<4GB显存

本地运行命令

安装Ollama模型

ollama run <model-name>

使用llama.cpp

# 下载GGUF后
./llama.cpp -m <model.gguf> --rompt <prompt>

最低配置参考(来自llmfit)

显存推荐模型量化
2GBPhi-3-mini, Gemma-2BQ4
4GBLlama3-8B, Qwen-7BQ4
6GBLlama2-13B, Mistral-7BQ4/Q6
8GBLlama2-13B, Yi-9BQ5/Q6
12GBLlama2-34BQ4
16GBLlama2-34B, Qwen-72BQ4
24GB+70B大模型Q4/Q8

安装llmfit(如需)

curl -fsSL https://llmfit.axjns.dev/install.sh | sh

优势对比

功能v1.0v2.0 (llmfit)
模型库手动查表100+自动匹配
量化推荐简单估算智能最优
速度估算
下载源✅ GGUF
硬件模拟
TUI界面
多GPU
MoE支持

Powered by llmfit | Updated: 2026-04-17

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

Automation

Hardware Llm Optimizer

Auto-detect PC hardware (CPU/GPU/RAM/VRAM) -> Determine max LLM parameters -> Recommend models (3B/7B/8B/13B/34B/70B) + quantization + deployment tools + bot...

Registry SourceRecently Updated
850Profile unavailable
General

EcoCompute — LLM Energy Efficiency Advisor

EcoLobster energy advisor: save 30-701% wasted GPU energy. RTX 5090 five-precision benchmarks (FP16/FP8/NF4/INT8-mixed/INT8-pure), 113+ measurements, dollar-...

Registry Source
8860Profile unavailable
General

LLM Deploy

在 GPU 服务器上部署 LLM 模型服务(vLLM)。支持多服务器配置,自动检查 GPU 和端口占用,一键部署流行的开源大语言模型。

Registry SourceRecently Updated
4040Profile unavailable
General

Llm Memory V9

LLM Memory Integration - 公开框架包。通过环境变量链接本地私有配置,实现公私分离。

Registry SourceRecently Updated
9371Profile unavailable