RTX4090 LocalLLM ModelCompare StaticApp Demo
AI工具 RTX 4090 模型快照
一个面向 RTX 4090 的本地模型对比演示页,用来快速查看截至 2026-03-21 的单卡可用模型快照。
Version & Runtime
v1.0.0
static-front-end
0 Stars
About This App
RTX 4090 模型快照
面向 RTX 4090 单卡本地部署的模型对比页,展示截至 `2026-03-21` 的代表性候选。
应用简介
本应用用于快速查看 24GB 显存单卡环境下值得关注的本地模型,并区分不同类型的部署依据:
• 官方明确说明可在单卡运行
• 官方给出 24GB 类消费卡或量化显存依据
• 基于参数规模与官方量化版本存在性的保守估算
当前收录
• `Qwen3.5-27B`
• `Qwen3.5-35B-A3B`
• `Mistral Small 3.1`
• `Gemma 3 27B QAT`
• `QwQ-32B-AWQ`
• `DeepSeek-R1-Distill-Qwen-32B`
页面结构
• 最新模型层:优先展示 2026 年新增条目
• 模型卡片区:展示参数规模、模态、发布时间和权重显存估算
• 详情区:展示单模型的判断依据、适用场景与来源链接
使用方式
1. 先查看最新模型层与默认排序结果
2. 结合模态、适配档位和发布时间层进行筛选
3. 打开详情区核对来源与 4090 部署边界
说明
• 显存条仅反映模型权重大致占用
• 实际部署仍需结合上下文长度与 KV Cache 判断
• 多模态和长上下文场景应采用更保守的显存预算
数据来源
• `https://huggingface.co/Qwen/Qwen3.5-27B`
• `https://huggingface.co/Qwen/Qwen3.5-27B-GPTQ-Int4`
• `https://huggingface.co/Qwen/Qwen3.5-35B-A3B`
• `https://huggingface.co/Qwen/Qwen3.5-35B-A3B-GPTQ-Int4`
• `https://mistral.ai/news/mistral-small-3-1`
• `https://developers.googleblog.com/en/introducing-gemma3/`
• `https://developers.googleblog.com/en/gemma-3-quantized-aware-trained-state-of-the-art-ai-to-consumer-gpus/`
• `https://qwenlm.github.io/blog/qwq-32b/`
• `https://huggingface.co/Qwen/QwQ-32B-AWQ`
• `https://huggingface.co/deepseek-ai/DeepSeek-R1`
• `https://images.nvidia.com/aem-dam/Solutions/Data-Center/l4/nvidia-ada-gpu-architecture-whitepaper-V2.02.pdf`
Features
按 4090 单卡适配度比较当前主流本地模型
把官方声明与 4-bit 量化估算分开展示
支持搜索、按模态筛选和按适配度排序
Tech Stack
HTML CSS JavaScript
How to Use
- 1 打开页面查看快照说明
- 2 用筛选器缩小到适合自己的模型档位
- 3 点开详情查看来源与单卡判断依据