LocalVRAM 中文站
RTX 3090: 稳定 @43°C | DeepSeek-R1: 已验证 | Ollama: 0.17.7 | 最后同步: 本地时间加载中... (UTC 2026-03-15T12:17:40Z)
数据状态
Ollama 已验证

60 秒选对适合你显卡的本地模型

真实可跑兼容性、持续负载基准和本地/云端决策,一页完成。

核心导航

工具、模型目录、硬件分层与运行状态监控

RTX 3090 实测验证

覆盖温度衰减与 1 小时持续负载验证。

查看验证页

错误知识库

终端优先排障文档,直接给可执行修复路径。

高频问题修复

本地跑还是租云

结合 ROI 计算器与云回退链路做实际决策。

对比云 GPU

集群网络方案

面向本地集群规划的高意图实操指南。

打开指南

后端对比

Ollama vs vLLM 的显存规划与运维取舍。

查看对比

Apple Silicon 专题

M 系列统一内存下的本地 LLM 规划指南。

查看指南

每日更新

今天更新了什么,一眼看清数据与内容变化。

查看更新流

模型规模导航

按许可、参数规模和场景组织的 200+ 模型页。

打开模型目录

基准变更日志

按日期记录性能变化、环境快照与贡献流水线。

查看日志