--- license: apache-2.0 base_model: - OpenGVLab/InternVL3-8B --- [EN](README.md) | **中文** # SenseNova-SI: 探索空间智能在多模态基础模型上尺度效应 Code arXiv Code Leaderboard ## 概览 尽管多模态基础模型已取得显著进展,但在空间智能方面仍存在明显不足。 本研究基于成熟的多模态基础,包括视觉理解模型(如Qwen3-VL、InternVL3)和统一理解生成模型(如Bagel),从尺度效应(Scaling)的视角构建了**SenseNova-SI系列模型**。 我们采用系统化方法构建了包含800万样本的SenseNova-SI-8M数据集,通过严格的空间能力分类体系培养高性能、高鲁棒性的空间能力。 该系列模型在多项空间智能基准测试中取得突破性表现:VSI-Bench 68.7%、MMSI 43.3%、MindCube 85.6%、ViewSpatial 54.6%、SITE 50.1%,同时保持强大的通用多模态理解能力(如MMBench-En 84.9%)。 本研究进一步分析了数据规模的影响,揭示了多样化数据训练带来的涌现泛化能力,探讨了过拟合与语言捷径的风险,提出了空间思维链推理的初步研究,并验证了下游应用潜力。 SenseNova-SI是一个持续迭代的项目,所有新训练的多模态空间智能基础模型均将陆续开源,以推动空间智能领域的研究发展。 *后续 SenseNova-SI 将与更大规模的内部模型进行集成。* ## 发布信息 目前,我们基于流行的开源基础模型构建 SenseNova-SI,以最大化与现有研究流程的兼容性。 在本次发布中,我们推出 [**SenseNova-SI-1.1-InternVL3-2B**](https://huggingface.co/sensenova/SenseNova-SI-1.1-InternVL3-2B) 与 [**SenseNova-SI-1.1-InternVL3-8B**](https://huggingface.co/sensenova/SenseNova-SI-1.1-InternVL3-8B), 在五个近期发布的空间智能基准测试(**VSI**、**MMSI**、**MindCube**、**ViewSpatial**、**SITE**)上, 在同等模型规模下均取得了开源模型的最新最优性能(state-of-the-art)。
Model VSI MMSI MindCube-Tiny ViewSpatial SITE
Open-source Models (~2B)
InternVL3-2B32.926.537.532.530.0
Qwen3-VL-2B-Instruct50.328.934.536.935.6
MindCube-3B-RawQA-SFT17.21.751.724.16.3
SpatialLadder-3B44.827.443.439.827.9
SpatialMLLM-4B46.326.133.434.618.0
VST-3B-SFT57.930.235.952.835.8
Cambrian-S-3B57.325.232.539.028.3
SenseNova-SI-1.1-InternVL3-2B 63.7 34.2 41.8 52.6 36.7
Open-source Models (~8B)
InternVL3-8B42.128.041.538.641.1
Qwen3-VL-8B-Instruct57.931.129.442.245.8
BAGEL-7B-MoT31.431.034.741.337.0
SpaceR-7B41.527.437.935.834.2
ViLaSR-7B44.630.235.135.738.7
VST-7B-SFT60.632.039.750.539.6
Cambrian-S-7B67.525.839.640.933.0
SenseNova-SI-1.1-InternVL3-8B 68.7 43.3 85.6 54.6 47.7
Proprietary Models
Gemini-2.5-pro-2025-0653.538.057.646.057.0
Grok-4-2025-07-0947.937.863.543.247.0
GPT-5-2025-08-0755.041.856.345.561.8