一系列专为视觉-语言理解设计的跨模态大型语言模型(MLLMs)。

视觉 8b

37.2K 8 周前

自述文件

注意:此模型需要 Ollama 0.3.10 或更高版本。

MiniCPM-V 2.6 是 MiniCPM-V 系列中最新的、功能最强大的模型。该模型基于 SigLip-400M 和 Qwen2-7B,总参数量为 80 亿。与 MiniCPM-Llama3-V 2.5 相比,该模型的性能显著提升,并引入了用于多图像和视频理解的新功能。MiniCPM-V 2.6 的显着特点包括

  • 🔥 领先的性能:MiniCPM-V 2.6 在最新版本的 OpenCompass 上取得了平均 65.2 分的成绩,OpenCompass 是对 8 个流行基准进行的全面评估。该模型仅有 80 亿个参数,就超过了 GPT-4o mini、GPT-4V、Gemini 1.5 Pro 和 Claude 3.5 Sonnet 等广泛使用的专有模型,用于单图像理解。

  • 🖼️ 多图像理解和上下文学习。MiniCPM-V 2.6 还可以对多个图像进行对话和推理。该模型在 Mantis-Eval、BLINK、Mathverse mv 和 Sciverse mv 等流行的多图像基准测试中取得了最先进的性能,并且还展示了有希望的上下文学习能力。

  • 💪 强大的 OCR 能力:MiniCPM-V 2.6 可以处理任何纵横比的图像,图像像素最高可达 180 万像素(例如,1344x1344)。该模型在 OCRBench 上取得了最先进的性能,超过了 GPT-4o、GPT-4V 和 Gemini 1.5 Pro 等专有模型。基于最新的 RLAIF-V 和 VisCPM 技术,该模型具有可信赖的行为,在 Object HalBench 上的幻觉率显著低于 GPT-4o 和 GPT-4V,并支持英语、中文、德语、法语、意大利语、韩语等多语言能力。

  • 🚀 优异的效率:除了友好的尺寸外,MiniCPM-V 2.6 还展示了最先进的令牌密度(即编码到每个视觉令牌的像素数量)。在处理 180 万像素的图像时,它只产生 640 个令牌,比大多数模型少 75%。这直接提高了推断速度、首个令牌延迟、内存使用率和功耗。

参考

GitHub

Hugging Face