3 个月前

CogVLM2:用于图像与视频理解的视觉语言模型

CogVLM2:用于图像与视频理解的视觉语言模型

摘要

自VisualGLM与CogVLM以来,我们持续探索视觉语言模型(VLMs),致力于实现更优的视觉-语言融合、更高效的高分辨率架构,以及更广泛的模态与应用。在此基础上,我们提出CogVLM2系列,作为新一代用于图像与视频理解的视觉语言模型,包括CogVLM2、CogVLM2-Video以及GLM-4V。作为图像理解模型,CogVLM2继承了视觉专家架构,并在预训练与后训练阶段均采用了优化的训练策略,支持高达1344×1344像素的输入分辨率。作为视频理解模型,CogVLM2-Video引入多帧输入并融合时间戳信息,提出了一种自动化的时序定位数据构建方法。值得注意的是,CogVLM2系列在MMBench、MM-Vet、TextVQA、MVBench和VCGBench等多个基准测试中均取得了当前最优(SOTA)性能。所有模型均已开源,地址为https://github.com/THUDM/CogVLM2 和 https://github.com/THUDM/GLM-4,旨在推动该领域的持续发展。

代码仓库

thudm/cogvlm2
官方
pytorch
GitHub 中提及
thudm/glm-4
官方
pytorch

基准测试

基准方法指标
visual-question-answering-on-mm-vetGLM-4V-Plus
GPT-4 score: 71.1
visual-question-answering-on-mm-vetGLM-4V-9B
GPT-4 score: 58.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
CogVLM2:用于图像与视频理解的视觉语言模型 | 论文 | HyperAI超神经