视觉传达毕业设计作品网站,wordpress的程序文件,2017 WordPress 主题,网站建设高端通义千问开源第二波#xff01;8月25日消息#xff0c;阿里云推出大规模视觉语言模型Qwen-VL#xff0c;一步到位、直接开源。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发#xff0c;支持图文输入#xff0c;具备多模态信息理解能力。在主流的多模态任务评测…通义千问开源第二波8月25日消息阿里云推出大规模视觉语言模型Qwen-VL一步到位、直接开源。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发支持图文输入具备多模态信息理解能力。在主流的多模态任务评测和多模态聊天能力评测中Qwen-VL取得了远超同等规模通用模型的表现。
Qwen-VL是支持中英文等多种语言的视觉语言Vision LanguageVL模型相较于此前的VL模型Qwen-VL除了具备基本的图文识别、描述、问答及对话能力之外还新增了视觉定位、图像中文字理解等能力。 多模态是通用人工智能的重要技术演进方向之一。业界普遍认为从单一感官的、仅支持文本输入的语言模型到“五官全开”的支持文本、图像、音频等多种信息输入的多模态模型蕴含着大模型智能跃升的巨大可能。多模态能够提升大模型对世界的理解程度充分拓展大模型的使用场景。 视觉是人类的第一感官能力也是研究者首先想赋予大模型的多模态能力。继此前推出M6、OFA系列多模态模型之后阿里云通义千问团队又开源了基于Qwen-7B的大规模视觉语言模型Large Vision Language Model, LVLMQwen-VL。Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区开源、免费、可商用。
用户可从魔搭社区直接下载模型也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。 Qwen-VL可用于知识问答、图像标题生成、图像问答、文档问答、细粒度视觉定位等场景。 比如一位不懂中文的外国游客到医院看病不知怎么去往对应科室他拍下楼层导览图问Qwen-VL“骨科在哪层”“耳鼻喉科去哪层”Qwen-VL会根据图片信息给出文字回复这是图像问答能力再比如输入一张上海外滩的照片让Qwen-VL找出东方明珠Qwen-VL能用检测框准确圈出对应建筑这是视觉定位能力。
Qwen-VL是业界首个支持中文开放域定位的通用模型开放域视觉定位能力决定了大模型“视力”的精准度也即能否在画面中精准地找出想找的事物这对于VL模型在机器人操控等真实应用场景的落地至关重要。 Qwen-VL以Qwen-7B为基座语言模型在模型架构上引入视觉编码器使得模型支持视觉信号输入并通过设计训练过程让模型具备对视觉信号的细粒度感知和理解能力。Qwen-VL支持的图像输入分辨率为448此前开源的LVLM模型通常仅支持224分辨率。在Qwen-VL 的基础上通义千问团队使用对齐机制打造了基于LLM的视觉AI助手Qwen-VL-Chat可让开发者快速搭建具备多模态能力的对话应用。
在四大类多模态任务Zero-shot Caption/VQA/DocVQA/Grounding的标准英文测评中Qwen-VL取得了同等尺寸开源LVLM的最好效果。为了测试模型的多模态对话能力通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”对Qwen-VL-Chat及其他模型进行对比测试Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。 8月初阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat成为国内首个加入大模型开源行列的大型科技企业。通义千问开源模型刚一上线就广受关注当周冲上HuggingFace趋势榜单不到一个月在GitHub收获3400多星模型累计下载量已突破40万。 开源地址
ModelScope魔搭社区
Qwen-VL 通义千问-VL-预训练
Qwen-VL-Chat 通义千问-VL-Chat
模型体验通义千问-多模态对话-Demo
HuggingFace
Qwen-VL Qwen/Qwen-VL · Hugging Face
Qwen-VL-Chat Qwen/Qwen-VL-Chat · Hugging Face
GitHub
GitHub - QwenLM/Qwen-VL: The official repo of Qwen-VL (通义千问-VL) chat pretrained large vision language model proposed by Alibaba Cloud.
技术论文地址
https://arxiv.org/abs/2308.12966