阿里巴巴集团推出了一款全新的多模态人工智能(AI)模型——Qwen2.5-Omni-7B,可在手机、平板和笔记本电脑上运行,标志着其在生成式AI领域的又一突破。
这款模型仅有70亿参数,但能处理文本、图像、音频和视频等多种输入形式,并生成实时文本或语音响应。阿里巴巴表示,Qwen2.5-Omni-7B已开源,用户可以在Hugging Face、GitHub和阿里的ModelScope平台上获取,同时也已集成在阿里的Qwen Chat中。
阿里强调,这款模型的潜在用途包括为视障用户提供实时音频描述,或在烹饪时通过识别食材提供逐步指导。这展现了市场对超越单纯文本生成的AI系统日益增长的需求。
Qwen模型系列已成为AI开发者的重要工具,使阿里成为中国市场中除DeepSeek的V3和R1模型外,为数不多的主要选择之一。Qwen2.5-Omni-7B的推出,进一步巩固了阿里在AI领域的竞争力。