当前位置: 网站首页 >AI教程资讯 >正文

Phi-3.5 – 微软推出的新一代AI模型,mini、MoE混合和视觉模型

来源:爱论文 时间:2025-05-03 17:40:36

Phi-3.5是什么

Phi-3.5是微软推出的新一代AI模型系列,包含 Phi-3.5-mini-instruct、Phi-3.5-MoE-instruct 和 Phi-3.5-vision-instruct 三个版本,分别针对轻量级推理、混合专家系统和多模态任务设计。Phi-3.5采用MIT开源许可证,具有不同参数规模,支持128k上下文长度,优化了多语言处理和多轮对话能力,在基准测试中性能表现超越了GPT4o、Llama 3.1、Gemini Flash等同类模型。

Phi-3.5系列模型的性能评估和功能特色

Phi-3.5-mini-instruct 参数量:Phi-3.5-mini-instruct 拥有大约 38.2 亿参数。设计目的:该模型专为遵守指令而设计,支持快速推理任务。上下文支持:支持 128k token 的上下文长度,适合处理长文本数据。适用场景:适合在内存或计算资源受限的环境,能执行代码生成、数学问题求解和基于逻辑的推理等任务。性能:在多语言和多轮对话任务中表现出色,并且在 RepoQA 基准测试中,测量“长上下文代码理解”的性能超越了其他类似大小的模型,如 Llama-3.1-8B-instruct 和 Mistral-7B-instruct。训练细节:使用 512 个 H100-80G GPU,在 10 天内训练了 3.4 万亿个 tokens。Phi-3.5-MoE-instruct参数量:Phi-3.5-MoE-instruct 拥有大约 419 亿参数。架构特点:该模型采用了混合专家架构,将多个不同类型的模型组合成一个,每个模型专门处理不同任务。上下文支持:支持 128k token 的上下文长度,适合处理复杂的多语言和多任务场景。性能表现:在代码、数学和多语言理解方面表现出色,在特定的基准测试中通常优于大型模型,包括在 RepoQA 基准测试中的优异表现。多任务能力:在 5-shot MMLU(大规模多任务语言理解)基准测试中,在 STEM、人文学科、社会科学等多个学科的不同层次上超越了 GPT-40 mini。训练细节:使用了 512 个 H100-80G GPU,在 23 天内训练了 4.9 万亿个 tokens。Phi-3.5-vision-instruct参数量:Phi-3.5-vision-instruct 拥有大约 41.5 亿参数。功能集成:该模型集成了文本和图像处理功能,使其能够处理多模态数据。适用任务:特别适用于一般图像理解、光学字符识别(OCR)、图表和表格理解以及视频摘要等任务。上下文支持:支持 128k token 的上下文长度,允许模型管理复杂的多帧视觉任务。训练数据:模型使用合成数据集和筛选后的公开数据集进行训练,重点放在高质量、推理密集的数据上。训练细节:使用了 256 个 A100-80G GPU,在 6 天内训练了 5000 亿个 tokens。

Phi-3.5的项目地址

GitHub仓库:https://github.com/microsoft/Phi-3CookBookPhi-3.5-mini-instruct 模型地址:https://huggingface.co/microsoft/Phi-3.5-mini-instructPhi-3.5-MoE-instruct 模型地址:https://huggingface.co/microsoft/Phi-3.5-MoE-instructPhi-3.5-vision-instruct 模型地址:https://huggingface.co/microsoft/Phi-3.5-vision-instruct

如何使用Phi-3.5

环境准备:确保开发环境满足模型运行所需的硬件和软件要求,例如Python环境、必要的库和框架。获取模型:访问Phi-3.5模型的Hugging Face模型库,下载模型代码。安装依赖:根据模型的文档说明,安装所需的依赖库,例如Transformers库、PyTorch或TensorFlow。加载模型:使用API或代码片段加载Phi-3.5模型。例如,如果使用Hugging Face的Transformers库,可以使用模型的名称或路径来加载模型。数据处理:准备输入数据,根据模型的要求进行预处理,如分词、编码等。模型配置:根据应用场景配置模型参数,例如设置上下文长度、选择特定的任务配置等。执行任务:使用模型执行所需的任务,如文本生成、问答、文本分类等。

Phi-3.5的应用场景

Phi-3.5-mini-instruct:小巧而高效的AI模型,适用于嵌入式系统和移动应用中的快速文本处理和代码生成。Phi-3.5-MoE-instruct:专家混合模型,为数据分析和多语言文本提供深度推理,适合跨学科研究和专业领域。Phi-3.5-vision-instruct:先进的多模态处理能力,适合自动图像标注、视频监控和复杂视觉数据的深入分析。
上一篇:Seed-ASR – 字节跳动推出的AI语音识别模型
相关资讯 更多+
  • Phi-3.5 – 微软推出的新一代AI模型,mini、MoE混合和视觉模型
    Phi-3.5 – 微软推出的新一代AI模型,mini、MoE混合和视觉模型

    Phi-3 5是微软推出的新一代AI模型系列,包含 Phi-3 5-mini-instruct、Phi-3 5-MoE-instruct 和 Phi-3 5-vision-instruct 三个版本,分别针对轻量级推理、混合专家系统和多模态任务设计。

    AI教程资讯 2023-04-14

  • Seed-ASR – 字节跳动推出的AI语音识别模型
    Seed-ASR – 字节跳动推出的AI语音识别模型

    Seed-ASR是字节跳动开发的一款基于大型语言模型(LLM)的语音识别(ASR)模型。在超过2000万小时的语音数据和近90万小时的配对ASR数据上训练,支持普通话和13种中国方言的转录,能识别英语和其他7种外语的语音。

    AI教程资讯 2023-04-14

  • Moffee – 开源的Markdown转PPT工具
    Moffee – 开源的Markdown转PPT工具

    Moffee是开源的Markdown转PPT工具,支持用户使用Markdown语法快速创建专业的幻灯片。Moffee自动处理布局、分页和样式,支持实时预览和导出为PDF或HTML格式。

    AI教程资讯 2023-04-14

  • 浦语灵笔 – 开源的多模态大模型,性能媲美GPT-4V
    浦语灵笔 – 开源的多模态大模型,性能媲美GPT-4V

    浦语灵笔IXC-2 5是上海人工智能实验室推出的新一代多模态大模型,具备7B规模的大型语言模型后端。能处理长达96K的长上下文,支持超高分辨率图像和细粒度视频理解,能进行多轮多图像对话。

    AI教程资讯 2023-04-14

最新录入 更多+
确定