数码之家

 找回密码
 立即注册
搜索
查看: 246|回复: 0

[科技] 英特尔发布OpenVINO 2025.0:新增图像生成场景与DeepSeek支持

[复制链接]
发表于 2025-2-16 01:20:51 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册

x
IT之家从英特尔开发人员专区获悉,2025 年首个 OpenVINO 版本(2025.0)于 14 日正式发布,本次更新聚焦性能提升、更多生成式 AI 模型的支持,并针对英特尔神经处理单元(NPU)推出关键优化。
官方表示:OpenVINO 2025.0 版本正式支持 FLUX.1 图像生成模型(含 Dev 与 Schnell 变体),可在英特尔 CPU / GPU 上通过 GenAI 流水线运行。开发者现可通过 Optimum-Intel 导出 Flux 模型,并结合 Text2ImagePipeline 生成图像。针对 Flux 模型对精度变化非常敏感的特点,我们进行了深度优化,确保图像生成性能与准确度兼得。
例如,INT8 量化版 FLUX.1-dev 模型在应用 Yarn 风格 LoRA 前后的对比如下(提示词:"albert einstein, yarn art style",初始种子 = 420,迭代次数 = 20):
此次还加入了 Image2Image 与 Inpainting 的支持。
  • Image2Image:以图像 + 文本为输入生成新图像,提升结果可控性;
  • Inpainting:通过掩码图像替换输入图像的指定区域,支持局部内容再生。
    两种流水线均兼容 LoRA 适配器,满足定制化需求。

本次新版本在 LLMPipeline API 中引入了对提示词查找解码的预览支持,这是对推测解码的简化,它在输入提示词本身中用直接查找机制取代了传统的草稿模型。这有助于在具有高相似性的请求的情况下显著减少生成延迟。例如,通过对一组文档的问答可以观察到性能优势,因为答案将根据作为提示词本身一部分的文档来生成。
英特尔称目前正在努力支持和验证最新模型,包括 Mistral-7B-Instruct-v0.2、Qwen2.5,“当然我们也支持基于 LLama 和 Qwen 架构的 DeepSeek 蒸馏模型。”
此外,2025.0 版本首次实现 NPU 加速支持,开发者可通过 PyTorch 的 torch.compile接口调用英特尔 NPU 算力。OpenVINO 已经在 CPU 和 GPU 上得到支持,并且在性能方面非常接近原生 OpenVINO 推理。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-14 22:15 , Processed in 0.218400 second(s), 9 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表