英特爾于近日在其開發(fā)人員專區(qū)宣布,OpenVINO 2025.0版本已正式面世,這一里程碑式的更新標(biāo)志著在性能提升、生成式AI模型支持以及對(duì)英特爾神經(jīng)處理單元(NPU)的優(yōu)化方面取得了顯著進(jìn)展。
據(jù)悉,OpenVINO 2025.0版本引入了對(duì)FLUX.1圖像生成模型(包括Dev與Schnell版本)的官方支持,這意味著開發(fā)者可以在英特爾的CPU和GPU上,通過GenAI流水線運(yùn)行這些模型。通過Optimum-Intel工具,開發(fā)者能夠?qū)С鯢lux模型,并結(jié)合Text2ImagePipeline功能,實(shí)現(xiàn)圖像的生成。特別針對(duì)Flux模型對(duì)精度變化的高度敏感性,英特爾進(jìn)行了深度優(yōu)化,確保了圖像生成的高性能與準(zhǔn)確性。
新版本還增添了Image2Image與Inpainting兩大功能。Image2Image允許用戶以圖像和文本為輸入,生成全新的、可控性更強(qiáng)的圖像;而Inpainting則能夠通過掩碼圖像,替換輸入圖像中的特定區(qū)域,實(shí)現(xiàn)局部?jī)?nèi)容的再生。這兩種流水線均兼容LoRA適配器,為用戶的定制化需求提供了更多可能性。
在LLMPipeline API方面,OpenVINO 2025.0版本也帶來了創(chuàng)新。它引入了提示詞查找解碼的預(yù)覽支持,這是對(duì)推測(cè)解碼的一種簡(jiǎn)化。通過直接查找機(jī)制取代傳統(tǒng)的草稿模型,這一功能在處理高相似性的請(qǐng)求時(shí),能夠顯著減少生成延遲。例如,在問答場(chǎng)景中,答案將直接基于作為提示詞一部分的文檔生成,從而展現(xiàn)出明顯的性能優(yōu)勢(shì)。
英特爾還透露,他們正在積極支持和驗(yàn)證最新的模型,包括Mistral-7B-Instruct-v0.2和Qwen2.5。同時(shí),基于LLama和Qwen架構(gòu)的DeepSeek蒸餾模型也得到了支持。這些舉措無疑將進(jìn)一步拓寬OpenVINO的應(yīng)用領(lǐng)域和場(chǎng)景。
OpenVINO 2025.0版本首次實(shí)現(xiàn)了對(duì)NPU的加速支持。開發(fā)者現(xiàn)在可以通過PyTorch的torch.compile接口,輕松調(diào)用英特爾NPU的算力。此前,OpenVINO已在CPU和GPU上得到了廣泛支持,并且其性能已經(jīng)接近原生OpenVINO推理。這一新功能的啟用方式也極為簡(jiǎn)便,為開發(fā)者提供了更多的選擇和靈活性。