OpenVINO 2025.4#
OpenVINO 是一个开源工具包,用于在云端、本地和边缘部署高性能 AI 解决方案。使用最流行的模型框架开发您的应用程序,支持生成式和传统 AI 模型。利用 Intel® 硬件的全部潜力进行转换、优化和运行推理。OpenVINO 有三个主要工具,可以满足您的所有部署需求
OpenVINO GenAI
运行和部署生成式 AI 模型
OpenVINO 基本包
运行和部署传统 AI 模型
OpenVINO 模型服务器
在服务器上部署生成式和传统 AI 推理
从哪里开始#
主要特性#
模型压缩
您可以直接链接到 OpenVINO Runtime 以在本地运行推理,也可以使用 OpenVINO 模型服务器从单独的服务器或 Kubernetes 环境中提供模型推理。
快速且可扩展的部署
一次编写应用程序,在任何地方部署,从而从硬件获得最大性能。自动设备发现可实现卓越的部署灵活性。OpenVINO Runtime 支持 Linux、Windows 和 MacOS,并提供 Python、C++ 和 C API。使用您喜欢的语言和操作系统。
更轻量级的部署
采用最少的外部依赖项进行设计,可减少应用程序占用空间,简化安装和依赖项管理。流行的软件包管理器可以轻松安装和升级应用程序依赖项。为您的特定模型(s)进行自定义编译,进一步减小最终二进制文件的大小。
增强的应用程序启动时间
在需要快速启动的应用程序中,OpenVINO 通过使用 CPU 进行初始推理,然后在模型编译并加载到内存后切换到另一个设备,从而显著减少首次推理延迟。编译后的模型会被缓存,从而进一步提高启动时间。