使用 OpenVINO™ C# 异步推理接口部署YOLOv8——在哪吒开发板上也可以实现视频推理

2024 Intel®**“走近开发者”**互动活动-哪吒开发套件免费试用AI创新计划:哪吒开发板是专为支持入门级边缘AI应用程序和设备而设计,能够满足人工智能学习、开发、实训等应用场景。为了测试该开发板的推理性能,同时测试所推出的[OpenVINO™ C# API](https://github.com/guojin-yan/OpenVINO-CSharp-API)项目能否应用到该开发板上,我们

openlab_96bf3613 9天前
160 0 0

开发者的福音:PyTorch 2.5现已支持英特尔独立显卡训练

《PyTorch 2.5重磅更新:性能优化+新特性》中的一个新特性就是:正式支持在英特尔®独立显卡上训练模型!本文将在Intel®Core™ Ultra 7 155H自带的Arc™集成显卡上展示使用Pytorch2.5搭建并训练AI模型的全流程。一. 搭建开发环境首先,请安装显卡驱动,参考指南:https://dgpu-docs.intel.com/driver/client/overview.h

openlab_96bf3613 9天前
260 0 0

本地模型部署工具:OpenVINO™

OpenVINO™ 是一个深度学习模型的部署工具,可实现针对特定模型结构的优化与推理任务提升,目前 OpenVINO™ 已适配x86,ARM 在内的异构硬件终端,支持 CNN,Transformer 等多种网络结构,提供 C/C++/Python 等多类 API 接口语言,不管是传统的机器视觉 NLP 模型,或是最新的 LLM 多模态模型,都可以利用 OpenVINO™ 工具包中提供的丰富接口进行

openlab_96bf3613 9天前
140 0 0

实战精选 | 一步安装,一步配置:用 vLLM + OpenVINO™ 轻松加速大语言模型推理

作者 | 武卓 博士 英特尔 OpenVINO™ 布道师 随着大语言模型的广泛应用,模型的计算需求大幅提升,带来推理时延高、资源消耗大等挑战。vLLM 作为高效的大模型推理框架,通过 OpenVINO™ 的优化,vLLM 用户不仅能够更高效地部署大模型,还能提升吞吐量和处理能力,从而在成本、性能和易用性上获得最佳平衡。这种优化对于需要快速响应和节省资源的云端或边缘推理应用尤为重要。目前,OpenV

openlab_96bf3613 9天前
276 0 0

重磅来袭:AI Vision Toolkit for OpenVINO for LabVIEW全新升级上线!

大家好,这里是仪酷智能VIRobotic****r/> NI官网发布 【LabVIEW OpenVINO工具包】自2022年面世以来,凭借其卓越的性能、友好的用户界面以及强大的功能集成,赢得了业界的广泛认可。经过不断的优化升级,【LabVIEW OpenVINO工具包】迎来了全新升级!新版本有一个全新的名字,AI Vision Toolkit for OpenVINO for LabVIEW(简称

openlab_96bf3613 9天前
216 0 0
首页 上一页 1 2 3 下一页 尾页