香橙派即插即用算力加速卡+具身智能盒子,开源生态与算力开发利器
随着大模型推理、视觉分析和边缘智能应用的增长算力需求正从云端向边缘及端侧延伸。如何把高性能AI算力融入已有的计算设施又如何让算力下沉到生产线、机器人内部是整个产业都在探索的方向。在昇腾生态中神州鲲泰与迅龙软件正尝试用一种“入端”的方式给出回答——让算力像电流一样流进旧服务器也流进物理世界的躯体。双方合作推出的产品有两款OrangePi AI Duo算力卡和OrangePi AI Station具身智能盒子均基于昇腾310P处理器但指向完全不同的部署形态。合作基础底座与行走机构的互补神州鲲泰是华为“鲲鹏昇腾”双生态的核心参与者拥有昇腾全栈智算底座、品牌渠道和服务能力。迅龙软件则在嵌入式硬件设计、开源软件开发、ARM架构底层调优及端侧设备量产交付上积累了二十多年经验。如果把昇腾310P比作一台动力充沛的发动机那么神州鲲泰打造的是整车的底盘和电气架构而迅龙软件设计的则是能适应数据中心“高速路”和工厂车间“碎石路”的轮子和悬挂。正是这种分工让昇腾算力既能在标准服务器中即插即用也能塞进工控机大小的盒子里执行实时任务。OrangePiAI Duo存量服务器的算力注入AI Duo是一张标准PCIe 4.0 x16加速卡搭载双昇腾310PINT8算力为352 TOPS。内存部分采用了LPDDR5速率5500Mbps相比同算力级别的LPDDR4X方案带宽提升约30%。在大模型推理的解码阶段更高的内存带宽有助于降低延迟、提高并发吞吐量。从产品形态看该卡为单槽位设计采用8pin显卡供电可直接插入现有x86服务器或工作站的空闲PCIe插槽无需更换整机或调整机房结构。对于当前算力紧张但仍可继续使用的x86服务器群这种方式实现了一种“即插即用”的利旧升级一台2U服务器如插满4张AI Duo理论算力可扩展到1400 TOPS以上。在搜索推荐、内容审核、OCR识别等对并发要求较高的场景中这种扩容方式能够以较小的改动成本补充AI推理能力。OrangePiAI Station面向物理世界的具身智能盒子如果说OrangePiAI Duo是把算力带入机柜那么OrangePiAI Station则是将算力直接部署到被控对象的身边。它搭载单颗昇腾310PINT8算力176 TOPS最高可选配96GB内存和M.2 NVMe固态硬盘。除了常规的HDMI、USB 3.0与千兆以太网口它还提供40Pin GPIO扩展接口。正是这组GPIO让盒子可以直接连接继电器、传感器和工业相机成为一个端侧“感知-决策-执行”的节点。在实际应用中OrangePiAI Station已被尝试部署于多个方向。在具身智能机器人领域某新能源汽车企业将其用于运行Pi 0.5等大模型作为机器人的主控模块处理摄像头画面、自然语言交互以及各类舵机控制。工业视觉检测是另一个落地场景设备固定在生产流水线一侧通过工业相机采集PCB板图像运行轻量化检测模型并通过GPIO联动报警灯一旦发现瑕疵立即触发停线检测延迟被压缩到毫秒级。此外一些设计师和渲染师将它作为私有AI工作站在本地运行文生图模型、文生视频等模型避免设计原稿上传至云端同时省去排队等待云GPU的时间。协同价值让算力流到需要的地方从产业落地的角度看这两种产品代表同一种思路让算力按照使用场景的实际需求流动。OrangePiAI Duo帮助用户利用现有服务器资产扩充AI推理能力在一些互联网企业的排序召回模型、高校的大模型实训平台上已经得到验证。OrangePiAI Station则把算力密度和物理接口结合在一起为工业质检、具身智能、本地渲染等场景提供低时延、数据不离场的方案。通过“一卡一盒”的组合昇腾算力得以从数据中心进入边缘现场从服务器插槽进入机器人的躯干完成了从基础设施到具身终端的跨越。这种流动让存量资产重新产生价值也为端侧应用带来了更低的接入门槛。你是否已经或正在计划基于昇腾、香橙派硬件做开发对于这类算力卡的SDK、驱动及工具链你有哪些期待或建议欢迎交流你的技术体验。