产品架构
飞桨一体机基于飞桨深度学习框架搭建,深度适配飞腾、鲲鹏等主流cpu处理器和麒麟、统信等国内操作系统,集成百度自研昆仑ai加速卡、同时可扩展支持昇腾、寒武纪、比特大陆等国内主流ai加速卡;实现高性能ai计算、支撑多场景ai模型研发应用,加速ai行业共同发展。
飞桨一体机-通用版
整机配置nvidia tesla a100/nvidia tesla t4 gpu,满足训练和推理的不同应用场景; 使用intel cascadelake系列cpu,配有内置英特尔® deep learning boost,可针对 ai 工作负载提供高性能推断处理; 模型训练和预测场景可通过vgpu 技术提高资源利用率,vgpu支持显存隔离和共享调度,可按任意比例和数值进行隔离。
-
预置bml全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
配置a100高性能gpu算力
nvidia tesla a100-40g-pcie高性能gpu算力 2/4/8卡灵活配比满足不同规模业务需求
-
预置bml全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
配置t4高性价比gpu算力
nvidia tesla t4-16g-pcie高性价比gpu算力 2/4/8卡灵活配比满足不同规模业务需求
-
预置推理引擎全部功能
模型管理 推理预测 运维管理
-
配置t4高性价比gpu算力
nvidia tesla t4-16g-pcie高性价比gpu算力 2/4/8卡灵活配比满足不同规模业务需求
飞桨一体机-飞腾版
全面适配飞腾、鲲鹏等主流cpu处理器和麒麟、统信等国内操作系统; 集成百度自研昆仑ai加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流ai加速卡; 内置飞桨企业版bml全功能ai开发平台,具有自主研发、功能全面、技术领先、开箱即用等核心优势。
-
预置bml全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
国内主流ai加速卡适配
1)最多支持2块全高全长双宽ai加速卡 2)集成百度自研昆仑ai加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流ai加速卡 3)内置50 与芯片深度适配的算法模型,精度无损的情况下其推理性能持平或优于tesla t4,可支撑多场景高效应用
-
预置bml全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
国内主流ai加速卡适配
1)2/4/8卡灵活配比 2)最多支持8块全高全长双宽ai加速卡 3)集成百度自研昆仑ai加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流ai加速卡 4)内置50 与芯片深度适配的算法模型,精度无损的情况下其推理性能持平或优于tesla t4,可支撑多场景高效应用
产品优势
-
飞桨深度学习平台
百度飞桨集深度学习核心框架、模型库、开发套件、工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台;预装飞桨企业版bml,内置百度超大规模预训练模型和飞桨模型库,提供模型开发与推理预测全流程功能支撑
-
高性能ai加速芯片
全面支持语音、图像、nlp模型的训练、推理;通用版配置nvidia tesla t4或nvidia tesla a100加速卡;飞腾版配置百度自研昆仑ai加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流ai加速卡
-
专用ai服务器设计
高可靠cpu与ai加速卡异构融合;基于国内外主流cpu架构,可配置2/4/8块 ai加速卡,支持多种数据精度的训练和推理
-
开箱即用的ai能力
预置飞桨算法库和超大规模预训练模型,与芯片深度适配,支撑多场景高效应用;推理服务实现与20 国内外芯片与硬件适配,提供完备的模型端到端部署能力
产品服务
客户案例
产品支持
百度智能云飞桨一体机-ai-tf2000 bios下载
百度智能云飞桨一体机-ai-tf2000 bmc下载