AI边缘计算终端1:★1) AI算力:≥472 GFLOPS
★2) GPU核心数:≥128-core NVIDIA Maxwell™ GPU
★3) CPU类型:≥4核
★4) 电源:25-30W,支持电源端子、DC、POE供电
★5) 支持网络接入类型:支持4G/5G/WIFI/Zigbee模组、有线
★6) 环境要求:工作环温-40~55℃/湿度5%~95%
AI边缘计算终端2:★1) AI算力:≥21 TOPS
★2) GPU核心数:≥384-core NVIDIA Volta™ GPU with 48 Tensor Cores
★3) CPU类型: ≥6核
★4) 电源、支持网络接入类型、环境要求同上
AI边缘计算服务器:★1)处理器:两颗至强金牌处理器(每颗16核心,主频2.9G或以上)
★2) 内存: 512GB DDR4 ECC内存
★3)AI计算卡: 配置两块Nvidia系列计算卡,每块内存≥24GB
★4)硬盘:3块960企业级SSD硬盘
★5) 管理功能: 1、具备服务器远程批量部署、管理,支持不依赖主机操作系统进行远程操作(包括开、关机,鼠标键盘操作、系统部署等)。2、支持对CPU、内存、硬盘、电源及风扇等关键部分的潜在的故障具有提前预警能力;3、可监控、报告及控制处理器、内存及系统的能耗,允许通过一体化管理控制台实现基于策略的功耗封顶。支持虚拟机功耗映射,可以根据功耗对于虚拟机进行负载平衡以及按虚拟机报告功能。
★6)虚拟化软件:企业版服务器虚拟化软件,采用裸金属架构,每套两颗物理CPU许可(原厂直发指定邮箱);支持动态负载均衡、内存优化、虚机高可用性、实时内存快照和恢复、基于角色的管理;支持GPU穿透和VGPU功能;提供全局的HA 高可用功能(包括服务器层面HA 高可用和存储层面HA 高可用无缝集成);支持全局资源调度功能,根据负载可自动分布虚拟机运行的服务器以及重新分布数据存放的磁盘,以实现集群内的服务器和存储负载均衡;具备统一管理平台软件,图形界面管理软件,提供API、SDK等接口。
★7)环境要求:工作环温-5~50℃ /湿度5%~95%
AI边缘计算设施管理平台:★1)基本要求:具备图形界面,支持可管理边缘计算硬件设备数量≥100
★2)功能要求:具备资源管理、故障监控、性能监控、能耗管理、报表统计、拓扑展标、节点健康状态监控、故障诊断、自动修复、固件升级/配置、OS部署等功能模块,实现对系统内所有AI边缘计算设备的实时集中管控。通过该平台对所有合法终端设备进行数据采集并分析,根据策略进行自动负载均衡,促进智能化管理,有效提高计算效率,保障平台设备安全、可靠、稳定运行。
★3)集群管理:支持针对多用户、多场景进行角色关联,资源配额;支持模块训练功能,可实时查看任务训练输出,以及查看训练的曲线、可视化结果,具备节点控制功能,支持横向扩展,集群分区的创建、删除、监控、统计,为用户提供优质的可扩展性、可靠性、可维护性的高性能的管理平台。
无
一、 云计算任务迁移
移动云环境中借助基站等边缘设备的计算、存储、网络等资源,实现从服务器端迁移部分或全部任务到边缘端执行。比如通过分布式缓存技术提高网页加载速度,或者将深度学习的分析、训练过程放在云端,生成的模型部署在边缘网关直接执行,优化良率,提供产能。
二、 边缘视频检测分析
在本地对视频进行简单处理,选择性丢弃一些静止或无用的画面,经过简单过滤后的视频检测数据上传到云端,可以减少带宽的浪费,节省传输无效数据的时间。
公告名称 | 公告内容 | 发布日期 |
---|