是一款提供了现场可编程门阵列(FPGA)的计算实例,基于阿里云弹性计算框架,用户可以几分钟内轻松创建FPGA实例,创建自定义的专用硬件加速器。由于FPGA硬件的可重配特性,用户可以对已创建的FPGA硬件加速应用,进行快速擦写和重配,达到低时延硬件与弹性伸缩最好的结合。
在控制台按需选择加速器类型,轻松将FPGA变成指定硬件加速器
实时监控硬件温度及资源占用情况,应对突发问题降低风险
通过应用调试各种FPGA开发环境,在最熟悉的环境下完成系统设计
阿里云IP市场提供众多领域解决方案,可按需选择、集成、部署
PCI Express (PCIe) 3.0
FPGA器件通过PCI Express (PCIe) 3.0 接口与上层应用程序通信。
专用硬件
应用中消耗大量的CPU计算,系统可以选择性的交给 FPGA专用硬件进行加速计算。
释放资源
释放宝贵的CPU资源,这部分资源支持应用更大的访问量跟吞吐量。
高配特性
用户可选高配FPGA特性,共同使用一个地址空间相互通信速度高达48 Gbps。
节约成本
购买 FPGA 实例,无需购买 FPGA 器件和板卡。
按量供需
FPGA实例支持按量付费,无需求时随时释放,轻资产开发,降低项目研发期间的投入成本。
云端支持
用户如果已经有现成的 FPGA 工程,可以轻松地利用阿里云提供的开发环境和硬件支持包(BSP)将已有工程导入云端,并在 FPGA 实例中使用。
工具链
阿里云提供了 Altera、Xilinx 主流的开发软件工具链, FPGA 实例中的 FPGA 器件也兼顾两家,方便用户根据原设计的具体情况进行合理选择,无缝迁移。
为深度学习提供加速引擎
深度学习(Deep Learning)是一种多层计算模型,可以对复杂输入进行建模,在图像分类、语音识别、自然语言处理中取得了成果,FPGA 实例由于其细粒度并行的硬件特性,非常适合小批量数据的深度学习预测过程,以低功耗、低延迟、高性能著称,以 AlexNet 模型为例,使用 FPGA计算实例进行图片类别预测,速度比仅用CPU的普通实例快 8~15 倍。
云端压缩/解压缩的计算加速
云上用户在进行大数据存储、高速网络传输时,常常因为目前的实例性能在效率跟成本之间进行选择。gzip是一种常用的压缩工具,广泛用于互联网服务中,而传统的CPU实现 gzip 效率低、耗时长、难以支撑较大流量。使用带有 FPGA 的计算实例进行 gzip 压缩相比仅用 CPU 的普通实例有8~10 倍性能提升,充分满足用户的数据压缩需求。
微信公众号
手机站
COPYRIGHT 2007-2020 TUIDC ALL RIGHTS RESERVED 腾佑科技-百度AI人工智能_百度人脸识别_图像识别_语音识别提供商
地址:河南省郑州市姚砦路133号金成时代广场6号楼13层 备案号: ICP备案号:豫B2-20110005-1
声明:本站发布的内容版权归郑州腾佑科技有限公司所有,本站部分素材来源于网络及网友投稿,若无意中侵犯了您的版权,请致电在线客服我们将在核实后予以删除!