Nvidia公司正在通过发布用于高性能深度学习推理的TensorRT软件平台的新版本来增强其人工智能游戏 。
TensorRT是一个结合了高性能深度学习推理优化器和可为AI应用程序提供低延迟 , 高吞吐量推理的运行时的平台 。
推理是AI的重要方面 。AI培训与算法理解数据集的能力的发展有关 , 而推理则是指算法对数据采取行动以推断出特定查询答案的能力 。
最新版本在性能方面进行了一些重大改进 。这些措施包括大大缩短了最先进的AI语言模型之一的推理时间 , 该模型称为“大型变形金刚的双向编码器表示法” 。众所周知 , BERT-Large是一种自然语言处理培训的方法 。它涉及在大型文本语料库(如Wikipedia)上训练通用语言理解模型 , 然后将其用作下游NLP任务的基础 。
Nvidia表示TensorRT 6带有新的优化功能 , 可将带有T4图形处理单元的BERT的算法推理时间减少到5.8毫秒 , 而之前的性能阈值为10毫秒 。
Nvidia表示 , 这种改进的性能足够快 , 以至于BERT现在对于企业首次在生产中进行部署是切实可行的 。传统观点认为 , NLP模型需要在不到10毫秒的时间内执行才能提供自然而引人入胜的体验 。
英伟达表示 , 该平台还进行了优化 , 以加快对与语音识别 , 医疗应用的3D图像分割以及工业自动化中基于图像的应用有关的任务的推断 。
Nvidia表示 , TensorRT 6还增加了对动态输入批处理大小的支持 , 这应该有助于加快AI应用程序(例如具有变化的计算需求的在线服务)的速度 。TensorRT开源存储库也不断发展 , 提供了新的培训样本 , 这些样本应有助于加快基于语言和图像的应用程序的推理速度 。
Constellation Research Inc.分析师Holger Mueller表示 , 由于目前对话式AI平台的竞赛如火如荼 , 今天的改进是及时的 。
“但是Nvidia仍然需要解决下一代应用程序的本地部署 , 除非它设法将TensorRT平台引入公共云 , ” Mueller说 。“ Nvidia在此方面拥有良好的业绩记录 , 但是这需要时间才能实现 。”
【Nvidia的TensorRT深度学习推理平台在对话式AI中开辟了新天地】
推荐阅读
- 头戴式耳机适合健身用不 头戴式耳机适合健身吗
- 长安奔奔estar电动车 – 长安新能源奔奔estar国民版
- 知识科普:怎么让男生嘴唇厚变薄
- 长白山价格表 – 长白山最贵的烟150元一包
- 华硕ZenFone Max Plus M1现已在上市
- 长安跨越新豹t3舒适型,长安新豹t3最多的故障
- Galaxy Xcover Pro英寸即将通过FCC认证
- Galaxy S10的摄影规格得到了新的详述并承诺显着改善相机性能
- 梦见自己的头发剪掉了 梦见自己剪掉头发
