Nvidia今天发布了GTC Digital会议的主题演讲,CEO黄仁勋在他的厨房拍摄了该演讲。Huang在演讲中展示了新的Ampere GPU架构,用于智能医院的AI驱动的医疗保健解决方案以及A100 GPU,后者的训练和推理速度比Volta快20倍。Huang还介绍了Merlin,这是一种用于推荐系统的应用程序框架,被认为是“当今世界上最重要的AI模型”,该模型“驱动了互联网的绝大多数经济引擎”。
推荐系统可以确定购物者在电子商务商店中看到的商品,或个性化在Netflix或Microsoft Xbox等网站上看到的结果。而且,由于这些系统收集的数据量很大,因此可以轻松扩展其大小。
Huang预测,由于数据密集型推荐模型和多模式AI会从多种形式的媒体(例如文本,视觉或声音)中获取输入,因此A100驱动的AI模型通常会变得更大。
Huang说:“由于安培的诞生以及这一代[GPU],我们将看到一些真正巨大的AI模型已成定局,” “将来,由于您使用网站或商店的方式来建立模式,因此它将具有上下文信息,连续信息和序列信息。这些模型将是巨大的。当您输入很多不同的域时,我们将为机器人技术做到这一点。”
操纵推荐系统引起了机器学习社区成员的关注,其中包括Celeste Kidd,他在去年NeurIPS的主题演讲中谈到了这一点。在对Facebook的激烈批评中,深度学习库Keras的创建者FrançoisChollet敦促AI社区创建“透明,可配置和建设性”的推荐引擎,而不是为了最大程度地提高利润或政治收益的老虎机。
Nvidia 今天还宣布了Jarvis多模式对话式AI应用程序框架的有限可用性。贾维斯(Jarvis)将图形与对话式AI相结合,以制造出Huang所说的交互式3D聊天机器人。您可以在下面的视频中看到一个演示。
自从深度学习重新出现以来,训练顶级AI模型所需的计算量一直在稳定增长。例如,Nvidia产品管理总监Paresh Kharya指出,2016年训练ResNet-50所需的计算量比训练Megatron(基于BERT的语言模型,具有数十亿参数)所需的计算量少3000倍。
Nvidia今天还分享了许多其他具有新闻价值的更新,包括为数据科学家使用Apache Spark或Microsoft Azure或AWS等公共云引入GPU加速。该公司还首次发布了将于2020年末推出的用于边缘AI的EGX A100,并宣布了Omniverse图形和仿真平台的抢先发布。
GTC数字会议原定于3月在加利福尼亚圣何塞Nvidia总部附近举行。