快捷搜索:

连英伟达这个造“核弹”的,也开始要整“元宇宙”了?

继上回放出了 “ 真假老黄 ” 的骚操作之后,昨天英伟达在线上召开了今年的第二场 GTC 主题演讲。

说起来,这场发布会的时间还满赶巧的,正好卡在双 11 和黑五的节点之前,预告也是一副要发新产品的既视感。

这阵仗怕不是要推 RTX 30 的 Super 系列新显卡? 

托尼吓得赶忙订了个闹钟,到点守在电脑之前,一秒没落的看完了这场 GTC 。

可结果不但一张新显卡都没发布,老黄讲的东西还把托尼给看晕了。。。

简单来说,上次英伟达官方放出的虚拟老黄的制作视频算是一个预热,暗示了英伟达的下一个发力方向,和元宇宙概念有很大关系。

而因为最近元宇宙概念的火热,到了这回的 GTC 上, 英伟达干脆直接向大众展示了,他们将会如何在元宇宙领域一展拳脚。

发布会一开场,老黄就重现了他家的变形厨房,而这一次,他把背景转换到了英伟达新办公大楼。

感觉这回的场景转换比上次玩的要熟练些 

老黄首先抛出了目前英伟达主要施力的六个大板块,尽管他说的每个字托尼都认识,但连起来一看,确实是一头雾水。

按托尼浅薄的理解,老黄说的 数据中心级计算、 百万科学加速以及 人工智能,都属于底层的技术实现。

而 Omniverse 全能宇宙、虚拟人物、和 机器人 & 自动驾驶,就是应用层面的实践了。

按照老黄的想法,英伟达所有算法和软件,都会围绕 Omniverse 这个虚拟引擎来进行运转。

它目前在 机器人、自动驾驶、仓库库存、工厂生产线、城市规划等方面,都能进行虚拟场地的建模以及测试和训练。

还好,接下来他的一番详细解释,让托尼稍稍摸到了一点实现元宇宙的头绪。。。

想要建立一个元宇宙,除了拟真的场景之外,虚拟 NPC 也是必不可少的元素之一。

英伟达这次带来的 Omniverse Avatar 技术,就可以帮助开发者构建出那么一个有实时反馈的虚拟人物。

他们设计了一个叫 Toy-Me 的迷你虚拟仁勋,这玩意儿本质上可以看作是一个 AI 低配版的老黄

开发人员采集了老黄本人的 声线、肢体语言,接着利用语音模型库对进行语音训练,最后配合上图形优化以及光追渲染, Toy-Me 就基本被构建出来了。

这个迷你老黄可以像语音助手一样,根据老黄的语言风格,搭配身体动作,实时回答出提问者的问题。

这小眼神和肢体语言的相似度,真的很绝。 

虽然部分回答听起来有些照搬维基百科,但在 口音、说话嘴型的模仿上,基本感受不出有什么违和之处。

那么像 Omniverse Avatar 这样牛掰的技术,除了打游戏,还能用在什么地方呢?

老黄给出了 视频通话以及 AI 服务两个实用性很强的应用场景,托尼感觉有那么点赛博未来内味儿了。

这两年的疫情让全球各地的人们使用视频通话的频率大幅提升,但语言不通始终是一个很尴尬的问题。

当 Omniverse 接管视频会议之后,它不仅能根据使用者的声线做实时的多语言翻译,还能追踪使用者面部进行三维建模,实时生成出不同语言的嘴型。

这个方案在几年之前几乎不可能实现,但得益于大量模型数据的深度学习,英伟达已经有办法利用 AI 作出以假乱真的事情。

另一方面, Omniverse Avatar 还能大大提升现在的语音助手普遍不太高的智商,不管是在快餐店语音点餐还是车机系统语音导航,都能有突破性的表现。

按英伟达现在的演示来看, AI 服务总算是摆脱了 “ 人工智障 ” 的名声。 

而另一块仰赖 AI 的主要技术,就是现在互联网公司都在搞的自动驾驶了。

英伟达这次在自动驾驶上,正式推出了 Omniverse Replicator 这项产品,它最厉害的地方,是可以利用模拟环境来为自动驾驶采集数据。

以往费时费力的实景道路测试,现在依靠 Omniverse Replicator 的虚拟空间,就能加快自动驾驶算法的测试和视觉学习。

它的优势在于,能模拟一些实景道路测试不出来的参数。

从安全性的角度来说, Omniverse Replicator 训练出来的汽车,前期经历的 “ 魔鬼训练 ” 会更多。

进行完这样的测试之后再投放到现实世界,大风大浪见的多了,出事的概率自然也就小了。

当然, Omniverse 的实力还不止如此,英伟达还与航空巨头洛克希德 - 马丁公司合作,建立了一个自动化监测山林火灾蔓延趋势的模型。

您可能还会对下面的文章感兴趣: