谷歌出手AI芯片和公有云市场 TPU首次对外全面开放

今日报道,谷歌向外宣布tpu将启动全面开放模式,据悉这是谷歌tpu首次对外全面开放。tpu的威力极大,它的出现必将给ai芯片和公有云市场将迎来新的变局。google的机器学习利器cloud tpu,在今日真的开始面向更多用户开放了。
谷歌又出手了。又是一个大招。
这次谷歌传奇jeff dean亲自在推特上连发10条,满怀激动地对外宣布着这个消息:谷歌tpu首次对外全面开放。
ai芯片和公有云市场将迎来新的变局。
之前英伟达的黄仁勋在谈到谷歌tpu时,就曾强硬的表示,对tpu的威胁不以为然。当时,老黄还列了列参数:新的tpu可以实现45 teraflop的运算能力,而英伟达最新的volta gpu则能达到120 teraflop。
但如果你关注人工智能,肯定知道tpu的威力。谷歌搜索、翻译、相册等应用,都有tpu在提供ai加速。更值得一提的是,alphago也是借力tpu,称霸围棋界。
而且谷歌这款芯片还专门对ai进行了优化。
谷歌在官方博客中表示,在新发布的cloud tpu帮助下,不到一天的时间,你就可以在imagenet上把resnet-50模型训练到75%的精度,成本不足200美元。
从现在起,每小时6.5美元,你也能用上谷歌tpu了。
理论上。
google的机器学习利器cloud tpu,从今天开始面向更多用户开放了。
cloud tpu今天发布了beta版,这一版本通过谷歌云平台(google cloud platform, gcp)提供,想帮更多机器学习专家更快地运行模型。
cloud tpu是谷歌设计的硬件加速器,专为加速、扩展特定的tensorflow机器学习工作负载而优化。
每个cloud tpu包含4个定制化的asic,单块板卡的计算能力达到每秒180万亿次浮点运算(180 teraflops),有64gb的高带宽内存。
这些板卡可以单独使用,也可以通过超高速专用网络连接起来,形成“tpu pod”。今年晚些时候,google会开始通过gcp供应这种更大的超级计算机。
google设计cloud tpu的目标,是针对性地为tensorflow工作负载提供一分钱一分货的差异化性能,让研究人员嫩更快地进行迭代。
例如:
你能通过自定义、可控制的google compute engine虚拟机,对联网的cloud tpu进行交互式的、独享的访问,而不用等待自己的工作在共享计算集群上排队。
你能连夜在一组cloud tpu上训练出同一个模型的几个变体,第二天将训练出来的最精确的模型部署到生产中,而不用等几天、甚至几周来训练关键业务机器学习模型。
不到一天的时间,你就可以在imagenet上把resnet-50模型训练到75%的精度,成本不到200美元。
更简单的机器学习模型训练
过去,为定制asic和超级计算机编程需要深入的专业知识技能。相比之下,要对cloud tpu编程,用高级tensorflow api就可以了,google还开源了一组高性能的云tpu模型实现,上手更简单:
google在博客中说,经过对性能和收敛性的不断测试,这些模型都达到了标准数据集的预期精度。
以后,google会逐渐推出更多模型实现。不过,想要探险的机器学习专家也可以用他们提供的文档和工具,自行在cloud tpu上优化其他tensorflow模型。
现在开始用cloud tpu,等到今年晚些时候google推出tpu pod的时候,训练的时间-精度比能得到惊人的提升。
在nips 2017上,google曾宣布resnet-50和transformer两个模型在完整tpu pod上的训练时间,都从大半天下降到了30分钟以内,不需要改动任何代码。
可扩展的机器学习平台 云tpu还简化了机器学习计算资源的规划和管理:
你可以为团队提供最先进的机器学习加速,并根据需求的变化动态调整生产力。
你可以直接用经过google多年优化的高度集成机器学习基础设施,无需投入大量金钱、时间、专业人才来设计、安装、维护现场机器学习计算集群,不用考虑供电、冷却、联网、存储要求等问题。
google cloud tpu经过预先配置,不需要安装驱动程序,因此,也不用想方设法让一大群工作站和服务器的驱动程序保持最新。
和其他google云服务一样,有复杂的安全机制保护着你的数据。
google说要为客户的每个机器学习负载提供最适合的云服务,除了tpu之外,他们还提供英特尔skylake等高性能cpu,和包括英伟达tesla v100在内的高端gpu。
开始使用吧 cloud tpu今天开始提供,数量有限,按秒计费。每个cloud tpu每小时6.5美元。
要使用beta版的cloud tpu,需要填个表,描述一下你要用tpu干什么。
google说,会尽快让你用上cloud tpu。
2月27日,google还要开一场在线讲座,再细致地谈一谈cloud tpu。
在google的博客文章中,提到了两家客户使用cloud tpu的感受。
一家是投资公司two sigma。他们的深度学习研究现在主要在云上进行,该公司cto alfred spector说:“将tensorflow工作负载转移到tpu上,大大降低了编程新模型的复杂性,缩短了训练时间。”
另一家是共享出行公司lyft。深度学习正在成为这家公司无人车研究的重要组成部分。

一文告诉你!如何选择合适的嵌入多操作系统
深耕市场25年,汉威科技发布燃气安全一站式解决方案
MediaTek率先成功完成5G NTN 卫星手机实验室连线测试
COSMOPlat在开源技术方向的探索和实践
诺基亚8Sirocco评测 带着诚意却又姗姗来迟的旗舰
谷歌出手AI芯片和公有云市场 TPU首次对外全面开放
为什么单片机不能直接驱动继电器和电磁阀?
探讨5G通信行业的未来发展趋势
多核低功耗数字手机电视解决方案
四地四场超800人参与,利尔达全国星闪系列研讨会成功举办并圆满落幕
无刷电机驱动的实际信号波形
当苹果iPhone 5 ARM处理器遭流氓专利诉讼
中兴通讯在CeBIT发布LTE宽带多媒体集群解决方案
为什么iPhone只能用3 年?因为电池不行!
什么是对焦距离
大疆Spark无人机3299元起售:人脸识别开机 无需遥控器掌上直接起飞!
双十二有哪些好用的蓝牙耳机推荐?好用的蓝牙耳机开箱
基于NC-Link的机器人远程监控系统研究
3LCD投影技术的工作原理和优缺点
三星Galaxy Note 9蓝牙S笔的七种不同使用方式介绍