最新网址:www.boai4.com

荒野悲歌提示您:看后求收藏(博爱书屋boai4.com),接着再看更方便。

第2717章显卡

芯片有很多种,简单地说,就是凡是跟计算有关的电子器件,都算是芯片。

比如手机里的声音感知器,可以感知到外部的声音,然后把声音信号通过计算,改变为数字信号传给中央处理器。这种东西也叫芯片,叫做感知芯片。

又比如电量的消耗。

运行一款程序,需要给予多少电量的支持?这也需要计算来得出,计算这个单元的器件,叫做电源芯片。

又比如蓝牙、wifi、usb接口等等,这些连接的过程都需要计算,通过计算来对接,就都有相应的通信芯片来对接。

不过,这些芯片大多技术含量不高,计算量很小,不算什么核心科技。

真正最广为人知的芯片,是处理器芯片,也就是cpu。在一款产品里,cpu就相当于人的大脑,几乎负责了所有的计算,大量的复杂计算。

人工智能也需要大量计算。

所以过去行业对人工智能的理解,也是这样的逻辑。在处理人工智能的大量计算的时候,也是通过cpu来计算各种ai算法。

这是行业常识。

可是直到这个月……其实也就是前几天,整个人工智能行业,才终于恍然醒悟,产生了一种全新的行业认识。

在处理人工智能计算的时候,不应该使用cpu芯片!

而应该使用gpu芯片!

gpu,也就是大众熟知的显卡。

之所以能做出这样的转变,就是上周才发生的震惊世界的围棋行业的rokid-go所发起的“人机大战”!

rokid-go背后的庞大数据处理,依靠的就是大量的gpu的运行。

同样规格的cpu和gpu,在处理ai计算的时候,gpu的算力可以超过cpu的100倍!而能耗,还不足cpu的5%!

rokid-go大获成功之后,近期连续发表了7篇很多这方面的论文。又有过“人机大战”的实践证实,可以说紫微星已经引领了全球人工智能计算的行业大转向。

人工智能,将会在紫微星的带领下,真正地走进gpu的时代!

而这也进一步地提高了做人工智能科研的门槛。

因为过去的那种靠着暴力地堆积大量cpu来提高算力的模式,在人工智能领域算是彻底的行不通了。

就比如超级计算机。

超级计算机,就是有着超级计算能力的电脑,在这个领域,国内有着很强大的实力,不比美国差多少。

为什么?

因为cpu的叠加属性。

cpu的计算,绝大多数都是线性的,就像流水线上的工人,是一个任务一个任务的去执行。美国有最好的cpu芯片,最多就是流水线工人的干活水平高了,单体工作能力比较强。

国内的cpu芯片比较差,却可以用暴力堆积的方法来解决算力缺陷。

工人的单体能力差,但是没关系,多在流水线上安排一些工人就好了。美国的超算用1000个芯片,我们的用1万个芯片,总能跟他们达到同样的算力了吧?

无非就是多费点电而已。

在国家战略面前,电费才几个钱?

一台超级计算机,主机可以装满一层大楼,没有空间限制,就可以无限地堆积算力低下的cpu,靠着无数cpu芯片的堆积,来达到超算的效果。

所以联想、曙光、浪潮,包括一些高校和军方,都可以开发出自研知识产权的超级计算机,在这个领域打破技术壁垒。

可是,gpu就不行了。

gpu之所以能取代cpu成为人工智能计算的主要工作,就是因为gpu主要是以处理并行计算为主。

而人工智能的神经网络算法趋势,所需要的就是并行计算,刚好和gpu相匹配。

一旦是并行计算了,就没法像流水线工人那样,靠着堆积数量去提高生产力了,这就得靠着实打实的硬实力了。

比如一个博士生和一个小学生算数学题,小学生根本不行。哪怕把一万、十万个小学生组合起来,也不可能是一个博士生的对手。

这就是高通、英特尔这些主要以销售cpu为主的公司,市值最高也就是几千亿美元,而以卖gpu为主的英伟达,市值却能冲上5000亿美元、1万亿美元、2万亿美元甚至更高的原因。

cpu再是核心技术,也有可替代性。

gpu却没法靠着堆量的方法来替代。

没有顶级的gpu,就无法提供顶级的算力,就不可能成为顶级的人工智能公司。

就像十年后的2023年国内的人工智能现状。

更多内容加载中...请稍候...

本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!

都市言情相关阅读More+

让老板怀崽了怎么办[娱乐圈]

烧个锅巴

上位

言不由衷

盲医

太上忘情

老来伴

孟中得意

方寸大乱

瑾余

不乖[校园]

树延