当前位置:首页 » 持仓收益 » 神经网络芯片的上市公司
扩展阅读
股票投资经济学 2021-06-17 16:24:20

神经网络芯片的上市公司

发布时间: 2021-05-26 09:40:47

1. 阿里巴巴收购了哪个芯片公司

1、中天微:

中天微是目前中国大陆唯一大规模量产自主嵌入式CPU IP Core的公司,中天微主要从事32位嵌入式CPU IP研发与规模化应用,面向多媒体、安防、家庭、交通、智慧城市等物联网领域,全球累计出货超过7亿颗芯片。

中天微有自有指令集的处理器和CPU,其中性能最高的CK860性能已经达到4.1DMIPS/MHz,这已经是ARM A15的水平,而CK860的功耗还不高的,在28nm工艺下功耗是0.16mw/Mhz。

扩展阅读,阿里巴巴早期布局的国内芯片公司

2、寒武纪:

寒武纪做出来全球AI深度学习计算最快的芯片,已经集成到了华为海思的麒麟970之中,进入变现阶段。

3、Barefoot Networks:

Barefoot Networks开发了世界上最快的可编程网络芯片,这种名为Tofino的芯片比现在市场上任何其他芯片快两倍,以每秒6.5兆的速度处理网络数据包。

4、深鉴:

深鉴有DNNDK(Deep Neural Network Development Kit)。这是深鉴科技面向AI异构计算平台DPU研发的SDK。深鉴还有名为“听涛“的深度学习用SOC。

5、耐能:

耐能(Kneron)于2016年推出了神经网络处理器(Neural Processing Unit,NPU),以及自行研发的软件开发工具包「重组式人工智能神经网络」(Reconfigurable Artificial Neural Network),应用在低功耗智能家居、智能安防、手机等领域。

6、翱捷科技:

翱捷科技的创始人戴保家为锐迪科前CEO,近期完成了对Marvell(美满电子科技)MBU(移动通信部门)的收购。它是国内基带公司中除海思外唯一拥有全网通技术[支持TD-LTE、FDD-LTE、TD-SCDMA、CDMA(EVDO2000)、WCDMA、GSM共六种不同的通信模式]的公司,具备完整、强大的基带平台研发能力。

7、阿里巴巴达摩院:

阿里巴巴达摩院正研发一款神经网络芯片——Ali-NPU,该芯片将运用于图像视频分析、机器学习等AI推理计算。按照设计,该芯片的性价比将是目前同类产品的40倍。

2. 国内做芯片设计的公司有哪些

福州瑞芯微、珠海全志、珠海炬力、上海晶晨、上海盈方微。目前来说,中国的IC芯片设计的公司,还不像因特尔、高通、苹果、三星这样有很大的名气。

就拿平板/盒子芯片来说,国内的芯片设计公司中福州瑞芯微、珠海全志、珠海炬力、上海晶晨、上海盈方微在技术上和销售量上国内算是都还不错,在IC芯片业都算是第三梯队的。

芯片设计:国内的十大芯片设计公司如下,按营收规模排序:华为海思/紫光展锐/中兴微电子/华大半导体/智芯微电子/汇顶科技/士兰微电子/大唐半导体/敦泰科技/中星微电子。

国内厂商仅有四家,北方华创、中微半导体、盛美半导体和Mattson。

(2)神经网络芯片的上市公司扩展阅读:

芯片设计公司排名

中国前十强依次为华为海思、清华紫光展锐、中兴微电子、华大半导体、智芯微电子、汇顶科技、士兰微、大唐半导体、敦泰科技和中星微电子。

第一名:海思

海思在长时间内将是中国最大的芯片设计公司,大家用的华为手机里面就有大量的海思处理器和海思基带芯片,另外买的智能电视,安防系统也有海思的芯片,未来将随着华为集团的增长而上升。世界第一名高通,2016年营收154亿美元,是海思的3.5倍。

第二名:紫光展锐

展讯,锐迪科合并之后成立,目前是三星手机处理器和基带芯片除自家产品之外的最大供应商,你买的三星手机,主要是中低端系列,里面的芯片是紫光展锐的。

第三名:中兴微电子

主要是自家的通信设备用的部分芯片,手机芯片也还是外购。

第四名:华大半导体

是中国电子信息产业集团有限公司(CEC)整合旗下集成电路企业而组建的集团公司。在智能卡及安全芯片、智能卡应用、模拟电路、新型显示等领域占有较大的份额。目前华大半导体旗下已经有三个上市企业,包括A股上海贝岭和港股公司中电控股、晶门科技。

第五名:智芯微电子

智芯微电子是国网信息产业集团全资子公司,涉及芯片传感、通信控制、用电节能三大业务方向,致力于成为以智能芯片为核心的高端产品、技术、服务和整体解决方案提供商。

第六名:汇顶科技

汇顶科技是一家上市公司,该公司在指纹识别芯片设计领域已经做到了世界第二,在全球范围内仅次于给苹果提供指纹识别芯片的AuthenTec。

第七名:士兰微电子

LED照明驱动IC是其主要业务收入之一,还给家电企业提供变频电机控制芯片。

第八名:大唐半导体

以智能终端芯片、智能安全芯片、汽车电子芯片为核心的产业布局。

第九名:敦泰科技

于2005年在美国成立,致力于人机界面解决方案的研发,为移动电子设备提供最具竞争力的电容屏触控芯片、TFT LCD显示驱动芯片、触控显示整合单芯片(支持内嵌式面板的IDC)、指纹识别芯片及压力触控芯片等。

第十名:中星微电子

占领全球计算机图像输入芯片60%以上的市场份额。2005年,中星微电子在美国纳斯达克证券市场成功上市, 2016年初,中星微推出了全球首款集成了神经网络处理器(NPU)的SVAC视频编解码SoC,使得智能分析结果可以与视频数据同时编码,形成结构化的视频码流。

该技术被广泛应用于视频监控摄像头,开启了安防监控智能化的新时代。

从事芯片设计业务的重点上市公司有:紫光国芯、汇顶科技、士兰微(IDM)、大唐电信、兆易创新(存储器)、全志科技、中颖电子(家电MCU、锂电等)、北京君正、艾派克、富瀚微等。

以上芯片设计公司中,目前势头最好是的展讯跟RDA,华为海思的布局和前景最好,这三家算是国内技术、前景最好的。

中星微和炬力虽然也是第一批上市的,有些名气,但下滑得比较厉害,前景一般。nufront算是新生势力吧,离一线的技术和知名度还有很大一段距离。国民技术/君正之类布局太窄了。

参考资料:网络-中国芯

3. 新型神经网络芯片会对科技领域乃至整个世界产生什么巨大影响

一、与传统计算机的区别1946年美籍匈牙利科学家冯·诺依曼提出存储程序原理,把程序本身当作数据来对待。此后的半个多世纪以来,计算机的发展取得了巨大的进步,但“冯·诺依曼架构”中信息存储器和处理器的设计一直沿用至今,连接存储器和处理器的信息传递通道仍然通过总线来实现。随着处理的数据量海量地增长,总线有限的数据传输速率被称为“冯·诺依曼瓶颈”——尤其是移动互联网、社交网络、物联网、云计算、高通量测序等的兴起,使得‘冯·诺依曼瓶颈’日益突出,而计算机的自我纠错能力缺失的局限性也已成为发展障碍。
结构上的缺陷也导致功能上的局限。例如,从效率上看,计算机运算的功耗较高——尽管人脑处理的信息量不比计算机少,但显然而功耗低得多。为此,学习更多层的神经网络,让计算机能够更好地模拟人脑功能,成为上世纪后期以来研究的热点。
在这些研究中,核心的研究是“冯·诺依曼架构”与“人脑架构”的本质结构区别——与计算机相比,人脑的信息存储和处理,通过突触这一基本单元来实现,因而没有明显的界限。正是人脑中的千万亿个突触的可塑性——各种因素和各种条件经过一定的时间作用后引起的神经变化(可变性、可修饰性等),使得人脑的记忆和学习功能得以实现。

大脑有而计算机没有的三个特性:低功耗(人脑的能耗仅约20瓦,而目前用来尝试模拟人脑的超级计算机需要消耗数兆瓦的能量);容错性(坏掉一个晶体管就能毁掉一块微处理器,但是大脑的神经元每时每刻都在死亡);还有不需为其编制程序(大脑在与外界互动的同时也会进行学习和改变,而不是遵循预设算法的固定路径和分支运行。)

这段描述可以说是“电”脑的最终理想了吧。
注:最早的电脑也是模拟电路实现的,之后发展成现在的只有0、1的数字CPU。
今天的计算机用的都是所谓的冯诺依曼结构,在一个中央处理器和记忆芯片之间以线性计算序列来回传输数据。这种方式在处理数字和执行精确撰写的程序时非常好用,但在处理图片或声音并理解它们的意义时效果不佳。
有件事很说明问题:2012年,谷歌展示了它的人工智能软件在未被告知猫是什么东西的情况下,可以学会识别视频中的猫,而完成这个任务用到了1.6万台处理器。
要继续改善这类处理器的性能,生产商得在其中配备更多更快的晶体管、硅存储缓存和数据通路,但所有这些组件产生的热量限制了芯片的运作速度,尤其在电力有限的移动设备中。这可能会阻碍人们开发出有效处理图片、声音和其他感官信息的设备,以及将其应用于面部识别、机器人,或者交通设备航运等任务中。

神经形态芯片尝试在硅片中模仿人脑以大规模的平行方式处理信息:几十亿神经元和千万亿个突触对视觉和声音刺激物这类感官输入做出反应。

作为对图像、声音等内容的反应,这些神经元也会改变它们相互间连接的方式,我们把这个过程叫做学习。神经形态芯片纳入了受人脑启发的“神经网路”模式,因此能做同样的事。
人工智能的顶尖思想家杰夫·霍金斯(Jeff Hawkins)说,在传统处理器上用专门的软件尝试模拟人脑(谷歌在猫实验中所做的),以此作为不断提升的智能基础,这太过低效了。
霍金斯创造了掌上电脑(Palm Pilot),后来又联合创办了Numenta公司,后者制造从人脑中获得启发的软件。“你不可能只在软件中建造它,”他说到人工智能,“你必须在硅片中建造它。”
现有的计算机计算,程序的执行是一行一行执行的,而神经网络计算机则有所不同。
现行的人工智能程式,基本上都是将大大小小的各种知识写成一句一句的陈述句,再灌进系统之中。当输入问题进去智能程式时,它就会搜寻本身的资料库,再选择出最佳或最近解。2011年时,IBM 有名的 Watson 智能电脑,便是使用这样的技术,在美国的电视益智节目中打败的人类的最强卫冕者。
(神经网络计算机)以这种异步信号发送(因没有能使其同步的中央时钟而得名)处理数据的速度比同步信号发送更快,以为没有时间浪费在等待时钟发出信号上。异步信号发送消耗的能量也更少,这样便满足了迈耶博士理想的计算机的第一个特点。如果有一个处理器坏了,系统会从另一路线绕过它,这样便满足了迈耶博士理想的计算机的第二个特点。正是由于为异步信号发送编程并不容易,所以大多数计算机工程师都无视于此。然而其作为一种模仿大脑的方式堪称完美。功耗方面:
硬件方面,近年来主要是通过对大型神经网络进行仿真,如 Google 的深度学习系统Google Brain,微软的Adam等。但是这些网络需要大量传统计算机的集群。比方说 Google Brain 就采用了 1000 台各带 16 核处理器的计算机,这种架构尽管展现出了相当的能力,但是能耗依然巨大。而 IBM 则是在芯片上的模仿。4096 个内核,100 万个“神经元”、2.56 亿个“突触”集成在直径只有几厘米的方寸(是 2011 年原型大小的 1/16)之间,而且能耗只有不到 70 毫瓦。
IBM 研究小组曾经利用做过 DARPA 的NeoVision2 Tower数据集做过演示。它能够实时识别出用 30 帧每秒的正常速度拍摄自斯坦福大学胡佛塔的十字路口视频中的人、自行车、公交车、卡车等,准确率达到了 80%。相比之下,一台笔记本编程完成同样的任务用时要慢 100 倍,能耗却是 IBM 芯片的 1 万倍。

Ref: A million spiking-neuron integrated circuit with a scalable communication network and interface. Paul A. Merolla et al. Science 345, 668 (2014); DOI: 10.1126/science.1254642
因为需要拥有极多数据的Database 来做training以及需要极强大的计算能力来做prediction,现有的一些Deep learning如Andrew Ng的Google Brain、Apple的Siri等都需要连接网络到云端的服务器。

二、争议:
虽然深度学习已经被应用到尖端科学研究及日常生活当中,而 Google 已经实际搭载在核心的搜寻功能之中。但其他知名的人工智能实验室,对於深度学习技术的反应并不一致。例如艾伦人工智慧中心的执行长 Oren Etzioni,就没有考虑将深度学习纳入当前开发中的人工智慧系统中。该机构目前的研究是以小学程度的科学知识为目标,希望能开发出光是看学校的教科书,就能够轻松应付各类考试的智能程式。Oren Etzioni 以飞机为例,他表示,最成功的飞机设计都不是来自於模仿鸟的结构,所以脑神经的类比并无法保证人工智能的实现,因此他们暂不考虑借用深度学习技术来开发这个系统。
但是从短期来看,情况也许并没有那么乐观。
首先芯片的编程仍然是个大问题。芯片的编程要考虑选择哪一个神经元来连接,以及神经元之间相互影响的程度。比方说,为了识别上述视频中的汽车,编程人员首先要对芯片的仿真版进行必要的设置,然后再传给实际的芯片。这种芯片需要颠覆以往传统的编程思想,尽管 IBM 去年已经发布了一套工具,但是目前编程仍非常困难,IBM 团队正在编制令该过程简单一点的开发库。(当然,如果我们回顾过去编程语言从汇编一路走来的历史,这一点也许不会成为问题。)
其次,在部分专业人士看来,这种芯片的能力仍有待证实。
再者,真正的认知计算应该能从经验中学习,寻找关联,提出假设,记忆,并基于结果学习,而IBM 的演示里所有学习(training)都是在线下的冯诺依曼计算机上进行的。不过目前大多数的机器学习都是离线进行的,因为学习经常需要对算法进行调整,而 IBM 的硬件并不具备调整的灵活性,不擅长做这件事情。

三、人造神经元工作原理及电路实现
人工神经网络
人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。
神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。Ref:Wikipedia: 人工神经网络
电路原理
神经递质的分泌反过来又是对动作电位刺激的反应。然而神经元在接收到这些神经递质信号中的一个后便不会再继续发出动作电位。当然,它们会逐渐累加至一个极限值。在神经元接受了一定数量的信号并超过极限值后----从根本上讲是一个模拟进程----然后它们会发出一个动作电位,并自行重置。Spikey的人造神经元也是这么做的,当它们每次受到激发时都会在电容中累积电荷,直至达到限值,电容再进行放电。具体电路结构和分析之后有机会的话再更新。
现阶段硬件的实现方式有数电(IBM、Qualcomm)、模电、数模混合(学界)、GPUs等等,还有各种不是基于硅半导体制程制作的神经元等的device方面的研究。

四、历史
Neuromorphic engineering由老祖宗Carver Mead提出
卡福·米德是加州理工学院的一名工程师,被公认为神经形态计算机之父(当然还发明了“神经形态学”这个词)
神经形态芯片的创意可以追溯到几十年前。加州理工大学的退休教授、集成电路设计的传奇人物卡弗·米德(Carver Mead)在1990年发表的一篇论文中首次提出了这个名称。
这篇论文介绍了模拟芯片如何能够模仿脑部神经元和突触的电活动。所谓模拟芯片,其输出是变化的,就像真实世界中发生的现象,这和数字芯片二进制、非开即关的性质不同。

后来这(大脑研究)成为我毕生的工作,我觉得我可以有所贡献,我尝试离开计算机行业而专注大脑研究。首先我去了MIT的人工智能研究院,我想,我也想设计和制作聪明的机器,但我的想法是先研究大脑怎么运作。而他们说,呃,你不需要这样做,我们只需要计算机编程。而我说,不,你应该先研究大脑。他们说,呃,你错了。而我说,不,你们错了。最后我没被录取。但我真的有点失望,那时候年轻,但我再尝试。几年后再加州的Berkley,这次我尝试去学习生物方面的研究。我开始攻读生物物理博士课程。我在学习大脑了,而我想学理论。而他们说,不,你不可以学大脑的理论,这是不可以的,你不会拿到研究经费,而作为研究生,没有经费是不可以的。我的天。
八卦:老师说neural network这个方向每20年火一次,之前有很长一段时间的沉寂期,甚至因为理论的不完善一度被认为是江湖术士的小把戏,申请研究经费都需要改课题名称才能成功。(这段为小弟的道听途说,请大家看过就忘。后来看相关的资料发现,这段历史可能与2006年Geoffrey E. Hinton提出深度学习的概念这一革命性工作改变了之前的状况有关。)

五、针对IBM这次的工作:
关于 SyNAPSE
美国国防部先进研究项目局的研究项目,由两个大的group组成:IBM team和HRL Team。
Synapse在英文中是突触的意思,而SyNAPSE是Systems of Neuromorphic Adaptive Plastic Scalable Electronics的简称。
Cognitive computing: Neurosynaptic chips
IBM proces first working chips modeled on the human brain
另一个SyNAPSE项目是由IBM阿尔马登实验室(位于圣何塞)的达尔门德拉·穆德哈负责。与四所美国大学(哥伦比亚大学,康奈尔大学,加州大学默塞德分校以及威斯康辛-麦迪逊大学)合作,穆德哈博士及其团队制造了一台神经形态学计算机的原型机,拥有256个“积分触发式”神经元,之所以这么叫是因为这些神经元将自己的输入累加(即积分)直至达到阈值,然后发出一个信号后再自行重置。它们在这一点上与Spikey中的神经元类似,但是电子方面的细节却有所不同,因为它们是由一个数字储存器而非许多电容来记录输入信号的。
Ref: A million spiking-neuron integrated circuit with a scalable communication network and interface. Paul A. Merolla et al. Science 345, 668 (2014); DOI: 10.1126/science.1254642

4. 中科院提出图神经网络加速芯片设计,这是一种怎样的芯片呢

随着技术发展,人工智能技术也在不断的发展。现有的芯片已经难以满足一些神经网络的计算了,中科院提出了图神经网络加速芯片,这种芯片专用于图神经网络的运算。让我们一起来了解一下什么是图神经网络,这种芯片有什么重大的突破。

图神经网络的应用前景非常广泛,不仅用在日常交通预测、网约车调度、运动检测等民用领域,还可以助力科研的知识推理、化学研究以及在知识图谱、视觉推理等学科发展方向上。

5. 人工智能概念股有哪些 人工智能芯片谁是龙头

人工智能包含硬件智能、软件智能和其他。

硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。

软件智能包括:金自天正、科大讯飞。

其他类包括:中科曙光、京山轻机。

6. 国内做AI芯片的有哪些企业

暂时来讲主要是华为和瑞芯微,华为主要依托于手机强大的平台进行应用,瑞芯微相对来讲涉及的领域更多,更加广泛。

7. 如何评价浙大研制出国内首款支持脉冲神经网络的类脑芯片

第一,并没有太多的创新性。且不说国际上早有‘SNN(spiking neural network)’芯片,仅在国内,是不是国内首例都不好说,据我所知,清华也有课题组在做类似的芯片。
第二,在功能上没有大的突破。看浙大官方的新闻,该芯片“实现”的功能是“手写数字的识别 和 脑电波的解码”。业内人士应该都知道,这两项功能是机器学习领域已经玩儿烂的了,和SNN几乎没有一毛钱的关系。
第三,在算法上没有大的突破。具体的算法没有报道,但新闻上说,“最多可支持2048个神经元、400多万个神经突触及15个不同的突触延迟。”我一看这神经元和突触比例吓一跳,原来是做了一个全连接的网络啊……并没有什么真实神经网络的算法引进。而在制作工艺上,本研究采用传统的CMOS工艺,显然和IBM的研究不在一个时代(TrueNorth芯片里的神经元是百万级的)。

8. 神经网络计算机和生物芯片是什么

曾有人使用一台有翻译功能的电脑,将一句话从英语译成俄语,再回过来译成英语。原句是“心有余而力不足”,想不到,一个来回后面目全非,成了“伏特加酒很凶,但肉已发臭”。

这是真实的,不是笑话。它说明,电脑尽管有惊人的运算速度和贮存信息的能力,却仍然不及人脑聪明。由140亿个神经细胞组成的人脑,在学习、联想、整体判别、优化控制等方面,是电脑望尘莫及的。

80年代以来,许多电脑专家转而致力于研究人脑的结构和功能,期望用最尖端的材料和电子线路来模仿人脑的功能,包括神经细胞的兴奋和控制,神经网络的联通和整合,大脑的思维、判别和反射等等。在此基础上,就可能制造出新一代计算机——神经网络计算机。和过去的所有计算机不一样,神经网络计算机有学习能力,会积累经验,增长知识,在记忆、联想、模糊识别等方面逼近或超过人脑。它被称为第六代计算机。

1992年,日本的一家公司宣布研制出一部“通用神经网络计算机”。这部计算机模仿人脑神经细胞传递信息的方式,使用32个有学习能力的大规模集成电路,不用软件,不需要解读软件命令的线路。它的处理速度奇快,人脑要一个多小时读完的文字,它在千分之几秒内就能读完。

在当代的高新技术中,计算机技术和生物技术是两大主力。神经网络计算机可说是这两大技术融汇的产物,但它是宏观方面的产品。在微观方面,生物技术也同样为计算机技术作出了巨大的贡献,那就是近年来各发达国家都在加紧研制的生物芯片。

作为计算机核心元件的芯片,至今仍是以半导体为材料的。但半导体芯片的发展已快要达到理论上的极限。它面临的困境是半导体的集成密度受到限制。一块硅片上最多只能排列几千万个晶体管元器件,否则就会有发热、漏电等问题。这样,芯片的存储容量就有限了,而芯片容量的限制直接会影响到计算机处理信息的速度。所以,要使计算机技术再次取得新的突破,必然的趋势是用新一代的芯片——生物芯片来取代半导体芯片。

生物芯片的主体是生物大分子。蛋白质、核酸等生物大分子都具有像半导体那样的光电转换功能和开关功能,但目前为各国科学家看好的是蛋白质分子。蛋白质分子具有低阻抗、低能耗的性质,不存在散热问题。它的三维立体排列使它具有较大的存储容量。使用蛋白质芯片的计算机,处理信息的速度可望提高几个数量级。另外,蛋白质分子还有自行组装和再生的能力,为计算机全面模仿人脑、实现高智能化提供了可能。

选择哪种蛋白质分子来担当这一重任呢?这可是各国科学家在努力攻关的核心问题。一种嗜盐菌的紫膜中的蛋白质分子(代号叫bR)看来是选作生物芯片的理想材料,因为它来源广泛,具备作为光电转换和开关元件的优良性能。而紫膜是目前唯一的结晶状生物膜,稳定性很好。我国科学家在紫膜蛋白质分子的研究中也有不少建树,有可能为生物芯片的问世作出自己的贡献。

制作生物芯片除了直接选用天然蛋白质分子之外,一种更为奇妙的手段是制造人工蛋白质分子。这有两种途径。一种是通过DNA重组,使某种微生物“分泌”出合乎要求的蛋白质分子;另一种是直接用蛋白质的基本材料氨基酸来进行组装。人工蛋白质分子是根据理想的蓝图来进行构筑的,性能当然比天然蛋白质分子优异,但同时也存在着更多的困难,目前尚处于实验研制阶段,离实际应用还有不小的距离。

9. 对于中国开发的寒武纪神经网络芯片,大家有什么看法吗

不是,是电脑的处理品,主要是为了和inter的处理器对抗而自主研发的处理器,不过大部分项目是为了骗国家的创新基金的,性能可能先先进,计算速度很快,却没办法投入到实际的生产应用