CN1100541A - 神经网络及其使用方法 - Google Patents

神经网络及其使用方法 Download PDF

Info

Publication number
CN1100541A
CN1100541A CN94106567A CN94106567A CN1100541A CN 1100541 A CN1100541 A CN 1100541A CN 94106567 A CN94106567 A CN 94106567A CN 94106567 A CN94106567 A CN 94106567A CN 1100541 A CN1100541 A CN 1100541A
Authority
CN
China
Prior art keywords
network
neural network
neural
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN94106567A
Other languages
English (en)
Inventor
谢伊-平·托马斯·王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of CN1100541A publication Critical patent/CN1100541A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/552Powers or roots, e.g. Pythagorean sums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2207/00Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F2207/552Indexing scheme relating to groups G06F7/552 - G06F7/5525
    • G06F2207/5523Calculates a power, e.g. the square, of a number or a function, e.g. polynomials

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Mathematical Optimization (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

一种神经网络,该网络可用硬件或用软件实现, 该网络由神经或神经电路构成,每一个神经电路仅具 有以一个乘法器形式的主要处理单元。该神经网络 利用一种不需要重复训练的训练算法,而且该网络产 生每个给定的输入矢量组的全局最小值。

Description

本发明与转让给本发明的受让人的下述发明有关:
“人工神经及其使用方法”,与本发明同时申请,美国专利申请序号为No.08/076602。
为此,上述的有关发明的主题被并入到本发明的化开中作为参考。
本发明涉及人工神经网络,具体涉及能以VLSI(超大规模集成)芯片或计算机程序实现的神经网络,并且它利用一种无需重复训练的训练算法,和对每个给定的输入矢量组产生一个全局最小值。
人工神经网络在各种各样的计算机环境有多种例如,话音识别、过程控制、光学字符识别、信号处理和图像处理中得到应用。对于上述应用中的许多处理机器可通过神经网络来实现,该神经网络包括称为“神经电路”的许多基本逻辑单元。
正如上述相关发明中所描述的,常规神经电路的结构经常包括一个乘法器电路、一个求和电路、一个用于执行非线性函数(例如,一个二进制阈值或S形函数)的电路,或起着突触(synapses)或加权输入连接功能的电路。因为一个典型的常规神经电路需要所有上面描述的电路,能在半呆体芯片上生产的神经电路的数目受到严格地限制。
熟知的神经网络结构有20多种,其中最熟悉的是“反向传播”(back-propagation),“感知器”(perceptron),和“毫普费尔德网络”(Hopfield network)。
图1示出先有技术的反向传播神经网络。如图1所示,该反向传播网络典型地至少包括三层:一个“输入层”,一个“隐藏层”,和一个“输出层”。但是,如众所周知,可能需要多于三层的许多层来解决中间尺寸问题。
参见图1所示的具体反向传播神经网络,多个输入X1-Xn的每一个输入耦合到输入层的各个输入节点(仅仅画出了其输入节点1,2和4)。例如,输入X1耦合到输入节点1。
输入层中的每个输入节点1,2和4的输出耦合到隐藏层的每个神经电路(仅仅画出了其神经电路5,6和8)。例如,输入节点1的输出耦合到每个神经电路5,6,8和到隐藏层内的所有其它神经电路(未画出)。有关在输入层中输入节点2,4和所有其它输入节点(未画出)的输出进行相同的连接。
在隐藏层内的每个神经电路用给定的加权乘其从输入节点接收的输入,产生一个产物。例如,神经电路5用加权W11,用加权W21乘输入X2,等等。
然后,每个神经电路把这些产物加在一起,产生一个“net”(净),它是通过非线性函数变换产生其相应的神经电路输出。
在输出层中神经电路10的工作类似于隐藏层的神经电路的工作。到达神经电路10的输入是隐支神经电路的输出,和加权是K1,K2和KN。然后它以反向方式调整隐藏层的加权W11,W21,…,Wn
对于每个周期(信号出现时间),反向传播算法首先调整输出层的加权K1,K2和KN。然后它以反向方式调整隐藏层的加权W11,W21,…,WnN。
反向传播算法有几个严重的缺点。首先,对于相对复杂的问题训练网络是耗费时间的。例如,它可能用数周或甚至数用的计算时间,经常使用超型计算机来训练一个网络。在包括话音识别的熟知例子中,使用四个处理器的小型计算机需要几周来训练反向传播神经网络,以便简化识别发音和不发音的停止(即辅音B、D、G、P、T和K)。
其次,当加权集中时,它们通常集中到局部最小值,该值给出一个错误的解决。为了避免局部最小值,可应用如像波尔兹曼(Boltzman)训练或考西(Cauchy)训练之类的统计方法。这些方法首先随机地变化神经电路的加权,然后求出在希望的和实际的输出之间的误差。在多数情况下,减小误差的加权应被保留。但是,在一些情况下,如果按着给定概率要求的话,不减小误差的加权也被保持。
虽然统计方法能得到全局的最小值,但它是特别无效率的。例如,据报道它的集中速率比反向传播算法慢100倍。
图2示出先有技术感知器神经网络。多个输入X1、X2…、Xn的每一个输入耦合到输入层中的各个输入节点11、12、…、14。每个输入节点11、12、…、14被分配到隐藏层中的多个神经电路的每一个,这种神经电路包括用于实现非线性函数的求和电路15、16…、18和电路21、22、…、24。例如,输入节点11的输出被分配到每一个求和电路15、16、…、18。
每个求和电路15、16…、18的输出被馈送到各个二进制阈值电路21、22、…、24。二进制阈值电路21的输出是OUT1;二进制阈值电路22的输出是OUT2;等等。
输出OUT1,…,OUTN被馈送到输出神经电路26。输出神经电路26包括可以是像求和电路15一样的求和电路(未示出)和可以是像二进制阈值电路21一样的非线性函数电路(未示出)。
在1950年代开发了感知器神经网络利用“增量原则”(delta rule)训练算法计算神经的加权。增量原则使用希望的输出和实际输出之间的差值来计算神经加权。
因为单层感知器网络是不可能解决非线性问题的,它的利用性是相当有限的。
图3示出先有技术的Hopfield神经网络。多个输入X1-Xn的每一个输入耦合到等同于图3的“隐藏层”中出现的各个神经电路。每个神经电路包括求和电路35、36、…、38,而每个求和电路35、36、…、38的输出被输入到各个二进制阈值电路41、42、…、44。每个二进制阈值电路41、42、…、44的输出Y1、Y2、…、Yn被反馈到各个输入节点31、32、…、34的输入,该输入节点等同于图3的“输入层”。
在所有其它方面,Hopfield网络的工作等同于反向传播神经网络的工作。Hopfield网络被表征为“重复”(recurrent)网络,因为它的输出信号被反馈送到其输入层。重复网络必须注意稳定性问题。一般地讲,已经发现,通过避免反馈输出信号到神经电路本身,该网络可以是稳定的。
Hopfield网络在解决所谓的“非确定性多项式”问题如印刷电路板路由选择或常见的旅行销售人员的问题特别有效。然而,Hopfield网络仅给出局部最小的解决方案。而且,为了对一个给定问题找到一个由hopfield网络要求的具体能量函数(例如Liapunov能量函数)不是重要的任务。
一般地说,关于神经网络,网络的训练算法通常通过神经网络的结构决定的。利用常规神经网络结构训练该网络是非常困难的,而且这样的训练通常是非常重复的。例如,如果使用反向传播算法,则“异或”逻辑实现经常需要30以上的迭代。
该训练方法还经常集中到局部最小值,这不是最佳解决方案。对于给定的一组例子,最佳解决方案是“最好配合”(best fit)或“全局最小值”。
除了上面讨论的无效率、慢和无效训练算法的问题之外,现有的已知神经网络为解决给定问题对于未来的用户在规定合适结构中存在极大困难,因为确定层数和每层神经电路数的方法和神经电路间的互连通常是用试错法或经验法则来进行。
例如,没有明确的方法用于确定需要多少隐藏单元(层或神经电路)来处理问题。确定这一点的一种方法是逐渐地增加隐藏单元数目并观察网络性能。这种实践连续进行,直到发现没有更重大的性能改进为止。无须力说,这是一种特别耗费时间的过程。
总之,现存已知神经网络的缺点(例如与训练算法有关的缺点,有害规定结构,局部最小值解决等等)在许多现在的利用区域中即生产(统计过程控制,寻路由)、过程控制(自适应控制)、CAD/CAM(最佳化)、自动化(坐标变换,自适应控制)、图像处理(平滑,特征提取)、信号处理(噪声消除,回声抑制)等等都严重地限制了神经网络的可接受性和激增。
此外,已知神经网络的复杂电路严重地限制它们以半导体芯片或计算机软件形式的实现。
据此,现在非常需要一种神经网络,它不需要重复训练,对每个给定的输入向量组产生全局的最小值,而且具有简单的结构,实现容易和不昂贵。
根据本发明技术而设计的神经网络的优选实施例最多包括三层。第一层适于互连功能,连外部输入到该网络。第二层使用在上面确认的相关发明中描述的神经电路或其软件等效物。第三层是输出层,该层收集地汇总在第二层中的神经电路的输出。
与要求长训练周期的常规神经网络相反,根据本发明构成的神经网络在单个训练周期(也称为一个出现信号的时间或迭代)中集中在全局解决,在个人计算机上经常在不多于几分钟内进行计算。
而且,与常规神经网络相反,根据本发明提供了神经网络,它利用多个神经电路,不单个地利用任何非线性函数或求和电路,而且每个神经电路只需一个乘法器电路作为其主处理单元。因此,更多的神经电路可集成在VLSI芯片中,这样大大地增加了使用一个或多个这样的芯片的神经网络的计算能力。
可以理解,根据本发明而构成的神经网络以更精确的结果执行,明显地降低计算时间,并显著地降低了成本及其实现的复杂性,无论是在半导体芯片上实现还是用计算机程序实现。
此外,根据本发明构成的神经网络通过提供多个求和电路用于相加神经电路(注意单独的神经电路不是每个要求求和电路)的输出,可有多个输出。
据此,本发明的一个优点是提供一种利用多个神经电路的神经网络,每一个神经电路基本上只需要一个乘法器电路作为其主要处理单元,以致于一个神经网络可由包括非常大量的这种神经电路构成,由于其高级功能和生产的低成本而产生商业上竞争的产品。
本发明的另一个优点是提供不需要重复训练的神经网络。
本发明的又一个优点是提供一种产生全局最小值给每个给定输入矢量组的神经网络。
本发明的再一个优点是提供一种训练神经网络的方法,该方法不需要重复训练。
本发明还有一个优点是提供根据本发明使用神经网络的方法。
根据本发明的一个方面,这里提供一种具有多个网络输入和至少一个网络输入的神经网络,该神经网络包括:多个神经,每个神经具有多个输入,它响应于多个网络输入的相应的一个,并产生一个输出;和用于相加神经的输出的装置,并产生该至少的一个网络输出。
根据本发明的另一个方面,这里提供一种用于训练包括多个神经的神经网络的方法,该方法要求计算加权值而且该方法不需要重复训练,该方法包括如下步骤:提供多个训练实例;把训练实例数目与神经网络是的神经数目相比较;至少提供两种技术用于计算所述加权值,其中如果神经数目等于训练实例的数目,使用矩阵反演技术来求解每个加权值;如果神经数目不等于训练实例的数目,使用最小二乘估算技术来求解每个加权值。
根据本发明的又一个方面,这里提供一种神经网络,包括:多个网络输入和至少一个网络输出;多个神经,每个神经接收多个输入和产生一个输出;操作神经网络的一种方法,该方法包括如下步骤:分配每个网络输入到每个神经输入;每个神经将选通函数加到每个网络输入以便产生相应的选通输入;每个神经将每个选通输入相乘以产生一个乘积;每个神经用加权值乘该乘积产生每个神经的神经输出;相加神经的输出产生该至少一个网络输出。
在所附的权利要求中具体地指明了本发明。然而,结合以下附图详细阅读以下说明将会对本发明的这些和其它特点更加明了并且将会更好地理解本发明。
图1示出一种先有技术和反向传播神经网络。
图2示出一种先有技术的感知器神经网络。
图3示出一种先有技术的Hopfield神经网络。
图4示出本发明的神经网络的概括性示意图。
图5示出使用图4所示神经网络的方法的流程图。
图6示出本发明的具有多个输出的神经网络的概念性示意图。
图7示出使用图6所示的神经网络的方法的流程图。
图8示出本发明的优选实施例的神经网络的概念性示意图,顺序地接收神经网络的输入,而且该神经网络有多个输出。
图9示出使用图8所示神经网络的方法的流程图。
图10示出图4所示的神经网络如何可应用的具体实例。
图11示出本发明优选实施例确定每个神经加权的方法。
图12示出本发明的神经网络应用到一个系统时的方框图。
本领域的普通技术人员明白,本发明的神经网络可用硬件、软件或其组合来实现,而且在本说明书中的这样的术语“神经电路”和“神经”可互换使用。术语“乘法器电路”/“乘法器”,“求和电路”/“加法器”,等等也一样,取决于实现的类型。
图4表示根据本发明神经网络的概念性示意图。多个网络输入X1、X1、…、Xn被馈送到输入层的输入节点51、52、…、54。
在输入层中每个输入节点51、52、…、54的输出被分配到隐藏层的每个神经(仅画出了神经55、56和58)。例如,输入节点51的输出耦合到每个神经55、56和58以及耦合到隐藏层中的所有其它神经(未示出)。关于输入节点51、54和在输入层中所有其它输入节点(未示出)的输出进行相同的连接。在本发明中,在隐藏层仅要求一个神经层。
正如在上述的相关发明中所描述的,每个神经将一个选通函数加到每个网络输入以产生相应的选通输入。任何给定的神经可加一个它接收的不同的选通函数到每个不同网络输入。例如,神经55施加它从输入节点51接收的选通函数gll到网络输入;它施加一个从输入节点52接收的选通函数g21到该网络输入,等等。
选通输入由神经的乘法器相乘以形成一个乘积,然后该乘积用一个预定的加权值相乘产生该神经输出。例如,在图4中的神经55刚好负责产生下面所示方程1的W0项,相乘其选通输入以形成一个乘积(因为在这种情况下选通函数gll,…,gnl都是0,乘积刚好为1),该产物用加权W0相乘以产生一个相应的输出W0。神经56刚好负责产生下面所示方程1的W1X1项,相乘其选通输入形成一个乘积(因为在这种情况下选通函数除了加到输入节点51的X1的输出之外全为0,乘积刚好为X1),该产物用加权W1相乘以产生一个相应输出X1W1。以类似的方式,神经58产生一个输出Wn-1X g2n1X g2n2…X g2nn
神经55、56、…、58由在输出层中的适合的求和装置或功能例如加法器60相加在一起以产生神经网络输出。
图5示出使用图4示例的神经网络的一种方法的流程图。正如在方框61所示的,每个网络输入(即输入X1、X2、…、Xn)被分配到每个神经(即图4隐藏层的神经55、56、…、58)的输入。
接着,如方框62所示,每个神经加上选通函数到每个网络输入产生相应的选通输入。如上所述,任何给定的神经可施加它接收的不同的选通函数到每个不同的网络。例如,参见图4,神经55施加它从输入节点51接收的选通函数gll到网络输入X1;它还施加从输入节点52接收的和选通函数g21到网络输入X2;等等。
接着,如方框63所示,任何给定神经的选通输入的乘积用预定的加权值相乘产生这种神经的神经输出。任何给定神经可施加不同的加权值到其乘积。这一点更详细地表示在后面描述的图10中。
最后,关于方框65,各神经的输出相加,产生网络输出。
图6表示根据本发明具有多个输出的神经网络的概念图,多个网络输入X1,X2,…,Xn-1,和Xn被馈送到输入层中的输入节点71,72,…,73,和74。
输入层中的每个输入节点71,72,…,73和74的输出被分配到隐藏层的每个神经电路(仅表示出了神经电路75、76、77和78)。例如,输入节点71的输出被分配到隐藏层内的每个神经电路75,76、77、78和所有其它神经电路(未示出)。关于输入节点72、73、74的输出以及输入层中的所有其它输入节点(未示出)进行相同的连接。
对于该神经网络的这个实施例,神经电路75和76的输出由求和电路相加,产生第一网络输出Y1,以及神经电路77和78的输出由求和电路80相加产生第二网络输出Y2
虽然图6表示输出层中每个求和电路,本领域的普通技术人员明白,可使用两个以上的求和电路。而且虽然图6所示出网络输出是断开的,应当明白,神经电路的输出可分配到一个以上的求和电路,例如,神经电路76的输出可分配到两个求和电路79和80。
图7表示使用图6所示的神经网络方法的流程图。如方框81所示,每个网络输入(即输入X1、X2、…、Xn-1、Xn)被分配到每个神经(图6中隐藏层的神经75、76、…、77、78)的输入。
接着,如方框82所示,每个神经施加一个选通函数到每个网络输入以产生相应的选通输入。如上面关于图5所述的,任何给定的神经可施加它接收的不同选通函数到每个不同的网络输入。
接着,如方框83所示,任何给定神经的选通输入一起相乘以产生一个乘积。
接着,如方框84所示,任何给定神经的选通输入的短线产品积用预定加权值相乘产生这种神经的神经输出。如上关于图5所述的,任何给定神经可施加不同的加权值到其乘积。
接着,关于方框85,第一组神经的输出相加产生一个第一网络输出Y1
最后,关于方框86,第二组神经的输出相加产生一个第二网络输出Y2
图8表示根据本发明的优选实施例神经网络的概念图,其输入被顺序地接收并且具有多个输出。多个网络输入X1,X2,…,Xn顺序地馈送到输入层的单个输入节点92。输入节点92的输出被分配到隐藏层的每个神经(仅示出神经93,-96)。
对于该神经网络的这个实施例来说,神经93和94的输出由术和电路97相加产生第一网络输出Y1,和神经95和96的输出由求和电路98相加产生第二网络输出Y2。应当明白,在隐藏层中另外的神经(未示出)的输出可用另外的求和电路(未示出)相加,产生另外的网络输出。
在工作中,首先X1经输入节点92被分配到所有神经93-96,而且这些神经开始并行处理X1(如在上述的相关发明的描述的)。然后,从刚刚描述的操作中保持该结果,然后X2经输入节点92被分配到所有神经93-96,并且这些神经并行处理X2
这种操作连续进行,直到最后的输入Xn由神经处理为止,在那个时候,神经的输出被馈送到它们的各自的求和电路97和98。应当明白,某些神经输出可能在其它的输出之前相加。
图9表示使用图8所示神经网络的方法的流程图。如方框101所不,多个网络输入的第一个输入(例如X1);例如由输入节点92(图8)分配到每个神经的输入。
接着,如方框102所示,每个神经将多个选通函数中的一个函数加到第一网络输入,对每个神经产生各自的第一选通输入。如前所述,任何给定神经可将不同的选通函数加到网络输入。
接着,如判决方框103所示,进行检验看当前处理的网络输入是否是第N个网络输入(即,如果N=1,为X1;如果N2,为X2;等等)。N代表相应于选通输入的网络输入,该选通输入是预先的被乘以神经的加权值。N是小于或等于网络输入数目的正整数。因此,取决于N值,每个神经以第N个选通输入(相应于第N个网络输入)乘其各自的加权值。
在一个优选实施例中,N选择为1,以便每个神经以其第一选通输入乘其加权值,而不是等待直到所有其选通输入已经相乘。这样获得较好的效率,因为当前的操作在完成时,能够加载其后的加权值以准备下一个处理操作(即为下一个Xn网络输入组)。
如果当前处理的网络输入不是第N个网络输入,则过程前进到方框105,但是如果“是”,则过程前进到方框104。
如方框104所示,每个神经以加权值前面的乘积乘其各自的选通输入,如果有的话(即,在第N个网络输入之前,从处理的任何网络输入得到的),产生一个乘积。当退出方框104时,过程继续进行到方框106。
如果当前处理的网络输入不是第N个网络输入,过程前进到方框105,但是如果“是”的话,过程前进到方框104。
如方框105所示,每个神经用前面的乘积乘以其各自的选通输入,如果有的话,否则用1乘各自的选通输入,产生一个乘积。当退出方框105时,过程继续进行到方框106。
接着,如在判决方框106所示,进行检验以确定是否已经接收到所有网络输入。如果是的话,过程继续进行方框107,如果是否定的,过程返回到方框101,其中多个网络输入的下一个输入被分配到每个神经的输入,并且过程以上面关于第一网络输入所描述的类似方式继续进行。在过程已处理了所有的网络输入之后,过程退出判决方框106进到方框107。
在方框107,规定每个神经当前产生为神经的输出。
接着在方框108,第一组神经的输出相加在一起以产生第一网络输出Y1。最后,在方框109相加第二组神经的输出以产生第二网络输出Y2
图10表示根据本发明如何可把图4所示神经网络应用于一个具体的例子中。
本发明的神经网络的工作是基于使用多项展开式,而不在严格的情况下使用正交函数,例如正弦、余弦、指数/对数、傅里叶变换、勒让德(Legendre)多项式、非线性基本函数,例如Volterra函数或径向基本函数,或类似的函数,或多项展开式和正交函数的组合。
优选实施例应用多项展开式,一般情况是用如下公式1表示:
Y=
Figure 941065677_IMG2
Wi-1 X1g1ix2g2i... xngni公式1
其中Xi代表网络输入并且可能是诸如Xi=fi(zj)这样的函数,zj是任何的任意变量,符号i和j可是任何正整数;Y代表神经网络的输出;Wi-1代表第i个神经的加权;g1i、…、gni代表用于第i个神经的选通函数,并且是整数、0、或在一个实施例中更大;n是网络输入号码。
公式1的每一项表示神经输出和与该神经有关的加权和选通函数。在一个神经网络中使用的多项展开式的项数取决于因数的数目,因数的数目包括可用的神经数,训练实例数等等。应当明白,多项展开式的较高次项通常比较低次项具有较低的重要性。因此,在优选实施例中,根据上面描述的各种因数,只要有可能就选择较低次项。而且,因为与各种输入有关的测量单元可变化,在使用它们这前输入可能需要标称化。
公式2是公式1的另一种表示,表示的项达到第三次项。
y = wo + Σ i = 1 n wixi + Σ i = 1 n w fl ( i ) xi 2 + Σ i = 1 n Σ j = 1 i + 1 n w f 2 ( i , j ) xixj + Σ i = 1 n w f 3 ( i ) xi 3 + Σ i = 1 n Σ j = i + 1 n w f 4 ( i , j ) xi 2 xj . + Σ i = 1 n Σ j = i + 1 n w f 5 ( i , j ) xixj 2 + Σ i = 1 n Σ j = i + 1 n Σ k = i + + 1 n w f 6 ( i , j , k ) xixjxk
+   ...                                        公式2
其中变量具有与方程1中相同的含义,和其中fl(i)是n+1到2n范围内的指数函数;f2(i,j)是2n+1到2n+(n)(n-1)/2范围内的指数函数;和f3(i,j)是在2n+1+(n)(n-1)/2至3n+(n)(n-1)/2范围内的指数函数。而且f4至f6以相类似的方式表示。
本领域的技术人员将认识到,在由公式2表示的项内包括选通函数。例如,公式2可表示如下:
y=W0+W1  X1+W2  X2+...Wi  Xi+...+Wn  Xn
+Wn+1 X12+...+W2n Xn2
+W2n+1  X1  X2+W2n+2  X1  X3+...
+W3n-1  X1  Xn+W3n  X2  X3+W3n+1  X2  X4+
...W2n+(n)(n-1)/2  Xn-1  Xn+...
+WN-1  X1g1N  X2g2N...XngnN+...公式3
其中变量具有与公式1相同的含义。
应当注意,虽然选通函数项giN明显地仅出现在公式3是最后所示项中,但应当明白,每一个其它项具有其明显地表示的giN项(例如对于W1X1项g12=1和其它项gi2=2,i=2,3,…,n)。N是任何正整数并表示该网络中的第N个神经。
公式1-3的每一项是由神经或神经电路的输出产生的。关于图10,例如,神经电路N1产生项W0。神经电路N2产生项W1X1,等等。
仍参见图10,多个网络输入X1、X2、…、Xn被馈送到输入层的输入节点111、112、…、114。输入层中的每个输入节点111、112、…、114的输出被分配到隐藏层的每个神经电路(仅表示了神经电路N1、N2、N3、Nn+1、Nn+2、N2n+1和NN)。例如输入节点111的输出被分配到隐藏层的每个神经电路N1、N2、N3、Nn+1、Nn+2、N2n+1和NN)及所有其它神经电路(未示出)。关于输入层中的输入节点112、114和所有其它输入节点(未示出)进行相同的连接。
对于该神经网络的这个实施例,用求和电路120相加每个神经电路N1、N2、N3、Nn+1、Nn+2、N2n+1和NN)的输出,以产生网络输出Y。
而图10仅表示出输出层中的一个求和电路,本领域的普通技术人员明白,如果具体应用需要多个输出的话,可使用两个或多个求和电路。
训练算法:
对于有用的该神经网络,必须确定每个神经电路加权。这可通过使用适当的训练算法来实现。
在实现本发明的神经网络中,一般选择神经或神经电路数等于或小于提供给网络的训练实例数。一个训练实例规定为一组给定输入和产生的输出。
对于本发明神经网络的优选实施例,使用图11中所示的训练算法。
图11示出本发明优选实施例确定每个神经的加权的方法。首先,对于方框121,提供许多训练实例。
接着,关于方框122,在提供的训练实例数和神经网络中的神经数之间进行比较。
关于判决方框123,如果神经数等于训练实例数,过程进入到方框125,该过程表示可以利用矩阵反演技术来解决每个加权的值。
关于判决方框123,如果神经数不等于训练实例数,过程进入到方框126,该过程表示利用最小二乘方估算技术求解每个加权值。适合的最小二乘方估算技术例如包括最小二乘方、扩展最小二乘方、伪变换(pseudo-inverse)、卡尔曼(Kalman)滤波器、最大似然算法、贝叶斯(Bayesian)估算等等。
训练算法的使用将参照图12在下面更详细地说明。
实例:
图12示出本发明的神经网络用于一个系统时的方框图。在这个系统中有两个输入X1和X2及一个输出Y。用表1中表示的四个实例代表该系统的工作。例如,第一个实例是其中X1=-1,X2=-1,和Y=0。
表1
X1X2Y
-1 -1 0
-1 1 -1
1 -1 -1
1 1 0
参见图12,第一输入X1馈送到输入层的输入节点130,而第二输入X2馈送到输入节点134。输入层中的每个输入节点130和134的输出被分配到隐藏层的每个神经电路132和136。即,输入节点130的输出接到神经电路132和136,和输入节点134的输出还接到神经电路132和136。
正如在上面确认的相关发明中所描述的,选通输入首行由各个神经电路产生。其次,由神经电路的乘法器电路和相乘选通输入,产生一个产物,该产物用预定加权乘以产生神经电路的输出。神经电路132和136的输出由输出层中的求和电路138相加,产生神经网络的输出Y。
如上所述,可用公式1描述神经网络,其中,用训练实例数规定神经电路数。因此,在这种情况下,四个神经电路规定如下:
Y=W0+W1X1+W2X2+W3X1X2公式4
通过代入X1,X2的值,直接地求解加权W0,W1,W2和W3并用每个实例的Y代入到公式4并且求解得到的公式如下:
0=W0+W1(-1)+W2(-1)+W3(-1)(-1) 公式5
-1=W0+W1(-1)+W2(1)+W3(-1)(1) 公式6
-1=W0+W1(1)+W2(-1)+W3(1)(-1) 公式7
0=W0+W1(1)+W2(1)+W3(1)(1) 公式8
求解上面的公式5-8产生W0=-0.5,W1=0,W2=0,和W3=+0.5。这些值代入公式4产生:
Y=-0.5+0.5(X1X2) 公式9
这种系统的神经网络表示在图12中。对于神经132,选通函数是gll=0,g21=0,和加权W0=0.5,而对于神经136选通函数是g12=1,g22=1,和加权W3=-0.5。神经132产生W0的输出值,和神经136产生W3X1X2的输出值。
应当明白,少数神经电路有时可用于执行所要求的计算。用上面的实例表示了这一点,其中仅需要两个神经电路而不是四个,因为加权中的两个加权(即W1和W2)等于0。
还应当明白,得出来的这种解决方案无任何重复训练。这种解决方案也是全局最小而不是局部最小值。
如果果设计者选择使用比给定实例较少的神经,那么下面的最小二乘方技术可被利用,正如现在将要表示的那样。使用由上面表1给定的相同训练实例,可选择仅包括两个神经的神经网络来说明该概念如下:
Y=W1X1+W2X2公式10
公式10表示两个神经实例的应用。为了求解W1和W2的值,通过代入X1和X2的值可得到一组公式,X1和X2由表示1中训练实例给定,对于公式10中的X1和X2得到如下公式:
0=-W1-W2公式11
-1=-W1+W2公式12
-1=W1-W2公式13
0=W1+W2公式14
由此计算W1和W2是比较容易的,它使用普通技术人员熟悉的最小二乘方技术,得到如下方程:
Y=0.5X1-0.5X2公式15
代入表1给定的X1和X2的值验证公式15,我们得出表2的结果:
表2
X1X2Y
-1 -1 0
-1 1 -1
1 -1 1
1 1 0
应当注意,表1和表2之间唯一的不同是在表2中X1=1和X2=-1,Y=1而不是Y=-1。一般地,使用较少的神经的代价将导致精度较低。
如果训练实例数少于神经数,那么使用伪变换技术,这种技术是最小二乘方解法的一种类型。
本领域的普通技术人员应注意,最小二乘程方技术可列出公式用于分批或递归解法。
因此,在这里已经描述了一种概念,以及包括优选实施例在内的一些神经网络的实施例,该神经网络利用多个神经,该神经不单独地包括任何非线性函数或相加函数,而且每个神经仅需要一个乘法器作为其主处理单元。
由于在这里所描述的神经网络的各种实施例和使用及训练神经网络的方法不要求重复训练并对每个给定输入矢量组提供全局最小值,它们以极精确的结果、极大地降低计算时间实现,并且极大地降低了成本和实现的复杂性,不管是在半导体芯片上还是用计算机程序实现。
此外,本领域的那些技术人员明白,可以以各种方式对本公开的发明进行修改并可采取不同于上面提出和描述的具体地优选形式的很多实施例。
应当明白,本发明的概念能以各种方式变化。例如,有关这种系统结构单元设计选择方面的问题,如输入节点数、神经或神经电路数、求和装置(或电路)数和它们的互连,取决于集成电路技术、实现的类型(例如模拟、数字、软件等等),模具尺寸(die size),管脚引出线(pin-outs)等等。
还应当明白,上面所述多项展开式截断的程度取决于希望的精度。
因此,预期由所附的权利要求书覆盖本发明的所有修改,这些修改都不脱离本发明的精神和范围。

Claims (10)

1、一种神经网络,具有多个网络输入和至少一个网络输出,所述神经网络特征在于:
多个神经,每个神经具有多个输入,它响应于所述多个网络输入的相应的网络输入,并产生一个输出;和
用于相加所述神经输出并产生所述至少一个网络输出的装置。
2、根据权利要求1所述神经网络,其特征在于,所述神经包括一个线性转移函数。
3、根据权利要求1所述神经网络,其特征在于,所述神经网络至少包括一个集成电路。
4、根据权利要求1所述神经网络,其特征在于,所述神经网络包含计算机程序。
5、一种训练神经网络的方法,该神经网络包括多个神经,该方法需要计算加权值和该方法不需要重复训练,所述方法的特征在于包括如下步骤:
(a)提供多个训练实例;
(b)比较所述训练实例数与所述神经网络中的神经数;
(c)至少提供用于计算所述加权值的两种技术,其中:
(i)如果神经数等于训练实例数,使用矩阵反演技术求解每个加权的值;
(ii)如果神经数不等于训练实例数,使用最小二乘方估算技术求解每个加权的值。
6、根据权利要求5的训练神经网络的方法,其特征在于,所述神经网络的工作是基于多项展开式。
7、根据权利要求6的训练神经网络的方法,其特征在于,所述多项展开式具有下述形式:
Y=
Figure 941065677_IMG2
Wi-1 X1g1ix2g2i... xngni
式中:Y表示神经网络的输出;
Wi-1表示第i个神经的加权值;
X1,X2,…,Xn表示到所述神经网络的输入;
g1i,…gni表示被加到所述输入的第i个神经的选通函数;
n是一个正整数。
8、根据权利要求7的训练神经网络的方法,其特征在于,每个Xi用函数Xi=fi(zj)表示,其中zj是任何任意变量,和其中i和j是任何正整数。
9、在一个神经网络中,该网络其特征在于包括:
多个网络输入和至少一个网络输出;
多个神经,每个神经接收多个输入并产生一个输出;
一种运行所述神经网络的方法,所述方法的特征在于包括如下步骤:
(a)分配每个所述网络输入到每个所述神经输入;
(b)每个神经将一个选通函数加到每个所述网络输入以产生相应的选通输入;
(c)每个神经相乘每个所述选通输入,以产生一个乘积;
(d)每个神经用加权值乘所述产物,产生每个神经的一个神经输出;和
(e)相加所述神经的输出,产生所述的至少一个网络输出。
10、根据权利要求9所述的运行所述神经网络的方法,其特征在于,所述神经网络的运行是基于多项展开式。
CN94106567A 1993-06-14 1994-06-10 神经网络及其使用方法 Pending CN1100541A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US076,601 1993-06-14
US08/076,601 US5517667A (en) 1993-06-14 1993-06-14 Neural network that does not require repetitive training

Publications (1)

Publication Number Publication Date
CN1100541A true CN1100541A (zh) 1995-03-22

Family

ID=22133064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN94106567A Pending CN1100541A (zh) 1993-06-14 1994-06-10 神经网络及其使用方法

Country Status (7)

Country Link
US (4) US5517667A (zh)
EP (1) EP0631254A3 (zh)
JP (1) JPH0713949A (zh)
KR (1) KR950001521A (zh)
CN (1) CN1100541A (zh)
CA (1) CA2125255A1 (zh)
MX (1) MX9404348A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101527010B (zh) * 2008-03-06 2011-12-07 上海理工大学 人工神经网络算法的硬件实现方法及其系统
CN102854296A (zh) * 2012-08-30 2013-01-02 北京工业大学 一种基于集成神经网络的污水处理软测量方法
CN105260775A (zh) * 2015-10-16 2016-01-20 清华大学 实现马尔科夫随机场概率编码的方法及神经电路
CN105868829A (zh) * 2015-02-06 2016-08-17 谷歌公司 用于数据项生成的循环神经网络
CN106528047A (zh) * 2015-10-08 2017-03-22 上海兆芯集成电路有限公司 选择性将启动函数输出或累加器值写回神经存储器的神经处理单元
CN109478253A (zh) * 2016-05-19 2019-03-15 国立大学法人北海道大学 神经网络电路以及神经网络集成电路
CN109657784A (zh) * 2018-12-25 2019-04-19 北京迈格威科技有限公司 神经网络创建方法和装置、图像处理方法和电子设备

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7788008B2 (en) * 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
CA2135857A1 (en) * 1994-01-03 1995-07-04 Shay-Ping Thomas Wang Neural network utilizing logarithmic function and method of using same
US5621848A (en) * 1994-06-06 1997-04-15 Motorola, Inc. Method of partitioning a sequence of data frames
US5796921A (en) * 1994-10-28 1998-08-18 Sony Corporation Mapping determination methods and data discrimination methods using the same
US5724486A (en) * 1995-08-21 1998-03-03 Motorola Inc. Method for structuring an expert system utilizing one or more polynomial processors
US5721843A (en) * 1995-08-31 1998-02-24 Lucent Technologies Inc. Optimizing network utilization by using image reconstruction techniques
US5640336A (en) * 1996-01-02 1997-06-17 Motorola Computational array and method for calculating multiple terms of a polynomial in a single computing element
NZ331511A (en) * 1996-02-02 1999-07-29 Rodney Michael John Cotterill A method of processing data flows in a neural network, and a neural network
US6249252B1 (en) 1996-09-09 2001-06-19 Tracbeam Llc Wireless location using multiple location estimators
US9134398B2 (en) 1996-09-09 2015-09-15 Tracbeam Llc Wireless location using network centric location estimators
CA2265875C (en) 1996-09-09 2007-01-16 Dennis Jay Dupray Location of a mobile station
US7903029B2 (en) 1996-09-09 2011-03-08 Tracbeam Llc Wireless location routing applications and architecture therefor
US7714778B2 (en) 1997-08-20 2010-05-11 Tracbeam Llc Wireless location gateway and applications therefor
US6236365B1 (en) 1996-09-09 2001-05-22 Tracbeam, Llc Location of a mobile station using a plurality of commercial wireless infrastructures
CN1192011A (zh) 1997-02-25 1998-09-02 王迪兴 一种多用、多值态逻辑可逆运算器
US5850625A (en) * 1997-03-13 1998-12-15 Accurate Automation Corporation Sensor fusion apparatus and method
US6173218B1 (en) * 1997-10-15 2001-01-09 The Boeing Company Neurocomputing control distribution system
US6054710A (en) * 1997-12-18 2000-04-25 Cypress Semiconductor Corp. Method and apparatus for obtaining two- or three-dimensional information from scanning electron microscopy
US8135413B2 (en) 1998-11-24 2012-03-13 Tracbeam Llc Platform and applications for wireless location and other complex services
EP1286735A1 (en) 1999-09-24 2003-03-05 Dennis Jay Dupray Geographically constrained network services
US10641861B2 (en) 2000-06-02 2020-05-05 Dennis J. Dupray Services and applications for a communications network
US10684350B2 (en) 2000-06-02 2020-06-16 Tracbeam Llc Services and applications for a communications network
US9875492B2 (en) 2001-05-22 2018-01-23 Dennis J. Dupray Real estate transaction system
US7249242B2 (en) 2002-10-28 2007-07-24 Nvidia Corporation Input pipeline registers for a node in an adaptive computing engine
US6836839B2 (en) 2001-03-22 2004-12-28 Quicksilver Technology, Inc. Adaptive integrated circuitry with heterogeneous and reconfigurable matrices of diverse and adaptive computational units having fixed, application specific computational elements
US7653710B2 (en) 2002-06-25 2010-01-26 Qst Holdings, Llc. Hardware task manager
US7489779B2 (en) * 2001-03-22 2009-02-10 Qstholdings, Llc Hardware implementation of the secure hash standard
US7752419B1 (en) 2001-03-22 2010-07-06 Qst Holdings, Llc Method and system for managing hardware resources to implement system functions using an adaptive computing architecture
US7962716B2 (en) 2001-03-22 2011-06-14 Qst Holdings, Inc. Adaptive integrated circuitry with heterogeneous and reconfigurable matrices of diverse and adaptive computational units having fixed, application specific computational elements
US7400668B2 (en) * 2001-03-22 2008-07-15 Qst Holdings, Llc Method and system for implementing a system acquisition function for use with a communication device
US6577678B2 (en) 2001-05-08 2003-06-10 Quicksilver Technology Method and system for reconfigurable channel coding
US8082096B2 (en) 2001-05-22 2011-12-20 Tracbeam Llc Wireless location routing applications and architecture therefor
US20020184291A1 (en) * 2001-05-31 2002-12-05 Hogenauer Eugene B. Method and system for scheduling in an adaptable computing engine
US6865562B2 (en) * 2001-06-04 2005-03-08 Xerox Corporation Adaptive constraint problem solving method and system
US6665651B2 (en) 2001-07-18 2003-12-16 Colorado State University Research Foundation Control system and technique employing reinforcement learning having stability and learning phases
US7117045B2 (en) * 2001-09-08 2006-10-03 Colorado State University Research Foundation Combined proportional plus integral (PI) and neural network (nN) controller
US7046635B2 (en) * 2001-11-28 2006-05-16 Quicksilver Technology, Inc. System for authorizing functionality in adaptable hardware devices
US6986021B2 (en) 2001-11-30 2006-01-10 Quick Silver Technology, Inc. Apparatus, method, system and executable module for configuration and operation of adaptive integrated circuitry having fixed, application specific computational elements
US8412915B2 (en) 2001-11-30 2013-04-02 Altera Corporation Apparatus, system and method for configuration of adaptive integrated circuitry having heterogeneous computational elements
US7602740B2 (en) * 2001-12-10 2009-10-13 Qst Holdings, Inc. System for adapting device standards after manufacture
US7215701B2 (en) * 2001-12-12 2007-05-08 Sharad Sambhwani Low I/O bandwidth method and system for implementing detection and identification of scrambling codes
US7088825B2 (en) * 2001-12-12 2006-08-08 Quicksilver Technology, Inc. Low I/O bandwidth method and system for implementing detection and identification of scrambling codes
US7231508B2 (en) * 2001-12-13 2007-06-12 Quicksilver Technologies Configurable finite state machine for operation of microinstruction providing execution enable control value
US6947916B2 (en) * 2001-12-21 2005-09-20 Quicksilver Technology, Inc. IC for universal computing with near zero programming complexity
US7403981B2 (en) * 2002-01-04 2008-07-22 Quicksilver Technology, Inc. Apparatus and method for adaptive multimedia reception and transmission in communication environments
US7660984B1 (en) 2003-05-13 2010-02-09 Quicksilver Technology Method and system for achieving individualized protected space in an operating system
US7328414B1 (en) * 2003-05-13 2008-02-05 Qst Holdings, Llc Method and system for creating and programming an adaptive computing engine
US8108656B2 (en) 2002-08-29 2012-01-31 Qst Holdings, Llc Task definition for specifying resource requirements
US7299041B2 (en) * 2002-09-30 2007-11-20 Sony Ericsson Mobile Communications Ab Method and device of selecting a communication system
JP3987782B2 (ja) * 2002-10-11 2007-10-10 Necエレクトロニクス株式会社 アレイ型プロセッサ
US7937591B1 (en) 2002-10-25 2011-05-03 Qst Holdings, Llc Method and system for providing a device which can be adapted on an ongoing basis
US8276135B2 (en) 2002-11-07 2012-09-25 Qst Holdings Llc Profiling of software and circuit designs utilizing data operation analyses
US7225301B2 (en) 2002-11-22 2007-05-29 Quicksilver Technologies External memory controller node
US7139740B2 (en) * 2003-01-17 2006-11-21 Ayala Francisco J System and method for developing artificial intelligence
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
US7609297B2 (en) * 2003-06-25 2009-10-27 Qst Holdings, Inc. Configurable hardware based digital imaging apparatus
US7362892B2 (en) 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
US7200837B2 (en) * 2003-08-21 2007-04-03 Qst Holdings, Llc System, method and software for static and dynamic programming and configuration of an adaptive computing architecture
US7401058B2 (en) * 2004-04-29 2008-07-15 University Of Massachusetts Artificial neuron with phase-encoded logic
US8301576B2 (en) * 2005-10-27 2012-10-30 Ca, Inc. Weighted pattern learning for neural networks
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
US8805861B2 (en) * 2008-12-09 2014-08-12 Google Inc. Methods and systems to train models to extract and integrate information from data sources
JP5990466B2 (ja) 2010-01-21 2016-09-14 スビラル・インコーポレーテッド ストリームに基づく演算を実装するための汎用複数コアシステムのための方法および装置
US9538493B2 (en) 2010-08-23 2017-01-03 Finetrak, Llc Locating a mobile station and applications therefor
JP6521440B2 (ja) * 2015-05-14 2019-05-29 国立研究開発法人情報通信研究機構 ニューラルネットワーク及びそのためのコンピュータプログラム
US10083395B2 (en) 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor
JP6784162B2 (ja) 2016-12-13 2020-11-11 富士通株式会社 情報処理装置、プログラム及び情報処理方法
WO2018119785A1 (en) * 2016-12-28 2018-07-05 Intel Corporation Method and apparatus for a binary neural network mapping scheme utilizing a gate array architecture
US10698460B2 (en) * 2017-03-13 2020-06-30 Samsung Electronics Co., Ltd. Advanced thermal control for SSD
US10809780B2 (en) 2017-03-13 2020-10-20 Samsung Electronics Co., Ltd. Active disturbance rejection based thermal control
US10474430B2 (en) 2017-12-29 2019-11-12 Facebook, Inc. Mixed-precision processing elements, systems, and methods for computational models
WO2019129302A1 (zh) * 2017-12-30 2019-07-04 北京中科寒武纪科技有限公司 集成电路芯片装置及相关产品
CN111832342A (zh) * 2019-04-16 2020-10-27 阿里巴巴集团控股有限公司 神经网络及训练和使用方法、装置、电子设备及介质
CN111796518B (zh) * 2020-06-09 2021-08-20 吉林大学 磁控形状记忆合金执行器位移控制方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2051725B1 (zh) * 1969-07-14 1973-04-27 Matsushita Electric Ind Co Ltd
US3967100A (en) * 1973-11-12 1976-06-29 Naonobu Shimomura Digital function generator utilizing cascade accumulation
US3922536A (en) * 1974-05-31 1975-11-25 Rca Corp Multionomial processor system
PL106470B1 (pl) * 1977-02-01 1979-12-31 Inst Maszyn Matematycznych Uklad cyfrowy do obliczania wartosci zlozonych wyrazen arytmetycznych
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
GB8611124D0 (en) * 1986-05-07 1986-06-11 Gec Avionics Accumulating recursive computation
EP0314809B1 (en) * 1987-05-14 1993-07-21 Fujitsu Limited Vector processor for processing recurrent equations at a high speed
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
JP2717665B2 (ja) * 1988-05-31 1998-02-18 株式会社豊田中央研究所 内燃機関の燃焼予測判別装置
FI894021A (fi) * 1988-08-31 1990-03-01 Fujitsu Ltd Neuronstruktur.
US5333239A (en) * 1988-09-12 1994-07-26 Fujitsu Limited Learning process system for use with a neural network structure data processing apparatus
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US5046020A (en) * 1988-12-16 1991-09-03 E. I. Du Pont De Nemours And Company Distributed parallel processing network wherein the connection weights are generated using stiff differential equations
US5195171A (en) * 1989-04-05 1993-03-16 Yozan, Inc. Data processing system
JPH0692914B2 (ja) * 1989-04-14 1994-11-16 株式会社日立製作所 機器/設備の状態診断システム
JP2517410B2 (ja) * 1989-05-15 1996-07-24 三菱電機株式会社 学習機能付集積回路装置
WO1990015390A1 (en) * 1989-06-02 1990-12-13 E.I. Du Pont De Nemours And Company Parallel distributed processing network characterized by an information storage matrix
US5073867A (en) * 1989-06-12 1991-12-17 Westinghouse Electric Corp. Digital neural network processing elements
US5103405A (en) * 1989-06-12 1992-04-07 Westinghouse Electric Corp. Digital probabilistic reasoning element
US5042001A (en) * 1989-10-02 1991-08-20 Cyrix Corporation Method and apparatus for performing mathematical functions using polynomial approximation and a rectangular aspect ratio multiplier
US5210825A (en) * 1990-04-26 1993-05-11 Teknekron Communications Systems, Inc. Method and an apparatus for displaying graphical data received from a remote computer by a local computer
EP0454445B1 (en) * 1990-04-26 1996-07-03 Fujitsu Limited Waveform equalizer using a neural network
US5058180A (en) * 1990-04-30 1991-10-15 National Semiconductor Corporation Neural network apparatus and method for pattern recognition
KR910020571A (ko) * 1990-05-21 1991-12-20 다카도리 수나오 데이터 처리장치
EP0486684A1 (en) * 1990-05-22 1992-05-27 International Business Machines Corporation Virtual neurocomputer architectures for neural networks
US5065339A (en) * 1990-05-22 1991-11-12 International Business Machines Corporation Orthogonal row-column neural processor
US5166539A (en) * 1990-07-09 1992-11-24 Nippon Telegraph And Telephone Corporation Neural network circuit
US5159660A (en) * 1990-08-09 1992-10-27 Western Thunder Universal process control using artificial neural networks
US5267151A (en) * 1990-09-07 1993-11-30 Ham Frederic M Method and apparatus for detecting and identifying a condition
US5265192A (en) * 1990-09-20 1993-11-23 Atlantic Richfield Company Method for the automated editing of seismic traces using an adaptive network
FR2672141B1 (fr) * 1991-01-25 1993-04-09 Commissariat Energie Atomique Procede de reconnaissance d'objets codes par des vecteurs.
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
WO1992020029A1 (en) * 1991-04-29 1992-11-12 Intel Corporation Neural network incorporating difference neurons
EP0514986B1 (fr) * 1991-05-24 1997-12-10 Laboratoires D'electronique Philips S.A.S. Procédé d'apprentissage d'un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé
US5261035A (en) * 1991-05-31 1993-11-09 Institute Of Advanced Study Neural network architecture based on summation of phase-coherent alternating current signals
US5263121A (en) * 1991-09-12 1993-11-16 Tellabs, Inc. Neural network solution for interconnection apparatus
US5278945A (en) * 1992-01-10 1994-01-11 American Neuralogical, Inc. Neural processor apparatus
US5251286A (en) * 1992-03-16 1993-10-05 Texaco, Inc. Method for estimating formation permeability from wireline logs using neural networks
US5371809A (en) * 1992-03-30 1994-12-06 Desieno; Duane D. Neural network for improved classification of patterns which adds a best performing trial branch node to the network
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
US5412670A (en) * 1992-11-30 1995-05-02 Ricoh Corporation N-bit parity neural network encoder

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101527010B (zh) * 2008-03-06 2011-12-07 上海理工大学 人工神经网络算法的硬件实现方法及其系统
CN102854296A (zh) * 2012-08-30 2013-01-02 北京工业大学 一种基于集成神经网络的污水处理软测量方法
CN102854296B (zh) * 2012-08-30 2015-03-11 北京工业大学 一种基于集成神经网络的污水处理软测量方法
US11790209B2 (en) 2015-02-06 2023-10-17 Deepmind Technologies Limited Recurrent neural networks for data item generation
CN105868829A (zh) * 2015-02-06 2016-08-17 谷歌公司 用于数据项生成的循环神经网络
US11080587B2 (en) 2015-02-06 2021-08-03 Deepmind Technologies Limited Recurrent neural networks for data item generation
CN106528047B (zh) * 2015-10-08 2019-04-09 上海兆芯集成电路有限公司 一种处理器、神经网络单元及其运作方法
CN106528047A (zh) * 2015-10-08 2017-03-22 上海兆芯集成电路有限公司 选择性将启动函数输出或累加器值写回神经存储器的神经处理单元
CN105260775B (zh) * 2015-10-16 2017-11-21 清华大学 实现马尔科夫随机场概率编码的方法及神经电路
CN105260775A (zh) * 2015-10-16 2016-01-20 清华大学 实现马尔科夫随机场概率编码的方法及神经电路
CN109478253A (zh) * 2016-05-19 2019-03-15 国立大学法人北海道大学 神经网络电路以及神经网络集成电路
CN109478253B (zh) * 2016-05-19 2022-11-01 国立大学法人东京工业大学 神经网络电路以及神经网络集成电路
CN109657784A (zh) * 2018-12-25 2019-04-19 北京迈格威科技有限公司 神经网络创建方法和装置、图像处理方法和电子设备

Also Published As

Publication number Publication date
CA2125255A1 (en) 1994-12-15
MX9404348A (es) 1995-01-31
US5781701A (en) 1998-07-14
JPH0713949A (ja) 1995-01-17
US5517667A (en) 1996-05-14
EP0631254A2 (en) 1994-12-28
KR950001521A (ko) 1995-01-03
US5720002A (en) 1998-02-17
EP0631254A3 (en) 1995-02-15
US5574827A (en) 1996-11-12

Similar Documents

Publication Publication Date Title
CN1100541A (zh) 神经网络及其使用方法
CN1288519C (zh) 机器人系统控制
US11295196B2 (en) Apparatus and methods for neural network operations supporting fixed point numbers of short bit length
US11797269B2 (en) Apparatus and methods for neural network operations supporting floating point numbers of short bit length
CN1846218A (zh) 人工神经网络
CN1044864A (zh) 真值变换器
CN87107776A (zh) 模糊计算机
CN1571982A (zh) 存在仪器噪声和测量误差时人工神经网络模型改进的性能
CN113111970B (zh) 通过构建全局嵌入式注意力残差网络对图像分类的方法
WO2019053835A1 (ja) 演算回路、演算方法、およびプログラム
CN1862524A (zh) 数字信号处理器中执行多个向量稀疏卷积方法与系统
Lin et al. Aacp: Model compression by accurate and automatic channel pruning
Ushiroyama et al. Convolutional neural network implementations using Vitis AI
Liew et al. Optimal process design of sheet metal forming for minimum springback via an integrated neural network evolutionary algorithm
Guo et al. The shallow end: Empowering shallower deep-convolutional networks through auxiliary outputs
Zhang et al. NASRec: weight sharing neural architecture search for recommender systems
CN1043578A (zh) 真值流处理装置
CN1043577A (zh) 真值流处理装置
CN1601913A (zh) 平行化循环冗余码计算方法及系统
CN1581143A (zh) 信息处理装置和方法、程序存储介质和程序
WO2021194732A1 (en) Power reduction for machine learning accelerator
Che et al. Auto-Spikformer: Spikformer Architecture Search
CN1209702C (zh) 异或进位产生器及使用其的条件选择加法器及方法
Marefat et al. A transformer-based algorithm for automatically diagnosing malaria parasite in thin blood smear images using mobilevit
Seki et al. Imputing time-series microbiome abundance profiles with diffusion model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C01 Deemed withdrawal of patent application (patent law 1993)
WD01 Invention patent application deemed withdrawn after publication