CN1169199A - 产生和利用上下文相关子音节模型来识别有调语言的系统和方法 - Google Patents

产生和利用上下文相关子音节模型来识别有调语言的系统和方法 Download PDF

Info

Publication number
CN1169199A
CN1169199A CN96191597A CN96191597A CN1169199A CN 1169199 A CN1169199 A CN 1169199A CN 96191597 A CN96191597 A CN 96191597A CN 96191597 A CN96191597 A CN 96191597A CN 1169199 A CN1169199 A CN 1169199A
Authority
CN
China
Prior art keywords
consonant
model
compound vowel
joint
chinese syllable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN96191597A
Other languages
English (en)
Other versions
CN1143263C (zh
Inventor
H·W·康
B·S·袁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of CN1169199A publication Critical patent/CN1169199A/zh
Application granted granted Critical
Publication of CN1143263C publication Critical patent/CN1143263C/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information

Abstract

一个汉语普通话语音识别系统包括预处理装置(32),HMM存储装置(34),语音辨识装置(36)和语音决策装置(38)。语音辨识装置包括表示在单独韵母构成音节之前的声门闭塞的伪声母。HMM存储装置存储构成汉语普通话语音音节的声母、韵母和伪声母的上下文相关模型。这些模型可能依赖于相应的声母或韵母以及音节的音调。语音决策装置按照语音辨识装置中的音节连接声母和韵母以及伪声母和韵母。然后语音决策装置比较音节的输入信号和连接模型来决定音节的语音结构和音节的音调。该系统还包括用来平滑模型以使识别更具鲁棒性的平滑装置(42)。该平滑装置包括LDM产生装置(46)和细化模型修正装置(48)。该LDM产生装置从细化模型中产生粗化模型,而且该细化模型修正装置用粗化模型来平滑该细化模型。一种识别汉语普通话语音的方法包括以下步骤:排列上下文相关的子音节模型;将输入信号与排列后的模型相比较;选取与输入信号最佳匹配的模型排列来识别输入信号的语音结构和音调。

Description

产生和利用上下文相关子音节模型 来识别有调语言的系统和方法 相关申请的交叉检索
本发明涉及未决的美国专利申请,其序列号为:08/316257,申请日为1994年9月30日,发明人为Hsiao-Wuen Hon、Yen-Lu Chow和Kai-Fu Lee,名称是“含有一个集成化音调分类器的连续汉语普通话语音识别系统”,在此将其引为参考文献。本发明还相关于未决的美国专利申请,其序列号为:08/315222,申请日为1994年9月29日,发明人为Hsiao-Wuen Hon,名称是“一种决定汉语普通话语音音节音调的系统和方法”,在此将其引为参考文献。
                    本发明的背景
1、本发明的所属领域:
本发明一般地涉及语音识别系统。具体来说,本发明涉及用来产生有调语言的上下文相关子音节模型并用上下文相关子音节模型来识别有调语言的系统和方法。
2、背景技术描述:
近年来,语音识别系统常常被用作将数据和命令输入到计算机和电子系统的输入装置。听写是用户方便而有效的将数据和命令输入到计算机和电子系统的方法。对于说象汉语普通话和日语这样语言的人,这一点就更为正确。与西方语言不同的是,汉语不用字母,其书面语采用象形文字。共有6000多中文简化字和10000多中文繁体字。能够输入如此多中文字符的键盘系统是极为复杂的。进而,键盘输入需要对操作员进行长达数月的冗长训练。对大多数用户来说,通过为汉语普通话配置的键盘输入命令和数据既慢又枯燥。对汉语来说,将数据和命令输入到计算机和其它电子系统的最自然最有效的技术是听写。
语音识别系统已被开发出用来识别语音。这些系统被用来将命令和数据输入到计算机系统中。在用于象罗马或德语这样的西方语言中,这样的系统已达到成功的程度。然而对于汉语及其它有调语言,语音识别系统遇到了在罗马或德语未曾遇到的独特难题。汉语普通话语音的词由一个或几个音节组成。每个汉语字符通常表示一个语音音节。每个音节是一个语音结构和一个音调的组合。汉语普通话语音共有四个字音调和一个中型音调。含有相同语音结构和不同音调的音节具有不同的含义。这样,要正确辨识一个音节,一个语音识别系统必须同时辨识音节的语音结构和音调。
每个音节包括一个韵母,可能还包括一个声母。(一个音节的语音结构由图1所示)。声母是辅音,韵母由单元音或双元音开头。在汉语普通话中共有21个声母和38个韵母。也有的音节只含有韵母而没有声母。总之,音节的声母和韵母组成音节的语音结构。汉语普通话语音共有潜在的3990个音节(声母和韵母的所有可能组合)。但是并非每个声母、韵母和音调的可能组合都能构成合法音节。实际上只有大约408个合法声母和韵母组合,和大约1229个有意义的带调音节。
现有的汉语普通话语音识别系统一般包括一个识别音节语音结构的子系统和一个独立的识别音节音调的子系统。两个子系统都有缺陷,以至于汉语普通话语音识别系统达不到可以接受的水平。汉语普通话语音中有很多易混淆的音节子集合。常规系统和方法识别语音结构时,常常混淆近似音节。现有识别汉语普通话音节语音结构系统对音节的语音结构的误识达到难以忍受的水平。进而,识别汉语普通话音节语音结构的常规技术需要大量训练数据和大量内存。这些技术也不允许音节之间的辨识。
识别音节音调的系统的表现也不够好。大多数音调识别系统采用短时音调分析来确定音节的音调。然而,短时音调分析不能提供足够的分辨率来准确辨识音节的音调。为克服这一困难,有些系统采用长时音调分析来辨识音节的音调。长时音调分析计算复杂性高,因而很慢。语音识别听写机系统必须实时使用。采用长时音调分析的语音识别难以实时。正如对现有的音调识别的讨论所表现的,现有的语音识别系统假设音节的音调独立于语音结构。
因此,现有有调语言的语音识别系统不能满足需求。识别汉语普通话语音的系统和方法需要有更高的准确率和更快的速度。
本发明的概述
本发明克服了现有识别汉语普通话语音系统和方法的不足和缺陷。该系统便利地同时决定一个音节的语音结构和音调。一个语音识别系统包括一个预处理装置,一个HMM存储装置,一个语音辨识装置,以及一个语音决策装置。
语音辨识装置包括对应于每个韵母部分的声母部分或伪声母部分。对于既有声母又有韵母的音节,声母部分存储声母的文字表示,韵母部分存储韵母的文字表示。对于仅有韵母的音节,语音辨识装置包括一个伪声母部分和一个韵母部分。伪声母部分存储伪声母的文字表示。伪声母表示一般在单独韵母音节前的声门闭塞。伪声母大大地改善单独韵母的识别。
HMM存储装置用来存储构成汉语普通话语音音节的声母、伪声母和韵母模型。声母和伪声母的模型可能便利地依赖于可能与它们连接的韵母。类似地,韵母的模型可能便利地依赖于可能与之连接的声母。声母、伪声母和韵母的模型也可能依赖于汉语普通话语音的音调。HMM存储装置和语音辨识装置被耦合到语音决策装置。语音决策装置又被耦合到预处理装置。语音辨识装置从预处理装置接收处理后的输入。语音辨识装置也从HMM存储装置接收子音节模型,并从语音辨识装置接收合法音节。语音辨识装置按照合法音节排列子音节模型并比较得出的音节模型与处理后的输入。从比较中,语音决策装置识别出输入音节的语音结构和音调。利用上下文相关模型,语音决策装置不但能够更为精确地决定音节的语音结构,而且能够决定音节的音调。这样本发明,不需要单独的音调分析来决定有调语言音节的音调。
模型的产生需要大量训练数据。本发明根据能得到的训练数据提供对模型复杂性的调整。声母和韵母的模型可能仅依赖于相应的声母或韵母,仅依赖于音调,或与上下文无关。本发明包括一个改善模型的平滑装置。该平滑装置包括LDM产生装置和细化模型修正装置。LDM产生装置耦合到HMM存储装置,并从现有模型中产生粗化模型。细化模型修正装置接收来自于LDM产生装置的粗化模型和来自于HMM存储装置的模型。然后细化模型修正装置按照粗化模型来平滑模型。细化模型修正装置的输出耦合到HMM存储装置。平滑后的模型被传送到HMM存储装置以替换未平滑的模型。得出的平滑后的模型使本发明识别音节更为精确,尤其在训练数据不足时。
本发明包括一种利用上下文相关的子音节模型识别一种有调语言的方法。该方法包括以下步骤:排列依赖于相应声母、伪声母或韵母或依赖于音调的声母、伪声母和韵母的模型;比较处理后的输入和一个排列后的模型;选取最佳匹配于输入的排列后的模型;并产生表示最佳匹配排列后的模型的声母或伪声母、韵母及音调的一个输出信号。
附图简要描述
图1是一个汉语普通话语音音节的图形表示;
图2是一个按照本发明识别汉语普通话语音的系统方框图;
图3是一个按照本发明构造的语音辨识装置方框图;
图4是一个按照本发明构造的,HMM存储装置方框图;
图5是一个方框图,表示汉语普通话语音识别系统中信号与数据的流程;
图6A是一个方框图,表示本发明的系统中,当训练模型存储在HMM存储装置中时,数据与信号的流程;
图6B是一个按照本发明的数据存储装置的方框图;
图7是一个表示本发明用于平滑模型系统的信号和数据流程的方框图;
图8是一个按照本发明构造的,HMM存储装置第二实施例的方框图;
图9是一个按照本发明表示识别单独韵母音节方法的流程图;
图10A和10B是表示识别汉语普通话语音音节方法的流程图;
图11A、11B和11C是表示按照本发明识别单独韵母音节方法的流程图;
图12是一个表示按照本发明平滑模型方法的流程图;
图13A和13B是表示当声母模型依赖于韵母开头元音时,识别汉语普通话语音音节方法的流程图。
优选实施例的详细描述
现请参阅图1,该图显示出一个汉语普通话语音音节10图形表示。音节10包括声母12和韵母14。声母12为辅音,韵母14有一元音开头。声母12相应于音节的声母部分,韵母14相应于音节的韵母部分。
本发明便利地包括当确定一个音节的声母和韵母来辨识音节的语音结构时的上下文相关成分。当辨识声母和韵母时,本发明更为精确地确定音节的语音结构且便利地辨识了音节的音调。
现请参阅图2,按本发明构造的,该图显示出一个识别汉语普通话语音系统16的方框图。该系统16优选地包括处理器18、输入装置20、显示装置22、数据存储装置24和存储器26。处理器18、输入装置20、显示装置22、数据存储装置24和存储器26,通过总线28耦合于一台冯.诺依曼体系结构计算机,例如一台个人计算机。处理器18优选地是一台微处理器,例如Motorola 68040;显示装置20优选地是一台视频监视器;数据存储装置24包括用于存储数据的随机存取存储器(“RAM”)和只读存储器(“ROM”),优选地是磁盘驱动器;存储器26包括存储数据程序指令的RAM和ROM。输入装置20包括键盘,鼠标类型控制器,麦克风和模拟到数字(“A/D”)转换器。总线28是传送数据和命令的常规总线。在优选的实施例中,系统16是一台在California,Cupertino的Apple计算机公司生产的Macintosh Quadra 840AV计算机系统。本领域的技术人员明白该系统16也可由IBM个人计算机或其它计算机系统实现。
存储器26包括一个语音识别系统30,一个训练装置40,和一个平滑装置42。语音识别系统30,训练装置40,平滑装置42,存储器26的组成部分将在下面分成单独装置讨论,本领域的技术人员明白组成部分在单个的存储空间中将占据相邻部分,在优选的实施例中,存储在存储器26的程序在被处理器18执行时完成语音识别系统、训练装置和平滑装置的功能。
该语音识别系统30包括预处理装置32、HMM存储装置34、语音辨识装置36和语音决策装置38。预处理装置32接收来自输入装置20的数字化音节输入信号并处理数字化音节以供识别。预处理装置32采用常规方法处理输入信号。预处理装置32优选地对表示音节的、从输入装置20接收的数字信号进行快速傅立叶变换(“FFT”)。预处理装置32也可替换地对数字信号进行线性预测编码(“LPC”)。在其它备选方案中,预处理装置32可以产生FFT或LPC的矢量量化信号。还有许多其它方法预处理数字化音节信号;本领域的技术人员会明白这些方法且这些方法可能应用在预处理装置32中。预处理装置32有一个输入耦合到输入装置20,以便通过总线28接收数字信号。预处理装置32也含有一个输出,通过总线28耦合到语音决策装置38,并且预处理装置32通过总线28传送处理后的、数字信号到语音决策装置38。
HMM存储装置34存放构成汉语普通话语音可能音节的声母和韵母的隐马尔可夫模型。隐马尔可夫模型被用来对语音、手写体和其它信号建模。本领域的技术人员会明白隐马尔可夫模型。HMM存储装置34将参考图4详尽描述。HMM存储装置34有一个输出通过总线28耦合到语音决策装置38,将模型提供给语音决策装置38。
语音辨识装置36存储例如汉语普通话的有调语言声母和韵母的所有合法组合的表示。语音辨识装置36描述整个汉语普通话语言。语音辨识装置36将参考图3详尽描述。语音辨识装置36通过总线28耦合到语音决策装置38。
语音决策装置38是一个装置,它采用存储在语音辨识装置36的声母和韵母和存储在HMM存储装置34的模型来确定被预处理装置32处理过的音节的语音结构和音调。语音决策装置38按照存储在语音辨识装置36的排列声母和韵母排列从HMM存储装置34接收的模型。本发明优选地采用声母和韵母的隐马尔可夫模型。声母的模型可以添加到韵母的模型后面构成完整的音节模型。
语音决策装置38比较从预处理装置32接收到的处理后的输入与被排列后的模型,并确定最佳匹配于处理后的输入的模型排列。语音决策装置38采用常规技术,例如维特比搜索或动态规划,来比较模型的排列与处理后的输入。语音决策装置38包括存储数据的存储器,因此在内部识别音节时,该存储器可以存储靠连接声母和韵母子音节的模型产生的音节的模型。语音决策装置38通过总线28耦合到预处理装置32、HMM存储装置34、语音辨识装置36和处理器18。
训练装置40产生汉语普通话语音声母和韵母的模型。训练装置40采用存储在数据存储装置24的发音作为输入来产生模型。训练装置40和存储在数据存储装置24的发音,将参考图6A和6B来详细描述。产生了模型后,训练装置40将它们传送到HMM存储装置34。训练装置40通过总线28耦合到数据存储装置24和HMM存储装置34。
平滑装置42修正在HMM存储装置34内的隐马尔可夫模型,以便语音决策装置38用它们更好地辨识音节。平滑装置42接收存储在HMM存储装置34的模型并修正模型来更好地描述汉语普通话语音的声母和韵母。可供选择的,平滑装置42可以直接从训练装置40接收模型,平滑后,可以将模型传送到HMM存储装置34。平滑装置42包括组存储装置44、LDM产生装置46和细化模型修正装置48。组存储装置44、LDM产生装置46和细化模型修正装置48分别有一个耦合到总线28的输入和输出。组存储装置44、LDM产生装置46和细化模型修正装置48将参考图7详细讨论。平滑装置42通过总线28耦合到处理器1 8,HMM存储装置34和训练装置40。
现请参阅图3,该图显示出语音辨识装置36示例性实施例的方框图。该语音辨识装置36的实施例用于示例性的有调语言。在这个示例性的有调语言中共有3个声母、4个韵母和2个音调。该有调语言用来容易、清楚地表示HMM存储装置34和语音辨识装置36的结构和功能。本领域的技术人员明白怎样提升HMM存储装置34和语音辨识装置36以适用有更多声母、韵母和音调以及特定合法组合的汉语普通话或任何其它实际语言。
语音辨识装置36存储待识别语言的所有声母、韵母和音调合法组合。语音辨识装置36包括多个音节部分。每个音节部分包括声母部分,韵母部分和音调部分。音节部分的声母部分和韵母部分一起构成一个有调语言的合法音节。音调部分存储音节可能含有的音调表示。并非每个合法音节包含有调语言的全部音调。这样,一个音节部分51有表示声母i1的声母部分50和表示韵母f1的韵母部分52。音节部分51也可以包含表示音节/i1 f1/可能含有音调的音调部分。对于含2个音调的示例语言,音调部分包括2位,01表示仅仅有T1,10表示仅仅有T2而11表示T1和T2。声母部分50和韵母部分52成对的共同表示音节/i1f1/。例如,i1可能是/b/而f1可能是/at/。这样,声母部分50和韵母部分52描述音节/bat/。音调部分114表示音节/bat/可能含有T1或T2作为音调。音节部分耦合到总线28。
如前所述,语音辨识装置36描述示例性的语言的所有合法音节。音节部分53描述了另一个音节。音节部分53有声母部分54和韵母部分56。声母部分54含有i1的参考,而韵母部分56含有韵母f4的参考。继续上述例子,i1为/b/和f4可能是/it/。声母部分54和韵母部分56的成对描述音节/bit/。音节部分53也含有音调部分55。音调部分55包含指示可能含有音调T1或音调T2的音节/i1 f4/的指示器。
图3表示不含声母的音节的音节部分的优选实施例。本发明便利地对不含有声母的音节,或称单独韵母采用伪声母。按照常规,现有的语音识别系统将单独韵母仅按韵母建模。但是人的发音系统却不能产生仅有韵母的声学信号。人的发音系统在单独韵母前产生一个声门闭塞。常规语音识别系统对识别单独韵母有困难。本发明便利地在语音辨识装置36中,采用伪声母辨识声门闭塞。伪声母被当做声母对待。例如,音节部分57包括存放伪声母PI4的伪声母部分58和韵母部分60。音节部分57包括表示仅仅有音调T2的音节/f4/的音调部分59。图3所用的示例性语言有2个伪声母,PI1和PI4。对于汉语普通话,本发明采用6个伪声母。附录A列出了优选的伪声母及其对应韵母。伪声母按照韵母开头元音来与相应的韵母匹配。例如伪声母AH_A与所有的由元音A开头的单独韵母匹配。语音辨识装置36便利地提供声母部分与韵母部分对来描述所有的合法音节。
现请参阅图4,该图表示按照本发明构造的HMM存储装置34方框图。HMM存储装置34存储在语音辨识装置36中列出的每个声母,韵母和伪声母的隐马尔可夫模型。HMM存储装置34包括3组模型:第一组62存储声母的模型,第二组64存储韵母的模型以及第三组66存储伪声母和单独韵母的模型。本发明便利地在模型的细化上表现出灵活性。图4表示本发明最为详细的模型。然而HMM存储装置36,可能配置来存放粗化模型。模型的细化程度取决于能得到的训练数据量。
现有的语音识别系统为每个声母和韵母提供一个模型。与此相对照,本发明提供上下文相关的子音节模型来表示汉语普通话语音。模型依赖于它们相应的声母或韵母以及音节的音调。这样,当识别声母时,语音决策装置38纳入与声母成对的韵母和音节的音调作为识别的因素。现有的系统有1个模型描述示例性的语言的i1,而本发明有6个i1的模型。本发明优选地作出许多额外的比较以便在确定时包括上下文相关信息。在HMM存储装置34存贮的每个模型优选地是声母、韵母和伪声母的隐马尔可夫模型。本领域的技术人员明白HMM存储装置34可存放其它形式声母、韵母和伪声母的模型。
语音决策装置38从语音辨识装置36接收可能音节并从HMM存储装置34接收模型。语音决策装置38按照从语音辨识装置36接收到的音节排列模型。例如,为了构造由音节部分51描述的音节,语音决策装置38连接依赖于f1和T1的i1的模型与依赖于i1与T1的f1的模型。依赖于f1和T1的i1的模型68存储在HMM存储装置34,而依赖于i1和T1的f1的模型80也存储在HMM存储装置34。语音决策装置38也采用含有不同音调的音节的模型。为此,语音决策装置38连接依赖于f1和T2的i1的模型70与依赖于i1和T2的f1的模型52。注意在最详细的例子里,对语音辨识装置36的每个组合产生多个模型,每个对应于该语言的一个音调。进一步要注意的是,当语音决策装置38连接音调相关模型时,它总是连接具有相同音调相关性的模型。存储在部分70的依赖于f1和T2的i1模型永远不与存储在部分80依赖于i1和T1的f1模型连接。最后,注意依赖于韵母的声母组合当与依赖于声母的韵母成对,是一个音节相关。换言之,等效于依赖于音节的声母和依赖于音节的韵母。
语音决策装置38连接声母和韵母或伪声母和韵母的模型产生有调语言合法音节的模型。本发明便利地采用声母、伪声母和韵母的隐马尔可夫模型,因为隐马尔可夫模型可能被连接起来构成大的结构,例如音节模型。本领域的技术人员明白怎样连接韵母的隐马尔可夫模型与声母或伪声母的隐马尔可夫模型来构成音节的隐马尔可夫模型。
如前所述,图4中存储在HMM存储装置34的该实施例的模型是最为详细的子音节模型。然而本发明可能采用粗化子音节模型。例如,不需要依赖于相应的声母或韵母的模型。在这种情况下,每个模型仅仅依赖于音节的音调。可供替换地,模型可能是音调无关但依赖于相应的声母或韵母。最后,有些模型可能是上下文无关,或依赖于相应的声母、相应的韵母或音调。各种可能的组合导致层次模型。父模型为上下文无关模型。在这种情况下,声母或韵母有一个单一模型描述所有的出现的声母或韵母。在上下文无关模型中,相应的音节声母或韵母及音调的相关性未被建模。上下文无关模型可被改进成两类上下文相关模型。第一类上下文相关模型仅仅依赖于音节的音调。第二类上下文相关模型仅仅依赖于相应的声母或韵母。这两类上下文相关模型也可合并构成更为详细的上下文相关模型。在这种最为详细的上下文相关模型,模型依赖于相应的声母或韵母而且依赖于音节的音调。图4表示这类最为详细的上下文相关的模型。
每类更为详细的模型比较前面粗化模型需要更大量的训练数据来产生模型。当训练数据有限时,使用粗化模型可能更为有利。模型上下文相关仅仅需要与组62、64和66一致。这样,第一组62中的声母可能仅仅依赖于音调,而第二组64中的韵母可能仅仅依赖于相应的声母。一般来说最为细化模型更好。然而当训练数据有限时,仅仅依赖于韵母的第一组62中的声母,以及仅仅依赖于音调的组64中的韵母则更好。
第三组66包括数据部分,存储对应于伪声母的伪声母和韵母模型。本发明将伪声母按声母一样对待。例如,为构成在语音辨识装置36中描述的音节部分57的音节,语音决策装置38连接从HMM存储装置34来的伪声母模型88,PI4(f4,T1)和韵母模型90,f4(PI4,T1)并连接从HMM存储装置34来的伪声母模型92,PI4(f4,T2)和韵母模型94,f4(PI4,T2)。同层次的上下文无关和上下文相关模型像应用于声母和韵母一样应用于伪声母及相应的韵母。即,伪声母的模型可能是上下文无关,仅仅依赖于相应的韵母,仅仅依赖于音节的音调,或依赖于相应音节的韵母和音调。
图4也表示本发明如何不用音调分析来确定音节的音调。只要音调相关模型用于声母或韵母,语音决策装置38从处理后的输入与模型的比较中确定音节的音调。这样,本发明便利地同时确定音节的语音结构和音节的音调。
现请参阅图5,该图显示出在该系统16中数据流动及信号处理的方框图。该系统16通过输入装置20接收音频信号。输入装置20包括麦克风和A/D转换器。麦克风接收模拟、音频信号并将其转化为模拟电子信号。A/D转换器接收模拟电子信号并将其转化为数字电子信号。A/D转换器将数字电子信号传送给语音识别系统30。
在该语音识别系统30中,预处理装置32接收数字电子信号。预处理装置32产生数字电子信号的FFT信号而且产生FFT的系数信号。预处理装置32可替换地产生数字电子信号的线性预测编码信号。预处理装置32将处理后的信号传送给语音决策装置38。语音决策装置38接收信号并产生信号给语音辨识装置36来传送可能的音节。语音决策装置38从语音辨识装置36接收表征可能音节的信号并产生信号给HMM存储装置34来传送声母和韵母的模型。当语音决策装置38从HMM存储装置34接收模型的信号时,语音决策装置38按照从语音辨识装置36接收到的音节信号,将这些模型连接到一起。语音决策装置38靠将韵母连接到声母后面来连接声母和韵母。类似的,语音决策装置38靠将韵母连接到伪声母后面来连接伪声母和韵母。然后语音决策装置38比较从预处理装置32来的处理后的信号与声母和韵母的连接模型。语音决策装置38采用维特比搜索或动态规划来确定哪个连接模型最佳匹配语音信号。这样,语音决策装置38比较输入信号与汉语普通话所有的合法音节模型。然后语音决策装置38产生并输出一个表征连接模型声母,韵母和音调的信号这一模型最佳匹配于从预处理装置32接收到的信号。语音决策装置38可以将输出信号传送给查找表或存储装置。存储装置可以象在常规词处理器中一样存储信号。查找表也可以确定表示音节的合适字符并传送信号给显示装置22以显示选取的字符。
如上所述本发明被配置成识别汉语普通话语音的音节。音节是汉语普通话语音的基本单元,而且音节识别是语音识别的通常形式。本发明也可替换地被配置成识别更高级的语言单元,例如词、短语、句子或任何高级单元。例如,为识别3个可能输入的句子,语音辨识装置36可被配置为包含表示组成每个句子的音节的部分。当语音决策装置38从预处理装置32接收处理后的输入信号时,语音决策装置38从语音辨识装置36接收句子信号并从HMM存储装置34接收声母、韵母和伪声母的模型的信号。然后语音决策装置38按照句子将模型连接在一起。语音决策装置38比较从预处理装置32接收到的输入与连接模型并选取最佳匹配于输入的连接模型的集合。语音决策装置38产生并输出表示最接近匹配输入句子的信号。
现请参阅图6A和6B。图6A表示当训练装置40产生存储在HMM存储装置34的模型时,在系统16内数据和信号流动的方框图。训练装置40接收多个语音输入,训练装置40为每个含有声母、伪声母或韵母的发音从数据存储装置24中产生模型。训练装置40可替换地从存储器26的另一部分接收语音输入信号。训练装置40接收的所有的发音有合适的语言结构,输入训练装置40为它产生一个模型。例如,如果训练装置40产生依赖于f1和T1的一个i1的模型,那么训练装置40接收含有i1,f1和T1的音节发音信号。训练装置40采用常规技术,例如Baum-Welch训练算法,来产生一个隐马尔可夫模型。训练装置40接收至少20个发音输入来产生一个充分的模型。优选地,训练装置40接收几百个发音输入来产生一个模型。一旦训练装置40产生了一个模型,它产生一个信号将模型传送给HMM存储装置34。
图6B是一个详尽地表示数据存储装置24的方框图。数据存储装置24包括存贮含有共同声母、韵母或伪声母以及共同相关的多个发音的多个单元。单元96存储含有i1,f1和T1的语音输入。单元存放训练装置40用于产生模型的语音输入。例如,训练装置40采用存储在单元96的语音输入来产生依赖于f1和T1的i1的模型。训练装置40在产生模型后,将模型传送给HMM存储装置34。HMM存储装置34在部分68中存储由以上例子产生的模型。语音决策装置38采用存储在HMM存储装置34的模型68来为由语音辨识装置36的音节部分51所标识的音节建模。每个单元存储至少20个语音输入并优选地存储几百个语音输入。示例性的语言需要在数据存储装置24中有36个单元。那意味着数据存储装置24存储至少720个语音输入且优选地存储几千个语音输入。为产生必要的识别汉语普通话的模型,数据存储装置24需要几百个单元来存放含有不同声母、韵母、音调和声门闭塞的语音输入。每个单元存放至少20个语音输入且优选地存储几百个语音输入。本领域的技术人员明白如何修改数据存储装置24来适应汉语普通话。
现请参阅图7。图7表示,当系统16采用平滑装置42修正存储在HMM存储装置34中的模型时数据和信号的流动的方框图。正如从图6B和配合的文字可看出的,最为详细的模型集合,依赖于声母或韵母和音调,需要非常大量训练数据。优选地有足够训练数据使训练装置40产生精确、鲁棒的最为详细的模型。如果没有足够训练数据使训练装置40产生精确、鲁棒的模型,模型可能不够精确的描述该语言的声母、韵母和伪声母。在这种情况下,平滑装置42可以靠粗化模型平滑它们来改进模型。
一个粗化模型有更少的上下文相关成分。例如,仅仅依赖于音调的模型或仅仅依赖于声母或韵母的模型就比同时依赖于音调和声母或韵母的模型更为粗化。上下文无关模型是最少相关的模型。
更为细化模型可能被任何粗化模型平滑。这样,依赖于声母或韵母和音调的最为细化模型,可能被仅仅依赖于声母或韵母、仅仅依赖于音调或上下文无关的模型平滑。类似地,粗化模型甚至可能被粗化模型平滑。例如,仅仅依赖于声母或韵母的模型可能被上下文无关模型平滑,而仅仅依赖于音调的模型可能被上下文无关模型平滑。如图7所示,平滑装置42从HMM存储装置34接收模型。LDM产生装置46发送一个信号给HMM存储装置34使其产生待平滑的模型信号并把信号传送给平滑装置42。平滑装置42优选地一起接收每个组中的模型。亦即,平滑装置42接收第一组62的声母,然后接收第二组64的韵母,然后接收第三组66相应韵母的伪声母。平滑装置42确定粗化模型,并用粗化模型平滑模型。然后平滑装置42发送平滑后的模型回HMM存储装置34。
如图7所示,平滑装置42包括组存储装置44、LDM产生装置46和细化模型修正装置48。当一组模型被平滑装置42接收,该组是被组存储装置44和LDM产生装置46接收。组存储装置44是存放模型的数据存储装置,而LDM产生装置46产生粗化模型,细化模型修正装置48则修改该组的每个模型。
LDM产生装置46产生粗化模型,细化模型修正装置48将用它修正细化模型。LDM产生装置46采用细化模型来产生粗化模型。如果平滑装置42正在用仅仅依赖于韵母的模型平滑第一组62的声母模型,LDM产生装置46从第一组62的声母中产生仅仅依赖于韵母的声母模型的粗化模型。LDM产生装置46靠确定有相似相关性的模型的算术平均值来产生粗化模型。继续这个例子,模型68将被仅仅依赖于f1的i1的模型平滑。为产生仅仅依赖于f1的i1的模型,LDM产生装置46确定模型68和模型70的算术平均值。模型68和70都是i1的,都依赖于f1,而不同之处仅仅在于它们对音调的依赖性。模型68和70的算术平均值的模型是单独依赖于f1而与音调无关的i1的模型。类似地,为产生单独依赖于f4的i1的模型,LDM产生装置46确定模型76和模型78的算术平均值。结果是i1模型依赖于f4而与T1或T2无关。同样地,LDM产生装置46可以确定仅仅依赖于音调而与声母或韵母无关的模型。为确定i1仅仅依赖于T1的模型,LDM产生装置46确定模型68,72和76的算术平均值。得出i1的模型仅仅依赖于T1。LDM产生装置46采用同样的方法来确定上下文无关的父模型。为产生i1上下文无关的模型,LDM产生装置46确定模型68,70,72,74,76和78的算术平均值。
LDM产生装置46采取基于逐点的方式计算模型的算术平均值。LDM产生装置46确定每个模型相应的点的算术平均值,得出的均值点序列是算术平均值模型也是粗化模型。
一LDM产生装置46产生了粗化模型,LDM产生装置46产生一个表示粗化模型的信号并将信号传送给细化模型修正装置48。细化模型修正装置48也从组存储装置44接收信号表示待平滑的模型。然后细化模型修正装置48用粗化模型平滑这些从组存储装置44接收到的模型,采用常规平滑技术例如线性插值或删除插值。本领域的技术人员会明白这些技术。然后细化模型修正装置48产生一个信号使平滑后的模型传送给HMM存储装置34。HMM存储装置34从平滑装置42接收信号并用从平滑装置42接收到的平滑后的模型替换原来的模型。得到的平滑后的模型比平滑以前更为粗化,能更好的且更为鲁棒的为声母、韵母和伪声母建模。
在可替换的实施例中,平滑装置42不包括组存储装置44。模型组被LDM产生装置46接收到并传送给细化模型修正装置48。细化模型修正装置48直接从HMM存储装置34接收模型。
存储在HMM存储装置34的模型可能被任何粗化模型、粗化模型的组合以及粗化模型的不同组合平滑。然而优选地,组62,64,或66中的模型类似的在每个组中被平滑。例如,第一组62的声母可能仅仅依赖于音调的模型平滑,第二组64的韵母可能被仅仅依赖于声母的模型平滑,而第三组66的伪声母及相应的韵母可能被仅仅依赖于音调的模型和上下文无关模型平滑。粗化模型的任何其它组合是可能的。
组存储装置44有一个输入耦合到总线28来从HMM存储装置接收信号34,并有一个输出通过总线28耦合到细化模型修正装置48。LDM产生装置46有一个输入耦合到HMM存储装置34和一个输出通过总线28耦合到细化模型修正装置48。细化模型修正装置48有一个第一输入耦合到组存储装置44,一个第二输入耦合到LDM产生装置46及一个输出通过总线28耦合到HMM存储装置34。
现请参阅图8,该图表示HMM存储装置34的第二实施例的方框图。图4中的最为详细的模型集合包括大量模型。图8表示HMM存储装置34的一个实施例,其中最为详细的模型数目比图4中的模型数目减少了。
在最为详细的模型集合中,声母依赖于韵母和音调。然而韵母相关性主要由韵母开头元音的相关性来获取。这样对于声母,可用元音相关性取代韵母相关性。这减少了模型的数目。
图8中HMM存储装置34包括第一组98声母模型,第二组64韵母模型和第三组100伪声母模型。第二组64与图4中的相同。第一组98声母模型包括的部分比第一组62少。参考图3扩展到上述示例性的语言,f2为/is/而f3为/am/。通过将声母相关性建立在韵母的头元音上而不是整个韵母上,HMM存储装置34的第二实施例减少了描述声母所需的模型数目。i1依赖于f1的模型68和模型70可能与i1依赖于f3的模型72和74组合。韵母f1和f3都由元音/a/开头。这样,对于声母相关性来说,这些韵母可以被组合。得到的依赖于开头元音/a/和音调的i1的模型为模型102和104。类似地,关于f2和f4的声母相关性可能组合,因为它们的韵母都由/i/开头。模型106和108是依赖于/i/和音调的i1模型。第三组100也采用开头元音相关性而非整个韵母相关性。模型110是依赖于/i/和T1的PI1模型,而非依赖于f4和T1的PI1模型-模型88。
通过采用元音相关性,本发明减少了模型的数目和由语音决策装置38所做的比较的数目。因为汉语普通话中韵母的数目比声母多,这一措施大大减少了HMM存储装置34的大小并增加了模型的鲁棒性。
现请参阅图9,该图描述本发明中识别汉语普通话语音的单独韵母音节的方法。该方法由步骤200开始,在步骤200该系统16接收输入汉语普通话语音音节的音频信号。输入装置20的麦克风将音频信号转化成模拟电子信号。然后输入装置20的A/D转换器把模拟电子信号转换成数字电子信号。在步骤202,该语音识别系统30的预处理装置32接收待处理的数字电子信号。预处理装置32确定数字电子信号的FFT信号,然后确定FFT信号的矢量量化码字。预处理装置32也可替换地确定LPC信号而非FFT信号。下一步,在步骤204,语音决策装置38从HMM存储装置34接收伪声母和韵母的模型;语音决策装置38按照从语音辨识装置36接收到的音节,排列并连接模型。在步骤206语音决策装置38比较处理后的输入信号与排列好的模型,并在步骤208选取最佳匹配处理后的输入信号的模型排列。这样,在步骤206,语音决策装置38将输入信号不仅仅与单独韵母模型而且与单独韵母前表示由伪声母表示的声门闭塞的模型比较。在步骤210,语音决策装置38产生并输出表示在步骤208选取的模型排列的韵母和音调的信号,本方法结束。
现请参阅图10A和10B,该图表示识别汉语普通话语音音节方法的流程图。方法由步骤300开始,系统16接收汉语普通话语音音节的输入音频信号。输入装置20的麦克风将音频信号转化成模拟电子信号。然后输入装置20的A/D转换器把模拟电子信号转换成数字电子信号。在步骤302,该语音识别系统30的预处理装置32接收待处理的数字电子信号。预处理装置32确定数字电子信号的FFT信号,然后确定FFT信号的矢量量化码字。预处理装置32也可替换地确定LPC信号而非FFT信号。在步骤304,语音决策装置38选取还未选取的汉语普通话韵母。步骤304采用多次运行的方法;第一次步骤304运行时,语音决策装置38可选取任何汉语普通话韵母。下次运行时,语音决策装置38选取它还没有选取的韵母。同样的,语音决策装置38在步骤306选取汉语普通话音调并在步骤308选取声母。在步骤310语音决策装置38确定是否选取的声母、韵母和音调是汉语普通话语音的合法音节。语音决策装置38靠比较该组合与从语音辨识装置36接收到的汉语普通话语音音节来确定组合的合法性。如果组合为一合法音节,在步骤312语音决策装置38选取依赖于韵母和音调的声母模型,并选取依赖于声母和音调的韵母模型,并将两个模型连接在一起。语音决策装置38从HMM存储装置34接收模型。然后语音决策装置38在其中存储连接模型。该方法从步骤312进入步骤314。如果组合不是合法音节,该方法也可从步骤310运行到步骤314。在可选的方法中,语音决策装置38可以连接仅仅依赖于音调,仅仅依赖于相应的韵母或声母,或上下文无关的模型。
在步骤314,语音决策装置38确定是否有另一个还未与现在选取的韵母和音调匹配的声母。如果有这样一个声母,方法回到步骤308去选取另一个还未与现在选取的韵母和音调匹配的声母。如果没有这样一个声母,方法运行到步骤316,在此语音决策装置38确定是否有另一个还未与现在选取的韵母匹配的音调。如果有这样一个音调,方法回到步骤306在那儿语音决策装置38去选取另一个还未与现在选取的韵母匹配的音调。当语音决策装置38选取一个音调时,它重置声母使得所有的声母与当前的韵母和刚刚选取的音调匹配。在步骤316如果没有这样一个音调,方法运行到步骤318,在那里语音决策装置38确定是否有还未与从语音辨识装置36接收到的音节比较的韵母。如果没有这样一个韵母,方法回到步骤304,在那里语音决策装置38选取还未与从语音辨识装置36接收到的音节比较的韵母。当语音决策装置38选取一个韵母时,它重置声母与音调使得所有的声母、音调与刚刚选取的韵母组合成音节并与从语音辨识装置36接收到的音节比较。
在步骤318如果没有这样一个韵母,语音决策装置38将模型组对来构成汉语普通话语音所有的合法音节。方法继续到步骤320,在那里语音决策装置38比较处理后的输入信号与连接模型。语音决策装置38采用维特比搜索或动态规划来比较处理后的输入信号与连接模型。还有许多其它技术来做比较;本领域的技术人员会明白这些技术。上下文相关性产生的比较是将整个输入信号与整个连接模型比较,它对于上下文协同发音(声母、韵母和音调)的声母和韵母采用详细的上下文相关模型。通过采用依赖于音调的模型,该方法在比较中包括额外一维的比较,即比较整个信号与不同音调的协同发音模型。这样,采用最为细化模型,本发明在步骤320增加了3个维数的比较,使得步骤322的决策更为精确。采用粗化模型,例如仅仅依赖于音调的模型,相应的减少步骤320比较的维数。这使得步骤322的决策不太精确但比用上下文无关模型更精确。在步骤322,语音决策装置38选取最佳匹配处理后的输入的模型排列,并在步骤324,语音决策装置38产生并输出表示在步骤322选取连接模型的声母、韵母和音调信号。该方法结束。
现请参阅图11A,11B和11C,该图表示识别汉语普通话语音音节方法的流程图,它采用本发明用于识别单独韵母的音节。方法开始步骤与图10A所示一致。为方便起见,相同的方法步骤采用相同的号码。第一个独特的方法步骤为步骤318之后的步骤420。在步骤420,语音决策装置38选取一个单独的韵母和相应的尚未被选取的伪声母。在步骤422,语音决策装置38为该单独韵母选择一个尚未被选取的单调。下一步在步骤424,语音决策装置38确定是否选取的单独韵母和音调构成合法音节。语音决策装置38比较选取的单独韵母和音调与从语音辨识装置36接收到的音节来完成这一决策。如果选取的单独韵母和音调构成合法音节,方法进行到步骤426,在此语音决策装置38将依赖于所选取的韵母和音调的伪声母模型添加到依赖于该伪声母和所选音调的韵母模型之后。这些模型是从HMM存储装置34接收到的。该方法从步骤426进行到步骤428;如果在步骤424选取的单独韵母和音调不构成合法音节,方法也进行到步骤428。在步骤428语音决策装置38确定是否有另一个音调还没有与当前单独韵母组合。如果有这样一个音调,方法回到步骤422去选取另一个还未与单独韵母组合的音调。在步骤428如果没有这样一个音调,方法继续到步骤430,在此语音决策装置38确定是否还有另一个单独韵母要被分析。如果有这样一个单独韵母,方法回到步骤420,语音决策装置38选取未被分析单独韵母。在步骤430如果没有这样一个单独韵母,在步骤432语音决策装置38比较处理后的输入信号与排列后的声母和韵母或伪声母和单独韵母模型。语音决策装置38采用与步骤320同样的技术进行比较,例如维特比搜索。在步骤434,语音决策装置38选取最佳匹配处理后的输入的排列后的模型。最后在步骤434,语音决策装置38产生并输出表示选取的排列后的模型的伪声母、韵母和音调的信号。该方法结束。
现请参阅图12,该图表示按照本发明平滑声母、韵母和伪声母的模型的方法流程图。方法开始,在步骤500,平滑装置42从HMM存储装置34接收模型。平滑装置42按照组平滑模型,组为第一组62,第二组64和第三组66。平滑装置42可以一次接收模型一个组,也可以一次接收所有的模型但按组平滑它们。在步骤502,LDM产生装置46产生粗化模型。LDM产生装置46从较为细化模型产生粗化模型。LDM产生装置46通过计算含有共同相关性的相似模型的算术平均值来产生粗化模型。例如,LDM产生装置46计算依赖于f1和T1的i1模型和依赖于f1和T2的i1模型的算术平均值来产生依赖于f1而与音调无关的i1模型。LDM产生装置46用逐点方式计算算术平均值模型。LDM产生装置46平均较为细化模型相应点的模型值来得到粗化模型相应点的模型值。
一旦LDM产生装置46产生了粗化模型,它便将粗化模型传送给细化模型修正装置48。在步骤504,细化模型修正装置48从组存储装置44接收更为细化模型并用粗化模型平滑更为细化模型。细化模型修正装置48采用常规平滑技术来平滑更为细化模型。然后在步骤506平滑装置42将平滑后的模型传送给HMM存储装置34,并替换未平滑的模型。本方法结束。
现请参阅图13A和13B,该图表示按照本发明识别汉语普通话语音音节方法的流程图。方法与图10A和10B极为类似,为方便起见,相同的步骤采用相同的数字。与图10A和10B相应步骤不同的第一步骤是在步骤310后、在步骤314前的步骤600。在步骤600,语音辨识装置38连接依赖于音节的音调和相应韵母开头元音的声母模型,与依赖于音节的音调和声母的韵母模型。与图10A和10B相应的步骤不同的其它方法步骤为步骤602,在此语音决策装置38比较处理后的输入与排列后的模型。在步骤602,语音决策装置38比较处理后的输入与声母模型,该声母模型仅仅依赖于音节的音调和与该声母模型相接的韵母开头元音。
        附录    A伪声母    韵母    音节AH_A      A_1      A1AH_A      A_2      A2AH_A      A_3      A3AH_A      A_4      A4AH_A      A_5      A5AH_A      AI_1     AI1AH_A      AI_2     AI2AH_A      AI_3     AI3AH_A      AI_4     AI4AH_A      AN_1     AN1AH_A      AN_3     AN3AH_A      AN_4     AN4AH_A      ANG_1    ANG1AH_A      ANG_2    ANG2AH_A      ANG_4    ANG4AH_A      AO_1     AO1AH_A      AO_2     AO2AH_A      AO_3     AO3AH_A      AO_4     AO4EH_E      E_1      E1EH_E      E_2      E2EH_E      E_3      E3EH_E      E_4      E4EH_E      EN_1     EN1EH_E      EN_4     EN4EH_E      ER_2     ER2EH_E      ER_3     ER3EH_E      ER_4     ER4OH_O    OU_1      OU1OH_O    OU_3      OU3OH_O    OU_4      OU4WH_U    UA_1      WA1WH_U    UA_2      WA2WH_U    UA_3      WA3WH_U    UA_4      WA4WH_U    UAI_1     WAI1WH_U    UAI_3     WAI3WH_U    UAI_4     WAI4WH_U    UAN_1     WAN1WH_U    UAN_2     WAN2WH_U    UAN_3     WAN3WH_U    UAN_4     WAN4WH_U    UANG_1    WANG1WH_U    UANG_2    WANG2WH_U    UANG_3    WANG3WH_U    UANG_4    WANG4WH_U    UI_1      WEI1WH_U    UI_2      WEI2WH_U    UI_3      WEI3WH_U    UI_4      WEI4WH_U    UN_1      WEN1WH_U    UN_2      WEN2WH_U    UN_3      WEN3WH_U    UN_4      WEN4WH_U    UENG_1    WENG1WH_U    UENG_3    WENG3WH_U    UENG_4    WENG4WH_U    U0_1      W01WH_U    U0_3      W03WH_U    U0_4      W04WH_U    U_1     WU1WH_U    U_2     WU2WH_U    U_3     WU3WH_U    U_4     WU4YH_I    IA_1    YA1YH_I    IA_2    YA2YH_I    IA_3    YA3YH_I    IA_4    YA4YH_I    IAN_1   YAN1YH_I    IAN_2   YAN2YH_I    IAN_3   YAN3YH_I    IAN_4   YAN4YH_I    IANG_1  YANG1YH_I    IANG_2  YANG2YH_I    IANG_3  YANG3YH_I    IANG_4  YANG4YH_I    IAO_1   YAO1YH_I    IAO_2   YAO2YH_I    IAO_3   YAO3YH_I    IAO_4   YAO4YH_I    IE_1    YE1YH_I    IE_2    YE2YH_I    IE_3    YE3YH_I    IE_4    YE4YH_I    I_1     YI1YH_I    I_2     YI2YH_I    I_3     YI3YH_I    I_4     YI4YH_I    IN_1    YIN1YH_I    IN_2    YIN2YH_I    IN_3    YIN3YH_I    IN_4    YIN4YH_I    ING_1     YING1YH_I    ING_2     YING2YH_I    ING_3     YING3YH_I    ING_4     YING4YH_I    IONG_1    YONG1YH_I    IONG_2    YONG2YH_I    IONG_3    YONG3YH_I    IONG_4    YONG4YH_I    IU_1      YOU1YH_I    IU_2      YOU2YH_I    IU_3      YOU3YH_I    IU_4      YOU4VH_V    VV_1      YU1VH_V    VV_2      YU2VH_V    VV_3      YU3VH_V    VV_4      YU4VH_V    VVAN_1    YUAN1VH_V    VVAN_2    YUAN2VH_V    VVAN_3    YUAN3VH_V    VVAN_4    YUAN4VH_V    VVE_1     YUE1VH_V    VE_4      YUE4VH_V    VVN_1     YUN1VH_V    VVN_2     YUN2VH_V    VVN_3     YUN3VH_V    VVN_4     YUN4

Claims (36)

1、一个用于识别一种语言的音节的语音识别系统,每个该语言的音节由一个声母子音节和一个韵母子音节组成,该语音识别系统包括:
一个语音辨识装置,含有一个输出,该输出用来产生表示一个声母子音节和一个韵母子音节的一个合法组合的一个合法音节信号;
一个含有一个输入和一个输出的存储装置,用来存储多个声母子音节模型和多个韵母子音节模型而且用来产生表示声母子音节和韵母子音节的模型信号;以及
一个语音决策装置,含有一个通过耦合接收一个待识别的输入信号的第一输入,一个通过耦合接收来自存储装置的模型信号的第二输入,和一个通过耦合接收来自语音辨识装置的合法音节信号的第三输入,语音决策装置处理合法音节信号以辨识声母子音节和韵母子音节的合法组合,提取相应于辨识出的声母子音节和辨识出的韵母子音节的模型信号,把模型信号与输入信号相比较,并产生一个表示该语言一个音节的信号。
2、权利要求1的系统,其中:
语音辨识装置产生一个合法音节信号,该合法音节信号表示一个伪声母子音节和一个韵母子音节的一个合法组合;
存储装置存储多个伪声母子音节模型;
以及
语音决策装置处理合法音节信号以辨识伪声母子音节和韵母子音节的合法组合,提取相应于辨识出的伪声母子音节和辨识出的韵母子音节的模型信号,把模型信号与输入信号相比较,并产生一个表示该语言一个音节的信号。
3、权利要求1的系统,其中:
语音辨识装置为声母子音节和韵母子音节的每个合法组合产生一个合法音节信号;
语音决策装置处理每个合法音节信号,对于每个合法音节信号提取相应于每个辨识出的声母子音节和辨识出的韵母子音节的模型信号,将每个提取出的模型信号与输入信号相比较,并产生一个表示该语言一个音节的信号。
4、权利要求3的系统,其中语音决策装置,通过选取与输入信号最佳匹配的模型信号,产生一个表示与输入信号最佳匹配的模型信号的信号。
5、权利要求1的语音识别系统,其中:
存储装置存储依赖于韵母子音节的一个声母子音节模型,并存储依赖于声母子音节的一个韵母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节且依赖于辨识出的韵母子音节的一个声母子音节模型信号,并且通过选取和提取匹配于辨识出的韵母子音节且依赖于辨识出的声母子音节的一个韵母子音节模型信号,来提取相应于辨识出的声母子音节和辨识出的韵母子音节的模型信号。
6、权利要求5的语音识别系统,其中:
存储装置存储依赖于韵母子音节的一个声母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节且依赖于辨识出的韵母子音节的一个声母子音节模型信号,并通过选取和提取匹配于辨识出的韵母子音节的一个韵母子音节模型信号,来提取相应于辨识出的声母子音节的模型信号,并提取相应于辨识出的韵母子音节的模型信号。
7、权利要求5的语音识别系统,其中:
存储装置存储依赖于声母子音节的一个韵母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节的一个声母子音节模型信号,并通过选取和提取依赖于辨识出的声母子音节的一个韵母子音节模型信号,来提取相应于辨识出的声母子音节的模型信号,并提取相应于辨识出的韵母子音节的模型信号。
8、权利要求5的语音识别系统,其中输入信号有一个音调且其中:
存储装置存储依赖于音节可能含有的音调的一个声母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节且依赖于音节可能含有的音调的一个声母子音节模型信号,并通过选取和提取一个韵母子音节模型信号,来提取相应于辨识出的声母子音节的模型信号,并提取相应于辨识出的韵母子音节的模型信号。
9、权利要求5的语音识别系统,其中输入信号有一个音调且其中:
存储装置存储依赖于音节可能含有的音调的一个韵母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节的一个声母子音节模型信号,并通过选取和提取依赖于音节可能含有的音调的一个韵母子音节模型信号,来提取相应于辨识出的声母子音节的模型信号,并提取相应于辨识出的韵母子音节的模型信号。
10、权利要求5的语音识别系统,其中:
存储装置存储依赖于一个韵母子音节的开头元音的一个声母子音节模型;以及
语音决策装置,通过选取和提取来自于存储装置、匹配于辨识出的声母子音节且依赖于辨识出的韵母子音节第一元音的一个声母子音节模型信号,并通过选取和提取一个韵母子音节模型信号,来提取相应于辨识出的声母子音节的模型信号,并提取相应于辨识出的韵母子音节的模型信号。
11、权利要求5的系统,其中存储装置存储隐马尔可夫模型。
12、权利要求5的系统,其中语音辨识装置是存储组成语言的合法音节的声母子音节和韵母子音节对的一个存储装置。
13、权利要求5的系统,进一步包括一个平滑装置,含有耦合接收来自于存储装置的模型信号的一个输入、且含有耦合到存储装置输入端的一个输出,用于修正模型信号来产生一个更为精确的声母子音节模型和用于修正模型信号来产生一个更为精确的韵母子音节模型和用于产生一个修正的模型信号。
14、权利要求5的系统,其中存储装置存储多个伪声母子音节模型。
15、一个用来产生更好的辨识输入信号的模型的系统,该系统包括:
一个LDM产生装置,含有耦合接收模型信号的一个输入和一个的输出,用来比较接收到的模型信号并产生一个粗化模型信号;以及
一个细化模型修正装置,含有一个耦合接收模型信号的第一输入,一个从LDM产生装置耦合接收一个粗化模型信号的第二输入,和一个输出,用来按照粗化模型信号修正模型信号。
16、权利要求15的系统,其中细化模型修正装置按照一个粗化模型信号通过平滑模型信号来修正一个模型信号。
17、权利要求15的系统,其中LDM产生装置依据模型信号的均值来决定一个粗化模型。
18、权利要求15的系统,进一步包括一个存储装置,含有一个从细化模型修正装置耦合接收一个修正的模型信号的输入和耦合到LDM产生装置输入端的一个输出,存储装置存储多个声母子音节模型和多个韵母子音节模型和用来接收并存储一个修正的模型信号。
19、权利要求18的系统,其中存储装置耦合到细化模型修正装置以便接收信号,来指导存储装置按照修正的模型信号,用修正的声母子音节和韵母子音节模型,替换声母子音节和韵母子音节模型。
20、权利要求15的系统,其中该系统修正伪声母模型。
21、一种识别一个音节输入信号的方法,含有至少一个一种语言的韵母子音节,该方法包括以下步骤:
接收输入信号;
按照该语言的合法音节,连接声母子音节和韵母子音节模型;
将连接后的模型与输入信号相比较;
确定与输入信号最为匹配的连接模型;
以及
产生一个表示其模型与输入信号最为匹配的合法音节的信号。
22、权利要求21的方法,进一步包括将伪声母子音节模型与韵母子音节模型相连接的步骤。
23、权利要求21的方法,其中韵母子音节模型被连接到依赖于韵母子音节的声母子音节模型。
24、权利要求21的方法,其中声母子音节模型被连接到依赖于声母子音节的韵母子音节模型。
25、权利要求21的方法,其中声母子音节模型依赖于语言的音调。
26、权利要求21的方法,其中韵母子音节模型依赖于语言的音调。
27、权利要求24的方法,进一步包括以下步骤:
比较一个输入信号中的声母子音节与依赖于语言音调的声母子音节模型;
比较输入信号中的韵母子音节与依赖于语言音调的韵母子音节模型;
比较输入信号中的韵母子音节与依赖于一个声母子音节的韵母子音节模型;以及
产生一个表示最佳匹配于输入信号的连接模型音调的信号。
28、一种修正子音节模型以便修正的模型更好的描述子音节的方法,该方法包括以下步骤:
接收一个待修正的第一模型的信号;
接收共同依赖于第一模型的多个信号;
决定多个模型信号的均值;
按照多个模型信号的均值平滑第一模型信号;以及
产生表示平滑后的、第一模型信号的一个信号。
29、一个用来识别音节输入信号的系统,含有至少一种语言的韵母子音节,该系统包括:
用于接收输入信号的装置;
用于按照该语言的合法音节,连接声母子音节和韵母子音节模型的装置;
用于比较连接模型与输入信号的装置;
用于确定最佳匹配于输入信号的连接模型的装置;以及
用于产生一个表示合法音节的信号的装置,该合法音节的模型最接近的匹配于输入信号。
30、权利要求29的系统,进一步包括用于将伪声母子音节模型连接到韵母子音节模型的装置。
31、权利要求29的系统,其中韵母子音节模型被连接到依赖于韵母子音节的声母子音节模型。
32、权利要求29的系统,其中声母子音节模型被连接到依赖于声母子音节的韵母子音节模型。
33、权利要求29的系统,其中声母子音节的模型依赖于语言的音调。
34、权利要求29的系统,其中韵母子音节的模型依赖于语言的音调。
35、权利要求32的系统,进一步包括:
用于比较一个输入信号中的声母子音节与依赖于语言音调的声母子音节模型的装置;
用于比较一个输入信号中的韵母子音节与依赖于语言音调的韵母子音节模型的装置;
用于比较一个输入信号中的韵母子音节与依赖于声母子音节的韵母子音节模型的装置;以及
用于产生表示最佳匹配于输入信号的连接模型音调的一个信号的装置。
36、一个用来修正一个子音节模型以便修正的模型更好的描述子音节的系统,该系统包括:
用于接收一个待修正的第一模型信号的装置;
用于接收共同依赖于第一模型的多个信号的装置;
用于决定多个模型信号的均值的装置;
用于按照多个模型信号的均值平滑第一模型信号的装置;以及
用于产生表示平滑后的、第一模型信号的一个信号的装置。
CNB961915978A 1995-01-26 1996-01-23 识别有调语言的系统和方法 Expired - Lifetime CN1143263C (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/378963 1995-01-26
US08/378,963 1995-01-26
US08/378,963 US5680510A (en) 1995-01-26 1995-01-26 System and method for generating and using context dependent sub-syllable models to recognize a tonal language

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CNB2004100040683A Division CN1277248C (zh) 1995-01-26 1996-01-23 语音识别系统

Publications (2)

Publication Number Publication Date
CN1169199A true CN1169199A (zh) 1997-12-31
CN1143263C CN1143263C (zh) 2004-03-24

Family

ID=23495258

Family Applications (2)

Application Number Title Priority Date Filing Date
CNB961915978A Expired - Lifetime CN1143263C (zh) 1995-01-26 1996-01-23 识别有调语言的系统和方法
CNB2004100040683A Expired - Lifetime CN1277248C (zh) 1995-01-26 1996-01-23 语音识别系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CNB2004100040683A Expired - Lifetime CN1277248C (zh) 1995-01-26 1996-01-23 语音识别系统

Country Status (7)

Country Link
US (1) US5680510A (zh)
KR (1) KR100391243B1 (zh)
CN (2) CN1143263C (zh)
AU (1) AU4705796A (zh)
GB (1) GB2311640B (zh)
HK (4) HK1006093A1 (zh)
WO (1) WO1996023298A2 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1655232B (zh) * 2004-02-13 2010-04-21 松下电器产业株式会社 上下文相关的汉语语音识别建模方法
CN1674092B (zh) * 2004-03-26 2010-06-09 松下电器产业株式会社 连续数字识别的声韵母跨词建模、解码方法及系统
CN1645478B (zh) * 2004-01-21 2012-03-21 微软公司 用于音调语言的分段音调建模
CN103730128A (zh) * 2012-10-13 2014-04-16 复旦大学 一种基于频谱sift特征描述子的音频片段认证方法
CN103970765A (zh) * 2013-01-29 2014-08-06 腾讯科技(深圳)有限公司 一种改错模型训练方法、装置和文本改错方法、装置
CN111046220A (zh) * 2019-04-29 2020-04-21 广东小天才科技有限公司 一种听写过程中的报读语音的重播方法及电子设备
US10643029B2 (en) 2013-01-29 2020-05-05 Tencent Technology (Shenzhen) Company Limited Model-based automatic correction of typographical errors

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067520A (en) * 1995-12-29 2000-05-23 Lee And Li System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
CN1120436C (zh) * 1997-09-19 2003-09-03 国际商业机器公司 用于识别孤立、非相关汉字的语音识别方法和系统
AU5237398A (en) * 1997-11-25 1999-06-15 Apple Computer, Inc. A method of continuous language recognition
US5995932A (en) * 1997-12-31 1999-11-30 Scientific Learning Corporation Feedback modification for accent reduction
US6256410B1 (en) 1998-07-30 2001-07-03 International Business Machines Corp. Methods and apparatus for customizing handwriting models to individual writers
US6320985B1 (en) 1998-07-31 2001-11-20 International Business Machines Corporation Apparatus and method for augmenting data in handwriting recognition system
JP2001166789A (ja) * 1999-12-10 2001-06-22 Matsushita Electric Ind Co Ltd 初頭/末尾の音素類似度ベクトルによる中国語の音声認識方法及びその装置
US6553342B1 (en) 2000-02-02 2003-04-22 Motorola, Inc. Tone based speech recognition
DE60039076D1 (de) * 2000-06-26 2008-07-10 Mitsubishi Electric Corp System zum Betreiben eines Gerätes
US6510410B1 (en) * 2000-07-28 2003-01-21 International Business Machines Corporation Method and apparatus for recognizing tone languages using pitch information
US7181391B1 (en) * 2000-09-30 2007-02-20 Intel Corporation Method, apparatus, and system for bottom-up tone integration to Chinese continuous speech recognition system
US7353173B2 (en) * 2002-07-11 2008-04-01 Sony Corporation System and method for Mandarin Chinese speech recognition using an optimized phone set
WO2004011667A2 (en) 2002-07-31 2004-02-05 Washington State University Research Foundation Geranyl diphosphate synthase molecules, and nucleic acid molecules encoding same
US7353172B2 (en) * 2003-03-24 2008-04-01 Sony Corporation System and method for cantonese speech recognition using an optimized phone set
US7353174B2 (en) * 2003-03-31 2008-04-01 Sony Corporation System and method for effectively implementing a Mandarin Chinese speech recognition dictionary
US7970613B2 (en) 2005-11-12 2011-06-28 Sony Computer Entertainment Inc. Method and system for Gaussian probability data bit reduction and computation
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
ATE466361T1 (de) * 2006-08-11 2010-05-15 Harman Becker Automotive Sys Spracherkennung mittels eines statistischen sprachmodells unter verwendung von quadratwurzelglättung
US20080120108A1 (en) * 2006-11-16 2008-05-22 Frank Kao-Ping Soong Multi-space distribution for pattern recognition based on mixed continuous and discrete observations
US8244534B2 (en) * 2007-08-20 2012-08-14 Microsoft Corporation HMM-based bilingual (Mandarin-English) TTS techniques
US8442829B2 (en) 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8788256B2 (en) 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US9153235B2 (en) 2012-04-09 2015-10-06 Sony Computer Entertainment Inc. Text dependent speaker recognition with long-term feature based on functional data analysis
US9626354B2 (en) * 2014-01-21 2017-04-18 Lenovo (Singapore) Pte. Ltd. Systems and methods for using tone indicator in text recognition
US9946704B2 (en) 2014-07-18 2018-04-17 Lenovo (Singapore) Pte. Ltd. Tone mark based text suggestions for chinese or japanese characters or words
RU2632137C2 (ru) * 2015-06-30 2017-10-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер транскрипции лексической единицы из первого алфавита во второй алфавит
CN109410918B (zh) * 2018-10-15 2020-01-24 百度在线网络技术(北京)有限公司 用于获取信息的方法及装置
US11554322B2 (en) 2019-04-26 2023-01-17 Sony Interactive Entertainment LLC Game controller with touchpad input
US11048356B2 (en) * 2019-07-31 2021-06-29 Sony Interactive Entertainment LLC Microphone on controller with touchpad to take in audio swipe feature data
CN113096650B (zh) * 2021-03-03 2023-12-08 河海大学 一种基于先验概率的声学解码方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831551A (en) * 1983-01-28 1989-05-16 Texas Instruments Incorporated Speaker-dependent connected speech word recognizer
US5164900A (en) * 1983-11-14 1992-11-17 Colman Bernath Method and device for phonetically encoding Chinese textual data for data processing entry
US5212638A (en) * 1983-11-14 1993-05-18 Colman Bernath Alphabetic keyboard arrangement for typing Mandarin Chinese phonetic data
JPS62235998A (ja) * 1986-04-05 1987-10-16 シャープ株式会社 音節識別方式
US4803729A (en) * 1987-04-03 1989-02-07 Dragon Systems, Inc. Speech recognition method
US5027408A (en) * 1987-04-09 1991-06-25 Kroeker John P Speech-recognition circuitry employing phoneme estimation
JP2739945B2 (ja) * 1987-12-24 1998-04-15 株式会社東芝 音声認識方法
US5220639A (en) * 1989-12-01 1993-06-15 National Science Council Mandarin speech input method for Chinese computers and a mandarin speech recognition machine
EP0438662A2 (en) * 1990-01-23 1991-07-31 International Business Machines Corporation Apparatus and method of grouping utterances of a phoneme into context-de-pendent categories based on sound-similarity for automatic speech recognition
US5450523A (en) * 1990-11-15 1995-09-12 Matsushita Electric Industrial Co., Ltd. Training module for estimating mixture Gaussian densities for speech unit models in speech recognition systems
CA2088080C (en) * 1992-04-02 1997-10-07 Enrico Luigi Bocchieri Automatic speech recognizer
US5473728A (en) * 1993-02-24 1995-12-05 The United States Of America As Represented By The Secretary Of The Navy Training of homoscedastic hidden Markov models for automatic speech recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1645478B (zh) * 2004-01-21 2012-03-21 微软公司 用于音调语言的分段音调建模
CN1655232B (zh) * 2004-02-13 2010-04-21 松下电器产业株式会社 上下文相关的汉语语音识别建模方法
CN1674092B (zh) * 2004-03-26 2010-06-09 松下电器产业株式会社 连续数字识别的声韵母跨词建模、解码方法及系统
CN103730128A (zh) * 2012-10-13 2014-04-16 复旦大学 一种基于频谱sift特征描述子的音频片段认证方法
CN103970765A (zh) * 2013-01-29 2014-08-06 腾讯科技(深圳)有限公司 一种改错模型训练方法、装置和文本改错方法、装置
US10643029B2 (en) 2013-01-29 2020-05-05 Tencent Technology (Shenzhen) Company Limited Model-based automatic correction of typographical errors
CN111046220A (zh) * 2019-04-29 2020-04-21 广东小天才科技有限公司 一种听写过程中的报读语音的重播方法及电子设备

Also Published As

Publication number Publication date
AU4705796A (en) 1996-08-14
GB9712532D0 (en) 1997-08-20
GB2311640B (en) 1999-04-21
WO1996023298A3 (en) 1996-12-19
HK1006093A1 (en) 1999-02-12
KR19980701676A (ko) 1998-06-25
CN1277248C (zh) 2006-09-27
HK1019258A1 (en) 2000-01-28
KR100391243B1 (ko) 2003-10-17
WO1996023298A2 (en) 1996-08-01
US5680510A (en) 1997-10-21
CN1143263C (zh) 2004-03-24
CN1542735A (zh) 2004-11-03
HK1019259A1 (en) 2000-01-28
HK1070973A1 (en) 2005-06-30
GB2311640A (en) 1997-10-01

Similar Documents

Publication Publication Date Title
CN1277248C (zh) 语音识别系统
CN1112669C (zh) 采用连续密度隐藏式马尔克夫模型的语音识别方法和系统
CN110534095B (zh) 语音识别方法、装置、设备以及计算机可读存储介质
US10074363B2 (en) Method and apparatus for keyword speech recognition
CN1296886C (zh) 语音识别系统和方法
JP5208352B2 (ja) 声調言語用分節声調モデリング
Liu et al. Two efficient lattice rescoring methods using recurrent neural network language models
US20060009965A1 (en) Method and apparatus for distribution-based language model adaptation
US20060184365A1 (en) Word-specific acoustic models in a speech recognition system
CN1667699A (zh) 为字母-声音转换生成有互信息标准的大文法音素单元
WO2004034378A1 (ja) 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
CN111210807B (zh) 语音识别模型训练方法、系统、移动终端及存储介质
CN1187693C (zh) 以自底向上方式将声调集成到汉语连续语音识别系统中的方法和系统
CN1320902A (zh) 语音识别装置、语音识别方法和记录介质
CN1338095A (zh) 音调跟踪装置和方法
CN1571013A (zh) 从文本中预测误词率的方法和设备
CN114550718A (zh) 热词语音识别方法、装置、设备与计算机可读存储介质
JP5257680B2 (ja) 音声認識装置
CN1159701C (zh) 执行句法置换规则的语音识别装置
CN1455388A (zh) 语音识别系统及用于语音识别系统的特征矢量集的压缩方法
EP3718107B1 (en) Speech signal processing and evaluation
JP2965529B2 (ja) 音声認識装置
JP5344396B2 (ja) 言語学習装置、言語学習プログラム及び言語学習方法
JP3440840B2 (ja) 音声認識方法及びその装置
Gorniak et al. Augmenting user interfaces with adaptive speech commands

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1006093

Country of ref document: HK

C56 Change in the name or address of the patentee

Owner name: APPLE

Free format text: FORMER NAME OR ADDRESS: APPLE COMPUTER, INC.

CP03 Change of name, title or address

Address after: American California

Patentee after: Apple Computer, Inc.

Address before: American California

Patentee before: Apple Computer, Inc.

CX01 Expiry of patent term

Granted publication date: 20040324

EXPY Termination of patent right or utility model