CN101310242A - 用于检测和分类面部肌肉运动的方法和系统 - Google Patents
用于检测和分类面部肌肉运动的方法和系统 Download PDFInfo
- Publication number
- CN101310242A CN101310242A CNA2006800415840A CN200680041584A CN101310242A CN 101310242 A CN101310242 A CN 101310242A CN A2006800415840 A CNA2006800415840 A CN A2006800415840A CN 200680041584 A CN200680041584 A CN 200680041584A CN 101310242 A CN101310242 A CN 101310242A
- Authority
- CN
- China
- Prior art keywords
- bio signal
- signal
- facial muscle
- muscle movements
- bio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7239—Details of waveform analysis using differentiation including higher order derivatives
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/726—Details of waveform analysis characterised by using transforms using Wavelet transforms
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Abstract
一种检测和分类面部肌肉运动的方法,包括步骤:从至少一个生物信号检测器接收生物信号;和把至少一种面部肌肉运动检测算法应用到受预定类型的面部肌肉运动影响的一部分生物信号中,以检测该预定类型的面部肌肉运动。
Description
技术领域
本发明一般来讲涉及以人为对象的面部肌肉运动的检测和分类,例如面部表情或者其他类型的肌肉活动。本发明适合使用在电子娱乐或者其他平台之中,在其中脑电图(EEG)数据被收集和被分析,以确定对象的面部表情、以便为该平台提供控制信号,并且使用相关的示例性的而非限制性的应用将会更方便地描述本发明。
技术背景
面部表情长期以来是人和人交流的最重要的方面之一。人类已经习惯自觉和不自觉地用面部表情表示情感和态度。进一步而言,我们在理解和解释其他人的面部表情方面已经变得非常熟练。面部表情形成了我们日常生活、日常交流和互动的非常重要的部分。
随着技术的进步,我们更多的交流通过机器被传导。人们现在聚集在虚拟的聊天室和别人讨论事情。文本消息传递正变得更流行,导致新的正交系统被开发以处理这种无人类属性的世界。目前,面部表情还没有被用在人机交流的界面中。与机器的互动被限制于使用繁琐的输入装置,例如键盘和鼠标。这把我们的交流限制于仅是预先考虑好的和自觉的行为。
因此,需要提供简化人机交流的技术。而且期望这种技术稳健、强大和适用于大量平台和环境。也期望这种技术优化自然的人和人互动的技术的使用,使得人机界面对人类使用者来讲尽可能自然。
发明内容
带着这种想法,本发明的一个方面提供了一种检测和分类面部肌肉运动的方法,包括步骤:
从至少一个生物信号检测器接收生物信号;和
把至少一种面部肌肉运动检测算法应用到受预定的面部肌肉运动类型影响的一部分生物信号中,以检测该预定类型的面部肌肉运动。
把至少一种面部肌肉运动检测算法应用到生物信号的步骤可以包括:
将该生物信号部分与定义了预定面部肌肉运动类型的一个或多于一个独特的(distinctive)信号特征的签名进行比较。
在本发明的第一个实施例中,把至少一种面部肌肉运动检测算法应用到生物信号的步骤可以包括:
直接比较来自一个或者多个预定的生物信号检测器的生物信号和该签名。
在本发明的另一个实施例中,把至少一种面部肌肉运动检测算法应用到生物信号的步骤可以包括:
在一个或者多个预定的分量矢量上投影来自多个生物信号检测器的生物信号;和
比较一个或者多个分量矢量上的投影和该签名。
预定的分量矢量通过对先前收集的生物信号应用第一分量分析而确定,该先前收集的生物信号产生在对应于该第一签名的类型的面部肌肉运动期间。被应用于先前收集的生物信号的第一分量分析可以是独立分量分析(ICA)。或者,被应用于先前收集的生物信号的第一分量分析可以是主分量分析(PCA)。在这个实施例中,该方法可以还包括步骤:
应用第二分量分析到被检测的生物信号;和
利用第二分量分析的结果以在生物信号检测期间更新一个或者多个预定的分量矢量。
第二分量分析可以是主分量分析(PCA)。
在本发明的另一个实施例中,把至少一种面部肌肉运动检测算法应用到生物信号的步骤可以包括:
应用期望的变换到生物信号;和
比较期望的变换的结果和该签名。
该期望的变换可以从付里叶变换、小波变换或者其他信号变换方法中的任何一个或多个中选择。
把至少一种面部肌肉运动检测算法应用到生物信号的步骤可以还包括步骤:把来自预定面部肌肉运动类型的生物信号和生物信号中的一个或者多个噪声源分离开。
噪声源可以包括电磁干扰(EMI)、不是来自预定的面部肌肉运动类型的生物信号和其他肌肉伪信号(arcefact)中的任何一个或者多个。
把一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤可以包括,将来自一对或者多对生物信号检测器的生物信号的和或者差与该签名相比较。
把一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤还包括,比较来自一对或者多对生物信号检测器的每一对的生物信号和该签名。
比较步骤包括:
求来自一对或者多对生物信号检测器的每一对的生物信号中的一个或者多于一个的导数,以及来自一对或者多对生物信号检测器的生物信号的和或者差。
比较步骤还可以包括:
将来自一对或者多对生物信号检测器的每一对的生物信号中的一个或者多于一个的梯度和幅度中的一个或者两个与来自一对或者多对生物信号检测器的生物信号的和或者差相比较;和
确定梯度和幅度中的一个或者两个分别在什么时候超过了预定的梯度和幅度的阈值。
比较步骤还可以包括:
计算来自一对或者多对生物信号检测器的每一对的生物信号之间的相关性;和
确定该相关性在什么时候超过预定的相关性阈值。
把一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤可以包括,比较来自一个或者多个预定生物信号检测器的生物信号的功率和该签名。
比较步骤可以包括,计算来自一对或者多对生物信号检测器的生物信号的功率与该签名的和;和
确定该和是否超过了指示第一面部肌肉运动类型的预定阈值。
比较步骤可以包括计算来自第一组生物信号检测器的生物信号的功率和来自第二组生物信号检测器的生物信号的功率的比值;和
确定该比值是否超过了指示第二面部肌肉运动类型的预定阈值。
在本发明的一个或者多个实施例中,生物信号可以包括脑电图(EEG)信号,眼电图(EOG)信号和肌电图(EMG)信号中的任何一个或者多个。
该方法还可以包括步骤:
对于在电子娱乐应用或其他应用中的输入,产生代表被检测面部肌肉运动类型的输出信号。
本发明的另外一个方面,提供了一种用于检测和分类面部肌肉运动的设备,包括:
处理器和使处理器实施上面所述方法的相关联的存储装置。
本发明还有另外一个方面,提供了一种计算机程序产品,可有形地存储在机器可读的介质上,该产品包括使处理器实施上面所述方法的指令。
本发明还有另外一个方面,提供了一种包括使处理器实施上面所述方法的指令的计算机程序产品。
附图说明
参考下面的描述、附加的权利要求书和相关附图,本发明的这些和其他特征、方面与优势将会被更好的理解,它们描述了该装置的视图和实施例,和本发明的方法的特定实施例中的一些步骤,其中:
图1是根据本发明的用于检测和分类面部肌肉运动的设备的示意图。
图2是阐明了形成被用于图1所示设备的头戴式装置(head set)的一部分的头皮电极(scale electrode)位置的示意图。
图3是阐明了被图1所示设备执行的广义功能步骤的流程图。
图4和图5表示的是在预定面部运动期间来自图2所示的被选择电极的示例性信号。
图6表示的是在大量面部运动期间来自图2所示头皮电极的信号。
图7是阐明了在签名产生过程中执行的步骤的流程图,所述签名在检测和分类面部肌肉运动期间被用于图1的设备中,定义了预定面部肌肉运动类型的独特的信号特征。
图8是在至少一个操作模式下,把来自图2所示传感器的信号分解成被图1所示设备执行的预定分量的概念表示。
图9是在一系列眨眼期间来自图2所示传感器中的一个传感器的信号表示。
图10是阐明了在至少一个操作模式下,在生物信号检测和分类期间和之前由图1所示设备执行的步骤的流程图。
图11是示明了在一个示例性的眨眼期间,存在于从图2所示传感器获得的生物信号之中的眨眼分量矢量的示意图。
图12是用于将面部肌肉运动检测和分类为眨眼的一个示例算法的流程图。
图13所示的是从图2所示的示例性传感器检测的生物信号和在该生物信号上执行的后续分析的表示。
图14表示的是用于将面部肌肉运动检测和分类为眨眼的另一个示例算法的流程图。
图15是用于将面部肌肉运动检测和分类为微笑和皱眉的一个示例算法的流程图;和
图16是在一个微笑期间来自图2所示传感器的信号的表示。
具体实施方式
现在参见图1,这里大致图示了一个用于检测和分类面部肌肉运动的设备100。该设备100包括一个生物信号检测器的头戴式装置102,能检测来自对象的各种各样的生物信号,具体来讲是由身体产生的电子信号,例如脑电图(EEG)信号,眼电图(EOG)信号,肌电图(EMG)信号或者类似的信号。设备100也可以包括能检测其他生理信号、例如皮肤电导的生物信号检测器。在图示中的典型实施例中,头戴式装置102包括一系列用于从使用者那里获取EEG信号的头皮电极。该头皮电极可以直接接触头皮,或者是不需要直接放置在头皮上的非接触类型。不像提供高分辨率的3-D脑扫描(例如MRI或者CAT扫描)的系统,该头戴式装置一般来讲是轻便的和不受约束的。
被头皮传感器系列检测到的头皮上的电波动主要归因于处于头骨或者在头骨附近的脑组织。其来源是大脑皮质的电子活动,该大脑皮质的大部分位于头皮下面的大脑的外表面上。头皮电极拾取由大脑自然地产生的电子信号,并且可以观测穿越大脑表面的电子脉冲。尽管在这个典型实施例中,头戴式装置102包括几个头皮电极,在其他的实施例中,仅有一个或者更多的头皮电极(例如16个电极)可能被用于头戴式装置中。
传统的EEG分析仅仅专注于来自大脑的信号。其主要应用是:探索性的研究,其中不同的节律(α波,β波等等)被识别;病理学检测——痴呆的发病或物理损伤能被检测到;自我完善装置——利用这种装置,生物反馈被用来辅助各种不同形式的思考。传统的EEG分析认为来自例如眨眼的面部肌肉运动的信号是伪信号(artefacts),其掩盖了期望要被分析的真正的EEG信号。各种不同的程序和操作被施行以把这些伪信号从被选择的EEG信号中滤除出去。
申请人已经开发了一种技术,该技术使得能够从头皮电极感测和采集电子信号,并能运用信号处理技术来分析这些信号,以检测和分类人类面部表情,例如眨眼(blink)、眨一只眼(wink)、皱眉、微笑、大笑、谈话等等。这样的分析结果能被用于各种其他应用之中,包括但不限于电子娱乐应用、计算机程序和模拟器。
被头戴式装置102的电极检测到的每一个信号通过一个传感器接口104(其可以包括一个放大器以加强信号强度和一个滤波器以消除噪声)被馈送,然后再被一个模拟数字转换器106数字化。被每一个头皮传感器捕获的信号的数字化样本在设备100操作的过程中被储存进一个数字缓冲器108以用于后续处理。
设备100还包括处理系统109,其包括数字信号处理器112、协处理装置110和相关的存储装置以储存一系列指令(或者名为计算机程序或计算机控制逻辑),以使处理系统109执行预期功能步骤。很明显,所述存储器包括一系列指令,该指令定义至少一种要被数字信号处理器112执行的算法114,以检测和分类预定的面部肌肉运动的类型。在检测到面部肌肉运动的每一个预定类型后,对应的控制信号在这个典型的实施例中被传输到输入/输出接口116,以经过一个无线传输装置118传输到平台120以被电子娱乐应用、程序、模仿器或者类似物作为控制输入使用。
在一个实施例中,算法被实现在软件之中,指令系列被存储在处理系统的存储器中,例如处理系统109的存储器之中。指令系列使得处理系统109像此处描述的那样执行本发明的功能。在装载进存储器之前,指令能被有形地包含在机器可读的存储装置之中,例如计算机盘或存储卡,或者传播信号中。在另一个的实施例中,算法主要被实现在硬件中,例如使用硬件元件,比如专用集成电路(ASIC)。硬件状态机器的实现以执行此处所描述的功能,对于在相关领域里技术人员来讲将非常清楚。在另外的实施例中,算法被使用软件和硬件的组合实现。
设备100的其他实现也是可能的。取代数字信号处理器,FPGA(现场可编程门阵列)可被使用。不是由分离的数字信号处理器和协处理器来完成处理功能,而是由一个单独的处理器执行处理功能。缓冲器108可以被去掉或者被一个复用器(MUX)所取代,数据被直接存储在处理系统的存储器中。MUX能被放置在A/D转换器之前,使得仅需要一个单独的A/D转换器。设备100和平台120之间的连接可以是有线连接而不是无线连接。
尽管在图1中被阐明的设备100在一个单独的装置(其处于平台的外面)中带有所有的处理功能,但是其他的实现是可能的。例如,设备可以包括头戴式装置组件(assembly),其包括:头戴式装置,MUX,A/D转换器(MUX之前或者之后),无线传输装置,供电的电池,和一个控制电池使用、从MUX或A/D转换器向无线芯片发送数据等等的微控制器。该设备也能包括一个单独的处理器单元,该单独的处理器单元包括无线接收器,以接收来自头戴式装置组件的数据;和处理系统,例如数字信号处理器和协处理器。该处理器单元能通过有线或者无线连接被连接到平台。作为另一个例子,设备能包括一个如上描述的头戴式装置组件,平台能包括一个无线接收器以接收来自头戴式装置组件的数据,专用于面部肌肉运动的检测的数字信号处理器能被直接集成进平台里。作为另外一个例子,设备能包括一个如上描述的头戴式装置组件,平台能包括一个无线接收器以接收来自头戴式装置组件的数据,面部肌肉运动检测算法被同一处理器在平台中执行,所述的同一处理器(例如通用数字处理器)执行应用、程序、模仿器以及类似物。
图2阐明的是构成头戴式装置102的一部分的头皮电极的定位系统200的一个例子。图2所示的电极布置系统200被称为“10-20”系统,并且被建立在电极的定位和大脑皮质之下区域之间的关系的基础之上。电极布置系统200上的每一个点表明一个可能的头皮电极位置。每一个位点包括一个字母以识别波瓣(lobe),和一个数字或者其他字母以识别大脑半球位置。字母F、T、C、P、O代表前部(Frontal)、颞部(Temporal)、中心(Central)、侧部(Parietal)、枕部(Occipital)。偶数表示大脑右半球,奇数表示大脑左半球。字母Z表示中线位置的电极。中线是一条线,其沿着头皮在子午面上以鼻根点开始,在头部后面的枕外隆凸点结束。“10”和“20”表示中线划分的百分率。中线被划分成7个位置,它们是鼻根点、Fpz、Fz、Cz、Pz、Oz和枕外隆凸点,相邻位置之间的间隔角分别是中线长度的10%、20%、20%、20%、20%和10%。
头戴式装置102(包括根据系统200定位的头皮电极),被放置在对象的头上以检测EEG信号。就像图3所示,在步骤300,EEG信号被神经生理学信号采集装置获得,然后在步骤302用模数转换器106被转换到数字域。在步骤304,来自每一个传感器的一系列的数字化信号然后被存储进数据缓冲器108。在步骤306,一个或者更多的面部肌肉运动检测算法被应用以检测和分类不同的面部肌肉运动,包括面部表情或者其他肌肉运动。每一个算法产生一个结果来表示对象的面部表情。在步骤308,这些结果被传递到输出模块116,在这里它们被各种不同的应用所使用。
在传统的EEG研究中,许多来自眨眼和其他面部肌肉运动的信号被认为是伪信号,其掩盖了需要分析的真正的EEG信号。图4所示的是,在一系列眨眼动作期间,来自电极Fp1或者Fp2(在图2中所示的电极定位系统200中所看到的)的信号的表示400。相似地,图5所示的是来自电极T7或者T8(来源于对象的一系列微笑动作)的信号的表示500。
图6所示的是,当对象执行各种各样的眼部运动的时候,来自在头戴式装置102中的每一个电极的信号的表示600。上、下、左、右的眼部运动的影响(impact)能从信号表示的划圆圈的部分被观察到。设备100隔离这些波动,然后应用一个或多个算法以对面部肌肉运动(其负责产生这些波动)划分类别,而不是认为来自面部肌肉运动的对EEG信号的影响是污染了EEG信号质量的伪信号。设备100向生物信号的一部分应用至少一种面部肌肉运动检测算法114,以检测预定类型的面部肌肉运动,其中所讲的生物信号由受预定类型的面部肌肉运动影响的头戴式装置102获取。为了做到这些,定义了预定面部肌肉运动类型的一个或多个独特的特征的数学签名被存储在存储装置112中。受预定类型的面部肌肉运动影响的生物信号的相关部分然后和该数学签名作比较。
为了给每一种面部肌肉运动产生所述的数学签名,就像图7中所示的一样,在步骤700中,刺激(stimuli)被开发以得出该特殊的面部表情。一般来讲,该刺激采取声像表示的形式或者一组指令的形式。在步骤702中,该组刺激被测试直到在被开发的刺激和所得到的期望面部肌肉运动之间得到高度关联。在步骤704,一旦一组有效的刺激被开发,EEG信号记录就会生成,其包含许多期望的面部肌肉运动的例子。理想地,这些面部肌肉运动应该尽可能自然。
一旦EEG信号记录被收集,信号处理操作随后在步骤706中被执行,以识别每种预定面部肌肉运动类型的一个或多个独特的信号特征。在每一种EEG信号记录中识别出这些独特的信号特征,使得在一个对象中的面部肌肉运动的类别在步骤708中被划分,代表被检测的面部肌肉运动类型的输出信号在步骤710中被输出。在步骤712中,输出信号的测试和验证使一个鲁棒的数据集被确定。
在某些实施例中,为每一个对象开发一个数学签名可能是必需的。在本发明的其他实施例中,可以为每一种类型的面部肌肉运动开发通用的数学签名(例如用有限数量的对象),然后被存储进数字信号处理器112的存储器中,不需要像前面所提到的步骤一样被每一个对象实施。
在其中一个操作模式下,受预定类型的面部肌肉运动所影响的生物信号部分主要被发现存在于来自有限数量的头皮电极的信号中。例如,眼部运动和眨眼能通过使用眼睛附近的仅两个电极被检测,例如图2中所示的Fp1和Fp2通道。在这种情况下,可以将来自这些电极的信号与定义眨眼或者其他预定面部肌肉运动类型的独特的信号特征的数学签名直接进行比较。
也可以把来自一个或者更多电极的信号组合在一起,然后再把该被组合生物信号和定义了预定面部肌肉运动类型的独特的信号特征的一个或者多个数学签名进行比较。在信号组合操作之前,权重能被应用于每一个信号以提高面部肌肉运动检测和分类的精确度。
在其他操作模式下,设备100把头皮电极信号分解成一系列分量,然后将来自头皮电极的生物信号在一个或更多的预定的分量矢量上的投影与定义了每一种类型的面部肌肉运动的信号特征的数学签名进行比较。
在这方面,独立分量分析(ICA)已经被发现对于定义横越整个头皮的势能函数(potential function)的特征形式非常有用。独立分量分析用一系列对比函数在输出之间最大化统计学独立性的程度。像图8中所示的一样,在ICA中,输入矩阵X的行代表在不同的电极上记录的来自头戴式装置102中的生物信号的数据样本,而列是在不同的时间点上记录的测量结果。独立分量分析发现一个“分离”(unmixing)矩阵W,其分解或者线性地把多通道头皮数据分离成临时独立的和特别固定的分量的总和。输出数据矩阵U=WX的行是激活ICA分量的时间进程。逆矩阵W-1的列给出来自头皮电极的每一个信号在各自的分量矢量上的相对的投影强度。这些头皮权重给出每一个分量矢量的头皮拓扑图。
另一种用于把生物信号分解为分量的技术是主要分量分析(PCA),其确保输出分量是不相关的。在本发明的各种不同的实施例之中,独立分量分析和主要分量分析中的任意一种或者这两者能被使用以检测和分类面部肌肉运动。
在其他操作模式之中,设备100可以把期望的付里叶变换运用到来自头皮电极的生物信号中。该变换也可以是小波变换方式或者任何适合的信号变换方式。一种或者更多不同的信号变换方法的组合也可以被使用。然后,受预定类型面部肌肉运动影响的部分生物信号可以用一种神经网络被识别出来。
上面描述的每一种用于检测和分类面部肌肉运动的技术可以被合并到面部肌肉运动检测算法中,其被存储进数字信号处理器112的存储区并且被数字信号处理器112执行。一旦一种特殊的面部肌肉运动检测算法被完全开发,该算法可以作为一段实时软件程序被实施,或者被传输到数字信号处理器或其他合适的环境。
作为一个能被设备100检测和分类的面部肌肉运动类型的例子,用于检测眨眼的面部表情算法现在将要被描述。我们可以这样理解,被描述的关于算法的通用原则也可以被应用于其他面部肌肉运动类型的检测和分类,例如眨眼和眼球运动。眨眼存在于所有的前部的电极中,但是在前面的Fp1和Fp2两个通道中特征最突出。图9所示的是在3次典型的眨眼期间,在头皮电极Fp1上记录的生物信号的表示900。从来自前面的通道Fp1的生物信号的902、904和906信号部分,我们可以看出,3次眨眼中的每一次对生物信号有明显的影响。在这个例子中,来自前面的电极Fp1和Fp2的生物信号在预定分量矢量上的投影被用来将生物信号中的波动检测和分类为眨眼。
在本发明的一个实施例中,预定分量矢量从以前从大量对象和/或者在大量不同的会话中被收集的数据中被识别出来。像图10中所示的一样,在步骤1000,当期望的面部肌肉运动被对象产生的时候,来自大量不同对象和/或者在大量不同的会话中的EEG数据被记录下来。在步骤1002,在被记录的EEG数据上执行独立分量分析;在步骤1004,产生于相关面部肌肉运动的EEG信号中的波动被投影在其上面的分量矢量被确定。然后,被使用在后续数据记录和分析中的相关分量矢量依面部肌肉运动的类型被记录在存储装置112中。在这种情况下,面部肌肉运动的三种典型类型能被划分,它们是步骤1006中的垂直眼部运动、步骤1008中的水平眼部运动和步骤1010中的眨眼。
独立分量分析是一种很消耗计算时间的活动,并且在许多情况下在某些应用、例如实时应用中是不适当的。尽管独立分量分析能被用来产生平均分量矢量以用于各种不同面部肌肉运动类型的检测和分类,而不同电极的信号的平衡随着不同的会话和使用者轻微地不同。
因此,在实时数据检测和分类期间,利用以前搜集的数据的独立分量分析所定义的平均分量矢量可能不是最佳的。在设备100实时操作期间,可以在实时数据上执行主要分量分析,并且其结果分量矢量能被使用以更新被独立分量分析贯穿每一个会话产生的分量矢量。用这种方式,得到的面部肌肉运动检测算法相对于电极移动和电极接触强度变化可以是鲁棒的。
如在步骤1012中可以看到的,在面部肌肉运动检测算法114中,以前被收集的数据在矢量分量上的投影最初被用作参考。但是,当数据在步骤1014被收集和被存储进数据缓冲器108中,在步骤1016在被存储数据上实施主要分量分析,并且产生于步骤1018的分析结果然后被利用以更新在离线独立分量分析期间开发的分量矢量。
如前所述,分量矢量能被利用以使正确的权重被应用到来自每一个相关电极的信号的贡献。眨眼分量矢量的例子被表示在图11中的矢量图1100中。从这个矢量图,我们可以看出对该分量的最大贡献实际上是来自两个前面的电极Fp1和Fp2。但是,很明显眨眼并不对称。在这种情况下,电极Fp2周围的电位比电极Fp1周围的大。这种不同可能是由于很多原因,例如肌肉不对称、电极不是对称地分布在对象头部或者接触头皮的电极阻抗不同。这个图阐释的是期望在每一个会话期间优化分量矢量,例如通过应用在图10中示出的步骤。
图12所示的是一个被用于检测眨眼的面部肌肉运动检测算法1200的例子。该算法1200可能被应用于激活分量矢量,或者可能被应用于来自单个头皮电极的信号或是来自多于一个的头皮电极的信号的组合。在一个实施例中,在步骤1202,EEG信号在和眨眼相关的分量矢量上的投影最初被传递到一个低通滤波器。在步骤1204,一阶导数运算然后在信号上执行。简短而言,函数f关于x的无穷小改变的一阶导数被定义为: 对于单一的眨眼的处理结果表示在图13中。最初分量矢量标为1300,而产生于低通滤波器和一阶导数运算的信号分别标为1302和1304。
特别引人注意的是一阶导数信号中的零交叉点,其被分为两类:正零交叉点和负零交叉点。零交叉点的符号(即或正或负)表示,信号在穿过轴之后是增加还是减少。对于每一次眨眼,有两个正零交叉点,分别在图13中标为1306和1308。这两个正零交叉点定义了眨眼的边界条件。负零交叉点1310定义了眨眼的峰值。因此,在步骤1206,算法1200确定在存储于数据缓冲器108中的数字化数据中是否出现零交叉点。如果情况如此,在步骤1208确定交叉类型是正零交叉还是负零交叉。如果检测到负零交叉,对应信号的峰值幅度在步骤1210被检查,以校验信号幅度中的这个过渡性的上升是否来自真正的眨眼。如果检测到正零交叉点,如果在步骤1212确定没有先前的负零交叉点被存储在序列中(其对应信号幅度满足峰值条件),算法在步骤1214把这个信息存储进状态队列。如果有先前的负零交叉点被存储在状态队列里,在步骤1212作出存在眨眼的断言。如果被发现的负零交叉点不能满足峰值条件或者眨眼检测断言被做出,所述算法复位。
因此,一旦零交叉点被识别,算法就校验是否存在一个被夹在两个正零交叉点之间的负零交叉点;以及眨眼峰值是否通过幅度阈值。幅度阈值的默认值在开始的时候被作出,但为了增加算法的精确度,在步骤1218,阈值幅度在个体眨眼峰值的强度的基础上可选择性地被调整。
在这个例子中,眨眼签名定义了代表眨眼的独特的信号特征,也即在被滤波信号的一阶导数中被夹在两个正零交叉点之间的负零交叉点,和大于被滤波信号中的预定阈值的信号幅度。在面部肌肉运动检测和分类的过程中,通过改变形成签名的独特的信号特征的部分的阈值,该签名被有选择性地更新。在其他实施例中,数字签名可以定义其他幅度或信号特征,其超出一个或更多预定的阈值。在面部肌肉运动检测和分类的过程中,通过改变一个或更多这种阈值,该签名可以被更新。更一般地讲,在面部肌肉运动检测和分类的过程中,预定面部肌肉运动类型的任何一个或者多个独特的信号特征(其形成数字签名部分)可以被更新,以提高被设备100实现的面部肌肉运动检测算法的可行性和精确度。
被利用来检测和分类各种不同面部表情的特定通道(channel)根据所考虑的特殊的面部表情可能不同。除了利用来自个别的通道的信号或者激活分量矢量,通道对的和或者差可以被用在面部肌肉运动检测算法中。图14所示的是被用来检测眨眼的面部肌肉运动检测算法1400的另一个例子。该算法1400涉及检查通道对之间的信号的相关性,也涉及检查来自通道对Fp1和Fp2中的每一个的信号的幅度和梯度,也涉及检查来自该对通道的生物信号的和。在这个示例性的算法中,在步骤1402,来自在图2中示出的传感器的生物信号以256Hz的速率被采样,导致32个通道中的每一个每秒钟产生256个样本。在步骤1404,分别对应来自传感器Fp1和Fp2的生物信号的通道1和通道30针对一个数据窗口被提取,其对应于1/32秒、包含8个样本。在步骤1406,来自通道1和通道30的样本被相加。
在步骤1408,三阶无限冲击响应(IIR)低通滤波器以10Hz被应用,同时在步骤1410,一阶IIR高通滤波器以0.125Hz被应用。
在步骤1412,在来自通道Fp1和Fp2的生物信号的总和上执行一阶导数运算。类似于前面提到的算法1200,眨眼峰值被一阶导数的负零交叉点跟踪。眨眼信号峰值的上升和下降分别被一阶导数的在该负零交叉点前面和后面的正零交叉点界定。一个评价被做出,其关于:在步骤1414,对于由正零交叉和负零交叉界定的数据窗口的峰值的上升(或相反为峰值的下降),通道Fp1和Fp2的被滤波信号之间的相关性是否超过了第一预定阈值;在步骤1416,来自单独的通道Fp1和Fp2其中之一的眨眼峰值信号的上升或者下降的较小幅度是否超出了第二预定阈值;在步骤1418,由来自通道Fp1和Fp2的总和信号的一阶导数的峰值和槽谷确定的最大梯度是否超出了第三预定阈值。如果这三个值不管在什么情况下都在它们各自的阈值之上,则在步骤1420,睁眼或者闭眼事件被检测到(取决于最大梯度是正还是负)。
类似的算法能被用来识别眨一只眼、眼球运动或者其他相关的面部肌肉表情。其他算法可能使用信号相关性、幅度位移和信号梯度测量的不同的组合,以及评价与使用在图14所示算法中不同的一个或者更多的不同的通道对的生物信号的和与差。
被用来检测和分类面部肌肉运动的其他算法依赖于:确定特殊通道上的信号功率、一对或者多对信号通道上的信号功率的总和、一对或者多对通道之间的信号功率的差和/或者一个或者多个通道或一对或者多对通道上的信号功率和一个或多个其他通道或一对或者多对其他通道的信号功率的比。通过使用图15所示的示例算法1500,微笑或者皱眉能被检测到。该示例算法确定了一个尺度,其通过使用特殊通道上的信号功率、特殊通道上的生物信号的总和的信号功率和信号通道对上的信号功率的总和的比被计算出来。在步骤1502,来自图2所示的每一个检测器的生物信号,以256Hz被采样。在步骤1504,来自几个通道对的数据被提取,也即来自对应于检测器T7和T8的通道6和11、对应于检测器AF3和AF4的通道2和15、对应于检测器FC5和FC6的通道4和13和对应于检测器F7和F8的通道3和14的数据。
在步骤1506,为这些通道中的每一个创建数据窗口,其中,64连续样本(对应于四分之一秒)被考虑。在步骤1508,由每一个通道的数据窗口中的64连续样本所代表的信号的功率被计算出来,并且在步骤1510为每一个通道计算出信号功率值。
为了确定步骤1502中的EEG数据样本中是否出现微笑,通道对T7和T8上的功率和通道对AF3和AF4与通道对FC5和FC6上的功率的平均值的比值在步骤1512被计算出来。在步骤1514,低通滤波器被应用到在步骤1512中得出的计算结果。在步骤1516,确定在步骤1512中被计算出来的比值是否超出了指示微笑的预定的阈值。如果情况如此,则在步骤1518检测到微笑,否则步骤1506被再次执行于来自在步骤1504被提取的每一个通道的下面的64个数据样本。
在步骤1512被计算以确定在生物信号数据中是否存在微笑的同时,通道对FC5和FC6上的平均功率在步骤1522被计算以确定生物信号中是否存在皱眉。如果在步骤1526确定这个被计算的平均功率超过了指示皱眉的预定的阈值,则在步骤1528检测到皱眉。在步骤1526,如果在步骤1522被计算出来的平均功率不超过指示皱眉的预定的阈值,则在步骤1512被计算出来的功率比值被拿来和指示微笑的阈值做比较以确定在生物信号中是否存在微笑。
为了提高依靠信号功率检测的算法的效率,可以利用所有通道上的信号功率创建信号功率轮廓,以创建一个信号功率的轮廓,其作为一个32通道矢量。有好几种可以为表情创建信号功率轮廓的方法。例如主要分量分析,简单统计学(像平均值)、中值和人工测量的组合,能被用来创建信号功率轮廓。为了度量简单,该轮廓然后能被规范化成一个单位矢量。信号功率轮廓和所有通道上的规范化的信号功率的点积然后能被用作信号以识别何时发生特殊的面部表情。
在关于图15所描述的算法之中,一个通道上的信号功率通过计算通道信号的一阶导数被计算出来,这里所述的通道信号有时候首先通过高通滤波器。通道信号的一阶导数的绝对值被得到,并且某些最低值和最高值部分被舍弃。这些值通常是最低值的3/8和最高值的1/8。然后,没有被抛弃部分的平均值被计算出来。被用来计算信号功率的数据窗口一般是1/4秒的量级。
另外的可替换的计算信号功率的方法能被用在本发明的其他实施例中。这些方法可能是以存在于通道上的特殊频段上的信号功率,或者两种不同频段或两种不同通道上的功率的比值为基础的。这些可能是相同频段上的不同通道、相同通道上的不同频段或者不同通道上的不同频段。
根据表达式:sum(xy)/sqrt(sum(x2)+sum(y2)),关于图14中所示的相关算法执行的通道相关性被计算出来。在本发明的某些实施例中,另一种可替换的相关性的测算方法能被实施:sum(xy)/sqrt(sum(max(x,y)2)。在两个前述的表达式中,x项和y项对应于两个正在被计算的信号。后一相关方法有减小两个信号中的值的优势,所述两个信号有相似轮廓但是一个比另一个大得多。
上面所描述的面部表情检测算法可能有几个和其相关的阈值。这些阈值调整起来可能不直观,因此把这些阈值转换成一个或者多个直观的“灵敏度”参数是有用的。
例如,眨眼在来自任何一个或者多个图2所示的检测器的EEG信号上的影响能被简单理解成大量前面通道上的并行向上的偏转。这些偏转能用以下内容被表征:偏转的最小高度,偏转的最小梯度和不同通道上的信号的最小相关性。这三个阈值如何被结合对非专家使用者来讲不一定是直接的。为了把多个阈值转化成单一的灵敏度参数,为每一个阈值评估一个合理的范围是我们需要的。然后,每一个阈值可能被插值(或者线性或者其他)在合理范围的最小值和最大值之间。相应地,如果单个的参数的最小的阈值是thresh_min、最大值是thresh_max。给出一个灵敏度参数S,其在0~1的范围内变化,用线性插值,那个参数的阈值将会是:
阈值=thresh_max+(thresh_min-thresh_max)*S
另外,灵敏度阈值可能被任何单独的阈值推断出,这种推断建立在这样的基础之上:
S=(threshold-thresh_max)/(thresh_min-thresh_max)
由于不同的人的肌肉组织的变化,通过噪声轮廓分析而被检测到的表情可能有不同的值。这些算法的自动校准能被执行以适应这种变化。校准能通过记录中性状态被执行,该中性状态被定义为任何事情但除了正在被校准的表情。噪声值在这个时期被计算,被获得的值被存储并且该值的较低的50%被抛弃。剩余值的平均值然后被作为一个基线使用,高于这个基线,我们就能推断有少量的表情发生了。
表情的最大阈值的校准能通过使用较低阈值的倍数被实现,例如较低阈值的2或者3倍。或者,对象能被要求来执行该表情,并且在这个期间被得到的值能用来确定面部表情范围的上限。应该仔细,因为被强迫的表情所导致的波动可能不像自然发生的表情那样大,因此在这个校准期间被发现的最大值应该被设定在该范围的50%。
尽管该发明已经参考特定的优选实施例在大量的细节上被探讨,但是其他实施例是可能的。因此,所附的权利要求的范围不应该限于被包含在本公开中的优选实施例中的描述。这里所有的被引用的参考应该被集合在它整个参考之内。
Claims (30)
1、一种检测和分类面部肌肉运动的方法,包括步骤:
a)从一个或者多于一个生物信号检测器接收生物信号;和
b)将一个或者多于一个面部肌肉运动检测算法应用到受预定类型的面部肌肉运动影响的一部分生物信号中,以检测该预定类型的面部肌肉运动。
2、根据权利要求1的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括,将该生物信号部分与定义了该预定面部肌肉运动类型的一个或者多于一个独特的信号特征的签名进行比较。
3、根据权利要求2的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括,对来自一个或者多于一个预定的生物信号检测器的生物信号与该签名进行直接比较。
4、根据权利要求2的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括:
a)在一个或者多于一个预定的分量矢量上投影来自多个生物信号检测器的生物信号;和
b)将一个或者多于一个分量矢量上的生物信号的投影与该签名进行比较。
5、根据权利要求4的方法,还包括在来自多个检测器的生物信号在一个或者多于一个分量矢量上投影之后,并且在将被投影的生物信号与该签名进行比较之前,对被投影的生物信号应用期望的变换。
6、根据权利要求4的方法,其中通过在先前收集的、在对应于该签名的类型的面部肌肉运动期间产生的生物信号上应用第一分量分析来确定所述预定的分量矢量。
7、根据权利要求6的方法,其中被应用于先前收集的生物信号的第一分量分析是独立分量分析(ICA)。
8、根据权利要求6的方法,其中被应用于先前收集的生物信号的第一分量分析是主分量分析(PCA)。
9、根据权利要求4的方法,其中一个或者多于一个分量矢量在面部肌肉运动检测和分类期间被更新。
10、根据权利要求2的方法,还包括在面部肌肉运动检测和分类过程中更新签名。
11、根据权利要求10的方法,其中通过改变形成签名的至少一部分独特的信号特征的阈值来更新签名。
12、根据权利要求2的方法,将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括:
a)对生物信号应用期望的变换;和
b)对期望的变换的结果与该签名进行比较。
13、根据权利要求12的方法,其中的变换是从由付里叶变换和小波变换组成的组中选择的一个或者多于一个变换。
14、根据权利要求4的方法,还包括:
a)对被检测的生物信号应用第二分量分析;和
b)在生物信号检测期间利用第二分量分析的结果来更新所述的一个或者多于一个预定的分量矢量。
15、根据权利要求14的方法,其中的第二分量分析是主分量分析(PCA)。
16、根据权利要求1的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括:把来自预定类型的面部肌肉运动的生物信号与生物信号中的一个或者多于一个噪声源相分离。
17、根据权利要求16的方法,其中噪声源包含从由电磁干扰(EMI)和不是来自预定类型的面部肌肉运动的生物信号组成的组中选择的一个或者多于一个源。
18、根据权利要求2的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括,将来自一对或者多对生物信号检测器的生物信号的和或者差与该签名进行比较。
19、根据权利要求18的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤还包括,对来自一对或者多对生物信号检测器中的每一对的生物信号与该签名进行比较。
20、根据权利要求19的方法,其中的比较步骤包括:求来自一对或者多对生物信号检测器中的每一对的生物信号中的一个或者多于一个的导数,以及来自一对或者多对生物信号检测器的生物信号的和或者差。
21、根据权利要求20的方法,其中的比较步骤还包括:
对来自一对或者多对生物信号检测器中的每一对的生物信号中的一个或者多于一个的梯度和幅度中的一个或者这两者与来自一对或者多对生物信号检测器的生物信号的和或者差进行比较;和
确定梯度和幅度中的一个或者两者分别在何时超过预定的梯度和幅度阈值。
22、根据权利要求20或者21的方法,其中的比较步骤还包括:
计算来自一对或者多对生物信号检测器中的每一对的生物信号之间的相关性;和
确定该相关性何时超过预定的相关性阈值。
23、根据权利要求2的方法,其中将一个或者多于一个面部肌肉运动检测算法应用到生物信号的步骤包括,将来自一个或者多个预定生物信号检测器的生物信号的功率与该签名进行比较。
24、根据权利要求23的方法,其中的比较步骤包括:
计算来自一对或者多对生物信号检测器的生物信号的功率与该签名的和;和
确定该和是否超过了指示第一面部肌肉运动类型的预定阈值。
25、根据权利要求23的方法,其中的比较步骤包括:计算来自第一组生物信号检测器的生物信号的功率和来自第二组生物信号检测器的生物信号的功率的比值;和
确定该比值是否超过了指示第二面部肌肉运动类型的预定阈值。
26、根据权利要求1的方法,其中所述生物信号包括脑电图(EEG)信号。
27、根据权利要求1的方法,还包括产生代表被检测面部肌肉运动类型的输出信号。
28、一种用于检测和分类面部肌肉运动的设备,包括:
处理器和使处理器实施根据权利要求1~27中的任何一项的方法的相关联的存储装置。
29、一种计算机程序产品,有形地存储在机器可读介质上,该产品包括使处理器实施根据权利要求1~27中的任何一项的方法的可操作指令。
30、包括使处理器实施根据权利要求1~27中的任何一项的方法的可操作指令的计算机程序产品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/225,598 | 2005-09-12 | ||
US11/225,598 US20070060830A1 (en) | 2005-09-12 | 2005-09-12 | Method and system for detecting and classifying facial muscle movements |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101310242A true CN101310242A (zh) | 2008-11-19 |
Family
ID=37856224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2006800415840A Pending CN101310242A (zh) | 2005-09-12 | 2006-09-12 | 用于检测和分类面部肌肉运动的方法和系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US20070060830A1 (zh) |
EP (1) | EP1934677A4 (zh) |
CN (1) | CN101310242A (zh) |
TW (1) | TW200729014A (zh) |
WO (1) | WO2007030868A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105662336A (zh) * | 2015-12-23 | 2016-06-15 | 黑龙江科技大学 | 一种信号去噪处理方法及装置 |
CN106137207A (zh) * | 2015-04-03 | 2016-11-23 | 北京智谷睿拓技术服务有限公司 | 进食动作信息确定方法和装置 |
TWI581173B (zh) * | 2013-03-14 | 2017-05-01 | 茱麗安 麥克 爾巴哈 | 用以擴增實境及虛擬實境之目鏡系統及使用該系統之方法 |
CN110739042A (zh) * | 2019-10-29 | 2020-01-31 | 浙江迈联医疗科技有限公司 | 基于脑机接口的肢体运动康复方法、装置、存储介质及设备 |
CN111956217A (zh) * | 2020-07-15 | 2020-11-20 | 山东师范大学 | 一种面向实时脑电信号的眨眼伪迹识别方法及系统 |
CN112040858A (zh) * | 2017-10-19 | 2020-12-04 | 脸谱科技有限责任公司 | 用于识别与神经肌肉源信号相关的生物结构的系统和方法 |
CN113855019A (zh) * | 2021-08-25 | 2021-12-31 | 杭州回车电子科技有限公司 | 基于eog、emg以及压电信号的表情识别方法和装置 |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11941176B1 (en) | 2018-11-27 | 2024-03-26 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060257834A1 (en) * | 2005-05-10 | 2006-11-16 | Lee Linda M | Quantitative EEG as an identifier of learning modality |
EP1885241B1 (en) * | 2005-05-16 | 2016-06-22 | Cerebral Diagnostics Canada Incorporated | Near-real time three-dimensional localization, display , recording , and analysis of electrical activity in the cerebral cortex |
JP5065275B2 (ja) | 2005-09-02 | 2012-10-31 | エムセンス コーポレイション | 組織内の電気的活動を検知する装置及び方法 |
US20070060830A1 (en) * | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
US20090253996A1 (en) * | 2007-03-02 | 2009-10-08 | Lee Michael J | Integrated Sensor Headset |
US8230457B2 (en) * | 2007-03-07 | 2012-07-24 | The Nielsen Company (Us), Llc. | Method and system for using coherence of biological responses as a measure of performance of a media |
US20090070798A1 (en) * | 2007-03-02 | 2009-03-12 | Lee Hans C | System and Method for Detecting Viewer Attention to Media Delivery Devices |
US9215996B2 (en) * | 2007-03-02 | 2015-12-22 | The Nielsen Company (Us), Llc | Apparatus and method for objectively determining human response to media |
US20080218472A1 (en) * | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
US8473044B2 (en) * | 2007-03-07 | 2013-06-25 | The Nielsen Company (Us), Llc | Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals |
US20080221969A1 (en) * | 2007-03-07 | 2008-09-11 | Emsense Corporation | Method And System For Measuring And Ranking A "Thought" Response To Audiovisual Or Interactive Media, Products Or Activities Using Physiological Signals |
US8764652B2 (en) * | 2007-03-08 | 2014-07-01 | The Nielson Company (US), LLC. | Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals |
US8782681B2 (en) * | 2007-03-08 | 2014-07-15 | The Nielsen Company (Us), Llc | Method and system for rating media and events in media based on physiological data |
US8473345B2 (en) | 2007-03-29 | 2013-06-25 | The Nielsen Company (Us), Llc | Protocol generator and presenter device for analysis of marketing and entertainment effectiveness |
US9886981B2 (en) | 2007-05-01 | 2018-02-06 | The Nielsen Company (Us), Llc | Neuro-feedback based stimulus compression device |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
JP5542051B2 (ja) | 2007-07-30 | 2014-07-09 | ニューロフォーカス・インコーポレーテッド | 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置 |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US8376952B2 (en) * | 2007-09-07 | 2013-02-19 | The Nielsen Company (Us), Llc. | Method and apparatus for sensing blood oxygen |
US20090083129A1 (en) | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
WO2009046224A1 (en) | 2007-10-02 | 2009-04-09 | Emsense Corporation | Providing remote access to media, and reaction and survey data from viewers of the media |
WO2009059246A1 (en) * | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
US20090150919A1 (en) * | 2007-11-30 | 2009-06-11 | Lee Michael J | Correlating Media Instance Information With Physiological Responses From Participating Subjects |
US8347326B2 (en) | 2007-12-18 | 2013-01-01 | The Nielsen Company (US) | Identifying key media events and modeling causal relationships between key events and reported feelings |
US8326408B2 (en) | 2008-06-18 | 2012-12-04 | Green George H | Method and apparatus of neurological feedback systems to control physical objects for therapeutic and other reasons |
US9058695B2 (en) | 2008-06-20 | 2015-06-16 | New Bis Safe Luxco S.A R.L | Method of graphically representing a tree structure |
US20100016753A1 (en) * | 2008-07-18 | 2010-01-21 | Firlik Katrina S | Systems and Methods for Portable Neurofeedback |
US10192389B2 (en) | 2008-09-01 | 2019-01-29 | New Bis Safe Luxco S.À.R.L. | Methods, apparatus and systems for determining an adjustment value of a gaming device |
JP4652489B2 (ja) * | 2009-01-19 | 2011-03-16 | パナソニック株式会社 | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
JP5545574B2 (ja) * | 2009-07-15 | 2014-07-09 | 国立大学法人 筑波大学 | 分類推定システムおよび分類推定プログラム |
US10987015B2 (en) | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US20110106750A1 (en) | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US8364255B2 (en) * | 2010-03-10 | 2013-01-29 | Brainscope Company, Inc. | Method and device for removing EEG artifacts |
WO2011133548A2 (en) | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
US11318949B2 (en) * | 2010-06-07 | 2022-05-03 | Affectiva, Inc. | In-vehicle drowsiness analysis using blink rate |
US10482333B1 (en) * | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
EP2595530A4 (en) * | 2010-07-22 | 2015-09-16 | Univ Washington | CORRELATION BETWEEN FREQUENCY SIGNATURES AND COGNITIVE PROCESSES |
WO2012049362A1 (en) * | 2010-10-13 | 2012-04-19 | Aalto University Foundation | A projection method and system for removing muscle artifacts from signals based on their frequency bands and topographies |
KR101208719B1 (ko) | 2011-01-07 | 2012-12-06 | 동명대학교산학협력단 | 지능형 생체신호 처리시스템 및 그가 적용된 휴대용 생체신호 처리기 |
WO2012116232A1 (en) * | 2011-02-23 | 2012-08-30 | University Of Utah Research Foundation | Systems and methods for decoding neural signals |
US9013264B2 (en) | 2011-03-12 | 2015-04-21 | Perceptive Devices, Llc | Multipurpose controller for electronic devices, facial expressions management and drowsiness detection |
US9830507B2 (en) * | 2011-03-28 | 2017-11-28 | Nokia Technologies Oy | Method and apparatus for detecting facial changes |
CN102525453B (zh) * | 2012-02-15 | 2014-03-19 | 南京伟思医疗科技有限责任公司 | 一种脑电检测装置及检测方法 |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US20160232811A9 (en) * | 2012-06-14 | 2016-08-11 | Robert A. Connor | Eyewear System for Monitoring and Modifying Nutritional Intake |
US20140350353A1 (en) * | 2013-05-27 | 2014-11-27 | Robert A. Connor | Wearable Imaging Device for Monitoring Food Consumption using Gesture Recognition |
US10130277B2 (en) * | 2014-01-28 | 2018-11-20 | Medibotics Llc | Willpower glasses (TM)—a wearable food consumption monitor |
GB201211703D0 (en) * | 2012-07-02 | 2012-08-15 | Charles Nduka Plastic Surgery Ltd | Biofeedback system |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
WO2014113621A1 (en) | 2013-01-18 | 2014-07-24 | Augment Medical, Inc. | Gesture-based communication systems and methods for communicating with healthcare personnel |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US9773332B2 (en) | 2013-03-14 | 2017-09-26 | Otoy, Inc. | Visual cortex thought detector interface |
US9235968B2 (en) | 2013-03-14 | 2016-01-12 | Otoy, Inc. | Tactile elements for a wearable eye piece |
US9141851B2 (en) * | 2013-06-28 | 2015-09-22 | Qualcomm Incorporated | Deformable expression detector |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US10121063B2 (en) * | 2015-01-12 | 2018-11-06 | BMT Business Meets Technology Holding AG | Wink gesture based control system |
KR102018451B1 (ko) * | 2015-03-18 | 2019-09-04 | 티앤더블유 엔지니어링 에이/에스 | Eeg 모니터 |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
CN106681484B (zh) * | 2015-11-06 | 2019-06-25 | 北京师范大学 | 结合眼动跟踪的图像目标分割系统 |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
WO2018142228A2 (en) | 2017-01-19 | 2018-08-09 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
GB2561537B (en) | 2017-02-27 | 2022-10-12 | Emteq Ltd | Optical expression detection |
WO2019040665A1 (en) | 2017-08-23 | 2019-02-28 | Neurable Inc. | BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS |
WO2019060298A1 (en) | 2017-09-19 | 2019-03-28 | Neuroenhancement Lab, LLC | METHOD AND APPARATUS FOR NEURO-ACTIVATION |
EP3698710A4 (en) * | 2017-10-20 | 2020-10-14 | Panasonic Corporation | BRAIN WAVE ANALYSIS DEVICE, BRAIN WAVE ANALYSIS PROCESS, NON-TRANSITIONAL PROGRAM AND RECORDING MEDIA |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
US11478603B2 (en) | 2017-12-31 | 2022-10-25 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to enhance emotional response |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
WO2020056418A1 (en) | 2018-09-14 | 2020-03-19 | Neuroenhancement Lab, LLC | System and method of improving sleep |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
US11395615B2 (en) * | 2019-04-17 | 2022-07-26 | Bose Corporation | Fatigue and drowsiness detection |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
CN110321807A (zh) * | 2019-06-13 | 2019-10-11 | 南京行者易智能交通科技有限公司 | 一种基于多层特征融合的卷积神经网络打哈欠行为识别方法及装置 |
WO2024042530A1 (en) * | 2022-08-24 | 2024-02-29 | X-Trodes Ltd | Method and system for electrophysiological determination of a behavioral activity |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5195531A (en) * | 1991-03-01 | 1993-03-23 | Bennett Henry L | Anesthesia adequacy monitor and method |
US5724987A (en) * | 1991-09-26 | 1998-03-10 | Sam Technology, Inc. | Neurocognitive adaptive computer-aided training method and system |
US6349231B1 (en) * | 1994-01-12 | 2002-02-19 | Brain Functions Laboratory, Inc. | Method and apparatus for will determination and bio-signal control |
JP3310498B2 (ja) * | 1994-09-02 | 2002-08-05 | 独立行政法人産業技術総合研究所 | 生体情報解析装置および生体情報解析方法 |
US6233472B1 (en) * | 1995-06-06 | 2001-05-15 | Patient Comfort, L.L.C. | Electrode assembly and method for signaling a monitor |
US6001065A (en) * | 1995-08-02 | 1999-12-14 | Ibva Technologies, Inc. | Method and apparatus for measuring and analyzing physiological signals for active or passive control of physical and virtual spaces and the contents therein |
US5740812A (en) * | 1996-01-25 | 1998-04-21 | Mindwaves, Ltd. | Apparatus for and method of providing brainwave biofeedback |
US6292688B1 (en) * | 1996-02-28 | 2001-09-18 | Advanced Neurotechnologies, Inc. | Method and apparatus for analyzing neurological response to emotion-inducing stimuli |
US5676138A (en) * | 1996-03-15 | 1997-10-14 | Zawilinski; Kenneth Michael | Emotional response analyzer system with multimedia display |
US5899867A (en) * | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
US6121953A (en) * | 1997-02-06 | 2000-09-19 | Modern Cartoons, Ltd. | Virtual reality system for sensing facial movements |
US6097981A (en) * | 1997-04-30 | 2000-08-01 | Unique Logic And Technology, Inc. | Electroencephalograph based biofeedback system and method |
KR100281650B1 (ko) * | 1997-11-13 | 2001-02-15 | 정선종 | 긍정/부정 감성 상태 판별을 위한 뇌파 분석 방법 |
US6609017B1 (en) * | 1998-08-07 | 2003-08-19 | California Institute Of Technology | Processed neural signals and methods for generating and using them |
US6594632B1 (en) * | 1998-11-02 | 2003-07-15 | Ncr Corporation | Methods and apparatus for hands-free operation of a voice recognition system |
US6422999B1 (en) * | 1999-05-13 | 2002-07-23 | Daniel A. Hill | Method of measuring consumer reaction |
KR100306295B1 (ko) * | 1999-07-24 | 2001-09-24 | 박병운 | 뇌파를 이용한 게임장치 및 그 방법 |
EP1139240A3 (en) * | 2000-03-28 | 2003-11-05 | Kenji Mimura | Design method and design evaluation method, and equipment thereof |
LU90582B1 (en) * | 2000-05-16 | 2001-11-19 | Europ Economic Community | System for identifying brain activity |
WO2002039371A2 (en) * | 2000-11-03 | 2002-05-16 | Koninklijke Philips Electronics N.V. | Estimation of facial expression intensity using a bidirectional star topology hidden markov model |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
IL159235A0 (en) * | 2001-06-07 | 2004-06-01 | Lawrence Farwell | Method and apparatus for brain fingerprinting, measurement, assessment and analysis of brain function |
US20030032890A1 (en) * | 2001-07-12 | 2003-02-13 | Hazlett Richard L. | Continuous emotional response analysis with facial EMG |
DE60216411T2 (de) * | 2001-08-23 | 2007-10-04 | Sony Corp. | Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung |
DE10149049A1 (de) * | 2001-10-05 | 2003-04-17 | Neuroxx Gmbh | Verfahren und System zur Schaffung und Modifikation einer virtuellen biologischen Repräsentanz der Nutzer von Computeranwendungen |
JP3813552B2 (ja) * | 2002-07-22 | 2006-08-23 | 横浜ゴム株式会社 | 作業中ストレス判定装置、作業中ストレス判定プログラム及び作業中ストレス判定方法 |
WO2004037086A1 (de) * | 2002-10-23 | 2004-05-06 | Daimlerchrysler Ag | Verfahren zur optimierung und erfassung von produktattraktivität oder produktakzeptanz durch beobachtung der gehirnaktivität |
GB2395780A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
US7546158B2 (en) * | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US7388971B2 (en) * | 2003-10-23 | 2008-06-17 | Northrop Grumman Corporation | Robust and low cost optical system for sensing stress, emotion and deception in human subjects |
US7120486B2 (en) * | 2003-12-12 | 2006-10-10 | Washington University | Brain computer interface |
JP2006006355A (ja) * | 2004-06-22 | 2006-01-12 | Sony Corp | 生体情報の処理装置および映像音響再生装置 |
US9820658B2 (en) * | 2006-06-30 | 2017-11-21 | Bao Q. Tran | Systems and methods for providing interoperability among healthcare devices |
US20070060830A1 (en) * | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
-
2005
- 2005-09-12 US US11/225,598 patent/US20070060830A1/en not_active Abandoned
-
2006
- 2006-09-12 US US11/531,117 patent/US20070179396A1/en not_active Abandoned
- 2006-09-12 CN CNA2006800415840A patent/CN101310242A/zh active Pending
- 2006-09-12 TW TW095133790A patent/TW200729014A/zh unknown
- 2006-09-12 EP EP06774959A patent/EP1934677A4/en not_active Withdrawn
- 2006-09-12 WO PCT/AU2006/001331 patent/WO2007030868A1/en active Application Filing
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI581173B (zh) * | 2013-03-14 | 2017-05-01 | 茱麗安 麥克 爾巴哈 | 用以擴增實境及虛擬實境之目鏡系統及使用該系統之方法 |
CN106137207A (zh) * | 2015-04-03 | 2016-11-23 | 北京智谷睿拓技术服务有限公司 | 进食动作信息确定方法和装置 |
CN105662336A (zh) * | 2015-12-23 | 2016-06-15 | 黑龙江科技大学 | 一种信号去噪处理方法及装置 |
CN112040858A (zh) * | 2017-10-19 | 2020-12-04 | 脸谱科技有限责任公司 | 用于识别与神经肌肉源信号相关的生物结构的系统和方法 |
US11941176B1 (en) | 2018-11-27 | 2024-03-26 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
CN110739042A (zh) * | 2019-10-29 | 2020-01-31 | 浙江迈联医疗科技有限公司 | 基于脑机接口的肢体运动康复方法、装置、存储介质及设备 |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
CN111956217A (zh) * | 2020-07-15 | 2020-11-20 | 山东师范大学 | 一种面向实时脑电信号的眨眼伪迹识别方法及系统 |
CN111956217B (zh) * | 2020-07-15 | 2022-06-24 | 山东师范大学 | 一种面向实时脑电信号的眨眼伪迹识别方法及系统 |
CN113855019A (zh) * | 2021-08-25 | 2021-12-31 | 杭州回车电子科技有限公司 | 基于eog、emg以及压电信号的表情识别方法和装置 |
CN113855019B (zh) * | 2021-08-25 | 2023-12-29 | 杭州回车电子科技有限公司 | 基于eog、emg以及压电信号的表情识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
TW200729014A (en) | 2007-08-01 |
EP1934677A4 (en) | 2009-12-09 |
WO2007030868A1 (en) | 2007-03-22 |
US20070179396A1 (en) | 2007-08-02 |
EP1934677A1 (en) | 2008-06-25 |
US20070060830A1 (en) | 2007-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101310242A (zh) | 用于检测和分类面部肌肉运动的方法和系统 | |
Lemm et al. | Spatio-spectral filters for improving the classification of single trial EEG | |
Oweiss | Statistical signal processing for neuroscience and neurotechnology | |
CN104720796B (zh) | 一种用于癫痫发作时间段的自动检测系统及方法 | |
Jin et al. | Linear and nonlinear information flow based on time-delayed mutual information method and its application to corticomuscular interaction | |
CN101331490A (zh) | 心理状态的检测和使用心理状态的互动 | |
CN103610447A (zh) | 一种基于前额脑电信号的脑力负荷在线检测方法 | |
KR101854812B1 (ko) | 시청각 콘텐츠와 생체신호 분석을 활용한 정신증상 평가 시스템 | |
Sarkar et al. | Wearable EEG-based activity recognition in PHM-related service environment via deep learning | |
Alivar et al. | Motion artifact detection and reduction in bed-based ballistocardiogram | |
Baravalle et al. | Discriminating imagined and non-imagined tasks in the motor cortex area: Entropy-complexity plane with a wavelet decomposition | |
Patnaik et al. | Deep RNN learning for EEG based functional brain state inference | |
Dzitac et al. | Identification of ERD using fuzzy inference systems for brain-computer interface | |
CN114557708A (zh) | 基于脑电双特征融合的体感刺激意识检测装置和方法 | |
CN112957049A (zh) | 基于脑机接口设备技术的注意力状态监测装置及方法 | |
Nagwanshi et al. | Wearable Sensors with Internet of Things (IoT) and Vocabulary-Based Acoustic Signal Processing for Monitoring Children's Health | |
Mekruksavanich et al. | Deep learning approaches for epileptic seizures recognition based on eeg signal | |
Vadivu et al. | An Novel Versatile Inspiring Wavelet Transform and Resilient Direct Neural Network Classification Techniques for Monitoring Brain Activity System Based on EEG Signal | |
Sanamdikar et al. | Classification of ECG Signal for Cardiac Arrhythmia Detection Using GAN Method | |
Deshmukh | Study of Online Driver Distraction Analysis using ECG-Dynamics | |
Abdul Ameer Abbas et al. | Real-Time Motor Imagery-Based Brain–Computer Interface System by Implementing a Frequency Band Selection | |
Fazel-Rezai et al. | Brain signals: Feature extraction and classification using rough set methods | |
Sajda et al. | Spatial signatures of visual object recognition events learned from single-trial analysis of EEG | |
Gopi et al. | Brain computer interface analysis using wavelet transforms and auto regressive coefficients | |
Tasnim et al. | Detecting navigation challenges for the visually impaired with mobile monitoring of biosignal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20081119 |