CN102016765A - 用于识别手持设备的用户的方法和系统 - Google Patents
用于识别手持设备的用户的方法和系统 Download PDFInfo
- Publication number
- CN102016765A CN102016765A CN2009801139729A CN200980113972A CN102016765A CN 102016765 A CN102016765 A CN 102016765A CN 2009801139729 A CN2009801139729 A CN 2009801139729A CN 200980113972 A CN200980113972 A CN 200980113972A CN 102016765 A CN102016765 A CN 102016765A
- Authority
- CN
- China
- Prior art keywords
- user
- handheld device
- data
- module
- touch pad
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
Abstract
在本文公开了一种用于识别手持设备的用户的系统和方法。实现所述方法和系统的设备可以尝试基于用户对所述设备的操作时伴随的信号来识别用户。所述信号由沿着所述外壳的外周或在外壳的内部布置的各个传感器生成。所述传感器范围可以包括触摸传感器、惯性传感器、声学传感器、脉搏血氧计以及触摸板。基于所述传感器和对应的信号,生成识别信息。所述识别信号被使用来识别手持设备的用户。所述手持设备可以实现各种统计学习和数据挖掘技术来增加系统的健壮性。所述设备还可以基于用户绘出圆形或其他形状,对用户进行认证。
Description
相关申请的交叉引用
本申请要求2008年4月21日提交的美国临时申请No.61/046,578的权益,在此将该申请全文引入作为参考。
背景技术
本发明通常涉及用于识别例如远程控制系统的手持设备的用户的方法和系统。许多系统将从容易且为非侵入式的用户识别中受益。仅仅作为参考,针对适合于控制消费电子产品和家用电器的远程控制系统来描述本发明的许多方面和与本发明相关的背景技术,该远程控制系统包括触敏式手持远程控制单元,该手持远程控制单元用于检测用户的握持和抓捏模式以及比如轨迹的其他特性,在该轨迹上,用户拿起该远程控制单元,并首先触摸该远程控制单元来识别该用户。
在全世界范围内,特征通常为大量按钮的手持远程控制单元现在茶几上非常普遍。对于大多数消费电子产品,制造商习惯于为这种手持远程控制配备各个单元。因此,大多数消费者拥有一堆各种不同的远程控制单元,每个远程控制单元与特定产品或电器相关联。
为了简化的目的,本申请人的受让人已经开发了触敏式远程控制单元的几个不同的实施例,该触敏式远程控制单元的特征在于按钮数目减少以及一个或多个触敏式触摸板,该触敏式触摸板可以由用户的手指或拇指操纵来在显示屏幕上交互信息。该触摸板可以被操纵来例如在显示屏幕上的控制区域内移动选择指示符(比如光标或其他图形元件)。在一些应用中,显示屏幕将与手持远程控制单元分开,并且因此,在用户利用手指或拇指操纵键盘时,通过观看显示屏幕来操纵选择指示符。优选地,一个或多个触摸板被布置在远程控制单元上,从而使得用户用一只手握住远程控制单元时,可以利用用户的拇指来操纵触摸板。此外,远程控制单元在其外壳上具有对用户触摸敏感的触敏传感器。
由于多个用户可以使用单个远程控制单元和对应的主机设备,所以用于识别哪个用户正在使用该远程控制单元的装置的需求不断增加。比如登录用户名和密码的方法耗时且为用户所厌烦。因此,需要要求最少的用户交互的用于识别用户的装置。最佳地,允许在用户不必进入或执行任何识别任务的情况下识别用户将是有益的。这种被动式识别装置将导致在用户的部件上实际上没有用户交互。
因此,已经开发了一种远程控制系统,该远程控制系统实现各种被动式以及半被动式用户识别方法。所述方法的范围从用户握持远程控制单元的抓捏/握持模式到当被该用户抓住时该远程控制单元遵循的轨迹。
发明内容
本部分提供了本公开的一般概括,而不是对本公开的全部范围或所有特征的全面公开。
在一个方面,本发明涉及用于识别手持设备的用户的系统和方法。所述手持电子设备包括外壳以及沿着外壳的外周布置的传感器系统。所述传感器系统响应于用户的手和设备之间的多个同时接触点,生成指示用户的手和该设备之间的所述多个接触点的观测信号。所述手持电子设备还包括用户识别数据库,用于存储与多个已知用户的属性对应的数据,其中,所述多个已知用户的属性用于识别用户。所述设备还包括用户识别模块,所述用户识别模块被配置为从所述传感器系统接收所述观测信号,并且根据所述观测信号以及所述多个用户的属性来识别所述用户。
在第二方面,本发明涉及包括外壳以及触摸板的手持电子设备,所述触摸板对用户的手指移动进行响应,生成与所述手指移动对应的触摸板信号。所述设备还包括触摸板处理模块,所述触摸板处理模块接收所述触摸板信号,并且基于所述触摸板信号生成手指移动数据。所述手持电子设备还包括用户识别数据库,用于存储与多个已知用户的物理属性对应的用户识别数据,其中,物理属性包括用户绘出预定对象的手指移动。所述设备还包括用户识别模块,用于接收所述用户手指移动数据,并且基于所述手指移动数据以及所述用户识别数据识别所述用户,其中,所述手指移动数据是用户绘出的预定形状。
在第三方面,手持电子设备包括外壳以及沿着该外壳的外周布置的触摸传感器系统。所述触摸传感器系统响应于用户的手和设备之间的多个同时接触点,生成指示用户的手和该设备之间的所述多个接触点的观测信号。所述设备还包括触摸传感器处理模块,所述触摸传感器处理模块被配置为从所述触摸传感器系统接收所述观测信号,并且确定用户的握持模式。所述设备还包括嵌入在所述外壳中的惯性传感器以及轨迹模块,所述惯性传感器响应于所述用户的手所进行的设备移动而生成惯性信号,所述轨迹模块被配置为从所述惯性传感器接收所述惯性信号,并且确定所述设备的移动轨迹。所述设备还包括沿着所述外壳的外表面放置的触摸板以及触摸板处理模块,所述触摸板响应于用户手指沿着所述触摸板的外表面的移动而生成触摸板信号,所述触摸板处理模块接收所述触摸板信号,并且确定用户手指移动数据。所述设备还包括用户识别数据库,用于存储与多个已知用户的属性对应的数据,其中,所述多个已知用户的属性用来识别用户,并且其中所述属性包括所述多个已知用户的握持模式、与由多个已知用户中的各个用户进行的设备移动对应的轨迹、以及所述多个已知用户的用户手指移动数据。所述设备还包括用户识别模块,所述用户识别模块被配置为接收所述用户的识别信息,并且基于所述识别信息和所述多个已知用户的属性来识别所述用户,其中所述识别信息包括用户的握持模式、用户移动所述设备的轨迹、以及用户手指移动数据。
根据本文中提供的描述,可适用的其他领域将变得显而易见。本发明内容中的描述和具体实例仅仅意在例示,而不是意在限制本公开的范围。
附图说明
本文中描述的附图仅仅是用于例示所选择的实施例,而不是例示所有可能的实现方式,并且不是意在限制本公开的范围。
图1例示了具有显示屏的电子产品的一种示例远程控制系统,该远程控制系统具有手持远程控制单元,该手持远程控制单元包括至少一个被布置来供用户的拇指致动的触摸板;
图2A和2B是在理解用户手的大小如何影响触摸板表面的可用性时有用的触摸板表面的示例图;
图3是在远程控制单元的外周具有多个触摸板以及电容式传感器阵列的远程控制单元的示意表示;
图4是用户识别系统的系统级架构;
图5是用户识别模块的架构的示图;
图6是设备上的触敏式传感器阵列和用户的手之间的接触点的示例示图;
图7是基于用户抓住手持设备的方式来识别用户的示例方法的流程图;
图8是与两个不同的用户对应的两个不同轨迹的示例示图;
图9是基于与远程控制单元的移动对应的轨迹来识别用户的示例方法的流程图;
图10是用户触摸远程控制单元的触摸板和对应的拇指矢量的示例示图;
图11是用于基于用户对触摸板的第一次触摸来识别用户的示例方法的流程图;
图12是用户在远程控制单元的触摸板上绘出圆形的示例示图;
图13是用于基于用户在触摸板上绘出形状来识别用户的示例方法的流程图;
图14是例示实现用户识别的各种用户识别方法的组合的示图;
图15是描绘在执行用户识别时使用的各种统计学习和数据挖掘技术的流程图;
图16是描绘执行对用户的不受管理的学习的示例方法的流程图;和
图17是与两个不同的用户对应的两个集群以及要相对于该两个集群识别的用户的示例示图。
在整个附图的若干示图中,对应的参考标记表示对应的部件。
具体实施方式
现在将参照附图来更全面地描述示例实施例。
在本文中公开了用于用户识别的系统和方法。所述系统组合一种或多种用户识别技术来认证和/或识别用户。所述技术可以是被动式技术,比如利用用户抓住手持设备的方式、当用户拾取远程控制单元时该设备遵循的轨迹、用户对该设备的第一次触摸以及用户的心跳来识别用户。所述技术也可以是半被动式,比如使用户在手持设备的触敏型表面上绘出比如圆形的形状。为了简单,所述技术首先被解释为应用于远程控制单元12,该远程控制单元12与电视机、机顶盒、计算机、娱乐中心或其他主机设备一起使用。将明白的是,所述技术还可以应用于其中用户识别将使用户受益的所有手持设备。这些应用在下面更为详细地描述。
参见图1,通常在10处例示了示例电子产品的远程控制系统。远程控制系统包括手持远程控制单元12,该远程控制单元12将控制指令优选为无线地发送到具有显示屏16的电子产品14。远程控制单元12包括一组按钮18和一对触摸板20。注意,在所例示的实施例中,远程控制单元12是两面对称的,从而不管哪个触摸板接近用户的拇指,远程控制单元12将按照相同的方式工作。手持远程控制单元12具有方位传感器(未示出),用于检测正在沿哪个方位握持该单元。
在手持远程控制单元12和电子产品之间可以使用任何类型的通信接口。为了例示,例示出在24处图形示出的无线发送设备以及在22处图形示出的无线接收设备。将明白的是,可以使用红外、超声波以及无线频率,以及进一步使用各种不同的通信协议来完成无线通信,所述通信协议包括红外通信协议、蓝牙、和WiFi等。通信可以是单向的(从远程控制单元12到电子产品14)或双向的。
在所例示的实施例中,在所述屏幕上定义控制区域,在所述屏幕内,可以可视地显示用户控制的选择指示符。在图1中,在显示屏16上的26处显示远程控制单元12自身的可视化副本。显示形式为用户拇指的图形描述的用户控制的选择指示符30。用户拇指在触摸板20上的移动造成选择指示符30的对应移动。尽管与利用轨迹板来移动计算机屏幕光标类似,但是存在这种差异。触摸板20上的区域可以一一对应地映射到所述屏幕上的控制区域。典型的计算机轨迹板没有使用这种一一对应关系,相比之下,轨迹板使用对计算机鼠标的模拟性能的相对映射,该计算机鼠标可以抬起并且随后重新放置。
例如,可以使用本文中公开的系统来基于用户识别,识别与所述远程控制单元对应的映射。尽管所例示的实施例使用触摸板表面和控制区域之间的一一映射,但是这种映射可以被改变来满足用户的手尺寸特性。参见图2A和2B,在触摸板上,在数字和字母的示例图案最容易被具有小手(图2A)和大手(图2B)的人触及到的映射位置上已经例示了该数字和字母的示例图案。将这些映射位置与控制区域26上的对应位置比较(图1)。尽管不管手大小如何,在屏幕上显示的图像(图1)将对所有用户都保持为相同,但是实际映射到该控制区域的触摸板的部分被调整。因此,具有小手的用户不必触及那么远来选择数字1。相反,具有大手的用户将发现更容易选择数字5而同时不选择邻近数字,比如数字4。实际上,当手小时,触摸板的仅仅一部分被使用(图2A),并且该部分随后被放大直到匹配在显示屏幕上示出的整个控制区域。
用户识别可以被使用来配置由远程控制单元控制的主机设备的其他方面。例如,如果该主机设备是电视机的机顶盒,则用户识别可以被使用来限制特定用户访问特定频道。另外,预编程的受欢迎频道或设置的列表可以被装载到该机顶盒。在下面提供更多的示例。
参见图3,远程控制单元12被例示地描述为具有两个触摸板20。在40处描绘电容式触摸阵列。可设想的是,可以与电容式触摸阵列中的电容式传感器组合或取代该电容式传感器,使用其他触敏式传感器。
例如,可以使用提供关于用户和该设备之间的接触点的电阻的传感器。这些传感器当前正在开发,并且这些传感器提供更高维度的数据集,该数据集在从多个用户中识别出一个用户时是有利的。这些电极矩阵传感器具有一个用于发送例如电流的信号的传感器,以及多个用于经由用户的手(或其他身体部分)接收该信号的接收器。该发射器和多个接收器沿着远程控制单元12的外表面放置。该多个接收器在空间上绕着该发射机排列。每个接收器和发射器之间的距离是已知的,所发送的电信号的电流和电压同样是已知的。当该电信号被发送且随后被接收器接收时,可以确定用户手在接触点处的电阻。如可明白的是,由于每个接收器将生成一个电阻值,所以每次发送将该数据的维度增加了因子X,其中X是接收器与发射器之比。如果更高维度的数据集是优选地,则这些传感器特别有帮助。此外,可以对所发送的信号执行传输函数(transfer function),从而导致发射器和对应的接收器之间的通信,以进一步增加维度。
远程控制单元还可以包括声学传感器(未示出)和光学传感器(未示出)、惯性传感器(未示出)、脉搏血氧计(未示出)和热传感器(未示出)。
要明白的是,上述传感器可以从用一只手或两只手握持远程控制单元12的用户接收信号。例如,该用户可以用一只手在操作位置上握持远程控制单元12。为了识别,该用户还可以用两只手握持远程控制单元12,非常类似于视频游戏控制器。
图4例示了用于识别用户的可能的识别输入和可能的数据。如上所述,远程控制单元12或手持设备可以基于多个输入来识别用户。远程控制单元12使用来自传感器52-60的数据来识别用户,该传感器52-60可以用于其他功能应用。该数据由用户识别模块50接收和处理。用户识别模块将访问包含每个已知用户特有的数据的用户识别数据库64。数据的类型可以包括下述数据中的一种或多种:从触敏式传感器52接收的握持/抓捏模式64;从比如加速度计和陀螺仪的惯性/移动传感器接收的轨迹数据66;从声学传感器58或其他类型的传感器接收的心跳数据68;从光学传感器56接收的脸部或躯干数据70;从触摸板传感器20接收的第一次触摸数据72以及从触摸板传感器20接收的弧形数据74。要理解的是,传感器和数据类型的列表是不受限制的。可设想的是,可以从特定传感器接收其他类型的数据,以及其他类型的传感器可以接收所列出的数据或输入。此外,可设想的是,低至一个输入类型可以被使用来识别用户,或者输入的任何组合可以被使用来识别用户。
图5是示例用户识别模块50的详细描述。对于每种类型的输入,用户识别模块50可以具有一个处理模块。例如,用户识别模块50可以包括用于处理来自触摸传感器的数据的触摸处理模块80;用于处理来自移动和惯性传感器54的数据的移动处理模块82;用于处理来自光学传感器56的数据的光学处理模块84;用于处理来自声学传感器58的数据的声学处理模块86、以及用于处理来自触摸板60的数据的触摸板处理模块88。每种类型的数据和它的对应处理模块的更多细节在下面描述。
要明白的是,用户识别模块50可以驻留在远程控制单元12或主机设备上。由于该系统实现强大的学习技术,所以远程控制单元12可以不具有处理这些计算的处理能力。如果是这种情况,则远程控制单元12可以将输入数据传送到驻留在主机设备上的识别模块50。
各种处理模块从各个传感器接收原始数据,并且将该数据处理为可被识别模块90使用的形式,该识别模块90可以使用k均值群集法、支持向量机(SVM)法、隐藏马尔可夫(Markov)模型法以及线性回归法中的一种或多种,来基于该处理后的数据识别用户。如同可明白的,各种传感器将产生高维度数据集,这有利于识别。用户识别模块50还可以对输入数据集执行特征提取,从而可以更容易处理该高维度数据集。识别模块可以实现比如主分量分析(PCA)和等距映射(isomap)的降维方法。识别模块90使用该处理后的数据以及在用户识别数据库62中包含的数据集来经由各种统计学习和/或群集(cluster)方法来对要识别的用户进行分类。然后,识别模块90将确定特征数据(例如,握持/抓捏、轨迹或第一次触摸)最近似于从各个传感器接收的输入数据的用户。还可以将信任得分与用户识别相关联。此外,识别模块90可以生成用户识别数据库62中的第n个最近匹配的列表。另外,如稍后描述的,识别模块90可以生成用户识别。
识别模块90可以采用数据集和数据类型作为参数。基于数据类型,识别模块90可以选择使用哪种学习或群集技术,以及选择访问用户识别数据库62中的哪些数据类型。
图6例示了用户抓住远程控制单元的一个示例。当被抓在用户的手中时,触摸阵列102和104中的一些个体元件(非常接近用户手的触摸部分的那些个体元件)被激活。这种握持模式给出用户身份的一种测量。当然,没有用户在每次拾取远程控制单元12时都按照完全相同的方式握持远程控制单元12。因此,每个用户的触摸阵列观测数据可以被期望是每次使用都改变,并且甚至是每个时刻都改变。因此,当前的优选实施例使用基于模型的模式分类系统来将握持模式观测数据转换为用户识别、手尺寸以及握持位置信息。如可见的,用户的手掌和手指导致对电容式传感器102和104的压力。电容式传感器统一以原始数据的形式向触摸传感器处理模块80(图5)发送信号。这些观测信号表示哪些传感器是用户的手和远程控制单元12之间的当前接触点。触摸传感器处理模块80可以将原始数据转换为可被识别模块90使用的格式。例如,可以将该数据构建为其元素表示各种传感器的向量或矩阵。转换后的数据可以被使用来在用户识别数据库64中找到匹配。
或者,触摸传感器处理模块80可以根据该原始数据推断其他数据。例如,可辨别出哪只手(左手或右手)正在抓住该远程控制单元。由于手掌是连续的以及手指之间具有间隙,还可以辨别出哪些传感器由手掌激活以及哪些传感器由手指激活。基于哪只手正在抓住远程控制单元以及手指和手掌的位置,触摸传感器处理模块80可以推断出所估计的手尺寸。可以根据初始抓捏,比如握持模式,推断其他特征数据。例如,一些用户将使用三个手指来在一侧抓住远程控制单元,而其他用户将使用四个手指握持。同样,也可以包括与施加到每个传感器上的压力相关的信息。所推断出的特征数据的集合可以被使用来在用户识别数据库64中找到匹配。
现在参见图7,现在将更详细地描述基于抓捏/握持位置来识别用户的示例技术。在步骤S110,触摸传感器处理模块80接收与所激活的触摸传感器对应的原始数据。在步骤S112,触摸传感器处理模块80将确定是用左手还是用右手抓住远程控制单元。在步骤S114,触摸处理模块70将通过将数据分为手掌数据和手指数据,提取与抓捏/握持位置相关的特征。在步骤S116,触摸处理模块70将确定手掌封闭模式。比如压力和高压力点的信息可以基于从触摸传感器接收的信号推断。此外,所激活的传感器的数量可以被使用来提取手掌封闭模式的宽度。在步骤S118,触摸处理模块70可以基于触摸处理模块70已知的手掌位置,估计手掌中不与传感器接触的部分的手位置。学习模型或已知生理模型可以被使用来估计该手位置。基于步骤S116和S118,可以在S120计算用户的手尺寸。
在步骤S122,计算手指封闭模式。类似于手掌封闭模式,可以根据所接收的触摸传感器数据来确定压力和压力点。根据该数据,触摸处理模块80可以确定用户用于抓住远程控制单元的手指的数量以及手指间的间距。手指封闭模式可以与步骤S118和S116的结果组合来确定握持模式,步骤S118和S116的结果提供对手的手掌部分的估计。该数据以及手的尺寸数据可以被传送到识别模块90,并且被使用来在步骤S126中匹配用户识别数据库中的用户。可设想的是,可以使用多种不同的匹配用户的方法。例如,可以对处理后的数据和用户识别数据执行k均值群集。还可以使用其他数据挖掘技术和统计学习技术来确定用户识别。此外,可以将信任得分或可能用户的第n个最近匹配列表附加到该识别。在使用信任得分的情况下,该系统可以要求信任得分超过预定阈值来识别用户。在产生第n个最近匹配列表的情况下,可以使用其他识别技术来减少该列表。
在替换实施例中,直到远程控制单元已经到达搁置(resting)位置,才发起识别用户的方法。因此,用户将抓住远程控制单元12、拾取远程控制单元12、并且随后到达远程控制单元12的握持位置。一旦惯性传感器指示远程控制单元12已经到达稳定位置,例如加速度或速度低于预定阈值,则可以开始用户识别过程。在该实施例中,可以完全忽略初始抓住远程控制单元时的变化,因为抓捏模式可以同等地依赖于远程控制单元和用户的位置,例如,如果远程控制单元在用户后面或置于两个沙发靠垫之间,则用户将按照不同的方式抓住远程控制单元。
握持/抓捏模式匹配可以用作用户识别的单独手段、用户识别的主要手段或用户识别的部分手段。初步研究揭示,在小的用户组(5个用户或家庭规模)中,握持/抓捏模式导致大约87.5%的用户识别准确率。因此,取决于下层系统的规模和应用,87.5%可以是足够的识别准确度。然而,对于更为敏感的登录环境,可能需要更高的准确度,因此,握持/抓捏模式匹配可以用作多种匹配技术中的一种。
图8描述了可以用来识别用户的用户轨迹的一个示例。出于例示的目的,绘出了与两个用户134A和134B对应的两个轨迹136A和136B。在位置130,远程控制单元12被绘出为以搁置状态位于茶几138上。在位置132A,远程控制单元12已经被用户134A抓住,并且通过遵循轨迹136A移动到位置132A。在位置132B,远程控制单元12已经被用户134B抓住,并且通过遵循轨迹136B移动到位置132B。因此,可以基于远程控制单元12的轨迹来区分这两个用户。如根据本公开显而易见的,远程控制单元12将基于触摸传感器的激活,知道用户何时抓住它,以及何时它停止。如先前所述,远程控制单元12可以具有一个或多个加速度计和/或一个或多个陀螺仪。应该明白的是,可以使用任何类型的惯性传感器,比如各种类型的陀螺仪以及各种类型的加速度计。
图9例示了使用轨迹数据来识别用户的示例方法。在步骤140,移动处理模块82从陀螺仪和加速度计接收传感器输入。在步骤148,移动处理模块82必须确定开始位置。移动处理模块82可以执行步骤146和/或142以及144来确定开始位置。搁置状态和握持位置是轨迹的对应开始点和结束点。为了进行可靠的轨迹匹配,确定实际的开始位置可能是有益的。例如,如果用户正在从地板上拾取远程控制单元而不是从茶几上拾取远程控制单元,则同一用户可以遵循不同的轨迹。因此,远程控制单元12可以实现一种或多种用于估计开始位置的技术。首先,远程控制单元12可以跟踪远程控制单元12在什么地方被放置到搁置位置。因此,当用户放开触摸传感器时,来自这些传感器的惯性数据可以被使用来确定搁置位置。为了实现这种类型的确定,加速度计和陀螺仪应该连续地向移动传感器处理模块72输出加速度和速度。移动处理模块72将使用最近获知的位置(例如先前的搁置位置),以及航位推算法(dead reckoning)来确定位置。为了实现航位推算,移动处理单元82还可以接收时间数据,用于基于加速度和速度向量来计算位置。一旦用户放开触摸传感器,移动处理模块82可以存储新的搁置位置作为最后位置。当最后已知位置被记录时,在用户抓住远程控制单元12时,移动处理模块82可以在步骤S146获得该最后已知位置。
如上所述,如果开始位置已知,则轨迹处理模块82可以增加预测准确度。要明白的是,一个根本的理由是开始位置和轨迹是彼此依赖的。然而,这种依赖性不必是非常精确的地理位置,而是远程控制单元的相对位置。例如,从右侧远端拾取远程控制单元的用户在从茶几的中心拾取该远程控制单元时,将可能采用相似的轨迹。然而,当用户从沙发拾取远程控制单元12时,该轨迹将不同。因此,如上所述的步骤S148不会要求精确定点位置。相反,大致位置或一组位置可以用作开始位置。轨迹处理模块可以使用已知位置和所估计出的开始位置的k均值群集算法,确定大致开始位置。
应该注意的是,在特定实施例中,远程控制单元12可以请求用户定期地验证位置。此外,在一些实施例中,存在位置注册阶段,在该阶段,用户预编程远程控制单元的n个最可能的位置。在本实施例中,用户能够输入茶几、沙发、边桌、地板、娱乐中心等。在这种注册阶段,用户将不得不相对于彼此来定义位置。
在其他实施例中,移动处理模块82将基于移动本身来确定位置。在这些实施例中,移动处理模块82接收传感器数据,并且在步骤S142中使用航位推算技术确定参考轨迹。应该注意的是,该轨迹是参考轨迹,因为它假设开始点为(0,0,0),并且该参考轨迹被用作参考来确定开始位置。在步骤S144,移动处理模块82可以采用所接收的轨迹作为输入,使用k均值群集算法来确定最可能的开始位置。
一旦确定出开始位置,移动处理模块可以使用搁置位置(开始点)、握持位置(结束点)以及传感器数据来确定轨迹。移动处理模块82随后将尝试基于开始点和轨迹本身,针对该轨迹在用户识别数据库62中找到匹配。两个参数是重要的理由在于,轨迹的分类取决于开始点。例如,两个相同的轨迹可以被报告给移动传感器处理模块72,但是一个轨迹开始于茶几,一个轨迹开始于地板中心。在没有开始位置时,可能很难区分这两个轨迹。然而,利用所估计出的或已知的开始位置,移动处理模块72可以在这些轨迹间进行区分,因为一个轨迹从地板开始,而另一个从茶几开始。因此,例如,可以确定较矮用户(例如,儿童)在站立位置从地板上拾取远程控制单元,以及较高用户(例如,成人)从茶几拾取远程控制单元。可设想的是,比如支持向量机或k均值群集的学习方法可以被使用来基于所计算出的轨迹和开始位置,确定用户识别。应该注意的是,开始点(例如,沙发或茶几)可以被使用来减少与所输入的轨迹进行比较的轨迹集。例如,如果移动处理模块82确定用户从茶几拾取远程控制单元12,即,所输入的轨迹源自茶几,则仅仅源自该茶几的轨迹集被使用来生成用户识别。
在替换实施例中,该轨迹的开始点被忽略。相反,表示远程控制单元的相对位置的向量被使用来识别用户。因此,该轨迹被假设为总是开始于位置(0,0,0)。
应该注意的是,轨迹匹配可以用作用户识别的单独手段、用户识别的主要手段或用户识别的部分手段。取决于系统的规模以及下层系统的应用,轨迹匹配可以提供足够的识别准确度。然而,对于更为敏感的登录环境,可能需要更高的准确度,因此,轨迹匹配可以用作多种识别技术中的一种。
在包括触摸板的远程控制单元12的实施例中,可以实现其他的识别方法。图10例示了用户对远程控制单元12的触摸板20的第一次触摸。如上所述,用户在使用远程控制单元12时将进行三个事情:1)抓住远程控制单元;2)拾取远程控制单元;以及3)触摸该触摸板20。通过提取这些事件的数据,可以根据所提取出的数据识别用户,而无需不得不主动地输入用户识别信息。到此为止,已经描述了根据与拾取远程控制单元12相关联的抓捏/握持模式和轨迹来识别用户。识别用户的第三种方式是基于用户的第一次触摸。基于与用户相关的握持模式,由于用户的手通常具有不同的骨头和关节结构,用户将具有相对唯一的第一次触摸位置。因此,可以基于握持位置和对触摸板的第一次触摸来进一步识别用户。
图11是描述基于对远程控制单元12的第一次触摸来识别用户的示例方法的流程图。在步骤S150,检测和确定用户的握持位置。该过程在上面更为详细地描述。在步骤S152,确定用户的第一次触摸。用户的第一次触摸可以是触摸板20上的坐标(x,y)。基于握持位置/模式和第一次触摸点,触摸板处理模块88可以推断出与用户的拇指相关的其他信息。例如,触摸板处理模块88确定拇指握持/环绕远程控制单元12的角度。此外,可以确定拇指长度。基于与拇指相关的第一次触摸数据,可以在步骤S154计算与用户拇指(图10)对应的向量160。拇指向量160可以是具有x值、y值、x偏移量和y偏移量的四维向量,其中触摸板的一个角用作原点。在步骤S156中,该向量可以被传送到识别模块90,并被识别模块90使用来在用户识别数据库62中找到匹配。
应该注意的是,第一次触摸数据可以用作用户识别的单独手段、用户识别的主要手段或用户识别的部分手段。取决于系统的规模以及下层系统的应用,第一次触摸数据可以提供足够的识别准确度。然而,对于更为敏感的登录环境,可能需要更高的准确度,因此,第一次触摸数据可以用作多种识别技术中的一种。
图12例示了用户在远程控制单元12的触摸板20上绘出圆形。到此为止,已经描述了识别用户的所有被动式方案。下面描述识别用户的半被动式方案,其中用户在触摸板20上绘制形状,优选为圆形。如图中可见,用户在触摸板20上绘制圆形。然而,可设想的是,可以使用任何形状。让用户在触摸板上绘制形状的目的在于从用户的移动中提取运动数据。例如,当用户绘制逆时针圆圈时,存在将通常出现的四个冲程(stroke)。第一个是从12到9,第二个是从9到6,第三个是从6到3,以及最后一个是从3到12。用户可以将拇指从一个位置滑到下一个位置,或者可以轻微地弯曲拇指,这将导致不同的弧形轨迹。用户可以进行小冲程或大冲程。用户可以沿顺时针或逆时针绘制圆形。此外,还可以推断时间数据,以及将时间数据用于识别用户。应该显而易见的是,不同冲程属性的排列是庞大的。与用户绘制出的圆形对应的排列的数量为识别用户提供高准确度。
图13描述了通过使用户在触摸板20上绘出形状来识别用户的示例方法。在步骤S170,触摸板处理模块88接收与所绘出的圆形对应的弧形轨迹数据。所述弧形轨迹数据可以以三元组(x,y,t)的形式出现,其中每个x,y坐标被赋予时间戳。在步骤S172,该组三元组可以经历线性伸长。例如,弧形轨迹数据可以被伸长到中间长度的130%。在步骤S174,伸长后的弧形轨迹数据可以经历主分量分析(PCA),以缩减数据集的维度。在优选实施例中,选择占98%的变量的主分量。然而,要理解的是,可以选择其他变量阈值。在步骤S176,可以使用k均值群集来群集缩减后的数据集,其中k被选择为是用户的数目。在步骤S178,可以利用变换后的弧形轨迹数据落入的集群来识别匹配用户。
在一些实施例中,可以首先去除时间数据,并且在步骤S172到S178中仅仅使用坐标数据,即数据的(x,y)分量。在这些实施例中,在步骤S180中,可以使用时间数据来对k均值群集的结果重新计分。一旦被重新计分,则可以在步骤S182识别用户。
应该注意的是,形状绘制可以用作用户识别的单独手段、用户识别的主要手段或用户识别的部分手段。事实上,形状绘制通常提供非常高的识别准确率。然而,形状绘制不是被动式方案,并且因此,当使用被动式识别技术后该系统不确信用户的身份时,形状绘制可以被实现为备用方法。取决于系统的规模以及下层系统的应用,形状绘制可以是保护更高敏感型逻辑环境的有利手段。
可设想的是,还可以使用其他传感器来识别用户。例如,声学传感器58可以被使用来检测用户的心跳。声学传感器58可以沿着远程控制单元的外壳的侧边放置在关键位置,由此整个远程控制单元12充当声学天线。当用户紧紧地握持设备时,该声学传感器检测心跳,并且将该数据发送到声学处理模块86。声学处理模块86可以处理所接收的数据,从而可以确定心跳的频率和幅度。然后,识别模块90可以使用如上所述的一种或多种统计学习或数据挖掘技术,来基于用户的心跳特性确定在用户识别数据库62中是否存在匹配的用户。可设想的是,可以使用其他类型的传感器来检测用户的心跳或相关统计。例如,可以使用脉搏血氧计来测量病人的脉搏或血氧水平。另外,可以使用超敏感加速度计来检测用户的脉搏导致的变化。最后,还可以使用脉冲响应系统。脉冲响应系统主要包括扬声器和麦克风。麦克风发射高频率声波,该高频率声波通过用户的手反射。该声波可以被反射回麦克风,在麦克风处,传感器能够鉴别出声波的增强。脉冲响应传感器还可以被使用来测量用户的脉搏。
另一其他传感器是光学传感器56。光学传感器56可以位于远程控制单元上或位于主机设备上。光学传感器56可以被使用来接收用户的图像数据。为了识别用户,图像处理模块86可以对用户执行脸部识别或躯干识别。另一传感器是放置在远程控制单元12的外壳上的热传感器。热传感器可以被使用来确定用户的身体温度。通常,单独基于身体温度的识别可能是不可靠的。然而,身体温度数据在增加数据集的维度时可能是有用的,从而更大的分离导致对用户属性数据集进行收集。
已经公开了用户识别的各个方法。所有方法都是被动式或半被动式,因为它们都不需要用户记起或输入用户姓名、密码或其他唯一标识符。取而代之的是,这些技术依赖于用户在执行下意识任务时的自然移动趋势。在替换实施例中,两种或更多种上述技术的组合可以被使用来增加用户识别的准确度。如先前所述,每个个体技术可以具有与识别相关的信任得分。另外,还可以针对每种识别技术,生成第n个最近匹配列表。基于多次用户识别尝试的信任得分或第n个最近邻居,可以实现更为准确的用户识别。采用5个用户的样本尺寸,抓捏/握持识别方法得到87.5%的准确率,仅仅基于加速度计的轨迹识别得到77.5%的准确率,以及仅仅基于陀螺仪的轨迹识别得到65%的准确率。然而,将这三种被动式识别方法组合,得到90%的准确率。应该注意的是,基于绘制圆形的识别得到97.5%的识别准确度。
如图14中所见,存在n种不同的用户识别190a-190n,每种用户识别各具有一个信任得分192a-192n。组合的识别模块194可以将单个用户识别组合来实现更为健壮的用户识别。每种方法还可以产生第n个最近匹配列表,该列表中的每项具有自己的信任得分。对于每个用户,组合的识别模块194可以计算出各个信任得分的加权平均值。组合的识别模块194可以基于具有最大加权平均值的用户,确定用户识别196。可以设想的是,还可以使用基于各种识别方法的组合来确定用户的其他方法。
已经对数据的处理进行了一般性的描述。图15描绘了处理传感器数据的示例方法。如先前所述,各个传感器将提供输入数据200a-200n。所提供的数据可以从各个传感器接收,例如触摸传感器、惯性传感器、触摸板传感器、声学传感器等,或者所提供的数据可以从产生大量数据的一种类型的传感器接收,所述大量数据例如是许多触摸传感器数据或大量惯性数据。在后一情况下,数据集将较大。因此,输入数据200a-200n可以首先经历特征提取202。可以使用各种用于维度缩减的技术。例如,该数据集可以经历主分量分析或线性区分分析。生成表示该数据集但维度低的特征向量204,并将该特征向量204传送到分段模块208。
分段模块208将特征向量204的各部分分为表示不同状态的多个分段。例如,在图8中正在抬起远程控制单元的示例中,远程控制单元首先在桌面上,处于搁置状态。接着,抓住该远程控制单元,但是保持在桌子上或靠近桌子。随后,通过拾取阶段快速地加速远程控制单元。然后,远程控制单元到达握持位置。在握持位置,远程控制单元将可能具有速度和加速度,但是幅度不是在初始拾取期间观测到的幅度。最后,远程控制单元将会被放置回稳定的表面,比如沙发或桌面。另外,用户可以丢下远程控制单元,或者可以移动远程控制单元来向主机设备发送命令。应该显而易见的是,不是所有这些分段都与用户识别相关。然而,惯性传感器(以及所有其他传感器)可以连续地发送数据。因此,通过对数据进行分段,可以有利于进一步缩减需要分析的数据。通过将该数据与各种分析模型210进行比较,可以发生对数据的分段。分段模型210的形式可以是表示各种状态的隐藏Markov模型。通过将数据块与分段模型210进行比较,可以以合理的可能性确定数据的状态。随后,可以根据各个分段212a-212n中的至少一个,对特征向量进行分类。此外,如果特征向量中的仅仅一个特定部分相关,则分段选择模块214可以缩减该特征向量,从而仅仅该相关分段被分类。然而,要明白的是,该特征向量不是必须被缩减。
如上所述,分段选择模块214将选择特征数据的状态,并且可以选择相关分段212a-212n来进行分类。回见先前的示例,分段选择模块可以被配置来仅仅选择在拾取时以及在处于搁置位置时远程控制单元的轨迹。特征向量204或特征向量204的所选分段被传送到分类器216。分类器216可以使用群集分析来确定用户识别。在群集分析中,利用模型220a-220n来对所选分段进行分析。用户模型220a-220n表示各种用户的属性。分段选择模块214还可以将所选分段传送到分类器224,以用于利用最相关的数据对特征向量进行分类。例如,当分段选择模块214确定特征向量204是与远程控制单元拾取对应的主轨迹数据时,在访问用户模型时,分类器将仅仅检索用户模型220a-220n中与该轨迹数据对应的分段。因为先前已经对用户模型进行了分类,所以分类器仅仅需要确定特征向量或特征向量的所选分段所属于的集群,即,哪个用户模型220a-220n。如先前所述,分类器224可以执行群集算法,比如k均值群集,来确定特征向量最可能属于的集群。所确定的集群将与用户的身份对应。因此,可以利用该系统来进行用户识别222。
如本公开中显而易见的,各种识别方法都依赖于至少一种匹配、学习或分类方法,比如支持向量机、k-均值群集、隐藏Markov模型等。因此,已经假设在用户识别数据库62中实际上存在用户识别数据库62中的各种数据类型。可以使用未被管理或已被管理的学习技术来收集数据集,比如抓捏/握持数据、轨迹数据、第一次触摸数据、弧形轨迹数据以及心跳数据。
收集各种数据集的第一种方法是通过训练会话来实现。每个用户可以向系统(例如,主机设备)注册。正在注册的用户将被要求重复地执行各种任务,比如抓住远程控制单元,拾取远程控制单元,或在远程控制单元的触摸板上绘出圆形。所收集的训练数据被使用来定义用户的趋势,以用于识别。当系统处于操作模式时,在每次成功的识别后,用于识别的输入数据可以被添加到该训练数据中。此外,用户可以验证正确的用户识别并且校正不正确的识别,以增加系统的强壮性。
收集各种数据集的第二种方法是通过不受管理的学习过程来实现,所述不受管理的学习过程在远程控制单元的使用过程中区分用户。采用拥有数字视频记录器(DVR)的家庭作为示例。父亲的手大,并且使用三个手指抓住远程控制单元。妻子的手小,并且使用四个手指抓住远程控制单元。儿童的手小,并且使用三个手指抓住远程控制单元。此外,父亲记录与体育相关的节目和真人实景秀。母亲记录情景喜剧和警察剧。儿童记录卡通片和动物秀。在初始时段的过程中,系统将基于手的大小和握持模式的差异来区分三个用户。在初始时段中,识别系统还将学习手大且利用三个手指抓住的用户与体育和真人实景秀节目相关。然后,系统将该用户偏好或简档映射到所推断出的握持模式数据。因此,用户可以抓住远程控制单元,并且仅仅基于过去使用和对远程控制单元的初始拾取就设置好他/她的偏好。使用这种方法,用户将不会实际参与系统的训练,但是将随着时间的推移实现用户识别。
图16描绘了用于识别用户和训练用户识别数据库的方法。要注意的是,图16包含大部分在图15中找到的组件。主要差异在于图16包含类属模型数据库224。背景模型数据库包含被编程的用户模板,从而系统具有背景模型来一起分析用户模型。当用户初次使用系统(即,首次使用远程控制单元)时,将不存在用户模型220a-220n。学习模块可以识别出这种情况,并且自动地注册新用户。如图15中所示对输入数据进行处理,从而将所有相关分段和对应的属性存储在新的用户模型中。用户第二次拾取远程控制单元时,系统将接收用户输入数据,缩减维度,选择数据的相关分段,并且相对于用户模型和背景模型来运行所选择的分段。用户识别模块将可能将该用户识别为用户。所述识别将具有指示用户识别时的信任度的对应可能性。如果该可能性没有超过预定阈值,则用户识别模块假定该用户是新用户,并且使用输入数据作为新用户模型的属性,为该用户创建新的用户模型。如果对应的可能性(即信任得分)超过所述阈值,则用户识别模块识别出该用户,并且将输入特征添加到用户的用户模型中。如可明白的,在用户拾取远程控制单元且被成功地识别出时,与该用户相关的用户模型将大大地增加。因此,与示例用户的识别相关联的信任得分也将增加。
现在更详细地描述图16。在图15和图16中都找到的组件已经被同样编号。与图15类似,输入数据200a-200n被接收且经历特征提取202。上述结果是特征向量204,该特征向量204随后被分段模块208使用分段模型210作为确定数据的分段的模型进行分段。随后,将特征向量204分为多个分段。分段选择模块214选择相关分段,并且将相关分段传送到分类器224。分类器224的操作与图15中的分类器216稍微不同。除了用户模型220a-220n之外,分类器224还接收背景模型226a-226n。然后,分类器使用群集算法来确定用户识别。用户识别将具有与之相关的可能性。如果用户识别的可能性超过阈值,则分类器224生成用户识别222。如果该可能性没有超过该阈值或者如果所识别的用户是背景变量,则分类器将该数据传递到模型生成模块230,该模型生成模块230基于相关属性生成新的模型。该新的模型232被传送到用户模型数据库218。
仅仅作为示例,图17描述了用户识别数据的两个假设集230和232,其中对于第一用户,用户识别数据由黑色点表示,而对于第二用户,用户识别数据由圆圈表示。在训练阶段期间,收集数据集,从而可以在稍后基于训练数据识别用户。六点状星形234表示用户识别尝试。如同所见,该六点状星形234清楚地落在第一用户的数据集230中。因此,系统可以基于识别尝试最接近的集群,以高的可能性预测要被识别的用户是第一用户。要明白的是,在认证事件中使用的生物特征越多,用于识别的数据集的维度越大。当具有较高维度的数据集用于识别时,将在数据集群之间实现更大量的分离。
尽管已经描述了远程控制单元12,但是应该明白的是,如上所述的传感器以及如上所述的识别方法将用于各种手持设备,比如蜂窝电话、便携式电话、MP3播放器、个人DVD播放器、PDA以及计算机鼠标。例如,对于蜂窝电话或便携式电话,通过使用任何上述技术,所述电话可以确定第一用户或多个用户正在使用该电话。基于此,比如电话薄、保存的文本消息、保存的邮件、音量设置、屏幕设置、壁纸和比如照片的所保存的文件的特定设置将变为可被用户所用。类似地,在比如MP3播放器的设备中,在识别后,第一用户的音乐库可以被该用户访问。在PDA中,第一用户的日程表和联系人仅仅在该用户抓住该PDA且被识别后,才可为该用户所用。
对于计算机鼠标或膝上型计算机鼠标垫,如上公开的方法可以被使用来识别和认证用户。随后,该用户可以自动地登录到它的用户简档。此外,该用户可以离开计算机,并且在另一用户触摸该鼠标或鼠标垫时,设备将能够确定用户已经改变。此时,第一用户的简档对于第二用户而言是不可接触的,直到第一用户提供明确的清除(override)指令。
应该显而易见的是,一旦设备被认为是个人设备,则所公开的方法和设备将允许共享该设备,而不必冒通常与这些设备相关联的盗用或模仿的风险。
如本文中所使用的,术语“模块”可以指代专用集成电路(ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(共享处理器、专用处理器或处理器组)和/或存储器(共享存储器、专用存储器或存储组)、组合逻辑电路和/或提供上述功能的其他合适组件的部件,或包括上述组件。应该理解的是,当描述软件或固件程序时,术语“模块”可以指代驻留在电子存储器上的机器可读指令。
实施例的前述描述已经被提供来用于例示和描述。它不是意在是排他性的或限制本发明。特定实施例的个体元素或特征通常不限于该特定实施例,而在合适时是可互换的,并且即使没有特别地示出或描述,也可以用于所选实施例中。上述个体元素或特征还可以按照许多方式进行修改。这些修改不认为是背离本发明,并且所有这些修改意在包括在本发明的范围内。本文中描述的方法步骤、过程和操作不被解释为必须要求它们按照所讨论或例示的特定顺序执行,除非被特别地确定作为执行的顺序。还要理解的是,可以使用附加或替换步骤。
Claims (46)
1.一种手持电子设备,包括:
外壳;
触摸传感器系统,所述触摸传感器系统沿着所述外壳的外周布置,并且响应于用户的手和所述设备之间的多个同时的接触点,生成指示所述用户的手和所述设备之间的多个接触点的观测信号;
触摸传感器处理模块,所述触摸传感器处理模块被配置为从所述触摸传感器系统接收所述观测信号,并且确定用户的握持模式;
惯性传感器,所述惯性传感器嵌入在所述外壳中,并且响应于所述用户的手进行的所述设备的移动,生成惯性信号;
轨迹模块,所述轨迹模块被配置为从所述惯性传感器接收所述惯性信号,并且确定所述设备的移动轨迹;
沿着所述外壳的外表面放置的触摸板,所述触摸板响应于所述用户的手指沿着所述触摸板的外表面的移动而生成触摸板信号;
触摸板处理模块,所述触摸板处理模块接收所述触摸板信号,并且确定用户手指移动数据;
用户识别数据库,用于存储与多个已知用户的属性对应的数据,其中,所述多个已知用户的属性用来识别用户,并且其中所述属性包括所述多个已知用户的握持模式、由多个已知用户进行的所述设备的移动轨迹、以及所述多个已知用户的用户手指移动数据;以及
用户识别模块,所述用户识别模块被配置为接收所述用户的识别信息,并且基于所述识别信息和所述多个已知用户的属性来识别所述用户,其中所述识别信息包括所述用户的握持模式、所述用户移动所述设备的轨迹、以及所述用户手指移动数据。
2.如权利要求1所述的手持设备,其中,所述触摸传感器系统还被定义为电容式传感器的阵列,所述电容式传感器被集成到所述外壳的外表面上并且沿着所述外壳的外表面彼此在空间上分离。
3.如权利要求1所述的手持设备,其中,所述惯性传感器是加速度计。
4.如权利要求1所述的手持设备,其中,所述惯性传感器是陀螺仪。
5.如权利要求1所述的手持设备,其中,所述用户识别模块被配置为实现机器学习来识别用户。
6.如权利要求5所述的手持设备,其中,所述用户识别模块使用k均值群集算法来确定用户识别。
7.如权利要求1所述的手持设备,其中,所述用户识别模块确定多个初步用户识别,其中所述初步用户识别中的每一个基于所述属性之一。
8.如权利要求7所述的手持设备,其中,所述初步用户识别中的每一个具有对应的信任得分,其中所述信任得分指示所述初步用户识别正确的可能性。
9.如权利要求1所述的手持设备,其中,所述用户识别模块确定多个用户识别,其中所述初步识别中的每一个具有可能用户的列表,并且其中所述可能用户的列表中的每项具有指示所述可能用户实际上是所述用户的可能性的信任得分。
10.如权利要求1所述的手持设备,其中,所述轨迹模块确定所述设备的开始位置,其中所述用户识别模块还基于所述用户设备的开始位置确定用户识别。
11.一种手持电子设备,包括:
外壳;
传感器系统,所述传感器系统沿着所述外壳的外周布置,并且响应于用户的手和所述设备之间的多个同时的接触点,生成指示所述用户的手和所述设备之间的多个接触点的观测信号;
用户识别数据库,用于存储与多个已知用户的属性对应的数据,其中,所述多个已知用户的属性用于识别用户;以及
用户识别模块,所述用户识别模块被配置为从所述传感器系统接收所述观测信号,并且根据所述观测信号以及所述多个用户的属性来识别所述用户。
12.如权利要求11所述的手持设备,其中,所述传感器系统还被定义为传感器阵列,所述传感器被集成到所述外壳的外表面上并且沿着所述外壳的外表面彼此在空间上分离。
13.如权利要求11所述的手持设备,其中,所述传感器系统包括电容式传感器的阵列,所述电容式传感器被集成到所述外壳的外表面上。
14.如权利要求11所述的手持设备,其中,所述用户识别模块接收原始数据形式的所述观测信号,并且从所述原始数据中提取出所估计的用户的手尺寸。
15.如权利要求11所述的手持设备,其中,所述用户识别模块接收原始数据形式的所述观测信号,并且根据所述原始数据推断所估计的用户的握持模式。
16.如权利要求15所述的手持设备,其中,所述观测信号包括在所述用户的手和所述设备之间的每个接触点处的压力量。
17.如权利要求11所述的手持设备,其中,所述传感器系统还被定义为声学传感器,所述声学传感器被集成到所述外壳的外表面上。
18.如权利要求17所述的手持设备,其中,所述观测信号指示所述用户的血流噪声。
19.如权利要求17所述的手持设备,其中,所述观测信号指示所述用户的心跳声音。
20.如权利要求19所述的手持设备,其中,所述观测信号指示所述用户的心跳声音的频率和幅度。
21.如权利要求11所述的手持设备,其中,所述传感器系统响应于所述用户的两只手和所述设备之间的接触点,生成指示所述用户的每只手和所述设备之间的多个接触点的观测信号。
22.如权利要求11所述的手持设备,还包括:
惯性传感器,所述惯性传感器嵌入在所述外壳中,并且响应于所述用户的手进行的所述设备的移动,生成惯性信号;以及
轨迹模块,所述轨迹模块被配置为从所述惯性传感器接收所述惯性信号,并且确定所述设备的移动轨迹,其中所述用户识别模块被配置为从所述轨迹模块接收所述轨迹,并且部分地基于所述轨迹识别所述用户。
23.如权利要求22所述的手持设备,其中,所述惯性传感器是加速度计。
24.如权利要求22所述的手持设备,其中,所述惯性传感器是陀螺仪。
25.如权利要求22所述的手持设备,其中,所述轨迹模块确定所述用户设备的开始位置,并且将所述开始位置传送到所述用户识别模块。
26.如权利要求25所述的手持设备,其中,所述用户识别模块还基于所述用户设备的开始位置确定用户识别。
27.如权利要求11所述的手持设备,还包括:
触摸板,所述触摸板沿着所述外壳的外表面放置,并且响应于用户手指沿着所述触摸板的外表面的移动而生成触摸板信号;以及
触摸板处理模块,所述触摸板处理模块接收所述触摸板信号,并且确定用户手指移动数据,其中所述用户识别模块被配置为从所述触摸板处理模块接收所述手指移动数据,并且部分地基于所述手指移动数据识别所述用户。
28.如权利要求27所述的手持设备,其中,所述用户识别模块被配置为接收所述手指移动数据,并且部分地基于用户在所述触摸板上绘出预定对象,识别所述用户。
29.如权利要求25所述的手持设备,其中,所述用户识别模块接收与所述用户的一个手指和所述触摸板之间的第一接触点对应的手指移动数据,并且使用与所述第一接触点对应的所述手指移动数据,识别所述用户。
30.如权利要求11所述的手持设备,其中,所述传感器系统包括至少一个发射器和与所述至少一个发射器对应的多个接收器,所述至少一个发射器发送具有电流的电信号,所述多个接收器经由所述用户的身体接收所述电信号,其中所述传感器系统生成指示所述发射器和所述多个接收器中的每个接收器之间所观测到的电阻的观测信号,其中所述电阻指示从所述发射器到所述接收器所观测到的所述用户的身体的电阻。
31.如权利要求30所述的手持设备,还包括第二观测信号,所述第二观测信号指示对所述发射器和所述多个接收器中的每个接收器之间的观测信号执行传输函数后的结果。
32.如权利要求11所述的手持设备,其中,所述传感器系统还被定义为脉搏血氧计。
33.一种手持电子设备,包括:
外壳;
触摸板,所述触摸板对用户的手指移动进行响应,以生成与所述手指移动对应的触摸板信号;
触摸板处理模块,所述触摸板处理模块接收所述触摸板信号,并且基于所述触摸板信号生成手指移动数据;
用户识别数据库,用于存储与多个已知用户的物理属性对应的用户识别数据,其中,物理属性包括用户绘出预定对象的手指移动;以及
用户识别模块,用于接收所述用户手指移动数据,并且基于所述手指移动数据以及所述用户识别数据来识别所述用户,其中,所述手指移动数据是所述用户绘出所述预定形状。
34.如权利要求33所述的手持电子设备,其中,所述预定对象是圆形。
35.如权利要求34所述的手持电子设备,其中,所述触摸板处理模块识别绘制所述圆形所得到的至少三个弧形手指运动。
36.如权利要求35所述的手持电子设备,其中,每个弧形手指运动具有与所述弧形手指运动相关联的向量,所述向量指示所述手指运动的长度、所述手指运动的持续时间以及所述手指运动的方向。
37.如权利要求33所述的手持设备,其中,所述预定对象是星形、正方形、三角形、直线和圆弧中之一。
38.如权利要求33所述的手持设备,还包括线性伸长模块,所述线性伸长模块对所述手指移动数据执行线性伸长。
39.如权利要求38所述的手持设备,还包括维度缩减模块,所述维度缩减模块对所述线程伸长后的手指移动数据执行维度缩减。
40.如权利要求33所述的手持设备,其中,所述识别模块使用所述手指移动数据和在所述用户识别数据库中存储的物理属性,执行群集算法。
41.如权利要求33所述的手持设备,其中,用户识别还基于与所述手指运动数据对应的时间,其中所述时间定义所述手指运动数据的时空特性。
42.如权利要求33所述的手持设备,其中,所述手持设备是远程控制器、蜂窝电话、膝上型计算机、MP3播放器、PDA和便携式电话中之一。
43.如权利要求33所述的手持设备,其中,所述识别模块生成用于提示所述用户绘制所述预定对象的用户提示。
44.一种手持设备,包括:
外壳;
多个传感器,用于接收用户对所述设备的操作时伴随的传感器输入,并且基于所述多个传感器的输入,生成用户识别数据;
用户识别数据库,用于存储多个用户模型,每个用户模型对应于已知用户并且具有基于所述已知用户的所传递的传感器输入的模型识别数据;
背景模型数据库,用于存储多个背景模型,每个背景模型具有用于模仿传感器输入的预定背景识别数据;
用户识别模块,用于使用所述用户识别数据、所述多个用户模型以及所述多个背景变量来执行群集;
用户模型生成模块,用于生成用户模型,其中从所述用户识别数据中导出所生成的用户模型的模型识别数据;
当利用所述多个用户模型中的一个用户模型群集所述用户识别数据时,所述用户识别模块识别用户,以及
当没有利用所述多个用户模型中的一个用户模型群集所述用户识别数据时,所述用户识别模块将所述多个用户模型中的所生成的用户模型存储在所述用户识别数据库中。
45.如权利要求44所述的手持设备,还包括分段模块,所述分段模块用于接收所述用户识别数据,并且基于多个分类模型对所述设备的至少一个状态进行分类,每个分类模型指示所述设备的不同可能状态,其中所述设备的状态表示所述设备和所述用户对所述设备的操作之间的关系。
46.如权利要求44所述的手持设备,其中,所述多个传感器连续地尝试接收传感器输入,并且其中所述用户识别模块连续地尝试基于所述用户识别数据识别用户。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US4657808P | 2008-04-21 | 2008-04-21 | |
US61/046,578 | 2008-04-21 | ||
PCT/US2009/041227 WO2009131987A2 (en) | 2008-04-21 | 2009-04-21 | Method and system of identifying a user of a handheld device |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102016765A true CN102016765A (zh) | 2011-04-13 |
Family
ID=41200729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009801139729A Pending CN102016765A (zh) | 2008-04-21 | 2009-04-21 | 用于识别手持设备的用户的方法和系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8031175B2 (zh) |
EP (1) | EP2255270A2 (zh) |
JP (1) | JP2011523730A (zh) |
CN (1) | CN102016765A (zh) |
WO (1) | WO2009131987A2 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102970606A (zh) * | 2012-12-04 | 2013-03-13 | 深圳Tcl新技术有限公司 | 基于身份识别的电视节目推荐方法和装置 |
CN103246448A (zh) * | 2013-04-03 | 2013-08-14 | 深圳Tcl新技术有限公司 | 获取用户的身份进行交互的交互方法及遥控装置 |
CN103414930A (zh) * | 2012-07-27 | 2013-11-27 | Tcl集团股份有限公司 | 识别感应用户的遥控系统及其方法 |
CN103472917A (zh) * | 2013-09-06 | 2013-12-25 | 浙江大学 | 一种与加速度传感器的放置方式和位置无关的运动识别方法 |
CN103529762A (zh) * | 2013-02-22 | 2014-01-22 | Tcl集团股份有限公司 | 一种基于传感器技术的智能家居控制方法及系统 |
CN103546776A (zh) * | 2012-07-13 | 2014-01-29 | 珠海扬智电子科技有限公司 | 提供多媒体服务的方法、遥控装置、机顶盒以及多媒体系统 |
WO2014043911A1 (zh) * | 2012-09-24 | 2014-03-27 | 华为技术有限公司 | 用户登录方法及终端 |
CN103853328A (zh) * | 2012-12-03 | 2014-06-11 | 三星电子株式会社 | 控制屏幕锁定的方法和移动终端 |
CN104020845A (zh) * | 2014-03-27 | 2014-09-03 | 浙江大学 | 基于shapelet特征的加速度传感器放置无关化运动识别方法 |
CN104798358A (zh) * | 2012-11-20 | 2015-07-22 | Nec卡西欧移动通信株式会社 | 便携式电子设备及其控制方法和程序 |
CN104969151A (zh) * | 2013-01-31 | 2015-10-07 | 惠普发展公司,有限责任合伙企业 | 具有非有意输入阻止的触摸屏 |
CN105242851A (zh) * | 2015-10-21 | 2016-01-13 | 维沃移动通信有限公司 | 一种切换电子设备的操作模式的方法及电子设备 |
CN105493103A (zh) * | 2013-09-26 | 2016-04-13 | 英特尔公司 | 用于个人装置的生物测定感应器 |
WO2016087974A1 (en) * | 2014-12-01 | 2016-06-09 | International Business Machines Corporation | Token authentication for touch sensitive display devices |
CN105988697A (zh) * | 2015-02-17 | 2016-10-05 | 宏达国际电子股份有限公司 | 移动装置、按压检测方法与计算机可读取记录媒体 |
CN106157036A (zh) * | 2015-04-14 | 2016-11-23 | 广州杰赛科技股份有限公司 | 一种基于心跳特征的鉴权装置 |
CN106909237A (zh) * | 2017-01-11 | 2017-06-30 | 深圳市赛亿科技开发有限公司 | 一种监测人体情绪的鼠标及鼠标垫 |
CN111913596A (zh) * | 2019-05-10 | 2020-11-10 | 苹果公司 | 具有控制器的电子设备系统 |
Families Citing this family (127)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US9110590B2 (en) | 2007-09-19 | 2015-08-18 | Typesoft Technologies, Inc. | Dynamically located onscreen keyboard |
US10126942B2 (en) | 2007-09-19 | 2018-11-13 | Apple Inc. | Systems and methods for detecting a press on a touch-sensitive surface |
US10203873B2 (en) | 2007-09-19 | 2019-02-12 | Apple Inc. | Systems and methods for adaptively presenting a keyboard on a touch-sensitive display |
US9454270B2 (en) | 2008-09-19 | 2016-09-27 | Apple Inc. | Systems and methods for detecting a press on a touch-sensitive surface |
US9489086B1 (en) | 2013-04-29 | 2016-11-08 | Apple Inc. | Finger hover detection for improved typing |
US8823645B2 (en) | 2010-12-28 | 2014-09-02 | Panasonic Corporation | Apparatus for remotely controlling another apparatus and having self-orientating capability |
US9069390B2 (en) | 2008-09-19 | 2015-06-30 | Typesoft Technologies, Inc. | Systems and methods for monitoring surface sanitation |
KR20100039017A (ko) * | 2008-10-07 | 2010-04-15 | 한국전자통신연구원 | 메뉴 마크업 언어를 이용한 원격 제어 장치 |
US8208943B2 (en) | 2009-02-02 | 2012-06-26 | Waldeck Technology, Llc | Anonymous crowd tracking |
JP2010272077A (ja) * | 2009-05-25 | 2010-12-02 | Toshiba Corp | 情報再生方法及び情報再生装置 |
US20110019105A1 (en) * | 2009-07-27 | 2011-01-27 | Echostar Technologies L.L.C. | Verification of symbols received through a touchpad of a remote control device in an electronic system to allow access to system functions |
US8535133B2 (en) * | 2009-11-16 | 2013-09-17 | Broadcom Corporation | Video game with controller sensing player inappropriate activity |
US8754746B2 (en) * | 2009-11-16 | 2014-06-17 | Broadcom Corporation | Hand-held gaming device that identifies user based upon input from touch sensitive panel |
US20110148762A1 (en) * | 2009-12-22 | 2011-06-23 | Universal Electronics Inc. | System and method for multi-mode command input |
JP5370144B2 (ja) * | 2009-12-28 | 2013-12-18 | ソニー株式会社 | 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム |
US9247286B2 (en) | 2009-12-31 | 2016-01-26 | Broadcom Corporation | Frame formatting supporting mixed two and three dimensional video data communication |
US8854531B2 (en) | 2009-12-31 | 2014-10-07 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display |
US20110157322A1 (en) | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Controlling a pixel array to support an adaptable light manipulator |
US8823782B2 (en) * | 2009-12-31 | 2014-09-02 | Broadcom Corporation | Remote control with integrated position, viewer identification and optical and audio test |
US8432368B2 (en) * | 2010-01-06 | 2013-04-30 | Qualcomm Incorporated | User interface methods and systems for providing force-sensitive input |
US20120066303A1 (en) * | 2010-03-03 | 2012-03-15 | Waldeck Technology, Llc | Synchronized group location updates |
KR20110105625A (ko) * | 2010-03-19 | 2011-09-27 | 삼성전자주식회사 | 휴대 단말기의 향기 분사 방법 및 이를 지원하는 휴대 단말기 |
JP5445285B2 (ja) * | 2010-04-01 | 2014-03-19 | 船井電機株式会社 | 携帯情報表示端末 |
US9520056B2 (en) * | 2010-05-11 | 2016-12-13 | Universal Electronics Inc. | System and methods for enhanced remote control functionality |
US9357024B2 (en) | 2010-08-05 | 2016-05-31 | Qualcomm Incorporated | Communication management utilizing destination device user presence probability |
CN107665089B (zh) * | 2010-08-12 | 2021-01-22 | 谷歌有限责任公司 | 触摸屏上的手指识别 |
US20120062387A1 (en) * | 2010-09-10 | 2012-03-15 | Daniel Vik | Human interface device input filter based on motion |
DE102010041957A1 (de) * | 2010-10-04 | 2012-04-05 | Ident Technology Ag | Elektrodenkonfiguration zur Berührungsdetektion sowie Verfahren zur Detektion einer Berührung eines Handgerätes |
US20120131490A1 (en) * | 2010-11-22 | 2012-05-24 | Shao-Chieh Lin | Touch-controlled device and method for displaying a virtual keyboard on the touch-controlled device thereof |
US11269977B2 (en) | 2010-11-29 | 2022-03-08 | Biocatch Ltd. | System, apparatus, and method of collecting and processing data in electronic devices |
US10298614B2 (en) * | 2010-11-29 | 2019-05-21 | Biocatch Ltd. | System, device, and method of generating and managing behavioral biometric cookies |
US11223619B2 (en) | 2010-11-29 | 2022-01-11 | Biocatch Ltd. | Device, system, and method of user authentication based on user-specific characteristics of task performance |
US10917431B2 (en) * | 2010-11-29 | 2021-02-09 | Biocatch Ltd. | System, method, and device of authenticating a user based on selfie image or selfie video |
US10586036B2 (en) | 2010-11-29 | 2020-03-10 | Biocatch Ltd. | System, device, and method of recovery and resetting of user authentication factor |
US10621585B2 (en) | 2010-11-29 | 2020-04-14 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
US10897482B2 (en) | 2010-11-29 | 2021-01-19 | Biocatch Ltd. | Method, device, and system of back-coloring, forward-coloring, and fraud detection |
US10834590B2 (en) | 2010-11-29 | 2020-11-10 | Biocatch Ltd. | Method, device, and system of differentiating between a cyber-attacker and a legitimate user |
US10949514B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | Device, system, and method of differentiating among users based on detection of hardware components |
US11210674B2 (en) | 2010-11-29 | 2021-12-28 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
US20190158535A1 (en) | 2017-11-21 | 2019-05-23 | Biocatch Ltd. | Device, System, and Method of Detecting Vishing Attacks |
US10970394B2 (en) | 2017-11-21 | 2021-04-06 | Biocatch Ltd. | System, device, and method of detecting vishing attacks |
US10747305B2 (en) | 2010-11-29 | 2020-08-18 | Biocatch Ltd. | Method, system, and device of authenticating identity of a user of an electronic device |
US10776476B2 (en) | 2010-11-29 | 2020-09-15 | Biocatch Ltd. | System, device, and method of visual login |
US10685355B2 (en) | 2016-12-04 | 2020-06-16 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
US10069837B2 (en) | 2015-07-09 | 2018-09-04 | Biocatch Ltd. | Detection of proxy server |
US10949757B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | System, device, and method of detecting user identity based on motor-control loop model |
US10474815B2 (en) | 2010-11-29 | 2019-11-12 | Biocatch Ltd. | System, device, and method of detecting malicious automatic script and code injection |
US10262324B2 (en) | 2010-11-29 | 2019-04-16 | Biocatch Ltd. | System, device, and method of differentiating among users based on user-specific page navigation sequence |
US10404729B2 (en) | 2010-11-29 | 2019-09-03 | Biocatch Ltd. | Device, method, and system of generating fraud-alerts for cyber-attacks |
US10728761B2 (en) | 2010-11-29 | 2020-07-28 | Biocatch Ltd. | Method, device, and system of detecting a lie of a user who inputs data |
US8836640B2 (en) | 2010-12-30 | 2014-09-16 | Screenovate Technologies Ltd. | System and method for generating a representative computerized display of a user's interactions with a touchscreen based hand held device on a gazed-at screen |
JP5917805B2 (ja) * | 2011-01-05 | 2016-05-18 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US20120242701A1 (en) * | 2011-03-25 | 2012-09-27 | Apple Inc. | Accessory dependent display orientation |
CN102724038B (zh) * | 2011-03-30 | 2016-08-03 | 阿里巴巴集团控股有限公司 | 身份认证方法、信息采集设备及身份认证设备 |
US20120306758A1 (en) * | 2011-05-31 | 2012-12-06 | Cleankeys Inc. | System for detecting a user on a sensor-based surface |
JP5782857B2 (ja) * | 2011-06-18 | 2015-09-24 | ブラザー工業株式会社 | パラメータ入力装置及び画像形成装置 |
CN104799824B (zh) * | 2011-06-24 | 2017-10-24 | 株式会社村田制作所 | 移动设备 |
US9804864B1 (en) * | 2011-10-07 | 2017-10-31 | BlueStack Systems, Inc. | Method of mapping inputs and system thereof |
US9274642B2 (en) | 2011-10-20 | 2016-03-01 | Microsoft Technology Licensing, Llc | Acceleration-based interaction for multi-pointer indirect input devices |
US9658715B2 (en) | 2011-10-20 | 2017-05-23 | Microsoft Technology Licensing, Llc | Display mapping modes for multi-pointer indirect input devices |
US20130100043A1 (en) * | 2011-10-24 | 2013-04-25 | General Electric Company | Method for determining valid touch screen inputs |
US8750852B2 (en) | 2011-10-27 | 2014-06-10 | Qualcomm Incorporated | Controlling access to a mobile device |
US9213482B2 (en) * | 2011-11-11 | 2015-12-15 | Elan Microelectronics Corporation | Touch control device and method |
US9389679B2 (en) | 2011-11-30 | 2016-07-12 | Microsoft Technology Licensing, Llc | Application programming interface for a multi-pointer indirect touch input device |
US20130147602A1 (en) * | 2011-12-12 | 2013-06-13 | Cisco Technology, Inc. | Determination of user based on electrical measurement |
JP5858228B2 (ja) * | 2011-12-27 | 2016-02-10 | 株式会社国際電気通信基礎技術研究所 | 同定装置、同定方法および同定プログラム |
US9519419B2 (en) | 2012-01-17 | 2016-12-13 | Microsoft Technology Licensing, Llc | Skinnable touch device grip patterns |
US20130300668A1 (en) * | 2012-01-17 | 2013-11-14 | Microsoft Corporation | Grip-Based Device Adaptations |
TWI476702B (zh) * | 2012-03-16 | 2015-03-11 | Pixart Imaging Inc | 使用者辨識系統及辨識使用者的方法 |
US9104260B2 (en) | 2012-04-10 | 2015-08-11 | Typesoft Technologies, Inc. | Systems and methods for detecting a press on a touch-sensitive surface |
KR101890624B1 (ko) * | 2012-04-12 | 2018-08-22 | 엘지전자 주식회사 | 터치패드를 구비한 리모트 컨트롤러 및 그 제어 방법 |
TWM439217U (en) * | 2012-05-02 | 2012-10-11 | shun-fu Luo | All new ui-e1-stroke operation control device |
US20130335576A1 (en) * | 2012-06-19 | 2013-12-19 | Martin GOTSCHLICH | Dynamic adaptation of imaging parameters |
JP5923394B2 (ja) * | 2012-06-20 | 2016-05-24 | 株式会社Nttドコモ | 認識装置、認識方法及び認識システム |
JP5904049B2 (ja) * | 2012-08-02 | 2016-04-13 | 日本電気株式会社 | 携帯電話機、制御方法及びプログラム |
EP2873065A4 (en) * | 2012-08-07 | 2015-06-03 | Webtuner Corp | MULTIMEDIA ADVERTISING TARGET AND CONTENT RECOMMENDATION WITH A SYSTEM FOR RECOGNIZING A CONTEST IDENTITY |
ITTO20120864A1 (it) * | 2012-10-04 | 2014-04-05 | St Microelectronics Srl | Procedimento e sistema per riconoscimento di forme del tatto, apparecchiatura a schermo e prodotto informatico relativi |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
CN103870041B (zh) * | 2012-12-14 | 2017-09-22 | 联想(北京)有限公司 | 终端设备及其用户识别方法 |
US9237292B2 (en) * | 2012-12-28 | 2016-01-12 | Echostar Technologies L.L.C. | Determining remote control state and user via accelerometer |
US20140210728A1 (en) * | 2013-01-25 | 2014-07-31 | Verizon Patent And Licensing Inc. | Fingerprint driven profiling |
US9146631B1 (en) * | 2013-02-11 | 2015-09-29 | Amazon Technologies, Inc. | Determining which hand is holding a device |
JP6117562B2 (ja) * | 2013-02-13 | 2017-04-19 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
CN103248933A (zh) * | 2013-04-03 | 2013-08-14 | 深圳Tcl新技术有限公司 | 基于用户身份进行交互的交互方法及遥控装置 |
US20140320420A1 (en) * | 2013-04-25 | 2014-10-30 | Sony Corporation | Method and apparatus for controlling a mobile device based on touch operations |
JP6232857B2 (ja) * | 2013-09-02 | 2017-11-22 | 富士通株式会社 | 操作解析装置、操作解析方法及び操作解析プログラム |
US10289302B1 (en) | 2013-09-09 | 2019-05-14 | Apple Inc. | Virtual keyboard animation |
US9310933B2 (en) | 2014-02-26 | 2016-04-12 | Qualcomm Incorporated | Optimization for host based touch processing |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
CN105025362B (zh) * | 2014-04-29 | 2018-05-08 | 深圳Tcl新技术有限公司 | 识别用户身份的方法及装置 |
US9678506B2 (en) | 2014-06-19 | 2017-06-13 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
US9798322B2 (en) | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
CN110781469B (zh) | 2014-08-07 | 2021-01-01 | 创新先进技术有限公司 | 一种身份认证方法及装置 |
JP6239471B2 (ja) * | 2014-09-19 | 2017-11-29 | 株式会社東芝 | 認証システム、認証装置および認証方法 |
CN105630204A (zh) * | 2014-10-29 | 2016-06-01 | 深圳富泰宏精密工业有限公司 | 鼠标模拟系统及方法 |
US9687576B2 (en) * | 2014-11-14 | 2017-06-27 | Echostar Technologies L.L.C. | Systems and methods for disinfecting a remote control using ultraviolet light |
CN104391646B (zh) * | 2014-11-19 | 2017-12-26 | 百度在线网络技术(北京)有限公司 | 调整对象属性信息的方法及装置 |
JP6404692B2 (ja) * | 2014-12-01 | 2018-10-10 | 株式会社Nttドコモ | 個人認証装置及び個人認証方法 |
KR102291565B1 (ko) * | 2014-12-03 | 2021-08-19 | 삼성디스플레이 주식회사 | 표시장치 및 이를 이용한 표시장치의 구동 방법 |
US20160182950A1 (en) * | 2014-12-17 | 2016-06-23 | Lenovo (Singapore) Pte. Ltd. | Identification of a user for personalized media content presentation |
KR20160109304A (ko) * | 2015-03-10 | 2016-09-21 | 삼성전자주식회사 | 원격 조정 장치 및 원격 조정 장치의 화면 제어방법 |
US10108854B2 (en) | 2015-05-18 | 2018-10-23 | Sstatzz Oy | Method and system for automatic identification of player |
GB2539705B (en) | 2015-06-25 | 2017-10-25 | Aimbrain Solutions Ltd | Conditional behavioural biometrics |
JP6262177B2 (ja) * | 2015-09-03 | 2018-01-17 | 株式会社東芝 | ウェアラブル端末、方法及びシステム |
US9927917B2 (en) | 2015-10-29 | 2018-03-27 | Microsoft Technology Licensing, Llc | Model-based touch event location adjustment |
US10127371B2 (en) | 2015-12-11 | 2018-11-13 | Roku, Inc. | User identification based on the motion of a device |
US10078377B2 (en) | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
GB2552032B (en) | 2016-07-08 | 2019-05-22 | Aimbrain Solutions Ltd | Step-up authentication |
KR101774391B1 (ko) * | 2016-07-26 | 2017-09-05 | (주)다울디엔에스 | 자이로 센서를 활용한 모션 효과 인코딩 방법 |
CN107733592B (zh) | 2016-08-10 | 2020-11-27 | 华为技术有限公司 | 传输方案指示方法、数据传输方法、装置及系统 |
US10520943B2 (en) | 2016-08-12 | 2019-12-31 | Skydio, Inc. | Unmanned aerial image capture platform |
JP6710285B2 (ja) * | 2016-10-28 | 2020-06-17 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、制御方法、プログラム、及び記憶媒体 |
US10579784B2 (en) | 2016-11-02 | 2020-03-03 | Biocatch Ltd. | System, device, and method of secure utilization of fingerprints for user authentication |
US20180157814A1 (en) * | 2016-12-01 | 2018-06-07 | Electronics And Telecommunications Research Institute | Personal authentication method and apparatus based on recognition of fingertip gesture and identification of fake pattern |
US11295458B2 (en) | 2016-12-01 | 2022-04-05 | Skydio, Inc. | Object tracking by an unmanned aerial vehicle using visual sensors |
US11042262B2 (en) * | 2017-02-01 | 2021-06-22 | Opentv, Inc. | Menu modification based on controller manipulation data |
JP6825397B2 (ja) * | 2017-02-07 | 2021-02-03 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証プログラム |
US10397262B2 (en) | 2017-07-20 | 2019-08-27 | Biocatch Ltd. | Device, system, and method of detecting overlay malware |
DE102017121456A1 (de) * | 2017-09-15 | 2019-03-21 | Fm Marketing Gmbh | Interaktionslose Benutzererkennung |
JP2020536616A (ja) * | 2017-10-13 | 2020-12-17 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | パーソナルケア装置のユーザを特徴付ける方法及びシステム |
JP7053893B6 (ja) | 2018-05-10 | 2022-06-02 | コーニンクレッカ フィリップス エヌ ヴェ | 口腔の状態に基づいてパーソナルケア装置の挙動を調節するための方法及びシステム |
DE102018215066A1 (de) * | 2018-09-05 | 2020-03-05 | Brendel Holding Gmbh & Co. Kg | Bedienteil für eine Fernsteuerung, umfassend einen Aktivierungssensor mit veränderbarem effektiven Sensorbereich |
KR102203933B1 (ko) * | 2018-11-26 | 2021-01-15 | 재단법인 실감교류인체감응솔루션연구단 | 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치 |
GB2581494B (en) | 2019-02-19 | 2021-08-04 | Sony Interactive Entertainment Inc | Apparatus, system and method of authentication |
US11606353B2 (en) | 2021-07-22 | 2023-03-14 | Biocatch Ltd. | System, device, and method of generating and utilizing one-time passwords |
EP4293543A1 (en) * | 2022-06-17 | 2023-12-20 | NOS Inovação, S.A. | System for identifying a user of an electronic device |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH073444B2 (ja) * | 1987-10-27 | 1995-01-18 | 株式会社日本システム研究所 | 導電性測定装置 |
US5459489A (en) | 1991-12-05 | 1995-10-17 | Tv Interactive Data Corporation | Hand held electronic remote control device |
US5453758A (en) | 1992-07-31 | 1995-09-26 | Sony Corporation | Input apparatus |
US5469194A (en) | 1994-05-13 | 1995-11-21 | Apple Computer, Inc. | Apparatus and method for providing different input device orientations of a computer system |
GB9415627D0 (en) | 1994-08-01 | 1994-09-21 | Marshall James | Verification apparatus |
US5652630A (en) | 1995-05-31 | 1997-07-29 | International Business Machines Corporation | Video receiver display, three axis remote control, and microcontroller for executing programs |
WO1999038149A1 (en) * | 1998-01-26 | 1999-07-29 | Wayne Westerman | Method and apparatus for integrating manual input |
US7800592B2 (en) | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
US6421453B1 (en) * | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
US6346891B1 (en) | 1998-08-31 | 2002-02-12 | Microsoft Corporation | Remote control system with handling sensor in remote control device |
US6456275B1 (en) | 1998-09-14 | 2002-09-24 | Microsoft Corporation | Proximity sensor in a computer input device |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
EP1008925B1 (en) * | 1998-12-07 | 2006-01-11 | Hitachi, Ltd. | Device for controlling equipment by using signals from a living body |
US6396523B1 (en) | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
US6429543B1 (en) | 1999-10-01 | 2002-08-06 | Siemens Vdo Automotive Corporation | Innovative switch for remote control applications |
US6765557B1 (en) | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
US20040236699A1 (en) | 2001-07-10 | 2004-11-25 | American Express Travel Related Services Company, Inc. | Method and system for hand geometry recognition biometrics on a fob |
US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US6831664B2 (en) | 2002-03-22 | 2004-12-14 | Koninklijke Philips Electronics N.V. | Low cost interactive program control system and method |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
TWM240050U (en) | 2003-04-02 | 2004-08-01 | Elan Microelectronics Corp | Capacitor touch panel with integrated keyboard and handwriting function |
JP3930482B2 (ja) * | 2004-01-19 | 2007-06-13 | ファナック株式会社 | 3次元視覚センサ |
US20050162402A1 (en) | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
US20050185788A1 (en) | 2004-02-23 | 2005-08-25 | Daw Sean P. | Keypad adapted for use in dual orientations |
US7173604B2 (en) * | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
EP1745458B1 (en) * | 2004-04-30 | 2017-01-11 | Hillcrest Laboratories, Inc. | Methods and devices for identifying users based on tremor |
TW200539031A (en) | 2004-05-20 | 2005-12-01 | Elan Microelectronics Corp | A capacitor type touch pad with integrated graphic input function |
US20060016868A1 (en) | 2004-07-01 | 2006-01-26 | American Express Travel Related Services Company, Inc. | Method and system for hand geometry recognition biometrics on a smartcard |
US20060077179A1 (en) | 2004-10-08 | 2006-04-13 | Inventec Corporation | Keyboard having automatic adjusting key intervals and a method thereof |
US20060227030A1 (en) | 2005-03-31 | 2006-10-12 | Clifford Michelle A | Accelerometer based control system and method of controlling a device |
US7860651B2 (en) * | 2005-08-30 | 2010-12-28 | Honeywell International Inc. | Enhanced inertial system performance |
US7925511B2 (en) * | 2006-09-29 | 2011-04-12 | Nellcor Puritan Bennett Llc | System and method for secure voice identification in a medical device |
US7889175B2 (en) * | 2007-06-28 | 2011-02-15 | Panasonic Corporation | Touchpad-enabled remote controller and user interaction methods |
-
2008
- 2008-09-23 US US12/235,862 patent/US8031175B2/en not_active Expired - Fee Related
-
2009
- 2009-04-21 US US12/988,745 patent/US20110043475A1/en not_active Abandoned
- 2009-04-21 CN CN2009801139729A patent/CN102016765A/zh active Pending
- 2009-04-21 WO PCT/US2009/041227 patent/WO2009131987A2/en active Application Filing
- 2009-04-21 JP JP2011506389A patent/JP2011523730A/ja active Pending
- 2009-04-21 EP EP09735558A patent/EP2255270A2/en not_active Withdrawn
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103546776A (zh) * | 2012-07-13 | 2014-01-29 | 珠海扬智电子科技有限公司 | 提供多媒体服务的方法、遥控装置、机顶盒以及多媒体系统 |
CN103414930B (zh) * | 2012-07-27 | 2016-12-28 | Tcl集团股份有限公司 | 识别感应用户的遥控系统及其方法 |
CN103414930A (zh) * | 2012-07-27 | 2013-11-27 | Tcl集团股份有限公司 | 识别感应用户的遥控系统及其方法 |
WO2014043911A1 (zh) * | 2012-09-24 | 2014-03-27 | 华为技术有限公司 | 用户登录方法及终端 |
CN104798358A (zh) * | 2012-11-20 | 2015-07-22 | Nec卡西欧移动通信株式会社 | 便携式电子设备及其控制方法和程序 |
CN104798358B (zh) * | 2012-11-20 | 2017-08-29 | 日本电气株式会社 | 便携式电子设备及其控制方法和记录介质 |
US9710080B2 (en) | 2012-11-20 | 2017-07-18 | Nec Corporation | Portable electronic device including contact sensors, and method for controlling same |
CN103853328A (zh) * | 2012-12-03 | 2014-06-11 | 三星电子株式会社 | 控制屏幕锁定的方法和移动终端 |
US10278075B2 (en) | 2012-12-03 | 2019-04-30 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling screen lock |
US11751053B2 (en) | 2012-12-03 | 2023-09-05 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling screen lock |
CN103853328B (zh) * | 2012-12-03 | 2018-07-13 | 三星电子株式会社 | 控制屏幕锁定的方法和移动终端 |
US11109233B2 (en) | 2012-12-03 | 2021-08-31 | Samsung Electronics Co., Ltd. | Method and mobile terminal for controlling screen lock |
CN102970606B (zh) * | 2012-12-04 | 2017-11-17 | 深圳Tcl新技术有限公司 | 基于身份识别的电视节目推荐方法和装置 |
CN102970606A (zh) * | 2012-12-04 | 2013-03-13 | 深圳Tcl新技术有限公司 | 基于身份识别的电视节目推荐方法和装置 |
CN104969151A (zh) * | 2013-01-31 | 2015-10-07 | 惠普发展公司,有限责任合伙企业 | 具有非有意输入阻止的触摸屏 |
CN103529762B (zh) * | 2013-02-22 | 2016-08-31 | Tcl集团股份有限公司 | 一种基于传感器技术的智能家居控制方法及系统 |
CN103529762A (zh) * | 2013-02-22 | 2014-01-22 | Tcl集团股份有限公司 | 一种基于传感器技术的智能家居控制方法及系统 |
CN103246448A (zh) * | 2013-04-03 | 2013-08-14 | 深圳Tcl新技术有限公司 | 获取用户的身份进行交互的交互方法及遥控装置 |
CN103472917B (zh) * | 2013-09-06 | 2016-07-06 | 浙江大学 | 一种与加速度传感器的放置方式和位置无关的运动识别方法 |
CN103472917A (zh) * | 2013-09-06 | 2013-12-25 | 浙江大学 | 一种与加速度传感器的放置方式和位置无关的运动识别方法 |
CN105493103A (zh) * | 2013-09-26 | 2016-04-13 | 英特尔公司 | 用于个人装置的生物测定感应器 |
CN104020845A (zh) * | 2014-03-27 | 2014-09-03 | 浙江大学 | 基于shapelet特征的加速度传感器放置无关化运动识别方法 |
CN104020845B (zh) * | 2014-03-27 | 2017-02-15 | 浙江大学 | 基于shapelet特征的加速度传感器放置无关化运动识别方法 |
US9596087B2 (en) | 2014-12-01 | 2017-03-14 | International Business Machines Corporation | Token authentication for touch sensitive display devices |
US9548865B2 (en) | 2014-12-01 | 2017-01-17 | International Business Machines Corporation | Token authentication for touch sensitive display devices |
WO2016087974A1 (en) * | 2014-12-01 | 2016-06-09 | International Business Machines Corporation | Token authentication for touch sensitive display devices |
CN105988697A (zh) * | 2015-02-17 | 2016-10-05 | 宏达国际电子股份有限公司 | 移动装置、按压检测方法与计算机可读取记录媒体 |
CN106157036A (zh) * | 2015-04-14 | 2016-11-23 | 广州杰赛科技股份有限公司 | 一种基于心跳特征的鉴权装置 |
CN105242851A (zh) * | 2015-10-21 | 2016-01-13 | 维沃移动通信有限公司 | 一种切换电子设备的操作模式的方法及电子设备 |
CN106909237A (zh) * | 2017-01-11 | 2017-06-30 | 深圳市赛亿科技开发有限公司 | 一种监测人体情绪的鼠标及鼠标垫 |
CN111913596A (zh) * | 2019-05-10 | 2020-11-10 | 苹果公司 | 具有控制器的电子设备系统 |
CN111913596B (zh) * | 2019-05-10 | 2024-04-09 | 苹果公司 | 具有控制器的电子设备系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2009131987A3 (en) | 2009-12-30 |
JP2011523730A (ja) | 2011-08-18 |
US20110043475A1 (en) | 2011-02-24 |
US20090262073A1 (en) | 2009-10-22 |
US8031175B2 (en) | 2011-10-04 |
WO2009131987A2 (en) | 2009-10-29 |
EP2255270A2 (en) | 2010-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102016765A (zh) | 用于识别手持设备的用户的方法和系统 | |
US20220261112A1 (en) | Systems, devices, and methods for touch-free typing | |
WO2021082749A1 (zh) | 一种基于人工智能的动作识别方法和相关装置 | |
US20180024643A1 (en) | Gesture Based Interface System and Method | |
CN105308538B (zh) | 基于所检测到的示意动作执行装置动作的系统和方法 | |
Liu et al. | uWave: Accelerometer-based personalized gesture recognition and its applications | |
US20190204929A1 (en) | Devices and methods for dynamic association of user input with mobile device actions | |
US8502787B2 (en) | System and method for differentiating between intended and unintended user input on a touchpad | |
US9619024B2 (en) | Virtual input device and virtual input method | |
WO2020042727A1 (zh) | 一种应用场景的交互方法和移动终端以及存储介质 | |
WO2010084498A1 (en) | Device and method for monitoring an object's behavior | |
CN107908334A (zh) | 一种指纹图标的显示方法、装置及移动终端 | |
CN108196668B (zh) | 一种便携式手势识别系统及方法 | |
WO2017047182A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022536756A (ja) | クラスタベースのセンサ割り当て | |
CN109522706B (zh) | 一种信息提示方法及终端设备 | |
CN106055958B (zh) | 一种解锁方法及装置 | |
CN108388790B (zh) | 一种解锁请求响应方法、移动终端 | |
CN206475183U (zh) | 机器人 | |
CN111031174B (zh) | 一种虚拟物品传输方法及电子设备 | |
CN106155277B (zh) | 电子设备和信息处理方法 | |
CN108205390A (zh) | 一种终端操作的方法和终端 | |
TWI836406B (zh) | 非接觸式按鍵觸發方法 | |
Chudgar et al. | S control: Accelerometer-based gesture recognition for media control | |
JP6523509B1 (ja) | ゲームプログラム、方法、および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20110413 |