CN102968180B - 基于头部方向的用户界面控制 - Google Patents

基于头部方向的用户界面控制 Download PDF

Info

Publication number
CN102968180B
CN102968180B CN201210506845.9A CN201210506845A CN102968180B CN 102968180 B CN102968180 B CN 102968180B CN 201210506845 A CN201210506845 A CN 201210506845A CN 102968180 B CN102968180 B CN 102968180B
Authority
CN
China
Prior art keywords
user interface
reference point
interface element
distance
cephalad direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210506845.9A
Other languages
English (en)
Other versions
CN102968180A (zh
Inventor
D·J·桑布拉诺
C·皮科洛
J·W·哈汀
S·M·卢卡斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN102968180A publication Critical patent/CN102968180A/zh
Application granted granted Critical
Publication of CN102968180B publication Critical patent/CN102968180B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Abstract

本发明涉及基于头部方向的用户界面控制。各实施例基于头部方向在用户界面元素之间进行区分。表示凝视用户界面元素的主体的图像中的至少三个基准点的集合被计算设备接收。该集合包括第一基准点和第二基准点,它们位于第三基准点的相对两侧。第一基准点和第三基准点之间的第一距离被确定。第二基准点和第三基准点之间的第二距离被确定。计算设备将第一距离和第二距离进行比较,以计算头部方向值。计算设备基于头部方向值选择用户界面元素中的至少一个。在一些实施例中,头部方向值允许用户导航用户界面菜单或控制游戏中的角色。

Description

基于头部方向的用户界面控制
技术领域
本发明涉及用户界面控制。
背景技术
一些现有系统允许用户使用各种输入方法来能够访问计算机或容易地访问计算机。例如,一些现有系统包括相机和面部跟踪算法。这些算法标识诸如用户的眼睛、鼻子和嘴巴的面部特征。例如,眼睛可通过在用户处闪红外光以定位视网膜来标识。鼻尖可通过计算鼻子的曲率来标识。头部的方向可通过计算面部的数学法线或通过使用两个相机来生成面部的三维模型来确定。
然而,这样的现有系统或者需要昂贵且专用的硬件,或者需要对实时或近乎实时的使用不实际的密集计算。
发明内容
本发明的各实施例基于头部方向在多个用户界面元素之间进行区分。计算设备接收表示凝视多个用户界面元素的主体的至少三个基准点的集合的坐标。该集合至少包括第一基准点和第二基准点,它们位于第三基准点的相对两侧。计算设备确定第一基准点和第三基准点之间的第一距离,以及第二基准点和第三基准点之间的第二距离。所确定的第一距离与所确定的第二距离进行比较,以计算主体的头部方向值。基于计算出的头部方向值,选择多个用户界面元素中的至少一个。
提供本发明内容以便以简化形式介绍将在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
附图说明
图1是示出与捕捉设备和用户界面进行接口的头部方向模块的示例性框图。
图2是示出用于实现头部方向模块的计算设备的示例性框图。
图3是示出头部方向模块比较基准点之间的距离以计算头部方向值的操作的示例性流程图。
图4是示出头部方向模块将使用两只眼睛和鼻子计算出的头部方向值应用于用户界面以标识用户界面元素的操作的示例性流程图。
图5是示出两只眼睛和鼻子之间的距离的示例性面部。
图6是用于游戏控制台的用户界面的示例性屏幕截图,示出了基于所计算出的用户的头部方向的、对用户界面元素的选择。
图7是示出坐标系的示例性用户界面。
在全部附图中,相应的附图标记指示相应的部分。
具体实施方式
参考附图,本发明的实施例允许用户102使用从用户102的图像中得到的基准点的集合212来控制或导航用户界面104而无需手部移动。在一些实施例中,比较用户102的面部上的基准点以标识用户102的头部方向值。头部方向值被映射到用户界面104或与用户界面104对准,以标识其上显示的至少一个用户界面元素214。本发明的各方面实时或近乎实时(例如,每秒25帧)操作,并与其它系统(例如,面部跟踪算法)集成以增强用户体验。
尽管本发明的一些方面此处参考游戏环境描述和示出,其它实施例可用于诸如膝上型计算机上的操作环境、视频会议场景中的操作环境、用于远程监督操作的操作环境等操作环境中。
接着参考图1,图1是示出与捕捉设备106和用户界面104进行接口的头部方向模块108的示例性框图。在图1的示例中,用户102正在查看用户界面104。捕捉设备106包括用于捕捉用户102的图像的任何装置。捕捉设备106可包括一个或多个组件,诸如运动传感器、相机、低光照或夜视镜头、光束投影仪和/或检测器、射频(RF)束投影仪和/或检测器等。图像共同地表示用户102的运动。示例性的捕捉设备106包括相机,该相机可具有与之相关联的、用于处理相机捕捉到的图像的计算系统。计算系统可内置于捕捉设备106中或与之分开。图像被处理以在与用户界面104相关联的一个或多个应用(例如应用210)内执行一个或多个控制或动作。在一些实施例中,捕捉设备106是与游戏控制台相关联的相机。在其它实施例中,捕捉设备106是与用户102的计算设备202(诸如膝上型计算机)相关联的摄像头。
头部方向模块108接收捕捉设备106捕捉到的一个或多个图像。图像被实时或近乎实时(例如,当图像被捕捉到和/或处理时)发送到头部方向模块108或使其对头部方向模块108可访问,以允许用户102基于捕捉到的图像的对用户界面104的响应性控制。头部方向模块108表示用于处理捕捉到的图像的任何逻辑(例如,被实现为计算设备202执行的软件、硬件或软件和硬件两者)。头部方向模块108和捕捉设备106可被置于同一硬件机架中并经由总线或其它内部通信装置来通信。头部方向模块108和捕捉设备106还可被实现在同一半导体芯片上。在其它实施例中,头部方向模块108在捕捉设备106本地,但不在同一机架内或同一芯片上。在这样的实施例中,捕捉设备106和头部方向模块108经由任何通信协议或总线(例如,通用串行总线)交换数据。在还有一些其它实施例中,头部方向模块108被实现为经由诸如因特网的网络110与捕捉设备106和用户界面104通信的云服务。
头部方向模块108如此处所述操作,以处理来自捕捉设备106的图像以控制用户界面104。在一些实施例中,头部方向模块108产生可被映射到用户界面104的一部分的头部方向值。在其它实施例中,头部方向模块108还将头部方向值映射或应用到用户界面104,以确定要执行的控制或动作。头部方向模块108可执行所确定的控制或动作,或向另一模块(例如,捕捉设备106或计算系统)标识所确定的控制或动作。
在一些实施例中,用户界面104包括用于向用户102显示数据的显卡。用户界面104还可包括用于操作显卡的计算机可执行指令(例如驱动程序)。此外,用户界面104表示显示器(例如,电视机、膝上型显示器、或触摸屏显示器)和/或用于操作显示器的计算机可执行指令(例如驱动程序)。
在摄像头实施例中,捕捉设备106、头部方向模块108和用户界面104是移动计算设备、膝上型计算机或其它用户计算设备的一部分。例如,头部方向模块108被实现为在用户计算设备上执行的软件。在这样的实施例中,用户计算设备还包括下列各项中的一个或多个以向用户102提供数据或从用户102接收数据:扬声器、声卡、话筒、振动马达、一个或多个加速度计、蓝牙通信模块、全球定位系统(GPS)硬件和感光传感器。
接着参考图2,示例性框图示出了用于实现头部方向模块108的计算设备202。在一些实施例中,计算设备202表示基于头部方向在多个用户界面元素214之间进行区分的系统。计算设备202表示执行实现与计算设备202相关联的操作和功能的指令(例如,应用程序、操作系统功能、或两者)的任何设备。计算设备202可包括游戏控制台或其它多媒体设备。在一些实施例中,计算设备202包括移动电话、膝上型计算机、平板、计算板、上网本、便携式媒体播放器、台式个人计算机、自助服务终端和/或桌面设备。另外,计算设备202可以表示一组处理单元或其它计算设备。
计算设备202具有至少一个处理器204和存储器区域208。在一些实施例中,计算设备202还可包括用户界面104。处理器204包括任何数量的处理单元,并被编程为执行用于实现本发明的各方面的计算机可执行指令。这些指令可由处理器204执行或由在计算设备202内执行的多个处理器执行,或者由计算设备202外部的处理器来执行。在一些实施例中,处理器204被编程为执行诸如各附图(例如图3和图4)中示出的那些指令。
计算设备202还具有一个或多个计算机可读介质,诸如存储器区域208。存储器区域208包括任何数量的、与计算设备202相关联或计算设备202可访问的介质。存储器区域208可以在计算设备202的内部(如图2所示)、在计算设备202的外部(未示出)、或两者(未示出)。
存储器区域208存储一个或多个应用210等等。应用210在被处理器204执行时操作以执行计算设备202上的功能。示例性应用210包括游戏应用和非游戏应用。非游戏应用例如包括邮件应用程序、web浏览器、日历应用程序、地址簿应用程序、消息收发程序、媒体应用、基于位置的服务、搜索程序等。应用210可与对应的应用或服务(诸如可经由诸如网络110访问的web服务)通信。例如,应用210可表示与在云中执行的服务器侧服务相对应的所下载的客户机侧应用。
存储器区域208还存储基准点的一个或多个集合212,诸如基准点的集合#1到基准点的集合#N。每一集合212可包括基准点中的一个或多个。在一些实施例中,每一基准点包括一点在捕捉设备106捕捉的图像上的坐标。示例性坐标是一维、二维、三维坐标。在一些实施例中,图像包括对象,基准点包括第一基准点和第二基准点,这些基准点在对象上位于第三基准点的相对两侧。在其中对象包括面部的示例中,基准点的集合212表示面部基准点401的集合,每一面部基准点包括至少两只眼睛(例如,眼睛的中心或任一眼角)和鼻子。在其它示例中,面部基准点401对应于诸如嘴巴或两个嘴角、耳朵、眉毛、下巴等的其它面部特征。在一些实施例中,面部基准点401的每一集合是从捕捉设备106捕捉的视频的单个帧得到的。
存储器区域208还存储一个或多个用户界面元素214。用户界面元素214包括供用户102消费的任何媒体元素,例如包括菜单、菜单项、声音剪辑、视频剪辑和图像。用户界面元素214或其表示或其对应物被显示在用户界面104上。
存储器区域208还存储一个或多个计算机可执行组件。示例性组件包括通信接口组件216、检测组件218、分数组件220和交互组件222。以下参考图3来描述计算机可执行组件的操作。
接下来参考图3,图3是示出头部方向模块108比较基准点之间的距离以计算头部方向值的操作的示例性流程图。实现头部方向模块108的计算设备202在302接收或得到表示正在凝视多个用户界面元素214的主体的至少三个基准点的集合212的坐标。示例性坐标可采用(X,Y)的形式。尽管一些实施例将主体描述为人,本发明的各方面可用于查看用户界面元素214的任何主体(例如,机器人)。计算设备202例如从捕捉设备106或与捕捉设备106相关联的计算系统接收基准点的集合212。在图3的示例中,基准点的集合212包括至少第一基准点和第二基准点,它们位于第三基准点的相对两侧。
在一些实施例中,计算设备202接收第一基准点和第二基准点的坐标,但不接收第三基准点的坐标。在面部的示例中,第三基准点对应于面部的鼻子。在这样的实施例中,计算设备202可改为接收主体的高度和主体离捕捉设备106的距离。基于这一信息,计算设备202计算第三基准点。
所接收的基准点的坐标可反映用户102对捕捉设备106或头部方向模块108的校准。示例性的校准过程通过将中心建立为笔直向前看的主体、将顶部建立为向上看的主体、并将底部建立为向下看的主体来使得主体的视野居于中心。
在304,计算设备202确定第一基准点和第三基准点之间的第一距离,并在306确定第二基准点和第三基准点之间的第二距离。在一些实施例中,确定距离包括确定第一基准点和第三基准点之间沿水平轴和/或垂直轴的差。沿水平轴的差确定主体是向左还是向右凝视。沿垂直轴的差确定主体是向上还是向下凝视。还构想了以上的组合。
在一些实施例中,沿水平轴的第一距离由以下的等式(1)中的表达式确定,而沿垂直轴的第二距离由以下的等式(2)中的表达式确定。
X第三基准点-X第一基准点=第一距离(1)
X第三基准点-X第二基准点=第二距离(2)
在其中第一基准点、第二基准点和第三基准点对应于左眼、右眼和鼻子的实施例中,第一距离和第二距离分别由以下等式(3)和(4)确定。
X鼻子–X左眼=第一距离(3)
X鼻子–X右眼=第二距离(4)
在一示例中,如果使用图7中所示的示例性坐标系,第一基准点具有坐标(-0.5,0.1)且第三基准点具有坐标(0,-0.1),则沿水平轴第一距离被确定为“0-(-0.5)=0.5”。如果第二基准点具有坐标(0.8,0.2),则沿水平轴第二距离被确定为“0–0.8=(-0.8)”。
在308,计算设备202将所确定的第一距离与所确定的第二距离进行比较,以便为主体计算头部方向值。对头部方向值的计算可按照各种方式执行。在一些实施例中,第一距离和第二距离相加或相减。在其它实施例中,计算设备202产生第一距离和第二距离的加权组合。在这样的实施例中,第一基准点或第二基准点可例如基于主体的高度、主体离捕捉设备106的距离、或主体中基准点所对应的特征(例如,眼睛、耳朵、嘴巴等)给予更大的权重。头部方向值还可表示为多个捕捉到的图像计算的头部方向值的组合(例如,平均、均值或中位数、加权或其它)。
在一些实施例中,头部方向值使用以下等式(5)计算。
第一距离+第二距离=头部方向值(5)
继续第一基准点和第二基准点的以上示例,计算设备202将沿水平轴的头部方向值计算为“0.5+(-0.8)=(-0.3)”。如果对于用户界面104的中心使用坐标(0,0),如果相机正面对主体,且如果相机未以垂直轴为中心翻转所捕捉的图像,则该主体因此被确定为向用户界面104上的中心的右侧凝视。或者,本发明所用的一些捕捉设备106可以以垂直轴为中心翻转所捕捉的图像。在这样的替换实施例中,如果计算出的头部方向值为正,则主体被确定为向用户界面104的右侧凝视,如果计算出的头部方向值为负,则主体被确定向用户界面104的左侧凝视。
或者或另外地,计算设备202沿垂直轴计算头部方向值。在此示例中,头部方向值可如以下等式(6)所示被确定。
Y鼻子–((Y左眼+Y右眼)/2)(6)
在等式(6)中,两眼的垂直轴坐标被求平均,并与鼻子的垂直轴坐标相比较。如果计算出的头部方向值为正,则主体被确定为朝用户界面104的上部凝视,如果计算出的头部方向值为负,则主体被确定为朝用户界面104的下部凝视。
在310,计算设备202基于计算出的头部方向值,选择用户界面104中显示的用户界面元素214中的至少一个。头部方向值被映射或覆盖到用户界面104上,以标识用户界面104中显示的用户界面元素214的至少一个。例如,用于定义基准点的坐标系被应用于用户界面104,以便使头部方向值与用户界面元素214中的至少一个相关。在以上示例中,头部方向值(-0.3)被映射到菜单、图标、文本、化身或其它显示的用户界面元素214上的点或区域。在一些实施例中,所映射的点由带有作为焦点处的进度指示符的边界的圆圈指示。当进度指示符完成围绕圆圈的旋转而没有改变焦点时,在焦点处的用户界面元素214上采取动作。
在一些实施例中,圆圈或球在用户界面上的位置可使用以下等式(7)和等式(8)来确定。
球点.X=中心点.X+X换毛(molt)因子*(方向.值.X-原始校准方向.X)
(7)
球点.Y=中心点.Y+Y换毛因子*(方向.值.Y-原始校准方向.Y)
(8)
在以上等式中,“球点”变量表示要绘制的圆圈,“中心点”变量表示用户界面的中心的坐标,“X换毛因子”和“Y换毛因子”变量分别表示沿x和y轴的加速或减缓圆圈或球的移动的因子,而“原始校准方向”变量表示校准坐标值。
所选用户界面元素214与其它未选的用户界面元素214区别开来。例如,所选用户界面元素214可被突出显示、放大、描画轮廓、动画化或以其它方式更改(例如,经历色彩变化)。此外,选择用户界面元素214还可激活所选用户界面元素214或以其它方式使得与所选用户界面元素214相关联的动作执行。例如,计算设备202可执行应用210中对应于所选用户界面元素214或由所选用户界面元素214所表示的一个应用。
在一些实施例中,图2所示的计算机可执行组件可执行以实现图3中所示的操作。例如,通信接口组件216在由处理器204执行时,使处理器204从凝视多个用户界面元素214的主体的第一视频帧接收表示至少三个基准点的第一集合212的坐标。该集合212包括第一基准点和第二基准点,它们位于第三基准点的相对两侧。在一些实施例中,通信接口组件216包括网络接口卡和/或用于操作网络接口卡的计算机可执行指令(例如驱动程序)。
检测组件218当由处理器204执行时,使处理器204确定第一基准点和第三基准点之间的第一距离,并确定第二基准点和第三基准点之间的第二距离。分数组件220当由处理器204执行时,使得处理器204将由检测组件218确定的第一距离与检测组件218确定的第二距离进行比较,以便为主体计算第一头部方向值。
检测组件218和分数组件220随后对来自第二视频帧的至少三个基准点的第二集合212操作,以便为主体计算第二头部方向值。交互组件222在由处理器204执行时,使处理器204基于由分数组件220计算出的第一头部方向值与分数组件220计算出的第二头部方向值之间的比较,选择多个用户界面元素214中的至少一个。例如,如果用户界面元素214表示菜单,交互组件222选择用户界面元素214之一以导航菜单。
在一些实施例中,通信接口从主体接收诸如预定义的姿势或语音命令的附加输入。在这样的实施例中,交互组件222基于比较和所接收的、预定义姿势选择用户界面元素214。例如,预定义姿势可包括手臂移动、眨眼、或其它预定义姿势以确认对用户界面元素214中基于主体的当前焦点而突出显示的一个元素的选择。
在另一示例中,分数组件220可检测在主体聚焦于特定用户界面元素214的同时来自主体的暂停。暂停可通过为主体的多个视频帧计算和比较头部方向值来检测。例如,计算设备202可接收查看用户界面104的主体的多个流传输视频帧。如果一时间段(例如,定义的数量的视频帧或视频帧的定义子集)上的头部方向值之间的差满足阈值,则分数组件220检测到暂停。阈值例如可对应于主体移动的误差的界限(例如,根据主体对于计算设备202的校准确定,或由用户102或计算设备202设定)。例如,如果头部方向值之间的差超过阈值,则分数组件220得到暂停发生的结论。
如果分数组件220检测到暂停,则与交互组件222所选择的用户界面元素214相关联的动作被执行。例如,应用210中与所选用户界面元素214相关联的一个应用被执行。
接下来参考图4,示例性流程图示出头部方向模块108将使用两只眼睛和鼻子计算出的头部方向值应用于用户界面104,以标识所显示的用户界面元素214之一的操作。头部方向模块108在402访问面部基准点401的集合。头部方向模块108在404确定两只眼睛中的第一个和鼻子之间的第一距离,并确定两只眼睛中的第二个和鼻子之间的第二距离。在406,所确定的第一距离与所确定的第二距离进行比较,以计算头部方向值。在408,头部方向模块108将计算出的头部方向值应用于用户界面104,以标识用户界面104所显示的用户界面元素214中的至少一个。
头部方向模块108还可如此处所述,在一个或多个用户界面元素214之间区分用户界面104上的所标识的用户界面元素214,并且还执行与所标识的用户界面元素214相关联的动作。
接着参考图5,示例性面部502示出两只眼睛和鼻子之间的距离。图5中的面部502例如表示查看用户界面104的用户102。捕捉设备106可以是游戏控制台或诸如带有摄像头的膝上型计算机的用户计算设备。在一些实施例中,面部502与捕捉设备106捕捉的较大图像隔离开(例如,从较大图像中的多个面部中,面部502被选中以便分析)。图像处理可由头部方向模块108或与头部方向模块108分开但能够与之通信的组件执行。
例如,捕捉设备106可捕捉房间中若干用户102的图像。软件和/或硬件图像处理通过创建用户102的骨架表示来识别用户102。骨架表示之一被选中以便跟踪。例如,用户102之一在校准过程中举起手,且该用户102可被指定为要跟踪的用户102。
在从捕捉到的图像中除去非指定用户102之后,指定用户102的面部502可被隔离开、修剪、并分析以标识基准点的集合212。在此示例中,基准点的集合212包括两只眼睛和鼻子,如图5中所示。两只眼睛和鼻子的坐标被提供给头部方向模块108以便处理。或者,头部方向模块108可标识基准点的集合212。
如参考图3和图4所述,头部方向模块108计算第一距离和第二距离。在图5的示例中,第一距离和第二距离分别被示为D1和D2。距离D1和D2沿水平轴在面部上测量。在其它实施例(未示出)中,距离D1和D2可在每一眼睛和鼻子之间按“视线”测量。
接着参考图6,游戏控制台的用户界面602的示例性屏幕截图示出了基于用户102的计算出的头部方向值对用户界面元素中的至少一个的选择。图6中所示的用户界面602示出了若干菜单选项(例如,用户界面元素)包括“我的帐户”、“商店”、“游戏”和“社区”。“游戏”菜单选项包括供用户102选择的若干游戏选项。在图6的示例中,用户102正在凝视对应于游戏#3的用户界面元素604。
从头部方向值计算出的用户102的感测到的焦点保持固定于用户界面元素604上足够长时间,使得计算设备202放大并突出显示用户界面元素604。如果用户102暂停更长时间,或提供附加姿势(例如,点头、眨眼、举手等),则计算设备202将执行对应于用户界面元素604的游戏#3。
接下来参考图7,示例性用户界面702示出了供本发明的实施例使用的坐标系。在图7的示例中,用户界面702的中心点具有坐标(0,0)。左下角具有坐标(-1,-1),而右上角具有坐标(1,1)。图7中所示的坐标系可被应用于捕捉设备106所捕捉的图像中的基准点,且可应用于头部方向模块108所计算出的头部方向值。在其它实施例中,诸如其中捕捉设备106以垂直轴为中心翻转图像的实施例中,图7中所示的正值和负值颠倒(例如,下角是(-1,-1)而上角是(1,1))。在这样的实施例中,用户102在头部方向值7.31时向右看,并在头部方向值-6.11时向左看。
其它示例
本发明的各方面通过例如允许用户102通过瞥看角落、选择汽车或武器、和/或导航地形来控制游戏中的角色来提升游戏的可玩性。
在一示例中,用户102扫视数字报纸中的文章标题和文章摘要。在用户102暂停在特定标题上时,计算设备202增大文章摘要的字体,使用户102易于阅读,而同时减小其它文章摘要或标题的字体。在用户102扫视另一文章标题或摘要之后,先前放大的文章的字体返回到其之前的大小。
本发明的一些实施例基于头部倾斜的角度的坐标补偿头部倾斜。在确定倾斜角度之后,眼睛、鼻子或其它基准点的坐标基于所确定的倾斜角度调整,以允许对头部方向值的准确计算。
图1和2中的各元素的至少一部分功能可以由图1或图2中的其它元素或图1或图2中未示出的实体(例如,处理器、web服务、服务器、应用程序、计算设备等)执行。
在一些实施例中,图3和图4所示的操作可以以在计算机可读介质上编码的软件指令、以被编程或设计为执行这些操作的硬件或这两者来实现。例如,本发明的各方面可被实现为片上系统。
虽然本公开的各方面没有跟踪个人可标识的信息,但参考了从用户102监视和/或收集的数据来描述各实施例。在这样的实施例中,向用户102提供收集数据的通知(例如,经由对话框或偏好设置)并且给予用户102对监视和/或收集给出同意或拒绝的机会。该同意可以采用选择加入同意或选择退出同意的形式。
示例性操作环境
示例性计算机可读介质包括闪存驱动器、数字多功能盘(DVD)、紧致盘(CD)、软盘以及磁带盒。作为示例而非限制,计算机可读介质可包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据的信息的任何方法或技术实现的易失性与非易失性、可移动与不可移动介质。计算机存储介质将传播的数据信号排除在外。在一些实施例中,计算机存储介质用硬件实现。示例性计算机存储介质包括硬盘、闪存驱动器和其它固态存储器。作为对比,通信介质通常体现诸如载波或其他传输机制等已调制数据信号中的计算机可读指令、数据结构、程序模块或其他数据,并包括任何信息传递介质。
虽然是结合示例性计算系统环境来描述的,但是,本发明的各实施例对于很多其他通用或专用计算机系统环境或配置也很适用。适用于本发明的各方面的公知的计算系统、环境和/或配置的示例包括,但不仅限于:移动计算设备、个人计算机、服务器计算机、手持式或膝上型设备、多处理器系统、游戏控制台、基于微处理器的系统、机顶盒、可编程消费电子产品、移动电话、网络PC、小型计算机、大型计算机、包括上面的系统或设备中的任何一种的分布式计算环境等等。
可以在由一台或多台计算机或其他设备执行的诸如程序模块之类的计算机可执行的指令的一般上下文中来描述本发明的各实施例。计算机可执行指令可以被组织成一个或多个计算机可执行的组件或模块。一般而言,程序模块包括但不限于,执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件,以及数据结构。可以利用任何数量的这样的组件或模块和组织,来实现本发明的各方面。例如,本发明的各方面不仅限于附图中所示出并且在此处所描述的特定计算机可执行的指令或特定组件或模块。本发明的其他实施例可以包括具有比此处所示出和描述的功能多一些或少一些功能的不同的计算机可执行指令或组件。
本发明的各方面在通用计算机被配置成执行此处所描述的指令时将通用计算机变换为专用计算设备。
此处所示和所述的实施例以及未在此专门描述但在本发明的各方面的范围内的实施例构成用于基于眼睛和鼻子的相对位置在多个用户界面元素214之间进行区分的示例性手段,以及用于确定头部方向以导航用户界面104上的菜单的示例性手段。
此处所示出和描述的本发明的各实施例中的操作的执行或完成的顺序不是必需的,除非另作说明。即,除非另作说明,操作可以以任何顺序执行,本发明的各实施例可以包括比此处所公开的操作多一些或少一些操作。例如,在一个操作之前,同时,或之后执行另一个操作也在本发明的各方面范围之内。
当介绍本发明的各方面的元件或其实施例时,“一”、“一个”、“所述”旨在表示有元件中的一个或多个。术语“包括”、“包含”、以及“具有”是包含性的,并表示除所列出的元件以外,还可以有额外的元件。
已经详细地描述了本发明的各方面,显然,在不偏离所附权利要求书所定义的本发明的各方面的范围的情况下,可以进行各种修改。在不偏离本发明的各方面的范围的情况下,可以对上面的结构、产品,以及方法作出各种更改,上面的描述中所包含的和各个附图中所示出的所有主题应该解释为说明性的,而不是限制性的。

Claims (10)

1.一种用于基于头部方向在多个用户界面元素之间区分的方法,所述方法包括:
访问存储在与计算设备相关联的存储器区域中的面部基准点的集合,所述存储器区域存储包括至少两只眼睛和一个鼻子的坐标的面部基准点的集合,所述存储器区域还存储多个用户界面元素以便显示在用户界面上;
确定所述眼睛中第一个和所述鼻子之间的第一距离;
确定所述眼睛中第二个和所述鼻子之间的第二距离;
将所确定的第一距离与所确定的第二距离进行比较,以计算头部方向值;以及
将计算出的头部方向值应用于所述用户界面,以标识所述用户界面所显示的一个或多个用户界面元素中的至少一个。
2.如权利要求1所述的方法,其特征在于,还包括在所述一个或多个用户界面元素之间区分所述用户界面上的所标识的用户界面元素,其中区分所标识的用户界面元素包括以下中的一项或多项:突出显示所标识的用户界面元素、放大所标识的用户界面元素、描绘所标识的用户界面元素的轮廓、改变所标识的用户界面元素的颜色以及使所标识的用户界面元素动画化。
3.如权利要求1所述的方法,其特征在于,还包括执行与所标识的用户界面元素相关联的动作,并且所述方法还包括提供所述面部基准点的集合。
4.如权利要求1所述的方法,其特征在于,还包括:
基于所述眼睛和鼻子的相对位置在所述多个用户界面元素之间进行区分;以及
确定头部方向以在所述用户界面上导航菜单。
5.一种用于基于头部方向在多个用户界面元素之间区分的方法,包括:
接收表示凝视多个用户界面元素的主体的图像中的至少三个基准点的集合的坐标,所述集合包括第一基准点和第二基准点,它们位于第三基准点的相对两侧;
确定所述第一基准点和所述第三基准点之间的第一距离;
确定所述第二基准点和所述第三基准点之间的第二距离;
将所确定的第一距离与所确定的第二距离进行比较,以便为所述主体计算头部方向值;以及
基于计算出的头部方向值选择所述多个用户界面元素中的至少一个。
6.如权利要求5所述的方法,其特征在于,所述主体被相机查看,且接收坐标包括接收所述主体的高度和所述主体离所述相机的距离,且还包括基于所述高度和距离计算所述第三基准点。
7.如权利要求5所述的方法,其特征在于,接收所述坐标包括接收所述基准点中每一个的二维坐标,其中确定第一距离包括计算X鼻子–X左眼,其中确定二距离包括计算X鼻子–X右眼,且其中计算头部方向值包括计算X鼻子–X左眼+X鼻子–X右眼,其中X、X左眼和X右眼分别是鼻子、左眼和右眼的二维坐标,其中选择所述多个用户界面元素中的至少一个包括:如果计算出的头部方向值为正则选择所述多个用户界面元素中在用户界面右侧上的至少一个,以及如果计算出的头部方向值为负,则选择所述多个用户界面元素中在所述用户界面左侧上的至少一个。
8.如权利要求5所述的方法,其特征在于,所述图像包括多个面部,且所述方法还包括选择所述面部之一以便分析,其中选择所述多个用户界面元素中的至少一个包括:如果计算出的头部方向值为正,则选择所述多个用户界面元素中在用户界面的上部的至少一个,以及如果计算出的头部方向值为负,则选择所述多个用户界面元素中在所述用户界面的下部的至少一个。
9.如权利要求5所述的方法,其特征在于,还包括接收凝视所述多个用户界面元素的主体的多个流传输视频帧,其中所述接收表示凝视多个用户界面元素的主体的图像中的至少三个基准点的集合的坐标、所述确定所述第一基准点和所述第三基准点之间的第一距离、所述确定所述第二基准点和所述第三基准点之间的第二距离以及所述将所确定的第一距离与所确定的第二距离进行比较是为所接收到的视频帧的子集执行的以便计算所述头部方向值。
10.一种用于基于头部方向在多个用户界面元素之间区分的系统,所述系统包括:
通信接口组件,用于从凝视多个用户界面元素的主体的第一视频帧接收表示至少三个基准点的第一集合的坐标,所述集合包括第一基准点和第二基准点,它们位于第三基准点的相对两侧;
检测组件,用于确定所述第一基准点和所述第三基准点之间的第一距离,并确定所述第二基准点和所述第三基准点之间的第二距离;
分数组件,用于将由所述检测组件确定的第一距离与所述检测组件确定的第二距离进行比较,以便为所述主体计算第一头部方向值,其中,所述检测组件和所述分数组件随后对来自第二视频帧的至少三个基准点的第二集合操作,以便为所述主体计算第二头部方向值;以及
交互组件,用于基于由所述分数组件计算出的第一头部方向值与所述分数组件计算出的第二头部方向值之间的比较,选择所述多个用户界面元素中的至少一个。
CN201210506845.9A 2011-12-02 2012-11-30 基于头部方向的用户界面控制 Expired - Fee Related CN102968180B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/309,574 US8803800B2 (en) 2011-12-02 2011-12-02 User interface control based on head orientation
US13/309,574 2011-12-02

Publications (2)

Publication Number Publication Date
CN102968180A CN102968180A (zh) 2013-03-13
CN102968180B true CN102968180B (zh) 2016-03-30

Family

ID=47798360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210506845.9A Expired - Fee Related CN102968180B (zh) 2011-12-02 2012-11-30 基于头部方向的用户界面控制

Country Status (4)

Country Link
US (1) US8803800B2 (zh)
CN (1) CN102968180B (zh)
HK (1) HK1181134A1 (zh)
WO (1) WO2013081918A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
DE102013206569B4 (de) * 2013-04-12 2020-08-06 Siemens Healthcare Gmbh Gestensteuerung mit automatisierter Kalibrierung
HK1181255A2 (en) * 2013-07-18 2013-11-01 Leung Spencer Yu Cheong Monitor system and method for smart device
US9398253B2 (en) 2013-07-26 2016-07-19 Qualcomm Incorporated Video pause indication in video telephony
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
US20150085060A1 (en) 2013-09-20 2015-03-26 Microsoft Corporation User experience for conferencing with a touch screen display
US9363476B2 (en) 2013-09-20 2016-06-07 Microsoft Technology Licensing, Llc Configuration of a touch screen display with conferencing
US9563805B2 (en) * 2014-09-02 2017-02-07 Hong Kong Baptist University Method and apparatus for eye gaze tracking
US10149624B2 (en) * 2014-11-06 2018-12-11 Koninklijke Philips N.V. Method and device for measuring intracranial pressure, ICP, in a subject
US9818037B2 (en) 2015-02-04 2017-11-14 Invensense, Inc. Estimating heading misalignment between a device and a person using optical sensor
DE102015203675A1 (de) * 2015-03-02 2016-09-08 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Auswahl eines Anzeigeelementes auf einer Anwenderschnittstelle
US20170168323A1 (en) * 2015-04-22 2017-06-15 Kurt Matthew Gardner Method of Determining Eyeglass Fitting Measurements from an Image by Executing Computer-Executable Instructions Stored on a Non-Transitory Computer-Readable Medium
US9885887B2 (en) * 2015-04-22 2018-02-06 Kurt Matthew Gardner Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium
CN104784930B (zh) * 2015-05-08 2017-11-10 四川天上友嘉网络科技有限公司 显示游戏角色的方法
US10055186B2 (en) 2016-06-01 2018-08-21 Dell Products, Lp Mitigation of image degradation in displays
US10572745B2 (en) * 2017-11-11 2020-02-25 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003030086A1 (en) * 2001-09-28 2003-04-10 Koninklijke Philips Electronics N.V. Head motion estimation from four feature points
US6816836B2 (en) * 1999-08-06 2004-11-09 International Business Machines Corporation Method and apparatus for audio-visual speech detection and recognition
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
KR100714724B1 (ko) * 2005-08-17 2007-05-07 삼성전자주식회사 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
CN101561710A (zh) * 2009-05-19 2009-10-21 重庆大学 一种基于人脸姿态估计的人机交互方法
JP4775957B2 (ja) * 2006-07-28 2011-09-21 Kddi株式会社 顔検出装置

Family Cites Families (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
WO1993010708A1 (en) 1991-12-03 1993-06-10 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
EP0958002A4 (en) 1996-05-08 2001-03-28 Real Vision Corp REAL-TIME SIMULATION USING POSITION DETECTION
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6411744B1 (en) 1997-10-15 2002-06-25 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
EP1147370B1 (en) 1998-12-16 2009-02-25 3DV Systems Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
AU2003212211A1 (en) 2002-04-19 2003-11-03 Iee International Electronics And Engineering S.A. Safety device for a vehicle
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US6925122B2 (en) 2002-07-25 2005-08-02 National Research Council Method for video-based nose location tracking and hands-free computer input devices based thereon
US8019121B2 (en) * 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
JP5080273B2 (ja) 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR101403172B1 (ko) 2005-05-17 2014-06-03 퀄컴 인코포레이티드 방위-감응 신호 출력
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7904477B2 (en) 2006-12-13 2011-03-08 Videomining Corporation Object verification enabled network (OVEN)
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
TWI327536B (en) * 2007-05-16 2010-07-21 Univ Nat Defense Device and method for detecting obstacle by stereo computer vision
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
CN201254344Y (zh) 2008-08-20 2009-06-10 中国农业科学院草原研究所 植物标本及种子存贮器
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
US20100306716A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816836B2 (en) * 1999-08-06 2004-11-09 International Business Machines Corporation Method and apparatus for audio-visual speech detection and recognition
WO2003030086A1 (en) * 2001-09-28 2003-04-10 Koninklijke Philips Electronics N.V. Head motion estimation from four feature points
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
KR100714724B1 (ko) * 2005-08-17 2007-05-07 삼성전자주식회사 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템
JP4775957B2 (ja) * 2006-07-28 2011-09-21 Kddi株式会社 顔検出装置
JP2009053916A (ja) * 2007-08-27 2009-03-12 Sony Corp 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
CN101561710A (zh) * 2009-05-19 2009-10-21 重庆大学 一种基于人脸姿态估计的人机交互方法

Also Published As

Publication number Publication date
HK1181134A1 (zh) 2013-11-01
US8803800B2 (en) 2014-08-12
WO2013081918A1 (en) 2013-06-06
US20130141324A1 (en) 2013-06-06
CN102968180A (zh) 2013-03-13

Similar Documents

Publication Publication Date Title
CN102968180B (zh) 基于头部方向的用户界面控制
US10732707B2 (en) Perception based predictive tracking for head mounted displays
US20210192774A1 (en) Mapping Optimization in Autonomous and Non-Autonomous Platforms
CN113892073B (zh) 具有优先化运动模型的多层人工现实控制器姿态跟踪架构
US11127210B2 (en) Touch and social cues as inputs into a computer
US10330940B1 (en) Content display methods
CN108351522B (zh) 注视方向映射
EP3617995A1 (en) Augmented reality processing method, object recognition method, and related apparatus
US10007349B2 (en) Multiple sensor gesture recognition
EP2354893B1 (en) Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
JP7008730B2 (ja) 画像に挿入される画像コンテンツについての影生成
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
KR102233807B1 (ko) 가상 현실 시스템을 위한 입력 제어기 안정화 기법
CN108700942A (zh) 在虚拟/增强现实系统中改变对象位置的技术
WO2012154989A2 (en) Point-of-view object selection
CN104423575B (zh) 基于关注的呈现和保真度
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP7468506B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2020113185A1 (en) Control system for a three dimensional environment
CN109716395A (zh) 在虚拟现实中保持对象稳定性
US20230316560A1 (en) Tracking apparatus, method, and non-transitory computer readable storage medium thereof
WO2021166717A1 (ja) 表示制御装置、表示制御方法及び記録媒体
US20230332883A1 (en) Depth Estimation for Augmented Reality
CN117438044A (zh) 一种健康管理方法及装置
CN115617152A (zh) 头戴式显示设备的虚拟键盘的显示方法、装置以及设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1181134

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150727

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150727

Address after: Washington State

Applicant after: MICROSOFT TECHNOLOGY LICENSING, LLC

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1181134

Country of ref document: HK

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160330