CN103443742A - 用于凝视和姿势接口的系统和方法 - Google Patents

用于凝视和姿势接口的系统和方法 Download PDF

Info

Publication number
CN103443742A
CN103443742A CN2011800673449A CN201180067344A CN103443742A CN 103443742 A CN103443742 A CN 103443742A CN 2011800673449 A CN2011800673449 A CN 2011800673449A CN 201180067344 A CN201180067344 A CN 201180067344A CN 103443742 A CN103443742 A CN 103443742A
Authority
CN
China
Prior art keywords
camera
posture
display
eyes
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800673449A
Other languages
English (en)
Other versions
CN103443742B (zh
Inventor
Y.金科
J.厄恩斯特
S.古斯
郑先隽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of CN103443742A publication Critical patent/CN103443742A/zh
Application granted granted Critical
Publication of CN103443742B publication Critical patent/CN103443742B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

本发明涉及一种由用户激活和与显示在3D计算机显示器上的至少一个3D对象交互的系统和方法,其中至少通过用户的、可以与用户对3D计算机显示器的凝视结合的姿势来进行激活和交互。在第一示例中,3D对象是3DCAD对象。在第二示例中,3D对象是径向菜单。用户的凝视由用户所佩戴的、包括至少一个内部照相机和外部照相机的头部框架捕获。用户的姿势由照相机捕获并且从多个姿势中被识别出。用户的姿势由传感器捕获,并且相对于3D计算机显示器进行标定。

Description

用于凝视和姿势接口的系统和方法
相关案件的声明
本发明要求2010年12月16日提交的、序列号为61/423,701的美国临时专利申请和2011年9月22日提交的、序列号为61/537,671的美国临时专利申请的优先权与利益。
技术领域
本发明涉及通过用户的凝视和姿势来激活和与显示在计算机显示器上的3D对象交互。
背景技术
3D技术变得越来越可用。3D TV近来变得可用。3D视频游戏和电影开始变得可用。计算机辅助设计(CAD)软件用户开始使用3D模型。然而,目前设计者与3D技术的交互是传统性质的,即使用诸如鼠标、跟踪球等经典输入设备。一个强大挑战是提供能够促进更好并且更快地使用3D技术的自然并且直观的交互模式。
从而,需要利用3D交互的凝视和姿势来与3D显示器交互的改进的并且新颖的系统及方法。
发明内容
根据本发明的一个方面,提供了允许用户通过凝视和姿势与3D对象交互的方法和系统。根据本发明的一个方面,凝视接口由用户所佩戴的、带有一个或多个照相机的头部框架来提供。还提供了用于标定佩戴者所佩戴的框架的方法和仪器,该框架包括对准显示器的外部照相机,和分别对准佩戴者的一个眼睛的第一和第二内部照相机。
根据本发明的一个方面,为佩戴具有对准人员眼睛的第一照相机的头部框架的该人员提供了一种通过以该眼睛凝视3D对象和通过以身体部分做出姿势来与显示在显示器上的该3D对象交互的方法,该方法包括:以至少两个照相机感测该眼睛的图像、该显示器的图像和该姿势的图像,安装在头部框架中的这至少两个照相机之一适于指向显示器,并且这至少两个照相机中的另一个是第一照相机;将该眼睛的图像、该姿势的图像和该显示器的图像传送给处理器;处理器根据这些图像确定该眼睛的视向和头部框架相对于显示器的位置,并且然后确定人员正在凝视的3D对象;处理器根据该姿势的图像从多个姿势中识别出该姿势;并且处理器基于该凝视、或该姿势、或该姿势和该凝视来进一步处理该3D对象。
根据本发明的另一方面,提供了一种方法,其中第二照相机位于头部框架中。
根据本发明的又另一方面,提供了一种方法,其中第三照相机位于显示器中或毗邻显示器的区域中。
根据本发明的又另一方面,提供了一种方法,其中头部框架包括头部框架中的、指向人员的第二眼睛以捕获第二眼睛的视向的第四照相机。
根据本发明的又另一方面,提供了一种方法,该方法还包括:处理器根据第一眼睛的视向和第二眼睛的视向的交点确定3D焦点。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活该3D对象。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括基于凝视、或姿势、或凝视和姿势两者来以增大的分辨率显现3D对象。
根据本发明的又另一方面,提供了一种方法,其中3D对象由计算机辅助设计程序生成。
根据本发明的又另一方面,提供了一种方法,其进一步包括:处理器基于来自第二照相机的数据识别姿势。
根据本发明的又另一方面,提供了一种方法,其中处理器基于姿势在显示器上移动3D对象。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器确定佩戴头部框架的人员的位置到新位置的改变,和处理器在计算机3D显示器上对应于新地点重新显现3D对象。
根据本发明的又另一方面,提供了一种方法,其中处理器以显示器的帧率确定地点改变和进行重新显现。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器显示与正被凝视的3D对象有关的信息。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活与3D对象有关的径向菜单。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活在3D空间中堆叠在彼此之上的多个径向菜单。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器标定人员的、指向3D计算机显示器上的区域的手部和胳膊姿势的相对姿态,人员以新姿态指向3D计算机显示器,并且处理器基于标定过的相对姿态估计与该新姿态有关的坐标。
根据本发明的又另一方面,提供了一种系统,其中人员通过以第一眼睛凝视和通过以身体部分做出姿势来与多个3D对象中的一个或多个交互,该系统包括:显示这多个3D对象的计算机显示器;头部框架,其包括适于指向佩戴头部框架的人员的第一眼睛的第一照相机,和适于指向计算机显示器的区域并且捕获姿势的第二照相机;处理器,其能够执行指令以进行如下步骤:接收由第一和第二照相机传送的数据;处理所接收的数据,以在多个对象中确定凝视所对准的3D对象;处理所接收的数据,以从多个姿势识别该姿势并且基于该凝视和姿势进一步处理3D对象。
根据本发明的又另一方面,提供了一种系统,其中计算机显示器显示3D图像。
根据本发明的又另一方面,提供了一种系统,其中显示器是立体观看系统的部分。
根据本发明的又另一方面,提供了一种设备,利用该设备,人员通过从第一眼睛凝视和从第二眼睛凝视和通过人员的身体部分做出姿势与显示在3D计算机显示器上的3D对象交互,该设备包括:适于由该人员佩戴的框架;安装在框架中的第一照相机,适于指向第一眼睛以捕获第一凝视;安装在框架中的第二照相机,适于指向第二眼睛以捕获第二凝视;安装在框架中的第三照相机,适于指向3D计算机显示器和捕获姿势;第一和第二镜片,其安装在框架中,使得第一眼睛看穿第一镜片并且第二眼睛看穿第二镜片,第一和第二镜片用作3D观看快门;以及用于传送由照相机生成的数据的传送器。
附图说明
图1示出了视讯透视(video-see-through)标定系统;
图2到4是根据本发明的一个方面来使用的头部佩戴多照相机系统的图像;
图5关于根据本发明的一个方面的内部照相机提供了一种眼球模型;
图6示出了一步标定步骤,其可以在进行了初始标定时候使用;以及
图7示出了根据本发明的一个方面的工业凝视和姿势自然接口系统(Industry Gaze and Gesture Natural Interface system)的使用;
图8示出了根据本发明的一个方面的工业凝视和姿势自然接口系统;
图9和10示出了根据本发明的一个方面的姿势;
图11示出了根据本发明的一个方面的姿态标定系统;以及
图12示出了根据本发明的一个方面的系统。
具体实施方式
本发明的方面有关于或者取决于可佩戴的传感器系统的标定和图像的配准。配准和/或标定系统和方法在美国专利7,639,101、7,190,331和6,753,828中公开。这些专利中的每个均通过引用包含于此。
首先,将描述用于标定可佩戴的多照相机系统的方法和系统。图1示出了头部佩戴的、多照相机眼睛追踪系统。提供了计算机显示器12。在显示器12的不同地点上提供了标定点14。头部佩戴的、多照相机设备20可以是一副眼镜。眼镜20包括外部照相机22、第一内部照相机24和第二内部照相机26。来自每个照相机22、24和26的图像经由输出端30提供给处理器28。内部照相机24和26瞄准用户的眼睛34。内部照相机24远离用户的眼睛34地瞄准。在根据本发明的一个方面标定期间,内部照相机朝着显示器12瞄准。
接下来将描述如在图1中示出的、根据本发明的一个方面的用于几何标定头部佩戴的多照相机眼睛追踪系统的方法。
图2-4中示出了眼镜20的一个实施例。在图2中示出了带有内部和外部照相机的框架。这种框架由Reno,NV的Eye-Com公司提供。框架500具有外部照相机501和两个内部照相机502和503。实际的内部照相机在图2中并不可见,但示出了内部照相机502和503的壳体。在图3中示出了一套可佩戴的照相机的类似但更新的版本的内部示图。图3中清楚示出了框架600中的内部照相机602和603。图4示出了通过缆线702连接至视频信号接收器701的、带有外部照相机和内部照相机的可佩戴照相机700。单元701也可以包含用于照相机的电源和处理器28。替选地,处理器28可以位于任意地点。在本发明的另一实施例中,视频信号无线地传送至远程接收器。
所期望的是精确确定头部佩戴的照相机的佩戴者在看哪里。例如,在一个实施例中,头部佩戴的照相机的佩戴者定位在距离计算机屏幕约2英尺与3英尺之间,或者在2英尺与5英尺之间,或者在2英尺与9英尺之间处,该计算机屏幕可以包括键盘,并且根据本发明的一个方面,该系统确定佩戴者的凝视在屏幕上或键盘上或标定空间中其它地方上的所对准处在标定空间中的坐标。
如已经描述那样,存在两组照相机。外部照相机22相对于世界传递关于多照相机系统的姿态的信息,并且内部照相机24和26相对于用户和传感器测量来传递关于多照相机系统的姿态的信息,以用于估计几何模型。
在此提供了数个标定眼镜的方法。第一方法是两步骤过程。第二标定方法依赖于该两步骤过程和然后使用单应性步骤。第三标定方法在同时而不是在分开的时间处理这两个步骤。
方法1-两个步骤
方法1以两个连续步骤、即内部-外部和内部-眼睛标定来开始系统标定。
方法1的第一步骤:内部-外部标定
借助两个不相交的标定模式、即3D中具有精确已知的坐标的固定点,收集一套外部和内部照相机框架对,并且在所有图像中标注已知标定点的3D位置的投影。在一个优化步骤中,将每个外部和内部照相机对的相对姿态估计为将特定误差标准最小化的旋转和平移参数的集合。
内部-外部标定对于每个眼睛进行,即在左眼进行一次并且然后单独地又在右眼上进行一次。
在方法1的第一步骤中,建立在内部照相机坐标系和外部照相机坐标系之间的相对变换。根据本发明的一个方面,估计下面等式中的参数Rex、tex
px=Rexpe+tex
其中
Rex∈SO(U是旋转矩阵,其中SO(3)是在现有技术中已知的旋转群,
tex∈R3是内部和外部照相机坐标系之间的平移向量,
px∈R3是外部照相机坐标系中的一个点,
px∈R3是外部照相机坐标系中的点的向量,
pe∈R3是内部照相机坐标系中的一个点,以及
pe∈R3是内部照相机坐标系中的点的向量。
接下来,Rex、tex在由Rex经由罗德里格斯(Rodrigues)公式和tex的级联所构成的齐次矩阵Tex∈R4×R4中被吸收。矩阵Tex称作齐次坐标的变换矩阵。矩阵Tex如下构成:
T ex = R ex t ex 0 0 0 1
其是tex 0 0 0 1 T 的级联,该级联为标准文本程序。
通过将误差标准如下最小化来将Tex的(未知)参数估计为
1.两个不相交(即并不严格耦合)的标定参考栅格Ge、Gx具有施加在分布于全部三维中的、精确已知的地点上的M个标记物;
2.将栅格Ge、Gx放置在内部-外部照相机系统周围,使得Gx在外部照相机图像中可见,并且Ge在内部照相机图像中可见;
3.对于每个内部和外部照相机进行曝光;
4.将内部和外部照相机系统在不移动栅格Ge、Gx的情况下旋转和平移到新地点上,使得在上面步骤2中的可见性条件并不被妨碍;
5.重复步骤3和4,直至采取了N(双倍,即外部/内部)次曝光。
6.在N个曝光/图像中的每个中并且对于每个照相机(内部、外部),标注标记物的成像的地点,形成M×N个标记过的内部图像地点
Figure BDA00003651760100064
和M×N个标记过的外部图像地点
Figure BDA00003651760100065
7.对于N个曝光/图像中的每个并且对于每个照相机(内部、外部),根据步骤6中的标记过的图像地点和其来自步骤1的基本事实,经由现成的外部照相机标定模块来估计外部姿态矩阵
Figure BDA00003651760100066
Figure BDA00003651760100067
8.通过观看下面的将内部栅格Ge坐标系中的世界点pe变换为外部栅格Gx坐标系中的点px的等式px=Gpe而导出优化标准,其中G是从内部到外部栅格坐标系的未知变换。其另一写法是:
p x = ( T n x ) - 1 T ex T n e p e ∀ n - - - ( 1 )
换言之,变换
Figure BDA00003651760100069
是两个栅格坐标系之间的未知变换。下面直接跟随有:如果对于全部N个实例(Tx,Te)n,而言所有点{pe}总是经由等式1变换成相同的点{px},则
Figure BDA00003651760100076
是Tex的正确的估计。
因此,误差/优化/最小化标准以如下形式提出:其偏好
Figure BDA00003651760100077
在那里所形成的px对于集合{px}中的每个元素而言靠近在一起、例如如下情况:
σ 2 = Σ [ { Var ( p x ) } ] , p n x = ( T n x ) - 1 T ~ ex T n e p e - - - ( 2 )
刚才描述的这些步骤对于照相机22和24的对并且对于照相机22和26的对来进行。
方法1的第二步骤:内部-眼睛标定
接下来,对于上面确定的每个标定对进行内部-眼睛标定。根据本发明的一个方面,内部-眼睛标定步骤包括估计人眼睛的几何模型的参数、其取向和中心地点的位置。这在内部-外部标定可用之后通过采集来自内部照相机的、包括瞳孔中心的传感器测量集合和在用户聚焦在3D屏幕空间中的已知位置上期间来自外部照相机的相应的外部姿态来进行。
优化程序相对于已知的基础事实对监视器上的凝视再投影误差最小化。
目的是估计内部眼睛照相机坐标系中的眼球中心c∈R3的相对位置和眼球的半径r。在给定内部眼睛图像中的瞳孔中心l的情况下以如下方式计算监视器上的凝视地点:
这些步骤包括:
1.确定l到世界坐标的投影与眼球表面的交点a;
2.通过向量a-c确定凝视在内部照相机坐标系中的方向;
3.通过在较早部分中所获得/所估计的变换将来自步骤2的凝视方向变换到外部世界坐标系中;
4.通过例如标记物追踪机制建立外部照相机坐标系与监视器之间的变换;
5.在给定步骤4所估计的变换的情况下确定来自步骤3的向量与监视器表面的交点d。
在标定步骤中未知的是眼球中心c和眼球半径r。其通过采集K对屏幕交点d与内部图像中的瞳孔中心l∶(d;l)k来估计。通过将所估计的
Figure BDA00003651760100072
相对于实际基础事实地点d的再投影误差最小化来确定所估计的参数
Figure BDA00003651760100073
例如借助一些度量E
min E ( | d - d ~ | ) - - - ( 3 )
于是,所找到的眼球中心
Figure BDA00003651760100081
和眼球半径
Figure BDA00003651760100082
估计是将等式3最小化的。
基本事实通过预先确定的参考点、例如作为两个不同系列的点(其中每个眼睛一个系列)的参考点来提供,这些参考点显示在显示器的已知的坐标系栅格上。在一个实施例中,参考点以伪随机方式分布在显示器的区域上。在另一实施例中,参考点以有规律的图案显示。
标定点优选以均匀或基本均匀的形式分布在显示器上,以获得由显示器限定的空间的有益标定。可预测或随机标定模式的使用可以与框架佩戴者的偏好有关。然而,优选地,标定模式中的所有点应不为共线的。
在此提供的系统优选使用计算机显示器上的至少或大约12个标定点。从而,在用于标定的不同地点中的至少或大约12个参考点显示在计算机屏幕上。在另一实施例中,使用更多标定点。例如,应用至少16个点或至少20个点。这些点可以同时显示,允许眼睛直接凝视不同的点。在另一实施例中,使用少于十二个标定点。例如,在一个实施例中使用两个标定点。标定点数量的选择一方面是基于用户的方便或舒适,其中高数量的标定点会对佩戴者形成负担。非常低数量的标定点会影响使用质量。所认为的是,总数10-12的标定点在一个实施例中是合理数量。在另一实施例中,在标定期间一次显示一个点。
方法2-两个步骤和单应性
第二方法使用上面的两个步骤和单应性步骤。该方法将方法1用作初始处理步骤,并且通过估计来自方法1的、在屏幕世界空间中的所估计坐标与屏幕坐标空间中的基础事实之间的附加单应性来改进解决方案。这通常处理并且减小在之前估计中的系统偏差,由此改进再投影误差。
该方法基于方法1所估计的变量,即其补充方法1。在部分1中的标定步骤开始后,典型地存在投影地点
Figure BDA00003651760100083
相对于真实地点d的残留误差。在第二步骤中,通过将该残留误差建模为单应性H、即
Figure BDA00003651760100084
来将该误差最小化。单应性容易地由标准方法借助之前部分的对
Figure BDA00003651760100085
的集合来估计,并且然后应用于校正残留误差。单应性估计例如在Appel等发明的、2005年11月15日授权的、序列号为6,965,386的美国专利和Mittal等发明的、2008年1月22日授权的、序列号为7,321,386的美国专利中描述,其均通过引用包含于此。
单应性对本领域技术人员已知并且例如在Richard Hartley和AndrewZisserman所著的“Multiple View Geometry in Computer Vision”,CambridgeUniversity Press,2004中描述。
方法3-联合优化
该方法通过同时而非单独地联合优化内部-外部和内部-眼睛空间的参数来处理相同的标定问题。使用在屏幕空间中凝视方向的相同的再投影误差。误差标准的优化在内部-外部以及内部-眼睛几何参数的联合参数空间上进行。
该方法将上面作为方法1的部分描述的内部-外部标定以及上面作为方法1的部分描述的内部-眼睛标定联合地当做一个优化步骤。优化的基础是等式(3)中的监视器再投影误差标准。所估计的变量特别地为Tex;c和r。它们的估计
Figure BDA00003651760100091
Figure BDA00003651760100092
是作为任意现成优化方法的输出将再投影误差标准最小化的解决方案。
特别地这包括:
1.给定已知的监视器交点d和相关的在内部图像中的瞳孔中心位置l的集合、即(d,l)k,计算再投影过的凝视地点的再投影误差。凝视地点通过上面描述的、与内部-眼睛标定有关的方法来再投影。
2.采用现成的优化方法来找到参数
Figure BDA00003651760100094
Figure BDA00003651760100095
其将步骤1的再投影误差最小化。
3.所估计的参数
Figure BDA00003651760100096
Figure BDA00003651760100097
然后是系统的标定,并且可以用于再投影新的凝视方向。
在图5中提供了一种与内部照相机相关的眼睛模型的图。其提供了眼睛几何结构的简化视图。固定点的地点在不同的实例中通过如在此提供那样的头部追踪方法来补偿,并且在屏幕上的不同固定点di、dj和dk示出。
在线单点再标定
一个方法改进在时间上的标定性能,并且能够实现其它系统能力,引起改进的用户舒适度,包括:经由简单的在线再标定实现的更长交互时间;以及摘掉眼睛框架和再戴回而无需经历完全的再标定过程的能力。
对于在线再标定,发起如下面描述那样的简单程序来补偿标定误差,例如由于框架运动(其例如可以是由于长的佩戴时间或摘掉眼睛框架和戴回而造成的将眼睛框架移动)而造成的累积性标定误差。
方法
单点标定与任意之前的标定程序无关地估计和补偿在实际的凝视地点与估计的凝视地点之间在屏幕坐标中的平移偏差。
再标定过程可以手动地、例如当用户例如由于低于正常追踪性能而注意到需要再标定时发起。再标定过程也可以自动地、例如当系统根据用户的行为模式推断追踪性能降低(例如如果系统正被用于打字,则低于正常打字性能可以指示对于再标定的需要)或仅在固定量的时间之后发起。
单点标定例如在已进行上面描述那样的完整标定之后发生。然而,如之前陈述的,单点标定与应用何种标定方法无关。
参考图6,每当发起在线单点标定时,都进行如下步骤:
1.在屏幕800上的已知位置(例如在屏幕中心上)显示一个视觉标记物806;
2.保证用户凝视该点(对于配合的用户而言,这可以通过在显示该标记物之后短的等待时间来触发);
3.确定用户以框架在凝视哪里。在图6的情况下,用户沿着向量804凝视点802。因为用户应该正沿着向量808凝视点806,所以存在可以标定该系统的向量Δe。
4.下一步骤是确定来自步骤1的、屏幕上地点的实际已知点806与屏幕坐标中来自系统的、再投影过的凝视方向802/804之间的向量Δe。
5.进一步确定用户正凝视哪里通过向量△e来校正。
这包括单点再标定过程。为了随后估计凝视地点,通过向量Δe补偿它们的在屏幕上的再投影,直至发起新的单点再标定或新的完全标定。
附加的点也可以在该再标定步骤中如所需那样使用。
在一个实施例中,将标定过的可佩戴照相机用于确定佩戴着可佩戴照相机的用户的凝视对准哪里。这种凝视可以是主动的或确定的凝视,例如对准显示器上所显示的所期望对象或者所期望图像。凝视也可以是由被有意或无意吸引至特定对象或图像的佩戴者进行的非主动凝视。
通过提供对象或图像在标定过的空间中的坐标,该系统可以编程为通过将对象在标定过的空间中的坐标与标定过的凝视方向相关联来确定照相机的佩戴者正在看哪个图像、对象或对象的部分。因此,用户对对象、例如屏幕上的图像的凝视可以用于发起诸如数据和/或指令的计算机输入。例如,屏幕上的图像可以是诸如字母和数学符号的符号的图像。图像还可以表示计算机命令。图像还可以表示URL。还可以追踪移动的凝视来画图。从而,可以提供系统和各种方法,其使得用户的凝视能够至少类似于用户的触摸如何激活计算机触屏那样激活计算机。
在一个主动或有意凝视的示例中,如在此提供那样的系统在屏幕上显示键盘或者具有与标定系统关联的键盘。键的位置由标定来限定,并且系统因此识别与显示在标定空间中的屏幕上的特定键关联的凝视方向。因此,佩戴者可以通过将凝视对准例如显示在屏幕上的键盘上的字母来键入字母、词语或句子。所键入字母的确认可以基于凝视的持续时间或者通过凝视确认图像或键。完全预期其它配置。例如,不是键入字母、词语或句子,佩戴者而是可以从字典、列表或数据库中选择词语或概念。佩戴者也可以通过使用如在此提供那样的系统和方法来选择和/或构造公式、图形、结构等。
作为非主动凝视的一个示例,佩戴者可以暴露于标定过的视觉空间中的一个或多个对象或图像。可以将该系统用于确定哪个对象或图像吸引并且有可能维持未被指示将凝视定向的佩戴者的注意力。
SIG2N
在可佩戴的多照相机系统的一个应用中,提供了称作SIG2N或SIG2N(Siemens Industry Gaze & Gesture Natural interface(西门子工业凝视&姿势自然接口))的方法和系统,其使得CAD设计者能够:
1.在真实的3D显示器上观看其3D CAD软件对象
2.使用自然凝视&手部姿势和动作来直接与其3D CAD对象交互(例如调整大小、旋转、移动、拉伸、击打等)
3.将其眼睛用于控制的不同附加方面和用于接近地观看与3D对象有关的附加元数据。
SIG2N
3D TV对于消费者而言开始变得可以负担得起来享受观看3D电影。此外,3D视频计算机游戏开始出现,并且3D TV和计算机显示器是用于与这种游戏交互的良好显示设备。
多年来,3D CAD设计者通过传统的2D计算机显示器来将CAD软件用于设计新的、复杂的产品,2D计算机固有地限制设计者的3D理解和3D对象操纵&交互。这种负担得起的硬件的出现提供给CAD设计者以3D方式观看其3D CAD对象的可能性。SIG2N架构的一个方面负责将西门子CAD产品的输出转换为使得其可以在3D TV和3D计算机显示器上有效地显现。
3D对象和3D对象如何显示之间有区别。如果一个对象具有显示为三维特性的三维特性,则其为3D的。例如,例如为CAD对象的对象以三维特性来限定。在本发明的一个实施例中,其以2D方式显示在显示器上,但是通过提供例如是来自虚拟的光源的阴影的照明效果而具有3D印象或幻象,所述阴影为2D图像提供深度幻象。
为了由人类观看者以3D或立体方式来感知,需要通过对象的显示来提供两个图像,其反映利用两个人类传感器(相距大约5-10cm的两个眼睛)来体验的、允许大脑将两个单独图像组合成一个3D图像感知的视差。存在数种已知并且不同的3D显示技术。在一个技术中,同时提供单个屏幕或显示器的两个图像。这些图像通过为每个眼睛提供专用过滤器来分离图像,该过滤器为第一眼睛通过第一图像和阻挡第二图像,并且为第二眼睛阻挡第一图像和通过第二图像。另一技术是提供具有柱状透镜的屏幕,这些柱状透镜为观看者的每个眼睛提供不同的图像。另一技术是通过将框架与眼镜组合来为每个眼睛提供不同的图像,该框架以高速率在两个镜片之间切换,并且与以对应于切换眼镜的正确速率来显示右和左眼图像的显示器相呼应地工作,其中该切换眼镜已知为快门眼镜。
在本发明的一个实施例中,在此提供的系统和方法处理在屏幕上以单个2D图像显示的3D对象,其中每个眼睛接收相同的图像。在本发明的一个实施例中,在此提供的系统和方法处理在屏幕上以至少两个图像显示的3D对象,其中每个眼睛接收3D对象的不同图像。在另一实施例中,是显示器的部件的屏幕或显示器或设备适于示出不同的图像,例如通过使用柱状透镜或通过适配为在两个图像间迅速切换。在另一实施例中,屏幕同时示出两个图像,而带有过滤器的眼镜允许为观看者的左眼和右眼分开两个图像。
在本发明的又另一实施例中,以迅速改变的序列显示旨在于观看者的第一和第二眼睛的第一和第二图像。观看者佩戴带有透镜的一副眼镜,这些透镜操作为交替打开和关闭的快门,这些快门以与显示器同步的方式从透明切换为不透明模式,使得第一眼睛仅看见第一图像,而第二眼睛看见第二图像。改变的序列以为观看者留下不中断的3D图像的印象的速度发生,该3D图像可以是静态图像或移动或视频图像。
因此,在此的3D显示器是仅由屏幕或者由具有眼镜的框架与屏幕的组合形成的3D显示系统,该系统允许观看者以使得对于该观看者出现与对象相关的立体效果的方式来观看对象的两个不同的图像。
在一些实施例中,3D TV或显示器需要观看者佩戴特殊眼镜,以便最优地体验3D可视化。然而,在此也已知和可应用其它3D显示技术。还注意到的是,显示器也可以是3D图像投影到其上的投影屏幕。
假设对于一些用户而言,佩戴眼镜的障碍已被跨越,则继续提供这些眼镜的技术将不再是问题。所注意到的是,在本发明的一个实施例中,与所应用的3D技术无关地,需要由用户使用如上面描述并且在图2-4中示出的一副眼镜或可佩戴的头部框架,以应用根据本发明的一个或多个方面的、如在此描述那样的方法。
SIG2N架构的另一方面需要为3D TV扩增可佩戴的多照相机框架,该多照相机框架带有安装在该框架上的至少两个附加的小照相机。一个照相机聚焦在观看者的眼球上,而另一照相机向前聚焦,其能够聚焦在3D TV或显示器上,并且还能够捕获任意面向前的手部姿势。在本发明的另一实施例中,头部框架具有两个内部照相机,即聚焦在用户左眼球上的第一内部照相机和聚焦在用户右眼球上的第二内部照相机。
单个内部照相机允许系统确定用户的凝视指向哪里。使用两个内部照相机使得能够确定每个眼球的凝视的交点并且因此确定3D聚焦的点。例如,用户可以聚焦在位于屏幕或投影平面前方的对象上。使用两个标定过的内部照相机允许确定3D焦点。
3D焦点的确定在一些应用、例如带有不同深度上的兴趣点的3D透明图像中是重要的。两个眼睛的凝视的交点可以用于创建合适的焦点。例如,3D医学图像是透明的并且包括患者的身体,其中包括正面和背面。通过将3D交点确定为两个凝视的交点的方式,计算机确定用户聚焦在哪里。作为响应,例如当用户聚焦在背面、例如透过胸部看去的椎骨时,计算机增加路径的、会模糊背面图像的示图的透明度。在另一示例中,图像对象是3D对象、例如为从前往后看去的房屋。通过确定3D交点,计算机使得对3D交点的观看变得模糊的观看路径更加透明。这允许观看者通过应用带有2个终端照相机的头部框架来在3D图像中“看穿墙壁”。
在本发明的一个实施例中,将与头部框架分离的照相机用于捕获用户的姿态和/或姿势。在本发明的一个实施例中,单独的照相机合并到或附接至或非常接近3D显示器,使得观看3D显示器的用户面对单独的照相机。在本发明的另一实施例中,单独的照相机位于用户上方,例如,其附接至天花板。在本发明的又另一实施例中,单独的照相机从用户一侧观察用户,而用户面对3D照相机。
在本发明的一个实施例中,安装数个单独的照相机,并且将其连接至系统。将哪个照相机用于获得用户姿态的图像与用户的姿态有关。一个照相机对于一个姿态良好地起作用,例如从上方看水平面中打开和闭合的手部的照相机。相同的照相机可能对竖向面中的打开的、在竖向面中移动的手部并不起作用。在该情况下,从侧面看移动的手部的单独照相机更好地起作用。
SIG2N架构设计为如下构架,在该构架上可以建立对于CAD设计者做出的凝视和手部姿势两者的丰富帮助,以自然和直观地与其3D CAD对象交互。
特别地,在此以本发明的至少一个方面提供的自然的、至CAD设计的人类接口包括:
1.基于凝视&姿势地选择3D CAD数据和与其交互(例如如果用户将凝视固定到3D对象上,则其将被激活(“eye-over(眼睛经过)”相对于“mouse-over(鼠标经过)”)),并且然后用户可以直接操纵3D对象,诸如利用手部姿势来旋转、移动、放大其。由照相机识别出姿势作为计算机控制例如在Liu等发明的、2006年8月22日授权的、序列号为7,095,401的美国专利和Peter等发明的、2002年3月19日授权的、序列号为7,095,401的美国专利中公开,它们通过引用结合于此。图7示出了由佩戴多照相机框架的用户与3D显示器交互的至少一个方面。从人员观点来说,姿势可以是非常简单的。其可以是静态的。一个静态姿势是伸展平的手部,或者是用手指指。通过以逗留在一个位置中的方式将姿态保持特定时间,产生与屏幕上的对象交互的指令。在本发明的一个实施例中,姿势可以是简单的动态姿势。例如,手部可以处于平的并且伸展的位置,并且可以通过反转手腕而从竖向位置移动至水平位置。这种姿势由照相机记录并且由计算机识别出。在一个示例中,手部翻转在本发明的一个实施例中由计算机判读为将显示在屏幕上并且由用户的围绕轴线旋转的凝视所激活的3D对象进行旋转的命令。
2.尤其对于大的3D环境基于眼睛凝视地点来进行优化过的显示器显现。眼睛凝视地点或者双眼在对象上的凝视的交点激活该对象,例如在凝视在一个地点逗留至少最小时间之后激活该对象。“激活”效果可以是在该对象被“激活”之后示出该对象增多的细节,或者是以增大的分辨率显现该“激活过的”对象。另一效果可以是该对象的背景或紧邻处的分辨率的降低,这进一步允许“激活过的”对象突出。
3.基于眼睛凝视地点显示对象元数据,以增强情景/情况认知。该效果例如在凝视在对象之上逗留后,或者在凝视在对象上来回移动之后出现,其激活待与该对象相关地显示的标签。标签可以包含元数据或任何与对象相关的数据。
4.通过用户相对于所感知的3D对象的位置(例如头部位置)来操纵对象或改变情景,这也可以用于基于用户视点来显现3D。在本发明的一个实施例中,在由佩戴上面描述的带有照相机的头部框架的用户观看的3D显示器上显现和显示3D对象。在本发明的另一实施例中,基于用户相对于屏幕的头部位置显现3D对象。如果用户移动,从而框架相对于3D显示器的位置移动并且所显现的图像保持相同,则当用户从该新位置观看时该对象将表现得变得失真。在本发明的一个实施例中,计算机确定框架和头部相对于3D显示器的新位置,并且根据新位置重新计算和重新拖曳或显现3D对象。根据本发明的一个方面重新拖曳或重新显现对象的3D图像以3D显示器的帧率进行。
在本发明的一个实施例中,从固定的视角来重新显现对象。假设由在固定位置的虚拟照相机来观看对象。重新显现进行为使得其对于用户而言显得虚拟照相机跟着该用户移动。在本发明的一个实施例中,虚拟照相机视角通过用户或该用户的头部框架的位置来确定。当用户移动,则显现基于虚拟照相机跟随着头部框架相对于对象移动来完成。这允许用户“围绕显示在3D显示器上的对象而走”。
5.与(例如为用户提供在相同显示器上的多个视点的)多个眼睛框架的多个用户交互。
架构
在图8中示出了用于SIG2N架构的一个结构和其功能部件。SIG2N架构包括:
0.例如由存储在存储介质811上的3D CAD设计系统生成的CAD模型。
1.用于将CAD 3D对象数据转换成用于显示的3D TV形式的部件812。该技术是已知的,并且例如在3D监视器中可用,例如加拿大多伦多的TRUE3Di公司,其销售在3D显示器上以真实3D模式显示Autocad 3D模型的监视器。
2.扩增有照相机和修正过的标定的3D TV眼镜814,和用于凝视追踪标定的追踪部件815,和用于姿势追踪和姿势标定的816(下面将详细描述)。在本发明的一个实施例中,如在图2-4中所示那样的框架设有透镜,诸如在用于观看3D TV或显示器的现有技术中已知那样的快门眼镜、或LC快门眼镜、或主动式快门眼镜。这种3D快门眼镜通常是在框架中的光学中性镜片,其中每个眼睛的镜片例如包含液晶层,其具有在施加电压时变暗的特性。通过交替地并且按3D显示器上所显示的帧的顺序将镜片变暗,对于眼镜佩戴者产生3D显示的幻象。根据本发明的一个方面,快门眼镜合并到带有内部和外部照相机的头部框架中。
3.姿势识别部件和用于与CAD模型交互的、是接口单元817的部分的词表。上面已经描述了系统可以根据图像数据检测至少两个不同的姿势、例如用手指指、伸展手部、在水平和竖向面之间旋转所伸展的手部。许多姿势是可能的。每个姿势或者姿势之间的变化可以具有其自己的含义。在一个实施例中,以竖向姿势面对屏幕的手部在一个词表中可以意味着停止,并且在第二词表中可以意味着沿远离手部的方向移动。
图9和10示出了手部的两个姿势或姿态,其在本发明的一个实施例中是姿势词表的部分。图9示出了带有进行指向的手指的手部。图10示出了伸平的手部。这些姿势或姿态例如由从上方看带有手部的胳膊的照相机来记录。该系统可以被训练用于识别来自用户的有限数目的手部姿态或姿势。在一个简单的例证性姿势识别系统中,该词表由两个手部姿态组成。这意味着,如果姿态不是图9的,则其必须是图10的,反之亦然。已知更复杂得多的姿势识别系统。
4.将眼睛凝视信息与手部姿势事件集成。如上面描述那样,凝视可以用于找到和激活所显示的3D对象,而姿势可以用于操纵所激活的对象。例如,在第一对象上的凝视激活该第一对象用于能够被姿势操纵。移动的、指向所激活的对象的手指使得所激活的对象跟随该指向的手指。在另一实施例中,凝视经过可以激活3D对象,而指向其可以激活相关的菜单。
5.用于聚焦显现功率/等待时间的眼睛追踪信息。凝视经过可以起鼠标经过的作用,该凝视经过高亮显示所凝视的对象,或者增大所凝视经过的对象的分辨率或亮度。
6.用于显现CAD对象附近的附加元数据的眼睛凝视信息。凝视经过对象引起显示或列出文本、图像或与凝视经过的对象或图标有关的其它数据。
7.具有在用户观看角度和地点基础上的多视点能力的显现系统。当佩戴头部框架的观看者相对于3D显示器移动框架时,计算机计算3D对象的正确显现,以被观看者以不失真的方式来观看。在本发明的第一实施例中,所观看的3D对象的取向相对于带有头部框架的观看者保持不变。在本发明的第二实施例中,所观看的对象的虚拟取向相对于3D显示器保持不变,并且根据用户的观看位置而改变,使得用户可以以半圈“围绕该对象而走”并且从不同的视点观看其。
其它应用
本发明的方面可以应用于其中用户需要出于诊断或发展空间认知目的而操纵3D对象和与其交互的许多其它环境。例如,在医学介入中,医师(例如介入的心脏病专家或放射学专家)通常依赖于3D CT/MR模型来指导导管的导航。如在此以本发明的一个方面来提供那样的凝视&姿势自然接口将不仅提供更准确的3D感知、容易的3D对象操纵,而且还加强他们的空间控制和认知。
其中3D数据可视化和操纵起重要作用的其它应用例如包括:
(a)建筑自动化:建筑设计、自动化和管理:装备有SIG2N的3D TV可以借助直观的可视化和带有3D BIM(building information model(建筑信息模型))内容的交互工具在警告设计者、操作者、紧急事件管理者和其他人员方面起辅助作用。
(b)服务:可以在现场或服务中心的便携式3D显示器上显示3D设计数据连同诸如视频和超声信号的在线传感器数据。Mixed Reality(混合现实)的这种使用,因为其需要用于凝视和姿势的直观接口和用于不用手的操作的接口,而将是SIG2N的一个良好应用领域。
姿势驱动的传感器-显示器标定
数目正在增加的应用包括光学传感器和一个或多个显示模块(例如平面屏幕监视器)的组合,例如在此提供的SIG2N架构。这尤其是在基于视觉的、其中系统的用户位于2D或3D监视器前并且不用手地经由自然姿势与将显示器用于可视化的软件应用交互的、自然的用户交互领域中的自然组合。
在该情景中,会令人感兴趣的是建立传感器与显示器之间的相对姿态。如果光学传感器系统能够提供度量深度数据,则在此根据本发明的一个方面提供的方法使得能够基于由系统的配合的用户进行的手部和胳膊姿势来自动估计该相对姿态。
不同的传感器系统,诸如光学立体照相机、基于主动幻象的深度照相机、和时间飞行照相机,满足该要求。另一前提是允许提取在传感器图像中可见的用户手部、肘部和肩膀关节和头部地点的模块。
在这些假设下,提供了两种不同的方法作为本发明的方面,其具有如下区别:
1.第一方法假设已知显示器尺寸。
2.第二方法不知显示器尺寸。
两种方法的共同之处在于:如图11中示出的那样让配合的用户900以竖直方式站立,从而他可以以前方平行的方式看见显示器901并且他被传感器902可见。然后,顺序地在屏幕上示出一组非共线的标记物903,并且让用户以左或右手904当每个标记物显示时指向其。该系统自动通过等待延伸的、即直的胳膊来确定用户是否在指向。当胳膊是直的并且对于短的时段(≤2s)并不移动,则捕获用户的几何结构用于稍后的标定。
这对于每个标记物单独并且连续地进行。在随后的批量标定步骤中,估计照相机和监视器的相对姿态。
接下来根据本发明的不同方面提供两个标定方法。这些方法取决于屏幕尺寸是否已知,和用于获得参考方向、即用户实际指向的方向的数个选项。
下一部分描述参考方向的不同选择,并且随后的部分描述基于参考点的两种标定方法,其与选择了哪些参考点无关。
贡献
在此提供的方法包含根据本发明的不同方面的至少三种贡献:
(1)用于控制标定过程的基于姿势的途径。
(2)用于屏幕-传感器标定的、人类姿态导出的测量过程。
(3)用于改进标定性能的‘机械瞄具’
建立参考点
图11示出了情景的全面的几何结构。用户900站在屏幕D 901前方,该用户从可以是至少一个照相机的传感器C 902可见。为了建立指向方向,在本发明的一个实施例中,一个参考点总是特定手指Rf的尖部,例如延伸的食指的尖部。应该清楚的是,可以使用其它固定的参考点,只要其具有适度的可重复性和准确性。例如,可以使用伸展的拇指的尖部。存在对于其它参考点的地点的至少两个选项:
(1)肩关节Rs:用户的胳膊指向标记物。这对于无经验用户来说可能是难以验证的,因为不存在关于指向的方向是否合适的直接视觉反馈。这可能引入更高的标定误差。
(2)眼球中心Re:用户主要执行凹口和准星(notch-and-bead)机械瞄具的功能,其中屏幕上的目标可以当做“准星”并且该用户的手指可以理解为“凹口”。该光学重合(optio-coincidence)实现关于指向姿势的精度的直接用户反馈。在本发明的一个实施例中,假设所用眼睛的侧与所用胳膊的侧相同(左/右)。
传感器-显示器标定
方法1–已知的屏幕尺寸
在下文中参考点Rs和Re的特定选择之间没有区别,其将由R来概括。
该方法如下进行:
1.为(a)几何上由宽度为wi和高度为hi的3维空间Di中定向的2D矩形表示的一个或多个显示器和(b)几何上由度量坐标系Cj表示的一个或多个深度感测度量光学传感器保证固定却未知的地点。
下面考虑仅一个显示器D和一个照相机C,而并不缺少一般性。
2.在屏幕表面D上以已知的2D地点mk=(x,y)k显示K个视觉标记物的连续序列。
3.对于K个视觉标记物中的每个,(a)检测来自传感器C的传感器数据中用户的右手和左手、右肘和左肘、和右肩关节和左肩关节、以及参考点Rf和R在照相机系统D的度量3D坐标中的地点,(b)测量右肘角度和左肘角度作为左侧和右侧上的手部、肘部和肩部地点之间的角度,(c)如果该角度明显不同于180°,则等待下次传感器测量,并且返回步骤(b),以及(d)对于预先确定的时段连续测量该角度。
如果该角度在任意时刻明显不同于180°,返回步骤(b)。然后(e)对于该标记物记录用户的参考点的位置。对于每个标记物可以为了鲁棒性而记录数次测量。
4.在对于K个标记物中的每个均记录了用户的手部和头部位置之后,批量标定如下进行:
(a)屏幕表面D可以用原点G和两个归一化的方向Ex、Ey表征。该屏幕表面上的任意点P可以写作:
P=G+xwEx+yhEy,其中0≤x≤1并且0≤y≤1。
(b)测量(m,Rf,R)k的每个集合产生关于情景的几何结构的一些信息:由两个点Rfk和Rk限定的射线与屏幕在3D点λk(Rk-Rfk)相交。根据上面的测量步骤,该点假设为与屏幕表面D上的3D点G+xEx+yEy重合。
在形式上,
G+xwEx+yhEy≡λk(Rk-Rfk)   (4)
(c)在上面的等式中,在左侧存在6个未知数并且对于每个右侧存在一个未知数,并且每次测量产生三个等式。从而,最少K=3次测量对于总的未知数数目以及总的等式数目为9来说是必需的。
(d)针对未知参数G、Ex、Ey求解所采集的测量的等式(4)的集合,以恢复屏幕表面几何结构和由此恢复相对姿态。
(e)在对于每个标记物进行多次测量或者多个标记物K>3的情况下,等式4可以替代性地修改为将这些点之间的距离最小化:
min Σ k | | ( G + xw E x + yh E y ) - λ ( R k - R fk ) | | - - - ( 5 )
方法2–未知屏幕尺寸
之前的方法假设已知屏幕表面D的物理尺寸w、h。这可能是不实际的假设,并且在该部分中描述的方法不需要关于屏幕尺寸的知识。
在屏幕尺寸未知的情况下,存在两个附加的未知数:(4)和(5)中的w、h。等式组在所有Ok靠近在一起时变得不适定,这对于方法1中的准备阶段由于用户未移动其头部而是该情况。为了解决该问题,系统要求用户在显示标记物之间移动。头部位置被追踪,并且仅当头部位置移动了显著的量时才示出下一标记物,以保证稳定的优化问题。因为现在存在两个附加的未知数,所以测量的最小数目现在对于12个未知数及12个等式是K=4。在此较早解释的所有考虑和等式保持完整。
用于低等待时间自然菜单交互的3D形式的径向菜单
为现有技术的基于光学/红外照相机的肢部/手部追踪系统在姿态检测中由于信号和处理路径而具有迫近的等待时间。在与缺乏立即的非视觉反馈(例如触觉)结合的情况下,这使得用户交互速度与传统的鼠标/键盘交互相比显著减缓。为了减轻该对于菜单选择任务的效果,作为本发明的一个方面以3D形式提供姿势激活的径向菜单。公知通过触摸操作的径向菜单,并且例如在Kurtenbach发明的、在1999年7月20日授权的、序列号为5,926,178的美国申请中描述,其通过引用结合于此。3D形式的姿势激活的径向菜单被认为是新颖的。在一个实施例中,基于用户的姿势在3D屏幕上显示第一姿势激活的径向菜单。具有多个条目的该径向菜单中的一项通过用户姿势来激活,例如通过指向该径向菜单中的该项。可以从菜单复制来自径向菜单中的一项,其方式为“抓取”该项并且将其移动至对象。在另一实施例中,对于3D对象激活径向菜单中的一项,其方式为用户指在该对象上并且指向该菜单项。在本发明的另一实施例中,所显示的径向菜单是一系列“交错的”菜单的部分。用户可以通过像在书里翻页那样通过菜单离开而访问不同地分层的菜单。
对于有经验的用户而言,这提供实质上无等待时间并且鲁棒性的菜单交互,即自然用户接口的一个关键部件。菜单条目的密度/数目可以适配于用户的技巧,从用于新手的六个条目开始直至用于专家的24个条目。此外,菜单可以具有至少两个菜单的层,其中第一菜单明显隐藏其它菜单,但是示出“取消隐藏”下级布置的菜单的3D标签。
用于快速菜单交互的听觉和视觉特征的融合
听觉传感器的高采样频率和低带宽提供对于低等待时间交互的替选方案。根据本发明的一个方面,提供例如打响指的听觉提示与合适的视觉提示的融合,以实现鲁棒性的、低等待时间的菜单交互。在本发明的一个实施例中,为了鲁棒性的多用户情景而将麦克风阵列用于空间资源解疑。
在消费者RGBD传感器中进行在基于手部的用户交互中鲁棒性并且简单的交互点检测
在追踪手部的交互情景中,针对关键姿势、例如闭合和打开手部而连续地追踪和监控用户的该手部。这样的姿势根据手部的当前位置动作发起。在典型的消费者RGBD设备中,低的空间采样分辨率暗示:实际追踪的手部上的地点取决于手部的全面的(非刚性的)姿态。事实上,在激活例如闭合手部的姿势时,难以鲁棒性地将手部上固定点的位置与非刚性的变形分开。现有的方法通过以几何方式建模和估计手部和手指(这在典型的交互范围上对于消费者RGBD传感器可能是非常不精确的,并且是计算上高成本的),或者通过确定用户手腕上的固定点(其进一步暗示,可能错误地建模手部和胳膊几何结构)来解决该问题。相反,在此根据本发明的一个方面提供的方法替代性地建模姿势的暂时行为。其并不依赖于复杂的几何模型或者需要昂贵的处理。第一,估计在所感知的用户姿势的初始化与由系统检测到对应姿势的时刻之间的典型的时段长度。第二,与所追踪的手部点的历史一起,该时段用于刚好在“反算”所感知的初始化的时刻之前建立交互点作为所追踪的手部点。因为该过程与实际姿势有关,其可以适应于宽范围的姿势复杂度/持续时间。可能的改进包括适配性机制,其中根据实际传感器数据确定所感知与所检测到的动作初始化之间的估计时段,以适应于不同用户之间不同的姿势行为/速度。
在手部分类中的RGBD数据的融合
根据本发明的一个方面,根据RGB和深度数据确定打开的相对于关闭的手部的分类。这在本发明的一个实施例中通过将单独地关于RGB和深度训练过的现有分类器融合来实现。
鲁棒性的、非干扰性的用户激活和去激活机制
着手解决确定来自传感器范围内的组的哪个用户想要交互的问题。通过重心和带有用于鲁棒性的滞后阈值的、自然/非干扰性的注意姿势来检测活动的用户。特定的姿势或者姿势与凝视的组合将一个人员作为控制3D显示器的人员而从一组人员中选出。第二姿势或姿势/凝视组合放弃控制3D显示器。
为3D显示器扩增的视点适配
将所显现的情景照相机姿态与用户的姿态对齐,以创建扩增的视点(例如围绕y轴线的360_旋转)。
将深度传感器、虚拟世界客户端与3D可视化集成,用于在身临其境的虚拟环境中进行自然导航
在此使用术语“激活”,其中由处理器激活例如为3D对象的对象。在此还使用术语“激活的对象”。在计算机接口的背景中使用术语“正在激活”、“激活”和“激活过的”。通常,计算机接口应用触觉(基于触摸的)工具,例如带有按键的鼠标。鼠标的位置和运动对应于计算机屏幕上的指针或光标的位置和运动。屏幕通常包含多个对象,诸如显示在屏幕上的图像或图标。借助鼠标将光标移过图标将改变图标的颜色或一些其它性质,指示图标已经为激活做好准备。这种激活可以包括起动程序,将与该图标相关的窗口带至前景,显示文件或图像或任意其它动作。图标或对象的另一激活是已知的在鼠标上“右击”。通常,这显示与对象有关的选项的菜单,包括“以……打开”、“打印”、“删除”、“扫描病毒”、和对于应用例如Microsoft
Figure BDA00003651760100231
Windows用户界面已知的其它菜单项。
对于例如为Microsoft
Figure BDA00003651760100232
“Powerpoint”的已知应用,显示器上设计模式中的幻灯片可以包含不同的对象,诸如圆圈、和方形、和文本。并不想要的是,仅通过将光标移过这种显示的对象就修改或移动其。通常,用户需要将光标放置在所选对象上方并且敲击按键(或在触屏上轻敲)以选择用于处理的对象。通过敲击按键而选择对象,并且现在对象已激活以用于进一步的处理。在没有激活步骤的情况下,通常不能单独地操纵对象。在诸如改变大小、移动、旋转、或重新上色等的处理之后,通过将光标从对象移走或移远和敲击遥远的区域而将对象去激活。
以与在上面使用鼠标的示例中类似的方式来应用在此的激活3D对象。可以将显示在3D显示器上的3D对象去激活。使用带有一个或两个内部照相机和外部照相机的人员的凝视可以定向在3D显示器上的3D对象上。计算机当然知道3D对象在屏幕上的坐标,并且在3D显示器情况下知道3D对象的虚拟位置相对于显示器在哪里。由标定过的头部框架生成的、提供给计算机的数据使得计算机能够确定被定向的凝视相对于显示器的方向和坐标,并且因此将凝视与相应显示的3D对象相匹配。在本发明的一个实施例中,凝视在可以是图标的3D对象上的逗留或聚焦将该3D对象激活以用于处理。在本发明的一个实施例中,需要由用户做出的进一步的动作来激活对象,诸如头部运动、眨眼或例如为用手指指的姿势。在本发明的一个实施例中,凝视激活对象或图标并且要求进一步的用户动作来显示菜单。在本发明的一个实施例中,凝视或逗留中的凝视激活对象,并且特定的姿势提供对象的进一步处理。例如,凝视或对于最小时间逗留中的凝视激活对象,并且手部姿势、例如在竖向面中从第一位置移动到第二位置的伸展的手部将显示器上的对象从第一屏幕位置移动到第二屏幕位置。
显示在3D显示器上的3D对象可以在被用户“凝视经过”时改变颜色和/或分辨率。在本发明的一个实施例中,显示在3D显示器上的3D对象通过将凝视从该3D对象移走而去激活。可以将选自菜单或选项调色板的不同处理应用于对象。在该情况下,不方便的是当用户看菜单时丢失“激活”。在该情况下,对象保持激活,直至用户提供类似于闭合双眼的特定的“去激活”凝视、或者例如“拇指朝下”的去激活姿势、或者被计算机识别为去激活信号的任意其它凝视和/或姿势。当3D对象被去激活时,其可以以带有较小亮度、对比度和/或分辨率的颜色来显示。
在图形用户界面的其它应用中,鼠标经过图标将引起与对象或图标相关的一个或多个特性的显示。
在本发明的一个实施例中,在此提供的方法在系统或计算机设备上实施。将在图12中示出和并且在此提供那样的系统使能以用于接收、处理和生成数据。为系统提供可以存储在存储器1801上的数据。数据可以从传感器、例如包括一个或多个内部照相机和外部照相机的照相机获得,或者可以从任意其它数据相关的源头提供。数据可以在输入端1806上提供。这种数据可以是图像数据或位置数据、或CAD数据、或在视觉和显示系统中有助的任意其它数据。处理器也可以借助存储在存储器1802并且提供给处理器1803的、执行本发明的方法的指令组或程序来提供或编程,其中该处理器执行1802的指令,以处理来自1801的数据。诸如图像数据或由处理器提供的任意其它数据的数据可以在输出设备1804的输出端上输出,该输出设备可以是用于显示3D图像的3D显示器或数据存储设备。在本发明的一个实施例中,输出设备1804是屏幕或显示器、优选为3D显示器,在所述显示器上,处理器显示可以由照相机记录并且与在由作为本发明的一个方面提供的方法限定的标定空间中的坐标相关联的3D图像。屏幕上的图像可以由计算机根据由照相机记录的、来自用户的一个或多个姿势修改。处理器也具有用于从通信设备接收外部数据并且将数据传送给外部设备的通信通道1807。本发明的一个实施例中的系统具有输入设备1805,其可以是如在此描述那样的头部框架并且其也可以包括键盘、鼠标、指向设备、一个或多个照相机、或者可以生成待被提供给处理器1803的数据的任意其它设备。
处理器可以是专用硬件。然而,处理器也可以是CPU或者可以执行1802的指令的任意其它计算设备。从而,如在图12中示出那样的系统提供用于由传感器、照相机或任意其它数据源产生的数据处理的系统,并且被使能以执行作为本发明的一个方面而在此提供的方法的步骤。
因此,在此针对至少一个工业凝视和姿势自然接口(SIG2N)描述了系统和方法。
应理解的是,本发明可以以多种形式的硬件、软件、固件、特殊用途处理器或其组合来实现。在一个实施例中,本发明可以以如有形地实现在程序存储设备上的应用程序那样的软件来实现。应用程序可以上载至包括任意合适架构的机器,或由该机器执行。
还应理解的是,因为在附图中描绘的一些作为组分的系统部件和方法步骤可以以软件实现,所以系统部件(或处理步骤)之间的实际联系可以取决于本发明以何种方式编程而不同。已知在此提供的本发明的教导,则相关技术领域的普通技术人员将能够理解其以及本发明的类似的实现方式或配置。
这里已经示出、描述和指出了本发明的如应用于本发明的优选实施例那样的新颖特征,则将理解的是,可以由本领域技术人员作出在所示方法和系统的形式和细节方面的不同的省略和替代和变化,而不偏离本发明的精神。因此,目的是仅如由权利要求的范围指示那样来限定。

Claims (20)

1.一种用于由佩戴具有瞄准所述人员的眼睛的第一照相机的头部框架的人员通过以所述眼睛凝视所述3D图像和以身体部分做出姿势来与显示在显示器上的3D对象交互的方法,所述方法包括:
以至少两个照相机感测所述眼睛的图像、所述显示器的图像和所述姿势的图像,安装在所述头部框架中的所述至少两个照相机中的一个适于指向所述显示器,并且所述至少两个照相机中的另一个是所述第一照相机;
将所述眼睛的图像、所述姿势的图像和所述显示器的图像传送给处理器;
所述处理器根据这些图像确定所述眼睛的视向和所述头部框架相对于所述显示器的位置,并且然后确定所述人员正在凝视的3D对象;
所述处理器根据所述姿势的图像从多个姿势中识别出所述姿势;以及
所述处理器基于所述凝视、或所述姿势、或所述凝视和所述姿势进一步处理所述3D对象。
2.根据权利要求1所述的方法,其中所述第二照相机位于所述头部框架中。
3.根据权利要求1所述的方法,其中第三照相机位于所述显示器中或者位于毗邻所述显示器的区域中。
4.根据权利要求1所述的方法,其中所述头部框架包括所述头部框架中的、指向所述人员的第二眼睛的第四照相机,以捕获所述第二眼睛的视向。
5.根据权利要求4所述的方法,进一步包括:所述处理器根据所述第一眼睛的视向和所述第二眼睛的视向的交点确定3D焦点。
6.根据权利要求1所述的方法,其中所述进一步处理所述3D对象包括:激活所述3D对象。
7.根据权利要求1所述的方法,其中所述进一步处理所述3D对象包括:基于所述凝视、或所述姿势、或所述凝视和所述姿势两者来以增大的分辨率显现所述3D对象。
8.根据权利要求1所述的方法,其中所述3D对象由计算机辅助设计程序生成。
9.根据权利要求1所述的方法,进一步包括:所述处理器基于来自所述第二照相机的数据识别所述姿势。
10.根据权利要求9所述的方法,其中所述处理器基于所述姿势在所述显示器上移动所述3D对象。
11.根据权利要求1所述的方法,进一步包括:所述处理器确定佩戴所述头部框架的所述人员的位置到新位置的变化,并且所述处理器在计算机3D显示器上对应于所述新地点重新显现所述3D对象。
12.根据权利要求11所述的方法,其中所述处理器以所述显示器的帧率确定位置的所述变化和进行重新显现。
13.根据权利要求11所述的方法,进一步包括:所述处理器生成用于与正被凝视的3D对象有关的显示的信息。
14.根据权利要求1所述的方法,其中进一步处理所述3D对象包括:激活与所述3D对象有关的径向菜单。
15.根据权利要求1所述的方法,其中进一步处理所述3D对象包括:激活在3D空间中堆叠在彼此之上的多个径向菜单。
16.根据权利要求1所述的方法,还包括:
所述处理器标定所述人员的指向所述3D计算机显示器上的区域的手部和胳膊姿势的相对姿态;
所述人员以新姿态指向所述3D计算机显示器;以及
所述处理器基于标定过的所述相对姿态估计与所述新姿态有关的坐标。
17.一种其中人员通过以第一眼睛凝视和通过以身体部分做出姿势来与多个3D对象的一个或更多交互的系统,包括:
显示所述多个3D对象的计算机显示器;
头部框架,所述头部框架包含适于指向佩戴所述头部框架的人员的第一眼睛的第一照相机,和适于指向所述计算机显示器的区域并且适于捕获所述姿势的第二照相机;
处理器,能够执行指令来进行如下步骤:
接收由所述第一照相机和第二照相机传送的数据;
处理所接收的数据,以在所述多个对象中确定所述凝视所对准的3D对象;
处理所接收的数据,以从多个姿势中识别所述姿势;以及
基于所述凝视和姿势进一步处理所述3D对象。
18.根据权利要求17所述的系统,其中所述计算机显示器显示3D图像。
19.根据权利要求17所述的系统,其中所述显示器是立体观看系统。
20.一种人员用以通过从第一眼睛凝视和从第二眼睛凝视以及通过由所述人员的身体部分做出姿势与显示在3D计算机显示器上的3D对象交互的设备,所述设备包括:
适于由所述人员佩戴的框架;
安装在所述框架中的第一照相机,所述第一照相机适于指向所述第一眼睛以捕获所述第一凝视,
安装在所述框架中的第二照相机,所述第二照相机适于指向所述第二眼睛以捕获所述第二凝视,
安装在所述框架中的第三照相机,所述第三照相机适于指向所述3D计算机显示器和捕获所述姿势,
第一镜片和第二镜片,所述第一镜片和第二镜片安装在所述框架中,使得所述第一眼睛看穿所述第一镜片和所述第二眼睛看穿所述第二镜片,所述第一镜片和第二镜片起3D观看快门的作用;以及
用于传送由所述照相机生成的数据的传送器。
CN201180067344.9A 2010-12-16 2011-12-15 用于凝视和姿势接口的系统和方法 Active CN103443742B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US42370110P 2010-12-16 2010-12-16
US61/423,701 2010-12-16
US201161537671P 2011-09-22 2011-09-22
US61/537,671 2011-09-22
US13/325,361 2011-12-14
US13/325,361 US20130154913A1 (en) 2010-12-16 2011-12-14 Systems and methods for a gaze and gesture interface
PCT/US2011/065029 WO2012082971A1 (en) 2010-12-16 2011-12-15 Systems and methods for a gaze and gesture interface

Publications (2)

Publication Number Publication Date
CN103443742A true CN103443742A (zh) 2013-12-11
CN103443742B CN103443742B (zh) 2017-03-29

Family

ID=45446232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180067344.9A Active CN103443742B (zh) 2010-12-16 2011-12-15 用于凝视和姿势接口的系统和方法

Country Status (4)

Country Link
US (1) US20130154913A1 (zh)
KR (1) KR20130108643A (zh)
CN (1) CN103443742B (zh)
WO (1) WO2012082971A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015109887A1 (zh) * 2014-01-24 2015-07-30 北京奇虎科技有限公司 判断头戴式智能设备的操作及鉴权信息有效性的装置和方法
CN105659191A (zh) * 2014-06-17 2016-06-08 深圳凌手科技有限公司 用于提供图形用户界面的系统和方法
CN107077197A (zh) * 2014-12-19 2017-08-18 惠普发展公司,有限责任合伙企业 3d可视化图
CN107463261A (zh) * 2017-08-11 2017-12-12 北京铂石空间科技有限公司 立体交互系统及方法
CN108090935A (zh) * 2017-12-19 2018-05-29 清华大学 混合相机系统及其时间标定方法及装置
US10203765B2 (en) 2013-04-12 2019-02-12 Usens, Inc. Interactive input system and method
CN110368026A (zh) * 2018-04-13 2019-10-25 北京柏惠维康医疗机器人科技有限公司 一种手术辅助装置及系统
CN112215220A (zh) * 2015-06-03 2021-01-12 托比股份公司 视线检测方法和装置

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US8317744B2 (en) 2008-03-27 2012-11-27 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter manipulator assembly
US9161817B2 (en) 2008-03-27 2015-10-20 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
US9241768B2 (en) 2008-03-27 2016-01-26 St. Jude Medical, Atrial Fibrillation Division, Inc. Intelligent input device controller for a robotic catheter system
US8684962B2 (en) 2008-03-27 2014-04-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter device cartridge
US8641663B2 (en) 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system input device
US8343096B2 (en) 2008-03-27 2013-01-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
WO2009120982A2 (en) 2008-03-27 2009-10-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system with dynamic response
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US20150277120A1 (en) 2014-01-21 2015-10-01 Osterhout Group, Inc. Optical configurations for head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9330497B2 (en) 2011-08-12 2016-05-03 St. Jude Medical, Atrial Fibrillation Division, Inc. User interface devices for electrophysiology lab diagnostic and therapeutic equipment
US9439736B2 (en) 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
EP2542296A4 (en) 2010-03-31 2014-11-26 St Jude Medical Atrial Fibrill INTUITIVE USER INTERFACE CONTROL FOR REMOTE CATHETER NAVIGATION AND 3D CARTOGRAPHY AND VISUALIZATION SYSTEMS
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
WO2013082760A1 (en) * 2011-12-06 2013-06-13 Thomson Licensing Method and system for responding to user's selection gesture of object displayed in three dimensions
US9671869B2 (en) * 2012-03-13 2017-06-06 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
EP2690570A1 (en) * 2012-07-24 2014-01-29 Dassault Systèmes Design operation in an immersive virtual environment
WO2014015521A1 (en) * 2012-07-27 2014-01-30 Nokia Corporation Multimodal interaction with near-to-eye display
US9305229B2 (en) * 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
EP2703836B1 (en) * 2012-08-30 2015-06-24 Softkinetic Sensors N.V. TOF illuminating system and TOF camera and method for operating, with control means for driving electronic devices located in the scene
US9201500B2 (en) * 2012-09-28 2015-12-01 Intel Corporation Multi-modal touch screen emulator
US9152227B2 (en) * 2012-10-10 2015-10-06 At&T Intellectual Property I, Lp Method and apparatus for controlling presentation of media content
DE102012219814A1 (de) * 2012-10-30 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays
CN108845668B (zh) * 2012-11-07 2022-06-03 北京三星通信技术研究有限公司 人机交互系统和方法
EP3734555A1 (en) * 2012-12-10 2020-11-04 Sony Corporation Display control apparatus, display control method, and program
US9785228B2 (en) 2013-02-11 2017-10-10 Microsoft Technology Licensing, Llc Detecting natural user-input engagement
US9395816B2 (en) 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
KR102094886B1 (ko) * 2013-02-28 2020-03-30 엘지전자 주식회사 택타일 피드백 및 비주얼 피드백을 선택적으로 출력하는 디스플레이 디바이스 및 그 제어 방법
US20140258942A1 (en) * 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs
US10216266B2 (en) * 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
US20150277700A1 (en) * 2013-04-12 2015-10-01 Usens, Inc. System and method for providing graphical user interface
CN103269430A (zh) * 2013-04-16 2013-08-28 上海上安机电设计事务所有限公司 基于bim的三维场景生成方法
KR102012254B1 (ko) * 2013-04-23 2019-08-21 한국전자통신연구원 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치
US9189095B2 (en) 2013-06-06 2015-11-17 Microsoft Technology Licensing, Llc Calibrating eye tracking system by touch input
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015001547A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Aligning gaze and pointing directions
KR20150017832A (ko) * 2013-08-08 2015-02-23 삼성전자주식회사 3d 객체 제어 방법 및 그 장치
US10019843B2 (en) * 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
US10073518B2 (en) 2013-08-19 2018-09-11 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
CN104423578B (zh) * 2013-08-25 2019-08-06 杭州凌感科技有限公司 交互式输入系统和方法
US9384383B2 (en) * 2013-09-12 2016-07-05 J. Stephen Hudgins Stymieing of facial recognition systems
US20150128096A1 (en) * 2013-11-04 2015-05-07 Sidra Medical and Research Center System to facilitate and streamline communication and information-flow in health-care
CN104679226B (zh) * 2013-11-29 2019-06-25 上海西门子医疗器械有限公司 非接触式医疗控制系统、方法及医疗设备
CN104750234B (zh) * 2013-12-27 2018-12-21 中芯国际集成电路制造(北京)有限公司 可穿戴智能设备及可穿戴智能设备的互动方法
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9366868B2 (en) 2014-09-26 2016-06-14 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
KR101550580B1 (ko) 2014-01-17 2015-09-08 한국과학기술연구원 사용자 인터페이스 장치 및 그것의 제어 방법
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9310610B2 (en) 2014-01-21 2016-04-12 Osterhout Group, Inc. See-through computer display systems
US9311718B2 (en) * 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9201578B2 (en) * 2014-01-23 2015-12-01 Microsoft Technology Licensing, Llc Gaze swipe selection
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20150241963A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
MY175525A (en) * 2014-03-07 2020-07-01 Mimos Berhad Method and apparatus to combine ocular control with motion control for human computer interaction
DE102014114131A1 (de) * 2014-03-10 2015-09-10 Beijing Lenovo Software Ltd. Verfahren zur Informationsverarbeitung und elektronisches Gerät
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9696798B2 (en) 2014-04-09 2017-07-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Eye gaze direction indicator
US20150309534A1 (en) 2014-04-25 2015-10-29 Osterhout Group, Inc. Ear horn assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10416759B2 (en) * 2014-05-13 2019-09-17 Lenovo (Singapore) Pte. Ltd. Eye tracking laser pointer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
KR101453815B1 (ko) * 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
WO2016021861A1 (en) 2014-08-02 2016-02-11 Samsung Electronics Co., Ltd. Electronic device and user interaction method thereof
KR20160016468A (ko) * 2014-08-05 2016-02-15 삼성전자주식회사 리얼 3d 영상 생성 방법 및 그 장치
US9936195B2 (en) 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US10809794B2 (en) * 2014-12-19 2020-10-20 Hewlett-Packard Development Company, L.P. 3D navigation mode
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10235807B2 (en) 2015-01-20 2019-03-19 Microsoft Technology Licensing, Llc Building holographic content using holographic tools
US10146303B2 (en) 2015-01-20 2018-12-04 Microsoft Technology Licensing, Llc Gaze-actuated user interface with visual feedback
US10613637B2 (en) 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9726885B2 (en) 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
US10969872B2 (en) * 2015-04-16 2021-04-06 Rakuten, Inc. Gesture interface
CN104765156B (zh) * 2015-04-22 2017-11-21 京东方科技集团股份有限公司 一种三维显示装置和三维显示方法
US10607401B2 (en) 2015-06-03 2020-03-31 Tobii Ab Multi line trace gaze to object mapping for determining gaze focus targets
CN107787497B (zh) * 2015-06-10 2021-06-22 维塔驰有限公司 用于在基于用户的空间坐标系中检测手势的方法和装置
US9529454B1 (en) 2015-06-19 2016-12-27 Microsoft Technology Licensing, Llc Three-dimensional user input
US10409443B2 (en) * 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US10101803B2 (en) 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
EP3432780A4 (en) 2016-03-21 2019-10-23 Washington University VISUALIZATION IN VIRTUAL REALITY OR IN INCREASED REALITY OF 3D MEDICAL IMAGES
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
EP3242228A1 (en) * 2016-05-02 2017-11-08 Artag SARL Managing the display of assets in augmented reality mode
US10489978B2 (en) * 2016-07-26 2019-11-26 Rouslan Lyubomirov DIMITROV System and method for displaying computer-based content in a virtual or augmented environment
US9972119B2 (en) 2016-08-11 2018-05-15 Microsoft Technology Licensing, Llc Virtual object hand-off and manipulation
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
WO2018048000A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체
US20180082477A1 (en) * 2016-09-22 2018-03-22 Navitaire Llc Systems and Methods for Improved Data Integration in Virtual Reality Architectures
US10137893B2 (en) * 2016-09-26 2018-11-27 Keith J. Hanna Combining driver alertness with advanced driver assistance systems (ADAS)
USD840395S1 (en) 2016-10-17 2019-02-12 Osterhout Group, Inc. Head-worn computer
US9983684B2 (en) 2016-11-02 2018-05-29 Microsoft Technology Licensing, Llc Virtual affordance display at virtual target
IL248721A0 (en) * 2016-11-03 2017-02-28 Khoury Elias An accessory for providing hands-free computer input
WO2018093391A1 (en) * 2016-11-21 2018-05-24 Hewlett-Packard Development Company, L.P. 3d immersive visualization of a radial array
EP3552077B1 (en) * 2016-12-06 2021-04-28 Vuelosophy Inc. Systems and methods for tracking motion and gesture of heads and eyes
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
CN107368184B (zh) 2017-05-12 2020-04-14 阿里巴巴集团控股有限公司 一种虚拟现实场景中的密码输入方法和装置
US10620710B2 (en) 2017-06-15 2020-04-14 Microsoft Technology Licensing, Llc Displacement oriented interaction in computer-mediated reality
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
US10740446B2 (en) * 2017-08-24 2020-08-11 International Business Machines Corporation Methods and systems for remote sensing device control based on facial information
US10664041B2 (en) 2017-11-13 2020-05-26 Inernational Business Machines Corporation Implementing a customized interaction pattern for a device
US11138301B1 (en) * 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device
US10739861B2 (en) * 2018-01-10 2020-08-11 Facebook Technologies, Llc Long distance interaction with artificial reality objects using a near eye display interface
US10564716B2 (en) * 2018-02-12 2020-02-18 Hong Kong Applied Science and Technology Research Institute Company Limited 3D gazing point detection by binocular homography mapping
JP7213899B2 (ja) * 2018-06-27 2023-01-27 センティエーアール インコーポレイテッド 視線に基づく拡張現実環境のためのインターフェース
CN111124236B (zh) 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
CN109410285B (zh) * 2018-11-06 2021-06-08 北京七鑫易维信息技术有限公司 一种校准方法、装置、终端设备及存储介质
US10832392B2 (en) * 2018-12-19 2020-11-10 Siemens Healthcare Gmbh Method, learning apparatus, and medical imaging apparatus for registration of images
CN111488773B (zh) * 2019-01-29 2021-06-11 广州市百果园信息技术有限公司 一种动作识别方法、装置、设备及存储介质
CN111857336B (zh) * 2020-07-10 2022-03-25 歌尔科技有限公司 头戴式设备及其渲染方法、存储介质
CN113949936A (zh) * 2020-07-17 2022-01-18 华为技术有限公司 一种电子设备的屏幕交互方法及装置
KR20220096877A (ko) * 2020-12-31 2022-07-07 삼성전자주식회사 증강 현실 장치를 제어하는 방법 및 이를 수행하는 증강 현실 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US6414681B1 (en) * 1994-10-12 2002-07-02 Canon Kabushiki Kaisha Method and apparatus for stereo image display
WO2009043927A1 (en) * 2007-10-05 2009-04-09 Universita' Degli Studi Di Roma 'la Sapienza' Apparatus for acquiring and processing information relating to human eye movements
US20090289956A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Virtual billboards
US20100007582A1 (en) * 2007-04-03 2010-01-14 Sony Computer Entertainment America Inc. Display viewing system and methods for optimizing display view based on active tracking
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411266B1 (en) * 1993-08-23 2002-06-25 Francis J. Maguire, Jr. Apparatus and method for providing images of real and virtual objects in a head mounted display
US5689667A (en) * 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US6031519A (en) * 1997-12-30 2000-02-29 O'brien; Wayne P. Holographic direct manipulation interface
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
CA2333678A1 (en) * 1999-03-31 2000-10-05 Virtual-Eye.Com, Inc. Kinetic visual field apparatus and method
US6753828B2 (en) 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US7064742B2 (en) * 2001-05-31 2006-06-20 Siemens Corporate Research Inc Input devices using infrared trackers
US6965386B2 (en) 2001-12-20 2005-11-15 Siemens Corporate Research, Inc. Method for three dimensional image reconstruction
US7190331B2 (en) 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US7321386B2 (en) 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7372456B2 (en) * 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법
KR100594117B1 (ko) * 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
US20060210111A1 (en) * 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
US20070220108A1 (en) * 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
US7682026B2 (en) * 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
US7639101B2 (en) 2006-11-17 2009-12-29 Superconductor Technologies, Inc. Low-loss tunable radio frequency filter
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20090189830A1 (en) * 2008-01-23 2009-07-30 Deering Michael F Eye Mounted Displays
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8531394B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglasses transceiver
US8531355B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
TWI473497B (zh) * 2011-05-18 2015-02-11 Chip Goal Electronics Corp 物件追蹤裝置與應用物件追蹤裝置之互動影像播放系統,及相關方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6414681B1 (en) * 1994-10-12 2002-07-02 Canon Kabushiki Kaisha Method and apparatus for stereo image display
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US20100007582A1 (en) * 2007-04-03 2010-01-14 Sony Computer Entertainment America Inc. Display viewing system and methods for optimizing display view based on active tracking
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入
WO2009043927A1 (en) * 2007-10-05 2009-04-09 Universita' Degli Studi Di Roma 'la Sapienza' Apparatus for acquiring and processing information relating to human eye movements
US20090289956A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Virtual billboards

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10203765B2 (en) 2013-04-12 2019-02-12 Usens, Inc. Interactive input system and method
WO2015109887A1 (zh) * 2014-01-24 2015-07-30 北京奇虎科技有限公司 判断头戴式智能设备的操作及鉴权信息有效性的装置和方法
CN105659191A (zh) * 2014-06-17 2016-06-08 深圳凌手科技有限公司 用于提供图形用户界面的系统和方法
CN105659191B (zh) * 2014-06-17 2019-01-15 杭州凌感科技有限公司 用于提供图形用户界面的系统和方法
CN107077197A (zh) * 2014-12-19 2017-08-18 惠普发展公司,有限责任合伙企业 3d可视化图
CN107077197B (zh) * 2014-12-19 2020-09-01 惠普发展公司,有限责任合伙企业 3d可视化图
CN112215220A (zh) * 2015-06-03 2021-01-12 托比股份公司 视线检测方法和装置
CN107463261A (zh) * 2017-08-11 2017-12-12 北京铂石空间科技有限公司 立体交互系统及方法
CN108090935A (zh) * 2017-12-19 2018-05-29 清华大学 混合相机系统及其时间标定方法及装置
CN110368026A (zh) * 2018-04-13 2019-10-25 北京柏惠维康医疗机器人科技有限公司 一种手术辅助装置及系统
CN110368026B (zh) * 2018-04-13 2021-03-12 北京柏惠维康医疗机器人科技有限公司 一种手术辅助装置及系统

Also Published As

Publication number Publication date
US20130154913A1 (en) 2013-06-20
KR20130108643A (ko) 2013-10-04
WO2012082971A1 (en) 2012-06-21
CN103443742B (zh) 2017-03-29

Similar Documents

Publication Publication Date Title
CN103443742B (zh) 用于凝视和姿势接口的系统和方法
US20220011098A1 (en) Planar waveguide apparatus with diffraction element(s) and system employing same
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
Burdea et al. Virtual reality technology
KR100721713B1 (ko) 몰입형 활선작업 교육시스템 및 그 방법
CA2825563C (en) Virtual reality display system
US20200363867A1 (en) Blink-based calibration of an optical see-through head-mounted display
Piumsomboon et al. Superman vs giant: A study on spatial perception for a multi-scale mixed reality flying telepresence interface
CN106095089A (zh) 一种获取感兴趣目标信息的方法
CN103180893A (zh) 用于提供三维用户界面的方法和系统
WO2015006784A2 (en) Planar waveguide apparatus with diffraction element(s) and system employing same
CN110275603A (zh) 分布式人造现实系统、手镯设备和头戴式显示器
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
CN110275602A (zh) 人工现实系统和头戴式显示器
Mazuryk et al. History, applications, technology and future
Luo et al. Development of a three-dimensional multimode visual immersive system with applications in telepresence
Gao et al. Augmented immersive telemedicine through camera view manipulation controlled by head motions
Changyuan et al. The line of sight to estimate method based on stereo vision
US20240095877A1 (en) System and method for providing spatiotemporal visual guidance within 360-degree video
WO2021246134A1 (ja) デバイス、制御方法及びプログラム
Po et al. A two visual systems approach to understanding voice and gestural interaction
Alanko Comparing Inside-out and Outside-in Tracking in Virtual Reality
Ausmeier Mixed Reality Simulators
KR20200061700A (ko) 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant