CN103443742A - 用于凝视和姿势接口的系统和方法 - Google Patents
用于凝视和姿势接口的系统和方法 Download PDFInfo
- Publication number
- CN103443742A CN103443742A CN2011800673449A CN201180067344A CN103443742A CN 103443742 A CN103443742 A CN 103443742A CN 2011800673449 A CN2011800673449 A CN 2011800673449A CN 201180067344 A CN201180067344 A CN 201180067344A CN 103443742 A CN103443742 A CN 103443742A
- Authority
- CN
- China
- Prior art keywords
- camera
- posture
- display
- eyes
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Abstract
本发明涉及一种由用户激活和与显示在3D计算机显示器上的至少一个3D对象交互的系统和方法,其中至少通过用户的、可以与用户对3D计算机显示器的凝视结合的姿势来进行激活和交互。在第一示例中,3D对象是3DCAD对象。在第二示例中,3D对象是径向菜单。用户的凝视由用户所佩戴的、包括至少一个内部照相机和外部照相机的头部框架捕获。用户的姿势由照相机捕获并且从多个姿势中被识别出。用户的姿势由传感器捕获,并且相对于3D计算机显示器进行标定。
Description
相关案件的声明
本发明要求2010年12月16日提交的、序列号为61/423,701的美国临时专利申请和2011年9月22日提交的、序列号为61/537,671的美国临时专利申请的优先权与利益。
技术领域
本发明涉及通过用户的凝视和姿势来激活和与显示在计算机显示器上的3D对象交互。
背景技术
3D技术变得越来越可用。3D TV近来变得可用。3D视频游戏和电影开始变得可用。计算机辅助设计(CAD)软件用户开始使用3D模型。然而,目前设计者与3D技术的交互是传统性质的,即使用诸如鼠标、跟踪球等经典输入设备。一个强大挑战是提供能够促进更好并且更快地使用3D技术的自然并且直观的交互模式。
从而,需要利用3D交互的凝视和姿势来与3D显示器交互的改进的并且新颖的系统及方法。
发明内容
根据本发明的一个方面,提供了允许用户通过凝视和姿势与3D对象交互的方法和系统。根据本发明的一个方面,凝视接口由用户所佩戴的、带有一个或多个照相机的头部框架来提供。还提供了用于标定佩戴者所佩戴的框架的方法和仪器,该框架包括对准显示器的外部照相机,和分别对准佩戴者的一个眼睛的第一和第二内部照相机。
根据本发明的一个方面,为佩戴具有对准人员眼睛的第一照相机的头部框架的该人员提供了一种通过以该眼睛凝视3D对象和通过以身体部分做出姿势来与显示在显示器上的该3D对象交互的方法,该方法包括:以至少两个照相机感测该眼睛的图像、该显示器的图像和该姿势的图像,安装在头部框架中的这至少两个照相机之一适于指向显示器,并且这至少两个照相机中的另一个是第一照相机;将该眼睛的图像、该姿势的图像和该显示器的图像传送给处理器;处理器根据这些图像确定该眼睛的视向和头部框架相对于显示器的位置,并且然后确定人员正在凝视的3D对象;处理器根据该姿势的图像从多个姿势中识别出该姿势;并且处理器基于该凝视、或该姿势、或该姿势和该凝视来进一步处理该3D对象。
根据本发明的另一方面,提供了一种方法,其中第二照相机位于头部框架中。
根据本发明的又另一方面,提供了一种方法,其中第三照相机位于显示器中或毗邻显示器的区域中。
根据本发明的又另一方面,提供了一种方法,其中头部框架包括头部框架中的、指向人员的第二眼睛以捕获第二眼睛的视向的第四照相机。
根据本发明的又另一方面,提供了一种方法,该方法还包括:处理器根据第一眼睛的视向和第二眼睛的视向的交点确定3D焦点。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活该3D对象。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括基于凝视、或姿势、或凝视和姿势两者来以增大的分辨率显现3D对象。
根据本发明的又另一方面,提供了一种方法,其中3D对象由计算机辅助设计程序生成。
根据本发明的又另一方面,提供了一种方法,其进一步包括:处理器基于来自第二照相机的数据识别姿势。
根据本发明的又另一方面,提供了一种方法,其中处理器基于姿势在显示器上移动3D对象。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器确定佩戴头部框架的人员的位置到新位置的改变,和处理器在计算机3D显示器上对应于新地点重新显现3D对象。
根据本发明的又另一方面,提供了一种方法,其中处理器以显示器的帧率确定地点改变和进行重新显现。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器显示与正被凝视的3D对象有关的信息。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活与3D对象有关的径向菜单。
根据本发明的又另一方面,提供了一种方法,其中进一步处理3D对象包括激活在3D空间中堆叠在彼此之上的多个径向菜单。
根据本发明的又另一方面,提供了一种方法,其还包括:处理器标定人员的、指向3D计算机显示器上的区域的手部和胳膊姿势的相对姿态,人员以新姿态指向3D计算机显示器,并且处理器基于标定过的相对姿态估计与该新姿态有关的坐标。
根据本发明的又另一方面,提供了一种系统,其中人员通过以第一眼睛凝视和通过以身体部分做出姿势来与多个3D对象中的一个或多个交互,该系统包括:显示这多个3D对象的计算机显示器;头部框架,其包括适于指向佩戴头部框架的人员的第一眼睛的第一照相机,和适于指向计算机显示器的区域并且捕获姿势的第二照相机;处理器,其能够执行指令以进行如下步骤:接收由第一和第二照相机传送的数据;处理所接收的数据,以在多个对象中确定凝视所对准的3D对象;处理所接收的数据,以从多个姿势识别该姿势并且基于该凝视和姿势进一步处理3D对象。
根据本发明的又另一方面,提供了一种系统,其中计算机显示器显示3D图像。
根据本发明的又另一方面,提供了一种系统,其中显示器是立体观看系统的部分。
根据本发明的又另一方面,提供了一种设备,利用该设备,人员通过从第一眼睛凝视和从第二眼睛凝视和通过人员的身体部分做出姿势与显示在3D计算机显示器上的3D对象交互,该设备包括:适于由该人员佩戴的框架;安装在框架中的第一照相机,适于指向第一眼睛以捕获第一凝视;安装在框架中的第二照相机,适于指向第二眼睛以捕获第二凝视;安装在框架中的第三照相机,适于指向3D计算机显示器和捕获姿势;第一和第二镜片,其安装在框架中,使得第一眼睛看穿第一镜片并且第二眼睛看穿第二镜片,第一和第二镜片用作3D观看快门;以及用于传送由照相机生成的数据的传送器。
附图说明
图1示出了视讯透视(video-see-through)标定系统;
图2到4是根据本发明的一个方面来使用的头部佩戴多照相机系统的图像;
图5关于根据本发明的一个方面的内部照相机提供了一种眼球模型;
图6示出了一步标定步骤,其可以在进行了初始标定时候使用;以及
图7示出了根据本发明的一个方面的工业凝视和姿势自然接口系统(Industry Gaze and Gesture Natural Interface system)的使用;
图8示出了根据本发明的一个方面的工业凝视和姿势自然接口系统;
图9和10示出了根据本发明的一个方面的姿势;
图11示出了根据本发明的一个方面的姿态标定系统;以及
图12示出了根据本发明的一个方面的系统。
具体实施方式
本发明的方面有关于或者取决于可佩戴的传感器系统的标定和图像的配准。配准和/或标定系统和方法在美国专利7,639,101、7,190,331和6,753,828中公开。这些专利中的每个均通过引用包含于此。
首先,将描述用于标定可佩戴的多照相机系统的方法和系统。图1示出了头部佩戴的、多照相机眼睛追踪系统。提供了计算机显示器12。在显示器12的不同地点上提供了标定点14。头部佩戴的、多照相机设备20可以是一副眼镜。眼镜20包括外部照相机22、第一内部照相机24和第二内部照相机26。来自每个照相机22、24和26的图像经由输出端30提供给处理器28。内部照相机24和26瞄准用户的眼睛34。内部照相机24远离用户的眼睛34地瞄准。在根据本发明的一个方面标定期间,内部照相机朝着显示器12瞄准。
接下来将描述如在图1中示出的、根据本发明的一个方面的用于几何标定头部佩戴的多照相机眼睛追踪系统的方法。
图2-4中示出了眼镜20的一个实施例。在图2中示出了带有内部和外部照相机的框架。这种框架由Reno,NV的Eye-Com公司提供。框架500具有外部照相机501和两个内部照相机502和503。实际的内部照相机在图2中并不可见,但示出了内部照相机502和503的壳体。在图3中示出了一套可佩戴的照相机的类似但更新的版本的内部示图。图3中清楚示出了框架600中的内部照相机602和603。图4示出了通过缆线702连接至视频信号接收器701的、带有外部照相机和内部照相机的可佩戴照相机700。单元701也可以包含用于照相机的电源和处理器28。替选地,处理器28可以位于任意地点。在本发明的另一实施例中,视频信号无线地传送至远程接收器。
所期望的是精确确定头部佩戴的照相机的佩戴者在看哪里。例如,在一个实施例中,头部佩戴的照相机的佩戴者定位在距离计算机屏幕约2英尺与3英尺之间,或者在2英尺与5英尺之间,或者在2英尺与9英尺之间处,该计算机屏幕可以包括键盘,并且根据本发明的一个方面,该系统确定佩戴者的凝视在屏幕上或键盘上或标定空间中其它地方上的所对准处在标定空间中的坐标。
如已经描述那样,存在两组照相机。外部照相机22相对于世界传递关于多照相机系统的姿态的信息,并且内部照相机24和26相对于用户和传感器测量来传递关于多照相机系统的姿态的信息,以用于估计几何模型。
在此提供了数个标定眼镜的方法。第一方法是两步骤过程。第二标定方法依赖于该两步骤过程和然后使用单应性步骤。第三标定方法在同时而不是在分开的时间处理这两个步骤。
方法1-两个步骤
方法1以两个连续步骤、即内部-外部和内部-眼睛标定来开始系统标定。
方法1的第一步骤:内部-外部标定
借助两个不相交的标定模式、即3D中具有精确已知的坐标的固定点,收集一套外部和内部照相机框架对,并且在所有图像中标注已知标定点的3D位置的投影。在一个优化步骤中,将每个外部和内部照相机对的相对姿态估计为将特定误差标准最小化的旋转和平移参数的集合。
内部-外部标定对于每个眼睛进行,即在左眼进行一次并且然后单独地又在右眼上进行一次。
在方法1的第一步骤中,建立在内部照相机坐标系和外部照相机坐标系之间的相对变换。根据本发明的一个方面,估计下面等式中的参数Rex、tex:
px=Rexpe+tex
其中
Rex∈SO(U是旋转矩阵,其中SO(3)是在现有技术中已知的旋转群,
tex∈R3是内部和外部照相机坐标系之间的平移向量,
px∈R3是外部照相机坐标系中的一个点,
px∈R3是外部照相机坐标系中的点的向量,
pe∈R3是内部照相机坐标系中的一个点,以及
pe∈R3是内部照相机坐标系中的点的向量。
接下来,Rex、tex在由Rex经由罗德里格斯(Rodrigues)公式和tex的级联所构成的齐次矩阵Tex∈R4×R4中被吸收。矩阵Tex称作齐次坐标的变换矩阵。矩阵Tex如下构成:
其是tex和 的级联,该级联为标准文本程序。
通过将误差标准如下最小化来将Tex的(未知)参数估计为
1.两个不相交(即并不严格耦合)的标定参考栅格Ge、Gx具有施加在分布于全部三维中的、精确已知的地点上的M个标记物;
2.将栅格Ge、Gx放置在内部-外部照相机系统周围,使得Gx在外部照相机图像中可见,并且Ge在内部照相机图像中可见;
3.对于每个内部和外部照相机进行曝光;
4.将内部和外部照相机系统在不移动栅格Ge、Gx的情况下旋转和平移到新地点上,使得在上面步骤2中的可见性条件并不被妨碍;
5.重复步骤3和4,直至采取了N(双倍,即外部/内部)次曝光。
8.通过观看下面的将内部栅格Ge坐标系中的世界点pe变换为外部栅格Gx坐标系中的点px的等式px=Gpe而导出优化标准,其中G是从内部到外部栅格坐标系的未知变换。其另一写法是:
刚才描述的这些步骤对于照相机22和24的对并且对于照相机22和26的对来进行。
方法1的第二步骤:内部-眼睛标定
接下来,对于上面确定的每个标定对进行内部-眼睛标定。根据本发明的一个方面,内部-眼睛标定步骤包括估计人眼睛的几何模型的参数、其取向和中心地点的位置。这在内部-外部标定可用之后通过采集来自内部照相机的、包括瞳孔中心的传感器测量集合和在用户聚焦在3D屏幕空间中的已知位置上期间来自外部照相机的相应的外部姿态来进行。
优化程序相对于已知的基础事实对监视器上的凝视再投影误差最小化。
目的是估计内部眼睛照相机坐标系中的眼球中心c∈R3的相对位置和眼球的半径r。在给定内部眼睛图像中的瞳孔中心l的情况下以如下方式计算监视器上的凝视地点:
这些步骤包括:
1.确定l到世界坐标的投影与眼球表面的交点a;
2.通过向量a-c确定凝视在内部照相机坐标系中的方向;
3.通过在较早部分中所获得/所估计的变换将来自步骤2的凝视方向变换到外部世界坐标系中;
4.通过例如标记物追踪机制建立外部照相机坐标系与监视器之间的变换;
5.在给定步骤4所估计的变换的情况下确定来自步骤3的向量与监视器表面的交点d。
在标定步骤中未知的是眼球中心c和眼球半径r。其通过采集K对屏幕交点d与内部图像中的瞳孔中心l∶(d;l)k来估计。通过将所估计的相对于实际基础事实地点d的再投影误差最小化来确定所估计的参数和例如借助一些度量E
基本事实通过预先确定的参考点、例如作为两个不同系列的点(其中每个眼睛一个系列)的参考点来提供,这些参考点显示在显示器的已知的坐标系栅格上。在一个实施例中,参考点以伪随机方式分布在显示器的区域上。在另一实施例中,参考点以有规律的图案显示。
标定点优选以均匀或基本均匀的形式分布在显示器上,以获得由显示器限定的空间的有益标定。可预测或随机标定模式的使用可以与框架佩戴者的偏好有关。然而,优选地,标定模式中的所有点应不为共线的。
在此提供的系统优选使用计算机显示器上的至少或大约12个标定点。从而,在用于标定的不同地点中的至少或大约12个参考点显示在计算机屏幕上。在另一实施例中,使用更多标定点。例如,应用至少16个点或至少20个点。这些点可以同时显示,允许眼睛直接凝视不同的点。在另一实施例中,使用少于十二个标定点。例如,在一个实施例中使用两个标定点。标定点数量的选择一方面是基于用户的方便或舒适,其中高数量的标定点会对佩戴者形成负担。非常低数量的标定点会影响使用质量。所认为的是,总数10-12的标定点在一个实施例中是合理数量。在另一实施例中,在标定期间一次显示一个点。
方法2-两个步骤和单应性
第二方法使用上面的两个步骤和单应性步骤。该方法将方法1用作初始处理步骤,并且通过估计来自方法1的、在屏幕世界空间中的所估计坐标与屏幕坐标空间中的基础事实之间的附加单应性来改进解决方案。这通常处理并且减小在之前估计中的系统偏差,由此改进再投影误差。
该方法基于方法1所估计的变量,即其补充方法1。在部分1中的标定步骤开始后,典型地存在投影地点相对于真实地点d的残留误差。在第二步骤中,通过将该残留误差建模为单应性H、即来将该误差最小化。单应性容易地由标准方法借助之前部分的对的集合来估计,并且然后应用于校正残留误差。单应性估计例如在Appel等发明的、2005年11月15日授权的、序列号为6,965,386的美国专利和Mittal等发明的、2008年1月22日授权的、序列号为7,321,386的美国专利中描述,其均通过引用包含于此。
单应性对本领域技术人员已知并且例如在Richard Hartley和AndrewZisserman所著的“Multiple View Geometry in Computer Vision”,CambridgeUniversity Press,2004中描述。
方法3-联合优化
该方法通过同时而非单独地联合优化内部-外部和内部-眼睛空间的参数来处理相同的标定问题。使用在屏幕空间中凝视方向的相同的再投影误差。误差标准的优化在内部-外部以及内部-眼睛几何参数的联合参数空间上进行。
该方法将上面作为方法1的部分描述的内部-外部标定以及上面作为方法1的部分描述的内部-眼睛标定联合地当做一个优化步骤。优化的基础是等式(3)中的监视器再投影误差标准。所估计的变量特别地为Tex;c和r。它们的估计和是作为任意现成优化方法的输出将再投影误差标准最小化的解决方案。
特别地这包括:
1.给定已知的监视器交点d和相关的在内部图像中的瞳孔中心位置l的集合、即(d,l)k,计算再投影过的凝视地点的再投影误差。凝视地点通过上面描述的、与内部-眼睛标定有关的方法来再投影。
在图5中提供了一种与内部照相机相关的眼睛模型的图。其提供了眼睛几何结构的简化视图。固定点的地点在不同的实例中通过如在此提供那样的头部追踪方法来补偿,并且在屏幕上的不同固定点di、dj和dk示出。
在线单点再标定
一个方法改进在时间上的标定性能,并且能够实现其它系统能力,引起改进的用户舒适度,包括:经由简单的在线再标定实现的更长交互时间;以及摘掉眼睛框架和再戴回而无需经历完全的再标定过程的能力。
对于在线再标定,发起如下面描述那样的简单程序来补偿标定误差,例如由于框架运动(其例如可以是由于长的佩戴时间或摘掉眼睛框架和戴回而造成的将眼睛框架移动)而造成的累积性标定误差。
方法
单点标定与任意之前的标定程序无关地估计和补偿在实际的凝视地点与估计的凝视地点之间在屏幕坐标中的平移偏差。
再标定过程可以手动地、例如当用户例如由于低于正常追踪性能而注意到需要再标定时发起。再标定过程也可以自动地、例如当系统根据用户的行为模式推断追踪性能降低(例如如果系统正被用于打字,则低于正常打字性能可以指示对于再标定的需要)或仅在固定量的时间之后发起。
单点标定例如在已进行上面描述那样的完整标定之后发生。然而,如之前陈述的,单点标定与应用何种标定方法无关。
参考图6,每当发起在线单点标定时,都进行如下步骤:
1.在屏幕800上的已知位置(例如在屏幕中心上)显示一个视觉标记物806;
2.保证用户凝视该点(对于配合的用户而言,这可以通过在显示该标记物之后短的等待时间来触发);
3.确定用户以框架在凝视哪里。在图6的情况下,用户沿着向量804凝视点802。因为用户应该正沿着向量808凝视点806,所以存在可以标定该系统的向量Δe。
4.下一步骤是确定来自步骤1的、屏幕上地点的实际已知点806与屏幕坐标中来自系统的、再投影过的凝视方向802/804之间的向量Δe。
5.进一步确定用户正凝视哪里通过向量△e来校正。
这包括单点再标定过程。为了随后估计凝视地点,通过向量Δe补偿它们的在屏幕上的再投影,直至发起新的单点再标定或新的完全标定。
附加的点也可以在该再标定步骤中如所需那样使用。
在一个实施例中,将标定过的可佩戴照相机用于确定佩戴着可佩戴照相机的用户的凝视对准哪里。这种凝视可以是主动的或确定的凝视,例如对准显示器上所显示的所期望对象或者所期望图像。凝视也可以是由被有意或无意吸引至特定对象或图像的佩戴者进行的非主动凝视。
通过提供对象或图像在标定过的空间中的坐标,该系统可以编程为通过将对象在标定过的空间中的坐标与标定过的凝视方向相关联来确定照相机的佩戴者正在看哪个图像、对象或对象的部分。因此,用户对对象、例如屏幕上的图像的凝视可以用于发起诸如数据和/或指令的计算机输入。例如,屏幕上的图像可以是诸如字母和数学符号的符号的图像。图像还可以表示计算机命令。图像还可以表示URL。还可以追踪移动的凝视来画图。从而,可以提供系统和各种方法,其使得用户的凝视能够至少类似于用户的触摸如何激活计算机触屏那样激活计算机。
在一个主动或有意凝视的示例中,如在此提供那样的系统在屏幕上显示键盘或者具有与标定系统关联的键盘。键的位置由标定来限定,并且系统因此识别与显示在标定空间中的屏幕上的特定键关联的凝视方向。因此,佩戴者可以通过将凝视对准例如显示在屏幕上的键盘上的字母来键入字母、词语或句子。所键入字母的确认可以基于凝视的持续时间或者通过凝视确认图像或键。完全预期其它配置。例如,不是键入字母、词语或句子,佩戴者而是可以从字典、列表或数据库中选择词语或概念。佩戴者也可以通过使用如在此提供那样的系统和方法来选择和/或构造公式、图形、结构等。
作为非主动凝视的一个示例,佩戴者可以暴露于标定过的视觉空间中的一个或多个对象或图像。可以将该系统用于确定哪个对象或图像吸引并且有可能维持未被指示将凝视定向的佩戴者的注意力。
SIG2N
在可佩戴的多照相机系统的一个应用中,提供了称作SIG2N或SIG2N(Siemens Industry Gaze & Gesture Natural interface(西门子工业凝视&姿势自然接口))的方法和系统,其使得CAD设计者能够:
1.在真实的3D显示器上观看其3D CAD软件对象
2.使用自然凝视&手部姿势和动作来直接与其3D CAD对象交互(例如调整大小、旋转、移动、拉伸、击打等)
3.将其眼睛用于控制的不同附加方面和用于接近地观看与3D对象有关的附加元数据。
SIG2N
3D TV对于消费者而言开始变得可以负担得起来享受观看3D电影。此外,3D视频计算机游戏开始出现,并且3D TV和计算机显示器是用于与这种游戏交互的良好显示设备。
多年来,3D CAD设计者通过传统的2D计算机显示器来将CAD软件用于设计新的、复杂的产品,2D计算机固有地限制设计者的3D理解和3D对象操纵&交互。这种负担得起的硬件的出现提供给CAD设计者以3D方式观看其3D CAD对象的可能性。SIG2N架构的一个方面负责将西门子CAD产品的输出转换为使得其可以在3D TV和3D计算机显示器上有效地显现。
3D对象和3D对象如何显示之间有区别。如果一个对象具有显示为三维特性的三维特性,则其为3D的。例如,例如为CAD对象的对象以三维特性来限定。在本发明的一个实施例中,其以2D方式显示在显示器上,但是通过提供例如是来自虚拟的光源的阴影的照明效果而具有3D印象或幻象,所述阴影为2D图像提供深度幻象。
为了由人类观看者以3D或立体方式来感知,需要通过对象的显示来提供两个图像,其反映利用两个人类传感器(相距大约5-10cm的两个眼睛)来体验的、允许大脑将两个单独图像组合成一个3D图像感知的视差。存在数种已知并且不同的3D显示技术。在一个技术中,同时提供单个屏幕或显示器的两个图像。这些图像通过为每个眼睛提供专用过滤器来分离图像,该过滤器为第一眼睛通过第一图像和阻挡第二图像,并且为第二眼睛阻挡第一图像和通过第二图像。另一技术是提供具有柱状透镜的屏幕,这些柱状透镜为观看者的每个眼睛提供不同的图像。另一技术是通过将框架与眼镜组合来为每个眼睛提供不同的图像,该框架以高速率在两个镜片之间切换,并且与以对应于切换眼镜的正确速率来显示右和左眼图像的显示器相呼应地工作,其中该切换眼镜已知为快门眼镜。
在本发明的一个实施例中,在此提供的系统和方法处理在屏幕上以单个2D图像显示的3D对象,其中每个眼睛接收相同的图像。在本发明的一个实施例中,在此提供的系统和方法处理在屏幕上以至少两个图像显示的3D对象,其中每个眼睛接收3D对象的不同图像。在另一实施例中,是显示器的部件的屏幕或显示器或设备适于示出不同的图像,例如通过使用柱状透镜或通过适配为在两个图像间迅速切换。在另一实施例中,屏幕同时示出两个图像,而带有过滤器的眼镜允许为观看者的左眼和右眼分开两个图像。
在本发明的又另一实施例中,以迅速改变的序列显示旨在于观看者的第一和第二眼睛的第一和第二图像。观看者佩戴带有透镜的一副眼镜,这些透镜操作为交替打开和关闭的快门,这些快门以与显示器同步的方式从透明切换为不透明模式,使得第一眼睛仅看见第一图像,而第二眼睛看见第二图像。改变的序列以为观看者留下不中断的3D图像的印象的速度发生,该3D图像可以是静态图像或移动或视频图像。
因此,在此的3D显示器是仅由屏幕或者由具有眼镜的框架与屏幕的组合形成的3D显示系统,该系统允许观看者以使得对于该观看者出现与对象相关的立体效果的方式来观看对象的两个不同的图像。
在一些实施例中,3D TV或显示器需要观看者佩戴特殊眼镜,以便最优地体验3D可视化。然而,在此也已知和可应用其它3D显示技术。还注意到的是,显示器也可以是3D图像投影到其上的投影屏幕。
假设对于一些用户而言,佩戴眼镜的障碍已被跨越,则继续提供这些眼镜的技术将不再是问题。所注意到的是,在本发明的一个实施例中,与所应用的3D技术无关地,需要由用户使用如上面描述并且在图2-4中示出的一副眼镜或可佩戴的头部框架,以应用根据本发明的一个或多个方面的、如在此描述那样的方法。
SIG2N架构的另一方面需要为3D TV扩增可佩戴的多照相机框架,该多照相机框架带有安装在该框架上的至少两个附加的小照相机。一个照相机聚焦在观看者的眼球上,而另一照相机向前聚焦,其能够聚焦在3D TV或显示器上,并且还能够捕获任意面向前的手部姿势。在本发明的另一实施例中,头部框架具有两个内部照相机,即聚焦在用户左眼球上的第一内部照相机和聚焦在用户右眼球上的第二内部照相机。
单个内部照相机允许系统确定用户的凝视指向哪里。使用两个内部照相机使得能够确定每个眼球的凝视的交点并且因此确定3D聚焦的点。例如,用户可以聚焦在位于屏幕或投影平面前方的对象上。使用两个标定过的内部照相机允许确定3D焦点。
3D焦点的确定在一些应用、例如带有不同深度上的兴趣点的3D透明图像中是重要的。两个眼睛的凝视的交点可以用于创建合适的焦点。例如,3D医学图像是透明的并且包括患者的身体,其中包括正面和背面。通过将3D交点确定为两个凝视的交点的方式,计算机确定用户聚焦在哪里。作为响应,例如当用户聚焦在背面、例如透过胸部看去的椎骨时,计算机增加路径的、会模糊背面图像的示图的透明度。在另一示例中,图像对象是3D对象、例如为从前往后看去的房屋。通过确定3D交点,计算机使得对3D交点的观看变得模糊的观看路径更加透明。这允许观看者通过应用带有2个终端照相机的头部框架来在3D图像中“看穿墙壁”。
在本发明的一个实施例中,将与头部框架分离的照相机用于捕获用户的姿态和/或姿势。在本发明的一个实施例中,单独的照相机合并到或附接至或非常接近3D显示器,使得观看3D显示器的用户面对单独的照相机。在本发明的另一实施例中,单独的照相机位于用户上方,例如,其附接至天花板。在本发明的又另一实施例中,单独的照相机从用户一侧观察用户,而用户面对3D照相机。
在本发明的一个实施例中,安装数个单独的照相机,并且将其连接至系统。将哪个照相机用于获得用户姿态的图像与用户的姿态有关。一个照相机对于一个姿态良好地起作用,例如从上方看水平面中打开和闭合的手部的照相机。相同的照相机可能对竖向面中的打开的、在竖向面中移动的手部并不起作用。在该情况下,从侧面看移动的手部的单独照相机更好地起作用。
SIG2N架构设计为如下构架,在该构架上可以建立对于CAD设计者做出的凝视和手部姿势两者的丰富帮助,以自然和直观地与其3D CAD对象交互。
特别地,在此以本发明的至少一个方面提供的自然的、至CAD设计的人类接口包括:
1.基于凝视&姿势地选择3D CAD数据和与其交互(例如如果用户将凝视固定到3D对象上,则其将被激活(“eye-over(眼睛经过)”相对于“mouse-over(鼠标经过)”)),并且然后用户可以直接操纵3D对象,诸如利用手部姿势来旋转、移动、放大其。由照相机识别出姿势作为计算机控制例如在Liu等发明的、2006年8月22日授权的、序列号为7,095,401的美国专利和Peter等发明的、2002年3月19日授权的、序列号为7,095,401的美国专利中公开,它们通过引用结合于此。图7示出了由佩戴多照相机框架的用户与3D显示器交互的至少一个方面。从人员观点来说,姿势可以是非常简单的。其可以是静态的。一个静态姿势是伸展平的手部,或者是用手指指。通过以逗留在一个位置中的方式将姿态保持特定时间,产生与屏幕上的对象交互的指令。在本发明的一个实施例中,姿势可以是简单的动态姿势。例如,手部可以处于平的并且伸展的位置,并且可以通过反转手腕而从竖向位置移动至水平位置。这种姿势由照相机记录并且由计算机识别出。在一个示例中,手部翻转在本发明的一个实施例中由计算机判读为将显示在屏幕上并且由用户的围绕轴线旋转的凝视所激活的3D对象进行旋转的命令。
2.尤其对于大的3D环境基于眼睛凝视地点来进行优化过的显示器显现。眼睛凝视地点或者双眼在对象上的凝视的交点激活该对象,例如在凝视在一个地点逗留至少最小时间之后激活该对象。“激活”效果可以是在该对象被“激活”之后示出该对象增多的细节,或者是以增大的分辨率显现该“激活过的”对象。另一效果可以是该对象的背景或紧邻处的分辨率的降低,这进一步允许“激活过的”对象突出。
3.基于眼睛凝视地点显示对象元数据,以增强情景/情况认知。该效果例如在凝视在对象之上逗留后,或者在凝视在对象上来回移动之后出现,其激活待与该对象相关地显示的标签。标签可以包含元数据或任何与对象相关的数据。
4.通过用户相对于所感知的3D对象的位置(例如头部位置)来操纵对象或改变情景,这也可以用于基于用户视点来显现3D。在本发明的一个实施例中,在由佩戴上面描述的带有照相机的头部框架的用户观看的3D显示器上显现和显示3D对象。在本发明的另一实施例中,基于用户相对于屏幕的头部位置显现3D对象。如果用户移动,从而框架相对于3D显示器的位置移动并且所显现的图像保持相同,则当用户从该新位置观看时该对象将表现得变得失真。在本发明的一个实施例中,计算机确定框架和头部相对于3D显示器的新位置,并且根据新位置重新计算和重新拖曳或显现3D对象。根据本发明的一个方面重新拖曳或重新显现对象的3D图像以3D显示器的帧率进行。
在本发明的一个实施例中,从固定的视角来重新显现对象。假设由在固定位置的虚拟照相机来观看对象。重新显现进行为使得其对于用户而言显得虚拟照相机跟着该用户移动。在本发明的一个实施例中,虚拟照相机视角通过用户或该用户的头部框架的位置来确定。当用户移动,则显现基于虚拟照相机跟随着头部框架相对于对象移动来完成。这允许用户“围绕显示在3D显示器上的对象而走”。
5.与(例如为用户提供在相同显示器上的多个视点的)多个眼睛框架的多个用户交互。
架构
在图8中示出了用于SIG2N架构的一个结构和其功能部件。SIG2N架构包括:
0.例如由存储在存储介质811上的3D CAD设计系统生成的CAD模型。
1.用于将CAD 3D对象数据转换成用于显示的3D TV形式的部件812。该技术是已知的,并且例如在3D监视器中可用,例如加拿大多伦多的TRUE3Di公司,其销售在3D显示器上以真实3D模式显示Autocad 3D模型的监视器。
2.扩增有照相机和修正过的标定的3D TV眼镜814,和用于凝视追踪标定的追踪部件815,和用于姿势追踪和姿势标定的816(下面将详细描述)。在本发明的一个实施例中,如在图2-4中所示那样的框架设有透镜,诸如在用于观看3D TV或显示器的现有技术中已知那样的快门眼镜、或LC快门眼镜、或主动式快门眼镜。这种3D快门眼镜通常是在框架中的光学中性镜片,其中每个眼睛的镜片例如包含液晶层,其具有在施加电压时变暗的特性。通过交替地并且按3D显示器上所显示的帧的顺序将镜片变暗,对于眼镜佩戴者产生3D显示的幻象。根据本发明的一个方面,快门眼镜合并到带有内部和外部照相机的头部框架中。
3.姿势识别部件和用于与CAD模型交互的、是接口单元817的部分的词表。上面已经描述了系统可以根据图像数据检测至少两个不同的姿势、例如用手指指、伸展手部、在水平和竖向面之间旋转所伸展的手部。许多姿势是可能的。每个姿势或者姿势之间的变化可以具有其自己的含义。在一个实施例中,以竖向姿势面对屏幕的手部在一个词表中可以意味着停止,并且在第二词表中可以意味着沿远离手部的方向移动。
图9和10示出了手部的两个姿势或姿态,其在本发明的一个实施例中是姿势词表的部分。图9示出了带有进行指向的手指的手部。图10示出了伸平的手部。这些姿势或姿态例如由从上方看带有手部的胳膊的照相机来记录。该系统可以被训练用于识别来自用户的有限数目的手部姿态或姿势。在一个简单的例证性姿势识别系统中,该词表由两个手部姿态组成。这意味着,如果姿态不是图9的,则其必须是图10的,反之亦然。已知更复杂得多的姿势识别系统。
4.将眼睛凝视信息与手部姿势事件集成。如上面描述那样,凝视可以用于找到和激活所显示的3D对象,而姿势可以用于操纵所激活的对象。例如,在第一对象上的凝视激活该第一对象用于能够被姿势操纵。移动的、指向所激活的对象的手指使得所激活的对象跟随该指向的手指。在另一实施例中,凝视经过可以激活3D对象,而指向其可以激活相关的菜单。
5.用于聚焦显现功率/等待时间的眼睛追踪信息。凝视经过可以起鼠标经过的作用,该凝视经过高亮显示所凝视的对象,或者增大所凝视经过的对象的分辨率或亮度。
6.用于显现CAD对象附近的附加元数据的眼睛凝视信息。凝视经过对象引起显示或列出文本、图像或与凝视经过的对象或图标有关的其它数据。
7.具有在用户观看角度和地点基础上的多视点能力的显现系统。当佩戴头部框架的观看者相对于3D显示器移动框架时,计算机计算3D对象的正确显现,以被观看者以不失真的方式来观看。在本发明的第一实施例中,所观看的3D对象的取向相对于带有头部框架的观看者保持不变。在本发明的第二实施例中,所观看的对象的虚拟取向相对于3D显示器保持不变,并且根据用户的观看位置而改变,使得用户可以以半圈“围绕该对象而走”并且从不同的视点观看其。
其它应用
本发明的方面可以应用于其中用户需要出于诊断或发展空间认知目的而操纵3D对象和与其交互的许多其它环境。例如,在医学介入中,医师(例如介入的心脏病专家或放射学专家)通常依赖于3D CT/MR模型来指导导管的导航。如在此以本发明的一个方面来提供那样的凝视&姿势自然接口将不仅提供更准确的3D感知、容易的3D对象操纵,而且还加强他们的空间控制和认知。
其中3D数据可视化和操纵起重要作用的其它应用例如包括:
(a)建筑自动化:建筑设计、自动化和管理:装备有SIG2N的3D TV可以借助直观的可视化和带有3D BIM(building information model(建筑信息模型))内容的交互工具在警告设计者、操作者、紧急事件管理者和其他人员方面起辅助作用。
(b)服务:可以在现场或服务中心的便携式3D显示器上显示3D设计数据连同诸如视频和超声信号的在线传感器数据。Mixed Reality(混合现实)的这种使用,因为其需要用于凝视和姿势的直观接口和用于不用手的操作的接口,而将是SIG2N的一个良好应用领域。
姿势驱动的传感器-显示器标定
数目正在增加的应用包括光学传感器和一个或多个显示模块(例如平面屏幕监视器)的组合,例如在此提供的SIG2N架构。这尤其是在基于视觉的、其中系统的用户位于2D或3D监视器前并且不用手地经由自然姿势与将显示器用于可视化的软件应用交互的、自然的用户交互领域中的自然组合。
在该情景中,会令人感兴趣的是建立传感器与显示器之间的相对姿态。如果光学传感器系统能够提供度量深度数据,则在此根据本发明的一个方面提供的方法使得能够基于由系统的配合的用户进行的手部和胳膊姿势来自动估计该相对姿态。
不同的传感器系统,诸如光学立体照相机、基于主动幻象的深度照相机、和时间飞行照相机,满足该要求。另一前提是允许提取在传感器图像中可见的用户手部、肘部和肩膀关节和头部地点的模块。
在这些假设下,提供了两种不同的方法作为本发明的方面,其具有如下区别:
1.第一方法假设已知显示器尺寸。
2.第二方法不知显示器尺寸。
两种方法的共同之处在于:如图11中示出的那样让配合的用户900以竖直方式站立,从而他可以以前方平行的方式看见显示器901并且他被传感器902可见。然后,顺序地在屏幕上示出一组非共线的标记物903,并且让用户以左或右手904当每个标记物显示时指向其。该系统自动通过等待延伸的、即直的胳膊来确定用户是否在指向。当胳膊是直的并且对于短的时段(≤2s)并不移动,则捕获用户的几何结构用于稍后的标定。
这对于每个标记物单独并且连续地进行。在随后的批量标定步骤中,估计照相机和监视器的相对姿态。
接下来根据本发明的不同方面提供两个标定方法。这些方法取决于屏幕尺寸是否已知,和用于获得参考方向、即用户实际指向的方向的数个选项。
下一部分描述参考方向的不同选择,并且随后的部分描述基于参考点的两种标定方法,其与选择了哪些参考点无关。
贡献
在此提供的方法包含根据本发明的不同方面的至少三种贡献:
(1)用于控制标定过程的基于姿势的途径。
(2)用于屏幕-传感器标定的、人类姿态导出的测量过程。
(3)用于改进标定性能的‘机械瞄具’
建立参考点
图11示出了情景的全面的几何结构。用户900站在屏幕D 901前方,该用户从可以是至少一个照相机的传感器C 902可见。为了建立指向方向,在本发明的一个实施例中,一个参考点总是特定手指Rf的尖部,例如延伸的食指的尖部。应该清楚的是,可以使用其它固定的参考点,只要其具有适度的可重复性和准确性。例如,可以使用伸展的拇指的尖部。存在对于其它参考点的地点的至少两个选项:
(1)肩关节Rs:用户的胳膊指向标记物。这对于无经验用户来说可能是难以验证的,因为不存在关于指向的方向是否合适的直接视觉反馈。这可能引入更高的标定误差。
(2)眼球中心Re:用户主要执行凹口和准星(notch-and-bead)机械瞄具的功能,其中屏幕上的目标可以当做“准星”并且该用户的手指可以理解为“凹口”。该光学重合(optio-coincidence)实现关于指向姿势的精度的直接用户反馈。在本发明的一个实施例中,假设所用眼睛的侧与所用胳膊的侧相同(左/右)。
传感器-显示器标定
方法1–已知的屏幕尺寸
在下文中参考点Rs和Re的特定选择之间没有区别,其将由R来概括。
该方法如下进行:
1.为(a)几何上由宽度为wi和高度为hi的3维空间Di中定向的2D矩形表示的一个或多个显示器和(b)几何上由度量坐标系Cj表示的一个或多个深度感测度量光学传感器保证固定却未知的地点。
下面考虑仅一个显示器D和一个照相机C,而并不缺少一般性。
2.在屏幕表面D上以已知的2D地点mk=(x,y)k显示K个视觉标记物的连续序列。
3.对于K个视觉标记物中的每个,(a)检测来自传感器C的传感器数据中用户的右手和左手、右肘和左肘、和右肩关节和左肩关节、以及参考点Rf和R在照相机系统D的度量3D坐标中的地点,(b)测量右肘角度和左肘角度作为左侧和右侧上的手部、肘部和肩部地点之间的角度,(c)如果该角度明显不同于180°,则等待下次传感器测量,并且返回步骤(b),以及(d)对于预先确定的时段连续测量该角度。
如果该角度在任意时刻明显不同于180°,返回步骤(b)。然后(e)对于该标记物记录用户的参考点的位置。对于每个标记物可以为了鲁棒性而记录数次测量。
4.在对于K个标记物中的每个均记录了用户的手部和头部位置之后,批量标定如下进行:
(a)屏幕表面D可以用原点G和两个归一化的方向Ex、Ey表征。该屏幕表面上的任意点P可以写作:
P=G+xwEx+yhEy,其中0≤x≤1并且0≤y≤1。
(b)测量(m,Rf,R)k的每个集合产生关于情景的几何结构的一些信息:由两个点Rfk和Rk限定的射线与屏幕在3D点λk(Rk-Rfk)相交。根据上面的测量步骤,该点假设为与屏幕表面D上的3D点G+xEx+yEy重合。
在形式上,
G+xwEx+yhEy≡λk(Rk-Rfk) (4)
(c)在上面的等式中,在左侧存在6个未知数并且对于每个右侧存在一个未知数,并且每次测量产生三个等式。从而,最少K=3次测量对于总的未知数数目以及总的等式数目为9来说是必需的。
(d)针对未知参数G、Ex、Ey求解所采集的测量的等式(4)的集合,以恢复屏幕表面几何结构和由此恢复相对姿态。
(e)在对于每个标记物进行多次测量或者多个标记物K>3的情况下,等式4可以替代性地修改为将这些点之间的距离最小化:
方法2–未知屏幕尺寸
之前的方法假设已知屏幕表面D的物理尺寸w、h。这可能是不实际的假设,并且在该部分中描述的方法不需要关于屏幕尺寸的知识。
在屏幕尺寸未知的情况下,存在两个附加的未知数:(4)和(5)中的w、h。等式组在所有Ok靠近在一起时变得不适定,这对于方法1中的准备阶段由于用户未移动其头部而是该情况。为了解决该问题,系统要求用户在显示标记物之间移动。头部位置被追踪,并且仅当头部位置移动了显著的量时才示出下一标记物,以保证稳定的优化问题。因为现在存在两个附加的未知数,所以测量的最小数目现在对于12个未知数及12个等式是K=4。在此较早解释的所有考虑和等式保持完整。
用于低等待时间自然菜单交互的3D形式的径向菜单
为现有技术的基于光学/红外照相机的肢部/手部追踪系统在姿态检测中由于信号和处理路径而具有迫近的等待时间。在与缺乏立即的非视觉反馈(例如触觉)结合的情况下,这使得用户交互速度与传统的鼠标/键盘交互相比显著减缓。为了减轻该对于菜单选择任务的效果,作为本发明的一个方面以3D形式提供姿势激活的径向菜单。公知通过触摸操作的径向菜单,并且例如在Kurtenbach发明的、在1999年7月20日授权的、序列号为5,926,178的美国申请中描述,其通过引用结合于此。3D形式的姿势激活的径向菜单被认为是新颖的。在一个实施例中,基于用户的姿势在3D屏幕上显示第一姿势激活的径向菜单。具有多个条目的该径向菜单中的一项通过用户姿势来激活,例如通过指向该径向菜单中的该项。可以从菜单复制来自径向菜单中的一项,其方式为“抓取”该项并且将其移动至对象。在另一实施例中,对于3D对象激活径向菜单中的一项,其方式为用户指在该对象上并且指向该菜单项。在本发明的另一实施例中,所显示的径向菜单是一系列“交错的”菜单的部分。用户可以通过像在书里翻页那样通过菜单离开而访问不同地分层的菜单。
对于有经验的用户而言,这提供实质上无等待时间并且鲁棒性的菜单交互,即自然用户接口的一个关键部件。菜单条目的密度/数目可以适配于用户的技巧,从用于新手的六个条目开始直至用于专家的24个条目。此外,菜单可以具有至少两个菜单的层,其中第一菜单明显隐藏其它菜单,但是示出“取消隐藏”下级布置的菜单的3D标签。
用于快速菜单交互的听觉和视觉特征的融合
听觉传感器的高采样频率和低带宽提供对于低等待时间交互的替选方案。根据本发明的一个方面,提供例如打响指的听觉提示与合适的视觉提示的融合,以实现鲁棒性的、低等待时间的菜单交互。在本发明的一个实施例中,为了鲁棒性的多用户情景而将麦克风阵列用于空间资源解疑。
在消费者RGBD传感器中进行在基于手部的用户交互中鲁棒性并且简单的交互点检测
在追踪手部的交互情景中,针对关键姿势、例如闭合和打开手部而连续地追踪和监控用户的该手部。这样的姿势根据手部的当前位置动作发起。在典型的消费者RGBD设备中,低的空间采样分辨率暗示:实际追踪的手部上的地点取决于手部的全面的(非刚性的)姿态。事实上,在激活例如闭合手部的姿势时,难以鲁棒性地将手部上固定点的位置与非刚性的变形分开。现有的方法通过以几何方式建模和估计手部和手指(这在典型的交互范围上对于消费者RGBD传感器可能是非常不精确的,并且是计算上高成本的),或者通过确定用户手腕上的固定点(其进一步暗示,可能错误地建模手部和胳膊几何结构)来解决该问题。相反,在此根据本发明的一个方面提供的方法替代性地建模姿势的暂时行为。其并不依赖于复杂的几何模型或者需要昂贵的处理。第一,估计在所感知的用户姿势的初始化与由系统检测到对应姿势的时刻之间的典型的时段长度。第二,与所追踪的手部点的历史一起,该时段用于刚好在“反算”所感知的初始化的时刻之前建立交互点作为所追踪的手部点。因为该过程与实际姿势有关,其可以适应于宽范围的姿势复杂度/持续时间。可能的改进包括适配性机制,其中根据实际传感器数据确定所感知与所检测到的动作初始化之间的估计时段,以适应于不同用户之间不同的姿势行为/速度。
在手部分类中的RGBD数据的融合
根据本发明的一个方面,根据RGB和深度数据确定打开的相对于关闭的手部的分类。这在本发明的一个实施例中通过将单独地关于RGB和深度训练过的现有分类器融合来实现。
鲁棒性的、非干扰性的用户激活和去激活机制
着手解决确定来自传感器范围内的组的哪个用户想要交互的问题。通过重心和带有用于鲁棒性的滞后阈值的、自然/非干扰性的注意姿势来检测活动的用户。特定的姿势或者姿势与凝视的组合将一个人员作为控制3D显示器的人员而从一组人员中选出。第二姿势或姿势/凝视组合放弃控制3D显示器。
为3D显示器扩增的视点适配
将所显现的情景照相机姿态与用户的姿态对齐,以创建扩增的视点(例如围绕y轴线的360_旋转)。
将深度传感器、虚拟世界客户端与3D可视化集成,用于在身临其境的虚拟环境中进行自然导航
在此使用术语“激活”,其中由处理器激活例如为3D对象的对象。在此还使用术语“激活的对象”。在计算机接口的背景中使用术语“正在激活”、“激活”和“激活过的”。通常,计算机接口应用触觉(基于触摸的)工具,例如带有按键的鼠标。鼠标的位置和运动对应于计算机屏幕上的指针或光标的位置和运动。屏幕通常包含多个对象,诸如显示在屏幕上的图像或图标。借助鼠标将光标移过图标将改变图标的颜色或一些其它性质,指示图标已经为激活做好准备。这种激活可以包括起动程序,将与该图标相关的窗口带至前景,显示文件或图像或任意其它动作。图标或对象的另一激活是已知的在鼠标上“右击”。通常,这显示与对象有关的选项的菜单,包括“以……打开”、“打印”、“删除”、“扫描病毒”、和对于应用例如MicrosoftWindows用户界面已知的其它菜单项。
对于例如为Microsoft“Powerpoint”的已知应用,显示器上设计模式中的幻灯片可以包含不同的对象,诸如圆圈、和方形、和文本。并不想要的是,仅通过将光标移过这种显示的对象就修改或移动其。通常,用户需要将光标放置在所选对象上方并且敲击按键(或在触屏上轻敲)以选择用于处理的对象。通过敲击按键而选择对象,并且现在对象已激活以用于进一步的处理。在没有激活步骤的情况下,通常不能单独地操纵对象。在诸如改变大小、移动、旋转、或重新上色等的处理之后,通过将光标从对象移走或移远和敲击遥远的区域而将对象去激活。
以与在上面使用鼠标的示例中类似的方式来应用在此的激活3D对象。可以将显示在3D显示器上的3D对象去激活。使用带有一个或两个内部照相机和外部照相机的人员的凝视可以定向在3D显示器上的3D对象上。计算机当然知道3D对象在屏幕上的坐标,并且在3D显示器情况下知道3D对象的虚拟位置相对于显示器在哪里。由标定过的头部框架生成的、提供给计算机的数据使得计算机能够确定被定向的凝视相对于显示器的方向和坐标,并且因此将凝视与相应显示的3D对象相匹配。在本发明的一个实施例中,凝视在可以是图标的3D对象上的逗留或聚焦将该3D对象激活以用于处理。在本发明的一个实施例中,需要由用户做出的进一步的动作来激活对象,诸如头部运动、眨眼或例如为用手指指的姿势。在本发明的一个实施例中,凝视激活对象或图标并且要求进一步的用户动作来显示菜单。在本发明的一个实施例中,凝视或逗留中的凝视激活对象,并且特定的姿势提供对象的进一步处理。例如,凝视或对于最小时间逗留中的凝视激活对象,并且手部姿势、例如在竖向面中从第一位置移动到第二位置的伸展的手部将显示器上的对象从第一屏幕位置移动到第二屏幕位置。
显示在3D显示器上的3D对象可以在被用户“凝视经过”时改变颜色和/或分辨率。在本发明的一个实施例中,显示在3D显示器上的3D对象通过将凝视从该3D对象移走而去激活。可以将选自菜单或选项调色板的不同处理应用于对象。在该情况下,不方便的是当用户看菜单时丢失“激活”。在该情况下,对象保持激活,直至用户提供类似于闭合双眼的特定的“去激活”凝视、或者例如“拇指朝下”的去激活姿势、或者被计算机识别为去激活信号的任意其它凝视和/或姿势。当3D对象被去激活时,其可以以带有较小亮度、对比度和/或分辨率的颜色来显示。
在图形用户界面的其它应用中,鼠标经过图标将引起与对象或图标相关的一个或多个特性的显示。
在本发明的一个实施例中,在此提供的方法在系统或计算机设备上实施。将在图12中示出和并且在此提供那样的系统使能以用于接收、处理和生成数据。为系统提供可以存储在存储器1801上的数据。数据可以从传感器、例如包括一个或多个内部照相机和外部照相机的照相机获得,或者可以从任意其它数据相关的源头提供。数据可以在输入端1806上提供。这种数据可以是图像数据或位置数据、或CAD数据、或在视觉和显示系统中有助的任意其它数据。处理器也可以借助存储在存储器1802并且提供给处理器1803的、执行本发明的方法的指令组或程序来提供或编程,其中该处理器执行1802的指令,以处理来自1801的数据。诸如图像数据或由处理器提供的任意其它数据的数据可以在输出设备1804的输出端上输出,该输出设备可以是用于显示3D图像的3D显示器或数据存储设备。在本发明的一个实施例中,输出设备1804是屏幕或显示器、优选为3D显示器,在所述显示器上,处理器显示可以由照相机记录并且与在由作为本发明的一个方面提供的方法限定的标定空间中的坐标相关联的3D图像。屏幕上的图像可以由计算机根据由照相机记录的、来自用户的一个或多个姿势修改。处理器也具有用于从通信设备接收外部数据并且将数据传送给外部设备的通信通道1807。本发明的一个实施例中的系统具有输入设备1805,其可以是如在此描述那样的头部框架并且其也可以包括键盘、鼠标、指向设备、一个或多个照相机、或者可以生成待被提供给处理器1803的数据的任意其它设备。
处理器可以是专用硬件。然而,处理器也可以是CPU或者可以执行1802的指令的任意其它计算设备。从而,如在图12中示出那样的系统提供用于由传感器、照相机或任意其它数据源产生的数据处理的系统,并且被使能以执行作为本发明的一个方面而在此提供的方法的步骤。
因此,在此针对至少一个工业凝视和姿势自然接口(SIG2N)描述了系统和方法。
应理解的是,本发明可以以多种形式的硬件、软件、固件、特殊用途处理器或其组合来实现。在一个实施例中,本发明可以以如有形地实现在程序存储设备上的应用程序那样的软件来实现。应用程序可以上载至包括任意合适架构的机器,或由该机器执行。
还应理解的是,因为在附图中描绘的一些作为组分的系统部件和方法步骤可以以软件实现,所以系统部件(或处理步骤)之间的实际联系可以取决于本发明以何种方式编程而不同。已知在此提供的本发明的教导,则相关技术领域的普通技术人员将能够理解其以及本发明的类似的实现方式或配置。
这里已经示出、描述和指出了本发明的如应用于本发明的优选实施例那样的新颖特征,则将理解的是,可以由本领域技术人员作出在所示方法和系统的形式和细节方面的不同的省略和替代和变化,而不偏离本发明的精神。因此,目的是仅如由权利要求的范围指示那样来限定。
Claims (20)
1.一种用于由佩戴具有瞄准所述人员的眼睛的第一照相机的头部框架的人员通过以所述眼睛凝视所述3D图像和以身体部分做出姿势来与显示在显示器上的3D对象交互的方法,所述方法包括:
以至少两个照相机感测所述眼睛的图像、所述显示器的图像和所述姿势的图像,安装在所述头部框架中的所述至少两个照相机中的一个适于指向所述显示器,并且所述至少两个照相机中的另一个是所述第一照相机;
将所述眼睛的图像、所述姿势的图像和所述显示器的图像传送给处理器;
所述处理器根据这些图像确定所述眼睛的视向和所述头部框架相对于所述显示器的位置,并且然后确定所述人员正在凝视的3D对象;
所述处理器根据所述姿势的图像从多个姿势中识别出所述姿势;以及
所述处理器基于所述凝视、或所述姿势、或所述凝视和所述姿势进一步处理所述3D对象。
2.根据权利要求1所述的方法,其中所述第二照相机位于所述头部框架中。
3.根据权利要求1所述的方法,其中第三照相机位于所述显示器中或者位于毗邻所述显示器的区域中。
4.根据权利要求1所述的方法,其中所述头部框架包括所述头部框架中的、指向所述人员的第二眼睛的第四照相机,以捕获所述第二眼睛的视向。
5.根据权利要求4所述的方法,进一步包括:所述处理器根据所述第一眼睛的视向和所述第二眼睛的视向的交点确定3D焦点。
6.根据权利要求1所述的方法,其中所述进一步处理所述3D对象包括:激活所述3D对象。
7.根据权利要求1所述的方法,其中所述进一步处理所述3D对象包括:基于所述凝视、或所述姿势、或所述凝视和所述姿势两者来以增大的分辨率显现所述3D对象。
8.根据权利要求1所述的方法,其中所述3D对象由计算机辅助设计程序生成。
9.根据权利要求1所述的方法,进一步包括:所述处理器基于来自所述第二照相机的数据识别所述姿势。
10.根据权利要求9所述的方法,其中所述处理器基于所述姿势在所述显示器上移动所述3D对象。
11.根据权利要求1所述的方法,进一步包括:所述处理器确定佩戴所述头部框架的所述人员的位置到新位置的变化,并且所述处理器在计算机3D显示器上对应于所述新地点重新显现所述3D对象。
12.根据权利要求11所述的方法,其中所述处理器以所述显示器的帧率确定位置的所述变化和进行重新显现。
13.根据权利要求11所述的方法,进一步包括:所述处理器生成用于与正被凝视的3D对象有关的显示的信息。
14.根据权利要求1所述的方法,其中进一步处理所述3D对象包括:激活与所述3D对象有关的径向菜单。
15.根据权利要求1所述的方法,其中进一步处理所述3D对象包括:激活在3D空间中堆叠在彼此之上的多个径向菜单。
16.根据权利要求1所述的方法,还包括:
所述处理器标定所述人员的指向所述3D计算机显示器上的区域的手部和胳膊姿势的相对姿态;
所述人员以新姿态指向所述3D计算机显示器;以及
所述处理器基于标定过的所述相对姿态估计与所述新姿态有关的坐标。
17.一种其中人员通过以第一眼睛凝视和通过以身体部分做出姿势来与多个3D对象的一个或更多交互的系统,包括:
显示所述多个3D对象的计算机显示器;
头部框架,所述头部框架包含适于指向佩戴所述头部框架的人员的第一眼睛的第一照相机,和适于指向所述计算机显示器的区域并且适于捕获所述姿势的第二照相机;
处理器,能够执行指令来进行如下步骤:
接收由所述第一照相机和第二照相机传送的数据;
处理所接收的数据,以在所述多个对象中确定所述凝视所对准的3D对象;
处理所接收的数据,以从多个姿势中识别所述姿势;以及
基于所述凝视和姿势进一步处理所述3D对象。
18.根据权利要求17所述的系统,其中所述计算机显示器显示3D图像。
19.根据权利要求17所述的系统,其中所述显示器是立体观看系统。
20.一种人员用以通过从第一眼睛凝视和从第二眼睛凝视以及通过由所述人员的身体部分做出姿势与显示在3D计算机显示器上的3D对象交互的设备,所述设备包括:
适于由所述人员佩戴的框架;
安装在所述框架中的第一照相机,所述第一照相机适于指向所述第一眼睛以捕获所述第一凝视,
安装在所述框架中的第二照相机,所述第二照相机适于指向所述第二眼睛以捕获所述第二凝视,
安装在所述框架中的第三照相机,所述第三照相机适于指向所述3D计算机显示器和捕获所述姿势,
第一镜片和第二镜片,所述第一镜片和第二镜片安装在所述框架中,使得所述第一眼睛看穿所述第一镜片和所述第二眼睛看穿所述第二镜片,所述第一镜片和第二镜片起3D观看快门的作用;以及
用于传送由所述照相机生成的数据的传送器。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US42370110P | 2010-12-16 | 2010-12-16 | |
US61/423,701 | 2010-12-16 | ||
US201161537671P | 2011-09-22 | 2011-09-22 | |
US61/537,671 | 2011-09-22 | ||
US13/325,361 | 2011-12-14 | ||
US13/325,361 US20130154913A1 (en) | 2010-12-16 | 2011-12-14 | Systems and methods for a gaze and gesture interface |
PCT/US2011/065029 WO2012082971A1 (en) | 2010-12-16 | 2011-12-15 | Systems and methods for a gaze and gesture interface |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103443742A true CN103443742A (zh) | 2013-12-11 |
CN103443742B CN103443742B (zh) | 2017-03-29 |
Family
ID=45446232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180067344.9A Active CN103443742B (zh) | 2010-12-16 | 2011-12-15 | 用于凝视和姿势接口的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130154913A1 (zh) |
KR (1) | KR20130108643A (zh) |
CN (1) | CN103443742B (zh) |
WO (1) | WO2012082971A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015109887A1 (zh) * | 2014-01-24 | 2015-07-30 | 北京奇虎科技有限公司 | 判断头戴式智能设备的操作及鉴权信息有效性的装置和方法 |
CN105659191A (zh) * | 2014-06-17 | 2016-06-08 | 深圳凌手科技有限公司 | 用于提供图形用户界面的系统和方法 |
CN107077197A (zh) * | 2014-12-19 | 2017-08-18 | 惠普发展公司,有限责任合伙企业 | 3d可视化图 |
CN107463261A (zh) * | 2017-08-11 | 2017-12-12 | 北京铂石空间科技有限公司 | 立体交互系统及方法 |
CN108090935A (zh) * | 2017-12-19 | 2018-05-29 | 清华大学 | 混合相机系统及其时间标定方法及装置 |
US10203765B2 (en) | 2013-04-12 | 2019-02-12 | Usens, Inc. | Interactive input system and method |
CN110368026A (zh) * | 2018-04-13 | 2019-10-25 | 北京柏惠维康医疗机器人科技有限公司 | 一种手术辅助装置及系统 |
CN112215220A (zh) * | 2015-06-03 | 2021-01-12 | 托比股份公司 | 视线检测方法和装置 |
Families Citing this family (183)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9158116B1 (en) | 2014-04-25 | 2015-10-13 | Osterhout Group, Inc. | Temple and ear horn assembly for headworn computer |
US8317744B2 (en) | 2008-03-27 | 2012-11-27 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter manipulator assembly |
US9161817B2 (en) | 2008-03-27 | 2015-10-20 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
US9241768B2 (en) | 2008-03-27 | 2016-01-26 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intelligent input device controller for a robotic catheter system |
US8684962B2 (en) | 2008-03-27 | 2014-04-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter device cartridge |
US8641663B2 (en) | 2008-03-27 | 2014-02-04 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system input device |
US8343096B2 (en) | 2008-03-27 | 2013-01-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system |
WO2009120982A2 (en) | 2008-03-27 | 2009-10-01 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic catheter system with dynamic response |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9366867B2 (en) | 2014-07-08 | 2016-06-14 | Osterhout Group, Inc. | Optical systems for see-through displays |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20150277120A1 (en) | 2014-01-21 | 2015-10-01 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9330497B2 (en) | 2011-08-12 | 2016-05-03 | St. Jude Medical, Atrial Fibrillation Division, Inc. | User interface devices for electrophysiology lab diagnostic and therapeutic equipment |
US9439736B2 (en) | 2009-07-22 | 2016-09-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
EP2542296A4 (en) | 2010-03-31 | 2014-11-26 | St Jude Medical Atrial Fibrill | INTUITIVE USER INTERFACE CONTROL FOR REMOTE CATHETER NAVIGATION AND 3D CARTOGRAPHY AND VISUALIZATION SYSTEMS |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
WO2012107892A2 (en) | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9311883B2 (en) * | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
WO2013082760A1 (en) * | 2011-12-06 | 2013-06-13 | Thomson Licensing | Method and system for responding to user's selection gesture of object displayed in three dimensions |
US9671869B2 (en) * | 2012-03-13 | 2017-06-06 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
CN104246682B (zh) | 2012-03-26 | 2017-08-25 | 苹果公司 | 增强的虚拟触摸板和触摸屏 |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
EP2690570A1 (en) * | 2012-07-24 | 2014-01-29 | Dassault Systèmes | Design operation in an immersive virtual environment |
WO2014015521A1 (en) * | 2012-07-27 | 2014-01-30 | Nokia Corporation | Multimodal interaction with near-to-eye display |
US9305229B2 (en) * | 2012-07-30 | 2016-04-05 | Bruno Delean | Method and system for vision based interfacing with a computer |
DE102012215407A1 (de) * | 2012-08-30 | 2014-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellen einer Eingabe für ein Bedienelement |
EP2703836B1 (en) * | 2012-08-30 | 2015-06-24 | Softkinetic Sensors N.V. | TOF illuminating system and TOF camera and method for operating, with control means for driving electronic devices located in the scene |
US9201500B2 (en) * | 2012-09-28 | 2015-12-01 | Intel Corporation | Multi-modal touch screen emulator |
US9152227B2 (en) * | 2012-10-10 | 2015-10-06 | At&T Intellectual Property I, Lp | Method and apparatus for controlling presentation of media content |
DE102012219814A1 (de) * | 2012-10-30 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays |
CN108845668B (zh) * | 2012-11-07 | 2022-06-03 | 北京三星通信技术研究有限公司 | 人机交互系统和方法 |
EP3734555A1 (en) * | 2012-12-10 | 2020-11-04 | Sony Corporation | Display control apparatus, display control method, and program |
US9785228B2 (en) | 2013-02-11 | 2017-10-10 | Microsoft Technology Licensing, Llc | Detecting natural user-input engagement |
US9395816B2 (en) | 2013-02-28 | 2016-07-19 | Lg Electronics Inc. | Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same |
KR102094886B1 (ko) * | 2013-02-28 | 2020-03-30 | 엘지전자 주식회사 | 택타일 피드백 및 비주얼 피드백을 선택적으로 출력하는 디스플레이 디바이스 및 그 제어 방법 |
US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
US10216266B2 (en) * | 2013-03-14 | 2019-02-26 | Qualcomm Incorporated | Systems and methods for device interaction based on a detected gaze |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US20150277700A1 (en) * | 2013-04-12 | 2015-10-01 | Usens, Inc. | System and method for providing graphical user interface |
CN103269430A (zh) * | 2013-04-16 | 2013-08-28 | 上海上安机电设计事务所有限公司 | 基于bim的三维场景生成方法 |
KR102012254B1 (ko) * | 2013-04-23 | 2019-08-21 | 한국전자통신연구원 | 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치 |
US9189095B2 (en) | 2013-06-06 | 2015-11-17 | Microsoft Technology Licensing, Llc | Calibrating eye tracking system by touch input |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015001547A1 (en) * | 2013-07-01 | 2015-01-08 | Inuitive Ltd. | Aligning gaze and pointing directions |
KR20150017832A (ko) * | 2013-08-08 | 2015-02-23 | 삼성전자주식회사 | 3d 객체 제어 방법 및 그 장치 |
US10019843B2 (en) * | 2013-08-08 | 2018-07-10 | Facebook, Inc. | Controlling a near eye display |
US10073518B2 (en) | 2013-08-19 | 2018-09-11 | Qualcomm Incorporated | Automatic calibration of eye tracking for optical see-through head mounted display |
CN104423578B (zh) * | 2013-08-25 | 2019-08-06 | 杭州凌感科技有限公司 | 交互式输入系统和方法 |
US9384383B2 (en) * | 2013-09-12 | 2016-07-05 | J. Stephen Hudgins | Stymieing of facial recognition systems |
US20150128096A1 (en) * | 2013-11-04 | 2015-05-07 | Sidra Medical and Research Center | System to facilitate and streamline communication and information-flow in health-care |
CN104679226B (zh) * | 2013-11-29 | 2019-06-25 | 上海西门子医疗器械有限公司 | 非接触式医疗控制系统、方法及医疗设备 |
CN104750234B (zh) * | 2013-12-27 | 2018-12-21 | 中芯国际集成电路制造(北京)有限公司 | 可穿戴智能设备及可穿戴智能设备的互动方法 |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9299194B2 (en) * | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9366868B2 (en) | 2014-09-26 | 2016-06-14 | Osterhout Group, Inc. | See-through computer display systems |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
KR101550580B1 (ko) | 2014-01-17 | 2015-09-08 | 한국과학기술연구원 | 사용자 인터페이스 장치 및 그것의 제어 방법 |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9532714B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9740280B2 (en) | 2014-01-21 | 2017-08-22 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9310610B2 (en) | 2014-01-21 | 2016-04-12 | Osterhout Group, Inc. | See-through computer display systems |
US9311718B2 (en) * | 2014-01-23 | 2016-04-12 | Microsoft Technology Licensing, Llc | Automated content scrolling |
US9201578B2 (en) * | 2014-01-23 | 2015-12-01 | Microsoft Technology Licensing, Llc | Gaze swipe selection |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150241963A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
MY175525A (en) * | 2014-03-07 | 2020-07-01 | Mimos Berhad | Method and apparatus to combine ocular control with motion control for human computer interaction |
DE102014114131A1 (de) * | 2014-03-10 | 2015-09-10 | Beijing Lenovo Software Ltd. | Verfahren zur Informationsverarbeitung und elektronisches Gerät |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9696798B2 (en) | 2014-04-09 | 2017-07-04 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Eye gaze direction indicator |
US20150309534A1 (en) | 2014-04-25 | 2015-10-29 | Osterhout Group, Inc. | Ear horn assembly for headworn computer |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US20160137312A1 (en) | 2014-05-06 | 2016-05-19 | Osterhout Group, Inc. | Unmanned aerial vehicle launch system |
US10416759B2 (en) * | 2014-05-13 | 2019-09-17 | Lenovo (Singapore) Pte. Ltd. | Eye tracking laser pointer |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
KR101453815B1 (ko) * | 2014-08-01 | 2014-10-22 | 스타십벤딩머신 주식회사 | 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치 |
WO2016021861A1 (en) | 2014-08-02 | 2016-02-11 | Samsung Electronics Co., Ltd. | Electronic device and user interaction method thereof |
KR20160016468A (ko) * | 2014-08-05 | 2016-02-15 | 삼성전자주식회사 | 리얼 3d 영상 생성 방법 및 그 장치 |
US9936195B2 (en) | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
US10585485B1 (en) | 2014-11-10 | 2020-03-10 | Amazon Technologies, Inc. | Controlling content zoom level based on user head movement |
US9823764B2 (en) * | 2014-12-03 | 2017-11-21 | Microsoft Technology Licensing, Llc | Pointer projection for natural user input |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
US10809794B2 (en) * | 2014-12-19 | 2020-10-20 | Hewlett-Packard Development Company, L.P. | 3D navigation mode |
USD743963S1 (en) | 2014-12-22 | 2015-11-24 | Osterhout Group, Inc. | Air mouse |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US10235807B2 (en) | 2015-01-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Building holographic content using holographic tools |
US10146303B2 (en) | 2015-01-20 | 2018-12-04 | Microsoft Technology Licensing, Llc | Gaze-actuated user interface with visual feedback |
US10613637B2 (en) | 2015-01-28 | 2020-04-07 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US11347316B2 (en) | 2015-01-28 | 2022-05-31 | Medtronic, Inc. | Systems and methods for mitigating gesture input error |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US9726885B2 (en) | 2015-03-31 | 2017-08-08 | Timothy A. Cummings | System for virtual display and method of use |
US10969872B2 (en) * | 2015-04-16 | 2021-04-06 | Rakuten, Inc. | Gesture interface |
CN104765156B (zh) * | 2015-04-22 | 2017-11-21 | 京东方科技集团股份有限公司 | 一种三维显示装置和三维显示方法 |
US10607401B2 (en) | 2015-06-03 | 2020-03-31 | Tobii Ab | Multi line trace gaze to object mapping for determining gaze focus targets |
CN107787497B (zh) * | 2015-06-10 | 2021-06-22 | 维塔驰有限公司 | 用于在基于用户的空间坐标系中检测手势的方法和装置 |
US9529454B1 (en) | 2015-06-19 | 2016-12-27 | Microsoft Technology Licensing, Llc | Three-dimensional user input |
US10409443B2 (en) * | 2015-06-24 | 2019-09-10 | Microsoft Technology Licensing, Llc | Contextual cursor display based on hand tracking |
US10139966B2 (en) | 2015-07-22 | 2018-11-27 | Osterhout Group, Inc. | External user interface for head worn computing |
US10101803B2 (en) | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
US9841813B2 (en) * | 2015-12-22 | 2017-12-12 | Delphi Technologies, Inc. | Automated vehicle human-machine interface system based on glance-direction |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US10850116B2 (en) | 2016-12-30 | 2020-12-01 | Mentor Acquisition One, Llc | Head-worn therapy device |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US9880441B1 (en) | 2016-09-08 | 2018-01-30 | Osterhout Group, Inc. | Electrochromic systems for head-worn computer systems |
US9826299B1 (en) | 2016-08-22 | 2017-11-21 | Osterhout Group, Inc. | Speaker systems for head-worn computer systems |
EP3432780A4 (en) | 2016-03-21 | 2019-10-23 | Washington University | VISUALIZATION IN VIRTUAL REALITY OR IN INCREASED REALITY OF 3D MEDICAL IMAGES |
US10824253B2 (en) | 2016-05-09 | 2020-11-03 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10684478B2 (en) | 2016-05-09 | 2020-06-16 | Mentor Acquisition One, Llc | User interface systems for head-worn computers |
US10466491B2 (en) | 2016-06-01 | 2019-11-05 | Mentor Acquisition One, Llc | Modular systems for head-worn computers |
US9910284B1 (en) | 2016-09-08 | 2018-03-06 | Osterhout Group, Inc. | Optical systems for head-worn computers |
EP3242228A1 (en) * | 2016-05-02 | 2017-11-08 | Artag SARL | Managing the display of assets in augmented reality mode |
US10489978B2 (en) * | 2016-07-26 | 2019-11-26 | Rouslan Lyubomirov DIMITROV | System and method for displaying computer-based content in a virtual or augmented environment |
US9972119B2 (en) | 2016-08-11 | 2018-05-15 | Microsoft Technology Licensing, Llc | Virtual object hand-off and manipulation |
US10690936B2 (en) | 2016-08-29 | 2020-06-23 | Mentor Acquisition One, Llc | Adjustable nose bridge assembly for headworn computer |
WO2018048000A1 (ko) * | 2016-09-12 | 2018-03-15 | 주식회사 딥픽셀 | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 |
US20180082477A1 (en) * | 2016-09-22 | 2018-03-22 | Navitaire Llc | Systems and Methods for Improved Data Integration in Virtual Reality Architectures |
US10137893B2 (en) * | 2016-09-26 | 2018-11-27 | Keith J. Hanna | Combining driver alertness with advanced driver assistance systems (ADAS) |
USD840395S1 (en) | 2016-10-17 | 2019-02-12 | Osterhout Group, Inc. | Head-worn computer |
US9983684B2 (en) | 2016-11-02 | 2018-05-29 | Microsoft Technology Licensing, Llc | Virtual affordance display at virtual target |
IL248721A0 (en) * | 2016-11-03 | 2017-02-28 | Khoury Elias | An accessory for providing hands-free computer input |
WO2018093391A1 (en) * | 2016-11-21 | 2018-05-24 | Hewlett-Packard Development Company, L.P. | 3d immersive visualization of a radial array |
EP3552077B1 (en) * | 2016-12-06 | 2021-04-28 | Vuelosophy Inc. | Systems and methods for tracking motion and gesture of heads and eyes |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
CN107368184B (zh) | 2017-05-12 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 一种虚拟现实场景中的密码输入方法和装置 |
US10620710B2 (en) | 2017-06-15 | 2020-04-14 | Microsoft Technology Licensing, Llc | Displacement oriented interaction in computer-mediated reality |
US10422995B2 (en) | 2017-07-24 | 2019-09-24 | Mentor Acquisition One, Llc | See-through computer display systems with stray light management |
US10578869B2 (en) | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
US11409105B2 (en) | 2017-07-24 | 2022-08-09 | Mentor Acquisition One, Llc | See-through computer display systems |
US10969584B2 (en) | 2017-08-04 | 2021-04-06 | Mentor Acquisition One, Llc | Image expansion optic for head-worn computer |
US10740446B2 (en) * | 2017-08-24 | 2020-08-11 | International Business Machines Corporation | Methods and systems for remote sensing device control based on facial information |
US10664041B2 (en) | 2017-11-13 | 2020-05-26 | Inernational Business Machines Corporation | Implementing a customized interaction pattern for a device |
US11138301B1 (en) * | 2017-11-20 | 2021-10-05 | Snap Inc. | Eye scanner for user identification and security in an eyewear device |
US10739861B2 (en) * | 2018-01-10 | 2020-08-11 | Facebook Technologies, Llc | Long distance interaction with artificial reality objects using a near eye display interface |
US10564716B2 (en) * | 2018-02-12 | 2020-02-18 | Hong Kong Applied Science and Technology Research Institute Company Limited | 3D gazing point detection by binocular homography mapping |
JP7213899B2 (ja) * | 2018-06-27 | 2023-01-27 | センティエーアール インコーポレイテッド | 視線に基づく拡張現実環境のためのインターフェース |
CN111124236B (zh) | 2018-10-30 | 2023-04-28 | 斑马智行网络(香港)有限公司 | 一种数据处理方法、装置和机器可读介质 |
CN109410285B (zh) * | 2018-11-06 | 2021-06-08 | 北京七鑫易维信息技术有限公司 | 一种校准方法、装置、终端设备及存储介质 |
US10832392B2 (en) * | 2018-12-19 | 2020-11-10 | Siemens Healthcare Gmbh | Method, learning apparatus, and medical imaging apparatus for registration of images |
CN111488773B (zh) * | 2019-01-29 | 2021-06-11 | 广州市百果园信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
CN111857336B (zh) * | 2020-07-10 | 2022-03-25 | 歌尔科技有限公司 | 头戴式设备及其渲染方法、存储介质 |
CN113949936A (zh) * | 2020-07-17 | 2022-01-18 | 华为技术有限公司 | 一种电子设备的屏幕交互方法及装置 |
KR20220096877A (ko) * | 2020-12-31 | 2022-07-07 | 삼성전자주식회사 | 증강 현실 장치를 제어하는 방법 및 이를 수행하는 증강 현실 장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US6414681B1 (en) * | 1994-10-12 | 2002-07-02 | Canon Kabushiki Kaisha | Method and apparatus for stereo image display |
WO2009043927A1 (en) * | 2007-10-05 | 2009-04-09 | Universita' Degli Studi Di Roma 'la Sapienza' | Apparatus for acquiring and processing information relating to human eye movements |
US20090289956A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Virtual billboards |
US20100007582A1 (en) * | 2007-04-03 | 2010-01-14 | Sony Computer Entertainment America Inc. | Display viewing system and methods for optimizing display view based on active tracking |
CN101810003A (zh) * | 2007-07-27 | 2010-08-18 | 格斯图尔泰克股份有限公司 | 增强的基于相机的输入 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411266B1 (en) * | 1993-08-23 | 2002-06-25 | Francis J. Maguire, Jr. | Apparatus and method for providing images of real and virtual objects in a head mounted display |
US5689667A (en) * | 1995-06-06 | 1997-11-18 | Silicon Graphics, Inc. | Methods and system of controlling menus with radial and linear portions |
US6031519A (en) * | 1997-12-30 | 2000-02-29 | O'brien; Wayne P. | Holographic direct manipulation interface |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
CA2333678A1 (en) * | 1999-03-31 | 2000-10-05 | Virtual-Eye.Com, Inc. | Kinetic visual field apparatus and method |
US6753828B2 (en) | 2000-09-25 | 2004-06-22 | Siemens Corporated Research, Inc. | System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality |
US7095401B2 (en) * | 2000-11-02 | 2006-08-22 | Siemens Corporate Research, Inc. | System and method for gesture interface |
US7064742B2 (en) * | 2001-05-31 | 2006-06-20 | Siemens Corporate Research Inc | Input devices using infrared trackers |
US6965386B2 (en) | 2001-12-20 | 2005-11-15 | Siemens Corporate Research, Inc. | Method for three dimensional image reconstruction |
US7190331B2 (en) | 2002-06-06 | 2007-03-13 | Siemens Corporate Research, Inc. | System and method for measuring the registration accuracy of an augmented reality system |
US7321386B2 (en) | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
US7372456B2 (en) * | 2004-07-07 | 2008-05-13 | Smart Technologies Inc. | Method and apparatus for calibrating an interactive touch system |
KR100800859B1 (ko) * | 2004-08-27 | 2008-02-04 | 삼성전자주식회사 | Hmd 정보 단말기에서 키를 입력하는 장치 및 방법 |
KR100594117B1 (ko) * | 2004-09-20 | 2006-06-28 | 삼성전자주식회사 | Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법 |
US20060210111A1 (en) * | 2005-03-16 | 2006-09-21 | Dixon Cleveland | Systems and methods for eye-operated three-dimensional object location |
JP4569555B2 (ja) * | 2005-12-14 | 2010-10-27 | 日本ビクター株式会社 | 電子機器 |
US20070220108A1 (en) * | 2006-03-15 | 2007-09-20 | Whitaker Jerry M | Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
KR100820639B1 (ko) * | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법 |
US7682026B2 (en) * | 2006-08-22 | 2010-03-23 | Southwest Research Institute | Eye location and gaze detection system and method |
US7639101B2 (en) | 2006-11-17 | 2009-12-29 | Superconductor Technologies, Inc. | Low-loss tunable radio frequency filter |
US9311528B2 (en) * | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US20090189830A1 (en) * | 2008-01-23 | 2009-07-30 | Deering Michael F | Eye Mounted Displays |
US20100149073A1 (en) * | 2008-11-02 | 2010-06-17 | David Chaum | Near to Eye Display System and Appliance |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US9377857B2 (en) * | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
EP2427812A4 (en) * | 2009-05-08 | 2016-06-08 | Kopin Corp | REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) * | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531394B2 (en) * | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglasses transceiver |
US8531355B2 (en) * | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US9348141B2 (en) * | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US8576276B2 (en) * | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
TWI473497B (zh) * | 2011-05-18 | 2015-02-11 | Chip Goal Electronics Corp | 物件追蹤裝置與應用物件追蹤裝置之互動影像播放系統,及相關方法 |
-
2011
- 2011-12-14 US US13/325,361 patent/US20130154913A1/en not_active Abandoned
- 2011-12-15 CN CN201180067344.9A patent/CN103443742B/zh active Active
- 2011-12-15 WO PCT/US2011/065029 patent/WO2012082971A1/en active Application Filing
- 2011-12-15 KR KR1020137018504A patent/KR20130108643A/ko active Search and Examination
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6414681B1 (en) * | 1994-10-12 | 2002-07-02 | Canon Kabushiki Kaisha | Method and apparatus for stereo image display |
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US20100007582A1 (en) * | 2007-04-03 | 2010-01-14 | Sony Computer Entertainment America Inc. | Display viewing system and methods for optimizing display view based on active tracking |
CN101810003A (zh) * | 2007-07-27 | 2010-08-18 | 格斯图尔泰克股份有限公司 | 增强的基于相机的输入 |
WO2009043927A1 (en) * | 2007-10-05 | 2009-04-09 | Universita' Degli Studi Di Roma 'la Sapienza' | Apparatus for acquiring and processing information relating to human eye movements |
US20090289956A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Virtual billboards |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10203765B2 (en) | 2013-04-12 | 2019-02-12 | Usens, Inc. | Interactive input system and method |
WO2015109887A1 (zh) * | 2014-01-24 | 2015-07-30 | 北京奇虎科技有限公司 | 判断头戴式智能设备的操作及鉴权信息有效性的装置和方法 |
CN105659191A (zh) * | 2014-06-17 | 2016-06-08 | 深圳凌手科技有限公司 | 用于提供图形用户界面的系统和方法 |
CN105659191B (zh) * | 2014-06-17 | 2019-01-15 | 杭州凌感科技有限公司 | 用于提供图形用户界面的系统和方法 |
CN107077197A (zh) * | 2014-12-19 | 2017-08-18 | 惠普发展公司,有限责任合伙企业 | 3d可视化图 |
CN107077197B (zh) * | 2014-12-19 | 2020-09-01 | 惠普发展公司,有限责任合伙企业 | 3d可视化图 |
CN112215220A (zh) * | 2015-06-03 | 2021-01-12 | 托比股份公司 | 视线检测方法和装置 |
CN107463261A (zh) * | 2017-08-11 | 2017-12-12 | 北京铂石空间科技有限公司 | 立体交互系统及方法 |
CN108090935A (zh) * | 2017-12-19 | 2018-05-29 | 清华大学 | 混合相机系统及其时间标定方法及装置 |
CN110368026A (zh) * | 2018-04-13 | 2019-10-25 | 北京柏惠维康医疗机器人科技有限公司 | 一种手术辅助装置及系统 |
CN110368026B (zh) * | 2018-04-13 | 2021-03-12 | 北京柏惠维康医疗机器人科技有限公司 | 一种手术辅助装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20130154913A1 (en) | 2013-06-20 |
KR20130108643A (ko) | 2013-10-04 |
WO2012082971A1 (en) | 2012-06-21 |
CN103443742B (zh) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103443742B (zh) | 用于凝视和姿势接口的系统和方法 | |
US20220011098A1 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
Burdea et al. | Virtual reality technology | |
KR100721713B1 (ko) | 몰입형 활선작업 교육시스템 및 그 방법 | |
CA2825563C (en) | Virtual reality display system | |
US20200363867A1 (en) | Blink-based calibration of an optical see-through head-mounted display | |
Piumsomboon et al. | Superman vs giant: A study on spatial perception for a multi-scale mixed reality flying telepresence interface | |
CN106095089A (zh) | 一种获取感兴趣目标信息的方法 | |
CN103180893A (zh) | 用于提供三维用户界面的方法和系统 | |
WO2015006784A2 (en) | Planar waveguide apparatus with diffraction element(s) and system employing same | |
CN110275603A (zh) | 分布式人造现实系统、手镯设备和头戴式显示器 | |
KR20160096392A (ko) | 직관적인 상호작용 장치 및 방법 | |
CN110275602A (zh) | 人工现实系统和头戴式显示器 | |
Mazuryk et al. | History, applications, technology and future | |
Luo et al. | Development of a three-dimensional multimode visual immersive system with applications in telepresence | |
Gao et al. | Augmented immersive telemedicine through camera view manipulation controlled by head motions | |
Changyuan et al. | The line of sight to estimate method based on stereo vision | |
US20240095877A1 (en) | System and method for providing spatiotemporal visual guidance within 360-degree video | |
WO2021246134A1 (ja) | デバイス、制御方法及びプログラム | |
Po et al. | A two visual systems approach to understanding voice and gestural interaction | |
Alanko | Comparing Inside-out and Outside-in Tracking in Virtual Reality | |
Ausmeier | Mixed Reality Simulators | |
KR20200061700A (ko) | 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |