CN102163324B - 深度图像的去混叠 - Google Patents

深度图像的去混叠 Download PDF

Info

Publication number
CN102163324B
CN102163324B CN201110081374.7A CN201110081374A CN102163324B CN 102163324 B CN102163324 B CN 102163324B CN 201110081374 A CN201110081374 A CN 201110081374A CN 102163324 B CN102163324 B CN 102163324B
Authority
CN
China
Prior art keywords
depth
potential
depth value
depth image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110081374.7A
Other languages
English (en)
Other versions
CN102163324A (zh
Inventor
A·阿德莱尔
S·凯茨
G·吉勒博阿
J·塔迪夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102163324A publication Critical patent/CN102163324A/zh
Application granted granted Critical
Publication of CN102163324B publication Critical patent/CN102163324B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

提供了用于对深度图像去混叠的技术。深度图像可以基于所发射的和所接收的已调制光束之间的相位差来生成。该方法包括访问深度图像,该深度图像中具有关于其中的多个位置的深度值。每一位置具有一个或多个邻居位置。基于深度图像中关于位置的深度值和深度图像中的潜在混叠为多个位置中的每一个确定潜在深度值。基于每一位置与其相邻位置的潜在深度值之间的差异来确定成本函数。确定成本函数包括为相邻位置之间的潜在深度值的较大差异分配较高成本。该成本函数被充分最小化来为每一位置选择一个潜在深度值。

Description

深度图像的去混叠
技术领域
本发明涉及图像处理,尤其涉及深度图像的去混叠。
背景技术
深度相机系统获得关于物理空间内人或其他对象的位置的数据。该信息可被称为“深度信息”。深度信息可被输入到计算系统内的应用来用于各种各样的应用。可能有许多应用,如出于军事、娱乐、体育和医疗目的。例如,关于人的深度信息可被映射到三维(3-D)人类骨架模型并用于创建动画人物或化身。
为了确定深度信息,深度相机可以将光投影到相机的视野中的对象上。光反射离开对象并返回到相机,在相机处光被处理以确定深度信息。一种用于确定到对象的距离的技术基于光的往返飞行时间。某些技术调制该光并基于所发射和所接收的光之间的相位差来确定距离。
然而,由于所调制的光的周期性,对于某些飞行时间技术会发生混叠。发生混叠是因为从两个不同距离处的对象返回的光可能相对于所发射的光具有相同的相移。换言之,从某些对象反射的光的相移可能大于360度,该大于360度的相移无法与小于360度的相移区分。术语“深度窗”可用于指代可在没有遇到混叠效应的情况下检测到的深度。例如,对于给定相机,深度窗可以是2.5米。
一种去混叠技术是以若干不同频率来调制光。对于每一调制的频率,该测量指示对象可能在若干可能的距离之一处。距离之一是正确的,其他的则是混叠引起的。然而,通过对所有调制的频率分析可能距离集,可确定正确的距离。然而,该技术需要以若干不同的频率调制光。因此,需要额外的时间来收集数据。并且,电路需要更为复杂以便能够以不同频率来调制光。此外,即使是只有几个不同的已调制频率,也不能保证可去除混叠效应。
因此,需要进一步的改进以允许对深度相机的视野内对象的深度进行更准确的确定。需要用于在执行深度检测时去混叠的改进的技术。该技术应与现有的深度检测相机兼容。
发明内容
提供了用于对深度图像去混叠的技术。此处描述的技术提供了对深度相机的视野内的对象的深度的准确确定。此处描述的技术与现有的深度检测相机兼容。
一个实施例包括对深度图像去混叠的机器实现的方法。该方法包括访问深度图像,该深度图像中具有关于其中的多个位置的深度值。每一位置具有一个或多个邻居位置。基于深度图像中关于位置的深度值和深度图像中的潜在混叠为多个位置中的每一个确定潜在深度值。基于每一位置与其邻居位置的潜在深度值之间的差异来确定成本函数。确定成本函数包括为邻居位置之间的潜在深度值的较大差异分配较高成本。该成本函数被充分最小化来为每一位置选择一个潜在深度值。
一个实施例包括一种包括处理器和耦合到该处理器的计算机可读存储介质的装置。该计算机可读存储介质具有指令,该指令当在处理器上执行时使得该处理器访问包括多个位置的深度值的深度图像。每一位置具有一个或多个邻居位置。该指令还使得处理器基于深度图像中的深度值和深度图像中的潜在混叠为多个位置中的每一个确定潜在深度值。该指令还使得处理器基于每一位置与其一个或多个邻居位置的潜在深度值之间的差异来确定成本函数。为了确定成本函数,该处理器为一对邻居位置之间的潜在深度值的较大差异分配较高成本。该指令还使得处理器充分最小化该成本函数以便为每一位置选择一个潜在深度值。
一个实施例包括一种机器实现的方法,该方法包括以下步骤。生成包括多个像素的深度图像。每一像素具有一个或多个相邻像素且具有深度值。该深度图像具有深度窗。基于该深度窗以及深度图像中关于多个像素中的每一个像素的深度值为该像素确定潜在深度值。生成包括多层节点的图。每一像素由每一层中的一个节点来表示。给定像素的潜在深度值由不同层中的节点来表示。对应于相邻像素的节点由边连接。向每一条边分配成本。给定边的成本基于由该边连接的两个节点的潜在深度值之间的深度差。将该图缩减到充分最小化剩余边的成本的单一层。每一像素在该缩减的图中有一个节点。
提供本概要以便用简化形式介绍在下面的说明书中进一步描述的一些概念。本概述并不旨在标识出所要求保护的主题的关键特征或必要特征,也不旨在用于限定所要求保护的主题的范围。
附图说明
图1描绘了运动捕捉系统的示例实施例。
图2描绘了图1的运动捕捉系统的示例框图。
图3是对深度图像去混叠的过程的一个实施例的流程图。
图4是形成成本函数的过程的一个实施例的流程图。
图5A描绘深度图像中的像素的邻居关系的一个示例。
图5B描绘了可以在图4的过程中形成的示例图。
图5C描绘了分配给像素之间的边的成本的示例。
图5D示出了分配给每一对节点之间的边的成本。
图6是确定成本函数的过程的一个实施例的流程图。
图7是基于亮度来确定每像素成本的过程的一个实施例的流程图。
图8是基于边缘信息来修改两个相邻像素之间的成本的过程的一个实施例的流程图。
图9是描述基于飞行时间差来形成深度图像的过程的一个实施例的流程图。
图10是将原始深度图像划分成各段的过程的一个实施例的流程图。
图11描绘了可以在图1的运动捕捉系统中使用的计算环境的示例框图。
图12描绘了可以在图1的运动捕捉系统中使用的计算环境的另一示例框图。
具体实施方式
提供了用于对深度图像去混叠的技术。深度图像可以基于所发射的和所接收的已调制光束之间的相位差来生成。作为示例,所发射的光束可从深度相机射出,从一个或多个对象反射,并接收回到深度相机。混叠可以由所发射的光的调制频率来决定。
在某些实施例中,在运动捕捉系统中使用深度图像的去混叠。该运动捕捉系统可生成原始深度图像,其具体化了去混叠。去混叠的深度图像可由运动捕捉系统10用于各种目的。将理解,对深度图像去混叠不限于在运动捕捉系统中使用。图1描绘了其中个人与应用交互的运动捕捉系统10的示例。运动捕捉系统10包括显示器196、深度相机系统20、以及计算环境或装置12。深度相机系统20可包括图像相机组件22,其具有深度检测光发射器24、深度检测光接收器25和红-绿-蓝(RGB)相机28。在一实施例中,深度检测光发射器24发射准直光束。准直光束的示例可包括但不限于,红外(IR)和激光。在一实施例中,深度检测光组件是LED。从视野内的对象8反射离开的光由深度检测光接收器25检测。
也称为个人或玩家的用户站在深度相机系统20的视野6中。线2和4表示视野6的边界。在该示例中,深度相机系统20和计算环境12提供了其中显示器196上的化身197追随对象8(例如,用户)的移动的应用。例如,当用户举起手臂时,化身197可举起手臂。化身197在3-D虚拟世界中站在路198上。可定义笛卡尔世界坐标系,其包括沿着深度相机系统20的焦距(例如水平)延伸的z轴、垂直延伸的y轴、以及横向且水平延伸的x轴。注意,附图的透视被修改成简化表示,显示器196在y轴方向上垂直延伸,z轴垂直于y轴和x轴且与用户所站立的地平面平行地从深度相机系统20延伸出来。
一般而言,运动捕捉系统10用于识别、分析和/或跟踪对象。计算环境12可包括计算机、游戏系统或控制台等,以及执行应用的硬件组件和/或软件组件。
深度相机系统20可以包括相机,相机用于在视觉上监视诸如用户等的一个或多个对象8,从而可以捕捉、分析并跟踪用户所执行的姿势和/或移动,来执行应用中的一个或多个控制或动作,如使化身或屏幕上人物活动起来或选择用户界面(UI)中的一菜单项。
运动捕捉系统10可以连接到诸如显示器196等可向用户提供视觉和音频输出的视听设备,如电视机、监视器、高清电视机(HDTV)等,或甚至是墙或其他表面上的投影。音频输出也可经由单独的设备来提供。为驱动显示器,计算环境12可包括提供与应用相关联的视听信号的诸如图形卡等视频适配器,和/或诸如声卡等音频适配器。显示器196可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境12。
可使用深度相机系统20来跟踪对象8,使得用户的姿势和/或移动被捕捉并用于使化身或屏幕上人物活动起来,和/或被解释为对计算机环境12所执行的应用的输入控制。
对象8的某些移动可被解释为可以和除控制化身之外的动作相对应的控制。例如,在一实施例中,玩家可使用移动来结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。玩家可使用移动来从主用户界面选择游戏或其他应用,或以其他方式导航选项菜单。由此,对象8的全范围运动可以用任何合适的方式来获得、使用并分析以与应用进行交互。
个人可在与应用交互时抓握诸如道具等物体。在此类实施例中,个人和物体的移动可用于控制应用。例如,可以跟踪并利用玩家手持球拍的运动来控制模拟网球游戏的应用中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持诸如塑料剑等玩具武器的运动来控制提供海盗船的应用的虚拟世界中对应的武器。
运动捕捉系统10还可用于将目标移动解释为游戏和出于娱乐和休闲目的的其他应用范围之外的操作系统和/或应用控制命令。例如,操作系统和/或应用的实际上任何可控方面可由对象8的移动来控制。
图2描绘了图1a的运动捕捉系统10的示例框图。深度相机系统20可被配置以捕捉具有深度信息的视频,深度信息包括可包括深度值的深度图像。此处描述了用于对深度图像去混叠的技术。深度相机系统20可将深度信息组织为“Z层”,或可与从深度相机系统20沿其视线延伸的Z轴垂直的层。
深度相机系统20可包括图像相机组件22,如捕捉物理空间中的场景的深度图像的深度相机。深度图像可包括所捕捉的场景的二维(2-D)像素区域,其中该2-D像素区域中的每一像素具有代表距离图像相机组件22的线性距离(径向距离)的或由像素观察的3D位置的Z分量(垂直距离)的相关联的深度值。
图像相机组件22可包括深度检测光发射器24和深度检测光接收器25来捕捉深度信息。例如,深度相机系统20可使用深度检测光发射器24将光发射到物理空间上并使用深度检测光接收器25来检测从物理空间内一个或多个对象的表面所反射的光。
在某些实施例中,深度检测光发射器24发送脉冲式红外光,从而可以测量出射光脉冲与相应的入射光脉冲之间的时间并将其用于确定从深度相机系统20到物理空间中的对象上的特定位置的物理距离。光可以按所需频率来调制。可将传出的已调制光波的相位与传入光波的相位进行比较来确定相位差。然后可以使用该相位差来确定从深度相机系统20到目标或对象上的特定位置的物理距离。
深度相机系统20可具有深度窗,该深度窗是由用于确定深度的光的调制频率来决定的。例如,对于给定相机,深度窗可以是2.5米。在某些实施例中,混叠是由深度窗决定的。例如,具有实际深度“x+n×深度窗”的不同对象可能都被确定为在距离x处。在该示例中,“n”可以是任何正整数。
图像相机组件22还可生成亮度信息(例如,亮度图像),该亮度信息可用于帮助对深度图像进行去混叠。在一个实施例中,基于飞行时间信息来生成深度图像的同一过程也生成亮度信息。
红-绿-蓝(RGB)相机28可用于捕捉可见光图像。深度相机系统20还可包括话筒30,话筒30包括例如接收声波并将其转换成电信号的换能器或传感器。另外,话筒30可用于接收由个人提供的诸如声音等音频信号,来控制由计算环境12运行的应用。音频信号可包括诸如说出的单词、口哨、叫声和其他话语等个人的口声,以及诸如拍手或跺脚等非口声。
深度相机系统20可包括与图像相机组件22进行通信的处理器32。处理器32可包括可执行包括例如用于接收深度图像和对深度图像去混叠的指令等指令的标准化处理器、专用处理器、微处理器等等。
深度相机系统20还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、以及存储RGB相机所捕捉的图像或图像帧、或任何其他合适的信息、图像等等。根据一示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的有形计算机可读存储组件。存储器组件34可以是经由总线21与图像捕捉组件22和处理器32进行通信的单独组件。根据另一实施方式,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
深度相机系统20可以经由通信链路36与计算环境12进行通信。通信链路36可以是有线和/或无线连接。根据一实施例,计算环境12可经由通信链路36向深度相机系统20提供时钟信号,该信号指示何时从位于深度相机系统20的视野中的物理空间捕捉图像数据。
此外,深度相机系统20可通过通信链路36向计算环境12提供深度信息和由RGB相机28捕捉的图像。计算环境12然后可使用深度信息和所捕捉的图像来控制应用。例如,如图2所示,计算环境12可包括诸如姿势过滤器集合等姿势库190,每一姿势过滤器具有关于可(在用户移动时)执行的姿势的信息。例如,可为各种手姿势提供姿势过滤器,如手的挥击或投掷。通过将检测到的运动与每一过滤器进行比较,可标识个人执行的指定姿势或移动。也可确定执行移动的范围。
计算环境还可包括用于执行存储在存储器194中的指令以向显示设备196提供音频-视频输出信号并实现其他功能的处理器192。
图3是对深度图像去混叠的过程300的一个实施例的流程图。过程300可在诸如图1的示例系统10等运动捕捉系统10中使用。例如,过程300可由深度相机系统20或计算环境12来执行。在步骤302,访问深度图像。该深度图像包括不同位置的深度值。每一位置具有一个或多个邻居位置。在一个实施例中,该深度图像包括多个像素,每一像素与一个或多个相邻像素是邻居。由此,深度图像中的位置可对应于像素。每一像素具有由例如深度相机20确定的深度值。
图5A描绘了深度图像中的像素的邻居关系的一个示例。在该示例中,有9个像素,每一像素具有最多4个邻居,如连接像素的线所指示的。在该示例中,深度图像值被组织为像素矩阵。为便于说明,仅示出了矩阵的3x3部分。注意,并不要求深度图像被组织为矩阵。在该示例中,像素可具有在上方、下方、左边和右边的邻居。在其他实施例中,像素可具有对角邻居。例如,像素5可以是像素1、像素3、像素7和像素9的邻居。每一像素具有如由标签指示的深度值,诸如对像素1的深度值DV P1。
注意,并不要求深度图像中的每一位置都对应于一像素。例如,深度图像中的位置可对应于一组像素。在一个实施例中,位置是具有相似深度值的一组邻接的像素。
深度图像可由深度相机20来生成。由于生成深度图像的方式,深度图像可具有混叠。在一个实施例中,深度图像是基于飞行时间信息来生成的。混叠可以是由于深度相机20的有限“深度窗”引起的。换言之,由于深度是基于所发射的和所接收的光之间的相位差来确定的,用于确定深度的光的调制频率可导致特定的深度窗。在一个实施例中,调制频率或深度窗是对过程300的输入。
在步骤304,基于深度图像中的可能混叠为原始深度图像中的每一位置确定潜在深度值。例如,如果位置具有深度值2.0米,且深度窗是2.5米,则潜在深度值可包括集合:{2.0,4.5,7.0,9.5}米。注意,原始深度图像中的深度值是潜在深度值之一。
在步骤306,基于每一位置与其一个或多个邻居位置的潜在深度值之间的差异来形成成本函数。确定成本函数可包括为一对邻居位置之间的潜在深度值的较大差异分配较高成本。以下描述进一步的详细内容。
在步骤308,充分最小化该成本函数来为每一位置选择一个潜在深度值。为每一位置的该所选深度值用于形成去混叠的图像。例如,值4.5m可从集合:{2.0,4.5,7.0,9.5}中选出作为给定像素的最终深度值。在某些实施例中,该成本函数可被称为“能量函数”。充分最小化成本函数可包括最小化该能量函数。在一个实施例中,最小化成本函数平滑了邻居位置之间的差异。
图4是形成成本函数的过程400的一个实施例的流程图。过程400是过程300的步骤306的一实施例。出于讨论的目的,将使用其中深度图像中的位置对应于深度图像中的像素的示例。注意,不要求位置对应于单个像素。在步骤402,构造包括多层节点的图。在该示例中,每一像素由每一层中的一个节点来表示。给定像素的潜在深度值由不同层中的节点来表示。
图5B描绘了可在步骤402中形成的示例图。注意,图5B的图使用了图5A的结构作为起始点。由此,该图用于来自图5A的相同的9个像素。每一像素由该图的每一层中的一个节点来表示。该示例图具有三层。每一层对应于不同的潜在深度值。该图的底层中的每一节点对应于来自原始深度图像的一个像素的深度值。例如,一个节点具有来自原始图像的像素1的深度值,另一节点具有来自原始图像的像素2的深度值,又一节点具有来自原始图像的像素3的深度值,以此类推。该图的底层等价于图5A的深度图像。注意,底层的原始深度值被称为“潜在”深度值,因为由于混叠,某些原始深度值将被改变来对深度图像去混叠。
图中的两个较高层基于每一像素的其他潜在深度值来形成。例如,第二层可通过向较低层处的每一深度值增加2.5m(假定深度窗是2.5m)来形成。第三(较高)层可通过向较低层处的每一深度值增加5.0m来形成。由此,像素1可具有从最低到最高层的深度值2.0m、4.5m和7.0m。注意,不要求给定像素存在于每一层。在某些实施例中,该图是马尔可夫随机场(MRF)图。并且,某些层可具有低于原始值的深度值。
在步骤404,基于由边连接的两个节点的潜在深度值之间的深度差来向该图的各边分配成本。图5C描绘了分配给像素1和像素2之间的边的成本的示例。实线指示图中的边。虚线示出表示同一像素的不同节点。由此,在该示例中,对应于给定像素的每一节点具有到其邻居像素的每一节点的边。
图5C示出了在最低层处,像素1具有值2.0m,且像素2具有值0.3m。这些值可以来自原始深度图像。像素1在第二和第三层分别被分配到4.5m和7.0m的值。这些值基于深度窗的大小。像素2在第二和第三层分别被分配到2.8m和5.3m的值。这些值也基于深度窗的大小。
边被分配到一成本,该成本基于每一节点的潜在深度值的差异。例如,连接最低层处的节点的边被标记为1.7,这对应于在该层的像素1和像素2的潜在深度值之间的差异。在某些实施例中,该成本随着邻居节点之间的潜在深度值的差异增大而增加。然而,该成本不需要如本示例中那样等于潜在深度值的差异。
再次返回到图5B的图,像素1也是像素4的邻居。同样,像素2是像素3和5的邻居。因此,为到这些邻居节点的边确定额外的成本。可处理对应于所有像素的节点,使得所有边被分配到成本。注意,图5B中并未描绘所有连接节点的边,以便不使该图模糊不清。
在步骤406,基于最小化剩余边的成本来将该图缩减到单层。每一像素在该缩减的图中有一个节点。图5D描绘了其中图5B的图被缩减到对应于每一像素的单个节点的结果。每一节点的深度值来自不同层之一。例如,像素2由在图5B的图的第二层的潜在深度值来表示。图5D的结构示出每一对节点之间的边被分配到一成本。这是基于最终深度值的成本。例如,像素1和像素2之间的边的成本基于像素1和像素2的最终深度值之间的差异。在一个实施例中,图5D的结构基于最小化所有边成本的和来生成。例如,图5D中的所有成本的和可以是可从将图5B的图缩减到单层获得的最小值。然而,注意,可使用其他因素来缩减该图。如将在下文讨论的,该图也可基于分配给各个节点的成本来缩减。在某些实施例中,步骤406可通过MRF能量最小化方法来实现。
图6是确定成本函数的过程600的一个实施例的流程图。过程600是过程300的步骤306的一实施例。在过程600中,所处理的位置是像素。如所提到的,一种变型是从邻接像素的组来形成位置。
在步骤602,为每一像素确定每像素成本。该每像素成本是分配给像素的成本。在一个实施例中,每像素成本是基于像素本身的特性(如其亮度)的成本。在一个实施例中,像素基于其亮度而被分配每像素成本。基于像素的亮度来分配每像素成本的进一步细节在下文中描述。
每像素成本可由等式1来表达。
等式1:dp(lp)
在等式1中,像素数为“p”。每一像素可取决于例如它在图中的哪一层中而被实际上分配不同的值。参考图5B,每像素成本可被认为是向图中的节点分配成本。因此,每像素成本也可被称为每节点成本。例如,像素1可具有在最高层的成本“0”,在中间层的成本“-1”,以及在最低层的成本“-1”。由此,可对深度图像中的每一位置(例如,像素)的每一潜在深度值确定个别成本。在等式1中,项“lp”指示每像素成本是由图中的层来决定的。
在步骤604,为每一对邻居确定相邻像素之间的成本。在一个实施例中,该成本基于第一位置(例如,像素)的潜在深度值与邻居位置的潜在深度值之间的深度差。这已经相对于图5C的示例描述了。
两个邻居像素之间的成本可由等式2来表达。
等式2:vp,q(lp,lq,)=|lp-lq|
在等式2中,“p”和“q”指一对邻居节点。例如,图5C描绘了9对邻居节点。像素1的三个节点可对应于“lp”,而像素2的三个节点可对应于“lq”。函数vp,q(lp,lq,)可被称为平滑度函数,其是两个邻居像素之间的成本。例如,图5C中的图的边上的成本是一对邻居像素之间的成本。如等式2中所描绘的,该平滑度函数可以是两个邻居像素的潜在深度值之间的差异的绝对值。该平滑度函数可具有许多其他形式。
在一个实施例中,该成本基于惩罚一对邻居像素之间的大的潜在深度值差异。例如,其真实深度可能大约相同的一对邻居像素可对它们之间的某些成本作出惩罚。参考图5C,作为一个示例,可惩罚像素1和像素2之间的某些边的成本。惩罚邻居像素之间的某些成本的进一步细节在下文中描述。
在步骤606,从每像素成本和邻居像素之间的成本的和形成函数。等式3示出了该成本函数的一个实施例。
等式3:E=Ed+λEs
在等式1中,Ed是数据项,Es是平滑度项,λ是缩放因子。等式4示出了数据项的一个示例。等式5描绘了平滑度项的一个示例。
等式4:Ed=∑pdp(lp)
等式5:Es=∑{p,q}∈Nvp,q(lp,lq,)
注意,等式4是通过对所有像素的每像素成本求和来形成的。等式5是通过对“N”的邻居像素之间的成本求和来形成的,N是所有邻居对的集合。以上等式中的成本函数可被认为是能量函数。在某些实施例中,最小化该成本函数(步骤308,过程300)的步骤可被认为是能量最小化问题。
在某些实施例中,使用额外的提示来确定成本函数。其一个示例是使用亮度信息。在一个实施例中,使用像素的亮度来调整每像素值。注意,像素的亮度可对应于其真实深度。例如,可以预期较亮的像素是较接近的,而较暗的像素则是较远的。因此,在成本函数中可使用亮度。作为具体示例,如果一像素被确定为是暗的,则可向图中其像素具有较大潜在深度的节点分配较低成本。
图7是基于亮度来确定每像素成本的过程700的一个实施例的流程图。过程700是过程600的步骤602的一实施例。过程700描述了处理一个像素,且可以对其他像素重复。在步骤702,访问像素的亮度值。在一个实施例中,亮度值由生成深度图像的同一过程生成。例如,亮度图像从也可在基于飞行时间生成深度图像的过程中使用的光检测器收集的数据中生成。因此,来自亮度图像的亮度值可以与深度图像相关来确定该深度图像中的像素的亮度值。
在步骤704,将像素的亮度值与阈值进行比较。如果亮度值小于阈值,则在步骤706减小对应于远的深度的每像素成本。对应于其他深度的每像素成本可保留为默认值。例如,可设置阈值,使得期望像素相对远离深度相机。因此,相对于相对小的深度值,应偏向相对远的深度值。作为一个示例,如果潜在深度值大于4.5m,则每像素成本可被设为-1。如果潜在深度值小于4.5m,则每像素成本可被设为0。在一个实施例中,步骤704包括向给定像素的每一节点分配成本。例如,图5B的图中像素1的所有节点可被分配一成本。在一个实施例中,步骤704包括对给定像素确定等式1的值。
如果亮度值大于阈值,则在步骤708减小附近像素的每像素成本。对应于其他深度的每像素成本可保留为默认值。例如,如果潜在深度值小于4.5m,则每像素成本可被设为-1。如果潜在深度值大于4.5m,则每像素成本可被设为0。过程700可具有许多变型。例如,可以不执行减小附近像素的成本的步骤708。或者,可以不执行减小远像素的成本的步骤706。每像素成本可基于诸如亮、中和暗像素等其他类别来分配。注意,可使用除了亮度值以外的其他因素来调整每像素成本。回头参考等式1和2,可以看到,减小每像素成本的像素效应是在最终的解中偏向具有较低成本的节点。
在成本函数中使用附加提示的另一示例是使用边缘信息。在一个实施例中,边缘信息来自亮度图像中的边缘。如果两个邻居像素不靠近边缘,则这意味着它们应具有相似的深度值。在一个实施例中,使用边缘信息来修改两个邻居像素之间的成本。图8是基于边缘信息来修改两个邻居像素之间的成本的过程800的一个实施例的流程图。过程800是过程600的步骤604的一实施例。过程800描述了处理一个像素,且可以对其他像素重复。
在步骤802,访问像素的边缘信息。在一个实施例中,亮度值由生成深度图像的同一过程生成。例如,亮度图像从也可在基于飞行时间生成深度图像的过程中使用的光检测器收集的数据中生成。因此,来自亮度图像的亮度值可以与深度图像相关来确定该深度图像中的像素的亮度值。
在步骤804,检查该边缘信息来确定在像素附近是否存在强边缘。如果在像素附近存在强边缘,则可忽略深度值的大差异(步骤806)。例如,如果像素与其邻居之间的成本很高,则可减小该成本。
如果没有强边缘,则在步骤808对像素与其邻居像素之间的成本进行惩罚。以下等式6示出了对以上等式2的一种可能的修改,以便在像素不接近强边缘时对两个像素之间的成本应用惩罚。
等式6:
Figure BSA00000464559400131
其中0<b<a
在等式6中,rp、rq是像素的亮度值,a、b是常量,其中a>b以便为不具有相似亮度值的节点提供较低成本。如果像素与其邻居之间的亮度差大于阈值(亮度差由|rp-rq|给出),则对给定像素对(p,q)的成本乘以值“b”。如果像素与其邻居之间的亮度差小于或等于阈值,则对给定像素对(p,q)的成本乘以值“a”。值“a”可以大于值“b”以便在像素不接近强边缘时增加成本。
在一个实施例中,在过程300中处理的深度图像是基于飞行时间差来形成的。图9是描述基于飞行时间差来形成深度图像的过程900的一个实施例的流程图。过程900可由深度相机20来执行。在步骤902,以某一频率调制光。该频率将影响相机的深度窗。因此,可选择该频率来实现所需深度窗。调制可包括但不限于,调幅、调频和调相。
在步骤904,将已调制光从相机20发射到相机20的视野中的对象8中。例如,相机20中的深度检测光发射器24发射光。在步骤906,接收从对象8反射的光。例如,相机20中的检测光接收器25接收反射的光。在某些实施例中,光由CCD或CMOS器件检测,该器件可包括多个像素。
在步骤908,基于所发射和所接收的光之间的相位差来确定深度图像。在某些实施例中,为多个像素确定深度值。例如,CCD和CMOS器件可具有像素阵列。因此,可生成诸如图5A中的示例所表示的深度图像。
在一个实施例中,原始深度图像在去混叠之前被划分成段。段可包括具有大致相同的深度值的邻接像素。图10是将原始深度图像划分成各段的过程1000的一个实施例的流程图。过程1000是过程300的步骤302的一实施例。在步骤1002,访问原始深度图像。例如,访问由过程900创建的深度图像。
在步骤1004,将该深度图像划分成段。在一个实施例中,每一段包括这样的像素:对这些像素,在每一像素与其邻居之间没有大深度差。注意,具有最小和最高深度值的像素之间的差在它们不是邻居像素的情况下可能很大。参考其中处理“位置”的过程300,每一段可对应于一位置。在一个实施例中,可执行泛色填充算法来通过向组中的所有像素应用相同的偏置值来改变一组邻接像素的深度值。
图11描绘了可以在图1的运动捕捉系统中使用的计算环境的示例框图。该计算环境可用于对深度图像去混叠。上面描述的诸如计算环境12等计算环境可以是诸如游戏控制台等多媒体控制台100。多媒体控制台100包括具有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据并因此减少存储器访问周期数,由此改进处理速度和吞吐量。CPU 101可以设置成具有一个以上的核,以及由此的附加的一级和二级高速缓存102和104。诸如闪存ROM等存储器106可存储在多媒体控制台100通电时在引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速、高分辨率图形处理的视频处理流水线。数据经由总线从图形处理单元108输送到视频编码器/视频编解码器114。视频处理流水线将数据输出到A/V(音频/视频)端口140以传输到电视机或其他显示器。存储器控制器110连接到GPU 108以便于处理器访问各种类型的存储器112,诸如RAM(随机存取存储器)。
多媒体控制台100包括可在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、和外置存储器设备146(例如闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口(NW IF)124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中任何一种。
提供系统存储器143来存储在引导进程期间加载的应用数据。提供媒体驱动器144且其可包括DVD/CD驱动器、硬盘驱动器、或其它可移动媒体驱动器。媒体驱动器144对于多媒体控制台100可以内置或外置的。应用数据可经由媒体驱动器144访问,以由多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其它高速连接等总线连接到I/O控制器120。
系统管理控制器122提供涉及确保多媒体控制台100的可用性的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的对应的音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152以及任何LED(发光二极管)或其它指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
CPU 101、GPU 108、存储器控制器110、和多媒体控制台100内的各个其它组件经由一条或多条总线互连,包括串行和并行总线、存储器总线、外围总线、和使用各种总线架构中任一种的处理器或局部总线。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中并在CPU 101上执行。应用可呈现在导航到多媒体控制台100上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中包含的应用和/或其它媒体可从媒体驱动器144启动或播放,以向多媒体控制台100提供附加功能。
多媒体控制台100可通过将该系统连接到电视机或其它显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,随着通过网络接口124或无线适配器148可用的宽带连接的集成,多媒体控制台100还可作为较大网络社区中的参与者来操作。
当多媒体控制台100通电时,保留指定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可以包括存储器保留(例如,16MB)、CPU和GPU周期(例如,5%)、网络带宽(例如,8kbs)等。因为这些资源是在系统引导时保留的,所以所保留的资源对应用而言是不存在的。
具体地,存储器保留可以是足够大以包含启动内核、并发系统应用和驱动程序。CPU保留可为恒定,使得若所保留的CPU使用不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来显示由系统应用生成的轻量消息(例如,弹出窗口),以调度代码来将弹出窗口呈现为覆盖图。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图可与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率,也就不会引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,就执行并发系统应用来提供系统功能。系统功能被封装在一组在上述所保留的系统资源中执行的系统应用中。操作系统内核标识是系统应用线程而非游戏应用线程的线程。系统应用可被调度为在预定时间并以预定时间间隔在CPU 101上运行,以为应用提供一致的系统资源视图。进行调度是为了把由在控制台上运行的游戏应用所引起的高速缓存分裂最小化。
当并发系统应用需要音频时,则由于时间敏感性而异步调度音频处理给游戏应用。多媒体控制台应用管理器(如下所述)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是所保留的资源,但却在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器可控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维持有关焦点切换的状态信息。控制台100可从包括相机28的图2的深度相机系统20接收附加输入。
图12描绘了可以在图1的运动捕捉系统中使用的计算环境的另一示例框图。该计算环境可用于对深度图像解混叠。计算环境220包括计算机241,计算机241通常包括各种有形计算机可读存储介质。这可以是能由计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。基本输入/输出系统224(BIOS)包括如在启动时帮助在计算机241内的元件之间传输信息的基本例程,它通常储存在ROM 223中。RAM 260通常包含处理单元259可以立即访问和/或目前正在操作的数据和/或程序模块。图形接口231与GPU 229进行通信。作为示例而非局限,图12描绘了操作系统225、应用程序226、其它程序模块227和程序数据228。
计算机241还可包括其他可移动/不可移动、易失性/非易失性计算机存储介质,如从不可移动、非易失性磁介质读取或对其写入的硬盘驱动器238,从可移动、非易失性磁盘254读取或对其写入的磁盘驱动器239,以及从诸如CDROM或其他光介质等可移动、非易失性光盘253读取或对其写入的光盘驱动器240。可以在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性有形计算机可读存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器238通常由诸如接口234等不可移动存储器接口连接至系统总线221,磁盘驱动器239和光盘驱动器240通常由诸如接口235等可移动存储器接口连接至系统总线221。
以上讨论并在图12中描绘的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。例如,硬盘驱动器238被描绘为存储操作系统258、应用程序257、其它程序模块256和程序数据255。注意,这些组件可以与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可以与它们不同。操作系统258、应用程序257、其他程序模块256和程序数据255在这里被标注了不同的标号是为了说明至少它们是不同的副本。用户可以通过输入设备,诸如键盘251和定点设备252(通常被称为鼠标、跟踪球或触摸垫),向计算机241输入命令和信息。其他输入设备(未示出)可以包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等等。这些和其他输入设备通常由耦合至系统总线的用户输入接口236连接至处理单元259,但也可以由其他接口和总线结构,诸如并行端口、游戏端口或通用串行总线(USB),来连接。包括相机28的图2的深度相机系统20可为控制台100定义附加输入设备。监视器242或其他类型的显示器也经由接口,诸如视频接口232连接至系统总线221。除监视器以外,计算机也可以包括其它外围输出设备,诸如扬声器244和打印机243,它们可以通过输出外围接口233连接。
计算机241可使用至一个或多个远程计算机,诸如远程计算机246的逻辑连接在网络化环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见的网络节点,且通常包括许多或所有以上相对于计算机241描述的元件,但是在图12中仅示出了存储器存储设备247。逻辑连接包括局域网(LAN)245和广域网(WAN)249,但也可以包括其它网络。这样的联网环境在办公室、企业范围计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接至LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他装置。调制解调器250可以是内置或外置的,它可以经由用户输入接口236或其他适当的机制连接至系统总线221。在网络化环境中,相对于计算机241所描述的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图12描绘了远程应用程序248驻留在存储器设备247上。可以理解,所示的网络连接是示例性的,且可以使用在计算机之间建立通信链路的其他手段。
在此所述技术的上述详细描述是为了说明和描述而提供的。并非旨在穷举本技术或将其限于所公开的精确形式。鉴于上述教导,许多修改和变型都是可能的。选择上述实施例来最好地解释本技术的原理及其实践应用,从而使本领域其他人能够在各种实施例中并用各种适于所构想的特定用途的修改一起最好地利用本技术。本技术的范围旨在由所附权利要求书来定义。

Claims (11)

1.一种对深度图像去混叠的机器实现的方法,包括:
访问深度图像,所述深度图像包括所述深度图像中的多个位置的每一个位置的深度值,每一位置具有一个或多个邻居位置(302);
基于所述深度图像中的位置的深度值和所述深度图像中的潜在混叠为所述多个位置中的每一个位置确定多个潜在深度值(304);
基于每一位置与其一个或多个邻居位置的潜在深度值之间的差异来确定成本函数,确定成本函数包括为一对邻居位置之间的潜在深度值的较大差异分配较高成本(306),其中确定成本函数包括:确定一对邻居位置是否在对应于所述深度图像的场景中可能具有大致相同的深度,以及对被确定为可能具有大致相同的深度的邻居位置对之间的潜在深度值的大差异进行惩罚;并且,确定一对邻居位置是否在对应于所述深度图像的场景中可能具有大致相同的深度包括:
访问对应于所述深度图像的场景的亮度图像;
检测所述亮度图像中的边缘;以及
基于所检测的边缘来确定所述一对邻居位置是否可能在大致相同的深度处,所述对被确定为可能具有大致相同的深度的邻居位置对之间的潜在深度值的大差异进行惩罚包括增加不接近强边缘的邻居位置对的成本,还包括忽略接近强边缘的像素的大深度差;以及
充分最小化所述成本函数来为每一位置从为该位置确定的多个潜在深度值中选择一个潜在深度值(308)。
2.如权利要求1所述的机器实现的方法,其特征在于,所述确定成本函数包括:
对所述深度图像中的第一位置的每一潜在深度值,为每一邻居位置的每一潜在深度值确定成本,所述成本基于所述第一位置的潜在深度值与所述邻居位置的潜在深度值之间的深度差;以及
对所述深度图像中的每一位置重复为每一邻居位置的每一潜在深度值确定成本。
3.如权利要求2所述的机器实现的方法,其特征在于,所述确定成本函数还包括:
为所述深度图像中的每一位置的每一潜在深度值确定个别成本。
4.如权利要求3所述的机器实现的方法,其特征在于,所述为所述深度图像中的每一位置的每一潜在深度值确定个别成本包括基于所述深度图像中的第一位置处的亮度值向所述第一位置的每一潜在深度值分配个别成本。
5.如权利要求1所述的机器实现的方法,其特征在于,访问包括多个位置的深度值的深度图像包括:
访问所述深度图像中的多个像素的深度值;以及
将所述深度图像划分成多个段,每一段包括具有带有大致相同的深度值的邻居像素的多个像素,每一段是所述多个位置中的一个位置。
6.如权利要求1所述的机器实现的方法,其特征在于,所述多个位置中的每一个对应于所述深度图像中的一像素。
7.一种对深度图像去混叠的系统,包括:
用于访问深度图像的装置,所述深度图像包括所述深度图像中的多个位置的每一个位置的深度值,每一位置具有一个或多个邻居位置;
用于基于所述深度图像中的位置的深度值和所述深度图像中的潜在混叠为所述多个位置中的每一个位置确定多个潜在深度值的装置;
用于基于每一位置与其一个或多个邻居位置的潜在深度值之间的差异来确定成本函数的装置,该用于确定成本函数的装置包括用于为一对邻居位置之间的潜在深度值的较大差异分配较高成本的装置,其中用于确定成本函数的装置包括:用于确定一对邻居位置是否在对应于所述深度图像的场景中可能具有大致相同的深度的装置,以及用于对被确定为可能具有大致相同的深度的邻居位置对之间的潜在深度值的大差异进行惩罚的装置;并且,用于确定一对邻居位置是否在对应于所述深度图像的场景中可能具有大致相同的深度的装置包括:
用于访问对应于所述深度图像的场景的亮度图像的装置;
用于检测所述亮度图像中的边缘的装置;以及
用于基于所检测的边缘来确定所述一对邻居位置是否可能在大致相同的深度处的装置,用于对被确定为可能具有大致相同的深度的邻居位置对之间的潜在深度值的大差异进行惩罚的装置包括用于增加不接近强边缘的邻居位置对的成本的装置,还包括用于忽略接近强边缘的像素的大深度差的装置;以及
用于充分最小化所述成本函数来为每一位置从为该位置确定的多个潜在深度值中选择一个潜在深度值的装置。
8.如权利要求7所述的系统,其特征在于,用于确定成本函数的装置包括:
用于对所述深度图像中的第一位置的每一潜在深度值为每一邻居位置的每一潜在深度值确定成本的装置,所述成本基于所述第一位置的潜在深度值与所述邻居位置的潜在深度值之间的深度差;以及
用于对所述深度图像中的每一位置为每一邻居位置的每一潜在深度值确定成本的装置。
9.如权利要求8所述的系统,其特征在于,用于确定成本函数的装置还包括:
用于为所述深度图像中的每一位置的每一潜在深度值确定个别成本的装置。
10.如权利要求9所述的系统,其特征在于,用于为所述深度图像中的每一位置的每一潜在深度值确定个别成本的装置包括用于基于所述深度图像中的第一位置处的亮度值向所述第一位置的每一潜在深度值分配个别成本的装置。
11.如权利要求8所述的系统,其特征在于,用于访问包括多个位置的深度值的深度图像的装置包括:
用于访问所述深度图像中的多个像素的深度值的装置;以及
用于将所述深度图像划分成多个段的装置,每一段包括具有带有大致相同的深度值的邻居像素的多个像素,每一段是所述多个位置中的一个位置。
CN201110081374.7A 2010-03-26 2011-03-24 深度图像的去混叠 Expired - Fee Related CN102163324B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/732,918 US8514269B2 (en) 2010-03-26 2010-03-26 De-aliasing depth images
US12/732,918 2010-03-26

Publications (2)

Publication Number Publication Date
CN102163324A CN102163324A (zh) 2011-08-24
CN102163324B true CN102163324B (zh) 2014-07-02

Family

ID=44464536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110081374.7A Expired - Fee Related CN102163324B (zh) 2010-03-26 2011-03-24 深度图像的去混叠

Country Status (2)

Country Link
US (1) US8514269B2 (zh)
CN (1) CN102163324B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666854B1 (ko) * 2010-06-14 2016-10-17 삼성전자주식회사 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8754891B2 (en) * 2010-08-18 2014-06-17 Industrial Technology Research Institute Method for image processing and an apparatus thereof
US20120127172A1 (en) * 2010-08-18 2012-05-24 Industrial Technology Research Institute Systems and methods for image refinement using circuit model optimization
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
KR20120079646A (ko) * 2011-01-05 2012-07-13 삼성전자주식회사 깊이 센서, 상기 깊이 센서의 결점 수정 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
US20120206442A1 (en) * 2011-02-14 2012-08-16 Dong Tian Method for Generating Virtual Images of Scenes Using Trellis Structures
US8994722B2 (en) * 2011-02-14 2015-03-31 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing depth images of scenes using trellis structures
US20120206440A1 (en) * 2011-02-14 2012-08-16 Dong Tian Method for Generating Virtual Images of Scenes Using Trellis Structures
JP5927570B2 (ja) * 2011-04-22 2016-06-01 パナソニックIpマネジメント株式会社 3次元撮像装置、光透過部、画像処理装置、およびプログラム
TW201322006A (zh) * 2011-11-18 2013-06-01 Ind Tech Res Inst 資料處理方法及其裝置
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
CN103208006B (zh) * 2012-01-17 2016-07-06 株式会社理光 基于深度图像序列的对象运动模式识别方法和设备
KR101871235B1 (ko) * 2012-06-05 2018-06-27 삼성전자주식회사 깊이 영상 생성 방법 및 장치, 깊이 영상 처리 방법 및 장치
EP2703836B1 (en) * 2012-08-30 2015-06-24 Softkinetic Sensors N.V. TOF illuminating system and TOF camera and method for operating, with control means for driving electronic devices located in the scene
US9361659B2 (en) * 2012-11-14 2016-06-07 Facebook, Inc. Systems and methods for optimizing order of image transformations
US9304652B1 (en) 2012-12-21 2016-04-05 Intellifect Incorporated Enhanced system and method for providing a virtual space
US9948852B2 (en) * 2013-03-15 2018-04-17 Intuitive Surgical Operations, Inc. Intelligent manual adjustment of an image control element
US9836806B1 (en) 2013-06-07 2017-12-05 Intellifect Incorporated System and method for presenting user progress on physical figures
US10743732B2 (en) 2013-06-07 2020-08-18 Intellifect Incorporated System and method for presenting user progress on physical figures
US9728097B2 (en) * 2014-08-19 2017-08-08 Intellifect Incorporated Wireless communication between physical figures to evidence real-world activity and facilitate development in real and virtual spaces
US9734595B2 (en) * 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
US9292926B1 (en) * 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
CN104656348B (zh) * 2015-01-13 2016-10-05 苏州佳世达光电有限公司 投影装置及投影方法
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
US10598783B2 (en) 2016-07-07 2020-03-24 Microsoft Technology Licensing, Llc Multi-frequency unwrapping
JP6977667B2 (ja) * 2018-06-01 2021-12-08 日本電信電話株式会社 物体らしさ推定装置、方法、およびプログラム
CN109325992B (zh) * 2018-10-19 2023-07-04 珠海金山数字网络科技有限公司 图像绘制方法和装置、计算设备及存储介质
US10861165B2 (en) * 2019-01-11 2020-12-08 Microsoft Technology Licensing, Llc Subject tracking with aliased time-of-flight data
CN110072044B (zh) * 2019-05-30 2021-04-16 Oppo广东移动通信有限公司 深度相机的控制方法及控制装置、终端及可读存储介质
CN113256539B (zh) * 2021-07-01 2021-11-02 武汉市聚芯微电子有限责任公司 深度图像的去混叠方法、装置、设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置
CN101640809A (zh) * 2009-08-17 2010-02-03 浙江大学 一种融合运动信息与几何信息的深度提取方法

Family Cites Families (177)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69229474T2 (de) 1991-12-03 2000-03-02 French Sportech Corp Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5502489A (en) 1994-01-03 1996-03-26 Daewoo Electronics Co., Ltd. Method for the motion adaptive spatial filtering of video signals in an image coding apparatus
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
EP0958002A4 (en) 1996-05-08 2001-03-28 Real Vision Corp REAL-TIME SIMULATION USING POSITION DETECTION
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US5930383A (en) 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7202898B1 (en) 1998-12-16 2007-04-10 3Dv Systems Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
CN101137996A (zh) 2005-01-07 2008-03-05 格斯图尔泰克股份有限公司 基于光流的倾斜传感器
HUE049974T2 (hu) 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR101403172B1 (ko) 2005-05-17 2014-06-03 퀄컴 인코포레이티드 방위-감응 신호 출력
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
WO2008014826A1 (en) * 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20080252882A1 (en) 2007-04-13 2008-10-16 John Kesterson Filter assembly and image enhancement system for a surveillance camera and method of using the same
JP4921591B2 (ja) 2007-07-03 2012-04-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 奥行きマップの計算
US8131098B2 (en) 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US8514218B2 (en) 2007-08-14 2013-08-20 Siemens Aktiengesellschaft Image-based path planning for automated virtual colonoscopy navigation
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US20090060286A1 (en) 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
US8005263B2 (en) 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
EP2203893A4 (en) 2007-10-30 2014-05-07 Hewlett Packard Development Co INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US8142023B2 (en) * 2007-12-21 2012-03-27 Honda Motor Co., Ltd. Optimized projection pattern for long-range depth sensing
EP2128693A1 (en) 2008-05-28 2009-12-02 ETH Zurich Spatially Adaptive Photographic Flash Unit
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US9253416B2 (en) 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
KR101467509B1 (ko) * 2008-07-25 2014-12-01 삼성전자주식회사 이미지 센서 및 이미지 센서 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置
CN101640809A (zh) * 2009-08-17 2010-02-03 浙江大学 一种融合运动信息与几何信息的深度提取方法

Also Published As

Publication number Publication date
US8514269B2 (en) 2013-08-20
US20110234756A1 (en) 2011-09-29
CN102163324A (zh) 2011-08-24

Similar Documents

Publication Publication Date Title
CN102163324B (zh) 深度图像的去混叠
CN102520574B (zh) 飞行时间深度成像
CN102681293B (zh) 具有折射光学元件的照明器
CN102184009B (zh) 跟踪系统中的手位置后处理精炼
CN102306051B (zh) 复合姿势-语音命令
US9972137B2 (en) Systems and methods for augmented reality preparation, processing, and application
CN102129292B (zh) 在运动捕捉系统中识别用户意图
CN105264401B (zh) 用于tof系统的干扰减小
CN102129293B (zh) 在运动捕捉系统中跟踪用户组
CN102289815B (zh) 检测多功能传感器设备的运动
KR101881620B1 (ko) 게임플레이에서의 3차원 환경 모델 사용
CN102385237B (zh) 基于结构化光和立体视觉的深度相机
CN102253712B (zh) 用于共享信息的识别系统
CN102576463B (zh) 用于移除图像的背景的系统和方法
CN102411783B (zh) 在视频聊天应用中自动跟踪用户移动
CN102129709A (zh) 可视化深度
CN102222329A (zh) 深度检测的光栅扫描
US20100302253A1 (en) Real time retargeting of skeletal data to game avatar
US20100302365A1 (en) Depth Image Noise Reduction
CN109255749B (zh) 自主和非自主平台中的地图构建优化
CN105705964A (zh) 发射结构化光的照射模块
CN102087738A (zh) 用于为目标跟踪处理图像的系统和方法
CN102301398A (zh) 身体扫描
CN103608844A (zh) 全自动动态关节连接的模型校准
CN103748893A (zh) 显示器作为照片或视频的照明

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150505

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150505

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140702

Termination date: 20210324

CF01 Termination of patent right due to non-payment of annual fee