CN102656542B - 用于演示的相机导航 - Google Patents

用于演示的相机导航 Download PDF

Info

Publication number
CN102656542B
CN102656542B CN201080057583.1A CN201080057583A CN102656542B CN 102656542 B CN102656542 B CN 102656542B CN 201080057583 A CN201080057583 A CN 201080057583A CN 102656542 B CN102656542 B CN 102656542B
Authority
CN
China
Prior art keywords
user
posture
demonstration
data
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201080057583.1A
Other languages
English (en)
Other versions
CN102656542A (zh
Inventor
J·F·弗兰德
C·H·普拉特里
A·库普萨米
S·巴斯彻
R·S·迪茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102656542A publication Critical patent/CN102656542A/zh
Application granted granted Critical
Publication of CN102656542B publication Critical patent/CN102656542B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/75Indicating network or usage conditions on the user display

Abstract

用于管理基于姿势的系统中的信息演示的技术可使得用户能够使用姿势来控制演示信息的方式或者能够以其他方式与基于姿势的系统交互,其中姿势是从用户身体在物理空间中的姿态和运动导出的。用户可使用控制该系统的各方面的姿势来向观众演示信息,或者多个用户可使用姿势来一起工作以控制该系统的各方面。由此,在一示例实施例中,单个用户能够经由姿势来控制对观众的信息演示。在另一示例实施例中,多个参与者能够经由捕捉设备所捕捉到的姿势来共享对演示的控制,或以其他方式与系统交互以控制演示的各方面。

Description

用于演示的相机导航
背景
诸如计算机游戏、多媒体应用、办公应用等许多计算应用使用控制来允许用户操纵游戏角色或应用的其他方面。通常使用例如控制器、遥控器、键盘、鼠标等等来输入这样的控制。例如,演示管理通常涉及用于与控制器/点击器交互和/或直接与正在演示的计算设备的用户交互。这些控制方法具有各种缺点。例如,这些控制可能是难以学习的,由此造成了用户和这些游戏及应用之间的障碍。控制器通常具有有限数量的按钮,因此可用的导航是有限的,并且各种类型的命令在点击器的不同类型和能力之间可以是广泛不同的。在演示的同时使用控制器可能分散观看者的注意力。并且,为了在多个用户之间共享对演示的控制,用户必须各自具有对控制器的访问权和/或分发控制器。
概述
此处公开了用于管理基于姿势的系统中的信息演示的技术,其中姿势是从用户身体在物理空间中的姿态或运动导出的。用户可使用姿势来控制演示信息的方式或以其他方式与基于姿势的系统交互。例如,捕捉设备可捕捉表示用户姿势的数据,并且可采用姿势识别技术来识别可适用于控制基于姿势的系统的各方面的姿势。信息的演示者可经由化身或其他视觉表示来结合到演示中。由此,用户以能够与信息演示交互的视觉表示的形式沉静于系统中。演示的观众可以类似地沉浸于系统中。由此,包括演示者和观察者两者的用户在系统中的沉浸提供了用户之间的虚拟关系,这比信息的简单显示更具交互性。
用户可使用控制该系统的各方面的姿势来向观众演示信息,或者多个用户可使用姿势来一起工作以共享对系统的控制。由此,在一示例实施例中,单个用户能够经由姿势来控制对观众的信息演示。在另一示例实施例中,多个参与者能够经由捕捉设备所捕捉到的姿势来共享对演示的控制,或以其他方式与系统交互以控制演示的各方面。姿势可以适用于各种演示格式。在一示例实施例中,姿势控制包括非顺序信息格式的演示应用的各方面。
提供本概述以便以简化形式介绍将在以下详细描述中进一步描述的一些概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。
附图简述
当结合附图进行阅读时,可以更好地理解以上概述以及以下对说明性实施例的详细说明。出于说明各实施例的目的,在附图中示出各实施例的示例性构造;然而,各实施例不局限于所公开的具体方法和手段。在附图中:
图1示出目标识别、分析、及跟踪系统以及正在玩游戏的用户的示例实施例。
图2A和2B各自示出了共享的演示体验的示例实施例。
图2C描绘了示例目标识别、分析和跟踪系统以及物理空间中的多个用户和每一个用户的视觉表示的显示的示例实施例。
图2D和2E分别从侧视图和俯视图描绘了示例目标识别、分析和跟踪系统,以及用户经由定点聚焦功能进行交互的示例实施例。
图3是通过网络的对演示的共享控制的图示。
图4示出了可在目标识别、分析和跟踪系统中使用的捕捉设备的示例实施例。
图5A示出了从诸如图3所示的目标识别、分析和跟踪系统生成的用户的骨架映射。
图5B示出了诸如图4所示的姿势识别器架构的附加细节。
图6描绘了建立共享演示体验并且生成视觉表示以便在物理空间中表示多个用户的方法的示例流程图。
图7示出了其中可实现本文描述的技术的计算环境的示例实施例。
图8示出了其中可实现本文描述的技术的计算环境的另一示例实施例。
说明性实施例的详细描述
此处公开了用于经由姿势来管理对观众的信息演示的技术。所公开的实施例的主题用细节来描述以满足法定的要求。然而,该描述本身并非旨在限制本专利的范围。相反,所要求保护的主题可结合其它当前或未来技术按照其它方式来具体化,以包括与本文中所描述的元素相类似的元素。
姿势可以从用户在物理空间中的位置或运动中导出,并且可包括任何动态或静态的用户运动,诸如跑步、移动手指或静态姿态。根据一示例实施例,诸如相机等捕捉设备可捕捉用户图像数据,包括表示用户的姿势的数据。计算机环境可用于识别和分析用户在该用户的三维物理空间中作出的姿势,以使得该用户的姿势可被解释成控制系统或应用空间的各方面。计算机环境可通过将用户的姿势映射到屏幕上的化身来显示用户反馈。
基于姿势的系统可采用使用姿势来管理或控制信息演示的技术。用户可使用姿势来控制演示信息的方式或以其他方式与基于姿势的系统交互。在一示例实施例中,单个用户能够经由姿势来控制对观众的信息演示。在另一示例实施例中,多个参与者能够经由捕捉设备所捕捉到的姿势来共享对演示的控制,或以其他方式与系统交互以控制演示的各方面。
演示管理的系统、方法、技术和组件可以被实现在诸如游戏控制台之类的多媒体控制台或者期望显示目标的视觉表示的任何其他计算环境中,作为示例但非限制,这些其他计算环境包括卫星接收机、机顶盒、电子游戏机、个人计算机(PC)、便携式电话、个人数字助理(PDA)、以及其他手持式设备。
图1示出了目标识别、分析和跟踪系统10的配置的示例实施例,该目标识别、分析和跟踪系统10可以采用所公开的用于使用户沉浸于允许经由姿势来进行交互的基于姿势的系统中的技术。在该示例实施例中,用户18正在玩保龄球游戏。在示例性实施例中,系统10可以识别、分析和/或跟踪诸如用户18之类的人类目标。系统10可以收集与物理空间中用户的运动、面部表情、身体语言、情绪等相关的信息。例如,系统可以标识并扫描人类目标18。系统10可以使用身体姿态识别技术来标识人类目标18的体型。系统10可标识用户18的身体部位以及它们如何移动。
如图1所示,目标识别、分析和跟踪系统10可包括计算环境212。计算环境212可以是多媒体控制台、个人计算机(PC)、游戏系统或控制台、手持式计算设备、PDA、移动电话、云计算机、捕捉设备等。根据一示例实施例,计算环境212可包括硬件组件和/或软件组件以使得计算环境212可用于执行应用。应用可以是操作或由计算环境执行的任何程序,包括游戏和非游戏应用,诸如文字处理程序、电子表格、媒体播放器、数据库应用、计算机游戏、视频游戏、聊天、论坛、社区、即时消息收发,等等。
如图1所示,目标识别、分析和跟踪系统10还可包括捕捉设备202。捕捉设备202可以是例如相机,该相机可用于在视觉上监视诸如用户18等一个或多个用户,以使得可以捕捉、分析并跟踪一个或多个用户所执行的姿势,以执行应用中的一个或多个控制或动作。在图1所示的示例实施例中,虚拟物体是保龄球且用户在三维物理空间中移动,就好像实际握有保龄球。物理空间中用户的姿势可控制屏幕14上显示的保龄球17。在各示例实施例中,诸如用户18等人类目标可实际持有一物理物体。在这些实施例中,基于姿势的系统的用户可手持物体,使得可使用玩家和物体的运动来调整和/或控制游戏的参数。例如,可以跟踪并利用手持球拍的玩家的运动来控制电子体育游戏中的屏幕上球拍。在另一示例实施例中,可以跟踪并利用玩家手持物体的运动来控制电子格斗游戏中的屏幕上武器。
根据一个实施例,目标识别、分析和跟踪系统10可连接到可向诸如用户18等用户提供游戏或应用视觉和/或音频的视听设备16,如电视机、监视器、高清电视机(HDTV)等。例如,计算环境212可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可从计算环境212接收视听信号,然后可向用户18输出与该视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境212。
如此处所使用的,计算环境可以指的是单个计算设备或计算系统。计算环境可包括非计算组件。如此处所使用的,计算系统、计算设备、计算环境、计算机、处理器或其他计算组件可被互换地使用。例如,计算环境可包括图1所示的整个目标识别、分析和跟踪系统10。计算环境可包括视听设备16和/或捕捉设备202。示例性的视听设备16或捕捉设备202中的任一个或两者可以是单独的、但耦合到计算环境的实体,或者可以是例如进行处理和显示的计算设备的一部分。由此,计算环境可以是包括可处理捕捉到的数据的处理器的独立捕捉设备。由此,捕捉设备202可被配备成不仅处理捕捉到的数据,而且分析并存储数据,将数据输出到屏幕,等等。
如图1所示,目标识别、分析和跟踪系统10可用于识别、分析和/或跟踪诸如用户18之类的人类目标。例如,可使用捕捉设备202来跟踪用户18,使得可将用户18的姿势解释为可用于影响由计算机环境212执行的应用的控制。因而,根据一个实施例,用户18可移动他或她的身体来控制应用。系统10可以跟踪用户的身体以及用户的身体所作的运动,包括控制诸如应用、操作系统等系统的各方面的姿势。
系统10可以将到捕捉设备202的输入转化成动画,该输入表示用户的运动,使得该动画由该输入来驱动。从而,用户的运动可映射到诸如化身等视觉表示,使得物理空间中的用户运动由该化身来模拟。捕捉并显示图像数据帧的速率可确定视觉表示的所显示的运动的连续性水平。
图1描绘了在计算环境212上执行的、可以是用户18可能正在玩的保龄球游戏的应用的示例实施例。在该示例中,计算环境212可使用视听设备16来向用户18提供保龄球馆和保龄球道的视觉表示。计算环境212还可使用视听设备16来提供用户18可通过他的或她的移动来控制的玩家化身19的视觉表示。目标识别、分析和跟踪系统10的计算机环境212和捕捉设备202可用于识别和分析用户18在其三维物理空间中做出的姿势,使得该用户的姿势可被解释为对游戏空间中的玩家化身19的控制。例如,如图1所示,用户18可在物理空间中做出打保龄球运动来使得玩家化身19在游戏空间中做出打保龄球运动。用户18的其他移动也可被解释为控制或动作,例如对行走、选择球、将化身定位在保龄球道上、扔球等的控制。
多个用户可以从远程位置彼此交互。计算环境212可以使用视听设备16来提供另一用户可以用他或她的移动来控制的玩家化身的视觉表示。例如,视听设备16上的另一保龄球手的视觉表示可以表示另一用户,诸如物理空间中的与该用户在一起的第二用户或第二物理空间中的联网用户。对于参与该系统的多个用户而言,各自佩戴沉浸式显示器或通过捕捉真实世界环境的显示来观看可能是有益的。例如,用户能够查看广阔的环境区域或者能够通过调整个人沉浸式显示器来聚焦于环境中的感兴趣的物体或事件。示例沉浸式显示器是包括捕捉设备和显示组件的头戴式部件(wearable head piece)。
姿势可以在诸如图1所示的保龄球游戏示例等视频游戏专用上下文中使用。在诸如驾驶游戏等另一游戏示例中,手和脚的各种运动可对应于在一方向上操控车辆、换挡、加速和刹车。玩家的姿势可被解释为对应于除了控制化身19之外的动作的控制,诸如用于在通用计算上下文中进行输入的姿势。例如,用户18的手或其他身体部位的各种运动可用于结束、暂停或保存游戏、选择级别、查看高分、与朋友交流等。
虽然图1在视频游戏专用上下文中描绘用户,但可以构想目标识别、分析和跟踪系统10可解释用于控制游戏范围之外的操作系统和/或应用的各方面的目标移动。操作系统和/或应用的基本上任何可控方面都可以通过诸如用户18之类的目标的移动来控制。例如,用户姿势可对应于常见的系统级任务,如在分层列表中向上或向下导航、打开文件、关闭文件和保存文件。用户的姿势可以是适用于操作系统、游戏的非游戏方面、或非游戏应用的控制。例如,用户的姿势可被解释为对象操纵,例如控制用户界面。例如,考虑具有从左向右垂直排列的叶片(blades)或选项卡式界面的用户界面,其中对每个叶片或选项卡的选中将打开应用或系统内的各种控制的选项。该系统可以标识出用户的移动选项卡的手姿势,其中物理空间中的用户的手实际上与应用空间中的选项卡对齐。包括暂停、抓取运动以及然后的手向左扫动在内的姿势可被解释成对选项卡的选中、以及然后将其移开以打开下一选项卡。
图2A和2B示出了可捕捉物理空间201中所示的一个用户或多个用户的基于姿势的系统200的示例实施例。系统200可以从对应于对系统200的控制的捕捉到的数据中识别姿势。用户可使用姿势来管理信息的演示,或者多个用户可经由姿势来一起工作以便与所演示的信息协作。
系统200可包括任何数量的计算环境、捕捉设备、显示器或其任意组合。图2A所示的系统200包括捕捉设备202、计算环境212和显示设备222。图2B所示的系统200表示具有多个计算环境212、213、214、捕捉设备202、203、204和显示器222、223、224的基于姿势的系统200。计算环境可以是多媒体控制台、个人计算机(PC)、游戏系统或控制台、手持式计算设备、PDA、移动电话、云计算机等,并且可包括或以其他方式连接到捕捉设备或显示器。捕捉设备、计算设备和显示设备可以包括执行所需功能的任何合适的设备,诸如参考上述图1或下述图3-8所描述的设备。
图2A和2B两者都描绘了可涉及物理空间中的诸如用户260、261、262、263等多个用户的用于计算机管理的生产力场景的示例。例如,物理空间可以是会议室,并且用户260、261、262、263可能参加会议或协调意见。还可构想远程用户可以从诸如沿着大厅的另一个房间等第二位置,或者从诸如位于另一州的用户的家或办公室等甚至更远的远程位置与系统200交互。以下描述的图3描绘了允许本地和远程用户两者都经由基于姿势的系统来进行交互以便进行这一场景中的计算机管理的联网环境的示例。
该上下文中的生产力场景可以是可经由诸如图2A和2B所示的示例系统等基于姿势的系统200来管理的任何信息演示的形式。在一示例场景中,用户260、261、262、263可能正在开会,其中向显示器222显示演示应用的输出。信息演示可包括动画、图形、文本等,并且在文字处理格式、视频和/或音频演示、幻灯片放映、数据库应用、媒体播放器、图表(例如,流程图、饼图)、聊天、论坛、社区、即时消息收发、或任何其他形式的工作产品中演示。
捕捉设备202可捕捉表示诸如用户260、261、262、263中的每一个的姿势等用户姿势的数据。如图2A和2B所示,用户与系统200或该系统中的特定组件的距离可以是不同的,并且仍旧具有对该系统的各方面的控制。姿势可被识别为对信息演示的控制。姿势可控制基于姿势的系统的各方面。姿势可控制显示在屏幕上的任何东西,诸如向文档添加单词、向下滚动或在文档中翻页、跨越电子表格中的列、对三维图进行枢转或旋转、放大或缩小,等等。例如,考虑显示器222显示虚拟粉笔板或干式擦除板,用户的姿势可被识别成向屏幕绘制或写字母、在幻灯片放映中的幻灯片之间进行切换、暂停幻灯片放映等。用户可作出姿势以便向word文档添加着重号。
姿势可结合音频命令或者音频命令可补充用户姿势。例如,用户可作出姿势以便向文档添加着重号,然后说出随后被添加到文档的、在着重号点之后的单词。系统可将添加着重号和音频的姿势的组合识别为添加着重号并且然后将说出的单词写到着重号之后的控制。因为用户可作出姿势以控制演示,所以用户在房间中来回走动具有很多灵活性。
用户不被限于使用控制器或必须在计算环境上直接按下按钮。然而,可以构想对姿势的使用可以与对控制器/按钮的使用相结合以适应这两种类型的控制。除了包括例如身体运动的用户姿势之外,一些姿势可使用经由控制器输入的信息。
出于示例性目的,图2A所示的示例信息演示的快照包括显示在屏幕上的图225。考虑诸如用户261等用户正向房间中的其他用户260、262、263和/或远程用户(未示出)演示信息。姿势可替换或补充对控制器的需求或对管理演示的类似需求。能够经由鼠标或点击器或激光器或话筒或其他外围设备完成的应用的一方面能够由姿势来完成。姿势可控制先前可能要求用户具有控制器的基于姿势的系统的任一方面。例如,姿势可控制在屏幕上显示光的虚拟激光器。用户可以用手指来作出姿势,而不是使用激光指示器通过将小的亮光点投影在显示器上来突出显示感兴趣的某一东西。用户手指的移动可模拟激光指示器的移动,并且该系统可识别姿势并且在屏幕上显示对应于手指移动的光点;实际上不需要控制器。姿势还可控制不同的、或由于其他原因无法用控制器来控制的系统的各方面。例如,控制视觉表示的运动以直接对应于用户在物理空间中的运动是经由姿势可用的,而视觉表示的动画在需要控制器来进行输入时并不是用户姿势的直接转化。
图2B示出了系统200的另一示例实施例,该系统200可捕捉物理空间201中的用户并且将捕捉到的数据映射到虚拟环境中的视觉表示。类似于图2A,系统200包括捕捉设备202、计算环境212和显示设备222。然而,在该示例中,系统200还包括附加计算环境,诸如另一捕捉设备205以及分别与用户260、263相关联并位于离用户260、263的近距离内的计算环境213、214,以及分别与计算环境213,214相关联的捕捉设备203和204。
基于姿势的系统中的各种设备或组件可以经由网络彼此进行信息交换,并且进行通信以共享信息。例如,捕捉设备202、203、204、205以及每一个计算环境212、213、214可通过有线或无线连接来进行通信,诸如经由电缆连接、Wi-Fi连接或家庭无线网络。各个捕捉设备202、203、204、205可以彼此共享捕捉到的数据,或者中央计算环境可以聚集数据以便处理和解释数据。例如,计算环境212可以是存储和执行对物理空间中的多个用户260、261、262、263可见的演示应用的计算环境。计算环境212可以从系统中的其他组件接收捕捉到的数据,诸如直接从例如捕捉设备204或者从例如计算环境214接收数据。
显示器222可以是在房间前部的主显示器,被选择成对即使不是房间中的所有用户,也是对大多数用户可见的大小。该显示器可以是诸如沉浸式设备等头戴式显示器。例如,头戴式显示器可以用人造可视环境来替换用户的视野。在另一示例中,用户视野的仅仅一部分被人造环境替换。例如,头戴式显示器能够进行头部跟踪以便在用户视野的显示画面上叠加信息。该显示器可取决于用户头部对准的方向来调整所显示的图像。例如,如果用户正在显示器上查看地图,则每一个用户的头戴式显示器都可包括表示用户正在查看哪里的放大部分。或者,用户可通过与他或她的个人显示器进行交互来不同于房间中的其他用户地在演示中导航。由此,虚拟环境的真实性可使得模拟的环境更吸引人,其中用户具有与虚拟现实的更真实和个性化的交互。
附连到主显示器222的计算环境212可聚集来自捕捉设备202,203,204,205和计算环境213、214的数据,以分析在物理空间中捕捉到的数据的汇编。姿势可以从聚集的数据中识别并导致对基于姿势的系统的一方面的控制。提供基于姿势的系统中的组件之间的这一通信的示例网络设置在以下参考图3更详细地描述。
如图2B所示的示例所反映的,可以构想多个用户260、261、262、263可以经由联网的系统组件来进行交互。该系统使得多个组件能够组合其输入以应用姿势。由此,多个用户260、261、262、263可控制该系统的各方面。例如,具有用于捕捉触摸、深度、音频、视频等的不同能力的多个捕捉设备可以捕捉关于来自物理空间的多个用户260、261、262、263的数据。可聚集和处理捕捉到数据以代表多个用户控制系统的各方面。这使得多个用户能够经由姿势并经由系统来彼此交互,从而经由姿势来增强生产力环境中的协作特性。
参考图2B,考虑用户260、261、262和263正在开会并被捕捉设备205捕捉,其中用户260与另一捕捉设备203相关联,而用户263与另一捕捉设备204相关联。物理空间可以是诸如大型会议室等大空间,并且诸如用户263之类的用户可以远离捕捉设备205就座。然而,用户可以更靠近物理空间中的捕捉设备204,并且还可经由诸如显示器224或蜂窝设备(未示出)在更靠近的、更小的屏幕上查看共享的演示。计算环境212可执行演示应用并输出到多个显示器,诸如显示器222、223和224。
可以分析来自任一捕捉设备的捕捉到的数据以便进行姿势识别,并因此联网的捕捉设备的视野内的任一用户都可经由姿势来控制显示在主显示器222上的演示。用户可通过对物理空间中的第二计算环境或捕捉设备作出姿势来控制共享演示的各方面。例如,用户可以对更靠近用户263的计算环境214作出小规模姿势。如果房间中的其他用户或诸如显示器224等物体遮挡例如捕捉设备205的视野,则该小规模姿势可能不由该捕捉设备捕捉。用户263的姿势可由捕捉设备204捕捉并由本地计算环境214处理或例如经由网络与计算环境212、213共享。在同一基于姿势的系统中联网的任何计算环境因此可以处理来自也在该基于姿势的系统中联网的任何数量的捕捉设备的捕捉到的数据。用户263的姿势可被识别为对在计算环境之间共享的演示的控制。由此,与第一捕捉设备/计算环境相关联的第一用户的姿势可控制第二计算环境的各方面。
例如,用户260、263可经由姿势分别与近距离的计算环境213、214交互,并且相应的控制可以转换到系统中的其他计算环境,诸如主计算环境212或与该系统联网的其他个人计算环境。该用户的姿势可控制会话中的其他计算环境和/或姿势的结果可被呈现或以其他方式指示在其他每一个人的显示器上。例如,用户263可以在与计算环境214的近距离处作出姿势。用户263的姿势可以有助于管理显示在主显示器222上的演示。近距离捕捉设备204可捕捉表示用户263的姿势的数据,并且计算环境214可采用姿势识别技术来从捕捉数据中标识姿势。姿势可控制与用户263相关联的计算环境214的各特定方面。姿势可以转化成对主计算环境212的控制。由此,用户能够相对于近距离设备和/或捕捉设备作出姿势,并且具有就像他们相对于主计算系统作出姿势那样的相同效果。
对附加捕捉设备和/或计算环境的使用可提供用于控制系统200的附加灵活性。例如,考虑其中用户坐在房间后部的大型会议室。在某些情况下,在房间前部的捕捉设备可能无法捕捉到坐在房间后部的用户。例如,在用户和捕捉设备之间可能存在视野遮挡,捕捉设备可能无法注册该用户,或者捕捉设备可能不具有标识用户或标识例如用户的访问级别的分辨率。用户能够对物理空间中的与系统联网的第二捕捉设备作出姿势,诸如更靠近用户的捕捉设备或与用户的个人计算环境相关联的捕捉设备。由此,基于姿势的系统能够以各种方式将多个用户集成到系统中以管理演示的各方面。
在一示例实施例中,诸如在图2A和2B所示的示例场景中,可以存在管理信息演示的单个用户或主要用户。协作系统允许并鼓励经由姿势的观众参与以使得观众成员可控制该系统的各方面。诸如附连到显示器222的顶部的捕捉设备202或悬挂在墙上的捕捉设备205的单个捕捉设备或捕捉设备的组合可捕捉表示物理空间中的多个人的数据。多个人可作出姿势以控制单个应用,诸如在计算环境212上执行的应用。例如,如果应用是地图绘制程序并且各用户在一起工作以生成旅行计划,则各用户能够与该单个地图绘制程序交互以放大、摄全景等。因为多个用户能够经由姿势来提供控制该应用的各方面的输入,所以不必在房间中传递多个控制器。其他用户可加入房间并且他们也可使用姿势,而不必找到例如额外的控制器。
该系统能够出于控制系统之外的其他目的被动地评估表示多个用户及其姿势的捕捉到的数据。例如,用户的姿势可能并非是用户为了控制系统的一方面而故意执行的,但仍然可以出于数据收集的目的而被标识。由此,可收集并记录姿势或关于姿势的信息。考虑物理空间中的多个用户260、261、262和263。该系统可以在显示器222上提出一个问题,或经由例如扬声器系统可听地传送该问题。该问题可由诸如用户261等可以向其他用户演示信息的用户来提示。该系统可标识多个用户响应于该问题而作出的运动,包括对应于姿势的那些运动。可收集该信息并实时地提供给诸如存储在存储器中的文件或显示器等输出。
例如,系统可由于用户或系统提出的问题而轮询观众。问题可通过简单的是或否来回答,或者问题可包括多个可能的回答并且每一个回答都可对应于一姿势。例如,问题可以是“多少人投票同意选项A”,并且“是”回答可由包括用户在空中笔直向上举手的姿势来表示。该系统可以从捕捉到的数据中检测举起他或她的手的每一个用户以及没有举手的每一个用户。该系统因此可以基于为每一个用户标识的姿势来对“是”响应的数量进行计数。由此,系统可提供即时轮询结果。
系统在演示期间识别出的姿势可触发该系统的后续动作。例如,系统可识别出两个用户之间的握手,并且该握手可被识别为房间中的两个用户之间的“介绍”姿势,其中该“介绍”姿势包括两个人握手。系统可标识每一个用户,标识“介绍”姿势,并且自动将关于每一个用户的联系信息记录在日志中,该日志在会议结束时被提供给每一个用户。由此,通过对联系信息的汇编列表的访问,用户可具有关于该用户与其握手的每一个人的联系信息。在会议期间记录的信息的另一示例可以是对显示画面中的用户感兴趣的点的标识,其中对该信息的记录可通过姿势触发。例如,在会议期间,用户可作出姿势以指示该用户对演示中的特定屏幕截图或点感兴趣,并且系统可包括标识日志中的信息以使得用户能够在稍后容易地找到要查阅的信息。姿势可包括次要姿势,诸如手指轻击桌子或抬起手指。由此,在不中断演示流程的情况下,系统可基于每一个用户的各种姿势来记录关于每一个用户的数据。每一个用户然后可访问特定于该用户的信息日志。
其他动作可以在系统识别出姿势的情况下触发。例如,除了上述讨论的事件之外,考虑在会议期间发生的其他常见事件,诸如向会议参与者委派职责、拨打给远程用户、指示想要特定文档的副本的用户,等等。会议的一部分可包括向各个用户委派职责。系统或用户可请求或指定志愿者,并且识别出的用于指定用户的姿势可包括演示者指向志愿者或者志愿者举起他或她的手。系统可将该姿势识别为接受动作项,并且诸如在项目化列表或电子表格中将该用户与该动作项相关联。在另一示例中,可以向用户提出诸如“你想要该文档的副本吗?”等问题,并且取决于房间中的“是”姿势的,系统可以自动生成电子邮件,包括与作出“是”姿势的每一个用户相关联的电子邮件地址,并将附加文档的电子邮件发送到每一个用户。动作能够实时发生,以使得用户可以在仍然在开会的同时获得对文档的访问权,或者可将动作放置在队列中以便系统在会议结束时采取动作。
动作可触发系统中的硬件组件的动作。例如,如果用户举起他或她的手,则第一捕捉设备可接收并处理捕捉到的数据并将举起的手识别为指示该用户期望与系统交互的姿势。该第一捕捉设备可将指令提供给第二捕捉设备以便转向用户,以使得该用户在第二捕捉设备的视野内或者更好地聚焦于该用户。另一姿势可以是将所演示的信息的一部分保存到存储器或诸如个人计算设备中的本地存储器等用户的本地存储器的指示,该个人计算设备是诸如与用户263相关联的计算环境214等计算设备。用户姿势可以是开灯、降低屏幕、打开显示设备等的指示。
由于姿势而被触发的动作可由用诸如宏等简写格式表示的指令集来确定。由此,系统将由于特定姿势而采取的动作可以提前定义,诸如在会议开始之前。系统可具有由于特定姿势而实现的任何数量的宏,从而产生对用户可以是无缝的动作,诸如向日志添加信息或向演示者提供结果,或者这些动作对用户可以是已知的,诸如在接收到具有经由用户的姿势来请求的信息的电子邮件时。宏可以与系统或应用预先打包在一起,或者这些宏可由用户定义。
系统还可以按动态方式采取由于姿势而产生的动作。例如,用户可使用姿势和/或陈述的命令的组合并请求对通过电子邮件接收文档感兴趣的用户将手举在空中,并且然后陈述用于向所选用户发送电子邮件的命令。系统可响应命令和姿势的组合并将主题文档通过电子邮件发送到举手的每一个用户。
在另一示例中,系统可收集关于用户在物理空间中的行为的数据。例如,演示者可能期望具有关于他或她的演示方法的有效性的反馈。例如,在演示期间,系统可采用脸部或身体识别技术来识别存在于物理空间中的各个用户的脸部特征/移动或身体姿态/移动。脸部特征/移动、身体姿态/移动或其组合可对应于指示用户的特定表情或情绪的姿势。系统可以向演示者提供信息以指示观众成员的关注、留心或相关行为的级别。用户可使用该信息来标识在整个演示期间使用的有效演示方法。例如,如果系统收集到关于用户的指示一定比例的用户表现出无聊或不感兴趣的姿势并将该数据相关到用户在显示器上显示大量单词的时间,则该用户可使用该信息来指示显示大量单词对于这组用户而言不是有效的。然而,对于不同的观众,单词可能是适当的,诸如在观众成员正在评估文档中的单词时。在另一示例中,用户可使用动画和交互式技术并且系统可识别兴奋或积极的用户参与。由此,演示者可基于实时提供给用户的信息来在演示中针对用户定制演示,或者基于先前收集的数据来准备会议。
系统可基于其对与演示情况相关的观众行为的检测来在演示期间向用户提供动态建议。例如,在演示期间,系统可以在多文本幻灯片期间标识无聊的姿势并建议用户跳过多文本幻灯片。系统可标识当用户在房间前部来回走动而不是坐在一边时,用户获得更好的观众参与。系统可以在演示期间向用户提供这一信息,或者系统可随时间监视观众参与并生成向用户提供结果的报告。
每一用户参与,无论是演示信息、经由姿势与系统交互、观看演示、还是仅仅在捕捉设备的视野内演示,都可由视觉表示来表示。图2C描绘了可包括捕捉设备292、计算设备294和显示设备291的另一示例基于姿势的系统200。例如,捕捉设备292、计算设备294和显示设备291各自可包括执行所需功能的任何合适的设备,诸如此处所描述的设备。
在此示例中,深度相机292捕捉在其中存在多个用户260、262、263的物理空间293中的场景。深度相机292处理深度信息,和/或向诸如计算机294等计算机提供深度信息。深度信息可被解释以供显示用户260、262、263的视觉表示。例如,深度相机292或如所示的其所耦合到的计算设备294可向显示器291输出。
视觉表示是通常采取二维(2D)或三维(3D)模型形式的计算机表示。物理空间293中的用户的视觉表示可以采取任何形式,诸如动画、角色、化身等。例如,视觉表示可以是化身,诸如图2C所示的分别表示用户260和263的化身295或296。视觉表示可以是指针、箭头或其他符号,诸如表示用户262的手符号297。在该示例中,猴子角色295表示用户260并显示类似于捕捉设备292捕捉到的用户260的身体姿态的身体姿态。表示用户263的化身296具有与用户263类似的身体特性,捕捉设备甚至分析用户263的衣服并应用于用户的视觉表示296。
将视觉表示引入共享演示体验可通过给予用户在虚拟空间内的身份感来将另一维度添加到体验。用户的视觉表示可被呈现在显示器上,并且会话中的其他用户的化身可被呈现在其他每一个人的显示器上,从而产生同一虚拟空间中的一组化身,即使各个用户可能在不同的物理空间中。可将会话中每个人的化身各自呈现在其他每个人的电视机、监视器上,从而得到看上去正在虚拟环境中交互的一组化身。因为会话中的用户可包括远程和本地用户两者,所以显示器可呈现远程和本地用户两者的视觉表示,以使得所有用户都可基于每一视觉表示的在场来标识其他参与者。
每一个用户都可由其自己的定制视觉表示来表示,诸如定制的化身或角色。用户的视觉表示可反映如由捕捉设备捕捉到的用户的特性。例如,捕捉设备可采用身体/脸部识别技术并将捕捉到的数据变换成像用户的视觉表示。由此,屏幕上的化身可以看上去像且行动上也像用户。物理空间293中检测到的用户的视觉表示还可以采取替换形式,诸如动画、角色、化身等。用户可以为了该用户的屏幕上表示从系统或应用提供的各种库存模型中进行选择。例如,用于可视地表示用户的库存模型可包括任何角色表示,诸如著名人物的表示、一块太妃糖或一只大象。库存模型可以是虚幻角色(例如,龙、怪兽)或符号(例如,指针或手符号)。
视觉表示可包括用户特征和动画的组合。例如,用户的视觉表示可以是诸如角色295等猴子角色,但穿着如在物理空间中捕捉到的用户的衣服或戴着像物理空间中检测到的用户的眼镜。用户的脸部表情、身体姿态、所说的话语、或任何其他可检测的特性可被应用到视觉表示。库存模型可以是应用专用的,诸如与程序打包在一起,或者库存模型可以是跨应用可用的或在系统范围内可用的。
用户姿势可导致对应于同该姿势相关联的控制的多媒体响应。例如,用户的视觉表示的动画可由于一姿势而被呈现在显示器上。多媒体响应可以是诸如视觉表示的移动等动画、出现在屏幕上的文本消息、音频、静止图像、视频等中的任一个或组合。例如,如果执行文字处理应用的系统识别出的用户姿势包括下一页姿势,则对文字处理文档的控制可以是翻到文档中的下一页。与执行姿势的用户相关联的视觉表示可以是例如具有与物理空间中的如由基于姿势的系统捕捉到和标识的用户眼镜类似的眼镜的大型卡通手。响应于用户的下一页姿势,大型卡通手可移动穿过屏幕并且看上去抓取文档一角,然后下拉以揭示文档中的下一页。由此,不仅其他用户可基于观察对特定用户唯一的视觉表示的动画来知晓该用户已执行该姿势,而且动画增加了经由姿势控制系统的体验。用户能够可视化他或她的姿势的结果,并且其他用户能够可视化结果。用户可以更容易地确认姿势被系统适当地识别出并应用。
多媒体响应可以是系统范围的,诸如显示出现在每一个其他用户的电视机或监视器上的动画。当用户使得他或她的化身用姿势表达时,姿势可被同时呈现在所有客户机位置处。类似地,当用户讲话或以其他方式产生音频事件(例如通过语音聊天)或文本事件(例如通过文本聊天)时,音频或文本可被同时呈现在所有客户机位置处。
特定视觉表示可以与特定用户相关联。由此,每一个用户可具有作为他或她自身的视觉表示的、可以将相关到该用户执行的姿势的动画付诸行动的化身。当系统显示特定视觉表示的动画时,用户和其他用户可辨别与特定视觉表示相关联的用户。由此,当用户姿势和视觉表示动画化以对应于同该姿势相关联的控制时,基于哪一个视觉表示动画化来辨别哪一个用户执行了姿势是可能的。在另一示例实施例中,用户的视觉表示在用户之间可以是通用或共同的,而不具有区别特征。由此,从所显示的动画中得知哪一个用户对应于特定视觉表示可能并非是始终可能的。
在一示例实施例中,系统可存储表示所跟踪的用户的运动的信息,存储在运动捕捉文件中。系统可将来自特定运动捕捉文件的用户专用的运动应用于化身或游戏角色,以使得化身或游戏角色可以动画化以便以类似于用户运动的方式模拟运动。例如,运动捕捉文件可包括用户跳跃的方式的指示。当跳跃动画被应用于用户的视觉表示时,系统可以应用来自运动捕捉文件的跳跃以使得视觉表示模拟由系统捕捉到的用户的实际运动。在另一示例实施例中,捕捉文件包括在用户中是共同的通用运动。例如,来自运动捕捉文件的跳跃可以是通用的或与系统预先打包在一起的,以使得在由系统应用时视觉表示执行通用跳跃。多媒体响应可以是预定响应,诸如响应于特定姿势的身份实现的存储的动画或音频剪辑。
多媒体响应库可包括表示如由系统识别出的用户姿势的选项。例如,多媒体响应库可包括预定或预先记录的且与特定姿势相关联的动画数据。或者,多媒体响应库可包括在识别出特定姿势时实现的各种选项,并且可基于各种情况来进行选择。例如,可以选择特定动画,因为该动画可应用于特定应用、特定用户、特定姿势、特定运动、技巧等级,等等。
在一示例性实施例中,应用于化身的动画例如可以是选自预先打包的动画库的动画,比如伴随着程序、应用或系统的动画。所选动画可以是与系统学习到的用户输入相对应的动画。在另一示例性实施例中,库中的动画可以是由用户输入和记录到化身的动画词汇表中的动画。
一些动画可以应用于用户的视觉表示,尽管该用户未执行一姿势。例如,在推断出用户的身体语言之后,系统可以确定要应用到该用户的视觉表示以反映该用户性情的适当的动画。在另一示例中,系统可检测在一特定时间段内特定用户是空闲的或者未作出姿势。系统可动画化用户的视觉表示以反映该用户的空闲。例如,如果用户的视觉表示是猴子角色,则系统可应用动画,该动画包括该猴子角色抓取虚拟枕头并在该猴子附近显示“ZZZZZ”以暗示该猴子正在睡觉。
在一示例实施例中,多媒体响应可包括与声音组合显示的预定化身动画。例如,当导致化身行走时,可以播放轻微的脚步声。在另一示例中,当导致化身跑动时,可以播放沉重的脚步声。在另一示例中,当导致化身侧移时,可以播放刮擦或滑动脚步声。在另一示例中,当导致化身碰撞某一物体时,可以播放碰撞声。在另一示例中,当化身导致某一物体落下或与另一物体相撞时,可以播放重的碰撞声。
动画级别或动画量可取决于例如应用当前正在执行或观众的人口统计数据而变化。例如,正在庭审期间演示法律文档的应用可以不包括比用于教导关于操场上的安全性的对孩子的演示更多的动画。由此,可以存在由系统定义和/或由用户改变以对应于用户偏好的各种动画和级别。
在一示例中,演示范例可以是其中存在以预定次序演示的一组幻灯片的顺序幻灯片演示。在另一示例中,应用可以按非顺序方式演示信息。例如,演示可包括幻灯片、图片、图像、文本等的汇编,并且演示可被组织成各章节。在演示期间,演示者可放大或缩小幻灯片放映中的各个幻灯片和幻灯片章节。可以不定义预定义次序。
这一非顺序演示的演示材料的显示可采取许多形式。例如,主屏幕可包括地图或大型流程图。用户可放大地图或流程图的不同部分,并且可以在屏幕上扩大对应于该部分的一个或多个幻灯片。用户可以在地图或流程图上来回移动,而不必遵循任何预定义次序。考虑包括具有显示在屏幕上的许多门的走廊或房屋的演示格式。用户可以渐进地在门和门之间来回跳跃,进门等。用户可使用可缩放画布来演示幻灯片,该画布允许用户或来自观众的参与者从演示的一部分跳跃到另一部分,放大和缩小以及定义各章节。观众成员可经由姿势导航到演示的不同部分,并且如上所述,视觉表示可以与各种形式的演示风格交互。由此,演示可以是内容汇编,而不要求特定演示次序。用户能够经由视觉表示本质上进入虚拟世界并且经由姿势控制演示的各方面。由此,基于姿势的系统可显示资产画布以供讨论,并且用户可以实时地在该信息中导航。画布可包括大量信息,并且演示者可取决于观众来选择画布的各部分。画布或演示可包括比所演示的信息更多的信息,但因为灵活的格式,用户和/或演示者可选择可适用于讨论的信息章节。
在一示例实施例中,诸如在图2A和2B所示的示例场景中,可以存在管理信息演示的单个用户或主要用户。例如,可能期望单个用户正在管理演示,而不具有来自观众成员的交互式控制。考虑如果用户260正在开会或教导一个班级的学生-他或她可能想要单独控制演示。由此,单个用户可主持信息演示并且经由姿势控制信息演示,但房间中的其他用户的姿势可能无法控制信息演示。在另一示例实施例中,多个用户能够控制系统的各方面。例如,可能期望多个演示者可控制系统的各方面,或者可能期望给予至少一个观众成员控制权。由此,一队用户可经由单个或多个捕捉设备来共享对演示的控制以更好地启用协作。
用户可共享控制演示的各方面的访问,具有有限的访问或不具有访问。例如,用户可以是例如主要用户,次要用户或观察用户。主要用户是具有控制系统的各方面的选项的任一用户。主要用户可具有向其他用户分发控制的选项。例如,主要用户可将房间中的第二用户指定为另一主要用户、次要用户或观察用户。观察用户可以是能够与其他用户交互但不经由姿势控制系统的用户。
次要用户可被授予控制系统的各方面的选项。次要用户可被给予临时控制,该控制一旦被授予就可以无限持续,或者该控制可以持续直到被取走。例如,主要用户可能正在演示信息,但最初不想要来自观众的交互。然而,在用户的演示结束时,主要用户可以向观众成员请求评论和反馈。在一示例中,主要用户可选择特定用户并给予该用户临时访问以便在次要用户正在提供反馈时控制系统。次要用户可作出姿势以控制所显示的信息,诸如通过返回到文字处理文档中的前一页、突出显示一章节或者在显示器上绘制虚拟线条(例如,圆圈和箭头)。由此,次要用户能够容易地经由姿势来与信息交互,这可提供对用户反馈的更高效且更好的理解。当完成时,主要用户可移除次要用户对控制的访问或者次要用户可放弃控制。
对系统的控制可以在用户之间转移或者在多个用户之间共享。例如,经由姿势的控制的转移或共享提供了供用户管理信息的更容易的方式,而不需要传递控制器或不必靠近计算环境来控制演示的各方面。用户可以从他们的座位经由姿势与系统交互。不止一个用户可以是主要用户,诸如存在多个演示者的情况。每一个演示者都可控制演示的特定方面,以使得在他们可能共存时,所演示的内容可以是专用的并可由特定用户访问。
在另一示例中,主要用户可开放发言权以获得来自任何用户的反馈,由此向次要用户提供对房间中的任何用户的访问。主要用户可经由诸如参与的任何用户等任何参与者的姿势来促进对信息控制的访问。例如,在演示结束时,主要用户可以向系统发出命令以使得该系统处理并识别房间中的任何用户的姿势并将该姿势转化成控制。在另一示例中,系统可识别对控制的请求,并确定是否同意该请求。例如,请求控制的姿势可包括用户将手臂笔直向上举在空中。系统可识别观众成员执行的姿势。系统可指示用户已经经由姿势请求控制。系统可以在识别出请求控制的姿势时向用户提供对控制该系统的各方面的访问,或者系统可以等待直到主要用户授权给予次要用户控制。
在另一示例中,系统可以诸如经由演示者设置的设置来被指示为等待直到演示中的特定时刻以便向次要用户提供任何访问。例如,在允许其他用户具有控制之前,系统可被指示为等待主要用户请求反馈,这可由供系统识别的姿势来指示。然而,与此同时,系统可通过标识作出请求控制的姿势的每一个用户来生成用户请求的队列。然后,当主要用户准备好来自观众的反馈时,系统可显示队列以指示用户请求控制的次序。
系统可标识作出请求的用户的姿势的其他情况,诸如当前信息演示。例如,在主要用户正在演示时,观众成员可作出请求控制的姿势,以指示该用户期望给予反馈和/或具有对系统的控制权。如上所述,系统可识别该用户的姿势并在队列中标识该用户,而不是此时给予该观众成员控制权。当主要用户请求反馈时,系统可以不仅指示该用户的请求,而且可以返回到演示中该用户作出姿势的时间点。由此,系统可以自动返回到用户作出姿势时的显示画面。
注意,数据可由用户在其视野内的任何捕捉设备捕捉,并且与该捕捉设备联网的任何计算环境可以对捕捉到的数据采用姿势识别技术。例如,主计算环境210可以对捕捉设备205捕捉到的数据采用姿势识别。在另一示例中,与特定用户相关联的计算环境可识别姿势。例如,用户263可以与计算环境214交互并且捕捉设备204可捕捉表示用户263的姿势的数据。
用于对系统进行相同控制的姿势可以变化。在上述示例中,用户可通过经由完全伸展手臂举手来作出请求控制的姿势。然而,用于请求控制的姿势可以是小规模姿势,诸如手指或手运动。可定义姿势以限制演示流程中的中断。姿势可取决于用户与其交互的计算环境而变化。例如,图2B中的用户263可以与计算环境214进行小规模交互,并且可应用用户或计算环境专用的姿势。用户可具有在例如该用户的个人计算环境或蜂窝电话上可用的一组定义的姿势数据。用户由此可以取决于该用户的个人偏好来以独特的方式作出姿势。
对用户的访问级别的指定可经由多个可用源来授予,诸如由物理空间中的另一用户或应用的管理员、系统本身,等等。例如,系统可捕捉物理空间中的数据。系统可以从捕捉数据中标识物理空间中的所有四个用户260、261、262、263。系统可以简单地标识人类目标在物理空间中,或者系统能够基于例如身体/脸部识别技术来标识特定用户。系统可以为每一个用户指定特定访问级别。
系统可单独基于在场或基于用户在物理空间中的位置来指定用户的访问级别。例如,系统可分析图2A和2B所示的捕捉设备202捕捉到的数据,并从捕捉到的数据中标识人类。物理空间中检测到的每一个用户都可以被默认指定为具有特定访问级别。例如,仅基于在场的用户访问级别可被默认设置成次要用户访问。系统可基于用户在房间中的位置来标识用户的访问级别。例如,房间的特定部分中的就座的一个或多个用户或例如孩子可被默认指定为观察用户。可修改对用户访问级别的指定。用户的指定可以是动态的,改变的以反映用户的活动。例如,当用户正在说话时,系统可聚焦于正在说话的用户以便进行姿势控制。
具有多个参与者的各种场景可以各自具有不同的需求,并由此此处描述的各种特征对一场景可以是唯一的并且包括任何变化的特征组合。例如,来自此处描述的示例方法的第一方法或用于标识物理空间中的主要用户的这样的类似方法可能对于第一场景更加适合,但用于选择主要用户的第二方法可能在另一场景中更加适合。类似地,访问级别可取决于任何数量的特性而变化,诸如应用、会议类型、用户类型、所演示的信息的类型、甚至一天中的时间或房间中的光照。
在另一示例中,用户可以登录到系统并且该用户的身份可以与特定访问级别相关联。例如,信息演示的创建者可被关联为主要用户,并且在标识出物理空间中的创建者时,系统可将目标指定为主要用户。系统检测到的其他用户可被给予次要用户指定。或者,将成为主要用户的演示的观众的用户可以登录到系统并在登录时被给予指定。或者,主要用户可以为会议的参与者定义访问级别。
用户简档可指示该特定用户的适当访问级别。例如,系统可具有用户简档信息的数据库(例如,身体或脸部特征数据),并且可将用户相关到用户简档。系统可基于用户简档或基于如从捕捉到的数据中标识的身体特性来标识特定用户。例如,系统可分析捕捉设备202捕捉到的数据并采用身体/脸部识别技术来标识特定用户。如果一用户的用户简档不存在,则系统可创建一个用户简档。用户简档可提供对系统将要采用的该用户的访问级别的指示。
作为主要用户、次要用户或观察用户的用户指定可以是永久指定。或者,指定可以改变或被改变。此外,可修改每一访问级别的设置/限制/约束。例如,次要用户可具有控制系统的各方面的访问,但可以不具有向其他用户授予控制权的授权。然而,设置可被修改以使得次要用户可向其他用户授予访问。系统或应用可基于默认信息来设置访问级别,或者可以为一场景专门定义级别。
如上所述,用户可执行一姿势以指定另一用户的访问级别。姿势还可适用于控制或管理信息演示的各方面。例如,如果演示以文字处理应用的形式执行,则用户可作出姿势以便在文档中前进或后退一页。姿势可以适用于突出显示文档的一方面和/或在屏幕上放大该方面以供具有对所显示的演示的访问的用户进行更靠近的分析。
视觉表示可对应于共享对系统的控制的方法。例如,如果对系统的控制从一个用户转移到下一个用户,则视觉表示可保持不变,但转换与其相关联的用户以对应于获得控制权的用户。在另一示例中,每一个用户都可具有与他或她相关联的视觉表示,如上所述。系统可通过与用户的视觉表示相关的某一指示来指示哪些用户当前具有控制权。例如,不具有控制权的用户的视觉表示可以从显示画面中变灰或淡出。在另一示例实施例中,只有当前正在作出姿势的用户的视觉表示才被显示和/或动画化。
对控制权的指定可经由姿势完成。例如,主要用户可以按特定方式作出姿势以给予次要用户控制系统的各方面的选项。考虑诸如图2B中的用户260等主要用户向诸如用户261、262、263等一组用户进行演示。主要用户可使用姿势来管理信息演示,诸如改变显示画面、在屏幕上来回移动物体、虚拟地在屏幕上绘图、突出显示文档的章节,等等。
系统可访问或以其他方式存储不需要是用户专用的简档,但这些简档可能包括关于不同风格的信息。例如,风格简档可包括适用于演示类型、演示者类型、观众类型等的姿势信息。可以设置偏好或者可以包括定义应用于每一风格的姿势的默认信息。用户可选择要为特定演示实现的风格简档的类型。例如,如果演示者是为一个班级学生教音乐的作曲家,则姿势可以是张大的、大幅度姿势。然而,如果演示者是具有矜持姿势的图书资料员,则演示者可选择包括较小规模的运动的姿势。考虑可能存在于向一组潜在客户演示游戏信息的销售人员和在庭审期间向陪审团演示信息的律师之间的差异。销售人员可能希望以可具有有趣语调的娱乐方式进行演示。由此,适用于该演示的风格简档可以是具有较大的大幅度运动的简档,而风格简档可指示应显示具有高动画水平的视觉表示。然而,在庭审的示例中,风格简档可包括较小的姿势和最少的动画。
如上所述,远程计算环境可通过网络共享资源,包括应用以及经由来自各自物理空间中的用户的输入的对系统的控制。由此,远离图2A和2B所示的物理空间201的用户可通过在该用户的本地物理空间中作出姿势来控制系统200的一方面。经由网络,对于远程用户是本地的计算环境可以经由网络与其他远程或本地计算环境共享信息,从而使得远程用户能够经由姿势控制与系统联网的其他计算环境的一方面。由此,如果例如应用正在远程系统上执行,则可处理和分析用户姿势以控制远程系统的各方面。
图2D和2E描绘了可包括捕捉设备202、计算设备212和显示设备222的系统200。例如,捕捉设备202、计算设备212和显示设备222各自可包括执行所需功能的任何合适的设备,诸如此处所描述的设备。
图2D和2E分别从侧视图和俯视图描绘了示例目标识别、分析和跟踪系统,以及用户265经由定点聚焦功能进行交互的示例实施例。该示例将控制示例描绘成与用户的视角相关。用户可以经由定点姿势与系统交互,其中该系统具备定点和聚焦功能两者的能力。换言之,该系统对用户定点姿势的分析可以是多维的,考虑用户的视线和手运动以确定该用户在屏幕上的焦点。捕捉设备202例如可以跟踪用户的手位置以确定用户的头对准的方向。捕捉设备可具有跟踪用户的实际眼睛运动的保真度,以检测用户眼睛的对应于屏幕上的位置的视线。系统还可跟踪用户的手、手臂和手指运动,诸如跟踪用户的手、手臂或手指在物理空间中的位置变化。系统可分析该运动并确定用户的身体部位与屏幕上的预期兴趣点之间的视线。通过用手/手臂/手指坐标来跟踪头/眼睛视线,系统允许用户用更自然和本能的运动来作出运动或姿势,其中用户指向屏幕上的特定位置,系统可使用来自捕捉设备的关于该用户的附加输入来确定屏幕上的感兴趣的位置。系统可以在屏幕上显示表示该系统对用户指向哪里的解释的指针或某一其他符号。
图3是可结合所公开的用于增强生产力场景的技术的示例性联网或分布式系统300的示例。当然,实际网络和数据库环境可以按各种配置来安排;然而,这里示出的示例环境提供用于理解在其中实施例可以操作的环境类型的框架。
系统300可包括计算环境302、304、306、308和捕捉设备312、314、316的网络。这些实体302、304、306、308、312、314和316中的每一个都可以包括或利用程序、方法、数据存储、可编程逻辑等。用户322、324、326和328被示为本地地分别与计算环境302、306、304相关联。在此处公开的各实施例中,一组用户可复制与其他用户开会的真实世界体验以便在会议类型的设置中进行协作。体验可在其中用户处于不同物理位置且经由网络进行通信的虚拟世界中被复制。用户位置处的显示器可呈现表示该组用户的化身。
计算环境302、304、306和308以及捕捉设备312、314和316可通过网络250通信。网络250可表示任何数量或类型的网络,以使得在相同或不同位置的计算环境302、304、306、308可经由任何类型、数量的网络或其组合来联网。网络250可以是被安排成消息可以通过任何数量的链接或节点从网络的一个部分传递至另一个部分的任何网络。例如,根据当前所公开的主题的一方面,每一实体计算环境、捕捉设备和显示设备都可以包含可使用API或其它对象、软件、固件和/或硬件来请求其它计算环境、捕捉设备和显示设备中的一个或多个的服务的离散的功能程序模块。与任何数量的相应的本地计算环境相关联的任何数量的用户都可经由网络250访问同一应用。由此,通过经由网络250来进行通信,任何数量的用户可以经由姿势与多个其他用户交互。例如,在第一位置执行的姿势可被转化并映射到包括第一位置的多个位置处的显示器。
该网络250本身可以包括向此处描述的基于姿势的系统提供服务的其它计算实体,且其本身可以表示多个互连的网络。网络250可包括例如内联网、互连网络、因特网、个人区域网(PAN)、校园网(CAN)、局域网(LAN)、广域网(WAN)、计算机网络、游戏网络等。网络250还可表示连接网络中的各个设备的技术,诸如光纤、公共交换电话网络(PSTN)、蜂窝电话网络、全球Telex网络、无线LAN、以太网、电源线通信等。计算环境可以通过有线或无线系统、本地网络或广泛分布的网络连接在一起。任何合适的无线接口都可用于网络通信。例如,无线链接可以根据以下协议:GSM、CDMA、UMTS、LTE、WIMAX、WIFI、ZIGBEE或其组合。网络可包括云或云计算。例如,云基础结构可包括通过数据中心传递并构建在服务器上的多个服务。这些服务可以在提供对联网基础结构的访问的任何地方访问。云对于用户可以看上去是单个接入点,而基础结构对客户机可以不是可见的。
如上所述,计算环境可以是用于处理捕捉设备接收到的数据的任何合适的设备,诸如专用视频游戏控制台或更一般的计算设备,诸如蜂窝电话或个人计算机。出于示例性目的,计算环境308是服务器,计算环境306是移动手持式计算设备,而计算环境302和306表示任何类型的计算环境。
在这些示例中,诸如捕捉设备312、314和316等捕捉设备可捕捉用户存在于其中的物理空间中的场景。诸如用户322、324、326和328等用户可以分别在位置#1、#3和#4的捕捉设备312、314和316的捕捉视野内。每一捕捉设备都可捕捉表示用户在该位置的姿势的数据。每一个位置的捕捉设备都可以经由有线连接、无线连接和/或经由网络连接来连接到本地计算环境。例如,在位置#1,捕捉设备312被示为经由线缆304连接到计算环境302。有线连接可包括将捕捉设备耦合到计算环境的电缆,诸如S视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等。捕捉设备可以适用于直接插到计算环境中,或者可以按其他方式结合到能够处理捕捉数据的计算环境中。
捕捉设备可将捕捉到的数据提供给计算环境以供处理。计算环境可以对数据采用姿势识别技术,其中用户可作出姿势以控制基于姿势的系统的各方面,包括计算环境或应用的各方面。在一示例实施例中,捕捉设备本身可以是能够处理捕捉到的数据的计算环境。例如,任何捕捉设备312、314、316都可具有诸如处理器等用于处理捕捉数据并采用姿势识别技术的能力。例如,在位置#2,捕捉设备314被示为结合到手持式计算设备304中。
每一个计算环境302、304、306、308和对应的捕捉设备被示为在各个位置,即位置#1、位置#2、位置#3和位置#4。如此处所使用的,位置是包括系统的各个部分可位于其中的任何位置的宽泛术语。例如,位置#1,#2,#3,and#4可以是彼此非常靠近的,诸如在房屋中的不同房间,彼此非常远离,诸如在不同的州,或其任何组合。各个位置可以指相同、一般、本地位置中的特定位置。例如,每一个位置#1、#2、#3和#4可以指系统的组件在诸如会议室等一般位置中的特定位置。系统300的各个部分可以诸如经由网络250来进行本地或远程通信。
例如,考虑可被发现为适应工作环境的联网系统。例如,位置#1和位置#3可表示相同的会议室,以使得计算环境302、306和捕捉设备312、314在相同的房间中。本地设备可经由本地连接,诸如经由网络250,来连接。位置#2可以是远程位置,以使得远程服务器308可以在远程位置维护。并且计算环境304可以是用户在家工作的居所并且经由家庭网络连接登录到网络250。
由此,可以构想位置指的是用于捕捉或处理姿势数据的设备可位于其中的任何位置。在另一示例中,考虑其中远程用户连接到在服务器308处主存的游戏服务的游戏网络。每一个位置#1、#3和#4的远程用户可经由网络250连接并且可以彼此玩同一个游戏。在另一示例中,位置可以是本地的,其中本地用户可以在同一房间中的各自计算环境上工作并且通过局域网250来彼此交互。
捕捉设备可将捕捉到的数据提供给计算环境以供处理。计算环境可以对数据采用姿势识别技术,其中用户可作出姿势以控制基于姿势的系统的各方面,包括计算环境或应用的各方面。在一示例实施例中,捕捉设备本身可以是能够处理捕捉到的数据的计算环境。例如,任何捕捉设备312、314、316都可具有诸如处理器等用于处理捕捉数据并采用姿势识别技术的能力。例如,在位置#2,捕捉设备314被示为结合到手持式计算设备304中。
在位置#1,捕捉设备312被示为经由线缆305连接到计算环境302,但还可经由与网络250的连接251来与本地计算环境通信。例如,在相同的位置#1的捕捉设备312和计算环境302可以是家庭无线网络250的一部分。捕捉设备312可捕捉表示用户322的姿势的数据并通过家庭无线网络250将该数据提供给计算环境302。由此,捕捉设备312和计算环境302可以是在不同的房间,例如在更一般的位置,即位置#1。例如,计算环境302可以是家庭无线网络250中的中央计算环境302,并且可位于诸如办公室等一个房间中。捕捉设备312和显示器303可位于另一房间中,诸如家里的媒体或游戏房。捕捉设备312可以与计算环境302联网以使其能够捕捉用户322的数据,将该数据提供给计算环境302以供处理,并接收从计算环境到显示器303的输出。
类似地,计算机环境或捕捉设备可以输出到对于计算环境或捕捉设备中的任一个或两者是本地或远程的显示器。例如,在位置#1,计算环境302被示为具有显示组件303。然而,可以构想,类似于捕捉设备304,显示器303可经由有线连接、无线连接和/或经由网络连接来连接到计算环境302。由此,显示组件303可以是例如家庭无线网络250的一部分,并且经由线缆或经由网络250从捕捉设备304接收供显示的输出。
联网系统的组件可以在一位置内本地地共享信息或跨位置远程地共享信息。在一示例实施例中,本地计算环境302从捕捉设备312接收表示用户322的数据。计算环境302可输出到本地显示器,诸如计算环境302的显示组件303或以其他方式连接到计算环境302的另一显示设备。计算环境302可以另选地或者也将数据提供给远程计算环境或远程显示组件以供显示。例如,计算环境302可以通过网络250与计算环境316通信。计算环境306可以从计算环境302接收数据并将用户322的姿势映射到对计算环境306是本地的显示组件307。
在另一示例实施例中,捕捉设备312可通过网络250提供数据以供诸如计算环境304、306或308等远程计算环境来分析或显示。由此,对用户是远程的计算环境可处理由对用户322是本地的捕捉设备312捕捉的数据,但在远程计算环境处显示该用户的视觉表示。
存在支持分布式计算环境的各种系统、组件和网络配置。例如,计算系统可以通过有线或无线系统、本地网络或广泛分布的网络连接在一起。目前,许多网络被耦合至因特网,后者从而为广泛分布的计算提供基础架构并涵盖多个不同的网络。无论是否被耦合至因特网,任何这样的基础架构都可以用于所提供的系统和方法。
网络基础架构可以允许诸如客户机/服务器、对等或混合体系结构等各种网络拓扑结构的主机。“客户端”是使用与其无关的另一类或组的服务的一类或组中的成员。在计算中,客户端是进程,即大致上是请求由另一程序提供的服务的一组指令或任务。客户端进程使用所请求的服务,而无需关于其他程序或服务本身的任何工作细节。在客户端/服务器体系结构中,尤其在联网系统中,客户端通常是访问另一计算机(例如,服务器)所提供的共享网络资源的计算机。取决于环境,任何实体302、304、306、308、312、314和316可被认为是客户机、服务器或两者。并且,此外,关于娱乐控制台,它可以是对于服务器的客户机。
服务器通常,但不必须是可通过诸如因特网等远程或本地网络访问的远程计算机系统。客户端进程可在第一计算机系统中活动,而服务器进程可在第二计算机系统中活动,它们通过通信介质相互通信,由此提供分布式功能并允许多个客户端利用服务器的信息收集能力。任何软件对象可以跨多个计算设备或对象分布。
客户机和服务器利用由协议层提供的功能来彼此通信。例如,超文本传输协议(HTTP)是结合万维网(WWW),即“web”使用的常见协议。通常,诸如网际协议(IP)地址等计算机网络地址或诸如统一资源定位器(URL)等其它引用可以用于彼此标识服务器或客户计算机。网络地址可以被称为URL地址。可以通过通信介质来提供通信,例如客户机和服务器可以通过TCP/IP连接来彼此耦合以进行大容量通信。
由此,可以构想位置指的是用于处理或捕捉姿势数据的设备可位于其中的任何位置。在另一示例中,考虑其中远程用户连接到在服务器308处主存的游戏服务的游戏网络。每一个位置#1、#3和#4的远程用户可经由网络250连接并且可以彼此玩同一个游戏。在另一示例中,位置可以是本地的,其中本地用户可以在同一房间中的各自计算环境上工作并且通过相同的系统组件或通过局域网来彼此交互。
如此处所使用的,对系统的引用可以是对图2A-3所示的系统200中的任一单个部分、其任何组合或能够执行类似功能的任何附加组件或计算环境的应用。例如,计算设备302可以提供参考图1所示的计算设备212或以下参考图8描述的计算机的功能。可以构想诸如来自图1-2C的210、212、213、214等此处描述的计算环境或来自图3的计算环境302、304、306、308中的任一个可被配置为诸如参考图1描述的目标识别、分析和跟踪系统10的目标识别、分析和跟踪系统,并且计算环境中的任一个可采用用于姿势识别、缩放或转化的技术。如图1、2A-2E和3所示,计算环境210,212,213,214可包括显示设备或可以按其他方式连接到显示设备。计算环境可包括其自己的相机组件,连接到独立捕捉设备,或者可以连接到具有诸如捕捉设备202等相机组件的设备。例如,计算环境212可以耦合到可以从物理空间捕捉数据的捕捉设备202或以其他方式从捕捉设备202接收用户204的姿势信息。
考虑到可以根据此处提供的通用架构构建的各种计算环境,以及在诸如图3的网络环境中的计算中可能发生的进一步变化,此处提供的系统和方法不能被解释为以任何方式限于某一特定的计算体系结构或操作系统。相反,当前所公开的主题不应限于任何单个实施例,而是应该根据所附权利要求书的广度和范围来解释。
最后,应当注意,此处描述的各种技术可以结合硬件或软件,或在适当时以两者的组合来实现。因此,当前所公开的主题的方法、计算机可读介质、以及系统或其特定方面或部分可采取包含在诸如软盘、CD-ROM、硬盘驱动器或任何其它机器可读存储介质等有形介质中的程序代码(即,指令)的形式,其中当程序代码被加载到诸如计算机等机器内并由其执行时,该机器成为用于实现本主题的装置。
在程序代码在可编程计算机上执行的情况下,计算环境通常可以包括处理器、该处理器可读的存储介质(包括易失性和非易失性的存储器和/或存储元件)、至少一个输入设备、以及至少一个输出设备。可例如通过使用数据处理API等来利用本发明的域专用编程模型的创建和/或实现的各方面的一个或多个程序较佳地用高级过程语言或面向对象的编程语言来实现以与计算机系统通信。然而,如果需要,该程序可以用汇编语言或机器语言来实现。在任何情形中,语言可以是编译语言或解释语言,且与硬件实现相结合。
图4示出了可用于目标识别、分析和跟踪的捕捉设备202的示例性实施例,其中该目标可以是用户或物体。根据一示例实施例,捕捉设备202可被配置成经由任何合适的技术,包括例如飞行时间、结构化光、立体图像等来捕捉带有包括深度图像的深度信息的视频,该深度信息可包括深度值。根据一个实施例,捕捉设备202可以将所计算的深度信息组织成“Z层”,或与从深度相机沿其视线延伸的Z轴垂直的层。
如图4所示,捕捉设备202可包括图像相机组件22。根据一个示例性实施例,图像相机组件22可以是可捕捉场景的深度图像的深度相机。深度图像可以包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每个像素都可表示深度值,比如例如所捕捉场景中的对象距相机的以厘米、毫米等为单位的长度或距离。
如图4所示,根据一示例性实施例,图像相机组件22可以包括可用于捕捉场景的深度图像的IR光组件24、三维(3-D)相机26、和RGB相机28。例如,在飞行时间分析中,捕捉设备202的IR光组件24可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机26和/或RGB相机28来检测从场景中的一个或多个目标和物体的表面反向散射的光。在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备202到场景中的目标或物体上的特定位置的物理距离。附加地,在其他示例性实施例中,可以将出射光波的相位与入射光波的相位相比较来确定相移。该相移然后可以用于确定从捕获设备202到目标或物体上的特定位置的物理距离。
根据另一示例性实施例,可以使用飞行时间分析来通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度来间接地确定从捕捉设备202到目标或物体上的特定位置的物理距离。
在另一示例性实施例中,捕捉设备202可以使用结构化光来捕捉深度信息。在这样的分析中,图案化光(即被显示为诸如网格图案或条纹图案之类的已知图案的光)可以经由例如IR光组件24被投影到场景上。在落到场景中的一个或多个目标或物体的表面上以后,作为响应,图案可以变为变形的。图案的这样的变形可以被例如3-D相机26和/或RGB相机28捕捉,并且随后可被分析以确定从捕捉设备202到目标或物体上的特定位置的物理距离。
根据另一实施例,捕捉设备202可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成深度信息的视觉立体数据。在另一示例实施例中,捕捉设备202可使用点云数据(point cloud data)和目标数字化技术来检测用户的特征。
捕捉设备202还可以包括话筒30或话筒阵列。话筒30可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,麦克风30可以被用来减少目标识别、分析,及跟踪系统10中的捕捉设备202和计算环境212之间的反馈。附加地,话筒30可用于接收也可由用户提供的音频信号,以控制可由计算环境212执行的诸如游戏应用、非游戏应用等之类的应用。
在一示例性实施例中,捕捉设备202还可包括可与图像相机组件22可操作地通信的处理器32。处理器32可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。例如,计算机可读介质可包括用于接收场景数据的计算机可执行指令,其中该数据包括表示物理空间中的目标的数据。指令包括用于如此处所描述的姿势简档个性化和姿势简档漫游的指令。
捕捉设备202还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机26或RGB相机28所捕捉的图像或图像的帧、或任何其他合适的信息、图像等等。根据一示例性实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图4所示,在一个实施例中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
如图4所示,捕捉设备202可经由通信链路36与计算环境212进行通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境212可以经由通信链路36向捕捉设备202提供时钟,该时钟可用于确定何时捕捉例如场景。
附加地,捕捉设备202可以通过通信链路36向计算环境212提供由例如3-D相机26和/或RGB相机28捕捉到的深度信息和图像、以及可以由捕捉设备202生成的骨架模型。计算环境212然后可使用该骨架模型、深度信息和捕捉的图像来例如控制诸如游戏或文字处理程序之类的应用。例如,如图4所示,计算环境212可包括姿势库192。
如图所示,在图4中,计算环境212可包括姿势库192和姿势识别引擎190。姿势识别引擎190可包括姿势过滤器191的集合。过滤器可包括可识别姿势或以其他方式处理深度、RGB或骨架数据的代码和相关联的数据。每个过滤器191都可包括一并定义姿势和该姿势的参数或元数据的信息。例如,包括一只手从身体背后到经过身体前方的运动可被实现为包括表示用户的一只手从身体背后到经过身体前方的移动的信息的姿势过滤器191,该移动将由深度相机来捕捉。然后可以为该姿势设置参数。在姿势是投掷的情况下,参数可以是该手必须达到的阈值速度、该手必须行进的距离(要么为绝对的、要么相对于用户的整体大小而言)、以及识别器引擎对发生了该姿势的置信度评级。用于姿势的这些参数可以因应用而异、因单个应用的各上下文而异、或者在一个应用的一个上下文内随时间变化。
尽管构想了姿势识别引擎190可包括姿势过滤器的集合,其中过滤器可包括表示用于处理深度、RGB或骨架数据的代码或以其他方式表示用于进行这样的处理的组件,但对过滤器的使用不旨在将分析限于过滤器。过滤器是分析系统所接收的场景的数据,并将该数据与表示姿势的基本信息进行比较的示例组件或代码部分的表示。作为分析的结果,系统可产生对应于输入数据是否对应于姿势的输出。表示姿势的基本信息可被调整为对应于代表用户的捕捉运动的数据历史中重复出现的特征。例如,基本信息可以是如上所述的姿势过滤器的一部分。但是,构想了任何合适的用于分析输入数据和姿势数据的方式。
在一示例实施例中,姿势可被识别为进入修改模式的触发,在修改模式中,用户可修改该用户的姿势简档中的姿势参数。例如,姿势过滤器191可包括用于识别修改触发姿势的信息。如果识别到修改触发姿势,则应用可进入修改模式。修改触发姿势可在应用之间、在系统之间、在用户之间等变化。例如,网球游戏应用中相同的姿势可能不是保龄球游戏应用中相同的修改触发姿势。
可将由相机26、28和设备202捕捉的骨架模型以及与其相关联的移动的形式的数据与姿势库192中的姿势过滤器191进行比较来标识用户(如骨架模型所表示的)何时执行了一个或多个姿势。由此,到诸如过滤器191之类的过滤器的输入可以包括诸如关于用户的关节位置的关节数据,如关节处相交的骨骼所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。如所提到的那样,可以为姿势设置参数。来自过滤器191的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及姿势发生的时间之类的内容。
计算环境212可以包括处理器195,处理器195可处理深度图像来确定场景中有什么目标,如房间中的用户18或物体。这例如可以通过将深度图像的共享相似距离值的像素编组在一起来实现。该图像也可被解析以产生用户的骨架表示,其中标识出诸如关节以及关节间流动的组织之类的特征。存在骨架映射技术,其使用深度相机来捕捉个人,并从中确定如下各项:该用户骨架上的多个点,手、腕、肘、膝、鼻、踝、肩的关节,以及骨盆与脊椎相交之处。其他技术包括:将图像变换成人的人体模型表示以及将图像变换成人的网格模型表示。
在实施例中,处理是在捕捉设备202本身上执行的,并且深度和色彩(其中捕捉设备202包括3D相机26)值的原始图像数据经由链路36被传送给计算环境212。在另一实施例中,处理由耦合到相机402的处理器32来执行,并且然后经解析的图像数据被发送给计算环境212。在又一实施例中,原始图像数据和经解析的图像数据二者都被发送给计算环境212。计算环境212可以接收经解析的图像数据,但是它仍然可以接收原始数据以用于执行当前过程或应用。例如,如果场景的图像经过计算机网络被传送给另一用户,则计算环境212可以传送原始数据以供另一计算环境处理。
计算环境212可使用诸如图4所示的姿势库192和姿势简档205来解释骨架模型的移动并基于移动来控制应用。计算环境212可以例如以诸如显示设备193之类的显示器上的化身或指针的形式来对用户的表示进行建模和显示。显示设备193可包括计算机监视器、电视机屏幕、或任何合适的显示设备。例如,相机控制的计算机系统可捕捉用户图像数据,并在电视机屏幕上显示映射到用户的姿势的用户反馈。用户反馈可以如图1中所示那样被显示为屏幕上的化身。化身的运动可直接通过将化身的移动映射到用户的移动来控制。用户的姿势可以被解释来控制应用的某些方面。
根据一示例性实施例,目标可以是处于诸如站着或坐着等任何姿势的人类目标、具有物体的人类目标、两个或更多人类目标、一个或多个人类目标的一个或多个附加物等,所述目标可被扫描、跟踪、建模和/或评估以实现如下各项:生成虚拟屏幕、将用户与一个或多个所存储的简档进行比较、和/或在诸如计算环境212等计算环境中存储与用户相关联的姿势简档205。姿势简档205可以是用户、应用或系统专用的。姿势简档205例如可以经由应用来访问,或者可以是在系统范围内可用的。姿势简档205可以包括用于加载特定用户简档信息的查找表。虚拟屏幕可以与可由上面参照图1所述的计算环境212执行的应用进行交互。
姿势简档205可以包括用户标识数据,诸如目标的所扫描的或所估计的身体大小、骨架模型、身体模型、语音样本或口令、目标性别、目标年龄、先前的姿势、目标限制、以及目标对系统的标准使用,比如例如坐、惯用左手或惯用右手的倾向性,或站在非常靠近捕捉设备之处的倾向性。该信息可用于确定捕捉场景中的目标与一个或多个用户之间是否存在匹配。如果存在匹配,则用户的姿势简档205可被加载,并在一个实施例中可允许系统使得姿势识别技术对用户进行自适应,或者根据姿势简档205来使得计算或游戏体验的其他元素进行自适应。
一个或多个姿势简档205可被存储在计算机环境212中,并在多个用户会话中使用,或者一个或多个个人简档可以是仅为单个会话而创建的。用户可以具有建立简档的选项,其中他们可向系统提供信息,比如语音或身体扫描、年龄、个人偏好、惯用右手或左手、化身、姓名等。还可以为除进入捕捉空间以外不向系统提供任何信息的“访客”生成或提供姿势简档。可以为一个或多个访客建立临时的个人简档。在访客会话的结束时,可以存储或删除访客姿势简档。
姿势库192、姿势识别引擎190、以及姿势简档205可以用硬件、软件或两者的组合来实现。例如,姿势库192和姿势识别引擎190可被实现为在图4所示的计算环境212的诸如处理器195等处理器上执行的,或在图7的处理单元101或图8的处理单元259上执行的软件。
要强调的是,以下描述的图4以及图7和8中描绘的框图是示例性的,且不旨在暗示一具体实现。由此,图4的处理器195或32、图7的处理单元101、和图8的处理单元259可被实现为单个处理器或多个处理器。多个处理器可以分布式或集中式地定位。例如,姿势库192可被实现为在捕捉设备的处理器32上执行的软件,或者它可被实现为在计算环境212中的处理器195上执行的软件。构想了适用于执行此处公开的技术的处理器的任意组合。多个处理器可无线地、经由硬连线、或以其组合来通信。
姿势库和过滤器参数可由姿势工具为应用或应用的上下文微调。上下文可以是文化上下文,并且可以是环境上下文。文化上下文指的是使用系统的用户的文化。不同的文化可使用相似的姿势来传递明显不同的含义。例如,希望向另一个用户告知“看”或“使用他的眼睛”的美国用户可将他的食指放在他头上靠近他的眼睛的末端处。然而,对意大利用户而言,该姿势可被解释为对黑手党的指代。
类似地,在单个应用的不同环境之中可能存在不同的上下文。以涉及操作摩托车的第一用户射击游戏为例。当用户在步行时,将手指朝向地面握拳并向前且从身体向外伸出拳头可表示出拳姿势。当用户在驾驶上下文中时,相同的运动可表示“换挡”姿势。
姿势可以被一起编组到互补姿势的风格包中,这些互补姿势可能以该风格被应用使用。互补姿势-要么如通常一起使用的那些姿势中那样是互补的,要么如一个姿势的参数的改变将改变另一姿势的参数中那样是互补的-可被一起分组到风格包中。这些包可被提供给应用,该应用可选择至少其中一个。应用可微调或修改姿势或姿势过滤器191的参数来最佳地适合应用的独特方面。当微调该参数时,也微调该姿势或第二姿势的第二互补参数(在相互依赖的意义上)使得这些参数保持互补。用于视频游戏的风格包可包括诸如第一用户射击、动作、驾驶和体育等风格。
图5A描绘了可从捕捉设备202生成的用户的示例骨架映射。在该实施例中,标识出各个关节和骨骼:每一手502、每一前臂504、每一肘506、每一二头肌508、每一肩510、每一髋512、每一大腿514、每一膝516、每一小腿518、每一足520、头522、躯干524、脊椎的顶部526和底部528,以及腰530。在跟踪更多点的情况下,可标识出附加的特征,比如手指或脚趾的骨骼和关节,或面部的各个特征,如鼻和眼。
用户可通过移动他的身体创建姿势。姿势包括用户的运动或姿态,其可被捕捉为图像数据并解析其意义。姿势可以是动态的,包括运动,如模仿投球。姿势可以是静态姿态,如在一个人的躯干524前面交叉握住他的前臂504。姿势可以是单个移动(例如,跳跃)或连续的姿势(例如,驾驶),并且在持续时间上可短可长(例如,驾驶202分钟)。姿势也可结合道具,如通过挥动仿制的剑。姿势可包括多于一个身体部位,如拍双手502,或是较微小的运动,如撅起一个人的嘴唇。
用户的姿势可用作一般计算上下文中的输入。例如,手502或其他身体部位的各种运动可对应于常见的系统级任务,如在分层列表中向上或向下导航、打开文件、关闭文件和保存文件。例如,用户能以手指向上指且掌心面向捕捉设备202来使他的手保持不动。他然后可以将手指朝向手掌收拢来形成拳头,并且这可以是指示基于窗口的用户界面计算环境中的焦点窗口应被关闭的姿势。姿势也可在视频游戏专用上下文中取决于游戏来使用。例如,对于驾驶游戏,手502和脚520的各种运动可对应于在一方向上操控车辆、换挡、加速和刹车。由此,姿势可指示映射到所显示的用户表示的、在诸如视频游戏、文本编辑器、文字处理、数据管理等各种各样应用中的各种各样的运动。
用户可通过自己在原地行走或奔跑来生成对应于行走或奔跑的姿势。例如,用户可另选地提起并放下每一腿512-520来在不移动的情况下模拟行走。系统可通过分析每一髋512和每一大腿514来解析该姿势。当一个髋部-大腿角(如相对于垂直线测量的,其中站立的腿具有0°的髋部-大腿角,而向前水平伸展的腿具有90°的髋部-大腿角)超过相对于另一大腿的特定阈值时,可识别一步。行走或奔跑可在交替腿的某一数量的连续步之后被识别。两个最近的步之间的时间可被认为是一周期。在不满足阈值角度达某一数量的周期之后,系统可确定行走或奔跑姿势已停止。
给定“行走或奔跑”姿势,应用可为与该姿势相关联的参数设定值。这些参数可包括上述阈值角度、发起行走或奔跑姿势所需的步数、结束姿势的没有发生步的周期数、以及确定姿势是行走还是奔跑的阈值周期。快周期可对应于奔跑,因为用户将快速地移动他的腿,而较慢的周期可对应于行走。
姿势最初可以与一组默认参数相关联,应用可用其自己的参数来覆盖该组默认参数。在这一场景中,不迫使应用提供参数,而是应用可改为使用一组允许在没有应用定义的参数的情况下识别姿势的默认参数。与姿势有关的信息可被存储用于预录制的姿势动画的目的。
存在可以与姿势相关联的各种输出。可以存在关于姿势是否正在发生的基线“是或否”。还可以有置信度水平,其对应于用户跟踪的移动对应于姿势的可能性。这可以是范围为0和1之间(包括端点)的浮点数的线性标度。在接收该姿势信息的应用不能接受假肯定作为输入的应用中,它可仅使用具有高置信度水平,如至少0.95的已识别的姿势。在应用必须识别姿势的每一实例的情况下,即使以假肯定为代价,它可使用至少具有低得多的置信度水平的姿势,如仅仅大于0.2的那些姿势。姿势可具有在两个最近步之间的时间的输出,并且在仅注册了第一步的情况下,这可被设为保留值,如-1(因为任何两步之间的时间必须为正)。姿势也可具有关于在最近一步期间达到的最高大腿角的输出。
另一示例性姿势是“脚跟提起跳”。在该姿势中,用户可通过将他的脚跟提离地面,但保持他的脚趾着地来创建该姿势。另选地,用户可跳向空中,其中他的脚520完全离开地面。该系统可通过分析肩510、髋512和膝516的角度关系来解析该姿势的骨架,以查看它们是否是等于直立的对齐位置。然后,可监视这些点和较高526和较低528脊椎点来发现任何向上加速。足够的加速度组合可触发跳跃姿势。加速度与某一姿势的足够的组合可满足转变点的参数。
给定该“脚跟提起跳”姿势,应用可为与该姿势相关联的参数设定值。参数可包括上述加速度阈值,其确定用户的肩510、髋512和膝516的某种组合必须向上移动多快来触发该姿势;以及包括肩510、髋512和膝516之间仍可触发跳跃的最大对齐角。输出可包括置信度水平,以及用户在跳跃时的身体角度。
基于将接收姿势的应用的细节来为姿势设定参数对于准确地标识姿势而言是重要的。正确地标识姿势以及用户的意图极大地有助于创建积极的用户体验。
应用可以为与各种转变点相关联的参数设置值来标识出使用预先录制的动画的点。转变点可由各种参数来定义,如特定姿势的标识、速度、目标或物体的角度、或其任何组合。如果转变点至少部分地由特定姿势的标识来定义,则正确地标识姿势有助于提高转变点的参数已被满足的置信水平。
对于姿势的另一参数可以是移动的距离。在用户的姿势控制虚拟环境中的化身的动作的情况下,该化身可以是手臂离球的长度。如果用户希望与该球交互并抓住它,则这可要求用户伸展他的手臂502-510到全长同时作出抓握姿势。在这一情形中,用户仅部分地伸展他的手臂502-510的类似的抓握姿势可能无法达到与球交互的结果。类似地,转变点的参数可以是对抓握姿势的标识,其中如果用户仅部分地伸展他的手臂502-510,从而没有实现与球交互的结果,则用户的姿势将不满足转变点的参数。
姿势或其一部分可将它必须在其中发生的空间体作为参数。在姿势包括身体移动的情况下,该空间体通常可相对于身体来表达。例如,对于惯用右手的用户的美式足球投掷姿势可仅在不低于右肩510a、且与投掷手臂502a-310a在头522的相同侧的空间体中识别。可能不必要定义空间体的所有边界,如对于该投掷姿势,其中从身体向外的边界留着不被定义,并且该空间体无限地向外延伸,或者延伸到正被监视的场景的边缘。
图5B提供了图4的姿势识别器引擎190的一个示例性实施例的进一步细节。如图所示,姿势识别器引擎190可包括用于确定一个或多个姿势的至少一个过滤器519。过滤器519包括定义姿势526(以下称为“姿势”)的信息,并可包括例如用于该姿势526的至少一个参数528或元数据。例如,包括一只手从身体背后越过身体前方的运动可被实现为包括表示用户的一只手从身体背后越过身体前方的移动的信息的姿势526,该移动将由深度相机来捕捉。然后可设定该姿势526的参数528。在姿势526是投掷的情况下,参数528可以是该手必须达到的阈值速度、该手必须行进的距离(绝对的,或相对于用户的整体大小)、以及由识别器引擎190进行评级的姿势526发生的置信度。姿势526的这些参数528可以因应用而异、因单个应用的上下文而异、或在一个应用的一个上下文内随着时间而变化。
过滤器可以是模块化的或是可互换的。在一实施例中,过滤器具有多个输入和多个输出,这些输入中的每个都具有一类型,这些输出中的每个都具有一类型。在这一情形中,第一过滤器可用与第一过滤器具有相同数量和类型的输入和输出的第二过滤器来替换,而不必更改识别器引擎190体系结构的其他方面。例如,可能具有用于驱动的第一过滤器,该第一过滤器将骨架数据作为输入并输出与该过滤器相关联的姿势526正在发生的置信度和转向角。在希望用第二驱动过滤器来替换该第一驱动过滤器的情况下(这可能是因为第二驱动过滤器更高效且需要更少的处理资源),可以通过简单地用第二过滤器替换第一过滤器来这样做,只要第二过滤器具有同样的输入和输出——骨架数据类型的一个输入、以及置信度类型和角度类型的两个输出。
过滤器不需要具有参数528。例如,返回用户的高度的“用户高度”过滤器可能不允许可被微调的任何参数。备选的“用户高度”过滤器可具有可微调参数,比如在确定用户的高度时是否考虑用户的鞋、发型、头饰以及体态。
对过滤器的输入可包括诸如关于用户的关节位置的关节数据,像在关节处相交的骨所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。来自过滤器的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。
姿势识别器引擎190可具有向姿势过滤器519提供功能的基础识别器引擎517。在一实施例中,识别器引擎517实现的功能包括:跟踪已识别的姿势和其他输入的随时间输入(input-over-time)存档、隐马尔可夫模型实现(其中模型化系统被假定为具有未知参数的马尔可夫过程—其中当前状态封装了确定将来状态所需的任何过去状态信息,因此不必为此目的而维护任何其它过去状态信息的过程,并且隐藏参数从可观察数据来确定)、以及求解姿势识别的特定实例所需的其他功能。
基础识别器引擎517可包括姿势简档520。例如,基础识别器引擎517可以为用户将姿势简档520临时加载到姿势识别引擎中,将姿势简档520与姿势过滤器信息存储在一起,或以其他方式从远程位置访问姿势简档520。姿势简档520可提供是过滤器519中的信息自适应以对应于特定用户的参数。例如,如上所述,姿势526可以是具有手必须行进的阈值速度或距离的参数的投掷。姿势简档520可以为投掷姿势526重新定义手必须行进的阈值速度或距离。因此,基础识别器引擎517可以用来自姿势简档520的参数来补充或替换过滤器519中的参数。过滤器519可以是默认姿势信息并且姿势简档520可以专门为特定用户加载。
过滤器519在基础识别器引擎517之上加载并实现,并且可利用引擎517提供给所有过滤器519的服务。在一实施例中,基础识别器引擎517处理所接收到的数据来确定它是否满足任何过滤器519的要求。由于这些诸如解析输入等所提供的服务是由基础识别器引擎517一次性提供而非由每一过滤器519提供的,因此这一服务在一段时间内只需被处理一次而不是在该时间段对每一过滤器519处理一次,由此减少了确定姿势所需的处理。
应用程序可使用识别器引擎190所提供的过滤器519,或者它可提供其自己的过滤器519,该过滤器被插入到基础识别器引擎517中。类似地,姿势简档可以插入到基础识别器引擎517中。在一实施例中,所有过滤器519具有启用该插入特性的通用接口。此外,所有过滤器519可利用参数528,因此可使用如下所述的单个姿势工具来调试并微调整个过滤器系统519。
这些参数528可由姿势工具521为应用或应用的上下文来调节。在一实施例中,姿势工具521包括多个滑块523以及身体524的图表示,每一滑块523对应于一参数528。当用相应的滑块523来调整参数528时,身体524可展示将被识别为具有这些参数528的姿势的动作以及将不被识别为具有这些参数528的姿势的动作,如所标识的。姿势的参数528的这一可视化提供了调试并细调姿势的有效手段。
图6描绘了为多个用户建立共享的演示体验的方法的示例流程图。例如,诸如图1-3所示的系统200、300可执行此处示出的操作。
在602,系统可呈现信息演示。如上所述,信息演示可包括其中演示信息的任何生产力场景,其中该演示可采取各种格式。在604,系统从包括诸如用户或非人类对象等目标的物理空间捕捉数据。如上所述,捕捉设备可捕捉场景的数据,诸如场景的深度图像,并扫描场景中的目标。捕捉设备可以确定场景中的一个或多个目标是否对应于诸如用户等人类目标。例如,为了确定场景中的目标或对象是否对应于人类目标,可对每个目标进行泛色填充并将其与人体模型的图案作比较。然后可扫描匹配人体模型的每个目标或物体来生成与其相关联的骨架模型。例如,可扫描被标识为人类的目标来生成与其相关联的骨架模型。然后可将该骨架模型提供给计算环境来跟踪该骨架模型并呈现与该骨架模型相关联的视觉表示。
可使用提供扫描已知/未知对象、扫描人类、以及扫描场景中的背景方面(例如,地板、墙)的能力的任何已知技术或此处公开的技术来检测物理空间中的目标的特征。可使用每一对象的所扫描的数据,包括深度和RGB数据的组合,来创建该对象的三维模型。该RGB数据被应用于该模型的对应区域。各帧之间的时间跟踪可以提高置信度并实时地自适应对象数据。由此,可使用对象特性以及随时间对对象特性中的变化的跟踪来可靠地跟踪其位置和定向实时地在各帧之间变化的对象。捕捉设备以交互式速率来捕捉数据,从而提高了数据的保真度,并允许所公开的技术处理原始深度数据,数字化场景中的对象,提取对象的表面和纹理,以及实时地执行这些技术中的任一种,以使得显示画面可以提供该场景的实时描绘。此外,多个捕捉设备可捕捉物理空间的数据。可以合并数据以使得姿势识别的保真度增加,其中识别基于附加数据。捕捉设备可以聚焦于单个用户或可以捕捉关于许多用户的数据。如果存在可共享数据的多个捕捉设备,则如果第一捕捉设备不具有视图或不具有用户的良好视图,则物理空间中的第二捕捉设备可捕捉该用户的数据。
在606,系统可标识物理空间中的每一个用户并在614将每一个用户与视觉表示相关联。在608,系统可以为每一个用户指定控制级别,其中控制经由物理空间中的姿势来完成。例如,用户可以是主要用户,次要用户或观察用户。取决于姿势和执行姿势的用户,姿势可控制信息演示的各方面。在610,系统可确定用户是否执行姿势并在612使用该姿势来控制程序。例如,姿势包括用户的姿态或运动,其可被捕捉为图像数据并解析其含义。在610,可由例如姿势识别引擎来过滤经解析的图像数据以确定是否执行姿势。由此,经由基于姿势的系统,信息演示可由多个用户控制。对于演示的各个参与者,控制可以被共享、转移等。
在614,可将视觉表示与每一个用户相关联并且在616,系统可动画化视觉表示以对应于姿势或从该姿势得出的控制。视觉表示可以与不止一个用户相关联,或者每一个用户可具有唯一的视觉表示。例如,如果多个用户与同一视觉表示相关联,则系统可以在用户之间转移控制。
在618,如果信息演示是非顺序的,如上所述,则姿势可控制该非顺序信息的一方面。由此,姿势可应用于用户对非顺序信息的所需部分的选择。所选部分的显示可提供非顺序信息的画布到这一画布的聚焦部分的转换。用户可以在画布中导航以改变演示中可用的资产的聚焦部分。
计算机可执行指令可包括用于建立共享的演示体验并在用户之间转移控制的指令,如此处所描述的。此处描述的用于经由姿势来共享演示体验的任一种方法都可被实现为计算机可执行指令。
图7示出可用于解释目标识别、分析和跟踪系统中的一个或多个姿势的计算环境的示例实施例。以上参考附图1所描述的诸如计算环境212的计算环境可以是多媒体控制台100,诸如游戏控制台。如图7所示,多媒体控制台100具有含有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 101可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存102和二级高速缓存104。闪存ROM 106可存储在多媒体控制台100通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从图形处理单元108向视频编码器/视频编解码器114运送数据。视频处理流水线向A/V(音频/视频)端口140输出数据,用于传输至电视或其他显示器。存储器控制器110连接到GPU 108以方便处理器访问各种类型的存储器112,诸如但不局限于RAM(随机存取存储器)。
多媒体控制台100包括较佳地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、以及外置存储器设备146(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供媒体驱动器144,且其可包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器144可以是对多媒体控制台100内置的或外置的。应用数据可经由介质驱动器144访问,供多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器2120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
多媒体控制台100内的CPU 101、GPU 108、存储器控制器110、以及各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中,并且可在CPU 101上执行。应用可在导航到多媒体控制台100上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口2124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统用作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源对于应用视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留量,通过使用调度代码来将弹出窗口呈现为覆盖图的GPU中断来显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出与游戏应用线程的线程相对的作为系统应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机26、28和捕捉设备202可为控制台100定义附加输入设备。
图8示出了可用于在目标识别、分析和跟踪系统中解释一个或多个姿势的计算环境220的另一示例实施例,该计算环境可以是图1所示的计算环境212。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本发明的各具体方面的电路。例如,本公开中使用的术语“电路”可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图8中,计算环境220包括计算机241,计算机241通常包括各种计算机可读介质。计算机可读介质可以是能被计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)261。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常储存储在ROM 223中。RAM 261通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图8示出了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图8示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器238,从可移动、非易失性磁盘254中读取或向其写入的磁盘驱动器239,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘253中读取或向其写入的光盘驱动器240。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常由例如接口234等不可移动存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235等可移动存储器接口连接至系统总线221。
以上讨论并在图8中示出的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图8中,例如,硬盘驱动器238被示为存储操作系统258、应用程序257、其他程序模块256和程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备202可为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除监视器之外,计算机还可以包括可以通过输出外围接口233连接的诸如扬声器244和打印机243之类的其他外围输出设备。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上相对计算机241所描述的元件,但在图8中仅示出了存储器存储设备247。图8中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但还可包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接到LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图8示出了远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不被认为是限制性的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行等等。同样,可以改变上述过程的次序。
此外,尽管已经结合某些方面按各附图所示描述了本发明,但要理解,可使用其它相似方面或者可对所述方面进行修改或添加来执行本发明的相同功能而不脱离本发明。本公开的主题包括各种过程、系统和配置的所有新颖和非显而易见的组合和子组合、和此处所公开的其它特征、功能、动作、和/或特性、以及其任何和全部等效物。因此,所公开的各实施例的方法和装置或其某些方面或部分可采用包含在诸如软盘、CD-ROM、硬盘驱动器或任何其他机器可读存储介质等有形介质中的程序代码(即,指令)的形式。当程序代码被加载到诸如计算机等机器并由其执行时,该机器变为被配置成实施所公开的各实施例的装置。
除了此处明确阐述的具体实现之外,考虑此处所公开的说明书,其它方面和实现将对本领域的技术人员是显而易见的。因此,本发明不应该仅限于任何单个方面,而是应该在根据所附权利要求书的广度和范围内解释。例如,本文描述的各种过程可用硬件或软件、或两者的组合来实现。

Claims (15)

1.一种用于建立共享的演示体验的方法,所述方法包括:
呈现信息的演示;
捕捉物理空间的数据,其中捕捉到的数据表示多个用户的姿势;
基于捕捉到的所述物理空间的数据来确定所述多个用户中的第一用户的身份;
基于所述第一用户的身份,访问所述第一用户的用户简档,其中所述用户简档提供所述第一用户对所述演示的访问级别的指示;以及
从所述捕捉到的数据中识别所述姿势,其中每一个姿势都适于控制所述演示的一方面,以使得所述多个用户经由所述姿势共享对所述演示的控制。
2.如权利要求1所述的方法,其特征在于,所述多个用户中的至少一个被指定为主要用户、次要用户或观察用户中的至少一个。
3.如权利要求1所述的方法,其特征在于,所述捕捉到的数据是多个捕捉设备捕捉到的所述物理空间中的数据的合并。
4.如权利要求1所述的方法,其特征在于,所述姿势中的至少一个是用于关于所述姿势的信息收集的触发,其中所述信息收集包括关于所述姿势的信息的被动收集以及记录所述信息以供后续访问。
5.如权利要求4所述的方法,其特征在于,所收集的信息被实时提供给所述多个用户中的至少一个或作为输出提供给显示器。
6.如权利要求1所述的方法,其特征在于,对所述演示的主要控制可以在所述多个用户之间转移。
7.一种用于在共享的演示体验中呈现视觉表示的方法,所述方法包括:
呈现信息的演示;
捕捉物理空间的数据,其中捕捉到的数据表示所述物理空间中的多个用户;
基于捕捉到的所述物理空间的数据来确定所述多个用户中的第一用户的身份;
基于所述第一用户的身份,访问所述第一用户的用户简档,其中所述用户简档提供所述第一用户对所述演示的访问级别的指示;以及
呈现对应于所述多个用户中的每一个的至少一个视觉表示,其中所述至少一个视觉表示适于与所呈现的信息演示交互。
8.如权利要求7所述的方法,其特征在于,所述至少一个视觉表示适于经由与所述演示的一部分交互的动画来与所呈现的信息演示交互。
9.如权利要求8所述的方法,其特征在于,所述至少一个视觉表示的动画对应于所述多个用户中的至少一个用户的姿势。
10.如权利要求7所述的方法,其特征在于,所述多个用户中的至少一个对应于:
不同的视觉表示,或者
相同的视觉表示。
11.如权利要求7所述的方法,其特征在于,所述至少一个视觉表示对应于捕捉设备检测到的用户的特征。
12.如权利要求7所述的方法,其特征在于,所述多个用户中的至少一个对所述演示的控制可由对应于所述多个用户中的至少一个的视觉表示的特征来指示。
13.一种用于建立非顺序演示体验的方法,所述方法包括:
汇编多个信息以供演示;
呈现所述信息的非顺序演示,其中所述演示包括适于所述信息的渐进式导航的信息格式;
捕捉物理空间的数据,其中捕捉到的数据表示多个用户的姿势;
基于捕捉到的所述物理空间的数据来确定所述多个用户中的第一用户的身份;
基于所述第一用户的身份,访问所述第一用户的用户简档,其中所述用户简档提供所述第一用户对所述演示的访问级别的指示;以及
识别控制所述非顺序演示的一方面的姿势。
14.如权利要求13所述的方法,其特征在于,多个用户经由姿势共享对所述非顺序演示的控制。
15.如权利要求13所述的方法,其特征在于,所述非顺序演示的显示适于从资产画布中选择所述非顺序演示的至少一部分。
CN201080057583.1A 2009-12-17 2010-11-18 用于演示的相机导航 Active CN102656542B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/640,731 US9244533B2 (en) 2009-12-17 2009-12-17 Camera navigation for presentations
US12/640,731 2009-12-17
PCT/US2010/057260 WO2011084245A2 (en) 2009-12-17 2010-11-18 Camera navigation for presentations

Publications (2)

Publication Number Publication Date
CN102656542A CN102656542A (zh) 2012-09-05
CN102656542B true CN102656542B (zh) 2014-03-12

Family

ID=44152959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080057583.1A Active CN102656542B (zh) 2009-12-17 2010-11-18 用于演示的相机导航

Country Status (7)

Country Link
US (1) US9244533B2 (zh)
EP (1) EP2513866A4 (zh)
JP (1) JP5859456B2 (zh)
KR (2) KR20120123330A (zh)
CN (1) CN102656542B (zh)
HK (1) HK1173239A1 (zh)
WO (1) WO2011084245A2 (zh)

Families Citing this family (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US9344753B2 (en) * 2009-12-30 2016-05-17 Crytek Gmbh Mobile input and sensor device for a computer-controlled video entertainment system
JP5012968B2 (ja) * 2010-07-15 2012-08-29 コニカミノルタビジネステクノロジーズ株式会社 会議システム
US20120102383A1 (en) * 2010-10-20 2012-04-26 Jerald Liu Creating, Sharing and Modifying Documents That Include Content and an Integrated Software Application
JP2012094060A (ja) * 2010-10-28 2012-05-17 Sharp Corp 電子装置
US10242241B1 (en) * 2010-11-09 2019-03-26 Open Invention Network Llc Advanced mobile communication device gameplay system
US10043209B2 (en) 2010-11-19 2018-08-07 Mastercard International Incorporated Method and system for consumer transactions using voice or human based gesture actions
US9836780B2 (en) 2010-11-19 2017-12-05 Mastercard International Incorporated Method and system for consumer transactions using voice or human based gesture actions
US8656279B2 (en) * 2010-12-14 2014-02-18 Sap Ag Global settings for the enablement of culture-based gestures
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
US8819729B2 (en) * 2011-02-25 2014-08-26 Avaya Inc. Advanced user interface and control paradigm for multiple service operator extended functionality offers
US9183514B2 (en) 2011-02-25 2015-11-10 Avaya Inc. Advanced user interface and control paradigm including contextual collaboration for multiple service operator extended functionality offers
US9021607B2 (en) 2011-02-25 2015-04-28 Avaya Inc. Advanced user interface and control paradigm including digital rights management features for multiple service operator extended functionality offers
US8745725B2 (en) * 2011-03-30 2014-06-03 Elwha Llc Highlighting in response to determining device transfer
US9317111B2 (en) 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
US8863275B2 (en) 2011-03-30 2014-10-14 Elwha Llc Access restriction in response to determining device transfer
US9153194B2 (en) 2011-03-30 2015-10-06 Elwha Llc Presentation format selection based at least on device transfer determination
US8726366B2 (en) 2011-03-30 2014-05-13 Elwha Llc Ascertaining presentation format based on device primary control determination
US8739275B2 (en) 2011-03-30 2014-05-27 Elwha Llc Marking one or more items in response to determining device transfer
US8918861B2 (en) 2011-03-30 2014-12-23 Elwha Llc Marking one or more items in response to determining device transfer
US8713670B2 (en) 2011-03-30 2014-04-29 Elwha Llc Ascertaining presentation format based on device primary control determination
US8726367B2 (en) * 2011-03-30 2014-05-13 Elwha Llc Highlighting in response to determining device transfer
US9560314B2 (en) * 2011-06-14 2017-01-31 Microsoft Technology Licensing, Llc Interactive and shared surfaces
US8868684B2 (en) * 2011-06-17 2014-10-21 At&T Intellectual Property I, L.P. Telepresence simulation with multiple interconnected devices
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
JP5889559B2 (ja) * 2011-07-13 2016-03-22 ソニー株式会社 情報処理方法および情報処理システム
US20130044912A1 (en) * 2011-08-19 2013-02-21 Qualcomm Incorporated Use of association of an object detected in an image to obtain information to display to a user
WO2013028908A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
CN103975290A (zh) * 2011-09-16 2014-08-06 界标制图有限公司 基于姿势的石油技术应用控制的方法和系统
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
US9280377B2 (en) 2013-03-29 2016-03-08 Citrix Systems, Inc. Application with multiple operation modes
US9215225B2 (en) 2013-03-29 2015-12-15 Citrix Systems, Inc. Mobile device locking with context
US20140032733A1 (en) 2011-10-11 2014-01-30 Citrix Systems, Inc. Policy-Based Application Management
US8869235B2 (en) 2011-10-11 2014-10-21 Citrix Systems, Inc. Secure mobile browser for protecting enterprise data
US20130159939A1 (en) * 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
US20130104089A1 (en) * 2011-10-20 2013-04-25 Fuji Xerox Co., Ltd. Gesture-based methods for interacting with instant messaging and event-based communication applications
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9032334B2 (en) * 2011-12-21 2015-05-12 Lg Electronics Inc. Electronic device having 3-dimensional display and method of operating thereof
KR101885295B1 (ko) * 2011-12-26 2018-09-11 엘지전자 주식회사 전자기기 및 그 제어방법
KR20130088493A (ko) * 2012-01-31 2013-08-08 삼성전자주식회사 Ui 제공 방법 및 이를 적용한 영상 수신 장치
US9349131B2 (en) * 2012-02-02 2016-05-24 Kodak Alaris Inc. Interactive digital advertising system
US20130201095A1 (en) * 2012-02-07 2013-08-08 Microsoft Corporation Presentation techniques
JP5982917B2 (ja) * 2012-03-22 2016-08-31 株式会社リコー 情報処理装置、操作権限付与プログラム及び投影システム
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム
US9264660B1 (en) 2012-03-30 2016-02-16 Google Inc. Presenter control during a video conference
EP2834774A4 (en) * 2012-04-01 2016-06-08 Intel Corp ANALYSIS OF HUMAN COMMUNICATIONS IN GESTURE
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9619036B2 (en) 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
JP5966596B2 (ja) * 2012-05-16 2016-08-10 株式会社リコー 情報処理装置、投影システム及び情報処理プログラム
JP2015038537A (ja) * 2012-06-29 2015-02-26 株式会社東芝 映像表示装置およびその制御方法
US20140007115A1 (en) * 2012-06-29 2014-01-02 Ning Lu Multi-modal behavior awareness for human natural command control
US20140006550A1 (en) * 2012-06-30 2014-01-02 Gamil A. Cain System for adaptive delivery of context-based media
EP2874044A4 (en) 2012-07-13 2016-04-13 Juice Design Co Ltd DEVICE FOR SELECTION OF ELEMENTS, METHOD FOR SELECTION OF ELEMENTS AND PROGRAM
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
US8726343B1 (en) 2012-10-12 2014-05-13 Citrix Systems, Inc. Managing dynamic policies and settings in an orchestration framework for connected devices
US9774658B2 (en) 2012-10-12 2017-09-26 Citrix Systems, Inc. Orchestration framework for connected devices
US9516022B2 (en) * 2012-10-14 2016-12-06 Getgo, Inc. Automated meeting room
US8910239B2 (en) 2012-10-15 2014-12-09 Citrix Systems, Inc. Providing virtualized private network tunnels
US20140109176A1 (en) 2012-10-15 2014-04-17 Citrix Systems, Inc. Configuring and providing profiles that manage execution of mobile applications
US20140108793A1 (en) 2012-10-16 2014-04-17 Citrix Systems, Inc. Controlling mobile device access to secure data
US9606774B2 (en) 2012-10-16 2017-03-28 Citrix Systems, Inc. Wrapping an application with field-programmable business logic
US9971585B2 (en) 2012-10-16 2018-05-15 Citrix Systems, Inc. Wrapping unmanaged applications on a mobile device
US20140109072A1 (en) 2012-10-16 2014-04-17 Citrix Systems, Inc. Application wrapping for application management framework
RU2627096C2 (ru) * 2012-10-30 2017-08-03 Сергей Анатольевич Гевлич Способы изготовления прототипов мультимедиа-презентаций, устройства для изготовления прототипов мультимедиа-презентаций, способы использования устройств для изготовления прототипов мультимедиа-презентаций (варианты)
US9684372B2 (en) * 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
CN108845668B (zh) * 2012-11-07 2022-06-03 北京三星通信技术研究有限公司 人机交互系统和方法
US10474342B2 (en) * 2012-12-17 2019-11-12 Microsoft Technology Licensing, Llc Scrollable user interface control
EP3511060A1 (en) * 2012-12-21 2019-07-17 Sony Computer Entertainment America LLC Remote control of a first user's gameplay by a second user
US9261262B1 (en) 2013-01-25 2016-02-16 Steelcase Inc. Emissive shapes and control systems
US11327626B1 (en) 2013-01-25 2022-05-10 Steelcase Inc. Emissive surfaces and workspaces method and apparatus
US9759420B1 (en) 2013-01-25 2017-09-12 Steelcase Inc. Curved display and curved display support
US20140223326A1 (en) * 2013-02-06 2014-08-07 International Business Machines Corporation Apparatus and methods for co-located social integration and interactions
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9564102B2 (en) * 2013-03-14 2017-02-07 Microsoft Technology Licensing, Llc Client side processing of player movement in a remote gaming environment
US9161168B2 (en) * 2013-03-15 2015-10-13 Intel Corporation Personal information communicator
US9355223B2 (en) 2013-03-29 2016-05-31 Citrix Systems, Inc. Providing a managed browser
US9985850B2 (en) 2013-03-29 2018-05-29 Citrix Systems, Inc. Providing mobile device management functionalities
US8850049B1 (en) 2013-03-29 2014-09-30 Citrix Systems, Inc. Providing mobile device management functionalities for a managed browser
US10284627B2 (en) 2013-03-29 2019-05-07 Citrix Systems, Inc. Data management for an application with multiple operation modes
US9413736B2 (en) 2013-03-29 2016-08-09 Citrix Systems, Inc. Providing an enterprise application store
US9971414B2 (en) 2013-04-01 2018-05-15 University Of Washington Through Its Center For Commercialization Devices, systems, and methods for detecting gestures using wireless communication signals
GB201307896D0 (en) * 2013-05-01 2013-06-12 Apparatus for use in the performance of cognitive behaviour therapy and method of performance
US9234742B2 (en) 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
WO2014185808A1 (en) * 2013-05-13 2014-11-20 3Divi Company System and method for controlling multiple electronic devices
JP6229314B2 (ja) * 2013-05-30 2017-11-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10905943B2 (en) 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
EP3007786A1 (en) 2013-06-14 2016-04-20 Intercontinental Great Brands LLC Interactive video games
KR102126500B1 (ko) * 2013-06-28 2020-06-25 삼성전자주식회사 전자 장치 및 그의 터치 감지 방법
US20150006669A1 (en) * 2013-07-01 2015-01-01 Google Inc. Systems and methods for directing information flow
DE102013012285A1 (de) * 2013-07-24 2015-01-29 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Wertdokumentbearbeitung
US9582167B2 (en) * 2013-08-14 2017-02-28 International Business Machines Corporation Real-time management of presentation delivery
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
US9261966B2 (en) * 2013-08-22 2016-02-16 Sony Corporation Close range natural user interface system and method of operation thereof
KR102165818B1 (ko) 2013-09-10 2020-10-14 삼성전자주식회사 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
CN105593856B (zh) * 2013-09-23 2019-05-31 英派尔科技开发有限公司 适应位置图的视频游戏
US9507429B1 (en) * 2013-09-26 2016-11-29 Amazon Technologies, Inc. Obscure cameras as input
US9787904B2 (en) * 2013-10-31 2017-10-10 InsideMaps Inc. Methods and apparatuses for capturing images used for generating 3D models of rooms
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
US20150220159A1 (en) * 2014-02-04 2015-08-06 Pointgrab Ltd. System and method for control of a device based on user identification
US9823748B2 (en) * 2014-02-07 2017-11-21 Lenovo (Singapore) Pte. Ltd. Control input handling
US10713389B2 (en) 2014-02-07 2020-07-14 Lenovo (Singapore) Pte. Ltd. Control input filtering
KR101533319B1 (ko) 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP6170457B2 (ja) * 2014-03-27 2017-07-26 京セラドキュメントソリューションズ株式会社 プレゼンテーション管理装置およびプレゼンテーション管理プログラム
US11209897B2 (en) * 2014-04-25 2021-12-28 Lenovo (Singapore) Pte. Ltd. Strengthening prediction confidence and command priority using natural user interface (NUI) inputs
TW201543361A (zh) * 2014-05-07 2015-11-16 Giga Byte Tech Co Ltd 觸發開啟巨集的輸入系統
KR102167289B1 (ko) * 2014-06-03 2020-10-19 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
US9602191B2 (en) * 2014-06-27 2017-03-21 X Development Llc Streaming display data from a mobile device using backscatter communications
KR20160032611A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 터치 입력을 이용하여 전자 장치를 제어하는 방법 및 장치
US9269374B1 (en) * 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
JP6472252B2 (ja) * 2015-01-20 2019-02-20 Nttテクノクロス株式会社 仮想タッチパネルポインティングシステム
AU2015382440B2 (en) * 2015-02-13 2018-08-09 Halliburton Energy Services, Inc. Using augmented reality to collect, process and share information
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US10466818B2 (en) 2015-06-17 2019-11-05 Micro Focus Llc Pointing action
CN104994297B (zh) * 2015-07-09 2019-01-08 厦门美图之家科技有限公司 全景拍照的对焦测光锁定方法和系统
WO2017030255A1 (en) * 2015-08-18 2017-02-23 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
FR3041804B1 (fr) * 2015-09-24 2021-11-12 Dassault Aviat Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe
US11194398B2 (en) * 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
US10356493B2 (en) * 2015-12-22 2019-07-16 Google Llc Methods, systems, and media for presenting interactive elements within video content
WO2017120247A1 (en) 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
CN105607742A (zh) * 2016-01-20 2016-05-25 陈鹏 一种基于虚拟现实技术避免晕车的方法
CN105844705B (zh) * 2016-03-29 2018-11-09 联想(北京)有限公司 一种三维虚拟对象模型生成方法及电子设备
US10218793B2 (en) 2016-06-13 2019-02-26 Disney Enterprises, Inc. System and method for rendering views of a virtual space
WO2018005692A1 (en) * 2016-06-28 2018-01-04 Against Gravity Corp . Systems and methods for detecting collaborative virtual gestures
EP3267289B1 (en) * 2016-07-05 2019-02-27 Ricoh Company, Ltd. Information processing apparatus, position information generation method, and information processing system
CN107728482A (zh) * 2016-08-11 2018-02-23 阿里巴巴集团控股有限公司 控制系统、控制处理方法及装置
US10817126B2 (en) 2016-09-20 2020-10-27 Apple Inc. 3D document editing system
US10970681B2 (en) 2016-09-29 2021-04-06 Walmart Apollo, Llc Camera gesture clock in
US11071915B2 (en) 2016-09-30 2021-07-27 Sony Interactive Entertainment Inc. Delivery of spectator feedback content to virtual reality environments provided by head mounted display
US10264213B1 (en) 2016-12-15 2019-04-16 Steelcase Inc. Content amplification system and method
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10452150B2 (en) * 2017-01-25 2019-10-22 International Business Machines Corporation Electronic map augmentation through pointing gestures background
CN108462729B (zh) * 2017-02-17 2023-01-10 北京三星通信技术研究有限公司 实现终端设备交互的方法和装置、终端设备及服务器
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
US11080723B2 (en) * 2017-03-07 2021-08-03 International Business Machines Corporation Real time event audience sentiment analysis utilizing biometric data
US10739937B2 (en) * 2017-06-15 2020-08-11 Abantech LLC Intelligent fusion middleware for spatially-aware or spatially-dependent hardware devices and systems
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
EP4293574A3 (en) 2017-08-08 2024-04-03 RealD Spark, LLC Adjusting a digital representation of a head region
CN107743205A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 图像处理方法及装置、电子装置和计算机可读存储介质
CN107527381B (zh) * 2017-09-11 2023-05-12 Oppo广东移动通信有限公司 图像处理方法及装置、电子装置和计算机可读存储介质
CN107454336B (zh) * 2017-09-11 2021-04-30 Oppo广东移动通信有限公司 图像处理方法及装置、电子装置和计算机可读存储介质
US11048920B2 (en) * 2017-11-13 2021-06-29 International Business Machines Corporation Real-time modification of presentations based on behavior of participants thereto
CN111448497B (zh) 2017-12-10 2023-08-04 奇跃公司 光波导上的抗反射涂层
KR101918262B1 (ko) * 2017-12-19 2018-11-13 (주) 알큐브 혼합 현실 서비스 제공 방법 및 시스템
AU2018392482A1 (en) 2017-12-20 2020-07-02 Magic Leap, Inc. Insert for augmented reality viewing device
US11017575B2 (en) * 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US10819667B2 (en) * 2018-03-09 2020-10-27 Cisco Technology, Inc. Identification and logging of conversations using machine learning
CN112136152A (zh) 2018-03-15 2020-12-25 奇跃公司 由观看设备的部件变形导致的图像校正
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
WO2019236581A1 (en) * 2018-06-04 2019-12-12 Disruptel, Inc. Systems and methods for operating an output device
JP7369147B2 (ja) 2018-06-05 2023-10-25 マジック リープ, インコーポレイテッド 視認システムのホモグラフィ変換行列ベースの温度較正
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2020023545A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
EP3831058A4 (en) 2018-08-02 2022-04-20 Magic Leap, Inc. VIEWING SYSTEM WITH PUPILE DISTANCE COMPENSATION BASED ON HEAD MOVEMENT
US11029761B2 (en) 2018-08-02 2021-06-08 International Business Machines Corporation Context based gesture control
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
US10937244B2 (en) * 2018-10-23 2021-03-02 Microsoft Technology Licensing, Llc Efficiency enhancements to construction of virtual reality environments
JP7472127B2 (ja) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド 画像鮮明度を維持するための画像サイズによってトリガされる明確化
US11470132B2 (en) * 2018-11-29 2022-10-11 Ricoh Company, Ltd. Information processing apparatus, information processing system, electronic blackboard apparatus, control method, and program
US11340705B2 (en) 2018-12-27 2022-05-24 Google Llc Expanding physical motion gesture lexicon for an automated assistant
JP7196645B2 (ja) * 2019-01-31 2022-12-27 コニカミノルタ株式会社 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
US11425189B2 (en) 2019-02-06 2022-08-23 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
US11175728B2 (en) * 2019-02-06 2021-11-16 High Fidelity, Inc. Enabling negative reputation submissions in manners that reduce chances of retaliation
US11356606B2 (en) 2019-02-26 2022-06-07 Insidemaps, Inc. Imaging using mobile computing device in communication with wide field of view (FOV) camera
WO2020181136A1 (en) 2019-03-05 2020-09-10 Physmodo, Inc. System and method for human motion detection and tracking
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11514805B2 (en) * 2019-03-12 2022-11-29 International Business Machines Corporation Education and training sessions
EP3726344A1 (en) * 2019-04-16 2020-10-21 InterDigital CE Patent Holdings Method and apparatus for user control of an application and corresponding device
WO2020223636A1 (en) * 2019-05-01 2020-11-05 Magic Leap, Inc. Content provisioning system and method
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
WO2020251385A1 (en) * 2019-06-14 2020-12-17 Ringcentral, Inc., (A Delaware Corporation) System and method for capturing presentation gestures
WO2021021670A1 (en) 2019-07-26 2021-02-04 Magic Leap, Inc. Systems and methods for augmented reality
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11737832B2 (en) 2019-11-15 2023-08-29 Magic Leap, Inc. Viewing system for use in a surgical environment
US11638147B2 (en) * 2019-11-22 2023-04-25 International Business Machines Corporation Privacy-preserving collaborative whiteboard using augmented reality
US11175730B2 (en) * 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
US11960651B2 (en) * 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US20210365104A1 (en) * 2020-05-22 2021-11-25 XRSpace CO., LTD. Virtual object operating method and virtual object operating system
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11743340B2 (en) * 2020-06-10 2023-08-29 Snap Inc. Deep linking to augmented reality components
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
CN113949936A (zh) * 2020-07-17 2022-01-18 华为技术有限公司 一种电子设备的屏幕交互方法及装置
US11233973B1 (en) * 2020-07-23 2022-01-25 International Business Machines Corporation Mixed-reality teleconferencing across multiple locations
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11320979B1 (en) * 2020-10-15 2022-05-03 Salesforce.Com, Inc. Access control for online presentations
CN112230836B (zh) * 2020-11-02 2022-05-27 网易(杭州)网络有限公司 对象的移动方法、装置、存储介质和电子装置
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
EP4288856A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd Extended reality for productivity
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
JP2024509722A (ja) * 2021-02-08 2024-03-05 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるユーザ相互作用
US20220413433A1 (en) * 2021-06-28 2022-12-29 Meta Platforms Technologies, Llc Holographic Calling for Artificial Reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11934569B2 (en) * 2021-09-24 2024-03-19 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US20230319416A1 (en) * 2022-04-01 2023-10-05 Universal City Studios Llc Body language detection and microphone control
KR20230147312A (ko) * 2022-04-14 2023-10-23 주식회사 피아몬드 가상 공간에서 프라이버시 제공을 위한 방법 및 시스템
US20230410379A1 (en) * 2022-06-21 2023-12-21 Microsoft Technology Licensing, Llc Augmenting shared digital content with dynamically generated digital content to improve meetings with multiple displays
US20240073372A1 (en) * 2022-08-31 2024-02-29 Snap Inc. In-person participant interaction for hybrid event
KR102590257B1 (ko) 2023-05-03 2023-10-19 (주)한성컴퓨터 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드 장치 및 그 제어방법
US11947893B1 (en) * 2023-06-20 2024-04-02 Microsoft Technology Licensing, Llc Integrating multiple slides for a presentation using a generated common background

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
CN1658149A (zh) * 2004-01-15 2005-08-24 微软公司 给定来自使用多种输入模态的多个用户的输入时控制共享显示的系统和方法

Family Cites Families (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0590101B1 (en) 1991-12-03 1999-06-23 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
JPH06131437A (ja) 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US6046750A (en) * 1993-06-25 2000-04-04 International Business Machines Corporation Method and apparatus for controlling presentations of objects on a user interface of a data processing system
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5473745A (en) * 1994-12-14 1995-12-05 International Business Machines Corporation Exposing and hiding a title bar behind its window using a visual cue
US5557725A (en) * 1995-02-13 1996-09-17 International Business Machines Corporation Method and system for switching between users in a conference enabled application
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH08227415A (ja) * 1995-02-21 1996-09-03 Fuji Xerox Co Ltd 文書編集装置
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6061050A (en) * 1995-10-27 2000-05-09 Hewlett-Packard Company User interface device
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
EP0958002A4 (en) 1996-05-08 2001-03-28 Real Vision Corp REAL-TIME SIMULATION USING POSITION DETECTION
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6069637A (en) * 1996-07-29 2000-05-30 Eastman Kodak Company System for custom imprinting a variety of articles with images obtained from a variety of different sources
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US5966126A (en) * 1996-12-23 1999-10-12 Szabo; Andrew J. Graphic user interface for database system
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2002516121A (ja) 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6249292B1 (en) * 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
JP2000105748A (ja) 1998-09-29 2000-04-11 Fuji Xerox Co Ltd 協調作業支援装置および記録媒体
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6346933B1 (en) 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
US6554707B1 (en) * 1999-09-24 2003-04-29 Nokia Corporation Interactive voice, wireless game system using predictive command input
JP3852814B2 (ja) * 1999-09-24 2006-12-06 富士通株式会社 プロファイル作成方法及びシステム
US6384829B1 (en) * 1999-11-24 2002-05-07 Fuji Xerox Co., Ltd. Streamlined architecture for embodied conversational characters with reduced message traffic
JP2001160021A (ja) 1999-12-03 2001-06-12 Sony Corp 仮想空間による通信システム
WO2001046941A1 (en) 1999-12-23 2001-06-28 Justsystem Corporation Method and apparatus for vision-based coupling between pointer actions and projected images
US7028269B1 (en) 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7788323B2 (en) * 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6910186B2 (en) * 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US20030046316A1 (en) * 2001-04-18 2003-03-06 Jaroslav Gergic Systems and methods for providing conversational computing via javaserver pages and javabeans
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
JP2003067074A (ja) 2001-08-28 2003-03-07 Nec Gumma Ltd コンピュータセキュリティシステム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20040128350A1 (en) * 2002-03-25 2004-07-01 Lou Topfl Methods and systems for real-time virtual conferencing
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7529690B2 (en) 2004-05-22 2009-05-05 Altaf Hadi System and method for delivering real time remote buying, selling, meeting, and interacting in a virtual reality environment
US7512883B2 (en) 2004-06-30 2009-03-31 Microsoft Corporation Portable solution for automatic camera management
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP2487624B1 (en) 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
CN103257684B (zh) 2005-05-17 2017-06-09 高通股份有限公司 方向敏感的信号输出方法及装置
US20090049388A1 (en) * 2005-06-02 2009-02-19 Ronnie Bernard Francis Taib Multimodal computer navigation
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7783702B2 (en) 2005-11-30 2010-08-24 Microsoft Corporation Using a mobile phone to control a personal computer
US20070176921A1 (en) * 2006-01-27 2007-08-02 Koji Iwasaki System of developing urban landscape by using electronic data
JP2007243253A (ja) 2006-03-06 2007-09-20 Fuji Xerox Co Ltd 情報配信システム及び情報配信方法
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US20080180519A1 (en) 2007-01-31 2008-07-31 Cok Ronald S Presentation control system
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7957565B1 (en) * 2007-04-05 2011-06-07 Videomining Corporation Method and system for recognizing employees in a physical space based on automatic behavior analysis
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
JP2008282092A (ja) 2007-05-08 2008-11-20 Canon Inc ジェスチャーコマンドを覚えながら操作できる情報処理装置
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
JP4295807B2 (ja) 2007-09-20 2009-07-15 株式会社茂木ファシリティコンサルタンツ ユーザ所在状況確認装置、ユーザ所在状況確認方法、及びユーザ所在状況確認プログラム
CN101874404B (zh) 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
JP5177741B2 (ja) 2007-10-19 2013-04-10 株式会社コナミデジタルエンタテインメント ユーザ管理システム、ユーザ管理方法、ならびに、ユーザ管理プログラム
CN101925915B (zh) 2007-11-21 2016-06-22 高通股份有限公司 设备访问控制
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US20090295713A1 (en) * 2008-05-30 2009-12-03 Julien Piot Pointing device with improved cursor control in-air and allowing multiple modes of operations
US20090216639A1 (en) * 2008-02-25 2009-08-27 Mark Joseph Kapczynski Advertising selection and display based on electronic profile information
US8205157B2 (en) * 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
JP2009231949A (ja) 2008-03-19 2009-10-08 Univ Of Aizu マルチメディア会議システム、アプリケーションサーバ、混合パターン決定方法および混合パターン決定用プログラム
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US20090307601A1 (en) * 2008-06-05 2009-12-10 Ibm Corporation Method for reflexive securing of computer displays
US9403087B2 (en) * 2008-06-09 2016-08-02 Disney Enterprises, Inc. System and method of providing access to virtual spaces that are associated with physical analogues in the real world
US8463430B2 (en) * 2008-10-23 2013-06-11 Utique, Inc Interactive and 3-D multi-senor touch selection interface for an automated retail store, vending machine, digital sign, or retail display
US8161398B2 (en) * 2009-05-08 2012-04-17 International Business Machines Corporation Assistive group setting management in a virtual world
US20100289743A1 (en) * 2009-05-15 2010-11-18 AFA Micro Co. Laser pointer and gesture-based input device
US11520455B2 (en) * 2009-06-29 2022-12-06 International Business Machines Corporation Dioramic user interface having a user customized experience
US8887068B2 (en) * 2009-07-31 2014-11-11 Verizon Patent And Licensing Inc. Methods and systems for visually chronicling a conference session
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
US20110061025A1 (en) * 2009-09-04 2011-03-10 Walline Erin K Auto Scroll In Combination With Multi Finger Input Device Gesture
JP2011107912A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
CN1658149A (zh) * 2004-01-15 2005-08-24 微软公司 给定来自使用多种输入模态的多个用户的输入时控制共享显示的系统和方法

Also Published As

Publication number Publication date
US9244533B2 (en) 2016-01-26
US20110154266A1 (en) 2011-06-23
KR20170059486A (ko) 2017-05-30
KR20120123330A (ko) 2012-11-08
WO2011084245A2 (en) 2011-07-14
KR101855639B1 (ko) 2018-05-04
EP2513866A2 (en) 2012-10-24
JP5859456B2 (ja) 2016-02-10
CN102656542A (zh) 2012-09-05
EP2513866A4 (en) 2016-02-17
HK1173239A1 (zh) 2013-05-10
JP2013514585A (ja) 2013-04-25
WO2011084245A3 (en) 2011-10-27

Similar Documents

Publication Publication Date Title
CN102656542B (zh) 用于演示的相机导航
Machidon et al. Virtual humans in cultural heritage ICT applications: A review
CN102947774B (zh) 用于驱动交互式故事的自然用户输入
CN102473320B (zh) 通过学习到的来自用户的输入使视觉表示生动化的方法
CN102332090B (zh) 划分在视野内的焦点区域
US9245177B2 (en) Limiting avatar gesture display
CN102681657B (zh) 交互式内容创建
CN102129152B (zh) 具有集成vcsel阵列的深度投影仪系统
CN102622774B (zh) 起居室电影创建
CN102194105B (zh) 用于人体跟踪的代表训练数据
CN102609954B (zh) 对人类目标跟踪的确认分析
CN104011788B (zh) 用于增强和虚拟现实的系统和方法
CN102947777A (zh) 用户跟踪反馈
CN102207771A (zh) 推断参与运动捕捉系统的用户意图
CN102129293A (zh) 在运动捕捉系统中跟踪用户组
CN102129292A (zh) 在运动捕捉系统中识别用户意图
CN102201099A (zh) 基于运动的交互式购物环境
CN102129343A (zh) 运动捕捉系统中的受指导的表演
CN102918518A (zh) 基于云的个人特征简档数据
CN102542488A (zh) 基于用户表达的营销术语的自动广告生成
CN102622509A (zh) 基于单目视频的三维游戏交互系统
Lucas et al. The effect of operating a virtual doppleganger in a 3D simulation
Chen et al. Virtual, Augmented and Mixed Reality: Interaction, Navigation, Visualization, Embodiment, and Simulation: 10th International Conference, VAMR 2018, Held as Part of HCI International 2018, Las Vegas, NV, USA, July 15-20, 2018, Proceedings, Part I
Sankar Design Architecture in Virtual Reality
Nishida et al. Synthetic evidential study as augmented collective thought process–preliminary report

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1173239

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1173239

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150519

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150519

Address after: Washington State

Patentee after: Micro soft technique license Co., Ltd

Address before: Washington State

Patentee before: Microsoft Corp.