CN102741885A - 装饰显示环境 - Google Patents

装饰显示环境 Download PDF

Info

Publication number
CN102741885A
CN102741885A CN2010800474455A CN201080047445A CN102741885A CN 102741885 A CN102741885 A CN 102741885A CN 2010800474455 A CN2010800474455 A CN 2010800474455A CN 201080047445 A CN201080047445 A CN 201080047445A CN 102741885 A CN102741885 A CN 102741885A
Authority
CN
China
Prior art keywords
user
display environment
posture
selected portion
voice command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800474455A
Other languages
English (en)
Other versions
CN102741885B (zh
Inventor
G·N·斯努克
R·马尔科维奇
S·G·拉塔
K·盖斯那
C·武切蒂奇
D·A·贝内特
A·C·汤姆林
J·蒂亚奎罗
M·普尔斯
M·库希尔
R·黑斯廷斯
K·科莱萨尔
B·S·墨菲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102741885A publication Critical patent/CN102741885A/zh
Application granted granted Critical
Publication of CN102741885B publication Critical patent/CN102741885B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Abstract

在此公开了用于装饰显示环境的系统和方法。在一个实施例中,用户可通过作出一个或多个姿势、使用语音命令、使用合适的接口设备和/或其组合来装饰显示环境。可检测语音命令来实现对装饰在显示环境中的艺术特征的用户选择,诸如颜色、纹理、对象和/或视觉效果。用户还可以作出姿势来选择显示环境的一部分来装饰。接着,可基于所选的艺术特征来更改显示环境的所选部分。可以通过化身将用户的运动反映在显示环境中。另外,可以将虚拟画布或三维对象显示在显示环境中供用户装饰。

Description

装饰显示环境
背景技术
计算机用户已使用各种绘图工具来创建艺术品。一般来说,通过使用鼠标在计算机的视听显示器的显示屏幕上创建这种艺术品。艺术家可通过在显示屏幕上移动光标并通过执行一系列点击动作来生成图像。另外,艺术家可使用键盘或鼠标来选择用于装饰所生成的图像内的各元素的颜色。另外,艺术应用包括用于添加或改变颜色、形状等的各种编辑工具。
需要艺术家可使用除鼠标和键盘之外的计算机输入设备来创建艺术品的系统和方法。此外,期望提供使用艺术品的创建来增加用户感知的交互性的程度的系统和方法。
发明内容
在此公开了用于装饰显示环境的系统和方法。在一个实施例中,用户可通过作出一个或多个姿势、使用语音命令、使用合适的接口设备和/或其组合来装饰显示环境。可检测语音命令来实现用户对用于装饰在显示环境中的艺术特征的选择,诸如颜色、纹理、对象和/或视觉效果。例如,用户可说出用于为显示环境的某区域或部分上色的期望颜色选择,并且该话音可被识别为对该颜色的选择。另选地,语音命令可选择用于装饰显示环境的纹理、对象、视觉效果中的一个或多个。用户还可作出选择或定向显示环境的一部分来装饰的姿势。例如,用户可以用他或她的手臂作出投掷运动来选择显示环境的该部分。在这个示例中,在一对象被用户以用户的投掷速度和轨迹投掷的情况下,所选择的部分可以是视听设备的显示屏幕上被该对象接触的区域。接着,可基于所选的艺术特征来更改显示环境的所选部分。在显示环境中用户的运动可以被反映在化身上。另外,可以将虚拟画布或三维对象显示在显示环境中供用户装饰。
在另一实施例中,可以基于用户的姿势的特征来装饰显示环境的一部分。用户的姿势可以由图像捕捉设备来检测。例如,用户的姿势可以是投掷移动、手腕移动、躯干移动、手移动、腿移动或手臂移动等。可以确定用户的姿势的特征。例如,可以确定与移动相关联的速度、方向、开始位置、结束位置等中的一个或多个。基于这些特征中的一个或多个,可以选择显示环境的一部分来装饰。可以基于用户的姿势的特征来更改显示环境的所选部分。例如,所选部分在显示环境中的位置、所选部分的大小、和/或所选部分的图案可以基于用户的投掷运动的速度和/或方向。
在又一实施例中,可以以用于装饰在显示环境中的模板的形式来使用所捕捉的对象图像。对象的图像可以由图像捕捉设备来捕捉。可以确定对象在所捕捉的图像中的至少一部分的边缘。可以基于所确定的边缘来定义显示环境的一部分。例如,可以确定对象(诸如用户)的轮廓。在这个示例中,显示环境的定义部分可以具有与用户的轮廓匹配的形状。例如可以通过上色、通过添加纹理和/或通过视觉效果来装饰定义部分。
提供本发明内容以便以简化形式介绍将在以下的具体实施方式中进一步描述的一些概念。本发明内容并不旨在标识出所要求保护的主题的关键或必要特征,也不旨在用于限定所要求保护的主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中提及的任何或所有缺点的实现。
附图说明
参考附图来进一步描述根据本说明书的用于更改虚拟环境内的视图视角的系统、方法和计算机可读介质,在附图中:
图1A和1B示出了目标识别、分析和跟踪系统的配置的示例实施例,其中用户正使用姿势来控制化身及与应用进行交互;
图2示出图像捕捉设备的示例实施例;
图3示出可用于装饰显示环境的计算环境的示例实施例;
图4示出用于根据所公开的主题来解释用于装饰显示环境的一个或多个姿势的计算环境的另一示例实施例;
图5描绘了用于装饰显示环境的示例方法500的流程图;
图6描绘了用于装饰显示环境的另一示例方法的流程图;
图7是显示环境的定义部分的示例的屏幕显示,该定义部分与用户在所捕捉的图像中的轮廓具有相同形状;以及
图8-11是根据所公开的主题来装饰的显示环境的其他示例的屏幕显示。
说明性实施例的具体实施方式
如在此将描述的,用户可通过作出一个或多个姿势、使用语音命令、和/或使用合适的接口设备来装饰显示环境。根据一个实施例,可以检测语音命令来实现对艺术特征(诸如,颜色、纹理、对象和视觉效果)的用户选择。例如,用户可说用于为显示环境的某区域或部分上色的期望颜色选择,并且该话语可被识别为对该颜色的选择。另外,语音命令可选择纹理、对象、或用于装饰显示环境的视觉效果中的一个或多个。用户还可以作出姿势来选择显示环境的一部分来装饰。例如,用户可以用他或她的手臂作出投掷运动来选择显示环境的该部分。在这个示例中,在一对象被用户以用户的投掷速度和轨迹投掷的情况下,所选择的部分可以是视听设备的显示屏幕上被该对象接触的区域。接着,可基于所选的艺术特征来更改显示环境的所选部分。
在另一实施例中,可以基于用户的姿势的特征来装饰显示环境的一部分。用户的姿势可以由图像捕捉设备来检测。例如,用户的姿势可以是投掷移动、手腕移动、躯干移动、手移动、腿移动、手臂移动等。可确定用户的姿势的特征。例如,可以确定与移动相关联的速度、方向、起始位置、最终位置等中的一个或多个。基于这些特征中的一个或多个,可以选择显示环境的要装饰的部分。可以基于用户的姿势的特征来更改显示环境的所选部分。例如,所选部分在显示环境中的位置、所选部分的大小、和/或所选部分的图案可以基于用户的投掷运动的速度和/或方向。
在又一实施例中,可以以模板的形式来使用所捕捉的对象的图像,以供在显示环境中进行装饰。对象的图像可以由图像捕捉设备来捕捉。可以确定对象在所捕捉的图像中的至少一部分的边缘。可以基于所确定的边缘来定义显示环境的一部分。例如,可以确定对象(诸如用户)的轮廓。在这个示例中,显示环境的定义部分可以具有与用户的轮廓匹配的形状。例如可以通过上色、通过添加纹理和/或通过视觉效果来装饰定义部分。
图1A和1B示出了目标识别、分析和跟踪系统10的配置的示例实施例,其中用户18正使用姿势来控制化身13并与应用进行交互。在该示例实施例中,系统10可识别、分析和跟踪用户的手15或用户18的其他附肢的移动。此外,如在此更详细描述的,系统10可分析用户18的移动,并基于手移动或用户的其他附肢来确定在视听设备16的显示器14内的化身13的外观和/或活动。如在此更详细描述的,系统10还可以分析用户的手15或其他附肢的移动来装饰虚拟画布17。
如图1A所示,系统10可包括计算环境12。计算环境12可以是计算机、游戏系统、控制台等。根据一示例实施例,计算环境12可包括硬件组件和/或软件组件,使得计算环境12可用于执行诸如游戏应用、非游戏应用等应用。
如图1A所示,系统10可包括图像捕捉设备20。如将在下面更详细地描述的,捕捉设备20可以是例如检测器,该检测器可用于监视诸如用户18等一个或多个用户,以使得可以捕捉、分析并跟踪该一个或多个用户所执行的移动以确定期望姿势,诸如用于控制应用内的化身13的手移动。另外,可以捕捉、分析并跟踪一个或多个用户所执行的移动来装饰画布17或显示器14的另一部分。
根据一个实施例,系统10可以被连接至视听设备16。视听设备16可以是可向诸如用户18等用户提供游戏或应用视觉和/或音频的任何类型的显示系统,诸如电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡等视频适配器和/或诸如声卡等音频适配器,这些适配器可提供与游戏应用、非游戏应用等相关联的视听信号。视听设备16可以接收来自计算环境12的视听信号,然后可向用户18输出与该视听信号相关联的游戏或应用视觉和/或音频。根据一个实施例,视听设备16可经由例如,S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算环境12。
如图1B所示,在一示例实施例中,应用可以在计算环境12中执行。该应用可被表示在视听设备16的显示空间内。用户18可以使用姿势来控制化身13的移动以及对所显示的环境内的画布17的装饰,并控制化身13与画布17的交互。例如,用户18可以以如图1B所示的下手(underhand)投掷运动来移动他的手15,以类似地移动化身13的对应的手和手臂。此外,用户的投掷运动可使得画布17的部分21根据所定义的艺术特征而被更改。例如,部分21可以被上色、被更改成具有纹理外观、被更改为已受到对象(例如,油灰或其他稠密物质)的影响、或被更改为包括变化效果(例如,三维效果)等。另外,可基于用户的投掷运动来呈现动画,使得化身表现为正在将对象或物质(诸如,颜料)投掷到画布17上。在这个示例中,动画的结果可以是将画布17的部分21更改为包括艺术特征。因此,根据一示例实施例,系统10的计算机环境12和捕捉设备20可用于识别和分析用户18在物理空间中的姿势,使得该姿势可被解释为化身13在游戏空间中装饰画布17的控制输入。
在一个实施例中,计算环境12可识别用户的手的打开和/或握紧位置以确定在虚拟环境中释放颜料的时间。例如,如上所述,可控制化身来将颜料“投掷”到画布17上。化身的移动可模仿用户的投掷运动。在投掷运动期间,将颜料从化身的手中释放以将该颜料投掷到画布上的时间可被确定为与用户打开他或她的手的时间相对应。例如,用户可以用“握着”颜料的握紧的手来开始投掷运动。在这个示例中,在用户投掷运动期间的任何时间,用户可以打开他或她的手来控制化身释放该化身所握着的颜料,使得该颜料向画布行进。颜料从化身的手处释放的速度和方向可以与用户的手的速度和方向(即,打开手时的速度和方向)直接相关。以这种方式,虚拟环境中化身对颜料的投掷可以与用户的运动相对应。
在另一实施例中,不是通过投掷运动或与该运动相结合来将颜料应用到画布17上,而是用户可以以轻击运动移动他或她的手腕来将颜料应用于画布。例如,计算环境12可以将快速的手腕移动识别为将少量颜料应用到画布17的一部分上的命令。化身的移动可以反映用户的手腕移动。另外,可以在显示环境中呈现动画,使得该动画表现为化身正使用它的手腕将颜料轻击到画布上。画布上得到的装饰可以取决于用户的手腕移动的运动速度和/或方向。
在另一个实施例中,可以只在用户空间的单个平面中识别用户移动。用户可以提供使计算环境12仅识别他或她在与用户有关的X-Y平面或X-Z平面等中的移动的命令,使得用户在该平面外部的运动被忽略。例如,如果仅X-Y平面中的移动被识别,则Z方向的移动被忽略。这个特征对于通过用户的手的移动来对画布进行绘制而言可以是有用的。例如,用户可以在X-Y平面中移动他或她的手,并且与该用户的移动相对应的线路可以被生成在画布上,该线路具有与用户在X-Y平面中的移动直接对应的形状。此外,在一替换例中,可以识别其他平面中影响更改的有限运动,如此处所述。
系统10可以包括话筒或其他合适的设备,所述话筒或其他合适的设备用于检测来自用户的语音命令来用于选择装饰画布17的艺术特征。例如,多个艺术特征可各自被定义、被存储在计算环境12中、并与用于其选择的语音识别数据相关联。光标13的颜色和/或图形可基于音频输入而改变。在一示例中,用户的语音命令可改变将装饰应用于画布17的模式。用户可以说单词“红”,并且这个单词可以被计算环境12解释为输入用红颜色来绘制画布17的模式的命令。一旦处于用特定颜色来进行绘制的模式中,用户可随后作出用他或她的手来将颜料“投掷”到画布17上的一个或多个姿势。化身的移动可以模仿该用户的运动,并且可以呈现动画使得该动画表现为化身正在将颜料投掷到画布17上。
图2示出可在系统10中使用的图象捕捉设备20的示例实施例。根据该示例实施例,捕捉设备20可被配置成经由任何合适的技术(包括例如飞行时间、结构化光、立体图像等)来捕捉带有包括一个或多个图像的用户移动信息的视频,用户移动信息可包括姿势值。根据一个实施例,捕捉设备20可将计算出的姿势信息组织为坐标信息,诸如笛卡尔坐标和/或极坐标。可以随时间监视如本文所述的用户模型的坐标以确定用户或其他附肢的移动。基于用户模型坐标的移动,计算环境可确定用户是否正作出用于装饰画布(或显示环境的其他部分)和/或控制化身的所定义的姿势。
如图2所示,根据一示例实施例,图像相机组件22可包括可用于捕捉用户的姿势图像的IR光组件26、三维(3-D)相机26和RGB相机28。例如,捕捉设备20的IR光组件24可以向场景发射红外光,并随后可以使用例如3D相机26和/或RGB相机28使用传感器(未示出)来检测从用户的手或其他附肢的表面反向散射的红外光和/或可见光。在一些实施例中,可以使用脉冲红外光,使得可以测量出射光脉冲与相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备20到用户的手上的特定位置的物理距离。附加地,在其他示例性实施例中,可以将出射光波的相位与入射光波的相位相比较来确定相移。随后可使用相移来确定从捕捉设备到用户的手的物理距离。这个信息还可用于确定用于装饰画布(或显示环境的其他部分)和/或用于控制化身的用户的手移动和/或其他用户移动。
根据另一示例性实施例,3D相机可用于通过经由包括例如快门式光脉冲成像在内的各种技术分析反射光束随时间的强度来间接地确定从图像捕捉设备20到用户的手的物理距离。这个信息还可用于确定用户的手的移动和/或其他用户移动。
在另一示例实施例中,图像捕捉设备20可使用结构化光来捕捉姿势信息。在这样的分析中,图案化光(即被显示为诸如网格图案或条纹图案之类的已知图案的光)可以经由例如IR光组件24被投影到场景上。在撞击用户的手的表面之后,作为响应图案可变为变形的。图案的这种变形可由例如3-D相机26和/或RGB相机28来捕捉,然后可被分析来确定从捕捉设备到用户的手和/或其他身体部位的物理距离。
根据另一实施例,捕捉设备20可包括可以从不同的角度观察场景的两个或更多个在物理上分开的相机,以获取可以被解析以生成姿势信息的视觉立体数据。
捕捉设备20还可包括话筒30。话筒30可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒30可用于减少系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒30可用于接收语音信号——该语音信号还可被用户提供来控制化身的活动和/或外观,和/或接收用于装饰画布或显示环境的其他部分的模式。
在一示例性实施例中,捕捉设备20还可包括可与图像相机组件22操作地通信的处理器32。处理器32可包括可以执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收与用户姿势相关的图像的指令、用于确定用户的手或其他身体部位是否可能被包括在姿势图像中的指令、用于将图像转换成骨架表示或者用户的手或其他身体部位的模型的指令、或任何其他合适的指令。
捕捉设备20还可包括存储器组件34,存储器组件34可存储可由处理器32执行的指令、3-D相机或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一示例实施例,存储器组件34可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图2所示,在一个实施例中,存储器组件34可以是与图像捕捉组件22和处理器32进行通信的单独的组件。根据另一实施例,存储器组件34可被集成到处理器32和/或图像捕捉组件22中。
如图2所示,捕捉设备20可经由通信链路36与计算环境12进行通信。通信链路36可以是包括例如USB连接、火线连接、以太网电缆连接等的有线连接和/或诸如无线802.11b、802.11g、802.11a或802.11n连接等的无线连接。根据一个实施例,计算环境12可以经由通信链路36向捕捉设备20提供时钟,该时钟可用于确定何时捕捉场景。
另外,捕捉设备20可以经由通信链路36向计算环境12提供由例如3-D相机26和/或RGB相机28捕捉到的用户姿势信息和图像,以及可以由捕捉设备20生成的骨架模型。计算环境12然后可使用该骨架模型、深度信息和捕捉的图像来例如控制例如化身的外观和/或活动。例如,如图2中所示,计算环境12可包括用于存储姿势数据的姿势库190。该姿势数据可包括姿势过滤器的集合,每一姿势过滤器包括与骨架模型(在用户的手或其他身体部位移动时)可能执行的姿势有关的信息。可以将由相机和设备20以骨架模型及与之相关联的移动的形式捕捉的数据与姿势库190中的姿势过滤器进行比较,以标识(如由骨架模型所表示的)用户的手或其他身体部位何时执行了一个或多个姿势。这些姿势可以与用于控制化身的外观和/或活动的各种输入和/或用于装饰画布的动画相关联。由此,计算环境12可使用姿势库190来解释骨架模型的移动,并改变化身的外观和/或活动、和/或用于装饰画布的动画。
图3示出根据所公开的主题可用于装饰显示环境的计算环境的示例实施例。以上参考附图1A-2所描述的诸如计算环境12的计算环境可以是多媒体控制台100,诸如游戏控制台。如图3所示,多媒体控制台100具有含有一级高速缓存102、二级高速缓存104和闪存ROM(只读存储器)106的中央处理单元(CPU)101。一级高速缓存102和二级高速缓存104临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 101可被提供为具有一个以上的核,并且由此具有附加的一级高速缓存102和二级高速缓存104。闪存ROM 106可存储在多媒体控制台100通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)108和视频编码器/视频编解码器(编码器/解码器)114形成用于高速和高分辨率图形处理的视频处理流水线。经由总线从图形处理单元108向视频编码器/视频编解码器114运送数据。视频处理流水线向A/V(音频/视频)端口140输出数据,用于传输至电视或其他显示器。存储器控制器110连接到GPU 108以方便处理器访问各种类型的存储器112,诸如但不局限于RAM(随机存取存储器)。在一个示例中,GPU 108可以是广泛并行通用处理器(称为通用GPU或GPGPU)。
多媒体控制台100包括较佳地在模块118上实现的I/O控制器120、系统管理控制器122、音频处理单元123、网络接口控制器124、第一USB主控制器126、第二USB控制器128和前面板I/O子部件130。USB控制器126和128用作外围控制器142(1)-142(2)、无线适配器148、以及外置存储器设备146(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口124和/或无线适配器148提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等的各种不同的有线或无线适配器组件中的任何一种。
提供系统存储器143来存储在引导过程期间加载的应用数据。提供媒体驱动器144,且其可包括DVD/CD驱动器、硬盘驱动器、或其他可移动媒体驱动器等。媒体驱动器144可以是对多媒体控制器100内置的或外置的。应用数据可经由媒体驱动器144访问,以供多媒体控制台100执行、回放等。媒体驱动器144经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)等总线连接到I/O控制器120。
系统管理控制器122提供与确保多媒体控制台100的可用性相关的各种服务功能。音频处理单元123和音频编解码器132形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元123与音频编解码器132之间传输。音频处理流水线将数据输出到A/V端口140,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件130支持暴露在多媒体控制台100的外表面上的电源按钮150和弹出按钮152、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块136向多媒体控制台100的组件供电。风扇138冷却多媒体控制台100内的电路。
多媒体控制台100内的CPU 101、GPU 108、存储器控制器110、以及各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,这些架构可以包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台100通电时,应用数据可从系统存储器143加载到存储器112和/或高速缓存102、104中,并且可在CPU 101上执行。应用可在导航到多媒体控制台100上可用的不同媒体类型时呈现提供一致的用户体验的图形用户界面。在操作中,媒体驱动器144中所包含的应用和/或其他媒体可从媒体驱动器144启动或播放,以将附加功能提供给多媒体控制台100。
多媒体控制台100可通过简单地将该系统连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台100允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口124或无线适配器148可用的宽带连接集成的情况下,多媒体控制台100还可作为更大网络社区中的参与者来操作。
当多媒体控制台100通电时,可以保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可包括存储器的保留量(诸如,16MB)、CPU和GPU周期的保留量(诸如,5%)、网络带宽的保留量(诸如,8kbs),等等。因为这些资源是在系统引导时间保留的,所保留的资源从应用的视角而言是不存在的。
具体而言,存储器保留量优选地足够大,以包含启动内核、并发系统应用程序和驱动程序。CPU保留量优选地为恒定,使得若所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留量,通过使用GPU中断来调度代码以将弹出窗口渲染为覆盖图,从而显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选地与屏幕分辨率成比例缩放。在并发系统应用使用完整用户界面的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台100引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识出作为系统应用线程而非游戏应用线程的线程。系统应用优选地被调度为在预定时间并以预定时间间隔在CPU 101上运行,以便提供对应用而言一致的系统资源视图。调度是为了使在控制台上运行的游戏应用的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频级别(例如,静音、衰减)。
输入设备(例如,控制器142(1)和142(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器较佳地控制输入流的切换,而无需知晓游戏应用的知识,并且驱动程序维护有关焦点切换的状态信息。相机27、28和捕捉设备20可为控制台100定义附加输入设备。
图4示出了可用于根据所公开的主题解释用于装饰显示环境的一个或多个姿势的计算环境220的另一示例实施例,该计算环境可以是图1A-2所示的计算环境12。计算系统环境220只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应该将计算环境220解释为对示例性操作环境220中示出的任一组件或其组合有任何依赖性或要求。在某些实施例中,所描绘的各种计算元素可包括被配置成实例化本发明的各具体方面的电路。例如,本公开中使用的术语“电路”可包括被配置成通过固件或开关来执行功能的专用硬件组件。其他示例中,术语电路可包括由实施可用于执行功能的逻辑的软件指令配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可以编写体现逻辑的源代码,且源代码可以被编译为可以由通用处理单元处理的机器可读代码。因为本领域技术人员可以明白现有技术已经进化到硬件、软件或硬件/软件组合之间几乎没有差别的地步,因而选择硬件或是软件来实现具体功能是留给实现者的设计选择。更具体地,本领域技术人员可以明白软件进程可被变换成等价的硬件结构,而硬件结构本身可被变换成等价的软件进程。由此,对于硬件实现还是软件实现的选择是设计选择之一并留给实现者。
在图4中,计算环境220包括计算机241,计算机241通常包括各种计算机可读介质。计算机可读介质可以是能被计算机241访问的任何可用介质,而且包含易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。包含诸如在启动期间帮助在计算机241内的元件之间传输信息的基本例程的基本输入/输出系统224(BIOS)通常储存储在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图4示出了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机241也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图4示出了从不可移动、非易失性磁介质中读取或向其写入的硬盘驱动器238,从可移动、非易失性磁盘254中读取或向其写入的磁盘驱动器239,以及从诸如CD ROM或其他光学介质等可移动、非易失性光盘253中读取或向其写入的光盘驱动器240。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器238通常通过诸如接口234之类的不可移动存储器接口连接到系统总线221,并且磁盘驱动器239和光盘驱动器240通常通过诸如接口235之类的可移动存储器接口连接到系统总线221。
以上讨论并在图4中示出的驱动器及其相关联的计算机存储介质为计算机241提供了对计算机可读指令、数据结构、程序模块和其他数据的存储。在图4中,例如,硬盘驱动器238被示为存储操作系统258、应用程序257、其他程序模块256和程序数据255。注意,这些组件可与操作系统225、应用程序226、其他程序模块227和程序数据228相同,也可与它们不同。在此操作系统258、应用程序257、其他程序模块256以及程序数据255被给予了不同的编号,以说明至少它们是不同的副本。用户可以通过输入设备,例如键盘251和定点设备252——通常是指鼠标、跟踪球或触摸垫——向计算机241输入命令和信息。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机27、28和捕捉设备20可为控制台100定义附加输入设备。监视器242或其他类型的显示设备也通过诸如视频接口232之类的接口连接至系统总线221。除了监视器以外,计算机还可包括诸如扬声器244和打印机243之类的其他外围输出设备,它们可通过输出外围接口233来连接。
计算机241可使用到一个或多个远程计算机(诸如,远程计算机246)的逻辑连接而在联网环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见网络节点,并且通常包括许多或所有以上相对计算机241所描述的元件,但在图4中仅示出了存储器存储设备247。图2中所描绘的逻辑连接包括局域网(LAN)245和广域网(WAN)249,但还可包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机241通过网络接口或适配器237连接到LAN 245。当在WAN联网环境中使用时,计算机241通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其他手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其他适当的机制连接到系统总线221。在联网环境中,相对于计算机241所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图4示出了远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
图5描绘了用于装饰显示环境的示例方法500的流程图。参考图5,在505检测用户的选择艺术特征的姿势和/或语音命令。例如,用户可说单词“绿”来选择绿颜色来装饰在图1B所示的显示环境中。在这个示例中,应用可输入颜料模式来用绿颜色进行绘制。另选地,例如,如果用户叫出由计算环境识别的其他颜色,则应用可输入颜料模式。用于装饰的其他模式包括例如用于向画布添加纹理外观的纹理模式、用于使用对象来装饰画布的对象模式、用于向画布添加视觉效果(例如,三维或变化视觉效果)的视觉效果模式等。一旦识别出了模式的语音命令,计算环境可停留在该模式,直到用户提供用于退出该模式或者用于选择另一模式的输入。
在510,检测定向或选择显示环境的一部分的用户姿势和/或用户语音命令中的一个或多个。例如,图像捕捉设备可以在用户作出以下各项移动中的一个或多个时捕捉一系列用户图像:投掷移动、手腕移动、躯干移动、手移动、腿移动或手臂移动等。检测到的姿势可用于:选择所选部分在显示环境中的位置、所选部分的大小和/或所选部分的图案等。此外,计算环境可识别出用户在各所捕捉的图像中的位置的组合对应于一特定移动。另外,可处理用户的移动以检测一个或多个移动特征。例如,计算环境可基于手臂在各个所捕捉的图像中的位置以及这些图像中的两个或更多个之间流逝的时间来确定手臂移动的速度和/或方向。在另一个示例中,基于所捕捉的图像,计算环境可检测用户的移动在这些捕捉图像中的一个或多个中的位置特征。在这个示例中,可检测用户移动的开始位置、结束位置和/或中间位置等来选择显示环境的一部分进行装饰。
在一实施例中,在505,使用用户姿势的一个或多个所检测到的特征,可根据所选的艺术特征选择显示环境的一部分来装饰。例如,如果用户选择颜色模式以上红色,并作出如图1A所示的投掷运动,则对画布的部分21上红色。计算环境可确定投掷运动的速度和方向以用于确定部分21的大小、部分21的形状以及部分21在显示环境中的位置。此外,投掷的开始位置和/或结束位置可用于确定部分21的大小、形状和/或位置。
在515,基于所选的艺术特征来修改显示环境的所选部分。例如,可以向显示环境的所选部分上红色或用户使用语音命令来选择的其他颜色。在另一示例中,可以用用户所选的任何其他二维图像来装饰所选部分,其他二维图像为诸如条状图案、圆点花样的图案、任何颜色的组合、或任何颜色的混合等。
艺术特征可以是适合于显示在显示环境内的任何图像。例如,可以将二维图像显示在显示环境的一部分内。在另一示例中,该图像对查看者可表现为三维的。三维图像对查看者可以表现为具有纹理和深度。在另一示例中,艺术特征可以是随时间改变的动画特征。例如,在所选部分内和/或显示环境的其他部分中图像可表现为有生命的(例如,植物等)并且可随时间长大。
在一个实施例中,用户可选择虚拟对象以用于装饰在显示环境中。该对象可以是用于在显示环境的一部分处创建视觉效果的例如油灰或颜料等。例如,在选择了对象后,可以如此处所描述的,控制表示用户的化身来将该对象投掷在显示环境的该部分处。可以呈现化身投掷对象的动画,并且可以显示对象撞击对象的效果。例如,投掷在画布处的油灰球在与画布撞击后可变平,并可呈现该油灰的不规则的三维形状。在另一示例中,可控制化身将颜料投掷在画布处。在这个实例中,动画可示出化身从桶中拿出颜料,并将该颜料投掷在画布处,使得用所选的颜料以不规则的二维形状绘制该画布。
在一实施例中,所选的艺术特征可以是可通过用户姿势或其他输入来塑造的对象。例如,用户可以使用语音命令或其他输入来选择在显示环境中表现为三维的对象。另外,用户可以选择对象类型,诸如可通过用户姿势来建模的泥塑。最初,对象在形状上可以是球形的,或者可以是任何其他对建模而言合适的形状。用户可随后作出可被解释为用于建模形状的姿势。例如,用户可以作出拍打姿势来使对象的一侧变平。此外,如此处所描述的,可以将对象考虑为显示环境中可以通过颜色、纹理和视觉效果等来装饰的一部分。
图6描绘了用于装饰显示环境的另一示例方法600的流程图。参考图6,在605处捕捉对象的图像。例如,图像捕捉设备可捕捉用户或另一对象的图像。用户可以通过语音命令或其他合适的输入来启动图像捕捉。
在610处,确定对象在所捕捉的图像中的至少一部分的边缘。计算环境可被配置成识别用户或另一对象的轮廓。可将用户或对象的轮廓存储在计算环境中和/或显示在视听显示器的显示屏幕上。在一示例中,可确定或识别用户或另一对象的轮廓的一部分。在另一示例中,计算环境可识别用户或对象中的特征,诸如用户衬衫的轮廓或者对象中不同部分间的分隔。
在一个实施例中,可以在一段时间内捕捉多个用户的图像或另一对象的图像,并且可将所捕捉的图像的轮廓实时显示在显示环境中。用户可以提供语音命令或其他输入来为显示器存储所显示的轮廓。通过这种方式,可以在捕捉图像以供存储和显示之前向用户提供对当前轮廓的实时反馈。
在615处,基于所确定的边缘来定义显示环境的一部分。例如,可将显示环境的一部分定义为具有与用户或另一对象在所捕捉的图像中的轮廓匹配的形状。随后显示环境的定义部分可被显示。例如,图7是显示环境的定义部分21的示例的屏幕显示,该定义部分21与用户在所捕捉的图像中的轮廓具有相同形状。在图7中,可以将定义部分21显示在虚拟画布17上。此外,如图7所示,化身13被设置在画布17前面的前景中。用户可以通过语音命令“笑一笑(cheese)”来选择何时捕捉他或她的图像,该命令可被计算环境解释成捕捉用户的图像。
在620处,装饰显示环境的定义部分。例如,可以以在此描述的各种方式中的任何一种来装饰定义部分,诸如通过上色、通过添加纹理、或通过添加视觉效果等。再次参考图7,例如,用户可以选择用如图所示的黑色或者用任何其他颜色或颜色的图案来为定义部分21上色。另选地,用户可以选择以在此描述的各种方式中的任何一种用艺术特征来装饰画布17在定义部分21周围的那部分。
图8-11是根据所公开的主题来装饰的显示环境的其他示例的屏幕显示。参考图8,通过用户选择颜色并作出向画布17的投掷运动可以生成显示环境的经装饰的部分80。如图8所示,投掷运动的结果是像颜料已被化身13投掷到画布17上那样的“飞溅”效果。接着,捕捉用户图像以定义部分80,部分80的形状如同用户的轮廓。可通过用户选择颜色的语音命令来选择部分80的颜色。
参考图9和10,部分21是由用户在所捕捉的图像中的轮廓来定义的。定义部分21被由用户装饰的其他部分包围。
参考图11,画布17如在此所描述的包括由用户装饰的多个部分。
在一个实施例中,用户可利用语音命令、姿势或其他输入来添加并移动显示环境中的组件或元素。例如,可以将图像文件中所包含的形状、图像或其他艺术特征添加到画布中,或者将其从画布中移除。在另一示例中,计算环境可以:将用户输入识别成库中的元素、检索该元素、在将该元素显示在显示环境中以供用户更改和/或放置。另外,可通过语音命令、姿势或其他输入来标识显示环境中的对象、部分或其他元素,并且可改变所标识的对象、部分或元素的颜色或其他艺术特征。在另一示例中,用户可进行选择来输入利用颜料桶、单个污点特征、或细条等的模式。在这个示例中,对模式的选择会影响用户作出识别出的姿势时在显示环境中呈现的艺术特征的类型。
在一个实施例中,艺术环境中的姿势控制可以用语音命令来扩充。例如,用户可以使用语音命令来选择画布内的部分。在这个示例中,用户可随后使用投掷运动将颜料大致投掷在使用语音命令选择的那部分中。
在另一实施例中,可以将三维绘制空间转换成三维图像和/或二维图像。例如,可以将图11所示的画布17转换成二维图像并将其保存到文件中。此外,用户可以扫视显示环境中的虚拟对象以选择生成二维图像的侧面视角。例如,用户可以塑造如此处所描述的三维对象,并且用户可以选择从其生成二维图像的对象的一侧。
在一个实施例中,计算环境可以通过分析用户的肩部位置、到达范围(reach)、姿态、姿势等中的一个或多个来动态地确定用户在用户空间中的屏幕位置。例如,可以使用户的肩部位置与显示在显示环境中的画布表面的平面协调,使得在显示环境的虚拟空间中用户的肩部位置与画布表面的平面平行。可以分析用户的手相对于用户的肩部位置、姿态和/或屏幕位置的位置,以确定用户是否打算使用他或她的虚拟手来与画布表面进行交互。例如,如果用户将他或她的手向前伸出,则可以将该姿势解释成与画布表面进行交互以更改该画布表面的一部分的命令。化身可被示为伸出它的手以与用户的手移动相对应的移动来触摸画布表面。一旦化身的手触摸画布表面后,这个手就可以诸如例如通过移动该表面上出现的颜色(或颜料)来影响画布上的元素。此外,在该示例中,用户可以移动他或她的手来影响化身的手的移动,以涂抹或混合画布表面上的颜料。在这个示例中,视觉效果与手指在真实环境中绘制的相似。另外,用户可以选择以这种方式使用他或她的手来移动显示环境中的艺术特征。此外,例如,可以将用户在真实空间中的移动转换成化身在虚拟空间中的移动,使得化身在显示环境中的画布周围移动。
在另一示例中,用户可以使用身体的任何部位来与显示环境进行交互。除了使用他或她的手以外,用户还可以使用脚、膝盖、头或其他身体部位来影响对显示环境的更改。例如,用户可以用类似于移动手的方式伸出他或她的脚来使得化身的膝盖触摸画布表面,并由此改变画布表面上的艺术特征。
在一个实施例中,计算环境可以识别用户的躯干姿势来影响显示在显示环境中的艺术特征。例如,用户可以前后(或者以“摆动”运动)移动他或她的身体,以影响艺术特征。躯干移动可以使艺术特征变形或者使所显示的艺术特征“旋转”。
在一个实施例中,可以提供艺术品帮助特征来分析显示环境中的当前艺术特征,并确定与这些特征有关的用户意图。例如,艺术品帮助特征可以确保在显示环境或显示环境的一部分(诸如,画布表面)中不存在空白的或未经填充的部分。此外,艺术品帮助特征可以将显示环境中的各部分“拟合(snap)”在一起。
在一个实施例中,计算环境维护用于编辑生成在显示环境中的装饰或艺术品的编辑工具集。例如,用户可以使用语音命令、姿势或其他输入来撤销或重复输入结果(例如,对显示环境部分的更改、颜色变化等)。在其他示例中,用户可以将各艺术特征铺设在显示环境中、缩放、模块化(stencil)和/或应用/丢弃这些艺术特征以得到优良的作品。使用工具集的输入可以是通过语音命令、姿势或其他输入的。
在一个实施例中,计算环境可以识别用户何时不打算创建艺术品。结果,这个特征可以暂停由用户在显示环境中创建艺术品,所以该用户可以休息一下。例如,用户可以生成识别出的用于暂停的语音命令或姿势等用户可以恢复通过识别出的语音命令或姿势等来创建艺术品。
在又一实施例中,可以将根据所公开的主题来生成的艺术品复制在真实世界对象上。例如,可以将创建在虚拟画布表面上的二维图像复制在海报、咖啡杯、日历等上。可以将这些图像从用户的计算环境下载至服务器,以将已创建的图像复制到对象上。此外,可以将图像复制到虚拟世界对象上,诸如化身、显示壁纸等。
应该理解,此处所述的配置和/或方法在本质上是示例性的,且这些具体实施例或示例不被认为是限制性的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示顺序执行、按其他顺序执行、并行地执行等等。同样,可以改变上述过程的次序。
此外,本公开的主题包括各种过程、系统和配置,以及本文所公开的其他特征、功能、动作、和/或过程,以及其等效物的组合和子组合。

Claims (15)

1.一种用于装饰显示环境的方法,所述方法包括:
检测用户的选择艺术特征的姿势或语音命令;检测用户的定向或选择显示环境的一部分的姿势或语音命令;以及
基于所选的艺术特征来更改所述显示环境的所选部分。
2.如权利要求1所述的方法,其特征在于,检测用户的选择艺术特征的姿势或语音命令包括检测选择颜色的姿势或语音命令,并且其中更改所述显示环境的所选部分包括使用所选的颜色来为所述显示环境的所选部分上色。
3.如权利要求1所述的方法,其特征在于,检测用户的选择艺术特征的姿势或语音命令包括检测选择纹理、对象和视觉效果中的一个的姿势或语音命令。
4.如权利要求1所述的方法,其特征在于,更改所述显示环境的所选部分包括用二维图像来装饰所选部分。
5.如权利要求1所述的方法,其特征在于,更改所述显示环境的所选部分包括用三维图像来装饰所选部分。
6.如权利要求1所述的方法,其特征在于,包括在所选部分处显示三维对象,以及
其中,更改所述显示环境的所选部分包括基于所选的艺术特征来更改所述三维对象的外观。
7.如权利要求6所述的方法,其特征在于,包括:
接收另一用户姿势或语音命令;以及
基于所述另一用户姿势或语音命令来更改所述三维对象的形状。
8.如权利要求1所述的方法,其特征在于,包括存储与多个输入相对应的多个姿势数据,
其中,检测用户的定向或选择显示环境的一部分的姿势或语音命令包括检测以下用户移动中的至少一个的特征:投掷移动、手腕移动、躯干移动、手移动、腿移动和手臂移动;并且其中更改所述环境的所选部分包括基于所检测到的所述用户移动的特征来更改所述显示环境的所选部分。
9.如权利要求1所述的方法,其特征在于,包括使用图像捕捉设备来检测用户的姿势。
10.一种用于装饰显示环境的方法,所述方法包括:
检测用户的姿势或语音命令;
确定所述用户的姿势或语音命令的特征;
基于所述用户的姿势或语音命令的所述特征来选择显示环境的一部分;以及
基于所述用户的姿势或语音命令的所述特征来更改所述显示环境的所选部分。
11.如权利要求10所述的方法,其特征在于,确定所述用户姿势或语音命令的特征包括确定与所述用户的手臂移动相关联的以下各项中的至少一个:速度、方向、开始位置以及结束位置,以及
其中选择显示环境的一部分包括基于与所述用户的手臂移动相关联的速度和方向中的至少一个来选择所选部分在所述显示环境中的位置、所选部分的大小以及所选部分的图案。
12.如权利要求11所述的方法,其特征在于,更改所选部分包括基于与用户的手臂移动相关联的速度、方向、开始位置和结束位置中的至少一个来更改所选部分的颜色、纹理和视觉效果中的一个。
13.如权利要求10所述的方法,其特征在于,包括:
将化身显示在显示环境中;
控制所显示的化身来模仿所述用户的姿势;以及
显示所述化身基于所述用户的姿势的特征来更改所述显示环境的所选部分的动画。
14.如权利要求10所述的方法,其特征在于,包括检测用户的选择艺术特征的姿势或语音命令,以及
其中更改所述显示环境的所选部分包括基于所选的艺术特征来更改所述显示环境的所选部分。
15.一种其上存储了用于装饰显示环境的计算机可执行指令的计算机可读介质,所述计算机可执行指令包括:
捕捉对象的图像;
确定所述对象在所捕捉的图像中的至少一部分的边缘;
基于所确定的边缘来定义显示环境的一部分;以及
装饰所述显示环境的定义部分。
CN201080047445.5A 2009-10-23 2010-10-21 装饰显示环境 Expired - Fee Related CN102741885B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/604,526 2009-10-23
US12/604,526 US20110099476A1 (en) 2009-10-23 2009-10-23 Decorating a display environment
PCT/US2010/053632 WO2011050219A2 (en) 2009-10-23 2010-10-21 Decorating a display environment

Publications (2)

Publication Number Publication Date
CN102741885A true CN102741885A (zh) 2012-10-17
CN102741885B CN102741885B (zh) 2015-12-16

Family

ID=43899432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080047445.5A Expired - Fee Related CN102741885B (zh) 2009-10-23 2010-10-21 装饰显示环境

Country Status (6)

Country Link
US (1) US20110099476A1 (zh)
EP (1) EP2491535A4 (zh)
JP (1) JP5666608B2 (zh)
KR (1) KR20120099017A (zh)
CN (1) CN102741885B (zh)
WO (1) WO2011050219A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988483A (zh) * 2019-05-22 2020-11-24 柯尼卡美能达株式会社 图像处理装置及程序
US10943383B2 (en) 2017-01-26 2021-03-09 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5170771B2 (ja) * 2009-01-05 2013-03-27 任天堂株式会社 描画処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9159152B1 (en) * 2011-07-18 2015-10-13 Motion Reality, Inc. Mapping between a capture volume and a virtual world in a motion capture simulation environment
EP2986014A1 (en) * 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US9423877B2 (en) * 2012-02-24 2016-08-23 Amazon Technologies, Inc. Navigation approaches for multi-dimensional input
US9019218B2 (en) * 2012-04-02 2015-04-28 Lenovo (Singapore) Pte. Ltd. Establishing an input region for sensor input
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
US9779757B1 (en) * 2012-07-30 2017-10-03 Amazon Technologies, Inc. Visual indication of an operational state
US9721586B1 (en) 2013-03-14 2017-08-01 Amazon Technologies, Inc. Voice controlled assistant with light indicator
KR101539304B1 (ko) * 2013-11-07 2015-07-24 코이안(주) 3차원 모션감지를 통한 인터랙티브 디스플레이 장치
US9383894B2 (en) * 2014-01-08 2016-07-05 Microsoft Technology Licensing, Llc Visual feedback for level of gesture completion
US20150199017A1 (en) * 2014-01-10 2015-07-16 Microsoft Corporation Coordinated speech and gesture input
KR102292619B1 (ko) * 2014-01-23 2021-08-23 삼성전자주식회사 색상 생성 방법 및 그에 따른 장치, 그에 따른 시스템
DE102014206443A1 (de) * 2014-04-03 2015-10-08 Continental Automotive Gmbh Verfahren und Vorrichtung zum berührungslosen Eingeben von Schriftzeichen
WO2016063622A1 (ja) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント キャプチャ装置、キャプチャ方法、プログラム及び情報記憶媒体
CN106547337A (zh) * 2015-09-17 2017-03-29 富泰华工业(深圳)有限公司 使用手势的拍照方法、系统与电子装置
TWI628614B (zh) * 2015-10-12 2018-07-01 李曉真 立體虛擬實境的互動房屋瀏覽方法及其系統
KR101775080B1 (ko) * 2016-06-07 2017-09-05 동국대학교 산학협력단 Nui/nux에 기반하여 드로잉 영상을 처리하는 장치 및 방법
US10178293B2 (en) * 2016-06-22 2019-01-08 International Business Machines Corporation Controlling a camera using a voice command and image recognition
CN106203990A (zh) * 2016-07-05 2016-12-07 深圳市星尚天空科技有限公司 一种利用虚拟装饰物品美化视频直播界面的方法及系统
US20180075657A1 (en) * 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Attribute modification tools for mixed reality
JP6244593B1 (ja) * 2017-01-30 2017-12-13 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10698561B2 (en) * 2017-06-12 2020-06-30 Google Llc Intelligent command batching in an augmented and/or virtual reality environment
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
US10838587B2 (en) 2018-01-02 2020-11-17 Microsoft Technology Licensing, Llc Augmented and virtual reality for traversing group messaging constructs
GB201815725D0 (en) * 2018-09-26 2018-11-07 Square Enix Ltd Sketching routine for video games
US11948237B2 (en) * 2021-12-30 2024-04-02 Samsung Electronics Co., Ltd. System and method for mimicking user handwriting or other user input using an avatar

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1289086A (zh) * 1999-09-21 2001-03-28 精工爱普生株式会社 交互显示系统
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US20030144052A1 (en) * 1997-12-30 2003-07-31 Walker Jay S. System and method for facilitating play of a game with user-selected elements
US20040189720A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) * 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) * 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) * 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) * 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) * 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) * 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) * 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) * 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) * 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) * 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) * 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) * 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) * 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) * 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) * 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) * 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) * 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) * 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) * 1990-02-13 1991-10-29
US5101444A (en) * 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) * 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) * 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) * 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
US5875108A (en) * 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) * 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) * 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) * 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) * 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) * 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) * 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) * 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) * 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) * 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) * 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5516105A (en) * 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) * 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) * 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5880743A (en) * 1995-01-24 1999-03-09 Xerox Corporation Apparatus and method for implementing visual animation illustrating results of interactive editing operations
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) * 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) * 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) * 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) * 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) * 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) * 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) * 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6152856A (en) * 1996-05-08 2000-11-28 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) * 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5861886A (en) * 1996-06-26 1999-01-19 Xerox Corporation Method and apparatus for grouping graphic objects on a computer based system having a graphical user interface
US5989157A (en) * 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) * 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) * 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) * 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) * 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) * 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) * 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) * 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6101289A (en) * 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) * 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) * 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
JP2001070634A (ja) * 1999-06-29 2001-03-21 Snk Corp ゲーム機及びゲーム機におけるゲーム方法
JP2009148605A (ja) * 1999-09-07 2009-07-09 Sega Corp ゲーム装置、これに使用する入力手段、及び記憶媒体
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2004510363A (ja) * 2000-08-31 2004-04-02 ライテック コーポレイション センサおよびイメージングシステム
JP4563266B2 (ja) * 2005-06-29 2010-10-13 株式会社コナミデジタルエンタテインメント ネットワークゲームシステム、ゲーム装置、ゲーム装置の制御方法及びプログラム
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
WO2008134745A1 (en) * 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
JP5012373B2 (ja) * 2007-09-28 2012-08-29 カシオ計算機株式会社 合成画像出力装置および合成画像出力処理プログラム
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US8237722B2 (en) * 2008-08-20 2012-08-07 Take Two Interactive Software, Inc. Systems and method for visualization of fluids
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030144052A1 (en) * 1997-12-30 2003-07-31 Walker Jay S. System and method for facilitating play of a game with user-selected elements
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
CN1289086A (zh) * 1999-09-21 2001-03-28 精工爱普生株式会社 交互显示系统
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US20040189720A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUSHMITA MITRA ET AL.: "Gesture Recognition:A Survey", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS, PART C: APPLICATIONS AND REVIEWS》, vol. 37, no. 3, 31 May 2007 (2007-05-31), pages 311 - 324, XP011176904, DOI: doi:10.1109/TSMCC.2007.893280 *
李清水等: "手势识别技术及其在人机交互中的应用", 《人类工效学》, vol. 8, no. 1, 31 March 2002 (2002-03-31) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943383B2 (en) 2017-01-26 2021-03-09 Sony Corporation Information processing apparatus and information processing method
US11288854B2 (en) 2017-01-26 2022-03-29 Sony Corporation Information processing apparatus and information processing method
CN111988483A (zh) * 2019-05-22 2020-11-24 柯尼卡美能达株式会社 图像处理装置及程序

Also Published As

Publication number Publication date
US20110099476A1 (en) 2011-04-28
EP2491535A2 (en) 2012-08-29
JP5666608B2 (ja) 2015-02-12
WO2011050219A3 (en) 2011-07-28
KR20120099017A (ko) 2012-09-06
CN102741885B (zh) 2015-12-16
EP2491535A4 (en) 2016-01-13
WO2011050219A2 (en) 2011-04-28
JP2013508866A (ja) 2013-03-07

Similar Documents

Publication Publication Date Title
CN102741885B (zh) 装饰显示环境
CN102135798B (zh) 仿生学运动
CN102448562B (zh) 用于跟踪模型的系统和方法
CN102414641B (zh) 改变显示环境内的视图视角
CN102665838B (zh) 用于确定和跟踪目标的肢端的方法和系统
CN102681657B (zh) 交互式内容创建
CN102413885B (zh) 用于对运动捕捉应用模型跟踪的系统和方法
EP2422319B1 (en) Entertainment device, system, and method
CN102622774B (zh) 起居室电影创建
CN102129293B (zh) 在运动捕捉系统中跟踪用户组
CN102448565B (zh) 将骨架数据实时重新定标到游戏化身的系统和方法
CN102596340B (zh) 用于将动画或运动应用到角色的系统和方法
CN102156658B (zh) 对象的低等待时间呈现
CN102576466A (zh) 用于跟踪模型的系统和方法
CN102576463A (zh) 用于移除图像的背景的系统和方法
CN102253711A (zh) 使用深度传感相机来增强演示
WO2010020739A1 (en) Entertainment device and method of interaction
CN102222329A (zh) 深度检测的光栅扫描
CN102193624A (zh) 用于基于姿势的用户界面的物理交互区
CN102356373A (zh) 虚拟对象操纵
CN102194105A (zh) 用于人体跟踪的代表训练数据
CN102448566A (zh) 骨架以外的姿势
US20220096947A1 (en) A toy system for augmented reality

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150720

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150720

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151216

Termination date: 20191021

CF01 Termination of patent right due to non-payment of annual fee