WO1994022544A1 - Video game machine - Google Patents

Video game machine Download PDF

Info

Publication number
WO1994022544A1
WO1994022544A1 PCT/JP1994/000483 JP9400483W WO9422544A1 WO 1994022544 A1 WO1994022544 A1 WO 1994022544A1 JP 9400483 W JP9400483 W JP 9400483W WO 9422544 A1 WO9422544 A1 WO 9422544A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
game
propulsion
unit
steering
Prior art date
Application number
PCT/JP1994/000483
Other languages
English (en)
French (fr)
Inventor
Gorou Iwasaki
Nobuyuki Aoshima
Kazushige Watanabe
Hiroshi Igarashi
Original Assignee
Namco Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd. filed Critical Namco Ltd.
Priority to GB9423840A priority Critical patent/GB2283302B/en
Priority to US08/343,503 priority patent/US5704837A/en
Publication of WO1994022544A1 publication Critical patent/WO1994022544A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/30Miscellaneous game characteristics with a three-dimensional image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1006Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals having additional degrees of freedom
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1062Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to a type of game, e.g. steering wheel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC

Definitions

  • the present invention relates to a video game device, and more particularly to a video game device formed such that a moving object displayed on a display moves in a predetermined game space in accordance with the steering of a player.
  • a steering device according to the type of the game moving object is used.
  • the moving object is a vehicle such as an automobile
  • a handle is used.
  • a steering lever or the like is used.
  • the moving object controlled by the player could not perform complicated movements such as parallel movement and turning on the spot, so that the game itself became easily monotonous, and speed was increased. It lacked a feeling and was easy for the players to get bored.
  • the moving body is configured to move in a horizontal direction by a lever operation. I could't control to turn or turn on the spot.
  • the moving object appearing in the game space performs complicated maneuvers so that it not only moves forward and backward, but also turns, translates and rotates on the spot. And the lack of fun as a game.
  • the present invention has been made in view of such conventional problems, and has as its object to make it possible for a moving object for games to perform complicated movements with a simple operation. It is an object of the present invention to provide a video game machine that can enjoy a wide range of games.
  • Another object of the present invention is to make a moving object perform a complicated movement with a simple operation, aim at an enemy or a target, and attack the enemy or target. It is an object of the present invention to provide a video game device that enables a user to enjoy a shooting game while avoiding the situation.
  • the present invention provides
  • a steering means formed by a player for steering a game vehicle having a first propulsion unit and a second propulsion unit for propulsion in a range of 360 degrees
  • Game calculation means for performing a game calculation so that the game moving body moves in a predetermined game space based on a steering word output from the steering device, and displaying the game moving body on a display;
  • a first steering unit for inputting a first propulsion vector of the first propulsion unit within a range of 360 degrees according to an operation direction of the right hand of the player;
  • a second steering unit that inputs a second propulsion vector of the second propulsion unit within a range of 360 degrees according to an operation direction of the left hand of the player
  • a steering information calculation unit that calculates the propulsion direction information and the rotation direction information of the moving body based on the first propulsion vector and the second propulsion vector, and outputs the information as a steering signal;
  • the moving body is steered by a combined operation of the right hand and the left hand of the player, and the moving body is moved and rotated in an arbitrary direction in the game space.
  • the present invention provides:
  • Steering means formed to allow a player to steer a game vehicle having a first propulsion unit and a second propulsion unit that propells in a range of 360 degrees
  • Attack controls configured to be operated by a player to attack an enemy or target
  • the game moving body is moved in a predetermined game space based on a steering signal output from the steering device, and is output from the attack operation means.
  • Game calculation means for performing a game calculation to attack an enemy or a target based on the operation signal to be displayed, and displaying the result on a display;
  • the steering means The steering means,
  • a first steering unit for inputting a first propulsion vector of the first propulsion unit within a range of 360 degrees according to an operation direction of the right hand of the player;
  • a second steering unit that inputs a second propulsion vector of the second propulsion unit within a range of 360 degrees according to an operation direction of the left hand of the player
  • a steering information calculation unit that calculates the propulsion direction information and the rotation direction information of the moving body based on the first propulsion vector and the second propulsion vector, and outputs the information as a steering signal;
  • the player steers the mobile object, and moves and rotates the mobile object in an arbitrary direction in the game space while aiming at the enemy or target. It is characterized by having been done. Where the aim is
  • the steering information calculation unit includes:
  • a direction calculation unit that calculates the direction of travel of the moving object based on the first propulsion vector and the second propulsion vector
  • a direction calculation unit that calculates rotation information of the moving body based on the first propulsion vector and the second propulsion vector
  • a propulsion direction and a propulsion force can be calculated as the propulsion direction information, and a rotation direction and a rotation force can be calculated as the rotation information.
  • first and second steering units include:
  • the input of the X and Y axes is set to 0, the left and right directions are set to the X axis input direction, the front and rear directions are set to the Y $ input direction, and both steering levers are set.
  • the X and ⁇ coordinate input components are detected from the operation direction and the tilt angle of the first and second steering levers, and the first and second propulsion sections of the first and second propulsion sections are detected.
  • Le 8 and the second propulsion base-vector V a
  • the first and second propulsion units include:
  • each propulsion unit is set as a reference point ⁇ , the right and left directions of this reference point are set as the X axis input direction, and the X axis input direction corresponding to the positive direction of the steering lever is set as the X coordinate positive direction,
  • the forward / backward direction of the reference point is defined as a Y-direction input direction, and the Y $ -based input direction corresponding to the positive direction of the steering lever is set as a Y-coordinate positive direction.
  • the propulsion direction velocities v xQ and V YQ components of the moving body in the X and ⁇ directions are calculated based on the following formulas, and are output as propulsion direction information.
  • V X0 V XA + V XB
  • V Y0 V YA + V YB
  • It can be configured to calculate the rotation angular velocity ⁇ ⁇ () of the moving object and output this as rotation information.
  • the game calculation means includes:
  • Game space calculation means for performing a game calculation in which a player moving body steered by a player moves in a virtual three-dimensional game space based on a preset game program and the steering signal output from the steering information calculation unit;
  • Image synthesis means for calculating a view image of the virtual three-dimensional game space viewed from the direction of the moving object, synthesizing the pseudo three-dimensional image, and displaying the pseudo three-dimensional image on the display;
  • the player operates the first steering unit with the right hand, operates the second operation unit with the left hand, and operates the first and second propulsion units and the second propulsion unit of the game vehicle.
  • the first and second steering units input the first and second propulsion vectors within a range of 360 ° depending on the operation direction of the player.
  • the steering information calculation unit moves the game moving body including the first and second propulsion units while rotating in which direction based on the first and second propulsion vectors. Is calculated as propulsion direction information and rotation direction information and output as a steering signal.
  • the game calculation means performs a game calculation based on the steering signal so that the game moving body moves in a predetermined game space, and displays the result on a display.
  • the moving body can be made to move in a complicated manner while moving and rotating the moving body in an arbitrary direction by a combination operation of the right hand and the left hand of the player.
  • the moving body moves in the operation direction while maintaining the current posture.
  • the moving body moves forward, and when the first and second steering units are operated in the horizontal direction, the moving body moves in the horizontal direction in parallel. In this way, the moving object can be translated in any direction, that is, forward, backward, diagonally, or horizontally.
  • the directions of the first and second propulsion vectors become different, so that the rotational force applied to the moving body in a predetermined direction is changed.
  • the moving body can be made to perform a turning motion or a rotating motion on the spot. For example, if one steering unit is operated in front and the other steering unit is operated afterwards, the moving object will operate to turn in place, and if only one steering unit is operated in the forward direction, the moving object will be propelled.
  • the vehicle turns with a radius corresponding to the vector.
  • the moving body can be made to perform complicated movements by the combined operation of the right hand and the left hand of the player, and in particular, the propulsion vectors of the first and second propulsion units of the moving body. Is input in accordance with the operating directions of the first and second steering units, so that the moving body can be moved by an operation close to the sensation of human movement. You can get used to it. This makes it easy for beginners and advanced users to control moving objects and enjoy fast and varied video games.
  • a beginner can easily become familiar with the operation of a mobile object because the player can steer the mobile object with a natural operation sensation similar to a human operation using the right and left hands of the player. Therefore, in the first game, it is possible to always get accustomed to the operation that is problematic in a minimum time, and even beginners can enjoy the game itself immediately, especially suitable for professional video games. It becomes something.
  • the moving body can make complicated movements by simple operation of the first and second steering units, it is necessary to protect yourself against attacks on enemies and targets appearing in the game space, and defense against attacks from enemies.
  • the robot can perform complex movements such as forward, backward, turning, or parallel movement. Therefore, when playing a playing game, especially a player-playing-type playing game, various strategies can be assembled, and the game becomes rich and interesting.
  • the game device of the present invention In the game device of the present invention,
  • the game space calculation means calculates
  • An object information storage unit in which at least three-dimensional position and three-dimensional direction information of the three-dimensional object of the moving object is recorded as object information; and a topography in which the moving object moves in the virtual three-dimensional space.
  • a terrain information storage unit for storing terrain information
  • An object information changing unit that reads object information of the moving object from the object information storage unit and changes the object information of the moving object using the terrain information read from the terrain information storage unit; , '
  • a three-dimensional image information storage unit for storing three-dimensional image information of a three-dimensional object constituting a game space and a three-dimensional object appearing in the game space; and object information from the object information storage unit; Image calculation for calculating a visual field image of a game space viewed from the direction of the moving object arranged in the virtual three-dimensional space from the three-dimensional image information from the three-dimensional image information storage unit and synthesizing and outputting a pseudo three-dimensional image Department and
  • the object information of the moving object is changed by the object information changing unit using the terrain information.
  • the object information changing unit uses the terrain information.
  • a pseudo three-dimensional image on which terrain information is reflected can be formed.
  • the game space calculation means calculates
  • a bullet processing unit that performs arithmetic processing of a bullet or a missile fired from the moving object
  • It can be formed to include a bullet movement calculation unit that calculates the movement position of a bullet or missile based on the object information of the moving object changed by the object information change unit and the launch signal input from the operation unit.
  • the target object information is formed to be stored
  • the bullet processing unit The bullet processing unit,
  • a hit judging unit for judging a hit of a bullet or a missile based on the moving position of the bullet or the missile calculated by the bullet movement calculating unit and the target object information stored in the object information storage unit. It is preferred to form.
  • a coordinate extracting unit for extracting information on a position and a direction of the player in the virtual three-dimensional game space based on a detection signal from the player space sensor; calculating a view image of the player in the virtual three-dimensional game space; Can be formed to display a pseudo three-dimensional image.
  • An imaging unit attached to the player for imaging a real space image seen by the player
  • a display image synthesizing unit for synthesizing a visual field image of the player in the virtual three-dimensional space and a real space video imaged by the imaging means
  • the display is formed so as to display a pseudo three-dimensional image in which a view image in a virtual three-dimensional space and a real space image are combined.
  • the vehicle is a vehicle.
  • FIG. 1 is a block diagram of a first preferred embodiment of a video game device according to the present invention. W.
  • FIG. 2 is an external perspective explanatory view of the game device of the present embodiment.
  • FIG. 4 is a schematic explanatory diagram showing an example of a pseudo three-dimensional image synthesized by the game device of the present embodiment.
  • FIG. 5 is an external view of the device when playing the game of the present embodiment in a two-player game.
  • FIG. 6 is a schematic explanatory diagram of a moving object appearing in the video game of the present embodiment c
  • FIG. 7 is an explanatory diagram of a steering lever used in the game device of the present embodiment.
  • FIG. 8 is an explanatory diagram of a specific example in a case where the moving body is steered using the steering lever shown in FIG.
  • FIG. 9 is an explanatory diagram showing a specific example in a case where the moving body is steered using the steering lever shown in FIG.
  • FIG. 10 is an explanatory diagram in the case of playing a competitive game using the game device of the embodiment.
  • FIG. 11 is an explanatory diagram showing the operation of one of the tanks when the battle shown in FIG. 10 is performed.
  • FIG. 12 is a block diagram showing a specific configuration of the game space calculation unit shown in FIG.
  • FIG. 13 is a block diagram showing a specific configuration of the image combining unit shown in FIG.
  • FIG. 14 is a schematic explanatory diagram for explaining object information stored in the object information storage unit.
  • FIG. 15 is a diagram showing an example of a data format handled by the three-dimensional video game device of the present embodiment.
  • FIG. 16 is a schematic explanatory diagram of a technique of perspective projection conversion.
  • FIG. 17 is an explanatory diagram in the case of a multi-player type game configuration.
  • FIG. 18 is a schematic diagram showing the shape of the head mounted body.
  • FIG. 19 is a block diagram of another embodiment according to the present invention.
  • FIG. 20 is a block diagram of another embodiment according to the present invention.
  • FIG. 22 is a block diagram showing the configuration of the display image synthesizing device.
  • FIG. 23 is a block diagram when the present invention is applied to a home video game device.
  • FIG. 24 is an explanatory diagram of another embodiment of the first and second steering units.
  • FIG. 25 is a schematic diagram showing a game screen represented by a conventional game device.
  • FIG. 26 is a schematic diagram showing a game screen represented by a conventional game device.
  • FIG. 28 is a schematic explanatory diagram of the hierarchical structure of the terrain information.
  • Figure 29 is a schematic illustration of the arrangement of terrain blocks in the game field.
  • FIG. 30 is a schematic explanatory diagram of the hierarchical structure of the terrain information.
  • FIG. 32 is a schematic diagram of a pseudo three-dimensional image on which terrain information is reflected.
  • FIG. 2 shows a preferred example of a video game device according to the present invention
  • the game device 10 of the embodiment includes a display 44 located in front of the player 50, and an operation unit 11 operated by the player 50 while watching the display 44.
  • the video game device 10 can be configured to play various games as needed.
  • a case where the game device 10 is formed as a device for playing a three-dimensional game will be described as an example.
  • the three-dimensional game device 10 of the present embodiment forms a virtual three-dimensional game space by a preset game program, and a moving object operated by a player moves freely in the virtual three-dimensional game space.
  • the player 50 operates the right-hand steering lever 12 and the left-hand steering lever 14 provided on the operation unit 11 to move the moving object projected on the display 44. That is, the future tank 500 is operated. That is, the player 50 can freely move around in the play field 60 set in the virtual three-dimensional game space by operating the future tank 500.
  • FIG. 4 (A) shows a pseudo three-dimensional game image 56A displayed on the display 44 when the own future tank 50 ° A approaches the enemy future tank 50 ° B in this way.
  • the shield display section 512 the shield amounts of the own tank and the enemy future tanks 500A and 500B are displayed.
  • the shield amount (defense power) of its own ship is much larger than the shield amount of the enemy future tank 500B. Therefore, the player 5 ⁇ has a chance to attack, and conversely, the enemy Future Tank 50 OBs must avoid this crisis and seek out items that will regain shielding.
  • your own future tank 500 A and the enemy future tank 500 B move around in the play field 60, with plateaus 66, 76, 78, and obstacles 80, 82. Because of the slopes 68, 70, 72, and 74 surrounding the, and each plateau, there are height differences and obstacles between the tanks. Therefore, the player 50 needs to control the future tank 5 ⁇ A of his own aircraft while utilizing such geographical conditions, and proceed with the game so that he can successfully attack the enemy. Conversely, if the enemy future tank 500B can make good use of this geographical condition and proceed with the game so as to avoid this crisis situation, the fun of the game can be further enhanced.
  • FIG. 5 shows an external view of the three-dimensional game device of the present embodiment in a case where two players compete.
  • the player 5 OA controls the tank 5 ⁇ 0 while watching the display 44 A
  • the player 50 B controls the tank 5 ⁇ B while watching the display 44 B.
  • a pseudo three-dimensional game image 56A viewed from the rear viewpoint of the future tank 500A is displayed on the display 44A.
  • a pseudo three-dimensional game image 56B viewed from the rear viewpoint of the future tank 500B is displayed on the display 44B.
  • FIG. 5 shows only a two-player game, the present invention is not limited to this, and is naturally applied to a case where a multi-player game is performed by three or more players. it can.
  • the game calculation unit 40 designs a future tank 500, which is a moving body controlled by the player, as shown in FIG.
  • the future tank 500 includes a right-handed propulsion unit 502 and a left-handed propulsion unit 504 arranged symmetrically in the left-right direction.
  • the barrel 506 is fixed correspondingly.
  • the right propulsion section 502 and the left propulsion section 504 generate a propulsion force in the direction indicated by the right-hand steering lever 12 and the left-hand steering lever 14 according to the tilt angle of the lever. It is designed to be.
  • steering levers 12 and 14 are gripped by the right and left hands of the player 50 and tilted in front, back, left, right, and diagonal directions, and the corresponding propulsion is performed.
  • the direction of the propulsion of the sections 502 and 504 can be designated.
  • each of the steering levers 12 and 14 can be arbitrarily set to the inclination angle in the steering direction.
  • the corresponding propulsion units 502 and 504 force (speed de) c that is summer to allow an analog continuous setting the inclination angle is greater speed de if large, and summer to indicate a small spin one de if small.
  • each of the steering levers 12 and 14 is provided with a steering direction detector 16 and 18, respectively, and these detectors 16 and 18 calculate the X and Y coordinate components of the steering direction. It is configured to detect and output to the mobile body steering information calculation unit 30. That is, 0 is set when each of the steering levers 12 and 14 is at the reference position, the left-right direction is set to the X-axis, and the front-rear direction is set to Y-axis.
  • Each of the steering direction detectors 16 and 18 uses the X-direction component detection volumes 16a and 18a and the Y-direction component detection volumes 16b and 18b, and determines the X direction based on the operation direction and tilt angle of each lever. , Y coordinate component is detected. Then, the detected X, Y coordinate components are output to the steering information calculation unit 30 as the first propulsion vector information and the second propulsion vector information of the corresponding propulsion units 502.504.
  • the steering information calculation unit 30 calculates the propulsion direction information and the rotation direction information of the moving object (the own future tank 500) based on the first and second propulsion vector information thus input. This is output to the game calculation section 40 as a steering signal.
  • the steering information calculation unit 3 ⁇ of the embodiment includes a direction calculation unit 32 and a rotation calculation unit 34.
  • the direction calculation unit 32 calculates the propulsion direction and the propulsion force of the future tank 500 based on the input first and second propulsion vector information, and calculates the propulsion speed components v X in the X and Y directions. () , V It is formed to output as propulsion direction information consisting of YQ .
  • each propulsion section 502, 504 of the future tank 500 is set as the reference point 0
  • the right direction of the reference point 503 is set as the positive direction of the X coordinate
  • the The forward direction is the positive direction of the Y coordinate.
  • the rotation calculation unit 34 calculates the rotation angular velocity ⁇ ⁇ () of the future tank 500 based on the input first and second propulsion vector information. It is formed to output this as rotation information.
  • the rotation calculation unit 34 of the embodiment calculates the future tank based on the following expression (expression of rotation moment).
  • V V ( V YA- V YB) (3)
  • V represents the absolute value of the X coordinate of each propulsion unit 502,504.
  • a steering signal is output to move the future tank 50 ° in its attitude.
  • the future tank 500 moves forward and diagonally as shown in FIG. (D) or (f).
  • a steering signal is output so that the future tank 500 is translated in that direction.
  • the game calculation unit 40 performs a game calculation based on the steering signal input as described above so that the future tank 500 of the own nucleus moves in the play field 60, and displays the display 280 on the display 280. indicate.
  • the future tank 5 0 0 of the own aircraft moves forward and backward, and turns along a predetermined curve. It is possible to translate not only the slewing motion on the spot, but also the front, rear, left and right directions.
  • a right-hand steering lever 12 and a left-hand steering lever 14 corresponding to the right propulsion section 502 and the left propulsion section 504 of the future tank 500 are provided, and each propulsion section 502.5.50 is provided.
  • the use of such two steering levers 12 and 14 allows for unprecedented freedom of movement. Therefore, for example, as shown in FIG. 10, even when the enemy future tank 500 ⁇ is waiting behind an obstacle 82, the player can move his own future tank 500 0 horizontally. You can use the hit-and-away tactics to operate each trigger button 22, 24 while moving the slide to attack the enemy and flee. Furthermore, as shown in 500A-1 and 500A-2, the enemy future tank 500B can be translated in an arc while aiming. At this time, the enemy's future tank 500B can make a countermeasure by turning around on the spot, as shown in Fig. 11, so that it can strike back while aiming to track the escaping enemy. .
  • the future tanks 500 A, 5 0 0 B is not only capable of moving forward and backward, moving in parallel, but also performing various turning movements, so that the movement is rich in change and speedy ( thus, as a competitive game, It is possible to construct an extremely interesting game that is rich in strategy.
  • an analog lever capable of inputting a propulsion vector in all directions of 360 ° is used as each of the steering levers 12 and 14 as needed.
  • the game calculation unit 40 includes a game space calculation unit 100 that sets a game space according to a predetermined game program, and an image synthesis unit 2 that forms a pseudo three-dimensional image at a viewpoint position of a player.
  • the pseudo three-dimensional image is formed so as to be displayed on a CRT 280.
  • FIG. 12 shows an example of the configuration of the game space calculation unit 100.
  • the game space operation unit 100 is the central processing unit 102, the object information storage unit
  • the central processing unit 102 has a built-in memory in which a predetermined game program is stored, and is formed to control the entire three-dimensional game device.
  • the object information storage unit 104 stores object information which is position and direction information of a three-dimensional object forming a virtual three-dimensional space.
  • the terrain information storage unit 106 stores terrain information of the play field 60 formed by the above-described three-dimensional terrain, for example, as height data. Further, the object information changing unit 108 changes the object information stored in the object information storage unit 104 based on the terrain information stored in the terrain information storage unit 106 at any time. I do.
  • the trigger determination section 142 determines whether or not the player has triggered the bullet, thereby forming a bullet firing signal.
  • the bullet processing unit 120 includes a bullet movement calculation unit 122 and a hit determination unit 126.
  • the bullet movement calculation unit 122 receives the object information of the mobile object (own tank 500 A) changed by the object information change unit 108 and the trigger judgment unit 142 The bullet movement position is calculated from the firing signal of the bullet.
  • the object for example, the object of the future enemy tank 500B is read from the object information storage unit 104, and the object information and the bullet movement calculation unit 122 are read out. Based on the moving position of the bullet calculated in the above, the hit determination of the bullet is performed. When a bullet is hit, the hit determination information is reflected on the object information of various three-dimensional objects stored in the object information storage unit 104.
  • FIG. 13 shows an example of the configuration of the image synthesizing unit 200.
  • the image synthesizing unit 200 generates a pseudo 3D game image viewed from an arbitrary viewpoint position of the player 50 in the virtual 3D game space, that is, a pseudo 3D game image projected on the display 44 in FIG. Images are combined. For this reason, the image synthesizing unit 200 includes a three-dimensional image information storage unit 204 and an image calculation unit 202.
  • the three-dimensional image information storage unit 2 ⁇ 4 stores a three-dimensional image of a three-dimensional object.
  • the three-dimensional object is a moving object such as a future tank 500 A and an enemy future tank 500 B shown in FIG. 4, a wall 62 shown in FIG. 3, a lowland 66, a second and a third shown in FIG. All objects that form a virtual 3D game space, such as terrain such as plateaus 76, 78, and obstacles 80, 82.
  • This three-dimensional object is represented as a set of polygons 90 to 95, as shown in Fig. 4.
  • Information such as the coordinates of each vertex is stored in the three-dimensional image information storage unit 204 as three-dimensional image information.
  • the image calculation unit 202 includes an image supply unit 212 and an image forming unit 240.
  • the image supply unit 212 includes a processing unit 214 that performs overall control of the image synthesis unit 200.
  • a coordinate conversion unit 216 that performs three-dimensional arithmetic processing on image information such as vertex coordinates of polygons, a clipping processing unit 218, and a perspective conversion unit 220.
  • And a sorting processing unit 222 a processing unit 214 that performs overall control of the image synthesis unit 200.
  • the image forming unit 240 calculates the image information of all the dots in the polygon from the image information such as the vertex coordinates of the polygon subjected to the three-dimensional operation processing in the image supplying unit 212, and outputs the image as a pseudo three-dimensional image. Is done.
  • the central processing unit 102 stores object information that is the position and direction information of all the three-dimensional objects arranged in the virtual three-dimensional space according to the game program, and stores the object information in the object information. It is stored in the unit 104. However, fixed information in the object information may be stored in advance by forming a part of the object information storage unit 104 as a non-volatile memory.
  • the object information stored in the object information storage unit 104 is stored in, for example, the format shown in FIG.
  • the indexes (0 to n) are serial numbers representing the three-dimensional objects.
  • index 0 is the future tank 500A
  • index 1 is the enemy future tank 5 ⁇ B
  • index 2 is the wall 62
  • index 3 is the serial number representing the three-dimensional object forming the obstacle 80. It is.
  • the position information and the direction information (information including the inclination) of the future tank 50 OA in the virtual three-dimensional space are set to (X0, Y0, Z0) and ( ⁇ 0, 00,).
  • theta beta orientation of future tank 5 ⁇ 0 indicated by the steering lever 12, 14, 0 Q, p 0 is the inclination future tank is in the longitudinal direction when traveling along the slope or the like, the lateral direction of inclination Represent.
  • the position and direction of the future tank 50 OA are determined.
  • the position and direction information of the three-dimensional object such as the enemy future tank 500 and the obstacle 80 are also set, and thereby the positions of all the three-dimensional objects forming the game space in the virtual three-dimensional space are set. 7 in the and direction information is determined.
  • these parts for example, the left driving section, the right driver can move the gun barrel or the like independently, it is possible to draw a future tank 5 ⁇ 0 to more realistic full motion c
  • the terrain information storage unit 1 ⁇ 6 stores terrain information of the play field 60 shown in FIG. 3, for example, as height information.
  • the object information change unit 108 reads the terrain information, and thereby changes the position and direction information of the three-dimensional object stored in the object information storage unit 104. Further, the value of the position and direction information (X0, Y0, Z0, ⁇ 0, 00, ⁇ ) of the future tank 50 ° is changed based on the input steering signal, and the position and the direction of the future tank 500 are changed. Change the inclination. As a result, a game space reflecting the terrain information can be formed.
  • Fig. 15 (a) shows an overall view of this data format.
  • the data to be processed is configured such that the object data of all the three-dimensional objects displayed in the frame are connected, starting with the frame data.
  • the polygon data of the polygons constituting the three-dimensional object is configured to be further connected.
  • the object data refers to data formed by parameters that change for each three-dimensional object, and is composed of data such as position information and direction information in units of three-dimensional objects. This is data having almost the same contents as the object information described above.
  • polygon data refers to data formed by polygon image information and the like, and as shown in FIG. 15 (b), a header, vertex coordinates X0, Y0, Z0 to X3, Y3, It consists of Z 3 etc. and other attached data.
  • the coordinate conversion unit 216 reads out the data of the above format and performs various arithmetic processes on the coordinates of the vertices.
  • the future tank the future tank, the enemy future tank, the building, and the harm
  • the three-dimensional objects representing objects, etc. are placed in a virtual three-dimensional space represented by the world coordinate system (XW, YW, Z).
  • the image information representing these three-dimensional objects is coordinate-transformed into a viewpoint coordinate system (Xv, Yv, ⁇ ) based on the viewpoint of the player 302.
  • the clipping processing means image information outside the field of view of the player 302 (or outside the field of view of a window opened in three-dimensional space), that is, front, rear, right ⁇ bottom, left ⁇ top Image processing that removes image information outside the area surrounded by the wrapping plane 340, 324, 344, 346, 348, 350 (hereinafter referred to as display area 2)
  • display area 2 image information outside the area surrounded by the wrapping plane 340, 324, 344, 346, 348, 350
  • the perspective transformation unit 220 performs perspective projection transformation to the screen coordinate system (XS, YS) only for the objects in the display area 2, and the next-stage sorting processing unit 2 22 Data is output to 2.
  • the sorting unit 222 determines the order of processing in the image forming unit 240 at the next stage, and outputs polygon image data according to the order.
  • the image forming unit 240 calculates the image information of all the dots in the polygon from the data such as the vertex coordinates of the polygon that has been subjected to the three-dimensional calculation processing in the image supply unit 212.
  • a calculation method is as follows: a polygon outline is obtained from the vertex coordinates of the polygon, a contour point bear which is an intersection of the outline and the scanning line is obtained, and a line formed by the outline point pair is determined by a predetermined method. A method of corresponding to color data or the like may be used.
  • image information of all dots in each polygon is stored in advance as texture information in R ⁇ ⁇ , etc., and texture coordinates given to each vertex of the polygon are read as an address and pasted. You may use the technique of attaching.
  • the object information changing unit 108 reads out the terrain information from the terrain information storage unit 106, thereby obtaining the three-dimensional object information stored in the object information storage unit 104. Have made changes.
  • the terrain information storage unit 106 stores terrain information (for example, height information) of the three-dimensional terrain.
  • the terrain information storage area of the terrain information storage unit 1 6 has a hierarchical structure as shown in FIG.
  • the play field area shown in Fig. 27 (a) is the highest level
  • the lower level is the block area in the area shown in Fig. 27 (b)
  • the lower level is the terrain block area shown in Fig. 27 (c).
  • the terrain information storage area has a hierarchical structure in order to prepare a large number of game spaces that reflect more delicate terrain changes by compressing the amount of data.
  • the play field area it is determined which plane is to be selected from a plurality of play fields prepared in the three-dimensional game. Thereby, for example, as shown in FIG. 27 (a), the play field 60 shown in FIG. 3 is selected.
  • the pre- This makes it easy to create a play field with completely different terrain than Field 6 ⁇ .
  • the district block pb17- is divided into 16 terrain blocks consisting of terrain blocks pi1e000, 1115, 118, 119 and 122, allowing further data compression. It works.
  • a terrain block is a block in which the height information of the terrain is finally stored.
  • FIG. 29 schematically shows the play field 60 formed by the terrain blocks.
  • FIG. 29 corresponds to FIG. 3 described above.
  • FIG. 30 shows the distribution of height information in each of these terrain blocks. Note that FIG. 30 shows the distribution of height information of the topographic blocks piel el 5 to 123.
  • the first plateau 64 in FIG. 3 is all represented by a combination of terrain blocks P i 1 e 1 15.
  • the height information is all set to 160 as shown in FIG. In other words, it indicates that the terrain is flat and high.
  • the slope 68 in FIG. 3 is represented by a combination of topographic blocks pi i e 18, 121 and 122 as shown in FIG. Then, as shown in FIG. 30, the height information of the terrain block Pilele8 is set so that the left side is the highest (150) and the lower the right side (000). As a result, the slope 68 can be expressed. Similarly, in the terrain block p i 1 e 121, height information is set so that a valley is formed at a corner.
  • Zero zone 66 For Zeroland 66, no terrain blocks are placed. Zero zone 66 is a flat place with zero height, so it is not necessary to change the object information of future tanks. It is desirable to set the zero zone 66 to a place where the future tank is located the longest during the game. With this setting, the future
  • the object information change unit 108 needs less calculation for changing the object information, and the data processing amount can be reduced.
  • Obstacles 80 and 82 are designed to be destroyable by missiles launched by future tanks. If destroyed, a terrain block is set at the position where these obstacles 80 and 82 were located.
  • the object information changing unit 108 changes the object information as described below.
  • index 0 is referred to from the object information storage unit 104, and object information (X0, ⁇ 0, ⁇ 0, ⁇ 0, ⁇ , ⁇ , ⁇ ) is read out.
  • virtual tanks 360, 362, 364, and 366 are provided in advance at four points A, B, C, and D on the bottom surface of the future tank 500 ⁇ .
  • the object information changing units 1 to 8 obtain the four points of position information A (XaO, YaO, ZaO) and B (from the read object information (X0, Y0, Z0) of the read out future tank 50 OA XbO, YbO, ZbO), C (XcO, YcO, ZcO), D (XdO, YdO, ZdO).
  • the object information changing unit 108 reads out the obtained position information of the points A, B, C, and D from the terrain information storage unit 106 and reads out the position information of the points A, B, C, and D. Reads terrain information at the location, for example, height information.
  • the read address for reading the terrain information storage unit 106 three-dimensional position information is not necessarily required, and two-dimensional position information may be used.
  • two-dimensional position information (XaO, YaO) is sufficient as a read address for obtaining the terrain information at point A.
  • the height information will be set differently depending on whether the future tank 500A is located above this bridge or below it. . Therefore, in such a case, information for distinguishing whether the future tank 500A is located above the bridge or below the bridge, that is, the Z coordinate is necessary.
  • the position information of the points A, B, C, and D is changed as follows, for example, by the read height information dZaO, dZb0, dZcO, and dZdO.
  • the object information of the future tank 5 ⁇ 0 ⁇ ⁇ in the object information storage unit 104 has been changed.
  • FIG. 32 shows an example of a pseudo three-dimensional image when the object information is changed based on the terrain information as described above.
  • its own future tank 50 OA is located on the slope 75. Therefore, the present 3D game device reflects this terrain information and synthesizes a pseudo 3D image that makes the screen appear to be tilted as a whole. This is clear from the image of the wall 62.
  • the enemy future tank 500B is located on the second plateau 76, it is seen upward from its own, and it is understood that the terrain information is reflected in the three-dimensional game.
  • the terrain information is reflected in the three-dimensional game, for example, A case has been described in which a pseudo three-dimensional image that appears to be inclined is synthesized.
  • the present invention is not limited to this, according to the configuration of the present invention, which can be reflected terrain information in three-dimensional game in different patterns as shown below
  • terrain information terrain information that can move smoothly, and conversely, terrain information such as a gravel road are prepared.
  • the height information of the terrain block is set more finely, and the terrain W report of the rattling road is expressed by the terrain block whose height information has been changed finely.
  • the terrain information of a smooth road is represented by a terrain block in which all height information is the same.
  • the terrain information reflected in the three-dimensional game is not limited to the height information as described above.
  • terrain information such as swamps, wetlands, deserts is prepared as terrain information, and when a future tank 5 ⁇ OA enters this swamp, wetland, desert, the speed changes according to each terrain Is also good. This setting is specifically performed as follows.
  • the future tank 500A is controlled by operation signals from the analog levers 12 and 14 connected to the operation unit 140.
  • the player 302 tilts the analog levers 12 and 14 forward, and the future tank 500A advances forward.
  • the object information stored in the object information storage unit 104 is changed as follows during one frame, that is, after (1/60) second (hereinafter, referred to as T seconds). Is done.
  • the object information changing unit 108 adds a negative ⁇ to the changed object information according to the terrain information as follows.
  • the negative value to be added-dX0,-dYO is stored in the terrain information storage unit 1 ⁇ 6, and the future tank 50 OA
  • the position information is read as an address.
  • the added negative values-dX0 and-dYO are set differently depending on whether the terrain at that position is a smooth road, a swamp, a swamp, a desert, or a desert.
  • an ice road may be set, and when the user enters the road, a positive value may be added to accelerate the road.
  • the interest of the game can be further enhanced.
  • a terrain block in which the speed information is set differently in the play field 60 is prepared.
  • the speed information is set to be different at each position of the four terrain information detection sensors 362 to 366 provided on the moving body. It is possible to make them equal. This allows the player to enjoy a pseudo three-dimensional image that can be seen from a moving object that has spun.
  • a game such as a driving game on ice, in which the player competes while spinning the moving object and driving the car while viewing the pseudo three-dimensional image from the viewpoint of the spinning moving object. become.
  • the present invention is not limited to this, and the virtual terrain information detection sensor is not limited thereto.
  • the information detection sensor may be provided at least at two positions of the moving body. For example, if only the inclination in one direction, that is, the inclination in the direction of ⁇ or p, is to be reflected by the terrain information, it is sufficient to provide terrain information detection sensors at at least two places. If the inclination in two directions, that is, the inclinations in both directions ⁇ and p, is to be reflected by the terrain information, it is sufficient to provide the terrain information detection sensors at at least three places. However, if the moving object is large, it is desirable to increase the number of terrain information detection sensors to be attached according to the size.
  • the interest of the game can be enhanced as follows. For example, when your own future tank 500OA targets the enemy future tank 500B, more complicated aiming work is required because the unevenness of the terrain must be considered. Conversely, when the enemy future tank 500B receives an attack, it can use the terrain unevenness, such as avoiding it with a difference in elevation or making the unevenness an obstacle. Also, if the moving body is tilted due to the uneven terrain, the vertical movement of the moving object and the shadow of the uneven terrain itself can complicate the "blind spot”. In this way, the irregularities of the terrain make “attack”, “evasion”, “blind spots”, etc. more complicated, and create a new level of fun as a fighting game. This is shown in Figure 33.
  • an image such as that shown in FIG. 4A is displayed on the display 44.
  • the player 50 controls the future tank 500 of his own using the steering levers 2 2 and 24 4, and performs a game to destroy the enemy future tank 500 B while avoiding the attack. .
  • the steering information calculation section 30 calculates the rotation direction information from the traveling direction information of the future tank 5 OA of the own tank by the combination operation of the respective steering levers 22 and 24 by the player 50, and performs the steering. signal (v XQ, ⁇ ⁇ . ⁇ ⁇ 0) and outputs towards the game space arithmetic unit 1 0 0.
  • the object information change unit 108 reads the terrain information from the terrain information storage unit 106, and thereby stores the object information storage unit 104.
  • the 3D object information stored in is changed.
  • the object information changing unit 1 8 changes the object information as described below based on the steering code input from the steering information calculation unit 30 as described above.
  • the object information (X0, Y0, ⁇ 0, ⁇ 0, 00, ⁇ ) is read from the object information storage unit 1 14 by referring to the index of the future tank 500A, for example, the index 0.
  • the read object information of the future tank 50 OA is rewritten based on the input steering signal, and is written in the object information storage unit 104.
  • the object information stored in the object information storage unit 104 for example, the object information of the future tank 50 OA is rewritten for each frame of the display, so that the display 44 is displayed on the display 44.
  • the game screen is displayed so that the future tank 50 OA moves within the play field 60 according to the control of the player 50.
  • the aiming 510 displayed on the display 44 moving the future tank 5 ⁇ A so as to aim at the enemy future tank 500B and operating the trigger buttons 22, 24, the trigger operation signal is generated. This is input to the trigger determination unit 142 shown in FIG.
  • the aim is set in front of the game moving object.
  • the trigger determination unit 142 determines whether or not the machine gun or the missile has been triggered, and when it is determined that the trigger has been performed, a firing signal of the machine gun or the missile is formed. 1 Output to 20 bullet movement calculation units 122. ', Based on the input of the firing signal, the bullet movement calculating unit 122 outputs the object information (X0, Y0, Z0, ⁇ 0, 00, ⁇ ) of the moving object at the moment when the firing signal is input from the object information storage unit 104. Go to read).
  • the bullet movement calculation unit 1 22, the firing position (XQ, YG, ZG), the firing direction (e Q, 0 Q, P Q) , the time der firing time is input the firing signal Calculate the trajectory of the bullet.
  • the calculation of the trajectory of the trajectory is performed according to a predetermined calculation formula preset in the trajectory movement calculation unit 122. For example, assuming a future tank game in space, if gravity is not considered, the orbit will be a straight orbit with the direction ( ⁇ , ⁇ , ⁇ 0). On the other hand, it is a future tank game on the earth etc., and if gravity is considered, it will be a parabolic orbit.
  • the axis of the attack is set so as to be almost coincident with the front direction of the moving object, so the object information of the moving object is used as the initial value of the firing position and firing direction of the bullet. Can be used almost as is.
  • the moving body and the attack direction that is, the direction of the gun barrel, can be operated individually.
  • the bullet movement calculating unit 122 determines the initial value of the shooting position and the shooting direction of the bullet based on the object information of the moving object and the operation signal of the gun barrel.
  • the hit determination unit 126 determines whether or not there is any terrain information of the enemy future tank 500A, the obstacle 80, or the second and third plateaus 76 at the movement position of the bullet calculated by the bullet movement calculation unit 122.
  • the object information is checked with reference to each object information in the object information storage unit 104, and a hit determination signal according to the situation is output.
  • a three-dimensional object indicating that a hit has occurred at the position of the enemy future tank 500B based on this collision determination signal for example, a fire column 3
  • object information ( ⁇ , ⁇ , ⁇ , ⁇ , 0, p) is the object of the fire pillar whose position is the same as the position of the enemy future tank 500. New information.
  • it calculates the damage given to the enemy future tank 500 by the hit bullet. If it is determined by calculation of this damage that the future enemy tank 5 ⁇ 0 has broken, the object information of the future enemy tank 5 00 ⁇ stored in the object information storage unit 104 is deleted.
  • the object information of the obstacle 8 ° in the object information storage unit 104 is deleted. This makes it possible to destroy obstacles 8 ⁇ with ammunition.
  • terrain information that should be at that position is formed in the terrain information storage unit 106.
  • the bullet becomes invalid and the object information of the bullet in the object information storage unit 1 44 is deleted.
  • the player's own future tank 500 0 is moved straight or parallel in an arbitrary direction, or is turned as necessary, so that the inside of the play field 60 And destroy the enemy future tank 500B.
  • FIG. 17 shows an example of a block diagram in the case where the game device of the present invention is configured as a person-to-person multiplayer game.
  • the operation unit 11 having the same configuration, the steering information calculation unit 30, the game space calculation unit 1 0, the object information storage unit 104, the image synthesis unit 200, Prepare two or more CRT 4 4 units.
  • the game device of the third embodiment can be changed to the multi-player type shown in FIG. Game configuration.
  • the data to be shared at least the object data of the mobile object may be shared.
  • the object information for these bullets will be shared.
  • the common method may be performed by communication or the like, or the common information may be connected to a substrate on which the object information storage units 104 and 104 are installed.
  • the configuration in which the game device of the present embodiment is a multi-player game is not limited to the configuration shown in FIG.
  • a setting is made so that a plurality of data groups composed of the frame data shown in FIG. 15 (a) and the object data and polygon data connected to the frame data shown in FIG.
  • different viewpoint positions and viewpoint directions can be set according to the respective frame data of a plurality of data groups.
  • a plurality of pseudo-images with different viewpoint positions and viewpoint directions are provided by one game space operation unit 100 and image synthesis unit 200 within the allowable range in terms of hardware speed.
  • a three-dimensional game image can be formed. And this difference
  • the three-dimensional game device may have a configuration in which, for example, a player wears a head-mounted body and plays a game.
  • This head mounted body is configured by mounting a display device such as a liquid crystal display in front of the player so as to cover the field of view of the player.
  • a device called a space sensor is attached to the head-mounted body, thereby detecting three-dimensional information of the player. Then, by generating an image corresponding to the detection signal from the space sensor and displaying it on a display device, for example, an operation such as looking around casually is performed in a virtual space in the same way as in a real space. It is possible to experience with a real presence.
  • FIGS. 18 (a) and 18 (b) show examples of the shape of the head mounted body 609.
  • FIG. 18 (a) and 18 (b) show examples of the shape of the head mounted body 609.
  • FIG. 18 (a) shows a mounting body 609 provided with a space sensor 612 for a player, an image display device 6200, and a speaker 6222 provided in a helmet 614.
  • a space sensor 612 for a player for a player
  • an image display device 6200 for a player
  • a speaker 6222 provided in a helmet 614.
  • the wearing body 609 shown in FIG. 18 (b) has a player spatial sensor 612, an image display device 620, and a speaker 622 integrated with the wearing band 616. Since it is configured to be mounted on a vehicle, it is possible to realize a more comfortable wearing feeling.
  • the mounting body used in the present embodiment is not limited to the shapes shown in FIGS. 18 (a) and 18 (b), and various shapes can be used.
  • the shape of the small display may be formed so as to cover the player's field of view along the shape of the player's face to obtain a panoramic image effect.
  • the shape may be such that it forms in front of both eyes. In the latter case, it is desirable to form a three-dimensional image by giving an image with parallax to a planar two-dimensional image given to both eyes.
  • the space sensor 612 is a sensor for detecting the three-dimensional information of the player, and is attached to the player as shown in FIG. 18, and is connected to the image synthesizing unit as shown in FIG. Connected to the 200 side.
  • the space sensor 612 is formed so that three-dimensional information of the player can be detected by a signal from a space sensor signal generator provided at a predetermined position.
  • the spatial sensor 612 is composed of three orthogonal coils, and the current induced in the coil of the spatial sensor 612 by the magnetic field generated from the signal generator for the spatial sensor is determined. Detect and detect the positional relationship from the current value. Thus, three-dimensional information of the player is detected.
  • the method of detecting the three-dimensional information by the space sensor 612 and the signal generator for the space sensor is not limited to the method using the above-described dynamic magnetic field, but includes, for example, a method using a static magnetic field, an ultrasonic wave, and an infrared ray. You may use what was used.
  • FIG. 19 shows an example of a configuration when such a head-mounted body 609 is applied to the present embodiment.
  • a coordinate extracting unit 682 is newly provided in the processing unit 214 in the image base unit 200, and other components are provided.
  • the configuration is the same as that of the embodiment described above.
  • the coordinate extracting unit 682 extracts the viewpoint position and the viewpoint direction of the player based on the detection signal input from the space sensor 612 described above. Then, using the information of the viewpoint and view direction, to form a virtual field image at the viewpoint position and viewing direction of the player c
  • the virtual view image forming method is the same as the calculation method in FIG. 16 described above. That is, the processing unit 214 reads object information from the game space calculation unit 100 and the corresponding three-dimensional image information from the three-dimensional image information storage unit 204, and reads out the three-dimensional image information from these information. Then, the format data shown in FIG. 15 is formed. In this case, c included viewpoint position location and view direction information of a player extracted by the coordinate extracting section 6 8 2, in the frame data shown in FIG. 1 5 (a) Next, the coordinate calculating unit 2 1 6 Reads the data of this format and performs various coordinate conversion arithmetic processing on the coordinates of each vertex. In this case, the conversion to the viewpoint coordinate system is performed using information on the viewpoint position and viewpoint direction of the player included in the frame data.
  • the player can enjoy a game in the virtual reality world. That is, the display image is not displayed on a display device such as a CRT as in the related art, but is displayed on an image display device 62 mounted so as to cover the field of view of the player. Then, a virtual field-of-view image at the viewpoint position and the viewpoint direction of the player is displayed on the image display device 62 by using the space sensor 612 and the coordinate extraction unit 682. Therefore, the player can The user can see the visual field image in an arbitrary direction by turning his or her head on which the head-mounted body 609 is mounted.
  • FIG. 20 shows a block diagram of an embodiment capable of performing such image composition.
  • FIG. 21 (a) shows an external view of the three-dimensional game device.
  • a future tank 63 ⁇ which looks very similar to the real thing, is installed on the floor 4 inside the dome 1 whose inside is all painted in a bull color.
  • this Floor 4 is also all painted in blue, just like the inside of Dome 1.
  • a player 650 is on board this future tank 630.
  • the future tank 6340 includes, for example, a cockpit 636, a left drive section 632, a right drive section 634, a steering lever 640, 641, an instrument panel 6444, and the like. ing. Then, as described later, the player 650 can see the change of these movements by the video camera 610.
  • the instrument panel 644 includes, for example, a speed meter, a fuel gauge, and a warning gauge (not shown), and is configured to change according to the operating state of the player 65.
  • the speedometer changes according to the operation of the steering levers 64 5 and 641 by the player 650
  • the fuel gauge indicates that it is the end of the game and the fuel is running out. It is configured as follows. Further, when a trouble occurs in the engine of the future tank 630, the warning indicator flashes, and the player 650 is controlled by the video camera 610. You can know this.
  • an attitude control unit 624 is provided. According to the terrain information of the play field 60 and the operation signal of the player 650, the attitude of the future tank 630 is set. Change is controlled. In addition, control is also performed to give the player a sense of acceleration and centrifugal force by using the change in posture. Thus, when the future tank 630 passes through the slope 75 shown in FIG. 21 (b), for example, the attitude control section 62 4 controls the attitude according to the angle of this slope. become. As a result, you can experience a virtual world closer to the real world. Further, when the terrain block through which the future tank 6330 passes is a gravel road, the attitude control unit 6224 can generate fine vibrations accordingly.
  • attitude controls are performed by the game space calculation unit 100, and information for control is generated using the terrain information stored in the terrain information storage unit 106 described above.
  • information for control is generated using the terrain information stored in the terrain information storage unit 106 described above.
  • a head mounted body 608 is mounted on the player 650 so as to cover the field of view of the player 650.
  • the configuration of this head-mounted body 6 ⁇ 8 is as shown in FIGS. 18 (c) and (d), with respect to the head-mounted body 609 shown in FIGS. 18 (a) and (b).
  • the video camera 6 10 is newly added.
  • the video camera 610 is used by the player 65 ⁇ to view the real world.
  • the viewpoint position (The position of the eyes), and the angle thereof is desirably set so as to match the direction of the field of view of the player 65. This is because with such a setting, a real-world image that can be actually viewed from the player 650 can be viewed more comfortably.
  • the imaging means of the video camera 610 uses, for example, a high-resolution CCD.
  • the dome is provided with a space signal generator 6 13 for a space sensor, and the space sensor 6 12 provided on the head of the player 65 0 94/22544 Can provide information.
  • a real space image 700 in a real 3D space taken by a video camera 61 0, and a virtual view image 7 ⁇ 2 in a virtual 3D space Are formed as image bases to form a display image 704. Then, the display image 704 is output to the image display device 62 ° through the connection line 618, and becomes a view image actually seen by the player 650.
  • this image synthesis is performed by blue mat synthesis.
  • the future tank 630 and its accessories, the player himself / herself, such as 65 ⁇ , etc., other than the above, that is, the inside of the dome 1 and the floor 4 are all colored blue.
  • the real space image 70 ° all but the future tank 63 0, steering lever-6 4 O 6 41, player's hand 6 54, etc. have a blue background.
  • the real space image 700 all the pixels of the blue color are set as empty dots, and a display image 7 ⁇ 4 is obtained by superimposing the empty dot on the virtual dot image 720. it can.
  • dome 1 mainly contains player 6
  • the background seen from 50 reflects the road surface condition of the play field 60 on which the future tank 630 is running.
  • FIG. 1 A block diagram of the embodiment of the three-dimensional game device in this case is shown in FIG.
  • This embodiment has a configuration in which a display image synthesizing device 680 to which a video camera 610 is newly connected and a posture control unit 624 are added to the embodiment shown in FIG. ing. Therefore, the space sensor 6 1 2 and the coordinate extraction unit 6 8 2
  • the 65-degree three-dimensional information is extracted, and the virtual field-of-view image 720 seen from the player 65 0 is output from the image forming section 240.
  • the display image synthesizing device 680 performs image synthesis of the virtual view image 720 and the real space image 700 captured by the video camera 61 °.
  • Various methods can be considered for the image synthesis. In the present embodiment, this is performed by a method based on blue matte synthesis, for example.
  • FIG. 22 shows details of the configuration of the display image synthesizing device 68 ° in this case. That is, in FIG. 22, the image signal representing the real space image 700 input from the image camera 610 is first passed through the filter 900 in the display image synthesizing device 680, and the RGB three primary colors are Divided into components.
  • each of these components is AZD-converted into, for example, 8-bit digital data by an A / D conversion circuit 902, thereby obtaining 24-bit RGB digital data for each pixel.
  • the 24-bit RGB digital data of each pixel in this real space image 700 matches the 24-bit RGB digital data of the blue color painted on the back side of the dome 1 and the floor 4
  • the empty dot determination circuit 9 • 4 computes and determines for each pixel whether or not to perform. Then, the result of this determination is written to the empty dot memory 906.
  • the empty dot memory 906 is configured as a 1-bit memory corresponding to all pixels of the display image, and the empty dot judgment data for each pixel is written as 1-bit data. I will be absorbed.
  • the display image synthesizing device 680 has a built-in field buffer 910 corresponding to each pixel of the display image. Then, the data control unit 908 refers to the empty dot determination data written in the empty dot memory 9 • 6, and the real space video is written to each pixel position of the field buffer 910. That is, if the pixel is determined to be an empty dot by the empty dot determination data, the real space image is not written at the pixel position of the field buffer 9110. Conversely, if it is determined by the empty dot determination data that the pixel is not an empty dot, the 24-bit RGB digital data of the real space video is written as it is.
  • the data control unit 908 refers to the empty dot determination data written in the empty dot memory 906, and the image forming unit 240 places the pixel position in the field buffer 910 at each pixel position.
  • the calculated virtual view image information is overwritten. That is, when the pixel is determined to be a free dot by the free dot determination data, the virtual view image information is written as it is. Conversely, if the pixel is determined not to be an empty dot by the empty dot determination data In this case, nothing is written, and a real space image is displayed at this pixel position.
  • the writing and reading of the image information be performed simultaneously, for example, by configuring the field buffer 710 for two screens.
  • a voice signal output from the speaker 62 and a posture control signal to the posture control unit 624 through the voice synthesis unit 678 are generated. And attitude control are performed.
  • the posture control is performed as follows. First, the object information of the future tank is changed by the object information changing unit 1 8 using the terrain information of the terrain information storage unit 106. Then, an attitude control signal is generated using the changed object information, that is, the object information (XG, YG, Z0, ⁇ 0, ⁇ 0 ⁇ ) reflecting the terrain information. Then, this attitude control signal is output to the attitude control section 6 24, whereby the attitude control is performed.
  • the player 650 can actually move the left driving unit 632 and the right driving unit 634 of the very near future tank 63 ⁇ through the video camera 610.
  • the user can freely control the future tank 630 in the virtual three-dimensional space while checking with his own eyes.
  • the operability is greatly improved, and a virtual reality world that is closer to reality can be expressed.
  • the method of image synthesis in the display image synthesizing device 680 is not limited to the method described above.
  • the image is synthesized using a red rather than a bull, or an image is synthesized using a plurality of colors. Or various techniques can be used. (5) Other embodiments
  • the three-dimensional game device according to the present invention can be applied to devices having various hardware configurations. That is, the present invention can be applied to, for example, a video game device for business use, a game device for attraction as described above, or a video game device for home use having a configuration as shown in FIG. 23, for example.
  • This home video game device includes a game cartridge 401 and a game machine body 400, both of which are connected by a connector 498. Further, an operation unit 408 including steering levers 12, 14 and an attack button 20 having the same configuration as in FIG. 2 is detachably connected to the game machine main body 400.
  • the game cartridge 4 • 1 includes an auxiliary calculation processing unit 410, a first storage unit 480, and a second storage unit 49 •.
  • the first storage unit 480 stores a game program and the like, and is formed of, for example, a non-volatile memory, a rewritable memory, or the like, and includes a terrain information storage unit 106, an object information storage unit 1 And a three-dimensional image information storage unit 204.
  • the auxiliary processing operation unit 410 includes a steering information operation unit 30, an image supply unit 212, an image forming unit 240, an object information changing unit 108, and a control unit 214. Is done.
  • the second storage unit 490 is configured by a rewritable memory.
  • This home video game device operates in substantially the same manner as the embodiment shown in FIG. That is, the central processing unit 102 and the auxiliary arithmetic processing unit 41 use the object information and the terrain information stored in the first storage unit 480 and the operation signal from the operation unit 408. , The game space is set, that is, the object information is set. Next, using the object information and the three-dimensional image information stored in the first storage unit 480, a pseudo three-dimensional image is generated by the auxiliary processing operation unit 410 and the central processing unit 102. Is calculated, and the result is stored in the second storage unit 490. Then, the stored image information is stored in the video processing unit 404, Video is output via the video RAM 406 accordingly.
  • a cross button 12 for operating the right thumb and a cross 14 for operating the left thumb are provided as first and second steering units on the operation unit body, respectively, so that the first and second propulsion of the moving body are performed. You may make it input a vector.
  • operation buttons 22 and 24 operated by the right and left forefinger may be provided on the side surface of the operation unit main body as respective trigger buttons for a machine gun and a missile.
  • the configurations of the first and second steering units and the attack operation buttons can be of various forms as necessary.
  • the present invention is not limited to this, and various games other than these, for example, a complicated It is needless to say that the present invention can be applied to a game in which a player passes through a maze or the like while maneuvering a moving object.

Description

明 細 書
ビデオゲーム装置
[技術分野]
本発明は、 ビデオゲーム装置、 特にディスプレイ上に表示される移動体が プレーヤの操舵に従って所定のゲーム空間内を移動するように形成されたビ デォゲーム装置に関する。
[背景技術]
従来より、 プレーヤの操縦に基づき、 ゲームに登場するゲーム用移動体が 所定のゲーム空間内を移動するよう、 ゲーム演算を行い、 ゲーム画面をディ スプレイ上に表示するビデオゲーム装置が知られている。
このようなビデオゲーム装置では、 ゲーム用移動体の種類に応じた操舵装 置が用いられている。 例えば、 移動体が自動車等の車両である場合にはハン ドルが用いられる。 また飛行機やへリコプタ一等である場合には操舵レバー 等が用いられる。
し力、し、 このような従来の操舵装置では、 ゲーム空間内における移動体の 動きが制約されてしまい、 ゲームとしての面白みにかけるという問題があつ た。
例えば、 図 2 5に示すよう、 ゲーム空間 1 0◦ 0内に二人のプレーヤが運 転する戦車 1 1 1 0、 1 1 1 2を登場させ、 これら両戦車が障害物 1 1 1 4 を避けながらゲーム空間内を動き回り、 敵の戦車に照準を合わせこれを攻撃 するというビデオゲームを想定する。 この場合、 従来のゲーム装置では、 プ レーャの操縦に従って戦車 1 1 1 0、 1 1 1 2は前進、 後退、 旋回運動しか 出来ない。 このため、 相手方戦車に対する攻撃パターンや、 相手方戦車から の攻撃に対する防衛パターンが限定されたものとなってしまい、 ゲームとし ての面白みに欠け、 飽きられやすいという問題があった。
例えば、 図 2 6に示すよう、 障害物 1 1 1 4の陰に相手方戦車 1 1 1 2が 待ち伏せしていることがわかっている場合でも、 プレーヤは自機の戦車 1 1 1 0を旋回させながら所定の位置 1 1 1 0 Bまで移動させなければ、 相手方 戦車 1 1 1 2を攻撃することが出来ない。 このため、 旋回の途中の位置、 例 えば 1 1 1 O Aの位置で相手方からの攻撃を受け、 やられてしまう場台が多 力、つた。
特に、 この種のゲーム機では、 プレーヤの操縦する移動体に平行移動や、 その場での旋回といった複雑な動きを行わせることが出来なかったため、 ゲ —厶自体が単調になり易く、 スピー ド感に欠け、 プレーヤにとって飽きられ やすかつた。
また、 操舵レバー等より飛行機、 ヘリコプター等を操縦するように構成さ れた従来のゲーム機では、 レバー操作により、 移動体を横方向に平行移動出 来るように構成されていたが、 移動体を旋回させたり、 その場で回転させた りするような操縦ができなかった。
このように、 従来のゲーム機では、 ゲーム空間内に登場する移動体が、 前 進、 後退のみならず、 旋回、 平行移動、 その場での回転等を行うように、 複 雑な操縱をすることが出来ず、 ゲームとしての面白みに欠けるという問題が あった。
この間題を解決するため、 移動体が複雑な動きを出来るようにすると、 操 舵機構自体がいたずらに複雑になり、 マニア向けのゲームになってしまい、 初心者は楽しむことが出来ないという問題が発生する。 特に、 業務用のゲ一 ム機では、 初心者から上級者までが幅広くゲームを楽しめることが重要な要 素であり、 複雑な操舵を必要とするゲーム機は業務用として不適当であった。 本発明は、 このような従来の課題に鑑み成されたものであり、 その目的は、 簡単な操作で、 ゲーム用移動体に複雑な動きをさせることができ、 しかも、 初級者から上級者まで幅広くゲームを楽しむことができるビデオゲーム機を 提供することにある。
また、 本発明の他の目的は、 簡単な操作で移動体に複雑な動きをさせ、 敵 又は標的に照準を合わせ、 これを攻撃することができ、 また、 敵の攻撃を回 避するようにしてシユーティ ングゲームを楽しむことができるようなビデオ ゲーム装置を提供することにある。
[発明の開示]
前記目的を達成するため、 本発明は、
3 6 0度の範囲で推進する第 1の推進部及び第 2の推進部を有するゲーム 用移動体をプレイヤーが操舵する形成された操舵手段と、
前記操舵装置から出力される操舵 ί言号に基づき、 前記ゲーム用移動体が所 定のゲーム空間内を移動するようゲーム演算を行い、 ディスプレイ上に表示 するゲーム演算手段と、
を含み、
前記操舵手段は、
プレーヤの右手の操作により、 その操作方向に応じて前記第 1の推進部の 第 1の推進べク トルを 3 6 0度の範囲で入力する第 1操舵部と、
プレーヤの左手の操作により、 その操作方向に応じて前記第 2の推進部の 第 2の推進べク トルを 3 6 0度の範囲で入力する第 2操舵部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報及び回転方向情報を演算し操舵信号として出力する操舵情報演算 部と、
を含み、 プレーヤの右手及び左手の組み合わせ操作により、 前記移動体を 操舵し、 前記ゲーム空間内で前記移動体を任意の方向に移動、 回転させるよ う形成されたことを特徵とする。
また、 前記他の目的を達成するため、 本発明は、
3 6 0度の範囲で推進する第 1の推進部及び第 2の推進部を有するゲーム 用移動体をプレイヤーが操舵するよう形成された操舵手段と、
敵または標的を攻撃するためプレーヤが操作するうよう形成された攻撃用 操作手段と、
前記操舵装置から出力される操舵信号に基づき、 所定のゲーム空間内にお いて前記ゲーム用移動体を移動させ、 かつ前記攻擊用操作手段から出力され る操作信号に基づき敵又は標的を攻撃するようゲーム演算を行い、 ディ スプ レイ上に表示するゲーム演算手段と、
を含み、
前記操舵手段は、
プレーヤの右手の操作により、 その操作方向に応じて前記第 1の推進部の 第 1の推進べク トルを 3 6 0度の範囲で入力する第 1操舵部と、
プレーヤの左手の操作により、 その操作方向に応じて前記第 2の推進部の 第 2の推進べク トルを 3 6 0度の範囲で入力する第 2操舵部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報及び回転方向情報を演算し操舵信号として出力する操舵情報演算 部と、
を含み、 プレーヤの右手及び左手の組み合わせ操作により、 前記移動体を 操舵し、 前記ゲーム空間内で前記移動体を任意の方向に移動、 回転させなが ら前記敵又は標的に照準を合わせるよう形成されたことを特徴とする。 ここにおいて前記照準は、
前記ゲーム用移動体の前方正面に設定することが好ましい。
また、 前記操舵情報演算部は、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報を演算する方向演算部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の回 転情報を演算する方向演算部と、
を含むよう形成できる。
さらに、 前記操舵情報演算部は、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記推進方向情 報として推進方向及び推進力を演算するとともに、 前記回転情報として回転 方向及び回転力を演算するよう形成できる。
また、 前記第 1および第 2の操舵部は、
操作量に対応した第 1および第 2の推進部の推進力を入力するよう形成で さる。
また、 前記第 1および第 2の操舵部は、
所定の基準位置から任意方向へ傾動自在に支持され、 傾動方向および傾動 量に応じて前記第 1および第 2の推進部の推進べク トルを入力する右手およ び左手用の操舵レバ一として形成することが好ましい。
また、 前記各操舵レバーが基準位置にある場合の X, Y軸の入力を 0とし、 その左右方向を X軸入力方向、 前後方向を Y$由入力方向に設定し、 かつ両操 舵レバ一についての正の向きを同一に設定し、 前記第 1, 第 2の操舵レバ一 の操作方向及び傾き角から X、 Υ座標入力成分を検出し、 対応する第 1, 第 2の推進部の第 1推進べク ト.ル 8 及び第 2推進べク トル VA を出力する操 舵方向検出手段を含み、
前記第 1、 第 2の推進部は、
前記移動体に対して左右対称の位置に配置され、
前記操舵情報演算部は、
各推進部の中間位置を基準点◦とし、 この基準点の右左方向を X軸入力方 向とし、 かつ前記操舵レバーの正の向きに対応した X軸入力方向を X座標正 方向とするとともに、 前記基準点の前後方向を Y寧由入力方向とし、 かつ前記 操舵レバーの正の向きに対応した Y$由入力方向を Y座標正方向に設定し、 前記方向演算部は、
前記各推進部に作用する第 1および第 2の推進べク トル VB , VA の X方 向への各推進速度成分 νχΒ, νχΑおよび γ方向への各推進速度成分 νγΒ, V
ΥΑを用い、 次式に基づき移動体の Xおよび Υ方向への推進方向速度 vxQ, V YQ成分を演算し、 これを推進方向情報として出力するよう形成され、
VX0= VXA+ VXB
VY0= VYA+ VYB
前記回転演算部は、
rで表された各推進部の X座標の艳対値と、 前記第 1及び第 2の推進べク トルを用い、 次式に基づき、 V 0 O ( V YA - V YB> .
移動体の回転角速度 ν Θ () を演算し、 これを回転情報として出力するよう形 成できる。
また、 前記ゲーム演算手段は、
予め設定されたゲームプログラムおよび前記操舵情報演算部から出力され る前記操舵信号に基づき、 仮想 3次元ゲーム空間内をプレーヤの操縦するプ レーャ移動体が移動するゲーム演算を行なうゲーム空間演算手段と、 前記仮想 3次元ゲーム空間を、 前記移動体の方向から見た視界画像を演算 し前記疑似 3次元画像を合成し前記ディ スプレイ上に表示させる画像合成手 段と、
を含み、 前記疑似 3次元画像を見ながら前記操舵手段を操作して、 前記移 動体にて仮想 3次元空間内を移動する 3次元ゲームを行なうよう形成するこ とが好ましい。
本発明のビデオゲーム装置では、 プレーヤは右手で第 1操舵部を操作し、 左手で第 2操作部を操作し、 ゲーム用移動体の第 1推進部及び第 2推進部の 第 1、 第 2の推進べク トルを入力するようになっている。
このとき、 第 1、 第 2の操舵部は、 プレーヤの操作方向によって、 第 1、 第 2推進ベク トルを 3 6 0 ° の範囲でそれぞれ入力する。
そして、 操舵情報演算部は、 前記第 1及び第 2の推進べク トルに基づき、 前記第 1及び第 2の推進部を備えたゲーム用移動体が、 どの方向にどの様に 回転しながら移動していくかを、 推進方向情報及び回転方向情報として演算 し、 操舵信号として出力する。
そして、 ゲーム演算手段は、 前記操舵信号に基づき、 ゲーム用移動体が所 定のゲーム空間内を移動するようにゲーム演算を行いディスプレイ上に表示 する。
このように、 本発明のビデオゲーム装置では、 プレーヤの右手と左手の組 み合わせ操作により、 移動体を任意の方向に移動、 回転させながら、 移動体 に複雑な動きをさせることができる。 ' 例えば、 第 1および第 2の操舵部を、 同じ方向に向け操作すると、 移動体 は現在の姿勢を保ったまま、 その操作方向へ移動することになる。 例えば、 第 1及び第 2の操舵部を、 いずれも前方向に操作すると、 移動体は前方へ移 動し、 横方向へ操作すると、 移動体は横方向へ平行移動することになる。 こ のようにして、 移動体を前、 後、 斜め、 横方向の任意方向へ向け、 平行移動 させることができる。
さらに、 第 1及び第 2の操舵部の操作方向、 操作量を変えることにより、 第 1及び第 2の推進べク トルの方向が異なるものとなるため、 移動体に所定 方向へ向けた回転力を与え、 かつ移動体に旋回運動又はその場での回転運動 をさせることができる。 例えば、 一方の操舵部を前に、 他方の操舵部を後に 操作すると、 移動体はその場で転回するように動作し、 また、 一方の操舵部 のみを前方向に操作すると移動体はその推進べク トルに応じた半径で旋回運 動することになる。
このようにして、 本発明によれば、 プレーヤの右手及び左手の組み合わせ 操作により、 移動体に複雑な運動をさせることができ、 特に移動体の第 1、 第 2の推進部の推進べク トルを、 第 1及び第 2の操舵部の操作方向によって 入力するという構成としたことにより、 人間の動こうとする感覚に近い操作 により、 移動体を移動させることが出来るため、 初心者でも操縦に早く馴れ ることができる。 これにより、 初心者から上級者まで、 移動体を簡単に操縦 し、 スピーディで変化に富むビデオゲームを楽しむことができる。
特に、 本発明によれば、 プレーヤの右手および左手を用い、 人間の動作に 近い自然な操作感覚で移動体を操縱できるため、 初心者も移動体の操縱に簡 単に馴れ親しむことができる。 従って、 初めてのゲームでは常に問題となる 操作の馴れを最低限の時間で済ませることができ、 初心者でも、 すぐにゲー ムそのものを楽しむことができるという効果があり、 とりわけ業務用のビデ ォゲームとして好適なものとなる。
さらに、 本発明を、 シユ ーティ ングゲームに適用することにより、 移動体 を自由自在にゲーム空間内を移動させ、 シユ ーティ ングを楽しむことができ、 従来に比べ戦略性が高く、 しかもスピーディ なゲームを楽しむことが可能と なる。
すなわち、 第 1及び第 2の操舵部の簡単な操作により移動体に複雑な動き をさせることが出来るため、 ゲーム空間内に登場する敵や標的に対する攻撃 や、 敵からの攻撃に対する防御を、 自分の操縦する移動体を前進、 後退、 旋 回あるいは平行移動といったような複雑な動きをさせながら行うことができ る。 従って、 シユーティ ングゲーム、 特にプレーヤ対戦型のシュ一ティ ング ゲームなどを行う場合には、 いろいろな戦略を組み立てることができ、 ゲー ムが変化に富み、 面白いものとなる。 また、 本発明のゲーム装置において、
前記ゲーム空間演算手段は、
少なく とも前記移動体の 3次元ォブジュク 卜の 3次元位置及び 3次元方向 情報がオブジェク ト情報として記億されるォブジヱク ト情報記憶部と、 前記仮想 3次元空間内において前記移動体が移動する地形の地勢情報が記 憶される地勢情報記憶部と、
前記ォブジュク ト情報記憶部から前記移動体のォブジュク ト情報を読み出 し、 この移動体のォブジュク ト情報を前記地勢情報記憶部から読み出された 地勢情報を用いて変更するォブジュク ト情報変更部と、 '
を含み、
前記画像合成手段は、
ゲーム空間を構成する 3次元オブジェク 卜及びゲーム空間に登場する 3次 元オブジェク トの 3次元画像情報が記憶される 3次元画像情報記憶部と、 前記ォブジヱク 卜情報記憶部からのォブジヱク ト情報と前記 3次元画像情 報記憶部からの 3次元画像情報より、 前記仮想 3次元空間に配置された前記 移動体の方向から見えるゲーム空間の視界画像を演算し疑似 3次元画像を合 成出力する画像演算部と、
を含み、 地勢情報が反映された疑似 3次元画像を画像合成するよう形成で きる。
以上の構成とすることにより、 移動体のォブジニク 卜情報は、 地勢情報を 利用して、 ォブジヱク ト情報変更部により変更される。 これにより、 地勢情 報が反映された疑似 3次元画像を形成できる。 この場合、 少なく とも 2以上 の地勢情報検出センサを移動体に設けることにより、 より地勢情報が反映さ れた疑似 3次元画像を形成できる。
また、 本発明のゲーム装置において、
前記移動体は、 前記攻撃用操作手段からプレーヤが入力した発射信号によ り弾またはミザイルを発射するよう形成され、
前記ゲーム空間演算手段は、
前記移動体から発射される弾またはミザイルの演算処理を行う弾処理部を 含み、
前記弾処理部は、
前記オブジェク ト情報変更部により変更された移動体のォブジェク ト情報 と、 前記操作部から入力された発射信号とに基づき弾またはミサイルの移動 位置を演算する弾移動演算部を含むよう形成できる。
このとき、 前記ォブジェク ト情報記憶部は、
標的のォブジヱク ト情報が記憶されるよう形成され、
前記弾処理部は、
前記弾移動演算部により演算された弾またはミザイルの移動位置と前記ォ ブジェク 卜情報記憶部に記憶された標的のオブジェク 卜情報に基づき、 弾ま たはミザイルの当り判定を行う当り判定部を含むよう形成することが好まし い。
以上の構成とすることにより、 変更された移動体のォブジヱク ト情報を利 用して弾の移動位置の演算、 当り判定を行うことが可能となる。
また、 本発明の装置は、
実際の 3次元空間におけるプレーヤの 3次元情報を検出するプレーヤ用空 間センサを含み、 前記ディ スプレイは、
プレーヤの視野を覆うように装着可能に形成され、
前記画像合成手段は、
前記プレーヤ用空間センサからの検出信号に基づいて、 仮想 3次元ゲーム 空間におけるプレーヤの位置及び方向情報を抽出する座標抽出部を含み、 仮想 3次元ゲーム空間におけるプレーヤの視界画像を演算し前記ディスプ レイに疑似 3次元画像を表示するよう形成できる。
以上の構成とすることにより、 簡易に仮想現実を実現できる。
この場合、 本発明の装置は、
プレーヤに装着され、 プレーヤから見える実空間映像を撮像する撮像手段 を含み、
前記画像合成手段は、
前記仮想 3次元空間におけるプレーャの視界画像と前記撮像手段で撮像さ れる実空間映像とを合成する表示画像合成部を含み、
前記ディ スプレイに仮想 3次元空間における視界画像と実空間映像とが合 成された疑似 3次元画像を表示するよう形成することが好ましい。
以上の構成とすることにより、 より現実に近づいた仮想現実を表現できる。 さらに、 本発明の装置は、
プレーヤが実際に搭乗する実空間上に設置された搭乗体を含み、
前記搭乗体は、
前記地勢情報に対応してプレーヤの姿勢制御を行う姿勢制御部を含み、 地勢情報が反映された搭乗体の搭乗感覚を仮想的に体験できるよう形成で さる c
このように、 この搭乗体の姿勢制御を地勢情報に基づいて行うことにより、 より地勢情報が反映された搭乗感覚を仮想的に体験できる。
[図面の簡単な説明]
図 1は、 本発明に係るビデオゲーム装置の好適な第 1実施例のプロック図 W である。
図 2は、 本実施例のゲーム装置の外観斜視説明図である。
図 3は、 本実施例のゲーム装置のゲームフィ ールドを示す概略説明図であ る。
図 4は、 本実施例のゲーム装置により画像合成された疑似 3次元画像の一 例を示す概略説明図である。
図 5は、 本実施例のゲームを二人プレーで行なう場合の装置の外観説明図 である。
図 6は、 本実施例のビデオゲーム内に登場する移動体の概略説明図である c
図 7は、 本実施例のゲーム装置に用いられる操舵レバーの説明図である。 図 8は、 図 7に示す操舵レバーを用いて移動体を操縱する場合の具体例の 説明図である。
図 9は、 図 7に示す操舵レバーを用いて移動体を操縱する場合の具体例を 示す説明図である。
図 1 0は、 実施例のゲーム装置を用いて対戦型ゲームを行なう場合の説明 図である。
図 1 1は、 図 1 0に示す対戦を行なう場合における、 一方の戦車の動作を 示す説明図である。
図 1 2は、 図 1に示すゲーム空間演算部の具体的な構成を示すプロック図 である。
図 1 3は、 図 1に示す画像合成部の具体的構成を示すブロック図である。 図 1 4は、 ォブジヱク 卜情報記憶部に記憶されるォブジヱク ト情報を説明 するための概略説明図である。
図 1 5は、 本実施例の 3次元ビデオゲーム装置により取り扱われるデータ フォーマツ 卜の一例を示す図である。
図 1 6は、 透視投影変換の手法の概略説明図である。
図 1 7は、 マルチプレーヤ型のゲーム構成にする場合の説明図である。 図 1 8は、 頭部装着体の形状を示す概略図である。
図 1 9は、 本発明に係る他の実施例のブロック図である
図 2 0は、 本発明に係るその他の実施例のプロック図である
図 2 1は、 実空間映像と仮想視界画像を合成できる 3次元ビデオゲーム装 置を説明するための概略説明図である。
図 2 2は、 表示画像合成装置の構成を示すプロック図である。
図 2 3は、 家庭用ビデオゲーム装置に本発明を適用した場合のブロック図 である。
図 2 4は、 第 1、 第 2の操舵部の他の実施例の説明図である。
図 2 5は、 従来のゲーム装置により表現されるゲーム画面を示す概略図で ある
図 2 6は、 従来のゲーム装置により表現されるゲーム画面を示す概略図で め 。
図 2 7は、 地勢情報の階層構造の概略説明図である。
図 2 8は、 地勢情報の階層構造の概略説明図である。
図 2 9は、 ゲームフィ一ルドにおける地形プロックの配列の概略説明図で ある。
図 3 0は、 地勢情報の階層構造の概略説明図である。
図 3 1は、 移動体に設けられる地勢情報検出センサを説明するための概略 図である。
図 3 2は、 地勢情報が反映された疑似 3次元画像の概略図である。
図 3 3は、 地形を反映した攻撃状況を説明する概略図である。
[発明を実施するための最良の形態]
次に、 本発明の好適な実施例を図面に基づき詳细に説明する。 ( 1 ) 第 1実施例
図 2には、 本発明に係るビデオゲーム装置の好適な一例が示されている, 実施例のゲーム装置 1 0は、 プレーヤ 5 0の前面に位置するディ スプレイ 4 4と、 前記ディ スプレイ 4 4を見ながらプレーヤ 5 0が操作する操作部 1 1 とを有する。
前記ビデオゲーム装置 1 0では、 必要に応じ各種ゲームを行うよう構成す ることができる力^ ここでは、 ゲーム装置 1 0を 3次元ゲームを行なう装置 として形成した場合を例にとり説明する。
本実施例の 3次元ゲ一厶装置 1 0は、 あらかじめ設定されたゲームプログ ラムにより仮想 3次元ゲーム空間を形成し、 この仮想 3次元ゲーム空間内を プレーャの操作する移動体が自由に動き回ることができるゲ一ムを提供でき る o
本実施例の 3次元ゲームは、 多種多様な人種が集まった近未来都市におい て繰りひろげられる未来戦車ゲームである。 この未来戦車ゲームでは、 莫大 な賞金をめざして集まつたフアイ夕一達が、 壁により四角に囲まれ逃げるこ との許されないゲームフィ一ルド内で、 デスマッチゲーム形式でチヤンピオ ンを決定する。 各ファイターは、 それぞれの所有する未来戦車により、 チヤ ンピオンを競い合うわけである。 そして、 プレーヤ 5 0は、 これらのフアイ 夕一の 1人としてゲームに参加する。
そして、 図 2に示すよう、 プレーヤ 5 0は、 操作部 1 1に設けられた右手 用操舵レバー 1 2及び左手用操舵レバー 1 4を操作してディ スプレイ 4 4上 に映し出された移動体、 即ち未来戦車 5 0 0を操縦する。 即ち、 プレーヤ 5 0は、 この未来戦車 5 0 0を操縦することにより、 仮想 3次元ゲーム空間内 に設定されたプレーフィ一ルド 6 0内を自由に動き回ることができる。
前記操作部 1 1には、 檩的を攻撃するためプレーヤが操作する攻撃用操作 部 2 0が設けられている。 このような攻撃用操作部 2 0として、 実施例では 無制限に発射することが出来るマシンガン用の卜リガホタン 2 2と、 数に制 限はあるが強力な武^であるミザイル発射用のトリガ一ボタン 2 4と'が各操 舵レバ一 1 2、 1 4に設けられている。 ディスプレイ 4 4上には、 その画面 中央にプレーヤ 5 0の操縦する未来戦車 5 0 0と、' その照準 5 1 0とが映し 94/22544 P 出され、 プレーヤは照準 510を用いて敵にねらいを定め攻撃を行う。 さ ら に、 ディ スプレイ 44には、 標的である敵の位置を表示する敵位置レーダー 520が映し出され、 これによりプレーヤ 50は、 自機位置 522に対する 敵位置 524を知ることが可能となる。
図 3には、 プレーフィールド 60の全体図が示されている。 同図に示すよ うに、 プレーフィールド 60内には、 ゲームプログラムにより設定される各 種の 3次元の地形が形成されている。 即ち、 まず、 プレーフィールド 60の 四方は、 各ファイタ一が逃げ出すことができないよう壁 62により囲まれて いる。 そして、 この壁 62の内周には第 1の台地 64が設けられている。 ま た、 この第 1の台地 64の中央付近には、 その周囲が斜面 68、 70、 72- 74により形成された低地 66が設けられている。 更に、 この低地 66の上 面には第 2、 第 3の台地 76、 78が設けられ、 また、 障害物 80、 82も 設けられている。
プレーヤ 50の操縦する未来戦車 500 A及び敵ファイターが操縱する敵 未来戦車 50 C1 Bは、 低地 66上で対峙している。 図 3では、 未来戦車 50 OAと敵未来戦車 500 Bとの間には、 第 2、 第 3の台地 76、 78、 障害 物 80、 82が存在している。 このため、 プレーヤ 50は、 ディスプレイ 4 4により敵未来戦車 5◦ 0 Bを目視することはできない。 従って、 プレーヤ 50は、 まず、 前述した敵位置検出レーダー 520により敵位置 52を見つ け出す。 そして、 操舵レバー 12、 14により自機の未来戦車 500 Aを操 縦し、 第 2、 第 3の台地 76、 78を乗り越え、 障害物 80、 82を避け、 敵に接近し、 これを攻撃することになる。
図 4 (A) には、 このようにして自機の未来戦車 50◦ Aが敵未来戦車 5 0〇 Bに接近した場合にディスプレイ 44に映し出される疑似 3次元ゲーム 画像 56 Aが示されている。 ここで、 シ一ルド表示部 512には、 自機及び 敵の未来戦車 500 A、 500 Bのシールド量が表示される。 現在、 自機の シールド量 (防御力) は、 敵未来戦車 500 Bのシールド量を大きく上回つ ている。 従って、 プレーヤ 5◦にとつては攻撃のチャンスであり、 逆に、 敵 未来戦車 5 0 O Bの方は、 この危機的状況を回避して、 シールド量を回復す るアイテムを探し出さなければならない。
この場合、 自機の未来戦車 5 0 0 Aと敵の未来戦車 5 0 0 Bとが動き回る プレーフィ ールド 6 0内には、 台地 6 6、 7 6、 7 8や、 障害物 8 0、 8 2、 及び各台地の周囲を取り巻く斜面 6 8、 7 0、 7 2、 7 4が形成されている ため、 各戦車の間には高低差が生じたり、 障害物が存在したりする。 したが つて、 プレーヤ 5 0は自機の未来戦車 5◦◦ Aを、 このような地理的条件を 利用しながら操縦し、 うまく敵を攻撃出来るようにゲームを進める必要があ る。 また、 逆に敵未来戦車 5 0 0 Bはこの地理的条件をうまく利用してこの 危機的情況を回避できるようにゲームを進めれば、 ゲームの面白みを一段と 高めることが出来る。
図 2に示したように、 プレーヤが 1人でゲームを行う場合は、 敵未来戦車 5 0 0 Bは、 コンピュータが操縦することになる。 これに対して、 図 5には、 2人のプレーヤで対戦する場合の、 本実施例の 3次元ゲーム装置の外観図が 示される。 この場合は、 プレーヤ 5 O Aはディスプレイ 4 4 Aを見ながら未 来戦車 5◦ 0を操縦し、 プレーヤ 5 0 Bはディ スプレイ 4 4 Bを見ながら未 来戦車 5◦◦ Bを操縦することになる。 ディスプレイ 4 4 Aには、 図 4 ( A ) に示すよう、 未来戦車 5 0 0 Aの後方視点から見える疑似 3次元ゲーム画像 5 6 Aが映し出される。 ディ スプレイ 4 4 Bには、 図 4 ( B ) に示すよう、 未来戦車 5 0 0 Bの後方視点から見える疑似 3次元ゲーム画像 5 6 Bが映し 出される。 このようにして同じ仮想 3次元ゲーム空間内で、 異なった視点か らの疑似 3次元ゲーム画像を見ながら、 2人のプレーヤがゲームを行うこと になる。 なお、 図 5には、 2人プレーヤの場合しか示されていないが、 本発 明は、 これに限らず、 3人以上の複数のプレーヤによりマルチプレーヤゲ一 ムを行う場合にも当然に適用できる。
装置全体の説明
図 1には、 本発明にかかる 3次元ゲーム装置の実施例のプロック図が示さ れている。 実施例の 3次元ビデオゲーム装置は、 プレーヤが操作 ί言号を入力する操作 部 1 1と、 プレーヤの操縦する移動体の操舵情報を演算する操舵情報演算部 3 0と、 前記操舵情報演算部 3 0より演算出力される操舵 ί言号に基づき、 移 動体が所定のゲーム空間を移動するようにゲーム演算を行いディスプレイ 4 4上に表示するゲーム演算部 4 0とを含む。
前記ゲーム演算部 4 0は、 プレーヤの操縦する移動体である未来戦車 5 0 0を図 6に示すように設計している。 同図 (Α ) に示すよう、 未来戦車 5 0 0は、 左右対称に配置された右推進部 5 0 2と、 左推進部 5 0 4とを含み、 その中央にマシンガンやミザイルの照準方向に対応して砲身 5 0 6が固定さ れている。 前記右推進部 5 0 2、 左推進部 5 0 4は、 それぞれ右手用操舵レ バー 1 2及び左手用操舵レバー 1 4によって指示される方向に、 そのレバー 傾き角に応じた推進力を発生するように設計されている。
即ち、 前記各推進部 5 0 2、 5 0 4は、 それぞれ 3 6 0 ° の範囲で任意の 向きに、 任意のスピー ドで移動するように設計されている。 例えば、 左推進 部 5 0 4を例にとると、 この左推進部 5 0 4は図 6 ( Β ) に示すよう、 左手 用操舵レバー 1 4の操舵に従って前後左右、 斜め等の任意の方向へ推進力を 発生するように設計されている。
したがって、 操舵レバー 1 2、 1 4を組み合わせて操作することにより、 各推進部 5 0 2、 5◦ 4の推進力が組み合わされ、 未来戦車 5 0 0が簡単な 操作で任意の方向へ向け、 自由かつ複雑に移動するよう操縱することができ る。
1一 1 : 操舵レバーの構成
図 7に示すよう、 各操舵用レバー 1 2、 1 4は、 その下端側の支持部 1 2 a , 1 4 aが任意の方向に傾動自在に軸支されている。 さらに、 各操舵用レ バー 1 2、 1 4は、 外力がないとき、 図中の実線で示す基準位置へ自動的に 復元するようにスプリ ング等を用いて付勢力が与えられている。
これら各操舵レバー 1 2、 1 4は、 プレーヤ 5 0の右手及び左手によって 把持され、 前後左右、 斜めの各方向へ向かって傾動操作され、 対応する推進 部 502、 504の推進方向を指示出来るようになつている。 さらに、 これ ら各操舵レバー 1 2、 14は、 その操舵方向への傾き角をも任意に設定でき るよ になっており、 傾き角の大きさによって、 対応する推進部 502、 5 04の推進力 (スピー ド) をアナログ的に連続設定できるようになつている c 即ち、 傾き角が大きい場合には大きなスピー ド、 小さな場合には小さなスピ 一 ドを指示するようになつている。
このため、 図 7に示すように、 各操舵レバ一 12、 14には、 それぞれ操 舵方向検出部 16、 18が設けられ、 これら各検出部 16, 18が操舵方向 の X、 Y座標成分を検出し、 移動体用操舵情報演算部 30へ向け出力するよ うに形成されている。 即ち、 各操舵レバ一 12、 14が基準位置にある場合 を 0とし、 その左右方向を X軸、 前後方向を Y蚰に設定する。 そして、 各操 舵方向検出部 16、 18は、 X方向成分検出ボリューム 16 a, 18 aと、 Y方向成分検出ボリューム 16 b, 18 bを用い、 各レバ一の操作方向及び 傾き角からその X、 Y座標成分を検出する。 そして、 検出した X, Y座標成 分を対応する推進部 502. 504の第 1推進べク トル情報及び第 2推進べ ク トル情報として操舵情報演算部 30へ向け出力する。
操舵情報演算部 30は、 このようにして入力される第 1及び第 2の推進べ ク 卜ル情報に基づき移動体 (自機の未来戦車 500) の推進方向情報及び回 転方向情報を演算し、 これを操舵信号としてゲーム演算部 40へ向け出力す る。 このような演算を行うため、 実施例の操舵情報演算部 3◦は、 方向演算 部 32と、 回転演算部 34とを含む。
前記方向演算部 32は、 入力される第 1及び第 2の推進べク トル情報に基 づき、 未来戦車 500の推進方向及び推進力を演算し、 これを X及び Y方向 の推進速度成分 vX()、 vYQからなる推進方向情報として出力するよう形成さ れている。
すなわち、 図 6 (C) に示すよう、 未来戦車 500の各推進部 502, 5 04の中間位置 503を基準点 0とし、 この基準点 503の右方向を X座標 正方向とし、 基準点 503の前方向を Y座標の正方向とする。 そして、 各推 進部 502, 504に作用する第 1および第 2の推進ベク トル VB , V の 各推進速度成分を用い、 次式に基づき未来戦車 500の Xおよび Y方向への 推進方向速度 vxQ. vYQ成分を演算する。
VX0== VXA+ VXB ······ ( 1)
VY0= VYA+ VYB …… ) 前記回転演算部 34は、 入力される第 1及び第 2の推進べク トル情報に基 づき、 未来戦車 500の回転角速度 νθ() を演算し、 これを回転情報として 出力するよう形成されている。
すなわち、 図 6 (C) における時計方向を正の回転方向とする。 そして、 実施例の回転演算部 34は、 次式 (回転モーメ ン トの式) に基づき未来戦車
500の回転情報を演算する。 ν Θ0 =νΘΑ + νθΒ = (ァ VYA) + (-ァ VYB)
=ァ (VYA— VYB) (3) 但し、 ァは各推進部 502, 504の X座標の絶対値を表す。
したがって、 例えば図 8 (a) 〜 (h) に示すよう、 左右の操舵レバー 1 2、 14を同じ方向に同じ量だけ倒すと、 操舵情報演算部 3◦は倒した方向 へ向けその操作量に応じたスピ一 ドで、 未来戦車 50◦をその姿勢のまま移 動させるように操舵信号を出力する。 例えば、 同図 (a ) に示すよう、 両操 舵レバ一 1 2、 14を前に倒すと、 未来戦車 500は前進し、 同図 (d) 又 は ( f ) に示すよう、 斜め方向に倒すと、 その方向に向け、 未来戦車 500 を平行移動させるように操舵信号を出力する。
また、 図 9に示すよう、 左右の操舵レバー 12、 14の操舵方向が異なつ た場合や、 その操舵量が異なる場合には、 その操作に応じて未来戦車 500 が回転または旋回するよう操舵信号が出力される。 例えば、 図 9 (a ) 、
(b ) に示すよう、 左右の操舵レバ— 1 2、 14を前後逆に同じ量だけ操作 すると、 未来戦車 500はその場所で右回転又は左回転するよう、 角速度信 号 νθ() が操舵信号として出力される。 なお、 この場合には、 未来戦車自体 はその位置を移動しないので、 vXQ、 vYQはそれぞれ◦に設定される。 また、 図 9 ( c ) 、 ( d ) に示すよう、 一方の操舵レバーのみが操作され ると、 未来戦車 5 0 0は右又は左方向へ曲線 動するよう操舵 ί言号が出力さ れる。 また、 例えば左右の操舵レバー 1 2、 1 4を、 同方向へ異なる量だけ 倒した場合にも、 その差分に応じた曲線で未来戦車 5 0 0が移動するよう操 作信号が出力されることになる。
ゲーム演算部 4 0は、 このようにして入力される操舵信号に基づき、 自核 の未来戦車 5 0 0がプレーフィールド 6 0内を移動するようにゲーム演算を 行い、 ディ スプレイ 2 8 0上に表示する。
このようにして、 本実施例によれば、 左右の操舵レバー 1 2、 1 4を組み 合わせ操作することにより、 自機の未来戦車 5◦ 0を前進、 後退、 所定の曲 線に沿った旋回、 又はその場での旋回運動のみならず、 前後左右いずれの方 向にも平行移動させることができる。
特に、 未来戦車 5 0 0の右推進部 5 0 2及び左推進部 5 0 4に対応した右 手用操舵レバー 1 2及び左手用操舵レバー 1 4を設け、 各推進部 5 0 2 . 5 0 4の推進べク トルを独自に設定する構造としたことにより、 人間が本来動 こうとする感覚に近い感覚で自機の未来戦車 5◦ 0を操縦できるので、 初心 者でも簡単に操縦に慣れ親しみ、 ゲームを楽しむことができる。
さらに、 このような 2本の操舵レバ一 1 2、 1 4を用い、 従来にはない自 由な動きが出来る。 このため、 例えば図 1 0に示すよう、 敵の未来戦車 5 0 0 Βが障害物 8 2の陰で待ち受けているような場合でも、 プレーヤは自機の 未来戦車 5 0 0 Αを横方向にスライ ド移動させながら、 各トリガ一ボタン 2 2、 2 4を操作して敵を攻撃し、 逃げ去るというヒッ ト ·アン ド♦ァウェイ 戦法を取ることができる。 さらに、 5 0 0 A— 1、 5 0 O A— 2に示すよう、 敵の未来戦車 5 0 0 Bに対し、 照準を定めながらの円弧状の平行移動をさせ ることもできる。 このとき、 敵の未来戦車 5 0 0 Bは、 その場で旋回運動す ることにより、 図 1 1に示す如く、 逃げる敵を追尾するように照準を合わせ ながら反撃できるという戦法を取ることもできる。
このように、 本実施例では、 各プレーヤの操縱する未来戦車 5 0 0 A、 5 0 0 Bは、 前後方向への前進後退や、 平行移動のみならず、 各種旋回運動を もさせることができるため、 その動きが変化に富み、 かつスピーディである ( このため、 対戦型のゲームとしての戦略性に富み、 極めて面白いゲームを構 成することができる。
なお、 本実施例では、 前記各操舵レバー 1 2、 1 4として、 3 6 0 ° の全 方向に渡って推進べク トルが入力可能なアナログレバーを使用したが、 必要 に応じ、 例えば、 前後左右の 4方向と、 右上、 右下、 左上、 左下の 4方向と を合わせた計 8方向の推進べク トルを入力するデジタルレバーを用いても良 い。 また、 移動体自体の動きは制限されたものにはなる力 <、 操舵レバー 1 2、 1 4として第 1及び第 2の推進べク トルの方向のみを設定し、 推進べク トル の大きさは固定的なものまたは段階的に入力するものを用いてもよい。
1 - 2 : ゲーム演算部の構成
次に、 前記ゲーム演算部 4 0の具体的な構成を説明する。
実施例において、 前記ゲーム演算部 4 0は、 所定のゲームプログラムによ りゲーム空間を設定するゲーム空間演算部 1 0 0と、 プレーヤの視点位置に おける疑似 3次元画像を形成する画像合成部 2 0 0とを含み、 この疑似 3次 元画像を C R T 2 8 0上に表示するように形成されている。
図 1 2には、 前記ゲーム空間演算部 1 0 0の構成の一例が示されている。 ゲーム空間演算部 1 0 0は、 中央処理部 1 0 2、 オブジェク ト情報記億部
1 0 4、 地勢情報記憶部 1 0 6、 ォブジェク 卜情報変更部 1 0 8、 引金判定 部 1 4 2、 弾処理部 1 2 0を含んで構成される。
ここで、 中央処理部 1 0 2は、 所定のゲームプログラムが記憶されたメモ リを内蔵し、 3次元ゲーム装置全体の制御を行うよう形成されている。
また、 ォブジュク ト情報記憶部 1 0 4には、 仮想 3次元空間を構成する 3 次元ォブジェク 卜の位置及び方向情報であるオブジェク 卜情報が記憶されて いる。
また、 地勢情報記憶部 1 0 6には、 前述した 3次元の地形で形成されたプ レーフィールド 6 0の地勢情報が、 例えば高さデータとして記憶されている。 また、 ォブジェク 卜情報変更部 1 0 8は、 オブジェク ト情報記憶部 1 0 4 に記憶されたォブジュク 卜情報を、 前記地勢情報記憶部 1 0 6に記憶された 地勢情報を基に随時変更する演算を行う。
引金判定部 1 4 2では、 プレーヤが弾の引金を引いたか否かが判定され、 これにより弾の発射信号が形成される。
弾処理部 1 2 0は、 弾移動演算部 1 2 2及び当り判定部 1 2 6を含んだ構 成となっている。 弾移動演算部 1 2 2は、 ォブジ ク ト情報変更部 1 0 8に より変更された移動体 (自機の未来戦車 5 0 0 A ) のオブジェク ト情報と、 引金判定部 1 4 2からの弾の発射信号とから弾移動位置を演算する。
当り判定部 1 2 6では、 ォブジヱク 卜情報記憶部 1 0 4から標的、 例えば 敵未来戦車 5 0 0 Bのォブジヱク ト情報が読み出され、 このォプジヱク ト惰 報と、 弾移動演算部 1 2 2で演算された弾の移動位置とから、 弾の当り判定 が行われる。 弾が当たった場合は、 この当り判定情報を、 ォブジヱク ト情報 記憶部 1 0 4に記憶される種々の 3次元ォブジヱク 卜のォブジヱク ト情報へ 反映させる。
図 1 3には、 前記画像合成部 2 0 0の構成の一例が示されている。
画像合成部 2 0 0では、 仮想 3次元ゲーム空間におけるプレーヤ 5 0の任 意の視点位置から見える疑似 3次元ゲーム画像、 即ち、 図 2においてデイ ス プレイ 4 4に映し出される疑似 3次元ゲーム画像が画像合成される。 このた め、 画像合成部 2 0 0は、 3次元画像情報記憶部 2 0 4及び画像演算部 2 0 2を含んで構成される。
3次元画像情報記憶部 2◦ 4には、 3次元ォブジュク トの 3次元画像が記 憶されている。 ここで、 3次元オブジェク トとは、 図 4に示す未来戦車 5 0 0 A、 敵未来戦車 5 0 0 Bなどの移動体、 図 3に示す壁 6 2、 低地 6 6、 第 2、 第 3の台地 7 6、 7 8、 障害物 8 0、 8 2などの地形等、 仮想 3次元ゲ ーム空間を形成する全ての物体をいう。 この 3次元オブジェク トは、 図 4に 示すように、 ポリゴン 9 0 ~ 9 5等の集合として表現され、 このポリゴンの 各頂点座標等の情報が 3次元画像情報として 3次元画像情報記憶部 204に 記憶されている。
画像演算部 202は、 画像供耠部 212及び画像形成部 240を含んで構 成される。
画像供給部 212は、 画像合成部 200の全体の制御を行う処理部 214. ポリゴンの頂点座標等の画像情報に対する 3次元演算処理を行う座標変換部 216、 クリ ツピング処理部 218、 透視変換部 220、 ソーティ ング処理 部 222を含んで構成される。
画像形成部 240では、 画像供袷部 212において 3次元演算処理された ポリゴンの頂点座標等の画像情報から、 ポリゴン内の全ての ドッ 卜における 画像情報が演算され、 これが疑似 3次元画像として画像出力される。
次に、 ゲーム空間演算部 10◦の構成をより詳細に説明する。
まず、 ゲームスター 卜と同時に、 中央処理部 102は、 ゲームプログラム にしたがって、 仮想 3次元空間に配置される全ての 3次元ォブジェク トの位 置及び方向情報であるォブジュク ト情報を、 オブジェク ト情報記憶部 104 に記憶させる。 但し、 ォブジヱク ト情報のうち固定的な情報は、 オブジェク ト情報記憶部 104の一部を不揮発性メモリとして形成し、 あらかじめ記憶 させておいてもよい。
このォブジヱク 卜情報記憶部 104に記憶されるォブジェク ト情報は、 例 えば、 図 14に示すフォーマツ 卜で記憶される。 同図において、 イ ンデッ ク ス (0〜n ) は、 各 3次元ォブジヱク 卜を表す通し番号である。 例えば、 ィ ンデックス 0は未来戦車 500Aを、 イ ンデックス 1は敵未来戦車 5◦◦ B を、 イ ンデッ クス 2は壁 62を、 イ ンデックス 3は障害物 80を構成する 3 次元オブジェク トを表す通し番号である。 これにより、 例えば、 未来戦車 5 0 OAの仮想 3次元空間における位置情報及び方向情報 (傾きを含む情報) は、 (X0 、 Y0 、 Z0 ) 及び (Θ0 、 00 、 ) に設定される。 なお、 Θβ は操舵レバー 12、 14で指示される未来戦車 5◦ 0の向き、 0Q 、 p 0 は未来戦車が斜面等を走行したときの前後方向の傾き、 左右方向の傾きを 表す。 この結果、 未来戦車 50 OAの配置される位置及び方向が決定される ことになる。 同様にして、 敵未来戦車 500、 障害物 80等の 3次元ォブジ ニク 卜の位置及び方向情報も設定され、 これにより仮想 3次元空間上のゲー ム空間を形成する全ての 3次元ォブジュク 卜の位置及び方向情報が決定され 」とに7よ 。
なお、 未来戦車 500A、 500 Bのように大きな 3次元ォブジヱク 卜の 場合、 これを例えば、 操縦席、 左側推進部、 右側推進部、 砲身等のパーツに 分割して、 これらのパーツの 1つ 1つを 3次元ォブジュク トと考え、 これに 前記インデックスを割り当てるようにしてもよい。 このようにすれば、 これ らのパーツ、 例えば左側駆動部、 右側駆動部、 砲身等を独自に動かすことが でき、 より リアリティ溢れる動きをする未来戦車 5◦ 0を描く ことができる c
地勢情報記憶部 1◦ 6には、 図 3に示すプレーフィールド 60の地勢情報 が、 例えば高さ情報として記憶されている。 オブジェク ト情報変更部 108 は、 この地勢情報を読みだし、 これにより、 ォブジヱク ト情報記憶部 104 に記憶されている、 3次元オブジェク トの位置及び方向情報を変更する。 さ らに、 入力される操舵信号に基づき前記した未来戦車 50◦の位置及び方向 情報 (X0 、 Y0 、 Z0 、 Θ0 、 00 、 ρθ ) の値を変更して、 未来戦車 5 00の位置, 向き. 傾き等を変更する。 これにより、 地勢情報を反映したゲ ーム空間を形成できる。
次に、 画像合成部 2◦ 0の構成をより詳細に説明する。
まず、 処理部 214により、 ォブジヱク ト情報記憶部 104から前記した ィンデックスをァ ドレスとして 3次元オブジェク 卜の位置及び方向情報が読 み出される。 同様にして、 処理部 214により、 3次元画像情報記憶部 20 4から前記ィンデックスをア ドレスとして 3次元オブジェク 卜の 3次元画像 情報が読み出される。 例えば、 インデックスが 0である場合は、 未来戦車 5 ◦◦の位置及び方向情報 (X0 、 Y0 、 Z0 、 Θ0 、 00 、 ρθ ) がォブジ ェク 卜情報記憶部 104から読み出され、 未来戦車 500をポリゴンの集合 で表した 3次元画像情報が 3次元画像情報記憶部 2 0 4から読み出される。 処理部 2 1 4は、 このようにイ ンデックスを順次読み出し、 これらの情報 を図 1 5に示すようなデータフォーマツ 卜に変換する。
図 1 5 ( a ) には、 このデータフォーマツ 卜の全体図が示されている。 同 図に示すように、 処理されるデータは、 フレームデータを先頭に、 このフレ ーム内に表示される全ての 3次元オブジェク トのォブジェク 卜データが連な るようにして構成されている。 そして、 このオブジェク トデータの後には、 この 3次元ォブジヱク トを構成するポリゴンのポリゴンデータが更に連なる ように構成されている。
ここで、 フレームデータとは、 フレームごとに変化するパラメ一夕により 形成されるデータをいい、 1フレーム内の全ての 3次元オブジェク 卜に共通 なデータであるプレーヤの視点位置♦角度 ·視野角情報、 モニタの角度 ·大 きさ情報、 光源の情報等のデータより構成される。 これらのデータは 1フレ ームごとに設定され、 例えば表示画面上にウイ ンドウ等を形成した場合は、 ウィ ン ドウごとに異なるフレームデータが設定される。 これにより表示画面 上に例えばバック ミ ラーや、 未来戦車 5 0◦を上から見た画面等を形成する ことができる。
また、 オブジェク トデータとは、 3次元オブジェク トごとに変化するパラ メータにより形成されるデータをいい、 3次元ォブジヱク ト単位での位置情 報、 方向情報等のデータより構成される。 これは、 前述のォブジェク ト情報 とほぼ同じ内容のデータである。
また、 ポリゴンデータとは、 ポリゴンの画像情報等により形成されるデー 夕をいい、 図 1 5 ( b ) に示すようにヘッダ、 頂点座標 X 0 、 Y 0 、 Z 0 〜 X 3 、 Y 3 、 Z 3 等と、 その他の付属データにより構成される。
座標変換部 2 1 6は、 以上のフォーマツ 卜のデータを読み出し、 この各頂 点座標等に対し各種の演算処理を行っている。
以下、 この演算処理を図 1 6を用いて説明する。
例えば未来戦車ゲームを例にとれば、 未来戦車ミ 敵未来戦車、 ビル、 陣害 物等を表す 3次元ォブジヱク ト 3 0 0、 3 3 2、 3 3 4力く、 ワールド座標系 ( X W 、 Y W 、 Z ) で表現される仮想 3次元空間上に配置される。 その後. これらの 3次元ォブジヱク トを表す画像情報は、 プレーヤ 3 0 2の視点を基 準とした視点座標系 (X v、 Y v、 Ζ ν ) へと座標変換される。
次に、 ク リ ッビング処理部 2 1 8にて、 いわゆるクリ ッビング処理と呼ば れる画像処理が行われる。 ここで、 クリ ッピング処理とはプレーヤ 3 0 2 視野外 (又は 3次元空間上で開かれたウィ ン ドウの視野外) にある画像情報、 即ち前方 ·後方 ·右側《下方 ·左側♦上方のクリ ッピング面 3 4 0、 3 4 2、 3 4 4、 3 4 6、 3 4 8、 3 5 0により囲まれた領域 (以下表示領域 2とす る) の外にある画像情報を除去する画像処理をいう。 つまり、 本装置により その後の処理に必要とされる画像情報は、 プレーヤ 3 0 2の視野内にある画 像情報のみである。 従って、 ク リ ッピング処理によりこれ以外の情報をあら かじめ除去すれば、 その後の処理の負担を大幅に減らすことができることと なる。
次に、 透視変換部 2 2 0にて、 表示領域 2内にある物体に対してのみ、 ス クリーン座標系 (X S 、 Y S ) への透視投影変換が行われ、 次段のソーティ ング処理部 2 2 2へとデータが出力される。
ソ—ティ ング処理部 2 2 2では、 次段の画像形成部 2 4 0における処理の 順序が決定され、 その順序にしたがつてポリゴンの画像データが出力される。
画像形成部 2 4 0では、 画像供給部 2 1 2において 3次元演算処理された ポリゴンの頂点座標等のデータから、 ポリゴン内の全てのドッ 卜の画像情報 が演算される。 この場合の演算手法としては、 ポリゴンの頂点座標からポリ ゴンの輪郭線を求め、 この輪郭線と走査線との交点である輪郭点ベアを求め、 この輪郭点ペアにより形成されるラインを所定の色データ等に対応させると いう手法を用いてもよい。 また、 各ポリゴン内の全ての ドッ トの画像情報を、 テクスチャ情報としてあらかじめ R Ο Μ等に記憶させておき、 ポリゴンの各 頂点に与えられたテクスチャ座標をァ ドレスとして、 これを読み出し、 貼り 付けるという手法を用いてもよい。
最後に、 これらの画像形成部 340で形成された疑似 3次元画像は、 ディ スプレイ 44に表示される。
1 - 3 :移動体のォブジェク ト情報へ地勢情報を反映させる演算手法の説 明
次に、 移動体のォブジェク 卜情報へ地勢情報を反映させる演算手法につい て説明する。
図 1 2に示すように、 ォブジェク ト情報変更部 1 08は、 地勢情報記憶部 1 06から地勢情報を読み出し、 これにより、 オブジェク ト情報記憶部 1 0 4に記憶されている 3次元ォブジェク ト情報の変更を行っている。
ここで、 地勢情報記憶部 1 06には、 3次元地形の地勢情報 (例えば高さ 情報) が記憶されている。 この地勢情報記憶部 1 ◦ 6の地勢情報記憶エリア は、 図 27に示すような階層構造となっている。 即ち、 図 27 ( a ) に示す プレーフィ ールドエリアが最上位となり、 その下位が同図 (b) に示す地区 内ブロックエリア、 更にその下位が同図 (c ) に示す地形ブロックエリアと なっている。 このように、 地勢情報記憶エリアを階層構造としたのは、 デー タ量を圧縮して、 より繊細な地形変化が反映されたゲーム空間を多数用意す るためである。
プレーフィールドエリアでは、 この 3次元ゲームにおいて用意される複数 のプレーフィールドのうち、 どの面を選択するかが決定される。 これにより、 例えば図 27 ( a) に示すように、 図 3に示したプレーフィ ールド 60が選 択される。
このプレーフィールド 60は、 図 28 (a) に示すように、 例えば 4 X4 = 1 6個の地区内ブロック (1 7〜32) に分割されている。 このように 1 つのプレーフィ一ルドを複数の地区内ブロックに分割することで、 即ち、 例 えば 32種類の地区内プロックを組み合わせることで、 極めて多数の種類の プレーフィ ール ドを簡易に形成できる。 例えば、 図 28 (a ) に示す地区内 ブロック (p b l 7~32) の順序を少し変更するだけで、 図 3に示すプレ —フィールド 6◦と全く異なった地形のプレーフィールドを簡易に形成でき るわけである。
図 28 ( b ) に示すように、 この地区内ブロックは、 更に例えば 4 x4 = 16個の地形プロックに分割されている。 例えば地区内プロック p b 1 7は- 地形ブロック p i 1 e 000、 1 1 5、 1 18、 1 19、 122からなる 1 6個の地形ブロックに分割されており、 これにより更なるデータの圧縮が可 能となる。
地形プロックは、 最終的に地形の高さ情報が格納されたプロックである。 図 29には、 この地形ブロックにより形成されたプレーフィールド 60が模 式的に示されている。 この図 29は、 前記した図 3に対応するものである。 また、 図 30には、 これらの各地形ブロック内における高さ情報の分布が示 されている。 なお、 図 30には、 地形ブロック p i l e l l 5~1 23の高 さ情報の分布が示されている。
図 29に示すように、 壁 62には未来戦車が侵入しえないので、 地形プロ ックは配置されていない。 また、 図 3の第 1の台地 64は全て地形ブロック P i 1 e 1 1 5の組合せにより表されている。 この地形プロック p i l e i 1 5は、 図 30に示すように、 高さ情報が全て 160に設定されている。 即 ち、 平坦で高い位置にある地形であることが表現されている。
また、 図 3の斜面 68は、 図 29に示すように、 地形プロック p i l e i 18、 121、 122の組合せにより表されている。 そして、 地形ブロック P i l e l l 8は、 図 30に示すように、 左側が最も高く (1 50) 、 右側 に行く ほど低くなるよう (000) 、 高さ情報が設定されている。 これによ り斜面 68を表現できることとなる。 同様に地形プロック p i 1 e 121は、 隅に谷が形成されるように高さ情報が設定されている。
零地帯 66については、 地形ブロックは配置されない。 零地帯 66は高さ が零の平坦な場所であるため、 未来戦車のォブジュク ト情報を変更する必要 がないからである。 この、 零地帯 66は、 未来戦車がゲーム中に最も位置す る時間が長い場所に設定することが望ましい。 このように設定すれば、 未来
- 21 - 戦車がこの場所に位置する場合には、 ォブジェク ド情報変更部 1 08による ォブジヱク 卜情報の変更演算が少なくてすみ、 データの処理量を節約できる からである。
障害物 80、 82は、 未来戦車の発射するミサイルにより破壊可能なよう に設定されている。 そして、 破壊された場合には、 この障害物 80、 82の あった位置には、 その位置に応じた地形プロックが設定される。
さて、 ォブジヱク ト情報変更部 108では、 以下のようにして、 オブジェ ク ト情報の変更が行われる。
まず、 ォブジヱク ト情報記憶部 104より、 未来戦車 5◦ 0 Aのイ ンデッ クス、 例えばインデックス 0が参照され、 ォブジェク ト情報 ( X 0 、 γ 0 、 Ζ0 、 Θ0 、 ΦΟ 、 θ ) が読み出される。
ここで、 未来戦車 500Αには、 図 31に示すように、 あらかじめ、 その 底面の 4点 A、 B、 C、 Dに仮想的な地勢情報検出センサ 360、 362、 364、 366が設けられている。 そして、 まず、 ォブジヱク ト情報変更部 1 〇 8は、 読み出した未来戦車 50 OAのォブジヱク ト情報 (X0 、 Y0 、 Z0 ) から、 この 4点の位置情報 A (XaO、 YaO、 ZaO) 、 B (XbO、 YbO、 ZbO) 、 C (XcO、 YcO、 ZcO) 、 D (XdO、 YdO、 ZdO) を求める。
次に、 ォブジヱク ト情報変更部 108は、 これらの求められた A、 B、 C、 D点の位置情報を読み出しア ドレスとして、 地勢情報記憶部 1 06から、 A、 B、 C、 D点の位置での地勢情報、 例えば高さ情報を読み出す。
なお、 地勢情報記憶部 106を読み出す、 読み出しァ ドレスとしては、 必 ずしも 3次元の位置情報は必要なく、 2次元の位置情報でも構わない。 例え ば、 A点の地勢情報を求める読み出しア ドレスとしては、 2次元の位置情報 (XaO、 YaO) でも十分である。 但し、 例えば、 プレーフィールド上に橋な どが存在する場合、 未来戦車 500 Aがこの橋の上に位置するか、 橋の下に 位置するかでは、 高さ情報が異なったものに設定される。 従って、 このよう な場合には、 現在、 未来戦車 500 Aは、 橋の上に位置するのか、 橋の下に 位置するのかを区別するための情報、 即ち Z座標が必要となる。 ォブジヱク ト情報変更部 1 08では、 読み出された高さ情報 dZaO 、 dZb 0 、 dZcO 、 dZdO により、 A、 B、 C、 D点の位置情報が例えば以下のよ うに変更される。
A (XaO、 YaO、 ZaO) →A '(XaO、 YaO、 ZaO+ dZaO)
B (XbO、 YbO、 ZbO) →B '(XbO、 YbO、 ZbO+ dZbO)
C (XcO、 YcO、 ZcO) →C '(XcO、 YcO、 ZcO+ d ZcO)
D (XdO、 YdO、 ZdO) →D '(XdO、 YdO. ZdO+ dZdO) そして、 この変更された点 A' B' C D' より、 図 3 1 ( b ) に示され るように、 未来戦車 50 O Aのォブジヱク 卜情報のうち、 (∑() 、 0() 、 0 ) が次のように変更される。
(X0 、 Y0 、 Z0 、 Θ0 、 00 、 pO ) → (X0 、 Y0 、 Ζ0'、 Θ0 、 00'、 ρ θ')
以上のようにして、 オブジェク ト情報記憶部 1 04の中の未来戦車 5◦ 0 Αのォブジヱク ト情報が変更されたことになる。
次に、 必要があれば、 もう一つの移動体である敵未来戦車 500 Bのォブ ジェク ト情報も変更される。
図 32には、 以上のように地勢情報に基づいてォブジヱク ト情報を変更し た場合の、 疑似 3次元画像の一例が示される。 同図に示されるように、 自機 の未来戦車 50 O Aは斜面 75に位置している。 従って、 本 3次元ゲーム装 置は、 この地勢情報を反映して、 画面が全体に斜めに傾いているように見え るような疑似 3次元画像を合成している。 この様子は、 壁 62の画像を見れ ば明かである。 また、 同様に、 敵未来戦車 500 Bは第 2の台地 76上に位 置するため、 自機より上方向に見えており、 地勢情報が 3次元ゲームに反映 されているのが理解される。
なお、 本実施例では、 3次元ゲームに地勢情報を反映させて、 例えば斜め に傾いて見えるような疑似 3次元画像を合成する場合について説明した。 し かし、 本発明はこれに限られるものではなく、 本発明の構成によれば、 以下 のように色々パターンで地勢情報を 3次元ゲームに反映させることができる c
例えば、 地勢情報として、 スムーズに移動できる地勢情報と、 逆に、 砂利 道のようにガ夕ガ夕な地勢情報を用意する。 具体的には、 地形ブロックの高 さ情報の設定をより細かく設定して、 ガタガタ道の地勢 W報を細かく高さ情 報が変化した地形ブロックにより表現する。 そして、 逆に、 スムーズな道の 地勢情報を、 全ての高さ情報が同じである地形ブロックにより表現する。 こ れにより、 例えば未来戦車 500 Aがガタガタ道を移動している場合は疑似 3次元画像が細かく揺れ、 スムーズな道を移動している場合は疑似 3次元画 像が全く揺れないため、 プレーヤは、 ガ夕ガタ道の移動、 または、 スムーズ な道の移動を仮想体験できることになる。
また、 3次元ゲームに反映させる地勢情報も前記したような高さ情報に限 られるものではない。 例えば、 地勢情報として、 沼、 湿地蒂、 砂漠といった 地勢情報を用意して、 この沼、 湿地帯、 砂漠に未来戦車 5◦ OAが入り込む と、 それぞれの地勢に応じて速度を変化させるようにしてもよい。 この設定 は、 具体的には以下のようにして行う。
前述したように、 未来戦車 500 Aは、 操作部 140に接铳されたアナ口 グレバー 12、 14からの操作信号により操縱される。 例えばプレーヤ 30 2がアナログレバー 12、 14を前に倒して、 未来戦車 500 Aが前方向に 進んだとする。 すると、 その操作量に応じて、 ォブジュク ト情報記憶部 10 4に記憶されるォブジヱク ト情報は 1フレームの間、 即ち (1 /60) 秒 (以下、 T秒とする) 後に次のように変更される。
(X0 、 Y0 ) → (XO +VX0x T、 Υ0 +VY0X T) なお、 説明を簡単にするため、 Ζ座標及び方向情報 θ、 φ、 ρについては 考えないこととする。
このようにして、 変更されたオブジェク ト情報に対して、 以下のようにォ ブジェク ト情報変更部 1 08が地勢情報に応じて負の碴を加算する。
(XO +VX0x T、 Υ0 + VYO Τ)
― (XO +VX0X T— dX0、 YO + VYOx Τ - d ΥΟ) この加算される負の値— dX0、 — dYOは、 地勢情報記憶部 1 ◦ 6に記憶さ れており、 未来戦車 50 O Aの位置情報をァ ドレスとして読み出される。 そ して、 この加算される負の値一 dX0、 一 dYOは、 その位置の地勢がスムーズ な道か、 沼か、 湿地蒂か、 砂漠かで異なった暄に設定されている。 逆に、 氷 の道なるものを設定して、 その道にはいると、 正の値を加算して加速させる ようにしてもよい。 このように 3次元ゲームに反映させる地勢情報として、 例えば速度情報を用いることで、 非常にゲームの面白味を非常に高めること ができる。
また、 地勢情報として速度情報を用いて、 これと前述した仮想的な地勢情 報検出センサ 362〜 366を組み合わせれば、 よりゲームの面白味を高め ることができる。 例えば、 プレーフィ ールド 60内にこの速度情報が異なつ て設定された地形ブロックを用意する。 このようにすれば、 移動体に設けら れた 4個の地勢情報検出センサ 362〜366のそれぞれの位置で、 それぞ れ速度情報が異なったものと設定されるため、 例えば、 移動体をスピン等さ せることが可能となる。 これにより、 プレーヤは、 スピンした移動体から見 える疑似 3次元画像を楽しむことが可能となる。 この結果、 プレーヤが移動 体をスピンさせながら、 そして、 スピンした移動体の視点での疑似 3次元画 像を見ながら車を操縦して競争する、 例えば氷上ドライビングゲーム等のゲ ームを提供できることになる。
なお、 本実施例では、 仮想的な地勢情報検出センサを移動体の 4力所の位 置に設けた場合について説明したが、 本発明はこ'れに限らず、 仮想的な地勢 情報検出センサは少なく とも移動体の 2力所の位置に設ければよい。 例えば. 1方向の傾き、 即ち ø、 もしく は pの方向の傾きのみを地勢情報により反映 させるのであれば地勢情報検出センサを少なく とも 2力所に設ければ十分で ある。 また、 2方向の傾き、 即ち ø及び pの両方向の傾きを地勢情報により 反映させるのであれば、 地勢情報検出センサを少なく とも 3力所に設ければ 十分である。 但し、 移動体が大きいものである場合、 その大きさに応じて り付ける地勢情報検出センサの個数を多くすることが望ましい。
前述したように、 本実施例では、 地勢情報、 例えば地形の凹凸などを合成 される疑似 3次元画像に反映させることでゲームの面白味を高めることがで きた。 これに加え、 本 3次元ゲーム装置により表現される 3次元ゲームが、 例えば未来戦車ゲームなどの戦闘ゲームである場合は、 プレーヤが見る疑似 3次元画像のみならず、 移動体が発射する弾の移動位置、 あるいは当り判定 にもこの地勢情報を反映させ、 ゲームの面白味をより高めることができる。 なお、 ここにいう弾とは、 本 3次元ゲームで使用するマシンガン、 ミサイル 等に限らず、 例えばレーザ等の光線銃、 斧、 矢等のあらゆる種類の武器が含 まれる。
即ち、 地勢情報を弾の移動位置又は当り判定に反映させることにより、 以 下のようにゲームの面白味を高めることができる。 例えば自機の未来戦車 5 0 O Aが敵未来戦車 5 0 0 Bを狙う時は地形の凹凸を考慮しなければならな いので、 より複雑な照準作業が必要となる。 逆に、 敵未来戦車 5 0 0 Bから 攻撃を受けた時には、 高低差をつけて回避したり凹凸を障害物にするなど、 地形の凹凸を利用できる。 また、 凹凸の地形により移動体が傾けば、 これに よる視線の上下動や、 凹凸の地形自体の影で" 死角" を複雑に入り組ませる ことができる。 このように、 地形の凹凸によって "攻撃" "回避" "死角" などがより複雑になり、 戦闘ゲームとしては今までにない面白さが生まれる ことになる。 この様子が図 3 3に示される。
例えば、 自機の未来戦車 5 0 0 Aが敵未来戦車 5 0 0 Bを攻撃をする場合 は以下のようになる。 即ち、 図 3 3の①では、 自機は斜面を登っているため 砲身が上を向き、 弾は敵に当たらない。 また、 ②では、 自機は敵と同じ高さ の平地にいるため、 敵を正面にとらえることができる。 また、 ③では、 下り 坂のため砲身が下を向いてしまい、 弾は敵に当たらない。 また、 ④では、 自 機を上り坂の終りぎわの微妙な場所に位置させれば、 正面に瞰をとらえるこ とができる。 更に、 ⑤では、 自機は坂を登りきつているため高さが合わなく - 敵をとらえることができない。
逆に、 自機の未来戦車 5 0 O Aが、 敵未来戦車 5 0 0 Bからの攻撃を回避 する場合は、 ②以外の場所なら敵の弾は当たらないため、 ②以外の場所に回 避すれば良いことになる。 このように、 地勢情報を弾の移動位置、 当り判定 に反映させることにより、 従来の 2次元ゲームにはない、 より面白味のある ゲームを提供できることになる。
1 - 4 :動作の説明
次に、 本実施例の 3次元ゲーム装置の動作を説明する。
本実施例の 3次元ゲーム装置を用い、 ゲームを開始すると、 そのディスプ レイ 4 4上には、 例えば図 4 ( A ) に示すような画像が表示される。
そしてプレーヤは 5 0は、 自機の未来戦車 5 0 0を操舵レバー 2 2 , 2 4 を用いて操縦し、 敵の未来戦車 5 0 0 Bの攻撃を避けながらこれを撃破する ようゲームを行なう。
このとき、 プレーヤ 5 0による各操舵レーバ 2 2 , 2 4の組み合わせ操作 により、 操舵情報演算部 3 0は、 自機の未来戦車 5◦ O Aの進行方向情報よ り回転方向情報を演算し、 操舵信号 (v XQ , ν γο . ν Θ 0 ) をゲーム空間演 算部 1 0 0へ向け出力する。
このゲーム空間演算部 1 0 0内においては、 前記したようにオブジェク 卜 情報変更部 1 0 8が、 地勢情報記億 1 0 6から地勢情報を読出し、 これによ りォブジュク ト情報記憶 1 0 4に記憶されている 3次元ォジジヱク ト情報の 変更を行なっている。 そして、 このォブジヱク 卜情報変更部 1 ◦ 8では、 前 記したように操舵情報演算部 3 0から入力される操舵 ί言号に基づき、 以下の ようにしてオブジェク ト情報の変更を行なっている。 まず、 ォブジュク ト情報記憶部 1◦ 4より、 未来戦車 500Aのイ ンデッ クス、 例えばイ ンデックス 0が参照され、 ォブジェク 卜情報 ( X 0 、 Y 0 、 Ζ0 、 Θ0 、 00 、 ρθ ) が読み出される。
そして、 読出された未来戦車 50 OAのォブジヱク ト情報は、 入力される 操舵信号に基づき書き替えられ、 オブジェク ト情報記憶部 1 04に書き込ま れる。
このとき、 ォブジヱク ト情報記憶部 104内のォブジヱク ト情報の書き替 えは、 1フレーム毎、 すなわち 1 /60秒毎に以下のように行われる。
(X0 、 Y0 ) → (X0 + VX0 - ( 1 /60) Y0 + VY0 · (1 60) ) (Θ0 ) → (Θ0 + V Θη · (1 /60) ) なお、 説明を簡単にするため、 Ζ座標及び傾き情報 0、 ρ θ については考 えないこととする。
このようにしてディ スプレイの 1フレーム毎に、 オブジェク ト情報記憶部 1 04内に記憶されるォブジヱク ト情報、 例えば未来戦車 50 OAのォブジ ェク ト情報を書き替えることにより、 ディ スプレイ 44上にはプレーヤ 50 の操縦に従って未来戦車 50 OAがプレーフィ ールド 60内を移動するよう ゲーム画面が表示されることになる。 そして、 ディスプレイ 44上に表示さ れる照準 510を用い、 敵の未来戦車 500 Bに照準が合うよう未来戦車 5 ◦〇 Aを移動させてトリガーボタン 22, 24を操作すると、 この引金操作 信号が図 1 2に示す引金判定部 142に入力される。 なお、 前記照準は、 前 記ゲーム用移動体の前方正面に設定されている。
そして、 引金判定部 142において、 マシンガン又はミ サイルの引金を引 いたか否かが判定され、 引いたと判定されるとマシンガン又はミサイルの発 射信号が形成され、 この発射信号が弾処理部 1 20の弾移動演算部 122に 向け出力される。 ', 弾移動演算部 1 22は、 この発射信号の入力により、 オブジェク ト情報記 憶部 104から、 発射信号が入力された瞬間における移動体のォブジュク ト 情報 (X0 、 Y0 、 Z0 、 Θ0 、 00 、 ρθ)を読みに行く。
次に、 弾移動演算部 1 22は、 発射位置が (XQ 、 YG 、 ZG ) で、 発射 方向が (eQ 、 0Q 、 PQ ) で、 発射時間が発射信号が入力された時間であ る弾軌道を演算する。 この場合の、 弾軌道の演算は、 弾移動演算部 1 22に あらかじめ設定されている所定の演算式により行う。 例えば、 宇宙における 未来戦車ゲームを想定し、 重力を考慮しないと、 弾軌道は方向が (θ、 φ、 Ρ 0 ) の直線軌道となる。 これに対して、 地球等における未来戦車ゲームで あって、 重力を考慮するならば放物線軌道となる。 弾軌道を放物線軌道とし たならば、 未来戦車 500 Αの砲身が敵未来戦車 500 Bに完全に向いてい なくても弾を当てることが可能となる。 即ち、 図 3に示すように、 未来戦車 5◦ OAと敵未来戦車 500 bとの間に第 1、 第 2の台地 76、 78が介在 して、 自機から敵が見えない位置からでも、 例えば放物線軌道をもつ長距離 砲により敵を攻撃することが可能となる。 これにより、 3次元地形により敵 から見えない死角の位置から敵を攻撃でき、 ゲームの面白味を一段と高める ことができる。
なお、 この未来戦車ゲームでは、 攻撃の軸線は移動体の正面方向とほぼ一 致しているように設定されているため、 移動体のオブジェク ト情報を、 弾の 発射位置及び発射方向の初期値にほぼそのまま利用できる。 しかし、 ゲーム によっては移動体と攻撃方向、 即ち砲身の方向を個別に操作できるように設 定する場合がある。 そして、 この場合は、 弾移動演算部 122は、 移動体の ォブジェク 卜情報と、 砲身の操作信号により、 弾の発射位置及び発射方向の 初期値を決定することになる。
当り判定部 126では、 弾移動演算部 122で演算された弾の移動位置に、 敵未来戦車 500A、 あるいは障害物 80、 あるいは第 2、 第 3の台地 76 等の地勢情報がないか否かを、 ォブジヱク 卜情報記憶部 104のそれぞれの オブジェク ト情報を参照して確かめ、 状況に応じた当り判定信号を出力する。
つ 例えば、 軌道上に敵未来戦車 5 0 0 Bがあった場合は、 この当り判定信号 により、 敵未来戦車 5 0 0 Bの位置にヒッ トしたことを表す 3次元オブジェ ク ト、 例えば火柱の 3次元ォブジヱク トを形成する。 具体的には、 オブジェ ク ト情報記憶部 1 0 4の中に、 ォブジヱク 卜情報 (Χ、 Υ、 Ζ、 Θ、 0、 p ) が敵未来戦車 5 0 0の位置と同じである火柱のオブジェク ト情報を新たに形 成する。 また、 同時に、 この当たった弾により、 敵未来戦車 5 0 0に与えた ダメージを演算する。 そして、 このダメージの演算により敵未来戦車 5 〇 0 が破壌されたと判断された場合は、 ォブジュク ト情報記憶部 1 0 4に記憶さ れる敵未来戦車 5 0 0 Βのオブジェク ト情報を消去する等の処理を行う。 ま た、 破壊はしなかった力 <、 弾のダメージにより敵未来戦車 5◦◦ Βが変形し たと判断された場合は、 敵未来戦車 5 0 0 Βを表すォブジュク ト情報のィン デックスを変形した敵未来戦車を表すォブジ ク 卜情報のィンデッ クスに変 更する。 これにより、 画像合成部 2 0 0により、 変形した敵未来戦車を映し 出すことができる。
また、 例えば軌道上に障害物 8 0があった場合は、 オブジェク ト情報記憶 部 1 0 4内の障害物 8◦のォブジュク ト情報を消去する。 これにより弾によ り障害物 8◦を破壊することが可能となる。 なお、 この場合、 障害物 8 0の あった位置には、 その位置にあるべき地勢情報を、 地勢情報記憶部 1 0 6内 に形成する。
また、 例えば軌道上に第 2の台地等の地形があった場合は、 その弾は無効 となり、 オブジェク ト情報記憶部 1◦ 4内の弾のオブジェク ト情報を消去す ο
以上のようにして、 本実施例の三次ゲーム装置によれば、 自機未来戦車 5 0 0 Αを任意の方向に直進, 平行移動させ、 あるいは必要に応じて旋回させ ながら、 プレーフィ ールド 6 0内を走行させ、 敵の未来戦車 5 0 0 Bを撃破 するというゲームを行なうことができる。 ( 2 ) 第 2実施例 (マルチプレーヤ型ゲーム装置の実施例)
図 1 7には、 本発明のゲーム装置を、 人対人のマルチプレーヤ型のゲーム 構成 する場合の、 ブロック図の一例が示される。
同図に示すように、 この場合は、 同じ構成の操作部 1 1、 操舵情報演算部 3 0、 ゲーム空間演算部 1 ◦ 0、 ォブジェク ト情報記憶部 1 0 4、 画像合成 部 2 0 0、 C R T 4 4を 2台以上の複数台用意する。 そして、 同図に示すよ うに、 ォブジェク 卜情報記憶部 1 0 4に記憶されるォブジヱク 卜情報を共通 化させることで、 本 3実施例のゲーム装置を、 前記の図 5に示したマルチプ レーャ型のゲーム構成とすることができる。 この場合、 共通化するデータと しては、 最低限、 移動体のォブジヱク トデータを共通化すればよい。 また、 ミサイル、 マシンガン等の弾で攻撃するゲーム構成とする場合は、 この弾に 関するオブジェク ト情報についても共通化する。 そして、 共通化の方法は、 通信等で行っても良いし、 ォブジヱク ト情報記憶部 1 0 4、 1 0 4が設置さ れる基板等を共通化させて接続してもよい。
なお、 このようにマルチプレーヤ型とする場合、 仮想 3次元を構成する 3 次元ォブジヱク トを全て共通化させる必要はなく、 例えば、 プレーヤ 5 O A とプレーヤ 5 0 Bが見ることができる仮想 3次元ゲーム空間の構成を微妙に 異ならせることで、 よりバラエティ一に富んだゲーム空間を構成することも できる。
また、 本実施例のゲーム装置をマルチプレーヤゲームとする構成は、 図 1 7に示すものには限られない。 例えば、 1フレームである ( 1 6 0 ) 秒の 間に、 図 1 5 ( a ) に示すフレームデータ及びそれに連なるオブジェク トデ 一夕、 ポリゴンデータ構成されるデータ群が複数存在できるよう設定する。 このようにすれば、 複数存在するデ一夕群のそれぞれのフレームデータによ り、 それぞれ異なった視点位置、 視点方向の設定ができることになる。 この ように設定すれば、 ハー ドウェアのスピー ド上、 許される範囲で、 1つのゲ —ム空間演算部 1 0 0、 画像合成部 2 0 0により、 視点位置、 視点方向が異 なる複数の疑似 3次元ゲーム画像を形成できることになる。 そして、 この異
- 3 1 — W なる視点位置、 視点方向から見た疑似 3次元画像も、 それぞれのプレーヤの C R Tに表示することで、 図 1 7に示すように複数台の画像合成部、 ゲーム 空間演算部を設けなくても、 3次元ゲーム装置を実現できることになる。
( 3 ) 第 3実施例 (頭部装着体を使用した実施例)
3 - 1 : 頭部装着体
本実施例に係る 3次元ゲーム装置は、 例えばプレーヤが頭部装着体を装着 しゲームを行う構成とすることもできる。
この頭部装着体は、 液晶ディスプレー等の表示装置を、 プレーヤの視野を 覆うようにプレーヤの目の前に取り付けることで構成される。 そして、 この 頭部装着体には、 空間センサと呼ばれる装置が取り付けられ、 これによりプ レーャの 3次元情報を検出させる。 そして、 この空間センサからの検出信号 に応じた映像を生成し、 これを表示装置に表示してやることで、 例えば普段 何気なく行っている見回すというような動作を、 仮想空間において、 現実空 間と同じような臨場感で体験することができることとなる。
図 1 8 ( a ) 、 (b ) には、 この頭部装着体 6 0 9の形状の一例が示され る。
図 1 8 ( a ) は、 プレーヤ用の空間センサ 6 1 2、 画像表示装置 6 2 0、 スピーカ 6 2 2を、 ヘルメ ッ ト 6 1 4に設けて構成される装着体 6 0 9が示 される。 このタイプの装着体によれば、 ヘルメ ッ ト 6 1 4をプレーヤが装着 することにより外部と完全に隔離した世界を作ることができるため、 より臨 場感溢れる仮想現実を楽しむことができる。 これに対して図 1 8 ( b ) に示 す装着体 6 0 9は、 プレーヤ用の空間センサ 6 1 2、 画像表示装置 6 2 0、 スピーカ 6 2 2が、 装着バンド 6 1 6に一体的に取り付けて構成されている ため、 より軽快感溢れる装着感を実現することができる。 なお、 本実施例に 使用される装着体としては、 図 1 8 ( a ) 、 ( b ) に示す形状のものに限ら ず種々の形状のものを使用することが可能である。
画像表示装置 6 2 0は、 プレーヤの視界を覆うようにプレーヤの目の前に 取り付けられ、 画像合成部 2 0 0から接続線 6 1 8を通じて送られてく る画 像情報を画像表示するものである。 この場合の画像表示方法としては、 頭部 装着体 6 0 9を小型化し装着感を向上させるベく、 例えばカラー液晶ディ ス プレー、 小型ブラゥン管等の小型のディ スプレーを用いることが望ましい。 また、 映像に目の焦点を合わせるべく、 更に、 視野角を広げて臨場感を向上 させるべく光学系により補正することが望ましい。
ここで、 小型ディスプレーの形状としては、 プレーヤの顔の形状に沿って プレーヤの視界を覆うように形成し、 パノラマ映像効果を得るような形状と してもよいし、 2つの小型ディスプレーをそれぞれプレーヤの両眼の前に形 成するような形状としてもよい。 後者の場合は、 両眼に与えられた平面的な 2次元画像に視差のある画像を与えること等により、 3次元的な立体感を与 えるような形成することが望ましい。 このように構成すれば、 物体の大きさ や、 物体までの距離を把握することができるようになるため、 より現実世界 に近づいた仮想世界を作り出すことが可能となるからである。
空間センサ 6 1 2は、 プレーヤの 3次元情報を検出するセンサであり、 図 1 8に示すようにプレーヤに取り付けられ、 接铳線 6 1 8を介して図 1 9に 示すように画像合成部 2 0 0側に接続されている。 この空間センサ 6 1 2は、 所定の位置に設けられた空間センサ用信号発生器からの信号によりプレーヤ の 3次元情報を検出できるよう形成されている。 この 3次元情報の検出手法 としては、 空間センサ 6 1 2を直交した 3つのコイルで構成し、 空間センサ 用信号発生器から発生する磁場により、 空間センサ 6 1 2のコイルに誘起さ れる電流を検出し、 その電流値から位置関係を検出する。 これによりプレー ャの 3次元情報が検出されることとなる。
なお、 空間センサ 6 1 2及び空間センサ用信号発生器による 3次元情報の 検出方法としては、 上記の動磁界を利用したものに限らず、 例えば、 静磁界 を利用したもの、 超音波、 赤外線を利用したものを用いてもよい。
図 1 9には、 このような頭部装着体 6 0 9を本実施例に適用した場合の構 成の一例が示される。 同図に示すように、 頭部装着体 6 0 9を使用する場合は、 画像台成部 2 0 0内の処理部 2 1 4内に座標抽出部 6 8 2を新たに設け、 それ以外の構成は これまで述べた実施例と同様の構成となる。 ここで、 座標抽出部 6 8 2は、 前記した空間センサ 6 1 2から入力された検出信号により、 プレーヤの視点 位置及び視点方向を抽出する。 そして、 この視点位置及び視点方向の情報を 用いて、 プレーヤの視点位置及び視点方向における仮想視界画像を形成する c
この場合の、 仮想視界画像の形成手法は、 前記の図 1 6での演算手法と同 様の手法に行う。 即ち、 処理部 2 1 4は、 ゲーム空間演算部 1 0 0からォブ ジュク ト情報を、 3次元画像情報記憶部 2 0 4からこれに対応した 3次元画 像情報を読み出し、 これらの情報から、 図 1 5に示すフォーマツ 卜のデータ を形成する。 この際、 前記の座標抽出部 6 8 2で抽出したプレーヤの視点位 置及び視点方向の情報を、 図 1 5 ( a ) に示すフレームデータ内に含ませる c 次に、 座標演算部 2 1 6は、 このフォーマツ 卜のデータを読み出し、 この 各頂点座標等に対し各種の座標変換演算処理を行う。 この場合、 視点座標系 への変換は、 フレームデータ内に含ませられた前記のプレ一ャの視点位置及 び視点方向の情報を用いて行う。
その後、 クリ ツピング処理部 2 1 8、 透視変換部 2 2 0、 ソーティ ング処 理部 2 2 2において各種の処理が行われ、 画像形成部 2 4 0でポリゴン内で 画像情が演算され、 プレーヤの装着する頭部装着体 6 0 9に備え付けられた 画像表示装置 6 2 0に画像出力される。
このような構成により、 プレーヤは仮想現実世界でのゲームを楽しむこと ができる。 即ち、 表示画像は、 従来のように C R T等の表示装置に映し出さ れるのではなく、 プレーヤの視界を覆うように装着された画像表示装置 6 2 0に映し出される。 そして、 この画像表示装置 6 2◦には、 前記の空間セン サ 6 1 2、 座標抽出部 6 8 2を用いて、 プレーヤの視点位置、 視点方向にお ける仮想視界画像が映し出される。 従って、 プレーヤは、 仮想 3次元空間で の任意の方向での視界画像を、 頭部装着体 6 0 9が装着された自分の頭を向 けることで見ることができることとなる。
この結果、 例えば後ろを振り返ることで、 追いかけて来る相手の戦車を確 認することができる。
従って、 より現実世界に近づいたゲーム空間を形成することができ、 ゲー ムの面白さ、 臨場感、 緊迫感を飛躍的に向上させることができる。
( 4 ) 第 4実施例 (実空間映像と仮想視界画像とを合成した実施例) さて、 前述した頭部装着体を用いた 3次元ゲーム装置において、 映像カメ ラにより撮像される実空間映像と画像形成部から出力される仮想視界画像と を合成できれば、 更に現実味溢れる 3次元ゲーム装置を実現できる。 図 2 0 には、 このような画像合成が可能な実施例のブロック図が示される。 また、 図 2 1 ( a ) には、 この 3次元ゲ一厶装置の外観図が示される。
図 2 1 ( a ) において、 本物に極めて似せて作られた未来戦車 6 3◦は、 内側が全てブル一の色に塗られたドーム 1の中のフロア 4の上に設置されて いる。 ここで、 このフロア 4も ドーム 1の内側と同様に全てブルーの色に塗 られている。 そして、 この未来戦車 6 3 0には、 プレーヤ 6 5 0が搭乗して いる。
未来戦車 6 3 0は、 例えば、 操縦席 6 3 6、 左側駆動部 6 3 2、 右側駆動 部 6 3 4、 操舵レバー 6 4 0、 6 4 1、 計器盤 6 4 4等を含んで構成されて いる。 そして、 後述するように、 プレーヤ 6 5 0は映像カメラ 6 1 0により これらの動きの変化を見ることができることとなる。
計器盤 6 4 4は、 例えばスピー ドメータ、 燃料計、 警告計 (図示せず) を 含んでおり、 プレーヤ 6 5 0の運転状態により変化するように構成されてい る。 即ち、 プレーヤ 6 5 0の操舵レバ一6 4◦、 6 4 1への操作に応じて、 スピードメータが変化し、 また、 ゲーム終番になり燃料が尽きてく る'と燃料 計がこれを示すように構成される。 更に、 未来戦車 6 3 0のエンジン等に ト ラブルが生じると警告計が点滅し、 プレーヤ 6 5 0は映像カメラ 6 1 0によ りこれを知ることができる。
また、 未来戦車 6 3 0の下部には、 姿勢制御部 6 2 4が設けられ、 プレー フィ一ルド 6 0の地勢情報、 プレーヤ 6 5 0の操作信号に応じて、 未来戦車 6 3 0の姿勢変化が制御される。 この他にも、 姿勢変化を利用して、 プレー ャに加速感、 遠心力が与えられるような制御も行われる。 これにより、 姿勢 制御部 6 2 4は、 例えば図 2 1 ( b ) に示す斜面 7 5を未来戦車 6 3 0が通 過した場合には、 この斜面の角度に応じた姿勢の制御を行うことになる。 こ の結果、 より現実世界に近づいた仮想世界を体験できる。 また、 未来戦車 6 3 0が通過した地形ブロックが砂利道であった場合は、 これに応じて姿勢制 御部 6 2 4は、 細かな振動を発生させることができる。 これらの姿勢制御は、 ゲーム空間演算部 1 0 0により行われ、 制御するための情報は、 前述した地 勢情報記憶部 1 0 6に格納された地勢情報を用いて生成する。 これにより、 前述した実施例のように地勢情報を疑似 3次元画像に反映するのみならず、 姿勢制御にもこの地勢情報を反映させることができ、 ゲームの面白味を格段 に向上させることができる。
プレーヤ 6 5 0には、 頭部装着体 6 0 8がプレーヤ 6 5 0の視界を覆うよ うに装着されている。 この頭部装着体 6◦ 8の構成は、 図 1 8 ( c ) 、 ( d ) に示すように、 図 1 8 ( a ) 、 ( b ) に示した頭部装着体 6 0 9に対して、 映像カメラ 6 1 0が新たに加わった構成となっている。
この映像カメラ 6 1 0は、 プレーヤ 6 5◦が現実世界を見るために使用す るものであり、 例えば図 1 8 ( c ) 、 ( d ) に示すように、 プレーヤ 6 5〇 の視点位置 (目の位置) に近い位置に設定し、 そのアングルもプレーヤ 6 5 0の視界方向と一致するように設定することが望ましい。 このように設定す れば実際にプレーヤ 6 5 0から見える現実世界の映像を、 より違和感なく見 ることができるからである。 なお、 映像カメラ 6 1 0の撮像手段としては、 例えば高解像度 C C D等を用いる。
ドームには空間センサ用 ί言号発生器 6 1 3が設けられており、 これとプレ ーャ 6 5 0の頭部に設けられた空間センサ 6 1 2により、 プレーヤの 3次元 94/22544 情報を 出することができる。
次に、 本実施例による画像合成の手法について以下に説明する。
本実施例では、 図 2 1 ( b ) に示すように、 映像カメラ 6 1 0で撮影した 実 3次元空間における実空間映像 7 0 0と、 仮想 3次元空間における仮想視 界画像 7◦ 2とを画像台成して、 表示画像 7 0 4を形成している。 そして、 この表示画像 7 0 4は、 接続線 6 1 8を通じて画像表示装置 6 2◦に出力さ れ、 実際にプレーヤ 6 5 0が見る視界画像となる。
この画像合成を、 本実施例ではブル一マツ ト合成により行っている。 つま り、 未来戦車 6 3 0及びその付属物、 自分自身であるプレーヤ 6 5◦等、 以 外のもの、 即ち ドーム 1の内側及びフロア 4を全てブルーの色にしておく。 このようにすると、 実空間映像 7 0◦において、 未来戦車 6 3 0、 操舵レバ - 6 4 O 6 4 1、 プレーヤの手 6 5 4等以外は全てブルーの背景となる。 そして、 この実空間映像 7 0 0のうちブルーの色の部分の画素を全て空き ド ッ 卜に設定し、 これに仮想視界画像 7 0 2に重ね合わることにより表示画像 7〇 4を得ることができる。 この場合、 例えばドーム 1には主にプレーヤ 6
5 0から見える背景が、 フロア 4には、 未来戦車 6 3 0が走っているプレー フィールド 6 0の路面状況が映し出される。
この場合の 3次元ゲーム装置の実施例のプロック図が図 2 0に示される。 図 2 0に示す.実施例は、 図 1 9に示す実施例に、 新たに映像カメラ 6 1 0 が接続される表示画像合成装置 6 8 0、 姿勢制御部 6 2 4が加わった構成と なっている。 従って、 空間センサ 6 1 2、 座標抽出部 6 8 2によりプレーヤ
6 5◦の 3次元情報を抽出し、 これによりプレーヤ 6 5 0から見える仮想視 界画像 7 0 2が画像形成部 2 4 0から出力される。
表示画像合成装置 6 8 0では、 この仮想視界画像 7 0 2と、 映像カメラ 6 1 ◦で撮像された実空間映像 7 0 0との画像合成が行われる。 この画像合成 の手法としては種々の手法が考えられるが、 本実施例では例えばブルーマツ ト合成による手法によってこれを行っている。 図 2 2には、 この場合の表示 画像合成装置 6 8◦の構成の詳細が示されている。 即ち、 図 2 2において、 映像カメラ 6 1 0から入力された実空間映像 7 0 0を表す画像信号は、 表示画像合成装置 6 8 0内においてまずフィルター 9 0 0に通され R G Bの 3原色の成分に分けられる。 そして、 これらの成分の それぞれが例えば 8ビッ トのデジタルデータに、 A / D変換回路 9 0 2にて A Z D変換され、 これにより各画素毎に 2 4ビッ 卜の R G Bデジタルデータ が求められる。 そして、 この実空間映像 7 0 0における各画素の 2 4ビッ ト の R G Bデジタルデータ力く、 ドーム 1の裏側及びフロア 4に塗られたブル一 の色の 2 4ビッ 卜の R G Bデジタルデータと一致するか否か力、 空き ドッ ト 判定回路 9◦ 4にて各画素毎に演算され、 判断される。 そして、 この判断結 果は、 空き ドッ トメモリ 9 0 6に書き込まれる。 空き ドッ トメモリ 9 0 6は、 表示画像の全ての画素に対応した 1 ビッ トメモリの構成となっており、 各画 素毎に空き ドッ トか否かの空き ドッ ト判定データが 1 ビッ トデータとして書 き込まれる。
表示画像合成装置 6 8 0には、 表示画像の各画素に対応したフィールドバ ッファ 9 1 0が内蔵されている。 そして、 データ制御部 9 0 8により、 空き ドッ トメモリ 9◦ 6に書き込まれている空き ドッ ト判定データが参照され、 フィールドバッファ 9 1 0の各画素位置に実空間映像が書き込まれる。 即ち、 空き ドッ ト判定データにより、 その画素が空き ドッ 卜であると判断された場 合は、 フィールドバッファ 9 1 0のその画素位置には、 実空間映像は書き込 まれない。 逆に、 空き ドッ ト判定データにより、 その画素が空き ドッ トでは ないと判断された場合には、 実空間映像の 2 4ビッ 卜の R G Bデジタルデー 夕がそのまま書き込まれることとなる。
次に、 データ制御部 9 0 8により、 空き ドッ トメモリ 9 0 6に書き込まれ ている空き ドッ ト判定データが参照され、 フィールドバッファ 9 1 0の各画 素位置に、 画像形成部 2 4 0により演算された仮想視界画像情報が重ね書き される。 即ち、 空き ドッ ト判定データにより、 その画素が空き ドッ トである と判断された場合は、 仮想視界画像情報がそのまま書き込まれる。 逆に、 空 き ドッ ト判定データにより、 その画素が空き ドッ トではないと判断された場 合には、 なにも書き込まれず、 この画素位置には実空間映像が表示されるこ ととなる。
以上の書き込みを行なつた後、 デ一夕制御部 9 0 8によりフィールドバッ ファ 9 1 0から各画素位置の画像情報データが読み出される。 そして、 この 画像情報データは接続線 6 1 8を通して画像表示装置 6 2 0に画像出力され, プレーヤ 6 5 0は、 実空間映像 7 0 0に仮想視界画像 7 0 2が組み込まれた 表示画像 7 0 4をリアルタイムに見ることができることとなる。
なお、 以上の画像情報の書き込みと、 読み出しは、 例えばフィールドバッ ファ 7 1 0を 2画面分の構成とすることにより、 同時に行うように構成する ことがより望ましい。
さて、 ゲーム空間演算部 1 ◦◦では、 音声合成部 6 7 8を通じてスピーカ 6 2 2より出力される音声信号、 及び、 姿勢制御部 6 2 4への姿勢制御信号 が生成され、 これにより音声合成及び姿勢制御が行われる。
例えば姿勢制御は以下のようにして行われる。 まず、 未来戦車のォブジヱ ク 卜情報が、 地勢情報記憶部 1 0 6の地勢情報を利用して、 ォブジュク 卜情 報変更部 1 ◦ 8により変更される。 そして、 この変更されたオブジェク ト情 報、 即ち地勢情報が反映されたオブジェク ト情報 (X G 、 Y G 、 Z 0 、 Θ 0 、 Φ 0 ρ θ ) を用いて姿勢制御信号が生成される。 そして、 この姿勢制御信 号は姿勢制御部 6 2 4に出力され、 これにより姿勢制御が行われることにな る o
以上の構成の本実施例により、 プレーヤ 6 5 0は、 極めて本物に近い未来 戦車 6 3◦の左側駆動部 6 3 2、 右側駆動部 6 3 4等の動きを、 映像カメラ 6 1 0を通じて実際に自分の目で確認しながら、 仮想 3次元空間内で未来戦 車 6 3 0を自由自在に操縦することができる。 これにより操作性も大幅に向 上し、 また、 より現実に近い仮想現実世界を表現できることとなる。
なお、 表示画像合成装置 6 8 0における画像合成の手法としては、 上記し たものに限らず、 例えばブル一ではなく レツ ドを用いて画像合成したり、 複 数の色を用いて画像合成したり、 種々の手法を用いることができる。 ( 5 ) 他の実施例
なお、 本発明は上記実施例に限定されるものではなく、 本発明の要旨の範 囲内で種々の変形実施が可能である。
例えば、 本発明に係る 3次元ゲーム装置は、 種々のハード構成の装置に適 用できる。 即ち、 例えば業務用のビデオゲーム装置、 あるいは、 前記したよ うなア トラクショ ン用のゲーム装置、 または、 例えば図 2 3に示すような構 成の家庭用ビデオゲーム装置にも適用できる。
この家庭用ビデオゲーム装置は、 ゲーム用カートリ ッジ 4 0 1及びゲーム 機本体 4 0 0とを含み、 両者はコネクタ 4 9 8により接続される。 さらに、 ゲーム機本体 4 0 0には図 2と同様な構成の操舵レバー 1 2 , 1 4および攻 撃用ボタン 2 0を含む操作部 4 0 8が着脱自在に接続される。
ゲーム用カー トリ ッジ 4◦ 1は、 補助演算処理部 4 1 0、 第 1の記憶部 4 8 0、 第 2の記億部 4 9◦を含んで構成される。 第 1の記憶部 4 8 0は、 ゲ ームプログラム等が記憶されるものであり、 例えば不揮発性メモリ、 書替え 可能なメモリなどで形成され、 地勢情報記憶部 1 0 6、 オブジェク ト情報記 憶部 1 0 4、 3次元画像情報記憶部 2 0 4を含んで構成される。 また、 補助 処理演算部 4 1 0は、 操舵情報演算部 3 0、 画像供給部 2 1 2、 画像形成部 2 4 0、 ォブジヱク ト情報変更部 1 0 8、 制御部 2 1 4を含んで構成される。 更に、 第 2の記憶部 4 9 0は書換え可能なメモリで構成されている。
この家庭用ビデオゲーム装置は、 図 1に示した実施例とほぼ同様の動作を する。 即ち、 第 1の記憶部 4 8 0に記憶されたォブジヱク 卜情報および地勢 情報と、 操作部 4 0 8からの操作信号とを利用して、 中央処理部 1 0 2及び 補助演算処理部 4 1 ◦によりゲーム空間の設定、 即ちォブジヱク ト情報の設 定が行われる。 次に、 このォブジヱク ト情報と第 1の記憶部 4 8 0に記憶さ れた 3次元画像情報とを利用して、 補助処理演算部 4 1 0、 中央処理部 1 0 2により疑似 3次元画像が演算され、 その結果は、 第 2の記憶部 4 9 0に記 憶される。 その後、 この記憶された画像情報は、 映像処理部 4 0 4、 必要に 応じてビデオ R A M 4 0 6を介して映像出力される。
この構成の家庭用ビデオゲームによれば、 例えば画像合成の手法を変更す る場合、 高価なゲーム機本体 4 0 0をほとんど変更する必要がなく、 ゲーム 用カートリ ッジ 4◦ 1の補助演算処理部 4 1 0の演算処理を変更するだけで 対応できることとなる。
また、 前記各実施例においては、 第 1操舵部および第 2操舵部として図 2 に示すような操舵レバーを用いる場合を例にとり説明したが、 本発明はこれ に限らず、 例えば図 2 4に示すような構成のものを用いてもよい。 例えば、 操作部本体上に右手親指操作用の十字ボタン 1 2と、 左手親指操作用の十字 1 4とをそれぞれ第 1および第 2の操舵部として設け、 移動体の第 1および 第 2の推進べク トルを入力するようにしてもよい。 さらに操作部本体の側面 に、 右手および左手各人差し指で操作する操作ボタン 2 2 , 2 4を、 マシン ガン用およびミサィル用の各トリガボタンとして設けてもよい。 このように、 第 1および第 2の操舵部、 攻撃用操作ボタンの構成は、 必要に応じて各種形 態のものを採用することができる。
また、 前記実施例では、 本発明の対戦型のビデオゲームに適用した場合を 例にとり説明したが、 本発明はこれに限らずこれら以外の各種ゲーム、 例え ば 3次元ゲーム空間として設定された複雑な迷路等を、 プレーヤが移動体を 操縦しながらく ぐり抜けるなどといったようなゲームに対しても適用可能で あることはいうまでもない。

Claims

請 求 の 範 囲
1 . 3 6 0度の範囲で推進する第 1の推進部及び第 2の推進部を有するゲ 一ム用移動体をプレイヤーが操舵するよう形成された操舵手段と、
前記操舵手段から出力される操舵信号に基づき、 前記ゲーム用移動体が所 定のゲーム空間内を移動するゲーム演算を行い、 ディスプレイ上に表示する ゲーム演算手段と、
を含み、
前記操舵手段は、
プレーヤの右手の操作により、 その操作方向に応じて前記第 1の推進部の 第 1の推進べク トルを 3 6◦度の範囲で入力する第 1操舵部と、
プレーヤの左手の操作により、 その操作方向に応じて前記第 2の推進部の 第 2の推進べク トルを 3 6 0度の範囲で入力する第 2操舵部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報及び回転方向情報を演算し操舵信号として出力する操舵情報演算 部と、
を含み、 プレーヤの右手及び左手の組み合わせ操作により、 前記移動体を 操舵し、 前記ゲーム空間内で前記移動体を任意の方向に移動、 回転させるよ う形成されたことを特徴とするビデオゲーム装置。
2 . 3 6◦度の範囲で推進する第 1の推進部及び第 2の推進部を有するゲ ーム用移動体をプレイヤ一が操舵するよう形成された操舵手段と、
敵または標的を攻撃するためプレーヤが操作するうよう形成された攻撃用 操作手段と、
前記操舵手段から出力される操舵信号に基づき、 所定のゲーム空間内にお いて前記ゲーム用移動体を移動させ、 かつ前記攻撃用操作手段から出力され る操作信号に基づき敵又は標的を攻撃するようゲーム演算を行い、 ディスプ レイ上に表示するゲーム演算手段と、
を含み、 前記操舵手段は、
プレーヤの右手の操作により、 その操作方向に応じて前記第 1の推進部の 第 1の推進べク トルを 3 6 0度の範囲で入力する第 1操舵部と、
プレーヤの左手の操作により、 その操作方向に応じて前記第 2の推進部の 第 2の推進べク トルを 3 6 0度の範囲で入力する第 2操舵部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報及び回転方向情報を演算し操舵信号として出力する操舵情報演算 部と、
を含み、 プレーヤの右手及び左手の組み合わせ操作により、 前記移動体を 操舵し、 前記ゲーム空間内で前記移動体を任意の方向に移動、 回転させなが ら前記敵又は標的に照準を合わせるよう形成されたことを特徴とするビデオ ゲーム装置。
3 . 請求項 2において、
前記照準は、
前記ゲーム用移動体の前方正面に設定されることを特徴とするビデオゲー ム装置。
4 . 請求項 1 ~ 3のいずれかにおいて、
前記操舵情報演算部は、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の推 進方向情報を演算する方向演算部と、
前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記移動体の回 転情報を演算する回転演算部と、
を含むことを特徴とするビデオゲーム装置。
5 . 請求項 1 ~ 4のいずれかにおいて、
前記操舵情報演算部は、 前記第 1の推進べク トル、 第 2の推進べク トルに基づき、 前記推進方向情 報として推進方向及び推進力を演算するとともに、 前記回転情報として回転' 方向及び回転力を演算することを特徴とするビデオゲーム装置。
6 . 請求項 1〜 5のいずれかにおいて、
前記第 1および第 2の操舵部は、
操作量に対応した第 1および第 2の推進部の推進力を入力するよう形成さ れたことを特徴とするビデオゲーム装置。
7 . 請求項 1〜 6のいずれかにおいて、
前記第 1および第 2の操舵部は、
所定の基準位置から任意方向へ傾動自在に支持され、 傾動方向および傾動 量に応じて前記第 1および第 2の推進部の推進べク トルを入力する右手およ び左手用の操舵レバーとして形成されれたことを特徴とするビデオゲーム装
8. 請求項 7において、
前記各操舵レバーが基準位置にある場合の X , Y軸の入力を 0とするとと もに、 その左右方向を X $も入力方向、 前後方向を Y軸入力方向に設定し、 か っ両操舵レバーについての正の向きを同一に設定し、 前記第 1 , 第 2の操舵 レバーの操作方向及び傾き角から X、 Y座標入力成分を検出し、 対応する第 1, 第 2の推進部の第 1推進べク トル V B 及び第 2推進べク トル V A を出力 する操舵方向検出手段を含み、
前記第 1、 第 2の推進部は、
前記移動体に対して左右対称の位置に配置され、
前記操舵情報演算部は、
各推進部の中間位置を基準点 0とし、 この基準点の右左方向を X軸入力方 向とし、 かつ前記操舵レバーの正の向きに対応した X軸入力方向を X座標正 方向とするとともに、 前記基準点の前後方向を Y軸入力方向とし、 かつ前記 操舵レバーの正の向きに対応した Y幸由入力方向を Y座標正方向に設定し、 前記方向演算部は、
前記各推進部に作用する第 1および第 2の推進べク トル VB , VA の 方 向への各推進速度成分 νχΒ, νχΑおよび γ方向への各推進速度成分 νγΒ, V ΥΑを用い、 次式に基づき移動体の Xおよび γ方向への推進方向速度 νχ(Γ V γ(]成分を演算し、 これを推進方向情報として出力するよう形成され、
VX0= VXA+ VXB
VY0= VYA+ VYB
前記回転演算部は、
rで表された各推進部の X座標の絶対値と、 前記第 1及び第 2の推進べク トルを用い、 次式に基づき、
Υ Θ0 =( VYA- VYB)
移動体の回転角速度 νΘ() を演算し、 これを回転情報として出力するよう形 成されたことを特徴とするビデオゲーム装置。
9. 請求項 1〜8のいずれかにおいて、
前記ゲーム演算手段は、
予め設定されたゲームプログラムおよび前記操舵情報演算部から出力され る前記操舵信号に基づき、 仮想 3次元ゲーム空間内をプレ一ャの操縦するプ レーャ移動体が移動するゲーム演算を行なうゲーム空間演算手段と.、 前記仮想 3次元ゲーム空間を、 前記移動体の方向から見た視界画像を演算 し前記疑似 3次元画像を合成し前記ディスプレイ上に表示させる画像合成手 段と、
を含み、 前記疑似 3次元画像を見ながら前記操舵手段を操作して、 前記移 動体にて仮想 3次元空間内を移動する 3次元ゲームを行なうことを特徴とす るビデオゲーム装置。
1 0 . 請求項 9において、
前記ゲーム空間演算手段は、 .
少なく とも前記移動体の 3次元ォブジェク 卜の 3次元位置及び 3次元方向 情報がォブジヱク ト情報として記憶されるォブジヱク ト情報記億部と、 前記仮想 3次元空間内において前記移動体が移動する地形の地勢情報が記 憶される地勢情報記憶部と、
前記ォブジェク ト情報記憶部から前記移動体のォブジェク 卜情報を読み出 し、 この移動体のオブジェク ト情報を前記地勢情報記憶部から読み出された 地勢情報を用いて変更するォブジ ク ト情報変更部と、
を含み、
前記画像合成手段は、
ゲーム空間を構成する 3次元ォブジ ク ト及びゲーム空間に登場する 3次 元オブジェク トの 3次元画像情報が記憶される 3次元画像情報記憶部と、 前記ォブジェク 卜情報記憶部からのオブジェク ト情報と前記 3次元画像情 報記億部からの 3次元画像情報より、 前記仮想 3次元空間に配置された前記 移動体の方向から見えるゲーム空間の視界画像を演算し疑似 3次元画像を合 成出力する画像演算部と、
を含み、 地勢情報が反映された疑似 3次元画像を画像合成することを特徴 とするビデオゲーム装置。
1 1 . 請求項 1 ◦において、
前記移動体は、 前記攻撃用操作手段からプレーャが入力した発射信号によ り弾またはミザイルを発射するよう形成され、
前記ゲーム空間演算手段は、
前記移動体から発射される弾またはミザイルの演算処理を行う弾処理部を 含み、
前記弾処理部は、
前記ォブジュク ト情報変更部により変更された移動体のォブジュク ト情報 と、 前記操作部から入力された発射 ί言号とに基づき弾またはミサイルの移動 位置を演算する弾移動演算部を含むことを特徴とするビデオゲーム装置。
1 2. 請求項 1 1において、
前記ォブジェク ト情報記憶部は、
標的のォブジヱク ト情報が記憶されるよう形成され、
前記弾処理部は、
前記弾移動演算部により演算された弾またはミサイルの移動位置と前記ォ ブジヱク ト情報記憶部に記憶された標的のォブジヱク ト情報に基づき、 弾ま たはミザイルの当り判定を行う当り判定部を含むことを特徵とするビデオゲ —ム装置。
1 3 . 請求項 1 0 ~ 1 2のいずれかにおいて、
プレーヤが実際に搭乗する実空間上に設置された搭乗体を含み、 前記搭乗体は、
前記地勢情報に対応してプレーヤの姿勢制御を行う姿勢制御部を含み、 地勢情報が反映された搭乗体の搭乗感覚を仮想的に体験できるよう形成さ れたことを特徴とするビデオゲーム装置。
1 4 . 請求項 9〜 1 3のいずれかにおいて、
実際の 3次元空間におけるプレーヤの 3次元情報を検出するプレーヤ用空 間センサを含み、
前記ディスプレイは、
プレーヤの視野を覆うように装着可能に形成され、
前記画像合成手段は、
前記プレーヤ用空間センサからの検出信号に基づいて、 仮想 3次元ゲーム 空間におけるプレーヤの位置及び方向情報を抽出する座標抽出部を含み、 仮想 3次元ゲーム空間におけるプレーヤの視界画像を演算し前記ディスプ レイに疑似 3次元画像を表示するよう形成されたことを特徴とするビデオゲ ーム装置。
1 5 . 請求項 1 4において、
プレーヤに装着され、 プレーヤから見える実空間映像を撮像する撮像手段 を含み、
前記画像合成手段は、
前記仮想 3次元空間におけるプレーヤの視界画像と前記撮像手段で撮像さ れる実空間映像とを合成する表示画像合成部を含み、
前記ディスプレイに仮想 3次元空間における視界画像と実空間映像とが合 成された疑似 3次元画像を表示するよう形成されたことを特徵とするビデオ ゲーム装置。
PCT/JP1994/000483 1993-03-26 1994-03-25 Video game machine WO1994022544A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
GB9423840A GB2283302B (en) 1993-03-26 1994-03-25 Video game system
US08/343,503 US5704837A (en) 1993-03-26 1994-03-25 Video game steering system causing translation, rotation and curvilinear motion on the object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5/92142 1993-03-26
JP5092142A JP2799126B2 (ja) 1993-03-26 1993-03-26 ビデオゲーム装置及びゲーム用入力装置

Publications (1)

Publication Number Publication Date
WO1994022544A1 true WO1994022544A1 (en) 1994-10-13

Family

ID=14046193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1994/000483 WO1994022544A1 (en) 1993-03-26 1994-03-25 Video game machine

Country Status (4)

Country Link
US (1) US5704837A (ja)
JP (1) JP2799126B2 (ja)
GB (1) GB2283302B (ja)
WO (1) WO1994022544A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0844587A1 (en) * 1996-06-05 1998-05-27 Sega Enterprises, Ltd. Image processor, image processing method, game machine and recording medium
TWI747337B (zh) * 2020-06-20 2021-11-21 續天曙 射擊遊戲系統
TWI775044B (zh) * 2020-02-12 2022-08-21 續天曙 一種具有個人螢幕的射擊遊戲裝置

Families Citing this family (372)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5766079A (en) * 1994-06-20 1998-06-16 Sega Enterprises Ltd. Object direction control method and apparatus
US6241611B1 (en) 1995-05-10 2001-06-05 Nintendo Co., Ltd. Function expansion device and operating device using the function expansion device
DE69623903T2 (de) 1995-05-10 2003-05-15 Nintendo Co Ltd Betätigungsvorrichtung mit analogem steuerknüppel
KR100258391B1 (ko) * 1995-05-10 2000-06-01 야마우치 히로시 아날로그 죠이스틱을 이용한 화상처리시스템
US20100131081A1 (en) * 1995-05-30 2010-05-27 Brown David W Systems and methods for motion control
US20060206219A1 (en) * 1995-05-30 2006-09-14 Brown David W Motion control systems and methods
US5691897A (en) * 1995-05-30 1997-11-25 Roy-G-Biv Corporation Motion control systems
US7137107B1 (en) 2003-04-29 2006-11-14 Roy-G-Biv Corporation Motion control systems and methods
US7139843B1 (en) 1995-05-30 2006-11-21 Roy-G-Biv Corporation System and methods for generating and communicating motion data through a distributed network
JP3734045B2 (ja) * 1995-08-10 2006-01-11 株式会社セガ 仮想画像生成方法及びその装置
TW273519B (en) * 1995-09-12 1996-04-01 Konami Co Ltd Driving game machine
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JP3524247B2 (ja) 1995-10-09 2004-05-10 任天堂株式会社 ゲーム機およびそれを用いたゲーム機システム
US6007428A (en) * 1995-10-09 1999-12-28 Nintendo Co., Ltd. Operation controlling device and video processing system used therewith
JP3544268B2 (ja) 1995-10-09 2004-07-21 任天堂株式会社 三次元画像処理装置およびそれを用いた画像処理方法
MX9704155A (es) * 1995-10-09 1997-09-30 Nintendo Co Ltd Sistema procesador de imagenes tridimensionales.
US6283857B1 (en) 1996-09-24 2001-09-04 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) * 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
DE19681169B3 (de) * 1995-11-10 2012-03-01 Nintendo Co., Ltd. Steuerhebeleinrichtung
US6267673B1 (en) 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
US6155926A (en) 1995-11-22 2000-12-05 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control
US6022274A (en) * 1995-11-22 2000-02-08 Nintendo Co., Ltd. Video game system using memory module
US6139433A (en) 1995-11-22 2000-10-31 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control due to environmental conditions
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US5929844A (en) * 1996-05-03 1999-07-27 First Person Gaming, Inc. First person perspective control system
US6009458A (en) * 1996-05-09 1999-12-28 3Do Company Networked computer game system with persistent playing objects
US5947819A (en) * 1996-05-22 1999-09-07 Konami Co., Ltd. Object-throwing video game system
US6322448B1 (en) 1996-06-05 2001-11-27 Kabushiki Kaisha Sega Enterprises Fictitious virtual centripetal calculation and simulation system
JP3515127B2 (ja) * 1996-07-04 2004-04-05 株式会社セガ 画像処理装置、ゲーム機、画像表示方法および記録媒体
US6093105A (en) * 1996-08-22 2000-07-25 Konami Co., Ltd. Fighting-type television game machine and a storage medium for storing a program of such a game
US6241610B1 (en) 1996-09-20 2001-06-05 Nintendo Co., Ltd. Three-dimensional image processing system having dynamically changing character polygon number
US6139434A (en) * 1996-09-24 2000-10-31 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
US6244959B1 (en) 1996-09-24 2001-06-12 Nintendo Co., Ltd. Three-dimensional image processing system with enhanced character control
US6954906B1 (en) * 1996-09-30 2005-10-11 Sony Corporation Image display processing apparatus that automatically changes position of sub-window relative to main window depending on distance at watch sub window is commanded to be displayed
US6437777B1 (en) 1996-09-30 2002-08-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6280323B1 (en) 1996-11-21 2001-08-28 Konami Co., Ltd. Device, method and storage medium for displaying penalty kick match cursors in a video soccer game
JP3442965B2 (ja) * 1997-04-25 2003-09-02 任天堂株式会社 ビデオゲームシステムおよびビデオゲーム用記憶媒体
JP3655438B2 (ja) 1997-07-17 2005-06-02 任天堂株式会社 ビデオゲームシステム
US6424353B2 (en) * 1997-09-11 2002-07-23 Sega Enterprises, Ltd. Computer game apparatus
US6371850B1 (en) * 1997-09-11 2002-04-16 Sega Enterprises, Ltd. Video game system for fighting game and method for executing fighting game
US20010032278A1 (en) * 1997-10-07 2001-10-18 Brown Stephen J. Remote generation and distribution of command programs for programmable devices
JP2939223B2 (ja) * 1997-12-12 1999-08-25 株式会社ナムコ 画像生成装置及び情報記憶媒体
US6591250B1 (en) 1998-02-23 2003-07-08 Genetic Anomalies, Inc. System and method for managing virtual property
JPH11342265A (ja) * 1998-06-01 1999-12-14 Sony Computer Entertainment Inc 記録媒体及びエンタテインメントシステム
JP3882876B2 (ja) * 1998-11-13 2007-02-21 株式会社セガ メダルゲーム装置
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6712703B2 (en) * 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
JP2000153062A (ja) * 1998-11-19 2000-06-06 Nintendo Co Ltd ビデオゲーム装置およびビデオゲーム用情報記憶媒体
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6563503B1 (en) 1999-05-07 2003-05-13 Nintendo Co., Ltd. Object modeling for computer simulation and animation
IL130337A0 (en) * 1999-06-07 2000-06-01 Tidex Systems Ltd A method for achieving roaming capabilities and for performing interactive CGI implanting and computer games using the method
JP4278071B2 (ja) * 1999-06-17 2009-06-10 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
US8595764B2 (en) * 1999-06-25 2013-11-26 Jlb Ventures, Llc Image-oriented electronic programming guide
JP3474156B2 (ja) * 1999-09-10 2003-12-08 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、記憶媒体およびパラメータ設定方法
US8032605B2 (en) * 1999-10-27 2011-10-04 Roy-G-Biv Corporation Generation and distribution of motion commands over a distributed network
US20100131078A1 (en) * 1999-10-27 2010-05-27 Brown David W Event driven motion systems
JP4507320B2 (ja) * 1999-12-17 2010-07-21 株式会社セガ ゲーム機
US7685534B2 (en) * 2000-02-16 2010-03-23 Jlb Ventures Llc Method and apparatus for a three-dimensional web-navigator
US7106338B1 (en) 2000-03-16 2006-09-12 Eagle New Media Investments, Llc Method and system for optimal usage of memory for storing scheduling and guiding data in 3D-enabled EPG
US8336069B1 (en) 2000-03-16 2012-12-18 Jlb Ventures Llc Method and system for adaptive electronic programming guide
US6778171B1 (en) * 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
WO2001082595A1 (en) 2000-04-27 2001-11-01 Isurftv Novel cursor control system
US7213256B1 (en) 2000-12-29 2007-05-01 Dan Kikinis Method and apparatus for finding the same of similar shows
US7312796B1 (en) 2000-05-08 2007-12-25 Jlb Ventures Llc Perpendicular view three dimensional electronic programming guide
US6836274B1 (en) * 2000-05-08 2004-12-28 Eagle New Media Investments, Llc Three dimensional light electronic programming guide
US6784901B1 (en) 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US20020059606A1 (en) * 2000-05-11 2002-05-16 Dan Kikinis Universal programming system and method for EPG with added offline archive
US8132207B2 (en) * 2000-05-11 2012-03-06 Jlb Ventures Llc Universal programming system and method for EPG with localized interactive content
US8438594B1 (en) 2000-05-11 2013-05-07 Jlb Ventures Llc Method and system for 3-D enhanced advertising for TV broadcast of 2-D video
US8522266B1 (en) 2000-09-13 2013-08-27 Jlb Ventures Llc System and method for insertion of recorded media into a broadcast
US20020007488A1 (en) * 2000-06-19 2002-01-17 Dan Kikinis Transparent object management for removable media recorders
US8789114B2 (en) * 2000-06-30 2014-07-22 Jlb Ventures Llc Remote control of program scheduling
US7698727B2 (en) * 2000-06-30 2010-04-13 Jlb Ventures Llc Method and apparatus for notifying users of interactive functions using a remote device
US7886330B2 (en) * 2000-06-30 2011-02-08 Jlb Ventures Llc Enhanced home entertainment system with removable long-term storage
US8756635B2 (en) * 2000-06-30 2014-06-17 JLB Ventures, LLC. Remote control of program scheduling
US20020019732A1 (en) * 2000-07-12 2002-02-14 Dan Kikinis Interactivity using voice commands
US20020073428A1 (en) * 2000-09-06 2002-06-13 Leonid Gurevich Downloading and transfer of audio or video data from video broadcasts
US7956865B2 (en) * 2000-10-19 2011-06-07 Jlb Ventures Llc Method and system for modification of EPG object attributes
US8341676B1 (en) 2000-12-01 2012-12-25 JLB Ventures LLC. Method and system for performing an alphabetic search using a single application of keys
WO2002054184A2 (en) * 2001-01-04 2002-07-11 Roy-G-Biv Corporation Systems and methods for transmitting motion control data
US7904194B2 (en) 2001-02-09 2011-03-08 Roy-G-Biv Corporation Event management systems and methods for motion control systems
US6435875B1 (en) * 2001-02-12 2002-08-20 Mattel, Inc. Electronic bulldozer game
US7002590B2 (en) * 2001-02-13 2006-02-21 Yakov Kamen Modifying object geometry to accommodate information attributes
US7386875B2 (en) 2001-03-02 2008-06-10 Jlb Ventures, Llc Freezing live video frames with interactive links
US9569009B2 (en) * 2001-03-02 2017-02-14 Jlb Ventures Llc Multimedia interactive device function selection based upon button depression duration
US7701468B2 (en) * 2001-03-09 2010-04-20 Jlb Ventures Llc Mechanism and apparatus for construction of modular-based interactive programming guides and TV portals
JP3741965B2 (ja) * 2001-03-19 2006-02-01 株式会社ナムコ 画像処理装置、画像処理用プログラム、およびそのプログラムを記録した記録媒体
JP2002292116A (ja) * 2001-03-29 2002-10-08 Square Co Ltd ゲーム装置、ゲーム制御方法およびその記録媒体ならびにコンピュータプログラム
JP4187182B2 (ja) * 2001-07-27 2008-11-26 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US6705945B2 (en) * 2001-10-10 2004-03-16 Sony Computer Entertainment America Inc. Providing game information via characters in a game environment
JP3493189B2 (ja) * 2001-10-11 2004-02-03 コナミ株式会社 ゲーム進行制御プログラム、ゲーム進行制御方法及びビデオゲーム装置
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
JP3457305B1 (ja) 2002-09-19 2003-10-14 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置、ゲーム制御方法及びプログラム
US7594847B1 (en) * 2002-10-11 2009-09-29 Microsoft Corporation Squad command interface for console-based video game
US7789741B1 (en) * 2003-02-28 2010-09-07 Microsoft Corporation Squad vs. squad video game
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
GB2418475B (en) * 2003-06-09 2007-10-24 Immersion Corp Interactive gaming systems with haptic feedback
US20040259638A1 (en) * 2003-06-18 2004-12-23 Kramer Dan H. Handheld controller with mouse-type control
US8027349B2 (en) 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
US20070022194A1 (en) * 2003-09-25 2007-01-25 Brown David W Database event driven motion systems
US20060064503A1 (en) * 2003-09-25 2006-03-23 Brown David W Data routing systems and methods
US7292151B2 (en) * 2004-07-29 2007-11-06 Kevin Ferguson Human movement measurement system
US20060281553A1 (en) * 2005-05-19 2006-12-14 Digital Chocolate, Inc. Creation of game elements using location information
US7864168B2 (en) * 2005-05-25 2011-01-04 Impulse Technology Ltd. Virtual reality movement system
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
WO2007047986A1 (en) * 2005-10-21 2007-04-26 Wisconsin Alumni Research Foundation Method and system for delivering nucleic acid into a target cell
JP5204381B2 (ja) 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
EP1887452A1 (en) * 2006-08-09 2008-02-13 STMicroelectronics (Research & Development) Limited Human-Computer Interface
JP5294442B2 (ja) * 2006-09-13 2013-09-18 任天堂株式会社 ゲーム装置およびゲームプログラム
US20080110115A1 (en) * 2006-11-13 2008-05-15 French Barry J Exercise facility and method
US20080217075A1 (en) * 2007-03-05 2008-09-11 Microsoft Corporation Dual joystick directional text input
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
JP5210568B2 (ja) * 2007-08-06 2013-06-12 株式会社タイトー ゲーム機
US9108108B2 (en) 2007-09-05 2015-08-18 Sony Computer Entertainment America Llc Real-time, contextual display of ranked, user-generated game play advice
US9126116B2 (en) 2007-09-05 2015-09-08 Sony Computer Entertainment America Llc Ranking of user-generated game play advice
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20090166684A1 (en) * 2007-12-26 2009-07-02 3Dv Systems Ltd. Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk
US8385557B2 (en) * 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
JP6029255B2 (ja) * 2008-07-03 2016-11-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US8382767B2 (en) * 2008-10-31 2013-02-26 K2M, Inc. Implant insertion tool
US8681321B2 (en) * 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8682028B2 (en) * 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8577084B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8577085B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8649554B2 (en) * 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
KR101021356B1 (ko) * 2009-08-05 2011-03-14 주식회사 엔씨소프트 게임 캐릭터의 움직임 제어장치 및 그 방법
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) * 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) * 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) * 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) * 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) * 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) * 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8655069B2 (en) * 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
WO2013189058A1 (en) 2012-06-21 2013-12-27 Microsoft Corporation Avatar construction using depth camera
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
EP2395767B1 (en) 2010-06-11 2014-11-12 Nintendo Co., Ltd. Image display program, image display system, and image display method
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
JP5986738B2 (ja) * 2011-11-30 2016-09-06 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
JP5525565B2 (ja) * 2012-05-01 2014-06-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
JP5339490B2 (ja) * 2012-08-21 2013-11-13 任天堂株式会社 ゲーム装置およびゲームプログラム
US9833707B2 (en) 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
WO2014121934A1 (en) * 2013-02-06 2014-08-14 King.Com Limited Computer game elements, systems, and methods therefor
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
GB201403084D0 (en) 2013-03-12 2014-04-09 King Com Ltd FHS:Smarter contact selectors
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
WO2014167129A1 (en) 2013-04-11 2014-10-16 King.Com Limited Computer, device, system and methods therefor
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
JP6771267B2 (ja) * 2013-05-31 2020-10-21 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9282309B1 (en) 2013-12-22 2016-03-08 Jasmin Cosic Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US10102226B1 (en) 2015-06-08 2018-10-16 Jasmin Cosic Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
JP7140465B2 (ja) * 2016-06-10 2022-09-21 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、ゲーム処理方法
US10561942B2 (en) 2017-05-15 2020-02-18 Sony Interactive Entertainment America Llc Metronome for competitive gaming headset
US10128914B1 (en) 2017-09-06 2018-11-13 Sony Interactive Entertainment LLC Smart tags with multiple interactions

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5333741A (en) * 1976-07-16 1978-03-29 Atari Inc Method for displaying moving targets on video screen
JPS59143003U (ja) * 1983-03-15 1984-09-25 旭精工株式会社 ゲ−ム機用操作レバ−

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4475132A (en) * 1982-01-22 1984-10-02 Rodesch Dale F Interactive video disc systems
US4895376A (en) * 1988-06-17 1990-01-23 Tigers Electronics, Inc. Interactive video game
US4976438A (en) * 1989-03-14 1990-12-11 Namco Ltd. Multi-player type video game playing system
US5067167A (en) * 1990-10-10 1991-11-19 Cornell Research Foundation, Inc. Apparatus and method for rotating of three-dimensional images
DE69212149D1 (de) * 1991-03-21 1996-08-14 Atari Games Corp Fahrtsimulator mit überkreuzter netzwerkrückkoppelung
US5245320A (en) * 1992-07-09 1993-09-14 Thrustmaster, Inc. Multiport game card with configurable address

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5333741A (en) * 1976-07-16 1978-03-29 Atari Inc Method for displaying moving targets on video screen
JPS59143003U (ja) * 1983-03-15 1984-09-25 旭精工株式会社 ゲ−ム機用操作レバ−

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0844587A1 (en) * 1996-06-05 1998-05-27 Sega Enterprises, Ltd. Image processor, image processing method, game machine and recording medium
EP0844587A4 (en) * 1996-06-05 2002-04-03 Sega Enterprises Kk IMAGE PROCESSOR, IMAGE PROCESSING PROCESS, GAME COMPUTER AND RECORDING MEDIUM
US6500069B1 (en) 1996-06-05 2002-12-31 Kabushiki Kaisha Sega Enterprises Image processor, image processing method, game machine and recording medium
US7573479B2 (en) 1996-06-05 2009-08-11 Kabushiki Kaisha Sega Graphics processing device, graphics processing method, game machine, and storage medium
TWI775044B (zh) * 2020-02-12 2022-08-21 續天曙 一種具有個人螢幕的射擊遊戲裝置
TWI747337B (zh) * 2020-06-20 2021-11-21 續天曙 射擊遊戲系統

Also Published As

Publication number Publication date
JP2799126B2 (ja) 1998-09-17
JPH06277363A (ja) 1994-10-04
US5704837A (en) 1998-01-06
GB9423840D0 (en) 1995-02-15
GB2283302B (en) 1996-02-07
GB2283302A (en) 1995-05-03

Similar Documents

Publication Publication Date Title
WO1994022544A1 (en) Video game machine
CN109478340B (zh) 模拟系统、处理方法以及信息存储介质
JP2888724B2 (ja) 3次元ゲーム装置及び画像合成方法
EP1585063B1 (en) Image generation device, image display method and program product
US6634947B1 (en) Video game system and video game memory medium
US4895376A (en) Interactive video game
US6154197A (en) Virtual image generation method and its apparatus
JP3103322B2 (ja) シューティングゲーム装置、シューティングゲームの画像表示方法及び可読記録媒体
US20060223637A1 (en) Video game system combining gaming simulation with remote robot control and remote robot feedback
JP2004503307A (ja) 可動遠隔操縦式ビデオゲームシステム
JPH06176131A (ja) 画像合成装置及びこれを用いた仮想体験装置
JP3273038B2 (ja) 仮想体験型ゲーム装置
JP3325075B2 (ja) マルチプレーヤ用ゲーム装置
JP3424959B2 (ja) ゲーム装置及びゲームを行うための装置の制御方法
JP2888723B2 (ja) 3次元ゲーム装置及び画像合成方法
JP3447397B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP2888831B2 (ja) 3次元ゲーム装置及び画像合成方法
JP3350568B2 (ja) ゲーム装置及び制御方法
JPH0724141A (ja) 頭部装着体を用いたゲーム装置
JP3219735B2 (ja) 3次元ゲーム装置及び画像合成方法
JP2888830B2 (ja) 3次元ゲーム装置及び画像合成方法
JP4114825B2 (ja) 画像生成装置及び情報記憶媒体
JP3431320B2 (ja) 3次元ゲーム装置及び画像合成方法
JP3273017B2 (ja) 画像合成装置及びこれを用いた仮想体験装置
JP2002224434A (ja) 画像合成装置、仮想体験装置および画像合成方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB US

WWE Wipo information: entry into national phase

Ref document number: 9423840.9

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 08343503

Country of ref document: US