WO2002031769A1 - Procede et systeme de traitement de donnees, programme informatique, et support enregistre - Google Patents

Procede et systeme de traitement de donnees, programme informatique, et support enregistre Download PDF

Info

Publication number
WO2002031769A1
WO2002031769A1 PCT/JP2001/008862 JP0108862W WO0231769A1 WO 2002031769 A1 WO2002031769 A1 WO 2002031769A1 JP 0108862 W JP0108862 W JP 0108862W WO 0231769 A1 WO0231769 A1 WO 0231769A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
execution
image
data
result
Prior art date
Application number
PCT/JP2001/008862
Other languages
English (en)
French (fr)
Inventor
Hitoshi Ebihara
Yuichi Nakamura
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to EP01974746.8A priority Critical patent/EP1326204B1/en
Priority to BR0107325-7A priority patent/BR0107325A/pt
Priority to AU94208/01A priority patent/AU9420801A/en
Priority to CA002392541A priority patent/CA2392541A1/en
Priority to MXPA02005310A priority patent/MXPA02005310A/es
Priority to KR1020027007390A priority patent/KR20020064928A/ko
Publication of WO2002031769A1 publication Critical patent/WO2002031769A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Definitions

  • the present invention relates to a data processing technique for efficiently displaying a large-screen moving image by linking a plurality of processing devices, for example, an image processing device.
  • the present invention includes control means for controlling the operation of a plurality of processing devices, and each processing device starts execution of a process assigned to itself upon receipt of an execution permission signal sent from the control means. And a processing result and an execution end signal sent to the control means after the execution of the processing, wherein the control means outputs identification information of one or a plurality of processing devices to which an execution permission signal is to be sent, the processing result, and
  • Each application is provided with a processing table in which identification information of one or a plurality of processing devices to receive the execution end signal is stored in a predetermined order for each application, and upon receiving a processing request from one application, the application table is executed.
  • the execution permission signal is sent to the corresponding processing device in the order stored in the processing table for the application, and the execution end signal and the processing result are applied to the corresponding processing device.
  • a data processing system configured to receive the data from the processing device.
  • the execution permission signal is a type of control signal for permitting the execution of the process
  • the execution end signal is a type of notification signal indicating that the execution of the process has been completed.
  • the present invention also provides a first arbitration means for arbitrating the operation of N (N is a natural number greater than 1) processing devices that cooperate in cooperation with each other, and M (M is a natural number greater than 1)
  • a second arbitration unit that arbitrates the operation of the first arbitration unit
  • a control unit that controls the operation of the first arbitration unit.
  • the present invention provides a data processing system which starts the execution of the processing assigned to the control means and sends a processing result and an execution end signal to the control means after the execution of the processing.
  • the control means may include identification information of one or a plurality of processing devices to which the execution permission signal is to be transmitted, the processing result, and the processing result.
  • a processing table storing identification information of one or a plurality of processing devices to receive the execution end signal in a predetermined order is provided for each application (provided that a processing request is received from a processing request from one application).
  • the execution permission signal is transmitted to the corresponding processing device in the order stored in the processing table of the processing request, and the execution end signal and the processing result are received from the processing device. It is characterized by having been done.
  • Each processing device is configured to generate frame image data for a divided image obtained by subdividing a predetermined image in cooperation with another processing device, and to output the generated frame image data as the processing result.
  • the image processing apparatus includes: a drawing processing unit that performs a drawing process of a predetermined image; a plurality of geometry processing units that perform a geometry process based on a predetermined image display command; and an image interface interposed therebetween.
  • the drawing processing means includes: a buffer for storing a drawing context serving as a plurality of sets of parameters different for each of the geometry processing means together with the identification information; and a drawing instruction input from the image interface.
  • An image transfer request that is performed independently and includes identification information of a drawing context obtained as a result of the processing.
  • the image interface transmits the drawing instruction to the image interface together with information indicating the priority, and receives the image transfer request having a higher priority and inputs the drawing instruction to the drawing processing means. It is configured to output a drawing processing result by the drawing processing means as the processing result.
  • Another data processing system provided by the present invention is a system for controlling the operation of a plurality of processing devices, wherein each processing device receives an execution permission signal. Triggers the execution of the process assigned to itself and, after the execution of the process, sends a process result and an execution end signal, wherein the identification information of one or more processing devices to which the execution permission signal is to be sent and the First means for holding, for each application, a processing table storing, in a predetermined order, a processing result and identification information of one or more processing devices to receive the execution end signal; and receiving a processing request from a certain application. Triggering the second means for specifying the processing table for the application, sending the execution permission signal to the corresponding processing device in the order stored in the specified processing table, and Means for receiving a result and an execution end signal from a corresponding processing device.
  • the present invention also provides a plurality of processes for starting execution of a drawing process assigned to itself upon receipt of an execution permission signal and outputting a processing result and an execution end signal after the execution of the drawing process.
  • a method of controlling a device to display a processing result from a part or all of the plurality of processing devices on a predetermined display device, wherein the identification of one or a plurality of processing devices to which the execution permission signal is to be transmitted is provided.
  • the information, the processing result, and the identification information of one or more processing devices to receive the execution end signal are determined for each application in a predetermined order, and upon receiving a processing request from one application, The execution permission signal is sent to the corresponding processing device in the order determined for the application, and the execution end signal and the processing result are received from the corresponding processing device. , And displays the processing result received at a predetermined timing on the display device, to provide a data processing method according to a plurality of processing devices.
  • the present invention further provides a computer which starts the execution of a process assigned to itself upon receipt of an execution permission signal, and transmits the processing result and an execution end signal after the execution of the process.
  • Computer program to operate as a controlled data processing system I will provide a.
  • the computer and the data processing system implemented by the computer program may include one or more identification information of one or more processing devices to which the execution permission signal is to be sent, one or more processing devices, and one or more to receive the processing result and the execution end signal.
  • This computer program is typically embodied by being recorded on a computer-readable recording medium. BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a block diagram of an integrated image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a functional configuration diagram of the GSM.
  • FIG. 3 is an illustration of the signals exchanged between the GSM and the main SYNC.
  • FIG. 4 is an explanatory diagram of the contents of the display order table, in which (a) shows an example of a single buffer and (b) shows an example of a double buffer.
  • FIG. 5 is an explanatory diagram of an image processing procedure in the case of the single buffer system, and (b) is an explanatory diagram of an image processing procedure in the case of the double buffer system.
  • FIG. 6 is an explanatory diagram of the overall processing procedure by the main MG and the like.
  • FIG. 7 is an example of image display when performing area synthesis.
  • FIG. 8 is an image display example when performing scene anti-aliasing.
  • FIG. 9 is an example of image display when performing layer composition.
  • FIG. 10 is an example of an image display when a flip animation is performed.
  • the processing device is an image processing device, and the data processing by this is image (generation) processing.
  • the execution permission signal is a drawing permission signal (DrawNext) output to the image processing apparatus, and the execution end signal is a drawing completion signal (DrawDone) output from the image processing apparatus.
  • FIG. 1 is a block diagram showing the overall configuration of the integrated image processing device according to the present embodiment.
  • This integrated image processing device consists of four image processing devices
  • GSB GSB 100 and an integrated device (hereinafter referred to as “main MG”) 200 located after the GSB 100 and integrating each output data, and each GSB 100 SYNC signal (V-SYNC) and drawing permission signal
  • Main S YN C J Main S YN C J
  • control device hereinafter referred to as
  • Main CP 400 has a “Main CP” 400 and a network control circuit (hereinafter “Main NET”) 500 for linking all the GSB 100s.
  • Main NET network control circuit
  • a display device DP is connected to the output side of the main MG200 so that the image processing results from the integrated image processing device are displayed in an integrated manner. I have.
  • the timing for issuing the data from the primary S YNC 300 to GSM 1 to be described later and the timing for issuing the data from each GSM 1 to the primary MG 200 are determined by the primary MG in cooperation with the primary CP 400. Controlled by 200.
  • the main MG 400, the external storage device 410 and the main NET 500 are connected to the main CP 400.
  • GS B 100 is output from each of four information processing devices (hereinafter, “GSM”) 1 for generating frame image data corresponding to the input image data sequence, and GSM 1 A merger (hereinafter referred to as “slave MG”) 3 that merges the frame image data into one frame image data and outputs this to subsequent processing, and V-SYNC and a drawing enable signal (DrawNext) are sent to each GSM 1.
  • GSM information processing devices
  • slave MG A merger
  • V-SYNC and a drawing enable signal (DrawNext) are sent to each GSM 1.
  • a synchronization circuit (hereinafter referred to as “slave S YNC”) 4 to supply the drawing completion signal (DrawDone) issued from each GSM 1 to the main SYNC 300 and control to control the operation of each GSM 1 Equipment (hereinafter referred to as “slave CP”) 5 and a network control circuit (hereinafter “slave NE TJ”) 6 for coordinating with all GSMs 1 in the same GSB and GSMs 1 in other GSBs ing.
  • slave S YNC A synchronization circuit (hereinafter referred to as “slave S YNC”) 4 to supply the drawing completion signal (DrawDone) issued from each GSM 1 to the main SYNC 300 and control to control the operation of each GSM 1 Equipment (hereinafter referred to as “slave CP”) 5 and a network control circuit (hereinafter “slave NE TJ”) 6 for coordinating with all GSMs 1 in the same GSB and GSMs 1 in other GSBs ing.
  • Each GSM 1 is provided with a synchronization circuit (hereinafter referred to as “SYNC GSM”) 2 so that the VSYNC and the drawing enable signal (GSB Next) are supplied to the internal circuit from the SYNC GSM 2. Has become.
  • SYNC GSM a synchronization circuit
  • Each of the slave MG 3 and the master MG 200 has a register for temporarily storing frame image data to be output.
  • the slave CP 5 controls the operation of the entire GSB.
  • the slave CP 5 has a demultiplexer (not shown) that distributes the input data to four, and separates the image data sequence of the moving image to be generated into each of the four GSMs 1.
  • Distribute There are various types of distribution depending on the application using the device. For example, the image to be finally displayed may be divided into four parts for that range, or the image data to be displayed may be divided into four parts to display each layer superimposed on the image to be displayed finally You can also. Alternatively, image data for four frames may be put together and divided into four parts.
  • the network 6 is a circuit for mutually transferring a part or the whole of the image data sequence to another GSB.
  • the transfer of the image data sequence is mainly performed to balance the processing load between the GSBs in the image processing.
  • the merge in the slave MG 3 is performed in synchronization with the absolute time axis that controls the operation of the entire GSB. That is, a plurality of frame image data input at a timing synchronized with the absolute time axis are merged to generate one frame image data.
  • Each GSB 100 has an image sequence (from the main CP 400 via the secondary CP 5), a V—S YNC and a drawing enable signal (DrawNext) (via the secondary S YNC 4, the primary S YNC 3). From 0) is supplied.
  • the GSM 1 having received the drawing permission signal (DrawNext) starts image processing on the image data sequence.
  • the S YNC ⁇ GSM 2, the slave S YNC 4, and the master SYNC 300 each have a built-in data register and multiple counters. Each counter also has a built-in register to hold the count value, so that when the count value reaches a specific value, an interrupt process occurs.
  • the first counter is a counter for synchronizing multiple GSMs 1. The counter counts up at the falling edge of the input synchronization signal (“V—S YNCJ”). Since the clock is asynchronous with the clock of V-S YNC, it is counted There is a possibility that the timing of the backup will be shifted between GSM by the first click.
  • the count value is reset by a reset signal from the main CP400, which is connected to the asynchronous clear terminal of the counter module. Therefore, there is a possibility that the fluctuation of one clock will occur between 051 ⁇ 1 when the first clock is used as a reference.
  • the second counter is an up-counter for more accurate time measurement between V and S YNC.
  • V—S YNC falling is detected and forced to zero every time.
  • GSM 1 operates at the timing of V—S YNC in SYNC and GSM2, performs image processing upon receiving a drawing permission signal (DrawNext), and generates frame image data corresponding to the image data sequence.
  • the individual image data forming the image data sequence is data read and supplied from the external storage device 410 connected to the main CP 400, and becomes frame image data through predetermined image processing. Data.
  • the frame image data allows an image to be displayed on the display device DP.
  • the GSM 1 After executing the processing assigned to GSM 1, the GSM 1 sends the processing result to the main MG 200 via the slave MG 3 and sends a drawing completion signal (DrawDone) to the SYNC GSM 2 And the data is sent to the master SYNC 300 via the slave SYNC 4.
  • DrawDone drawing completion signal
  • FIG. 2 shows the functional configuration of the GSM 1 according to the present embodiment in detail.
  • GSM 1 has two buses, a main bus B1 and a sub-bus B2. These buses B 1 and B 2 are connected or disconnected from each other via a bus interface INT.
  • Me The Inbus Bl includes a main processing unit (Central Processing Unit) 10 including a microprocessor and a VPUO (Vector Processing Unit: VPUO).
  • main processing unit Central Processing Unit
  • VPUO Vector Processing Unit
  • 2nd VPU 21 and a GIF (Graphical Synthesizer Interface) 30 functioning as an arbitrator for the 1st VPU 20 and the 2nd VPU 21 are connected and further rendered via GIF 30 Processing means ("GS") 3 1 is connected.
  • the main CPU 10 reads a startup program from the ROM 17 on the sub-bus B via the bus interface INT and executes the startup program to operate the operating system. Also, 3D object data composed of multiple basic figures (polygons)
  • Geometry processing is performed on the coordinates of the vertices (representative points) of the polygon in cooperation with the first VPU 20.
  • SP R for temporarily storing the result of the cooperative processing with the first VP U 20
  • a high-speed memory called (Scratch Pad RAM) is provided.
  • the first VPU 20 has a plurality of arithmetic elements for calculating a floating-point real number, and performs floating-point arithmetic in parallel by these arithmetic elements. That is, the main CPU 10 and the first VPU 20 perform arithmetic processing that requires detailed operations in polygon units in the geometry processing. Then, a display list is generated which includes polygon definition information such as the vertex coordinate sequence / shading mode information obtained by the arithmetic processing.
  • the polygon definition information includes drawing area setting information and polygon information.
  • the drawing area setting information includes the offset coordinates in the frame buffer address of the drawing area and the coordinates of the drawing clipping area for canceling the drawing when there is a polygon coordinate outside the drawing area.
  • the polygon information is composed of polygon attribute information and vertex information.
  • the polygon attribute information is information for specifying a shading mode, a 0! Blending mode, a texture mapping mode, and the like, and the vertex information is in a vertex drawing area. Information such as coordinates, vertex texture area coordinates, and vertex colors.
  • the second VPU 21 is similar to the first VPU 20 and has a plurality of arithmetic elements for calculating a floating-point real number, and performs floating-point arithmetic in parallel with these arithmetic elements. In addition, a display list containing the operation result as its contents is generated.
  • the first VPU 20 and the second VPU 21 have the same configuration, but each function as a geometry engine sharing arithmetic processing of different contents.
  • the first VPU 20 is assigned processing such as character movements that require complex behavior calculations (atypical geometry processing)
  • the second VPU 21 is simple but has a large number of polygons. Is assigned to the object for which is required, for example, processing of a background building (standard geometry processing).
  • the first VPU 20 performs a macro operation process synchronized with the video rate, and the second VPU 21 can operate in synchronization with the GS 31.
  • the second VPU 21 has a direct path directly connected to the GS 31.
  • the first VPU 20 is tightly coupled with the microphone processor in the main CPU 10 to facilitate programming of complex processing.
  • the display list generated by the first VPU 20 and the second VPU 21 is transferred to GS31 via GIF30.
  • GIF 30 is a file generated by the first VPU 20 and the second VPU 21. Arbiter to avoid collision when transferring the spray list to GS31. In the present embodiment, a function of examining these display lists in descending order of priority and transferring the display list to the GS 31 from the higher order is added to the GIF 30.
  • the information indicating the priority of the display list is usually described in the tag area when each VPU 20 and 21 generates the display list, but the information can be determined independently by the GIF 30. Is also good.
  • the GS 31 holds the drawing context, reads out the corresponding drawing context based on the image context identification information included in the display list notified from the GIF 30, and uses this to perform the rendering processing. And draw a polygon in the frame buffer 32. Since the frame memory 32 can also be used as a texture memory, the pixel image on the frame buffer can be pasted as a texture to a polygon to be drawn.
  • the main D MAC 12 controls the DMA transfer for each circuit connected to the main bus B 1 and also controls each circuit connected to the sub bus B 2 according to the state of the bus interface INT. Performs DMA transfer control.
  • the MDEC 13 operates in parallel with the main CPU 10 and decompresses data compressed by the MPEG (Moving Picture Experts Group; JPEG, Joint Photographic Experts Group) or the like.
  • the sub bus B 2 stores programs such as a sub CPU 14 including a microphone port processor, a sub memory 15 including a RAM, a sub D MAC 16 and an operating system.
  • ROM 17, Sound memory 41 Sound processing unit (SPU) 40 which reads sound data stored in the memory and outputs it as audio output.
  • the communication control unit (ATM) 50 for transmitting and receiving data and the input unit 70 are connected.
  • S YNC ⁇ G SM 2 is connected to this sub-bus B 2, and slave 6 is connected to ATM 50.
  • the input section 70 has a video input circuit 73 for externally inputting image data and an audio input circuit 74 for externally inputting audio data.
  • an image data string is input from the slave CP 5 (distributed from the master CP 400) via the video input circuit 73.
  • the sub CPU 14 performs various operations according to the program stored in the ROM 17.
  • D MAC 16 controls the DMA transfer etc. for each circuit connected to the sub bus B 2 only when the bus interface INT separates the main path B 1 from the sub bus B 2.
  • FIG. 3 is an explanatory diagram of signals exchanged between the GSM1 and the main SYNC300 and the main MG200, which are subsequent processing devices.
  • a display order table in which the ID of the GSM 1 to which the drawing permission signal (DrawNext) should be transmitted, the processing result, and the ID of the GSM 1 to receive the drawing completion signal (DrawDone) are stored in a predetermined order.
  • the display order table TB is provided in any of the external storage device 410 on the main CP400 side, the data register in the main MG200, and the data register in the main SYNC300. In short, it is provided in an area where the main SYNC 300 can point.
  • each GSM 1 is the image processing result
  • the “single-buffer method” in which storage and reading of frame image data are realized by one frame memory 32
  • the “double-buffer method” which is realized by switching between two frame memories 32.
  • Fig. 4 shows an example of the contents of the display order table TB.
  • Fig. 4 (a) shows an example of the single buffer system and (b) shows an example of the double buffer system.
  • the application number is individualized, and when an application is specified, the contents of the display order table TB corresponding to the application are specified.
  • GSM 1-0 to GSM 1-3 are four GSMs provided in the first GSB
  • GSM2-0 to GSM2-3 are four GSMs
  • G provided in the second GSB
  • SM3-0 to GSM3-3 are the four GSMs provided in the third GSB
  • GSM4-0 to GSM4-3 are the four GSMs provided in the fourth GSB.
  • Each is defined to be grouped at one V—SYNC timing.
  • the main SYNC 300 points the display order table TB by two indexes of “display start” and “display end”.
  • Display start is a GSM that is to be displayed on the display device DP based on the processing result after drawing is completed (a drawing completion signal (DrawDone) is received), and “Display completed” is After the display period for one frame in the display device DP ends, the GSM may issue a drawing permission signal for the next frame.
  • the display is started after the display is completed.
  • the display end and the display start are performed at the same time. Therefore, as shown in FIGS. 4 (a) and 4 (b), the display timing for one V-SYNC is delayed in the single buffer system as compared with the double buffer system.
  • the application is stored in the external storage device 410, and the image data stream can be supplied to each GSM 1 through the main CP 400 and the sub CP 5 of each GSB 100. It is assumed that When the application is started by the main CP 400 and there is a processing request from the application, the main CP 400 issues a drawing instruction to the main SYNC 300 via the main MG 200. . The main SYNC 300 sends a drawing permission signal (DrawNext) to the corresponding GSMl in the order stored in the display order table TB for the application.
  • DrawNext drawing permission signal
  • GSM 1 performs image processing as follows.
  • processing is performed according to the procedure shown in Fig. 5 (a). That is, upon receiving the drawing permission signal (DrawNext), the drawing processing assigned to itself is performed (step S101). Specifically, it changes the contents of the frame buffer. After the drawing processing, a drawing completion signal (DrawDone) is output (step S102). While the drawn image is being displayed on the display device DP, it waits for a drawing permission signal (DrawNext) to be received (steps S103 and S104). In other words, the period from the output of the drawing completion signal (DrawDone) to the reception of the drawing permission signal (DrawNext) is the image display period (at least one V-SYNC wait is required). If there is no more image data to be drawn, the process ends (Step S105: Yes). If there is still more image data to be drawn, the process after Step S101 is performed. Is repeated (step S105: No).
  • GSM 1 performs processing according to the procedure shown in Fig. 5 (b).
  • the drawing assigned to itself upon receiving the drawing permission signal (DrawNext)
  • the point that image processing is performed is the same as in the case of the single buffer method.
  • the drawing process is switched by switching the frame buffer (Fig. 2: Frame memory 32) from the previous V-S YNC frame buffer used for the drawing process to the other frame buffer that was switched. (Steps S204, S201).
  • step S202 a drawing completion signal (DrawDone) is output (step S202), and the reception of a drawing permission signal (DrawNext) is waited (step S203).
  • the frame buffer is switched for the next drawing process (step S204). If there is no more image data to be rendered, the process ends (step S205: Yes). If there is still an image to be drawn, the processing from step S201 is repeated (step S205: No).
  • the integrated MG200 stores accumulated frame image data.
  • the main MG 200 performs processing in accordance with the procedure of FIG. 6 in cooperation with the main SYNC 300 and the main CP 400.
  • step S301 it is confirmed that drawing has been completed for all GSMs on the entry pointed to by "start display” (step S301). If it is confirmed that the drawing has been completed, the processing result (frame image data for which the drawing has been completed) is output to the display DP (step S302: Yes, S303). If the drawing has not been completed, some abnormalities may be considered, and the processing is terminated (step S302: No).
  • step S 3 0 4 the drawing permission signal (DrawNext) is output from the main SYNC 300 (step S 3 0 4). Then, each index of “display start” and “display end” is advanced by one (step S305). If the last entry has been reached, return to the first entry (step S306: Yes, S307). If it is not the last entry, or if there is next data after returning to the first entry, the processing from step S301 is repeated (step S308: Yes). If there is no next data, etc., the process ends (Step 308: No).
  • the result of integrating the drawing processing of GSM 1 may be displayed on one screen of the display device DP at the same time, and the drawing processing result of each GSM 1 may be displayed on one screen. You may make it display sequentially.
  • FIGS. 7 to 9 show examples of displaying on a single screen at the same time
  • FIG. 10 shows an example of displaying on a screen sequentially.
  • Fig. 7 shows an example in which the processing results of four GSM la to lb are synthesized on the display device DP, and each GSM displays a different effective area on one screen. have.
  • the effective area is identified by the value of the frame image data, and the main MG 200 implements area blending by performing ⁇ blending on each screen, and integrates as one screen. Output.
  • FIG. 8 shows an example of realizing scene anti-aliasing from the processing results of four GSM la to ld.
  • GS M 1 a to 1 d are each sub-pic Have the same image that is shifted on a cell-by-cell basis. By performing pre-rendering on these images for each screen, averaging is performed, and scene anherias is realized.
  • FIG. 9 is an example of a case of performing layer composition of processing results of four GSMs 1a to 1d.
  • the images of GSM la and lb are combined as layers having a fixed linear order, and the values are combined in the layer order using the threshold value.
  • the order of the layers can be selected depending on the registration.
  • FIG. 10 shows an example in which flip animation is performed based on the processing results of four GSMs 1a to 1d.
  • GSM 1a to 1d are sequentially displayed by flip animation in frames.
  • the above display mode can be realized very easily by defining the display order and the like in the display order table TB.
  • the display order table TB is provided, and the drawing permission signal (DrawNext) is transmitted to the corresponding GSM 1 in the order specified in the display order table TB. Since the processing result is output to the display device DP upon receiving the drawing end signal (DrawDone) from GSM 1, drawing processing is performed consistently even if the number of GSM 1 to be linked increases. be able to.
  • the data processing technique in the case of performing image processing has been described.
  • the data processing technique of the present invention can be applied to other types of information processing, for example, sound generation. This makes it possible to generate high-definition, high-quality sound, such as the performance of an orchestra.
  • data for sound generation is also processed individually by each GSM1.
  • a form in which image processing and sound generation are linked to perform complex processing is also conceivable. As shown in FIG. 2, according to the GSM 1 of the present embodiment, the processing can be performed.
  • the data becomes a signal for outputting an output sound from a predetermined speed, and is output in synchronization with the above-mentioned frame image data by the above-mentioned sub MG 3 and main MG 200.
  • the input of audio data to each GSM 1 is performed from the audio input circuit 74 in FIG. 2, and the output of audio data is performed from the SPU 40.
  • an example of a data processing system included in an integrated image processing apparatus including a plurality of image processing apparatuses that perform cooperative processing in cooperation with each other has been described. It can also be implemented as a data processing system.
  • a plurality of information processing terminals each of which is installed in a completely different place, are connected via a computer network such as the Internet, and operate as the processing device, arbitration means, and control means according to the present invention.
  • these information processing terminals can be realized by mutually transmitting and receiving various signals, for example, the above-described drawing permission signal (DrawNext) and drawing end signal (DrawDone) through a computer network. And it is possible.
  • Some of the plurality of information processing terminals in this case operate as GSB 100 described in the first embodiment. Further, some information processing terminals have a function of a main MG 200 that integrates output data of the information processing terminals operating as each GSB 100, and a synchronization signal (V-SYNC) for each GSB 100.
  • Main SYNC 300 function to supply other operation data
  • Main CP 400 function to comprehensively control image processing and communication procedures
  • Main NET to link all GSB 100
  • the functions of 500 are shared and provided.
  • a display is provided on the output side of the information processing terminal that operates as the main MG200. Make sure the device is connected. The timing of issuing various data from the main SYNC 300 to the GSM 100 is controlled by the main MG 200. Further, to the information processing terminal operating as the main CP 400: an information processing terminal operating as the main MG 200, an external storage device, and an information processing terminal operating as the main NE T are connected.
  • the present invention is implemented as a data processing system that controls a plurality of processing devices (for example, the above-described GSM100 in the case of image processing) for performing joint processing through a computer network. It is also possible.
  • Such a data processing system includes, for example, a server connectable to a computer network, and an external recording device accessible by the server.
  • the supercomputer (the CPU mounted on it) reads and executes the computer program recorded on the external recording medium or a portable recording medium such as a CD-ROM to execute the main control unit.
  • the function is formed as follows.
  • the main control unit has the following three function modules.
  • the first functional module includes an identification signal of one or a plurality of processing units to which an execution permission signal, for example, the above-mentioned drawing permission signal (DrawNext) to be transmitted, a processing result, and an execution end signal, for example, the above drawing end signal (DrawDone ) Has a function of storing a processing table in which identification information of one or a plurality of processing devices that should receive the processing table in a predetermined order is stored in the external recording device for each application.
  • an execution permission signal for example, the above-mentioned drawing permission signal (DrawNext) to be transmitted
  • a processing result for example, the above drawing end signal (DrawDone )
  • an execution end signal for example, the above drawing end signal (DrawDone ) Has a function of storing a processing table in which identification information of one or a plurality of processing devices that should receive the processing table in a predetermined order is stored in the external recording device for each application.
  • the second functional module receives a processing request from a certain application. It has a function to specify the processing table for the application in response to communication.
  • the third functional module sends an execution permission signal (DrawNext) to the corresponding processing device in the order stored in the processing table specified by the second functional module, and outputs a processing result and an execution end signal (DrawDone). ) From the corresponding processing device.
  • DrawNext execution permission signal
  • DrawDone execution end signal

Description

明細 : データ処理システム及び方法、 コンピュータプログラム、 及び記録媒体 技術分野
本発明は、 複数の処理装置、 例えば画像処理装置を連携させて大画面 の動画表示等を効率的に行うためのデータ処理技術に関する。 背景技術
コンピュータなどの処理装置の高性能化に伴い、 このような処理装置 を用いて従来よりも高度の情報処理を行う環境が整備されてきている。 最近は、 複数の画像処理装置を協同で動作させて大画面の動画処理を行 うことに対する期待も高まっている。
しかし、 個々の処理装置の処理能力が高まっても、 装置間のデ一夕処 理形態を効率的に調整しないと、 各処理装置が有する処理能力を正しく 発揮することができない。 画像処理装置の場合は、 そのまま大画面の動 画表示を行おうとすると、 1秒あたりのコマ数が低下し、 最悪の場合に はシステムダウンを起こす場合もある。
このような問題を解消する手段として、 複数の処理装置を連携させ て一つの画面上の表示領域や処理範囲を分担することが考えられるが、 —つのアプリケーション (アプリケーションプログラム) からの処理要 求を複数の処理装置で分担処理する場合は、 各々処理装置における制御 形態が複雑となるという課題が残る。
本発明は、 複数の処理装置を用いた場合の処理能力を簡易に調整でき るようにするためのデ一夕処理技術を提供することを、 主たる目的とす る。 発明の開示
本発明は、 複数の処理装置の動作を制御する制御手段を備え、 個々の 処理装置が、 各々前記制御手段から送られる実行許可信号の受信を契機 に自己に割り当てられた処理の実行を開始するとともに処理実行後は処 理結果及び実行終了信号を前記制御手段宛に送出するものにおいて、 前 記制御手段が、 実行許可信号を送出すべき 1又は複数の処理装置の識別 情報と前記処理結果及び実行終了信号を受信すべき 1又は複数の処理装 置の識別情報とを所定順序で格納した処理テーブルをアプリケーション 毎に具備し、 一のアプリケーションからの処理要求の受信を契機に、 当 該アプリケ一ション用の処理テーブルに格納されている順序で、 前記実 行許可信号を該当する処理装置宛に送出するとともに前記実行終了信号 及び処理結果を該当する処理装置より受信するように構成されるデータ 処理システムを提供する。
実行許可信号は、 処理の実行を許可するための一種の制御信号であり、 実行終了信号は、 処理の実行が終了したことを示す一種の通知信号であ る。
本発明は、 また、 各々連携して共同処理を行う N ( Nは 1より大きい 自然数) 個の処理装置の動作を調停する第 1調停手段と、 M ( Mは 1よ り大きい自然数) 個の前記第 1調停手段の動作を調停する第 2調停手段 と、 これらの動作を制御する制御手段とを備え、 個々の処理装置が、 各々前記制御手段から送られる実行許可信号の受信を契機に自己に割り 当てられた処理の実行を開始するとともに処理実行後は処理結果及び実 行終了信号を前記制御手段宛に送出するデータ処理システムを提供する。 このデータ処理システムにおいて、 前記制御手段は、 前記実行許可信号 を送出すべき 1又は複数の処理装置の識別情報と前記処理結果及び前記 実行終了信号を受信すべき 1又は複数の処理装置の識別情報とを所定順 序で格納した処理テーブルをアプリケーション毎 (こ具備し、 一のアプリ ケ一ションからの処理要求の受信を契機に、 当該処理要求の処理テ一ブ ルに格納されている順序で、 前記実行許可信号を該当する処理装置宛に 送出するとともに前記実行終了信号及び処理結果を該当する処理装置よ り受信するように構成されていることを特徴とする。
個々の処理装置は、 所定の画像を細分割した分割画像に対するフレ一 ム画像データを他の処理装置と共同して生成し、 生成したフレーム画像 データを前記処理結果として出力するように構成される。 あるいは、 所 定の画像の描画処理を行う描画処理手段と、 所定の画像表示命令に基づ くジオメトリ処理を行う複数のジオメトリ処理手段と、 これらの間に介 在する画像インタフェースとを含み、 前記描画処理手段は、 ジオメトリ 処理手段毎に異なる複数組のパラメータセッ 卜となる描画コンテクスト をその識別情報と共に記憶するためのバッファと、 前記画像ィン夕フエ —スからの描画指示の入力を契機に前記バッファから特定の描画コンテ クストを読み出し、 読み出した描画コンテクストに基づいて画像の描画 処理を行う手段とを備えるものであり、 前記複数のジオメトリ処理手段 は、 それぞれ前記画像表示命令に基づくジオメトリ処理を独立に行い、 該処理の結果得られる描画コンテクストの識別情報を含む画像転送要求 をその優先度を表す情報と共に前記画像ィン夕フェースに送出するもの であり、 前記画像インタフェースは、 より優先度の高い画像転送要求を 受け付けて前記描画処理手段に前記描画指示を入力するものであり、 前 記描画処理手段による描画処理結果を前記処理結果として出力するよう に構成される。
本発明が提供する他のデータ処理システムは、 複数の処理装置の動作 を制御するシステムであって、 個々の処理装置が、 実行許可信号の受信 を契機に自己に割り当てられた処理の実行を開始するとともに処理実行 後は処理結果及び実行終了信号を送出するものにおいて、 前記実行許可 信号を送出すべき 1又は複数の処理装置の識別情報と前記処理結果及び 前記実行終了信号を受信すべき 1又は複数の処理装置の識別情報とを所 定順序で格納した処理テーブルをアプリケーション毎に保持する第 1の 手段と、 あるアプリケーションからの処理要求の受信を契機に、 当該ァ プリケーション用の処理テーブルを特定する第 2の手段と、 特定した処 理テーブルに格納されている順序で前記実行許可信号を該当する処理装 置宛に送出するとともに前記処理結果及び実行終了信号を該当する処理 装置から受信する手段とを備えたことを特徴とする。
本発明は、 また、 それぞれ実行許可信号の受信を契機に自己に割り当 てられた描画処理の実行を開始するとともに描画処理の実行後はその処 理結果及び実行終了信号を出力する複数の処理装置を制御して所定の表 示装置に前記複数の処理装置の一部又は全部からの処理結果を表示させ る方法であって、 前記実行許可信号を送出すべき 1又は複数の処理装置 の識別情報と前記処理結果及び前記実行終了信号を受信すべき 1又は複 数の処理装置の識別情報とを所定順序でアプリケーション毎に定めてお き、 一のアプリケーションからの処理要求の受信を契機に、 当該アプリ ケ一ション用に定められている順序で、 前記実行許可信号を該当する処 理装置宛に送出するとともに前記実行終了信号及び処理結果を該当する 処理装置より受け取り、 受け取った処理結果を前記表示装置に所定タイ ミングで表示させる、 複数の処理装置によるデータ処理方法を提供する。 本発明は、 さらに、 コンピュータを、 それぞれ実行許可信号の受信を 契機に自己に割り当てられた処理の実行を開始するとともに処理実行後 は処理結果及び実行終了信号を送出する複数の処理装置の動作を制御す るデータ処理システムとして動作させるためのコンピュー夕プログラム を提供する。
コンピュータと、 このコンピュータプログラムによって実現される前 記データ処理システムは、 前記実行許可信号を送出すべき 1又は複数の 処理装置の識別情報と前記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の識別情報とを所定順序で格納した処理テーブル をアプリケーション毎に保持する第 1の手段と、 あるアプリケーション からの処理要求の受信を契機に、 当該アプリケ一ション用の処理テープ ルを特定する第 2の手段と、 特定した処理テーブルに格納されている順 序で前記実行許可信号を該当する処理装置宛に送出するとともに前記処 理結果及び実行終了信号を該当する処理装置から受信する手段とを備え るものである。 このコンピュータプログラムは、 通常は、 コンピュータ 読みとり可能な記録媒体に記録されることにより実体化される。 図面の簡単な説明
第 1図は、 本発明の一実施形態に係る統合型画像処理装置のプロック 図である。
第 2図は、 G S Mの機能構成図である。
第 3図は、 G S Mと主 S Y N Cとの間で交換される信号の 明図であ る。
第 4図は、 表示順序テーブルの内容説明図で、 ( a ) はシングルパッ ファの場合、 (b ) はダブルバッファの場合の例を示す。
第 5図において、 ( a ) はシングルバッファ方式の場合の画像処理手 順、 (b ) はダブルバッファ方式の場合の画像処理手順の説明図である。 第 6図は、 主 M G等による全体的な処理手順の説明図である。
第 7図は、 領域合成を行う場合の画像表示例である。
第 8図は、 シーンアンチエリァスを行う場合の画像表示例である。 第 9図は、 レイヤ合成を行う場合の画像表示例である。
第 1 0図は、 フリップアニメーションを行う場合の画像表示例である 発明を実施するための最良の形態
以下に、 本発明の実施形態を説明する。
[第 1実施形態]
まず、 本発明のデータ処理システムを、 各々連携して共同処理を行う 複数の画像処理装置を備えた銃合型画像処理装置に適用した場合の実施 形態を説明する。
処理装置は画像処理装置であり、 これによるデータ処理は、 画像 (生 成) 処理となる。 また、 実行許可信号は、 画像処理装置へ出力される描 画許可信号 (DrawNext) であり、 実行終了信号は画像処理装置から出 力される描画完了信号 (DrawDone) となる。
<全体構成 >
第 1図は、 本実施形態による統合型画像処理装置の全体的な構成を示 すブロック図である。 この統合型画像処理装置は、 4つの画像処理装置
(以下、 「G S B」) 1 0 0と、 各 G S B 1 0 0の後段に位置して各々 の出力データを統合する統合装置 (以下、 「主 MG」) 2 0 0と、 各 G S B 1 0 0 に対して同期信号 (V— S Y N C ) 及び描画許可信号
( DrawNext) を供給するともに各 G S B 1 0 0からの描画完了信号
(DrawDone) を主 M G 2 0 0に伝えるための同期回路 (以下、 「主 S YN C J) 3 0 0 と、 装置全体を統括的に制御する制御装置 (以下、
「主 C P」) 4 0 0と、 すべての G S B 1 0 0を連携させるためのネッ 卜ワーク制御回路 (以下、 「主 NET」) 5 0 0とを備えている。
主 MG 2 0 0の出力側にはディスプレイ装置 D Pが接続され、 統合 型画像処理装置による画像処理結果が統合的に表示されるようになって いる。
主 S YNC 3 0 0から後述の G S M 1へのデ一夕の発出タイミング及 び各 G SM 1から主 MG 2 0 0へのデ一夕の発出タイミングは、 主 C P 40 0と連携する主 MG 2 0 0によって制御される。 主 C P 40 0には、 主 MG 2 0 0、 外部記憶装置 4 1 0及び主 NET 5 0 0が接続されてい る。
<G S B>
GS B 1 0 0は、 それぞれ入力された画像デ一夕列に対応するフレ一 ム画像データを生成する 4つの情報処理装置 (以下、 「GSM」) 1と、 GSM 1の各々から出力されるフレーム画像データをマージして一つの フレーム画像デ一夕とし、 これを後段処理に出力するマージャ (以下、 「従 M G」) 3 と、 各 G S M 1 に V— S Y N C及び描画許可信号 (DrawNext) を供給するとともに各 G S M 1から発出される描画完了 信号 (DrawDone) を主 S Y N C 3 0 0に伝えるための同期回路 (以下、 「従 S YNC」) 4と、 各 G SM 1の動作を制御する制御装置 (以下、 「従 C P」) 5と、 同一 G S B内のすべての G S M 1及び他の G S Bの G SM 1 との連携をとるためのネッ トワーク制御回路 (以下、 「従 NE TJ) 6を備えている。
各 G S M 1は、 同期回路 (以下、 「S YNC · G S M」) 2を備えて おり、 この S Y N C · G S M 2から、 V— S Y N C及び描画許可信号 (G S B Next) が内部回路に供給されるようになっている。
従 MG 3及び主 MG 2 0 0は、 出力すべきフレーム画像データを一時 的に格納するためのレジスタを備えている。
従 C P 5は、 GS B全体の動作制御を行う。 従 C P 5は、 入力データ を 4分配するデマルチプレクサ (図示省略) を備えており、 4つの G S M 1のそれぞれに、 生成対象となる動画像についての画像データ列を分 配する。 分配の形態については、 本装置を使用するアプリケーションに 応じて、 種々の形態がある。 例えば最終的に表示すべき画像をその範囲 について 4分割したものとしても良いし、 最終的に表示すべき画像で重 ね合わせて表示されるそれぞれの層を表示するための画像データ列に 4 分割することもできる。 或いは、 4フレーム分の画像データを一まとめ とし、 これを 4分割したものとしても良い。
従 N E T 6は、 画像データ列の一部又は全部を相互に他の G S Bに受 け渡すための回路である。 画像データ列の受け渡しは、 主として、 画像 処理における G S B間での処理負担のパランスをとるために行われる。 なお、 従 MG 3におけるマージは、 G S B全体の動作を司る絶対時間 軸に同期して行われる。 すなわち、 絶対時間軸に同期したタイミングで 入力されている複数のフレーム画像デ一夕をマージして一つのフレーム 画像デ一夕を生成する。
各 G S B 1 0 0には、 画像デ一夕列 (従 C P 5経由主 C P 4 0 0よ り) と V— S YN C及び描画許可信号 (DrawNext) (従 S YNC 4経由、 主 S YNC 3 0 0より) とが供給されるようになっている。 この描画許 可信号 (DrawNext) を受信した G S M 1は、 画像データ列に対する画 像処理を開始する。
S YNC · GSM 2、 従 S YNC 4、 主 SYNC 3 0 0は、 それぞれ データレジス夕及び複数のカウン夕を内蔵している。 各カウン夕もカウ ント値を保持するためのレジスタを内蔵しており、 カウント値が特定の 値に達したときに割込処理を起こすようになつている。 第 1のカウン夕 は、 複数の G S M 1間で同期動作を行うためのカウンタであり、 入力さ れる同期信号 (「V— S YNCJ) の立ち下がりでカウントアップする。 V— S YNCは、 バスのクロックとは非同期であるため、 V— S YNC を第 1クロックでサンプルして使用している都合により、 カウントアツ プのタイミングが G S M間で第 1ク口ック分ずれる可能性がある。 カウ ント値は主 C P 4 0 0からのリセッ ト信号でリセッ トされるが、 このリ セット信号は、 カウンタモジュールの非同期クリァ端子に接続されてい る。 そのために、 第 1クロックを基準として見ると、 051\1間で 1クロ ックのゆらぎが出る可能性があるのである。
第 2のカウンタは、 V— S YNC間のより高精度な時間計測を行うた めのアップカウン夕である。 V— S YNCの立ち下がりを検出して、 毎 回強制的にゼロリセッ卜される。
<G S M>
GSM 1は、 S YNC · G SM2における V— S YNCのタイミング で動作し、 描画許可信号 (DrawNext) の受信を契機に画像処理を行い、 画像データ列に対応するフレーム画像データを生成する。 画像データ列 をなす個々の画像データは、 主 C P 40 0に接続されている外部記憶装 置 4 1 0から読み出されて供給されるデータであり、 所定の画像処理を 経てフレーム画像データとなるデータである。 フレーム画像データは、 ディスプレイ装置 D Pに画像を表示できるようにするものである。
G SM 1は、 自己に割り当てられた処理の実行後は、 処理結果を従 M G 3 を経由して主 M G 2 0 0 に送出するとともに、 描画完了信号 (DrawDone) を S YN C · G SM 2及び従 S YN C 4を経由して主 S YN C 3 0 0宛に送出する。
このように、 統合型画像処理装置において、 G S.M 1は、 画像処理の 中枢を担う。 本実施形態による G SM 1の機能構成を第 2図に詳細に示 す。
第 2図において、 G SM 1は、 メインバス B 1 とサブバス B 2の 2本 のバスを有している。 これらのバス B l , B 2は、 バスインタフエ一ス I NTを介して互いに接続され又は切り離されるようになつている。 メ インバス B lには、 マイクロプロセッサや V P U O ( V P U : Vector Processing Unit: ベクトル処理装置、 以下、 「第 1 VPUJ) 20を含ん で構成されるメイン C P U ( Central Processing Unit) 1 0、 RAM
(Random Access Memory) で構成されるメインメモリ 1 1、 メイン D MAC (Direct Memory Access Controller) 1 2、 MP EG ( Moving Picture Experts Group) デコーダ (MDE C) 1 3、 V P U 1 (以下、
「第 2 V P U」) 2 1、 および第 1 V P U 2 0及び第 2 V P U 2 1の調 停器として機能する G I F (Graphical Synthesizer Interface) 3 0が接 続され、 さらに、 G I F 3 0を介して描画処理手段 (「G S」) 3 1が 接続される。 G S 3 1には、 フレーム画像デ一夕 (ビデオ出力) を生成 する C RT C (CRT controller) 3 3が接続される。 従 MG 3へのフレ —ム画像デ一夕の出力は、 この CRTC 3 3からなされる。
メイン C PU 1 0は、 起動時にサブバス B 上の R OM 1 7から、 バ スインタフェース I NTを介して起動プログラムを読み込み、 その起動 プログラムを実行してォペレ一ティングシステムを動作させる。 また、 複数の基本図形 (ポリゴン) で構成された 3次元オブジェク トデータ
(ポリゴンの頂点 (代表点) の座標値など) に対して、 第 1 VPU 2 0 と共同してジオメトリ処理を行う。 メイン C PU 1 0内には、 第 1 VP U 2 0 との協同処理結果を一時的に保持しておく ための S P R
( Scratch Pad RAM ) と呼ばれる高速メモリが設けられている。
第 1 VPU 2 0は、 浮動小数点の実数を演算する複数の演算素子を有 し、 これらの演算素子によって並列に浮動小数点演算を行う。 すなわち、 メイン C PU 1 0と第 1 VPU 2 0は、 ジオメ トリ処理のうちのポリゴ ン単位での細かな操作を必要とする演算処理を行う。 そして、 この演算 処理により得られた頂点座標列ゃシエーディングモード情報等のポリゴ ン定義情報をその内容とするディスプレイリストを生成する。 ポリゴン定義情報は、 描画領域設定情報とポリゴン情報とからなる。 描画領域設定情報は、 描画領域のフレームバッファアドレスにおける才 フセッ ト座標と、 描画領域の外部にポリゴンの座標があった場合に、 描 画をキヤンセルするための描画クリッピング領域の座標からなる。 ポリ ゴン情報は、 ポリゴン属性情報と頂点情報とからなり、 ポリゴン属性情 報は、 シェーディングモード、 0!ブレンディングモード、 およびテクス チヤマッピングモード等を指定する情報であり、 頂点情報は、 頂点描画 領域内座標、 頂点テクスチャ領域内座標、 および頂点色等の情報である。 第 2 VPU 2 1は、 第 1 VPU 2 0と同様のもので、 浮動小数点の実 数を演算する複数の演算素子を有し、 これらの演算素子で並列に浮動小 数点演算を行う。 また、 演算結果をその内容とするディスプレイリスト を生成する。
第 1 VP U 2 0及び第 2 V P U 2 1は同一構成であるが、 それぞれ異 なる内容の演算処理を分担するジオメトリエンジンとして機能する。 通 常、 第 1 VPU 2 0には複雑な挙動計算が要求されるキャラクタの動き 等の処理 (非定型的なジオメトリ処理) を割り当て、 第 2 VPU 2 1に は単純であるが多くのポリゴン数が要求されるォブジェクト、 例えば背 景の建物等の処理 (定型的なジオメトリ処理) を割り当てる。 また、 第 1 VPU 2 0はビデオレートに同期するマクロな演算処理を行い、 第 2 VPU 2 1は G S 3 1に同期して動作できるようにしておく。 このため に、 第 2 VPU 2 1は GS 3 1と直結するダイレクトパスを備えている。 逆に、 第 1 VPU 2 0は複雑な処理のプログラミングが容易になるよう に、 メイン C PU 1 0内のマイク口プロセッサと密接合される。
第 1 V P U 2 0及び第 2 VPU 2 1により生成されたディスプレイリ ストは、 G I F 3 0を介して G S 3 1に転送される。
G I F 3 0は、 第 1 VPU 2 0及び第 2 V P U 2 1で生成されるディ スプレイ リス トを G S 3 1 に転送する際に衝突しないよう に調停 (Arbiter) する。 本実施形態では、 これらのディスプレイリストを優 先度の高いものから順に調べ、 上位のものから G S 3 1に転送する機能 を G I F 3 0に付加している。 ディスプレイリストの優先度を表す情報 は、 通常は、 各 VPU 2 0, 2 1がディスプレイリストを生成する際に、 そのタグ領域に記述されるが、 G I F 3 0において独自に判定できるよ うにしても良い。
G S 3 1は、 描画コンテクストを保持しており、 G I F 3 0から通知 されるディスプレイリス卜に含まれる画像コンテクス卜の識別情報に基 づいて該当する描画コンテクストを読み出し、 これを用いてレンダリン グ処理を行い、 フレームバッファ 3 2にポリゴンを描画する。 フレーム メモリ 3 2は、 テクスチャメモリとしても使用できるため、 フレームバ ッファ上のピクセルイメージをテクスチャとして、 描画するポリゴンに 貼り付けることができる。
メイン D MAC 1 2は、 メインバス B 1に接続されている各回路を 対象として D M A転送制御を行うとともに、 バスインタフェース I N Tの状態に応じて、 サブバス B 2に接続されている各回路を対象として DM A転送制御を行う。
M D E C 1 3は、 メイン C P U 1 0 と並列に動作し、 M P E G ( Moving Picture Experts Group; 方式めるい【ま J P E G 、 Joint Photographic Experts Group) 方式等で圧縮されたデータを伸張する。 サブバス B 2には、 マイク口プロセッサを含んで構成されるサブ C P U 1 4、 R AMで構成されるサブメモリ 1 5、 サブ D MAC 1 6、 ォ ペレ一ティングシステムなどのプログラムが記憶されている ROM 1 7、 サウンドメモリ 4 1に蓄積された音データを読み出してオーディォ出力 として出力する音声処理装置 (S PU (Sound Processing Unit) ) 40、 データの送受信を行う通信制御部 (ATM) 5 0、 入力部 7 0が接続さ れている。
S YNC · G SM 2は、 このサブバス B 2に接続され、 従 NET 6は、 ATM 5 0に接続される。
入力部 7 0は、 外部から画像デ一夕を入力するためのビデオ入力回路 7 3、 外部から音声デ一夕を入力するためのオーディォ入力回路 74を 有している。
この実施形態では、 ビデオ入力回路 7 3を介して、 従 C P 5 (主 C P 40 0から分配されたもの) より画像データ列が入力される。 サブ C P U 1 4は、 R OM 1 7に記憶されているプログラムに従って各種動作を 行う。 サブ: D MAC 1 6は、 バスィンタフエ一ス I NTがメインパス B 1 とサブバス B 2を切り離している状態においてのみ、 サブバス B 2 に接続されている各回路を対象として D MA転送などの制御を行う。 <データ処理〉
次に、 統合型画像処理装置で行われるデータ処理形態の一例を説明す る。
第 3図は、 G S M 1 とその後段処理装置である主 S YN C 3 0 0及び 主 MG 2 0 0との間で交換される信号の説明図である。
本実施形態では、 描画許可信号 (DrawNext) を送出すべき G S M 1 の I D と処理結果及ぴ描画完了信号 (DrawDone) を受信すべき GSM 1の I D とを所定順序で格納した表示順序テ一ブル TBをアプリケー シヨン毎に用意する。 表示順序テーブル TBは、 主 C P 4 00側の外部 記憶装置 4 1 0、 主 MG 2 0 0のデ一夕レジスタ、 主 S YNC 3 0 0内 のデータレジスタのいずれかに備えられる。 要は、 主 S YNC 3 0 0が ポイントすることができる領域に備えられる。
表示順序テーブル TBの内容は、 各 G SM 1が、 画像処理結果である フレーム画像データの格納及びその読み出しを一つのフレ一ムメモリ 3 2によって実現する 「シングルバッファ方式」 と、 二つのフレームメモ リ 3 2によって切り替えながら実現する 「ダブルバッファ方式」 とでや や異なる。
第 4図は、 表示順序テーブル TBの内容例であり、 第 4図 ( a) はシ ングルバッファ方式の場合、 (b) はダブルバッファ方式の場合の例で ある。 いずれも、 アプリケーション番号によって、 個性化されており、 アプリケ一ションが指定されたときに、 それに対応する表示順序テ一ブ ル TBの内容も特定されるようになっている。
第 4図において、 G SM 1— 0〜G SM 1— 3は第 1 G S Bに備えら れる 4つの GSM、 GSM2— 0〜GSM2— 3は第 2 GS Bに備えら れる 4つの G SM、 G SM 3— 0〜GSM3— 3は第 3 G S Bに備えら れる 4つの GSM、 GSM4— 0〜GSM4— 3は第 4 G S Bに備えら れる 4つの GSMである。 各々、 1つの V— S Y N Cのタイミングでグ ループ化されるものが規定されている。
主 S YNC 3 0 0は、 表示順序テ一ブル TBを、 「表示開始」、 「表示 終了」 の二つのインデックスでポイントする。
「表示開始」 は、 描画が完了して (描画完了信号 (DrawDone) を受 信して)、 その処理結果に基づいてディスプレイ装置 D Pに表示を行う 予定の G SMであり、 「表示完了」 は、 ディスプレイ装置 D Pにおける 1フレーム分の表示期間が終了して、 次フレームの描画許可信号を発行 しても良い G SMである。 シングルバッファ方式の場合は、 表示終了を 待って表示を開始し、 ダブルバッファ方式の場合は、 表示終了と表示開 始とを同時期に行う。 従って、 第 4図 (a), (b) に示されるように、 シングルバッファ方式の場合はダブルバッファ方式の場合よりも 1つの V - S YN C分表示タイミングが遅れる。 <運用形態 >
次に、 上記のように構成される統合型画像処理装置の運用形態の一例 を説明する。 前提として、 外部記憶装置 4 1 0にアプリケーションが口 ―ドされており、 画像データ列が、 主 C P 40 0、 各 GS B 1 0 0の従 C P 5を通じて各 G SM 1に供給できるようになっているものとする。 そのアプリケ一ションが主 C P 40 0によって起動され、 そのアプリ ケーシヨンからの処理要求があると、 主 C P 4 0 0は、 主 MG 2 0 0を 介して主 S YNC 3 0 0に描画指示を出す。 主 S YNC 3 0 0は、 当該 アプリケーション用の表示順序テーブル TBに格納されている順序で、 描画許可信号 (DrawNext) を該当する GSM l宛に送出する。
GSM 1は、 以下のようにして画像処理を行う。
シングルバッファ方式の場合は、 第 5図 (a) の手順で処理を行う。 すなわち、 描画許可信号 (DrawNext) の受信を契機に自己に割り当 てられた描画処理を行う (ステップ S 1 0 1 )。 具体的には、 フレーム バッファの内容を変更する。 描画処理後は描画完了信号 (DrawDone) を出力する (ステップ S 1 0 2 )。 描画された画像がディスプレイ装置 D Pに表示されている間は、 描画許可信号 (DrawNext) の受信を待つ (ステ ッ プ S 1 0 3 、 S 1 0 4 ) 。 つ ま り 、 描画完了信号 (DrawDone) の出力時点から描画許可信号 (DrawNext) の受信までの 間が画像表示期間となる (最低 1つの V— S YNC分待たされる)。 描 画処理の対象となる画像データがなくなった場合は処理を終える (ステ ップ S 1 0 5 : Yes) 描画対象となる画像デ一夕がまだある場合はス テツプ S 1 0 1以降の処理を繰り返す (ステップ S 1 0 5 : No)。
ダブルバッファ方式の場合、 G SM 1は、 第 5図 (b) の手順で処理 を行う。
描画許可信号 (DrawNext) の受信を契機に自己に割り当てられた描 画処理を行う点は、 シングルバッファ方式の場合と同じである。 ダブル バッファ方式の場合は、 フレームバッファ (第 2図 : フレームメモリ 3 2) を、 描画処理に使用した前回の V— S YNCのフレームバッファか ら切り替えた他方のフレームバッファに切り替えることで描画処理を行 う (ステップ S 2 04、 S 2 0 1 )。
これにより、 描画処理の結果を直ちにディスプレイ装置 D Pに表示で きるようになる (描画処理のための待ち時間が存在しない)。 描画処理 後は描画完了信号 (DrawDone) を出力するとともに (ステップ S 2 0 2)、 描画許可信号 (DrawNext) の受信を待つ (ステップ S 2 0 3 )。 次の描画処理のためにフレームバッファを切り替える (ステップ S 2 0 4 )。 描画処理の対象となる画像データがなくなった場合は処理を終え る (ステップ S 2 0 5 : Yes)。 描画対象となる画像デ一夕がまだある 場合はステツプ S 2 0 1以降の処理を繰り返す (ステップ S 2 0 5 : No)。
以上のような G SM 1による処理の結果、 主 MG 2 0 0には、 統合さ れたフレーム画像データが蓄積される。 主 MG 2 0 0は、 主 SYNC 3 0 0及び主 CP 4 0 0と共同して第 6図の手順で処理を行う。
すなわち、 「表示開始」 の指すエントリ上のすべての G S Mで描画が 完了していることを確認する (ステップ S 3 0 1 )。 描画が完了してい ることを確認した場合は、 その処理結果 (描画を完了したフレ一ム画像 データ) をディスプレイ D Pに出力する (ステップ S 3 0 2 : Yes, S 3 0 3 )。 描画が完了していなかった場合は、 何らかの異常が考えられ るので、 処理を終える (ステップ S 3 0 2 : No)。
ディスプレイ装置 D Pへの出力後は、 「表示終了」 の指すエントリ上 の GSMに対して、 次のフレームの描画を指示する。 つまり、 描画許可 信号 (DrawNext) を主 S YN C 3 0 0から出力させる (ステップ S 3 0 4)。 その後、 「表示開始」、 「表示終了」 の各インデックスを一つ進 める (ステップ S 3 0 5)。 最終ェントリに達した場合は最初のェント リに戻る (ステップ S 3 0 6 : Yes、 S 3 0 7 )。 最終エントリでない 場合、 あるいは最初のエントリに戻った後、 次のデータ等がある場合は ステップ S 3 0 1以降の処理を繰り返す (ステップ S 3 0 8 : Yes)。 次のデータ等がない場合は処理を終える (ステップ 3 0 8 : No)。
このようにして、 複数の G SM 1で共同で処理を行う場合の調整を図 り、 大画面の画像を表示する場合であっても、 そのための処理を円滑に 行うことができ、 より高画質の大画面の画像を得ることができる。
なお、 個々の GSM 1で連携をとりながら描画処理を行う必要がある 場合は、 主 NET 5 0 0を通じて各 G S B 1 0 0の従 NET 6に指示を 出し、 矛盾が発生しないように調整を図る。
なお、 これらの G SM 1の描画処理を統合した結果は、 ディスプレイ 装置 D Pの一つの画面上に同時期に表示させるようにしても良く、 個々 の G S M 1による描画処理結果を一つの画面上にシーケンシャルに表示 させるようにしても良い。
第 7図〜第 9図は、 一つの画面上に同時期に表示させる場合、 第 1 0 図は、 シーケンシャルに表示させる場合の例である。
第 7図は、 4つの G SM l a〜 l bによる処理結果をディスプレイ装 置 D P上で領域合成する場合の例であり、 各 G SMが、 一画面中に、 そ れぞれ 別の有効領域を持っている。 有効領域は、 フレーム画像デ一夕 のひ値により識別されており、 主 MG 2 0 0は、 各画面に対し、 αブレ ンデイングを行うことにより、 領域合成を実現し、 一枚の画面として合 成出力する。
第 8図は、 4つの G SM l a〜 l dの処理結果からシーンアンチエリ ァスを実現する場合の例である。 GS M 1 a〜 1 dがそれぞれサブピク セル単位でずれている同一の画像を持っている。 これらの画像に対し、 画面毎にひプレンディングを行うことにより、 加算平均を行い、 シーン アンチェリアスを実現する。
第 9図は、 4つの GSM 1 a〜 l dの処理結果のレイヤ合成を行う場 合の例である。 GSM l a〜 l bがそれぞれ持っている画像を固定の有 線順位を持ったレイヤとして、 レイヤ順にひ値により合成する。 レイヤ の順番は、 レジス夕により選択できる。
第 1 0図は、 4つの G SM 1 a〜 l dの処理結果に基づいてフリップ アニメ一ションを行う場合の例である。 G SM 1 a〜 1 dがそれぞれ持 つている画像をフレーム単位でフリップアニメーションで順次表示する。 以上のような表示形態は、 表示順序テ一ブル TBに表示順序等を規定 することによって、 きわめて容易に実現される。
このように、 本実施形態の統合型画像処理装置では、 表示順序テープ ル TBを設け、 この表示順序テーブル TBに規定した順序で、 該当する G S M 1に描画許可信号 (DrawNext) を送出し、 各 GSM 1からの描- 画終了信号 (DrawDone) の受信を契機にディスプレイ装置 D Pに処理 結果を出力するようにしたので、 連携すべき G S M 1の数が多くなつて も、 矛盾なく描画処理を行うことができる。
なお、 本実施形態では、 画像処理を行う場合のデータ処理技術につい て説明したが、 本発明のデータ処理技術は、 他の種類の情報処理、 例え ば音響生成に適用することもできる。 これによると、 例えばォ一ケスト ラの演奏のような高精細、 高品位の音の生成も可能となる。 この場合は、 音響生成のためのデータも、 各 GSM 1で個々に処理することになる。 また、 画像処理と音響生成とをリンクさせて、 複合的な処理を行う形態 も考えられる。 第 2図に未したように、 本実施形態の G S M 1によれば、 その処理は可能である。 音響生成を伴う場合、 これにより得られた音響 データは、 所定のスピ一力から出力音を出力させるための信号となり、 上述の従 M G 3、 主 M G 2 0 0によって、 上述のフレーム画像データと 同期させて出力するようにする。 なお、 各 G S M 1への音声データの入 力は、 第 2図におけるオーディオ入力回路 7 4から行い、 音声データの 出力は、 S P U 4 0から行うことになる。
[第 2実施形態]
第 1実施形態では、 各々連携して共同処理を行う複数の画像処理装置 を備えた統合型画像処理装置に含まれるデ一夕処理システムの例につい て説明したが、 本発明は、 ネットワーク型のデータ処理システムとして 実施することも可能である。
すなわち、 各々がまったく異なる場所に設置されている複数の情報処 理端末をインターネット等のコンピュータネッ トヮ一クを介して接続し、 これらを本発明にいう処理装置、 調停手段及び制御手段として動作させ るとともに、 これらの情報処理端末の間で、 コンピュータネットワーク を通じて相互に各種信号、 例えば上述の描画許可信号 (DrawNext) 及 び描画終了信号 (DrawDone) の送受を行うことによつても実現するこ とが可能である。
この場合の複数の情報処理端末のいくつかは第 1実施形態で説明しだ G S B 1 0 0として動作する。 さらにいくつかの情報処理端末は、 各 G S B 1 0 0として動作する情報処理端末の出力データを統合する主 M G 2 0 0の機能、 各 G S B 1 0 0に対して同期信号 (V— S Y N C ) その 他の動作用データを供給するための主 S Y N C 3 0 0の機能、 画像処理 や通信手順を統括的に制御する主 C P 4 0 0の機能、 すべての G S B 1 0 0を連携させるための主 N E T 5 0 0の機能をそれぞれ分担して備え るようにする。
主 M G 2 0 0として動作する情報処理端末の出力側にはディスプレイ 装置が接続されるようにする。 また、 主 S YNC 3 0 0から GSM 1 0 0への各種データの発出タイミングは、 主 MG 2 0 0によって制御され るようにする。 さらに、 主 C P 40 0として動作する情報処理端末には: 主 MG 2 0 0として動作する情報処理端末、 外部記憶装置及び主 NE T として動作する情報処理端末が接続されるようになっている。
このようなネッ 卜ワーク型のデータ処理システムの動作は、 第 1実施 形態の場合とほぼ同様となる。
[第 3実施形態]
本発明は、 共同処理を行うための複数の処理装置 (画像処理の場合に は例えば上述の G SM 1 0 0のようなもの) をコンピュータネットヮ一 クを通じて制御するデータ処理システムとして実施することも可能であ る。
このようなデータ処理システムは、 例えばコンピュータネットワーク に接続可能なサーバと、 そのサーバがアクセス可能な外部記録装置とを 備えて構成する。 サ一パ (それに搭載されている C P U) は、 上記の外 部記録媒体又は C D— ROM等の可搬性の記録媒体に記録されているコ ンピュー夕プログラムを読み込んで実行することにより、 主制御部とし ての機能を形成する。
主制御部は、 以下の三つの機能モジュールを備えるものである。
第 1の機能モジュールは、 実行許可信号、 例えば上述の描画許可信号 (DrawNext) を送出すべき 1又は複数の処理装置の識別情報と処理結 果及び実行終了信号、 例えば上述の描画終了信号 (DrawDone) を受信 すべき 1又は複数の処理装置の識別情報とを所定順序で格納した処理テ 一ブルを上記の外部記録装置にアプリケーション毎に保持させておく機 能を有する。
第 2の機能モジュールは、 あるアプリケ一ションからの処理要求の受 信を契機に、 当該アプリケーション用の処理テーブルを特定する機能を 有する。
第 3の機能モジュールは、 第 2の機能モジュールによって特定された 処理テーブルに格納されている順序で実行許可信号 (DrawNext) を該 当する処理装置宛に送出するとともに処理結果及び実行終了信号 (DrawDone) を該当する処理装置から受信する機能を有する。
このようなデータ処理システムの動作は、 主制御部が主体的に各処理 装置を制御する点以外は、 上述の第 1及び第 2実施形態の場合と同じで あり、 これによつて、 複数の処理装置を用いた場合の処理能力を簡易に 調整できるようになる。
以上のように、 本発明によれば、 複数の処理装置を用いた場合の処理 能力を簡易に調整することができるようになる。

Claims

請求の範囲
1 . 複数の処理装置の動作を制御する制御手段を備え、 個々の処理装 置が、 各々前記制御手段から送られる実行許可信号の受信を契機に自己 に割り当てられた処理の実行を開始するとともに処理実行後は処理結果 及び実行終了信号を前記制御手段宛に送出するものにおいて、
前記制御手段が、
前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序で格納した処理テ一ブルをアプリケーション毎に 具備し、 あるアプリケーションからの処理要求の受信を契機に、 当該ァ プリケーション用の処理テーブルに格納されている順序で、 前記実行許 可信号を該当する処理装置宛に送出するとともに前記処理結果及び実行 終了信号を該当する処理装置から受信するように構成されていることを 特徴とする、 データ処理システム。
2 . 個々の処理装置が所定の画像を細分割した分割画像に対するフレ ーム画像データを他の処理装置と共同して生成し、 生成したフレーム画 像デ一タを前記処理結果として出力するように構成されている、 請求の 範囲第 1項記載のデータ処理システム。
3 . 個々の処理装置は、 所定の画像の描画処理を行う描画処理手段と、 所定の画像表示命令に基づくジオメ トリ処理を行う複数のジオメ トリ処 理手段と、 これらの間に介在する画像インタフェースとを含み、
前記描画処理手段は、 前記ジオメ 卜リ処理手段毎に異なる複数組のパ ラメ一夕セッ トとなる描画コンテクストをその識別情報と共に記憶する ためのバッファと、 前記画像ィンタフェースからの描画指示の入力を契 機に前記バッファから特定の描画コンテクス卜を読み出し、 読み出した 描画コンテクストに基づいて画像の描画処理を行う手段とを備えるもの であり、
前記複数のジオメ トリ処理手段は、 それぞれ前記画像表示命令に基づ くジオメ トリ処理を独立に行い、 該処理の結果得られる描画コンテクス トの識別情報を含む画像転送要求をその優先度を表す情報と共に前記画 像ィン夕フェースに送出するものであり、
前記画像ィン夕フェースは、 より優先度の高い画像転送要求を受け付 けて前記描画処理手段に前記描画指示を入力するものであり、
前記描画処理手段による描画処理結果を前記処理結果として出力する ように構成されている、 請求の範囲第 1項記載のデータ処理システム。
4 . 複数の処理装置における前記描画処理結果を一つの表示画面上に 同時期に表示させる手段をさらに備えてなる、 請求の範囲第 3項記載の データ処理システム。
5 . 複数の処理装置における前記描画処理結果を一つの表示画面上に シーケンシャルに表示させる手段をさらに備えてなる、 請求の範囲第 3 項記載のデータ処理システム。
6 . 連携して共同処理を行う N ( Nは 1より大きい自然数) 個の処理 装置の動作を各々調停する M ( Mは 1より大きい自然数) 個の第 1調停 手段と、 前記 M個の第 1調停手段の動作を調停する第 2調停手段と、 こ れらの動作を制御する制御手段とを備え、 個々の処理装置が、 各々前記 制御手段から送られる実行許可信号の受信を契機に自己に割り当てられ た処理の実行を開始するとともに処理実行後は処理結果及び実行終了信 号を前記制御手段宛に送出するものにおいて、
前記制御手段は、
前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序で格納した処理テーブルをアプリケーション毎に 具備し、 あるアプリケーションからの処理要求の受信を契機に、 当該処 理要求の処理テーブルに格納されている順序で、 前記実行許可信号を該 当する処理装置宛に送出するとともに前記処理結果及び実行終了信号を 該当する処理装置から受信するように構成されていることを特徴とする、 データ処理システム。
7 . 偭々の処理装置が所定の画像を細分割した分割画像に対するフレ ーム画像データを他の処理装置と共同して生成し、 生成したフレーム画 像データを前記処理結果として出力するように構成されている、 請求項 6記載のデータ処理システム。
8 . 個々の処理装置は、 所定の画像の描画処理を行う描画処理手段と、 所定の画像表示命令に基づくジオメ トリ処理を行う複数のジオメトリ処 理手段と、 これらの間に介在する画像ィン夕フェースとを含み、
前記描画処理手段は、 前記ジオメトリ処理手段毎に異なる複数組のパ ラメ一タセッ トとなる描画コンテクストをその識別情報と共に記憶する ためのバッファと、 前記画像ィンタフェースからの描画指示の入力を契 機に前記バッファから特定の描画コンテクストを読み出し、 読み出した 描画コンテクストに基づいて画像の描画処理を行う手段とを備えるもの であり、
前記複数のジオメトリ処理手段は、 それぞれ前記画像表示命令に基づ くジオメ トリ処理を独立に行い、 該処理の結果得られる描画コンテクス トの識別情報を含む画像転送要求をその優先度を表す情報と共に前記画 像インタフェースに送出するものであり、
前記画像インタフェースは、 より優先度の高い画像転送要求を受け付 けて前記描画処理手段に前記描画指示を入力するものであり、
前記描画処理手段による描画処理結果を前記処理結果として出力する ように構成されている、 請求の範囲第 6項記載のデータ処理 9 . 複数の処理装置における前記描画処理結果を一つの表示画面上に 同時期に表示させる手段をさらに備えてなる、 請求の範囲第 8項記載の データ処理システム。
1 0 . 複数の処理装置における前記描画処理結果を一つの表示画面上 にシーケンシャルに表示させる手段をさらに備えてなる、 請求の範囲第 8項記載のデ一夕処理システム。
1 1 . 複数の処理装置の動作を制御するシステムであって、 個々の処 理装置が、 実行許可信号の受信を契機に自己に割り当てられた処理の実 行を開始するとともに処理実行後は処理結果及び実行終了信号を送出す るものにおいて、
前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序で格納した処理テーブルをアプリケーション毎に 保持する第 1の手段と、
あるアプリケーションからの処理要求の受信を契機に、 当該アプリケ —ション用の処理テーブルを特定する第 2の手段と、
特定した処理テーブルに格納されている順序で前記実行許可信号を該 当する処理装置宛に送出するとともに前記処理結果及び実行終了信号を 該当する処理装置から受信する第 3の手段とを備えたことを特徴とする、 データ処理システム。
1 2 . 前記複数の処理装置の各々が通信機能を有するコンピュータで あり、
少なくともこれらの処理装置との間でコンピュータネッ 卜ワークを通 じて前記実行許可信号及び実行終了信号の受け渡しを行うように構成さ れている、 請求の範囲第 1 1項記載のデータ処理
1 3 . 連携して共同処理を行う N ( Nは 1より大きい自然数) 偭の処 理装置の動作を各々調停する M ( Mは 1より大きい自然数) 個の第 1調 停手段、 及び、 前記 M個の第 1調停手段の動作を調停する第 2調停手段 の動作を制御するシステムであって、 個々の処理装置が、 実行許可信号 の受信を契機に自己に割り当てられた処理の実行を開始するとともに処 理実行後は処理結果及び実行終了信号を送出するものにおいて、
前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序で格納した処理テーブルをアプリケ一ション毎に 保持する第 1の手段と、
あるアプリケーションからの処理要求の受信を契機に、 当該処理要求 の処理テーブルを特定する第 2の手段と、 特定した処理テーブルに格納されている順序で、 前記実行許可信号を 該当する処理装置宛に送出するとともに前記処理結果及び実行終了信号 を該当する処理装置から受信する第 3の手段とを備えたことを特徴とす る、 データ処理システム。
1 . 前記複数の処理装置の各々が通信機能を有するコンピュータで あり、
少なくともこれらの処理装置との間でコンピュータネッ トワークを通 じて前記実行許可信号及び実行終了信号の受け渡しを行うように構成さ れている、 請求の範囲第 1 3項記載のデータ処理システム。
1 5 . それぞれ実行許可信号の受信を契機に自己に割り当てられた描 画処理の実行を開始するとともに描画処理の実行後はその処理結果及び 実行終了信号を出力する複数の処理装置を制御して所定の表示装置に前 記複数の処理装置の一部又は全部からの処理結果を表示させる方法であ つて、 前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序でアプリケ一ション毎に定めておき、
一のアプリケーションからの処理要求の受信を契機に、 当該アプリケ —ション用に定められている順序で、 前記実行許可信号を該当する処理 装置宛に送出するとともに前記処理結果及び実行終了信号を該当する処 理装置から受け取り、 受け取った処理結果を前記表示装置に所定夕イミ ングで表示させることを特徴とする、 複数の処理装置によるデータ処理 方法。
1 6 . コンピュータを、 それぞれ実行許可信号の受信を契機に自己に 割り当てられた処理の実行を開始するとともに処理実行後は処理結果及 び実行終了信号を送出する複数の処理装置の動作を制御するデータ処理 システムとして動作させるためのコンピュータプログラムであって、 前記データ処理システムが、
前記実行許可信号を送出すべき 1又は複数の処理装置の識別情報と前 記処理結果及び前記実行終了信号を受信すべき 1又は複数の処理装置の 識別情報とを所定順序で格納した処理テーブルをアプリケーション毎に 保持する第 1の手段と、
あるアプリケ一ションからの処理要求の受信を契機に、 当該アプリケ ーション用の処理テーブルを特定する第 2の手段と、
特定した処理テーブルに格納されている順序で前記実行許可信号を該 当する処理装置宛に送出するとともに前記処理結果及び実行終了信号を 該当する処理装置から受信する第 3の手段とを備えることを特徴とする、 コンピュータプログラム。
1 7 . 請求の範囲第 1 6項に記載されたコンピュータプログラムを記 録してなる、 コンピュータ読みとり可能な記録媒体。
PCT/JP2001/008862 2000-10-10 2001-10-09 Procede et systeme de traitement de donnees, programme informatique, et support enregistre WO2002031769A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP01974746.8A EP1326204B1 (en) 2000-10-10 2001-10-09 Data processing system and method, computer program, and recorded medium
BR0107325-7A BR0107325A (pt) 2000-10-10 2001-10-09 Sistema e método de processamento de dados, programa de computador, e mìdia de gravação
AU94208/01A AU9420801A (en) 2000-10-10 2001-10-09 Data processing system and method, computer program, and recorded medium
CA002392541A CA2392541A1 (en) 2000-10-10 2001-10-09 Data processing system and method, computer program, and recorded medium
MXPA02005310A MXPA02005310A (es) 2000-10-10 2001-10-09 Sistema de procesamiento de datos, programa de computadora y medio de registro.
KR1020027007390A KR20020064928A (ko) 2000-10-10 2001-10-09 데이터 처리 시스템과 방법, 컴퓨터 프로그램 및 기록 매체

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-309787 2000-10-10
JP2000309787 2000-10-10
JP2001306962A JP3688618B2 (ja) 2000-10-10 2001-10-02 データ処理システム及びデータ処理方法、コンピュータプログラム、記録媒体
JP2001-306962 2001-10-02

Publications (1)

Publication Number Publication Date
WO2002031769A1 true WO2002031769A1 (fr) 2002-04-18

Family

ID=26601818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/008862 WO2002031769A1 (fr) 2000-10-10 2001-10-09 Procede et systeme de traitement de donnees, programme informatique, et support enregistre

Country Status (11)

Country Link
US (1) US7212211B2 (ja)
EP (1) EP1326204B1 (ja)
JP (1) JP3688618B2 (ja)
KR (1) KR20020064928A (ja)
CN (1) CN1236401C (ja)
AU (1) AU9420801A (ja)
BR (1) BR0107325A (ja)
CA (1) CA2392541A1 (ja)
MX (1) MXPA02005310A (ja)
TW (1) TWI244048B (ja)
WO (1) WO2002031769A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043130A1 (ja) * 2005-10-03 2007-04-19 Fujitsu Limited 描画装置、半導体集積回路装置及び描画方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7395538B1 (en) * 2003-03-07 2008-07-01 Juniper Networks, Inc. Scalable packet processing systems and methods
US20080211816A1 (en) * 2003-07-15 2008-09-04 Alienware Labs. Corp. Multiple parallel processor computer graphics system
US7996585B2 (en) * 2005-09-09 2011-08-09 International Business Machines Corporation Method and system for state tracking and recovery in multiprocessing computing systems
JP2007233450A (ja) * 2006-02-27 2007-09-13 Mitsubishi Electric Corp 画像合成装置
US8166165B1 (en) 2007-03-13 2012-04-24 Adobe Systems Incorporated Securing event flow in a user interface hierarchy
US8984446B1 (en) * 2007-03-13 2015-03-17 Adobe Systems Incorporated Sharing display spaces
CN101369345B (zh) * 2008-09-08 2011-01-05 北京航空航天大学 一种基于绘制状态的多属性对象绘制顺序优化方法
US8601192B2 (en) * 2009-06-08 2013-12-03 Panasonic Corporation Arbitration device, arbitration system, arbitration method, semiconductor integrated circuit, and image processing device
CN108711179B (zh) * 2018-05-21 2022-07-19 杭州多技教育科技有限公司 绘图还原方法和系统
CN108898985B (zh) * 2018-08-01 2021-09-28 大连海事大学 一种主从式光纤视频播放系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62118479A (ja) * 1985-11-19 1987-05-29 Sony Corp 情報処理システム
JPH04131960A (ja) * 1990-09-25 1992-05-06 Hitachi Ltd 計算機の運転方法及び計算機システム
US5237686A (en) * 1989-05-10 1993-08-17 Mitsubishi Denki Kabushiki Kaisha Multiprocessor type time varying image encoding system and image processor with memory bus control table for arbitration priority
JPH07248750A (ja) * 1994-03-11 1995-09-26 Hitachi Ltd マルチ画面表示システム
JPH08138060A (ja) * 1994-11-04 1996-05-31 Hitachi Ltd 並列プロセッサを用いる表示処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4344134A (en) * 1980-06-30 1982-08-10 Burroughs Corporation Partitionable parallel processor
JPS63148372A (ja) * 1986-12-12 1988-06-21 Agency Of Ind Science & Technol プログラム変換装置
US5010515A (en) * 1987-07-28 1991-04-23 Raster Technologies, Inc. Parallel graphics processor with workload distributing and dependency mechanisms and method for distributing workload
JP2836902B2 (ja) * 1989-05-10 1998-12-14 三菱電機株式会社 マルチプロセッサ型動画像符号化装置及びバス制御方法
JPH05258027A (ja) * 1992-03-12 1993-10-08 Toshiba Corp 画像処理装置
JPH05274400A (ja) * 1992-03-25 1993-10-22 Toshiba Corp 画像処理装置
JPH06214555A (ja) * 1993-01-20 1994-08-05 Sumitomo Electric Ind Ltd 画像処理装置
US5493643A (en) * 1994-05-03 1996-02-20 Loral Aerospace Corp. Image generator architecture employing tri-level fixed interleave processing and distribution buses
GB2302743B (en) * 1995-06-26 2000-02-16 Sony Uk Ltd Processing apparatus
US5768594A (en) * 1995-07-14 1998-06-16 Lucent Technologies Inc. Methods and means for scheduling parallel processors
US5821950A (en) * 1996-04-18 1998-10-13 Hewlett-Packard Company Computer graphics system utilizing parallel processing for enhanced performance
JPH11338606A (ja) * 1998-05-21 1999-12-10 Dainippon Printing Co Ltd 仮想空間共有システム
US6329996B1 (en) * 1999-01-08 2001-12-11 Silicon Graphics, Inc. Method and apparatus for synchronizing graphics pipelines
JP2000222590A (ja) * 1999-01-27 2000-08-11 Nec Corp 画像処理方法及び装置
US6753878B1 (en) * 1999-03-08 2004-06-22 Hewlett-Packard Development Company, L.P. Parallel pipelined merge engines
US6384833B1 (en) * 1999-08-10 2002-05-07 International Business Machines Corporation Method and parallelizing geometric processing in a graphics rendering pipeline
JP3325253B2 (ja) * 2000-03-23 2002-09-17 コナミ株式会社 画像処理装置、画像処理方法、記録媒体及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62118479A (ja) * 1985-11-19 1987-05-29 Sony Corp 情報処理システム
US5237686A (en) * 1989-05-10 1993-08-17 Mitsubishi Denki Kabushiki Kaisha Multiprocessor type time varying image encoding system and image processor with memory bus control table for arbitration priority
JPH04131960A (ja) * 1990-09-25 1992-05-06 Hitachi Ltd 計算機の運転方法及び計算機システム
JPH07248750A (ja) * 1994-03-11 1995-09-26 Hitachi Ltd マルチ画面表示システム
JPH08138060A (ja) * 1994-11-04 1996-05-31 Hitachi Ltd 並列プロセッサを用いる表示処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1326204A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043130A1 (ja) * 2005-10-03 2007-04-19 Fujitsu Limited 描画装置、半導体集積回路装置及び描画方法

Also Published As

Publication number Publication date
MXPA02005310A (es) 2002-12-11
EP1326204B1 (en) 2018-08-08
TWI244048B (en) 2005-11-21
JP3688618B2 (ja) 2005-08-31
US7212211B2 (en) 2007-05-01
KR20020064928A (ko) 2002-08-10
CN1236401C (zh) 2006-01-11
JP2002244646A (ja) 2002-08-30
CA2392541A1 (en) 2002-04-18
US20020052955A1 (en) 2002-05-02
EP1326204A1 (en) 2003-07-09
BR0107325A (pt) 2002-08-27
AU9420801A (en) 2002-04-22
CN1393000A (zh) 2003-01-22
EP1326204A4 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
JP3580789B2 (ja) データ通信システム及び方法、コンピュータプログラム、記録媒体
TW487900B (en) Image display system, host device, image display device and image display method
US7737982B2 (en) Method and system for minimizing an amount of data needed to test data against subarea boundaries in spatially composited digital video
JP3681026B2 (ja) 情報処理装置および方法
JP4372043B2 (ja) コマンド実行制御装置、コマンド実行指示装置およびコマンド実行制御方法
US20020130870A1 (en) Information processing system, integrated information processing system, method for calculating execution load, and computer program
JP2001243481A (ja) 画像生成装置
JP3688618B2 (ja) データ処理システム及びデータ処理方法、コンピュータプログラム、記録媒体
US20200167119A1 (en) Managing display data
US8447035B2 (en) Contract based memory management for isochronous streams
JP4011082B2 (ja) 情報処理装置、グラフィックプロセッサ、制御用プロセッサおよび情報処理方法
US7017065B2 (en) System and method for processing information, and recording medium
JP2001255860A (ja) 映像データ転送装置及び映像データの転送方法
JP3468985B2 (ja) グラフィック描画装置、グラフィック描画方法
JPH1153528A (ja) デジタル画像処理装置及び方法
JPH0916807A (ja) マルチスクリーン表示回路
JPH06274155A (ja) 画像の合成表示装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN IN KR MX NZ RU SG

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BE CH DE DK ES FI FR GB IT NL SE

WWE Wipo information: entry into national phase

Ref document number: 94208/01

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: IN/PCT/2002/00629/MU

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 519057

Country of ref document: NZ

WWE Wipo information: entry into national phase

Ref document number: 2392541

Country of ref document: CA

Ref document number: 2001974746

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: PA/a/2002/005310

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2002 2002115642

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020027007390

Country of ref document: KR

Ref document number: 018030750

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020027007390

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2001974746

Country of ref document: EP