WO1998047146A1 - Dispositif d'edition et procede d'edition - Google Patents

Dispositif d'edition et procede d'edition Download PDF

Info

Publication number
WO1998047146A1
WO1998047146A1 PCT/JP1998/001685 JP9801685W WO9847146A1 WO 1998047146 A1 WO1998047146 A1 WO 1998047146A1 JP 9801685 W JP9801685 W JP 9801685W WO 9847146 A1 WO9847146 A1 WO 9847146A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
video
editing
effect
audio
Prior art date
Application number
PCT/JP1998/001685
Other languages
English (en)
French (fr)
Inventor
Masafumi Matsui
Naomi Egashira
Tetsuro Nakata
Toshiyuki Tanaka
Motomu Ueta
Yoshiyuki Nakamura
Kosei Yamashita
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP98912780A priority Critical patent/EP0920014A4/en
Priority to JP54372798A priority patent/JP4536164B2/ja
Priority to US09/202,232 priority patent/US6674955B2/en
Priority to CA002257316A priority patent/CA2257316C/en
Publication of WO1998047146A1 publication Critical patent/WO1998047146A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • G11B2220/415Redundant array of inexpensive disks [RAID] systems

Definitions

  • the present invention relates to an editing device, and is suitably applied to, for example, an editing device and an editing method for editing news material used in a broadcasting station or the like.
  • the present invention has been made in view of the above points, and can quickly produce a video program requiring immediacy provided for news programs, news programs, sports programs, and the like. It is intended to propose an editing device and an editing method with improved usability.
  • An editing device relates to a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a viewer window.
  • Log to display clip image A window and a program window for creating a program list by arranging multiple events on the timeline in a desired order are displayed on the computer display and displayed on the timeline.
  • a computer is provided to display an icon indicating from which source device the event is generated.
  • the editing operator can easily grasp visually from which source device each event is generated, so that a reliable editing operation can be performed.
  • the editing apparatus of the present invention includes a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a viewer window.
  • Window that displays a clip image of the program and a program window that creates a program list by arranging multiple events on the timeline in the desired order.
  • Icon for the desired effect selected in the It is characterized by generating a program list for applying effects to events by pasting it on a memory line.
  • the editing apparatus of the present invention can quickly and easily select an effect and set it for each event.
  • the editing system of the present invention includes a clip image of all editing cuts, Input images and timelines can be listed on the GUI, and the editing order can be determined while viewing the side-by-side clips, and they can be easily replaced.
  • the editing device of the present invention provides a fader assignment dialog for assigning an audio fader provided in an audio-only cone controller to an audio track of each event arranged in a timeline.
  • the feature is to control the level of each audio track of an event based on the information set in the fader assignment dialog.
  • the dedicated tracks can individually control the audio tracks of each event, and each event can be controlled in accordance with each event.
  • the track and foward lever settings can be changed arbitrarily.
  • the editing device of the present invention arranges a plurality of events displayed as clip images in a log window on a timeline by dragging and dropping each event.
  • Mode and multiple events displayed as clip images in the mouth window automatically on the timeline in the specified order without dragging and dropping. It is characterized by having a mode to be arranged and.
  • the editing device of the present invention sets an effect insertion section on the timeline while viewing a plurality of events arranged on the timeline, and sets the effect input section on the timeline.
  • the feature is that the selected effect is set in the section.
  • the editing device of the present invention sets an input section of an event to be overlaid on the event on the timeline while viewing a plurality of events arranged on the timeline, It is characterized in that the event selected in the window is inserted into the set event insertion section on the timeline.
  • An editing method includes a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a viewer window.
  • a log window that displays a clip image of the program, and a program window that creates a program list by arranging multiple events on the timeline in the desired order.
  • the computer is provided with an icon indicating which source device the event originated from. (And therefore, the editing operator must be able to determine from which source device each event Since it is easy to visually grasp whether the event is a generated event, it is possible to perform reliable editing work.
  • the editing method of the present invention includes a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a viewer window.
  • Window that displays a clip image of a program and a program window that creates a program list by arranging multiple events on a timeline in a desired order.
  • Display on the display and edit In response to the operation of the operator, an effect setting dialog for setting an effect for each event arranged in the timeline is displayed, and a desired effect selected in the effect setting dialog is displayed. By pasting the icon of the effect on the timeline so as to associate the event, a program list for applying the effect to the event is generated. That is what you do.
  • the editing method of the present invention can quickly and easily select an effect and set it for each event.
  • the editing system of the present invention allows a user to view a list of clip images, input images, timelines, etc. of all the editing cuts on a GUI while viewing the arranged clips. You can decide the order of editing and easily change it.
  • the editing method of the present invention is directed to a fader assign dial for assigning an audio fader provided in an audio dedicated cone controller to an audio track of each event arranged on a time line.
  • the feature is to control the level of each audio track of an event based on the information set in the fader assignment dialog.
  • the audio track of each event can be individually controlled by a dedicated controller, and each event can be individually controlled according to the event.
  • the track and foward lever settings can be changed arbitrarily.
  • the editing method of the present invention provides a view for generating an event by determining a knitting point while viewing a source material.
  • a program window is displayed by arranging a log window that displays a clip image relating to the event set in the viewer window and the above-described plurality of events on a timeline in a desired order.
  • the program window for creating the list is displayed on the computer display, and the multiple events displayed as clip images in the log window are drag-and-drop for each event. Without dragging and dropping the event lined up on the timeline and the multiple events displayed as clip images in the log window.
  • Based on the mode of automatically arranging on the above timeline in the specified order, as a clip image on the above mouth down window This is an editing method characterized by arranging the displayed events on the timeline.
  • the editing method of the present invention sets the effect insertion section on the timeline while viewing a plurality of events arranged on the timeline, and sets the effect insertion section on the timeline.
  • the feature is that the selected ef- het is set in the section.
  • the editing method of the present invention displays a program window for creating a program list by arranging the plurality of events on a timeline in a desired order on a computer display, and displays the program window on the timeline. While considering a plurality of arranged events, on the timeline, set an entry section of an event to be overlaid on the above event, and set the event selected in the above log window. The event is inserted into the above-described event insertion section on the timeline. It is.
  • the editing apparatus and method of the present invention when producing a news program requiring immediacy, a quick editing operation can be performed by making use of the random access characteristic of non-living.
  • the editing apparatus and method of the present invention can display a clip image of all edit cuts, an input image, a timeline, and the like on a GUI, and can display the arranged clips. You can decide the editing order while watching and easily change the order.
  • the editing apparatus and method of the present invention can set a variety of effect functions, so that high-speed expressive video production can be performed.
  • the editing apparatus and method of the present invention By applying the editing apparatus and method of the present invention in news program production and news program production, editing such as adding a mosaic effect, changing the voice of a speaker, and removing a surrounding noise at the interview site can be performed. You can do it yourself.
  • the editing apparatus and method of the present invention use both computer-based processing on software and hardware to achieve these various effects so as to be optimal. High-speed digital image editing and audio editing can be realized in real time.
  • FIG. 1 is a block diagram showing an editing apparatus to which the present invention is applied.
  • FIG. 2 is a block diagram showing an internal configuration of a computer constituting the editing device.
  • FIG. 3 is a block diagram showing an internal configuration of the editing processing device constituting the editing device.
  • FIG. 4 shows the configuration of the system control section of the editing processor.
  • FIG. 5 is a block diagram showing a configuration of a matrix switcher of the editing processing device.
  • FIG. 6 is a block diagram illustrating a configuration of an image processing unit of the editing processing device.
  • FIG. 7 is a block diagram showing the configuration of the audio processing unit of the editing processing device.
  • FIG. 8 is a block diagram showing the configuration of the local storage connected to the editing device.
  • FIG. 9 is a block diagram showing the configuration of a disk array block of the locale storage.
  • FIG. 10 is a diagram for explaining the operation in the disk array block.
  • FIG. 11 is a diagram for explaining the operation in the disk array block.
  • FIG. 12 is a diagram for explaining a graphic user interface screen for editing.
  • FIG. 13 is a diagram for explaining the viewer window.
  • FIG. 14 is a diagram for explaining the log window.
  • FIG. 15 is a diagram for explaining a display format of a clip card in the log window.
  • FIG. 16 is a schematic diagram for explaining the program window.
  • FIG. 17 is a schematic diagram for explaining the program window.
  • FIG. 18 is a schematic diagram for explaining a device icon.
  • FIG. 19 is a diagram for explaining file information.
  • FIG. 20 is a flowchart for explaining the operation of the event registration process.
  • FIG. 21 is a diagram for explaining the file search dialog.
  • FIG. 22 is a diagram for explaining the file list display dialog.
  • FIG. 23 is a diagram for explaining the video level setting dialog.
  • FIG. 24 is a diagram for explaining the audio level setting dialog.
  • FIG. 25 is a diagram for explaining a down-mode setting dialog.
  • FIG. 26 is a diagram for explaining the scene name setting dialog.
  • FIG. 27 is a flowchart for explaining the program list creation processing.
  • FIG. 28 is a diagram for explaining a dialog for setting a mixdown.
  • FIG. 29 is a diagram for explaining a dialog for the feeder assignment.
  • FIG. 30 is a diagram for explaining the effect setting dialog.
  • FIG. 31 is a diagram for explaining the effect setting work on the timeline.
  • FIG. 33 is a diagram for explaining the effect setting work on the timeline.
  • FIG. 34 is a diagram for explaining the effect setting work on the timeline.
  • FIG. 35 is a diagram for explaining the effect setting work on the timeline.
  • FIG. 36 is a diagram for explaining the effect setting work on the timeline.
  • FIG. 37 is a diagram for explaining the state of the now line on the time line when the preview is executed.
  • FIG. 38 is a diagram for explaining a dialog for setting a recording device.
  • reference numeral 1 denotes an editing apparatus to which the present invention is applied as a whole, which is roughly divided into a computer 2 and an editing processing apparatus 3.
  • the computer 2 is connected to the main body 2A including a CPU (central processing unit) and various processing circuits, or a floppy disk drive, a hard disk drive, and the like, and the main body 2A. It has a monitor 2B as display means, a keyboard 2C and a mouse 2D as input means.
  • application software for editing is pre-installed on the hard disk drive, and the application software is installed under the operating system. By operating it, it starts up as a computer for the editing device.
  • a graphic image for a GUI (graphical user interface) for editing is displayed on the monitor 2B.
  • a user interface is configured by the graphic display and the above-described input means. For example, using a mouse 2D, a graphic showing a control command button displayed on the monitor 2B By selecting a desired graphic display from the displays, a control command for designating the contents of the editing process is input.
  • the computer 2 generates a control signal S 1 corresponding to the input control command to control the editing operation in the editing processing device 3 and sends the control signal S 1 to the editing processing device 3 if the input control command controls the editing processing operation in the editing processing device 3. And instructs an editing operation.
  • a video signal S 2 is input to the computer 2 via the editing processing device 3, whereby the video of each material is displayed on the monitor 2 B, and the content of the material is checked while the content of the video signal S 2 is checked. You can mark the start point) and the out point (end point of the event).
  • This event is an editing section specified by the in point and the ending point, and indicates one editing material arranged on the timeline. This event is composed of an audio event, a video event, a DSK (Down Stream Key) event, and the like.
  • the computer 2 can confirm the event by displaying the event-edited completed program image cut out by designating the in-point and the art point on the monitor. (Hereinafter, playing back and displaying the clipped event or editing program is called a preview.)
  • the editing processing device 3 has a matrix switcher section, an image processing section, and an audio processing section inside, and cuts and cuts materials, or performs effect processing on video signals and audio signals.
  • This is an editing execution device that executes actual editing work.
  • the editing processor 3 is connected not only to the computer 2 as described above, but also to the dedicated controllers 4 and 5 as another input means. 4 and 5 allow you to enter control commands for editing. ing.
  • the dedicated controller 4 is a button operator for instructing the in and out points of the material, a button operator for instructing the reproduction of the material, or a button for instructing recording of the edited program. It has dial controls for inputting instructions for variable speed playback (so-called shuttle playback) and frame-by-frame playback (so-called jog playback).
  • the control signal S 3 corresponding to the instruction information input via the operator or the dial operator is transmitted to the editing processor 3.
  • the dedicated controller 5 also has four audio feeder levers for setting the signal level of the audio signal and a video feeder lever for setting the switching ratio when switching between two images. And sends a control signal S4 to the editing processing device 3 in accordance with the instruction information input through the feeder lever (this instruction information indicates a set value by the feeder lever). .
  • a daily server 6 (a storage means for generally storing editing materials such as video and audio in a broadcasting station) is connected to the editing processing device 3. Can capture video and audio signals stored in the daily server 6.
  • the daily server 6 has output ports for two channels, and according to the control signals S5 and S6 for each channel supplied from the editing processing device 3, desired video and audio signals S7 and S6. 8 can be read from the storage medium 6A and output.
  • the storage medium 6A has a compression ratio of 1/10 of a video and a video compressed according to the MPEG (Moving Picture Coding Experts Group) standard.
  • the audio signal is stored, and the read video and audio signals are decoded through the decoders 6B and 6C, respectively, and then decoded by a serial digital interface (hereinafter, referred to as “the digital signal”).
  • the digital signal Is converted to SDI standard format, and the SDI standard video and audio signals S7 and S8 are supplied to the editing processor 3.
  • a VTR 7 is also connected to the editing device 3, and the editing device 3 can also take in video and audio signals stored in the VTR 7.
  • the VTR 7 has an SDI input / output interface, and can read and output the desired video and audio signals S10 according to the control signal S9 supplied from the editing processor 3. it can.
  • the VTR 7 converts the video and audio signals S7 and S8 read from the directory server 6 after the editing process as the video and audio signals S11 to be recorded.
  • the video and the audio signal S11 are recorded on a video tape in accordance with the control signal S9.
  • an oral cull storage 8 composed of a plurality of hard disks is connected to the editing processor 3 as a storage means, and the editing processor 3 stores the data in the local storage 8. It is configured to capture video and audio signals.
  • the local storage 8 has an input / output interface conforming to the SDI standard, and has two channels as output ports. Desired video and audio signals according to signal S 1 2 The signals S13A to SE are read out and output.
  • the local storage 8 stores the video and audio signals after the editing processing and the video and audio signals read from the daily server 6 or the VTR 7 as the video and audio signals S 15 to be recorded.
  • the video and audio signals S15 are recorded on an internal hard disk in response to the control signal S9.
  • An on-air buffer (storage means for temporarily storing a program at the time of broadcasting) 9 is also connected to the editing processing device 3, and a program edited by the editing processing device 3 is stored in the buffer.
  • the video and audio signals S 16 can be stored in the on-air buffer 9.
  • the on-air buffer 9 since the on-air buffer 9 has an input interface of the SDI standard, the video and audio signals S 16 to be transmitted are in the signal format of the SDI standard.
  • the supplied video and audio signals S16 are compressed by the encoder 9A according to the MPEG standard with a compression ratio of 10, and then stored in the internal storage medium 9B.
  • the on-air buffer 9 and the computer 2 of the editing device 1 are connected via a local area network (hereinafter, referred to as LAN) 10 such as an Ethernet, for example.
  • LAN local area network
  • the data is sent to the on-air buffer 9 via the computer 2 and the LAN 10.
  • An edit list that shows what material the edited program is composed of (generally called an edit decision list) Is transmitted to the on-air buffer 9 via the LAN 10.
  • the computer 2 of the editing device 1 and the daily server 6 are also connected via the LAN 10, and the file names and the like of the respective materials stored in the daily server 6 via the LAN 10 are transmitted to the computer. It can be referred to from 2.
  • the editing processor 3 is connected to the speed control 11 and 12 as an optional connection, and the audio signals S 17 and S 18 edited by the editing processor 3 are connected. Are transmitted from the speakers 11 and 12 so that the editing result of the audio can be confirmed.
  • a monitor 13 dedicated to preview is also connected to the editing processor 3 as an optional connection, and the video signal S 19 edited by the editing processor 3 is connected to the monitor.
  • the video editing result is displayed on the Utah 13 so that the monitor 13 can confirm the editing result. Since the preview screen displayed on the monitor 13 is larger than the preview screen displayed on the monitor 2B of the computer 2, the editing result can be confirmed more clearly when the monitor 13 is connected.
  • the graphic display for the GUI is displayed on the monitor 2B as described above.
  • an event is generated by designating an in-point or an out-point while watching a video of a material, and a screen of a viewer window or a viewer window is used to generate an event.
  • Clear event A log window screen that displays a top-down image, a program window screen that displays the contents of the specified edit processing using the graphic display while specifying the contents of the edit processing to be performed by the editing device 1, Other control command buttons for inputting control commands.
  • the editing operator clicks a button or icon using the mouse 2D on a predetermined control command button displayed on the monitor 2B to display a device (i.e., a device on which the editing material is stored).
  • a device i.e., a device on which the editing material is stored.
  • the playback of the material is instructed.
  • the video signal S2 of the specified material is supplied to the computer 2 via the editing processing device 3, and the video of the material is displayed on the monitor 2B.
  • the operator generates the events required for program creation by specifying the in and out points while watching the video of the material. The operator repeats this process, prepares one event necessary for program creation, and registers this in the log-in window.
  • the operator selects a desired event by clicking the desired clip image shown in the mouth window with the mouse 2D.
  • a strip graphic indicating the selected event is displayed.
  • the order of the program is indicated by arranging the strip-shaped graphic displays indicating the events in a desired order.
  • the video effect can be obtained by clicking a predetermined control command button.
  • the operator inputs a preview instruction by clicking a predetermined control command button.
  • the editing device 1 controls the editing processing device 3 to reproduce each event based on the program order specified in the program window, and controls the editing processing device 3.
  • the video effect S2 is generated by applying a video effect to the event specified by the above. This video signal S2 is supplied to the computer 2 and displayed on the monitor 2B. This allows the operator to confirm the contents of the specified program using the program window.
  • the operator inputs a recording instruction by clicking a predetermined control command button.
  • the editing device 1 Upon receiving this, the editing device 1 generates video and audio signals S15a and S15b indicating the designated program by controlling the editing processing device 3 in the same manner as above, and Supply and record to Local Storage 8.
  • the program specified by the program window is completed and stored in the local storage.
  • the program can be created while checking the video of each material and the video of the program on the monitor 2B, so that the editing convenience can be improved. Further, in the editing apparatus 1, since the editing can be performed without the operator directly operating the switcher special effect apparatus, the editing operation can be easily performed, and the labor required for the editing can be reduced.
  • the computer 2 has a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire computer, and a video signal S 2 for input.
  • Video processor 22 that performs image processing, etc., display controller 23 that manages video data displayed on monitor 2B and graphic display for GUI, local hard disk drive (local HDD) 2 Pointing such as HDD interface 24 for controlling 4A, floppy disk drive (FDD) 25, FDD interface 25 for controlling A, mouse 2D and keyboard 2C Pointing device interface 26, which generates control commands based on commands from the device, sends control signal S1 to editing processor 3.
  • It has an external Lee Ntafue chair 2 7 provided with a soft ware driver for.
  • the system bus 20 is used for communication of video data, command data, address data, and the like inside the computer 2. It is a bus, consisting of an image data bus 2 OA for transmitting video data, and a command data bus 20 B for transmitting command data address data.
  • the CPU 21, video processor 22, display controller 23, HDD interface 24, and FDD interface 25 are connected to the image data bus 20 A, respectively.
  • the processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are configured to transmit video data via the image data bus 20 A. .
  • the command data source 20 B has a CPU 21, a video processor 22, a display controller 23, an HDD interface 24, an FDD interface 25, and a pointing device interface. 26 and the external interface 27 are connected to each other (that is, all blocks inside the computer 2 are connected), and the command data is transmitted via the command data bus 20B. It is designed to transmit address data.
  • the CPU 21 is a block that controls the entire computer 2, and stores the ROM 21A that stores the operating system of the computer 2, the application software that is installed, and the like. R AM 21B.
  • the CPU 21 executes software based on the operating system stored in the ROM 21A. Also, if the application software runs under this running operating system, the CPU 21 reads the application software recorded on the hard disk of the hard disk drive 24A, uploads it to the RAM 21B, and then executes the application software.
  • the video processor 22 receives the SDI standard video signal S2 input to the computer 2, performs data conversion on the video signal S2, and temporarily buffers the converted video data. It is a block for Specifically, the video processor 22 extracts a composite video signal from a processor controller 22 A that controls the entire video processor 22 and a payload portion of the received video signal S 2, A data converter 22B for converting the composite video signal into a digital component video signal; and a frame for temporarily storing several frames of video data transmitted from the data converter 22B. Lame memory 22C.
  • the processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and also controls the data conversion unit 22B. Let 2 2B extract the time code from video signal S 2. Further, the processor controller 22A sends a control signal to the frame memory 22C to read / write timing and read the frame memory 22C. Controls light address. Regarding the read timing, the processor controller 22A uses the frame memory 22C so that the time code transmitted to the display controller 23 and the video data (frame data) correspond to each other. Controls lead timing. Data converter 2 2 B converts the composite video signal into a digital component video signal based on the control signal from the processor controller 2 2 A. Time code is extracted during this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
  • the frame memory 22C temporarily stores the video data supplied from the data converter 22B.
  • the read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above.
  • This frame memory 22C is composed of two frame memories, and is capable of storing video data of two frames.
  • the video data stored in the frame memory 22C is read based on the read control of the processor controller 22A. At this time, the video data stored in the frame memory 22C is not read out at all pixels, but is read out at a predetermined interval so as to make the image size smaller than the original image.
  • the video data whose image size has been reduced in this way is displayed in the viewer window of the monitor 2B (details will be described later), so that the display controller 23 is connected via the image data bus 2OA. Sent to
  • the display controller 23 is a control block for controlling data displayed on the monitor 2B.
  • the display controller 23 has a memory controller 23A and a VRAM (video random access memory) 23B.
  • Memory controller 2 3 A Controls the read / write timing of VRAM23B according to the internal synchronization of computer2.
  • the VRAM 23 B the video data sent from the frame memory 22 C of the video processor 22 and the image data generated by the CPU 21 are stored in a time format from the memory controller 23 A. Stored based on the mining control signal.
  • the video data image data stored in the VRAM 23B is read out based on a timing control signal from the memory controller 23A based on the internal synchronization of the computer 2, and is monitored. 2 Appears on B.
  • the graphic display using the image data is the graphic display for GUI.
  • the image data transmitted from the CPU 10 to the VRAM 23 B is image data such as a window, a cursor, or an icon indicating a scroll bar / depth.
  • the computer 2 obtains a graphic display for GUI by displaying these plural kinds of image data on the monitor 2B.
  • the HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A provided inside the computer 2.
  • the HDD interface 24 and the hard disk drive 24A communicate with each other based on the transmission format of a Small Computer System Interface (SCSI).
  • SCSI Small Computer System Interface
  • the application software to be started on the computer 2 is installed in the hard disk drive 24 A.
  • the hard disk drive 24 A is used. Read from drive 2 4 A and read from CPU 2 1's RAM 21 Uploaded to B.
  • various information for example, file information
  • various information generated by the editing operation stored in the RAM 21B is transferred to the hard disk drive. Downloaded to the hard disk via 24A.
  • the FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25A provided inside the computer 2.
  • the FDD interface 25 and the floppy disk drive 25A communicate with each other based on the SCS I transmission format.
  • the pointing device interface 26 is an interface block for receiving information from the mouse 2D and the keyboard 2C connected to the computer 2.
  • the pointing device interface 26 transmits detection information of the two-dimensional rotary encoder provided on the mouse 2D and click information of left and right buttons provided on the mouse 2D.
  • the information received from the mouse 2D is decoded, and the received information is decoded and transmitted to the CPU 21.
  • the pointing device interface 26 receives input information from a button provided on the keyboard 2C, decodes the received input information, and sends it to the CPU 21.
  • the CPU 21 can recognize which command button has been instructed from the GUI displayed on the monitor 2B, and can recognize various data input from the keyboard 2C. And control corresponding to them can be performed.
  • External interface 27 connects to the outside of Computer 2. This is a block for communicating with the edited editing device 3.
  • the external interface 27 has a driver for converting various control commands such as a reproduction command and a recording command generated by the CPU 21 into data of a predetermined communication protocol.
  • a control signal S 1 indicating a control command is sent to the editing processing device 3.
  • the editing processor 3 is roughly divided into a system control section 3A, a matrix switcher section 3B, an image processing section 3C, and an audio processing section 3D. ing.
  • the system control unit 3A receives the control signal S1 sent from the computer 2 and the control signals S3 and S4 sent from the dedicated controllers 4 and 5, and receives the control signal.
  • the operation of each block is controlled based on S1, S3 or S4.
  • the system control unit 3A is connected to the matrix switch unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E.
  • the system control unit 3A In addition to controlling the operation, it sends out control signals S5, S6, S9 or SI2 to control the reproduction or recording operation of the daily server 6, VTR 7 and local storage 8.
  • the system control unit 3A also receives a reference time code (REF-TC) supplied from the outside, and manages the time code.
  • REF-TC reference time code
  • the matrix switch unit 3B has a plurality of input terminals and a plurality of output terminals, and connects a desired input terminal to a desired output terminal under the control of the system control unit 3A. Being done As a result, a desired signal out of the video and audio signals read from each device (the directory server 6, the VTR 7, or the local storage 8) is converted into an image processing unit 3C or an audio processing unit. 3D, and a desired signal can be sent to the computer 2 ⁇ each device (VTR 7, local storage 8, or on-air clip 9). Further, the video signal processed by the image processing unit 3C is sent to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal, and each device ( It can be sent to VTR 7, local storage 8 or on-air buffer 9).
  • the image processing unit 3C includes a transition effect (an effect such as switching a background image to a foreground image such as a wipe page turn) and an animation effect (mosaic picture in picture).
  • a transition effect an effect such as switching a background image to a foreground image such as a wipe page turn
  • an animation effect mosaic picture in picture
  • this editing device has two types of effects, a transition effect and an animation effect.
  • a transition effect is a video effect that switches between two images, such as a wipe effect and a page turn effect
  • an animation effect is a special effect applied to images such as three-dimensional image space conversion. Fake Eat
  • the audio processing unit 3D is a block for adjusting and synthesizing an audio signal. After extracting an audio signal from the video and audio signals selected by the matrix switch unit 3D, the audio processing unit 3D extracts the audio signal. The signal is adjusted in level or the audio signals are combined with each other, and the resulting audio signal is converted to the matrix switcher 3B or the speaker.
  • the system control section 3 A includes a main CPU (M—CPU) 30, a communication CPU (C—CPU) 31, and a device control CPU (D—CPU).
  • M—CPU main CPU
  • CPU communication CPU
  • D—CPU device control CPU
  • the main CPU 30 sends a control command to each block (that is, the matrix switcher 3B, the image processor 3C, and the audio processor 3D) via the control bus 3E. It is a CPU that controls the operation of each block by giving it. Communication C P U 3
  • REF-TC reference time code
  • S 1 receives a control signal S 1 from the computer 2, a dedicated controller 4,
  • the system control section 3A which is a CPU for transmitting and controlling the operation of each device, transmits a control signal S1, S3 or S4 by the communication CPU 31.
  • the communication CPU 31 reproduces the control command indicated by the control signal S1, S3 or S4.
  • This control command is transferred to the main CPU 30 via the bus 35 inside the system control section 3A.
  • the main CPU 30 analyzes this control command and, if device control is necessary, sends a control command to the corresponding device control CPU 32, 33 or 34 to control the device.
  • Control of the device via the CPU 32, 33, or 34, and control of the matrix switcher 3B, image processor 3C, or audio processor 3D is required. field corresponding to the blanking-locking by sending a control command via the control bus 3 E for controlling the operation of the pro click.
  • the communication CPU 31 has a communication driver corresponding to the external interface 27 of the computer 2 therein, and transmits a control signal S 1 sent from the computer 2 by the driver. It is intended to receive.
  • the device control CPUs 32 to 34 have RS-422 standard dry loops inside, and the RS-422 standard control signals S5, S6, S9 or It sends SI2 to each device.
  • the matrix switch part 3B will be described with reference to FIG.
  • the matrix switcher section 3B is roughly divided into a control circuit 40, a matrix switcher block 41, and a format conversion block 42.
  • control The circuit 40 is a circuit for controlling the entire matrix switcher section 3B, and outputs control signals S20 and S21 based on a control command received via the control bus 3E. And outputs the corresponding control signals S20 and S21 to the matrix switch block 41 and the format conversion block 42, respectively, to control the operation, and controls the operation of the matrix switch block.
  • the matrix switch block 41 can be connected to the input line and the output line at a desired cross point based on the control signal S 20 supplied from the control circuit 40.
  • the desired signals input to the input terminals IN 1 to IN 11 can be output to the desired output terminals OUT 1 to OUT 13.
  • the crosspoint connecting IN7 and OUT9 is “P79J”
  • the crosspoint connecting IN10 and OUT4 is “P10”. 4 J
  • the video and audio signals read from the devices of the release server 6, VTR 7 and local storage 8 are respectively applied to the input terminals IN1 to IN8.
  • the video and audio signals S7, S8, S10 and S13A to S13 are input to the input terminals IN1 to IN5. E is input, and the input terminals IN5 to IN8 are empty.
  • the input end Video signals S 31 and S 32, which have been subjected to image processing by the image processing unit 3 C are input to the IN 9 and IN 10, respectively, and the audio processing unit 3 D performs signal processing to the input terminal IN 11
  • the audio signal S33 to which is applied is input.
  • the output terminal OUT1 is assigned to the local storage 8 as a terminal for outputting the video and audio signal S15, and the output terminal OUT2 is connected to the local storage 8.
  • Assigned to VTR 7 as a terminal for outputting video and audio signal S 11 output terminal OUT 3 is used as a terminal for outputting video and audio signal S 16 to on-line buffer 9.
  • the output terminals OUT1 to OUT3 are assigned as terminals for program output.
  • the output terminal OUT 4 is assigned as a preview output terminal for outputting the video signal S 19 to the monitor 13 dedicated to the preview, and the output terminal OUT 5 outputs the video signal S 2 to the computer 2. Assigned as an output terminal for capture for output.
  • the output terminals OUT 6 to OUT 10 are assigned as terminals for outputting the video and audio signals S 23 to S 27 to the image processing unit 3 C, and the output terminals OUT 1 l to OUT l Reference numeral 3 is assigned to the audio processing unit 3D as a terminal for outputting video and audio signals S28 to S30.
  • the format conversion block 42 converts the signals output to the output terminals OUT1 to OUT5 into SDI standard signals based on the control signal S21 supplied from the control circuit 40.
  • the signals output to the output terminals OUT 1 to OUT 3 are An output processor 43 and an audio combiner 44 for converting the output, an output processor 45 for converting the format of the signal output to the output terminal OUT4, and a format for the signal output to the output terminal OUT5. It has an input / output processor 46 for converting data.
  • the output processor 43 When the output processor 43 outputs a video signal processed by the image processing unit 3C (that is, the video signal S31 or S32 input to the input terminal IN9 or IN10), Then, the video signal S31 or S32 is converted into an SDI standard video signal.
  • the audio complier 44 When outputting the embedded audio signal processed by the audio processing unit 3D (that is, the audio signal S33 input to the input terminal INil), the audio complier 44 outputs an audio signal.
  • the embedded audio signal S33 is superimposed on the SDI standard video signal output from the processor 43.
  • the video signals S31 and S32 processed by the image processing unit 3C and the audio signal S33 processed by the audio processing unit 3D can be converted into local storage 8 and SDI standard signals. It can be sent to VTR 7 or on-air buffer 9.
  • the embedded audio is digital audio data transmitted using a bucket in the auxiliary data area of the SDI standard.
  • the video and audio signals input to the input terminals IN1 to IN8 are output to the output terminals OUT1 to OUT3, the video and audio signals are output from each device in the SDI standard.
  • the input processor 43 and the audio compiler 44 do not perform any processing. Output the output signal to output terminals OUT 1 to OUT 3 as it is.
  • the output processors 45 and 46 output the video signal S31 or S32 processed by the image processing unit 3C to the output terminal OUT4 or OUT5, respectively,
  • the video signal S31 or S32 is converted to an SDI standard video signal.
  • the video signal S31 or S32 processed by the image processing unit 3C can be sent to the monitor 13 or the computer 2 dedicated to preview as an SDI standard signal.
  • the output processors 45 and 46 When the video and audio signals input to the input terminals IN 1 to IN 8 are output to the output terminals OUT 4 and OUT 5, the output processors 45 and 46 also output the video and audio signals. The signal is output to the output terminals OUT 4 and OUT 5 without any processing.
  • the image processing unit 3C is roughly divided into a control circuit 50, a demultiplexer block 51, a switcher block 52, and a special effect block 53. And a mixer block 54.
  • the control circuit 50 is a circuit for controlling the whole of the image processing section 3C. Based on a control command received via the control bus 3E, control signals S40, S41, S42 and S43 are generated, and the control signals S40, S41, S42 and S43 are applied to the demanole chip sub-block 51 and the switcher block 52, respectively. It is output to the special effects block 53 and the mixer block 54 to control its operation.
  • the image processing unit 3C performs image processing on the video signals (S23 to S27) supplied from the matrix switcher unit 3B.
  • Image processing here refers to applying special effects to the source video signal or background video. This is an animation effect that inserts a video signal with a special effect on the signal, or a transition effect that switches the video from a background video signal to a foreground video signal.
  • the demultiplexer block 51 is a block for extracting a video signal or a key signal from the video and audio signals S23 to S27 sent in the signal format of the SDI standard.
  • the demultiplexer sub-package 51 includes five demultiplexer circuits 51A to 51E for extracting signals from the input video and audio signals S23 to S27, respectively.
  • the demultiplexer circuit 51A is a circuit for extracting a key signal from a payload portion of each packet forming the video and audio signals S23, and a synchronization signal arranged at the head of the key signal. And extraction based on the header information.
  • the demultiplexer circuit 51 B is a circuit for extracting a video signal from a payload portion of each bucket forming the video and audio signals S 24, and a synchronization signal arranged at the head of the video signal. And extract based on header information.
  • the demultiplexer circuit 51C extracts a key signal from the video and audio signal S25
  • the demultiplexer circuit 51D extracts a video signal from the video and audio signal S26
  • the multiplexer circuit 51E extracts a video signal from the video and audio signal S27.
  • the switcher block 52 is a block for performing processing for a transition effect on the extracted key signal and video signal, and includes a wipe signal generator 52A, 52B, and a key signal processing.
  • Logic circuit 52 C, 52 D, and video signal processing circuit 52 E, 52 It is from F.
  • the wipe signal generator 52A generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and converts the wipe signal into a key signal processing circuit 5.
  • the key signal processing circuit 52C converts the key signal supplied from the demultiplexer circuit 51A so as to correspond to the wipe signal based on the supplied wipe signal (or based on the supplied wipe signal).
  • the video signal processing circuit 52E converts the video signal supplied from the demultiplexer circuit 51B based on the supplied wipe signal so as to correspond to the wipe signal, and converts the resulting video signal to be described later. Yes Mix-sub jacks 54
  • the wipe signal generator 52B generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and processes the wipe signal.
  • the signal is sent to the signal processing circuit 52D and the video signal processing circuit 52F.
  • the key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C so as to correspond to the wipe signal based on the supplied wipe signal (or the supplied wipe signal).
  • a desired key signal corresponding to the wipe signal is newly generated), and the resulting key signal is transmitted to a special effect block 53 described later.
  • the video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D based on the supplied wipe signal to the wipe signal. And the resulting video signal is sent to the special effect block 53 described later.
  • the special effect block 53 is output from the key signal processing circuit 52D and the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50.
  • the three-dimensional address generation circuit 53A generates a conversion address for performing a three-dimensional image conversion specified by the operator based on the control signal S42, and stores the conversion address in a frame memo. Output to 53 B and 53 C and interpolation circuits 53 D and 53 E.
  • the frame memory 53B sequentially stores the key signals supplied from the key signal processing circuit 52D in an internal memory area, and reads out the stored key signals based on a conversion address. As a result, the key signal is subjected to three-dimensional image conversion, and the resulting key signal is sent to the interpolation circuit 53D. Similarly, the frame memory 53B sequentially stores the video signals supplied from the video signal processing circuit 52F in an internal memory area, and stores the stored video signals based on the conversion address. Then, the video signal is subjected to three-dimensional image conversion, and the resulting video signal is sent to the interpolation circuit 53E.
  • the interpolation circuit 53D is a circuit that performs interpolation processing on the key signal that has been subjected to the three-dimensional conversion processing, and spatially interpolates the pixels of the key signal based on the conversion address, and obtains the resulting key signal. Is sent to the mixer block 54 described later.
  • the interception circuit 5 3 E This is a circuit that performs interpolation processing on a video signal that has been subjected to three-dimensional conversion processing. It spatially interpolates pixels of the video signal based on the conversion address, and converts the resulting video signal into a To the check 54.
  • the mixer sub-block 54 is a block for synthesizing a video signal in accordance with the instruction of the control signal S 43, and is composed of two mixing circuits 54 A and 54 B.
  • the mix circuit 54A outputs the video signal converted by the special effect block 53 based on the key signal output from the special effect block 53 and the output from the demultiplexer circuit 51E.
  • a video signal S31 is generated by synthesizing the video signal S31.
  • the mix circuit 54B is configured to output the video signal output from the switcher block 52 and the video signal output from the mix circuit 54A based on the key signal output from the switcher block 52.
  • a video signal S32 is generated by combining S31 with S31. The video signals S31 and S32 generated in this manner are sent to the matrix switcher 3B as described above.
  • the video signal output from the demultiplexer circuit 51D is used as a background video signal and is mixed via the mix circuit 54A.
  • the video signal output from the video signal processing circuit 52E is input to the mix circuit 54B as a foreground video signal, and the two video signals are processed as key signals.
  • Circuit 52 Synthesize based on the key signal output from C. As a result, the video signal switches from the background video signal to the foreground video signal. S32 is generated.
  • the foreground image is an image that appears on the screen by executing the transition effect or an image that is inserted into the background image by executing the animation effect and fills the effect pattern.
  • a knock ground image is an image that is erased from the screen by executing a transition effect, or an image that inserts an effect pattern in which a foreground image is embedded by executing an animation effect Say something.
  • the video signal output from the demultiplexer circuit 51 E is used as a background video signal and the mix circuit 54 A
  • the video signal output from the video signal processing circuit 52 F is converted into an image through the special effect block 53 as a foreground video signal, and is then input to the mix circuit 54 A.
  • the two video signals are synthesized based on the key signal processed through the special effect block 53.
  • a video signal S31 that switches from a background video signal to a foreground video signal is generated so as to turn the page.
  • the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54A as a background video signal.
  • the video signal output from the video signal processing circuit 52 F is converted as an insertion material through the special effects block 53, and then input to the mix circuit 54 A.
  • the two video signals are combined based on the key signal processed through the special effect block 53.
  • a picture-in-picture video signal S31 in which the insertion material is inserted into the background video signal is generated.
  • the audio processing unit 3D is roughly divided into a control circuit 55, an input signal processing block 56, an auxiliary input signal processing block 57, a mixer block 58, and an output signal processing block. Ku 59.
  • the control circuit 55 is a circuit for controlling the whole of the audio processing unit 3D, and based on a control command received via the control bus 3E, control signals S45, S46, S46. 47, S48, and the corresponding control signals S45, S46, S47, S48 are input signal processing block 56, auxiliary input signal processing block 57, and mixer block, respectively. 58, Output to the output signal processing block 59 to control its operation.
  • the audio processing unit 3D performs audio processing on the audio signals (S28 to S30) supplied from the matrix switch unit 3B.
  • the speech processing here refers to the level adjustment and synthesis of the audio signal.
  • the input signal processing block 56 extracts the audio signal from the video and audio signals S28 to S30 that are sent in parallel with the SDI standard signal format, and converts the audio signal into a signal processing unit (DSP unit). This is a protocol that converts the data into a DSP format audio signal and sends it out.
  • This input signal processing block 56 has separators 56A to 56C as signal separation circuits.
  • Congresss 56 A to 56 C are parallelized SDI video and audio signals, respectively.
  • This is a circuit that extracts audio signals in DSP format from S28 to S30. That is, the separators 56 A to 56 C extract the embedded audio signals from the input video and audio signals S 28 to S 30, serialize them, and then convert the audio signals to respective mixers.
  • Send to block 58 is a circuit that extracts audio
  • the auxiliary input signal processing block 57 is a block that converts an externally input audio signal in AES / £ BU Audio Engineering Society / European Broadcasting Union) format into an audio signal in DSP format. is there.
  • the auxiliary input signal processing block 57 includes a sample rate converter 57 A to 57 D for rate conversion and decoders 57 E to 57 H as a format conversion circuit. Have.
  • the sample rate converters 57A to 57D different sample rates of the supplied AESZEBU format audio signal are converted into predetermined sample rates in the audio processing unit 3D.
  • the converted audio signal is sent to the decoders 57E to 57H.
  • Each of the decoders 57E to 57H is a circuit for format-converting an audio signal, and converts an input AES / EBU-format audio signal into a DSP-format audio signal, respectively.
  • the resulting audio signals are sent to mixer blocks 58 respectively.
  • the mixer block 58 adjusts the level of the audio signal and synthesizes the signal.
  • Data data generation circuit. The audio signal supplied from the input signal processing block 56 and the audio signal supplied from the auxiliary input signal processing block 57 are separated into a right-side component and a left-side component, respectively, and then the gain setting circuit 58 A to 58 G and gain setting circuit 58 H to 58 N are input.
  • the gain setting circuits 58 A to 58 G and 58 H to 58 N are the GUI audio feeder displayed on the monitor 2 B of the computer 2 or the audio feeder provided in the dedicated controller 5.
  • the resistance value is changed in conjunction with the operation of, which adjusts the level of the input audio signal to the signal level specified by the operator.
  • the audio signals whose levels have been adjusted by the gain setting circuits 58A to 58G are input to the addition circuits 58O, respectively, added thereto, and sent out to the output signal processing block 59.
  • the audio signals whose levels have been adjusted by the gain setting circuits 58H to 58N are input to the addition circuits 58P, respectively, added, and then output to the output signal processing block 59.
  • the meter data generating circuit 58Q converts the signal level at this time into data so as to directly control the digital meter on the panel of the dedicated controller 5 described later. The converted data is sent to the dedicated controller 5.
  • the output signal processing block 59 is a block for converting the output DSP format audio signal into an embedded audio signal in which the signal format of the SDI standard is parallelized.
  • the output signal processing block 59 includes an embedding circuit 59 A as a signal synthesis circuit and an encoder 59 as a format conversion circuit. B, 59C.
  • the embedded circuit 59 A is a circuit that converts a signal into a predetermined signal format so that the audio signal can be superimposed on the SDI standard video signal by the compensator 44 of the matrix switch unit 3 B. After synthesizing the serial audio signals supplied from the adders 580 and 58P, the signal is converted into a predetermined signal format, that is, a parallel embedded audio signal. As described above, the embedded audio signal S33 obtained by this processing is sent to the compiler 44 of the matrix switcher unit 3B.
  • the encoder 595B is a circuit for format-converting an audio signal in DSP format into an audio signal in AES / EBU format, and converts the audio signal output from the adder circuit 580 into an audio signal in AESZEBU format. The format is converted to S 17 and sent to the speed check 11 for voice confirmation (see Fig. 1).
  • the encoder 59C is a circuit for format-converting the audio signal of the DSP format into the audio signal of the AESZEBU format, and converts the audio signal output from the adder 58P into the audio signal of the AES / EBU format. It is format-converted to a single audio signal S 18 and sent to a speed checker 12 for voice confirmation (see Fig. 1).
  • the local storage 8 will be described as a data storage means connected to the editing processing device 3.
  • the local storage storage 8 includes a data input / output block 60 as an input / output interface and the local storage storage 8. It has a system control block 61 for controlling the entire operation of the disk 8, a disk array block 62 for storing video data, and a disk array block 63 for storing audio data. I have. Although FIG. 8 shows only the input / output block and disk array block for one channel, the input / output block and disk array block cover for five channels are actually illustrated. There is S.
  • the data input / output block 60 has a configuration of one input channel and two output channels, and is supplied from the editing processing device 3 based on the control signal S 60 from the system control processor 61.
  • the video and audio signals S 15 are subjected to predetermined signal processing prior to data storage, and are subjected to predetermined signal processing to the data read from the disc array blocks 62 and 63 to produce video and audio signals. Output as S13A to S13E.
  • the video and audio signals S15 supplied from the editing processing device 3 are input to the encoder 6OA.
  • the encoder 60A extracts the video signal S61 and the audio signal S62 from the SDI standard video and audio signal S15, and outputs the video signal S61 to the video compression circuit 60B,
  • the audio signal S62 is output to the audio compression circuit 60J.
  • the video compression circuit 60B compresses the video signal S61 according to the MPEG standard having a compression ratio of 1/10, and stores the compressed video data in the buffer memory 6OC.
  • the audio compression circuit 60J compresses the audio signal S62 using a predetermined audio compression method, and stores the compressed audio data in the buffer memory 6OK. Stored in memory 6 OC, 6 OK
  • the video data and audio data are sequentially read out under the control of the system control block 61, and are read into the disk array block 62 for video data and the disk array block 63 for audio. Each is recorded.
  • the video data read from the disk array block 62 as the video data of the first reproduction channel is sequentially stored in the buffer memory 60F under the control of the system control block 61. Is stored.
  • audio data read from the disk array block 63 as audio data of the first channel for reproduction is sequentially stored in the buffer memory 60 under the control of the system control block 61.
  • the first video decompression circuit 60F reads video data compressed according to the MPEG standard having a compression ratio of 1/10 from the buffer memory 60F, decompresses the video data, and then executes the video decompression.
  • the data S63 is output to the first decoder 60D.
  • the first audio decompression circuit 60L reads out the compressed audio data from the buffer memory 6OM, decompresses the audio data, and converts the audio data S64 into the first audio data S64. Output to the decoder 60 D of.
  • the first decoder 6OD superimposes the audio data S64 on the video data S63 based on the format of the SDI standard.
  • the video data of the first reproduction channel read from the disk array protocol 62 and the audio data of the first reproduction channel read from the disk array reader 63 can be combined with the SDI standard video and audio signals S. 13 A can be sent out.
  • disc data is used as the second channel video data for playback.
  • the video data read from the array block 62 is stored in the I-level memory 60 I under the control of the system control block 61.
  • the audio data read from the disk array block 63 as the audio data of the second channel for reproduction is sequentially stored in the buffer memory 60P under the control of the system control block 61. Is stored.
  • the second video decompression circuit 60H reads video data compressed according to the MPEG standard with a compression rate of 1/10 from the buffer memory 60I, decompresses the video data, and then executes the video data S 65 is output to the second decoder 60 G.
  • the second audio expansion circuit 6 ON also reads out the compressed audio data from the buffer memory 60 P, decompresses the audio data, and then converts the audio data S 66 into the second decoder. Output to 60G.
  • the second decoder 60G superimposes the audio data S66 on the video data S65 based on the format of the SDI standard.
  • the video data of the second channel read from the disk array block 62 and the audio data of the second channel read from the disk array block 63 can be combined with the video and audio signals S of the SDI standard. It can be sent as 14.
  • the system control block 61 is a block for controlling the entirety of the local storage storage 8, and includes a CPU 61A and a DIVlA control (Direct Memory Access controller j). 61 B, 61 C, a SCSI protocol controller 61 D, 61 E, and an input interface 61 F for a control signal S 12 CPU 61 A Of the system control block 61 It constitutes a control circuit that is the central entity, and receives control signals S12 sent from the editing processor 3 by the RS-422 communication protocol via the input interface 61F. Based on the control command indicated by the control signal S12, the operation of the DMA controllers 61B and 61C and the operation of the SCSI protocol controllers 61D and 61E are controlled.
  • the CPU 61A controls the operation of the data input / output block 60 by generating the control signal S60 and outputting the control signal S60 to the data input / output block 60 as described above.
  • the CPU 61A manages the recording addresses of the disk array protocols 62 and 63 together with the time code of the data to be recorded, whereby the time code is used as a reference based on the time code.
  • the recorded address of the data indicated by is easily retrieved.
  • the CPU 61A correlates all the recording addresses of the video data recorded in the disk array block 62 in units of frames with all the time codes of the frames to be recorded.
  • the correspondence table is stored in the built-in memory.
  • the CPU 61A associates all the recording addresses of the audio data recorded in the disk array block 63 with the frame unit and all the time codes of the recorded frame.
  • the stored correspondence table is stored in the built-in memory. Therefore, as long as the time code is specified from the outside, the recording address can be easily searched by referring to the correspondence table, and the video data and the audio data can be quickly reproduced.
  • the video DMA controller 61B In response to a command from the CPU 61A, the video DMA controller 61B reads video data from the buffer memory 60C of the data input / output protocol 60 and records the data. During data reproduction, video data is written to the buffer memories 60F and 60I of the data input / output block 60.
  • the video SCSI protocol controller 61D transmits commands from the CPU 61A, video data in frame units received from the DMA controller 61B, and the video data. The time code assigned to the data frame is converted to SCSI-format data S67 and sent to the video data disk array block 62, and the video data record is recorded to the disk array block. Indicate in check 62.
  • the SCSI protocol controller 61D receives the SCSI format video data S67 reproduced from the disk array block 62 and converts it to the original data format. Send to DMA controller 61B.
  • the audio-system DMA controller 61C transmits audio data from the buffer memory 60K of the data input / output block 60 during data recording.
  • Reads data writes audio data to buffer memory 6 OM, 60 P of data I / O block 60 during data playback c
  • Audio system SCSI protocol controller 61 E writes data to CPU 61 A force, etc. command, the frame unit audio data received from the DMA controller 61 C, and the time code assigned to the frame of the audio data in SCSI format.
  • the data is converted to data S68 and sent to the disk array protocol 63 for the low-level data, and the recording of the high-level data is instructed to the disk array protocol 63.
  • the SCSI protocol controller 61E the SCSI protocol controller 61E
  • the disk array block 62 for video data and the disk array block 63 for audio data are composed of disk array devices each having a plurality of hard disks therein, and the plurality of disk disks are arranged in parallel. Video data and audio data are recorded simultaneously by simultaneous operation.
  • the disk array blocks 62 and 63 are designed to record data with redundancy when recording data, so that any of the hard disk in the disk array device can be used. In the event of a failure, the data recorded on the failed hard disk can be restored (also called a rebuild operation).
  • a disk array device having such a data reconstructing function is generally called a RAID (Redandant Array of Inexpensive Disks).
  • the disk array block 62 is roughly divided into a buffer memory 62 A, a disk array controller 62 B, a data multiplexer 62 C, and a NORM. It comprises an arithmetic circuit 62D, a plurality of SCSI protocol controllers 62E to 62I, and a plurality of hard disks 62J to 62N.
  • the buffer memory 62A is a memory for temporarily storing data, and sequentially receives and stores SCSI-format data S67 sent from the system control block 61 shown in FIG. During data reproduction, the data sent from the data multiplexer 62C described later is temporarily stored with the data transmission.
  • the disk array controller 62B is a circuit that controls the operation of the entire block such as the recording operation and the reproducing operation in the disk array block 62.
  • the disk array controller 62B transfers data relating to control commands from the system control block 61 out of the data stored in the buffer memory 62A to the command data bus 62.
  • Command data corresponding to the control command through a command data bus 62 P, a data multiplexer 62 C, a SCSI protocol controller 62 E to 62 I, and a hard disk drive.
  • the operation of each part is controlled by sending to the disks 62 J to 62 N.
  • the data multiplexer 62C reads data to be recorded, such as video data, from the buffer memory 62A, and reads the data via the SCSI protocol controllers 62E to 62H. In addition to the allocation to the disks 62 J to 62 M, the allocated data contents are notified to the parity operation circuit 62 D.
  • the data multiplexer 62C collects the data reproduced from each of the hard disks 62J to 62M and sends the data to the buffer memory 62A together with the data. If there is data that could not be reproduced due to damage such as damage of 62 J to 62 M, parity supplied from the parity operation circuit 62 D The data is reproduced by a reconstruction operation based on the data.
  • the parity calculation circuit 62P calculates parity data of the data based on the data content distributed by the data multiplexer 62C, and converts the parity data into a SCSI protocol controller 62I. Is supplied to the hard disk 62N through the.
  • the parity calculation circuit 62P converts the parity data reproduced from the hard disk 62N into a data multiplexer 6 if there is data that cannot be reproduced from the hard disks 62J to 62M. 2 Send to C.
  • the SCSI protocol controllers 62E to 62I transfer the data to be recorded supplied from the data multiplexer 62C or the parity data supplied from the parity operation circuit 62P to the hard disk 62.
  • the data is converted into a data format that conforms to the recording format of J to 62N, and the converted data is sent to the hard disk 62J to 62N.
  • the SCSI protocol controllers 62E to 62I convert the data reproduced from each of the hard disks 62J to 62N into a SCSI format data format, and convert this data to data.
  • the signal is sent to the multiplexer 62C or the parity operation circuit 62P.
  • the SCSI protocol controller 62 E to 62 I causes data to be lost due to failure of the hard disk 62 J to 62 N.
  • the result of the detection is sent to the disk array controller 62B, whereby the disk array controller 6 2B power is able to instruct the data replexer 62 C to reconstruct data.
  • the hard disks 62 J to 62 N are data storage means for distributing and recording data to be recorded such as video data in parallel. In this example, four hard disks 62 J to 62 M are provided to distribute data, but the number is not particularly limited.
  • the hard disks 62 J to 62 M sequentially record data supplied from the SCSI protocol controllers 62 E to 62 H in a desired recording area during data recording, and sequentially read data during data reproduction. Send to the SCSI protocol controllers 62E to 62H. In this way, by providing a plurality of hard disks 62 J to 62 M and distributing and recording data, this disk array block 62 is used for recording data such as video data. Even large amounts of data can be reliably recorded.
  • the hard disk 62N is data storage means for recording parity data calculated based on data to be recorded.
  • the node disk 62N sequentially records parity data supplied from the SCSI protocol controller 62I at the time of data recording in a desired recording area, and sequentially reads parity data at the time of data reproduction. Send to SCSI protocol controller 62I.
  • the parity data calculated based on the data to be recorded in this manner is recorded on a hard disk 62N different from the hard disks 62J to 62M that record the data to be recorded. As a result, even if data cannot be reproduced from the hard disks 62 J to 62 M due to a failure or the like, data can be reconstructed based on the parity data.
  • the allocated data is D2
  • the data allocated to the hard disk 62M is D3
  • the parity data calculated by the parity operation circuit 62P is PD.
  • a logical operation means 70 as shown in FIG. 1OA is provided inside the parity operation circuit 62P, and the logical operation means 70 calculates parity data.
  • the logical operation means 70 includes data DO allocated to the hard disk 62 J, data D 1 allocated to the hard disk 62 K, and data D 2 allocated to the hard disk 62 L. And the data D 3 allocated to the hard disk 6 2 M are added. If the addition result is an even number, the parity data PD having the value “1” is output. If the addition result is an odd number, the value “3” is output. The parity data of "0" is output. If the addition result is “0”, it is regarded as an even number and the parity data PD having the value “1” is output.
  • parity data PD as shown in the table of FIG. 10B is output for other data combinations based on the same principle.
  • the parity data PD calculated in this manner is transmitted via the SCSI protocol controller 62 I as described above. Recorded on hard disk 62N.
  • the disk array controller 62B In response to the detection result from the SCSI protocol controller 62G that the data cannot be reproduced, it instructs the data multiplexer 62C to reconstruct data using parity data.
  • the data multiplexer 62 C receives the data DO and the hard disk reproduced from the hard disk 62 J to the logic operation means 71 provided therein.
  • the data D1 reproduced from the 62K, the data D3 reproduced from the hard disk 62M, and the parity data PD reproduced from the hard disk 62N are input, and the logical operation means 71 converts the data D2.
  • the logical operation means 71 is Since the addition result is “1”, the reconstructed data (D 2) with the value “0 J” is output, and the data DO, Dl, and PD are “0” and the data D3 is “1”. Then, the reconstructed data (D 2) with the value “0” is output because the addition result is “1” similarly.
  • reconstructed data (D 2) as shown in Fig. 11B is output for other data combinations based on the same principle. I do. As can be seen by comparing FIG. 1 IB with the previous FIG. 1 OB, the data D 2 that could not be reproduced due to the failure of the hard disk 62 L was accurately restored.
  • the parity data PD is calculated based on the data DO to D3 to be recorded, and the parity data PD is stored in the hard disk 62N.
  • the data D 0, D 1, D 2 due to the failure of the hard disk 62 J, 62 K, 62 L or 62 ⁇ ⁇ during data reproduction Alternatively, even when D 3 cannot be reproduced, the data D 0, D 1, D 2 or D 3 that could not be reproduced based on the parity data PD can be reliably restored.
  • the application software for editing is read out from the hard disk HDD of the computer unit by the computer 2 and activated.
  • an editing Darafi Canole user interface 90 as shown in FIG. 12 is displayed on the monitor 2B.
  • the graphical user interface 90 for performing the editing process consists of three windows: a viewer window 92, a log window 93, and a program window 94. Perform editing operations using the window.
  • the Viewer window 92 is used to set the In and Art points for the edited material played from the source device while viewing the video image played from the selected source device. This is the window.
  • Log window 9 3 Is a window for registering a clip card (stamp picture) that represents an event generated by specifying an in point and an out point.
  • the program window 94 is a window for creating a desired program by arranging events with specified in points and art points on a timeline.
  • an event is generated by specifying an in-point and an art point in the viewer window 92. Then, the created event is displayed as a clip card in a log window 93. By repeating such operations, a clip card representing a plurality of events is displayed on the log window 93.
  • the desired events are arranged in the timeline 95 of the program window 94 using the drag-and-drop. This allows you to create. Programs.
  • a video effect such as an animation effect or a transition effect can be set for the events arranged on the timeline 95.
  • the viewer window 92 selects the source device and, while viewing the video image played from the selected source device, sets the in-point for the edited material played from that source device. And a window for setting art points. As shown in Figure 13, the viewer window 92 includes a viewer 106 for viewing the video image played from the source device, and a device controller for controlling the selected source device. Click the mark-in button 1 15 and mark-in button 1 15 to specify the in-point for the material displayed in the control section 96 and the viewer window 92.
  • In-point image display section 110 that displays the stamp image of the in-point specified by the mark, and an in-point image for displaying the stamp image of the in-point specified by the It has a mark point button 1 16 and a mark point image display section 1 12 for displaying a stamp image of the mark point specified by clicking the mark out button 1 16.
  • the viewer window 9 2 is used to display the time code of the stamp image displayed in the in-point image display section 110, ie, the time code of the in-point. 1 and the time code of the stamp image displayed in the out point image display area 1 1 2, that is, the time point code field for displaying the time code of the point 1 1 1 3 and a column for displaying the duration of the event (Duration) generated by the marking of the in point and the in point, and the time code of the in point and the time code of the in point And a DUR display section 114 on which a time code calculated based on the ID is displayed.
  • the time code of the stamp image displayed in the in-point image display section 110 ie, the time code of the in-point. 1 and the time code of the stamp image displayed in the out point image display area 1 1 2, that is, the time point code field for displaying the time code of the point 1 1 1 3 and a column for displaying the duration of the event (Duration) generated by the marking of the in point and the in point, and the
  • the viewer window 92 has source selection buttons for selecting the source device for the daily server 6, VTR 7, local storage 8, auxiliary input section AUX and internal input INT. 10 2 (10 2 A to 10 2 E). Editing By clicking one of these source selection buttons, the operator can select one of the daily server 6, VTR 7, local storage 8, auxiliary input section AUX and internal input INT. Can be selected as the source device.
  • Auxiliary input section AU X has multiple sources.
  • One of the input section names in the auxiliary input sections (AUX1 to AUXn) currently set as the auxiliary input section AUX is displayed as the source selection button. Appears on 102D.
  • the device control section 96 has a slider section 120 and a jog shuttle section 121.
  • the file currently being played is determined by the position where the slider section 120B is displayed within the range of the duration display section 12OA showing the length of the event.
  • the current position of the file is displayed, and the desired position of the file is searched by sliding the slider 120B to an arbitrary position on the duration display section 12OA with the mouse 2D. Can be.
  • the arrow buttons 120C or 120D By clicking the arrow buttons 120C or 120D, the positions of the files can be moved back and forth by ⁇ 1 frame each.
  • the jog shuttle section 1 2 1 has a playback button 1 19 A for instructing 1x speed playback, a still button 1 19 B for instructing still playback, and a shuttle button 1 for instructing shuttle mode for shuttle playback. It has 21 A and a button 121 B or 121 C for changing the search speed of the device in the shuttle mode in a range from 150 times speed to +50 times speed.
  • the viewer window 9 2 also displays the selected editing material name.
  • the time code display field 108 By clicking the time code display field 108, the time code display field 108 can be set to the input mode. By inputting a time code at a desired position and pressing an enter key, it is possible to search for a desired position of the material according to the time code.
  • the device control for the material selected by the device control by the device control section 96 can be executed. Indicates that the status is set as follows.
  • the device can be set to the playback mode at the playback speed.
  • the mark-in button 115 at the desired position of the material being played back, the in-point is set at that position, and the stamp image and time code are captured.
  • the in-point image display section 110 and the in-point time code display section 111 respectively.
  • the selected material is further checked, and the mark point is clicked on by clicking on it to set the out point at that position, and the stamp image and the tie are set.
  • the code is captured and displayed in the art point image display section 112 and art point time code display section 113, respectively.
  • Clicking on the In-point time code display field 111 changes the In-point time code display field 111 to the time code input mode.
  • the image of the material data corresponding to the input time code is read out as the in-point image, and the in-point image is displayed. It can also be displayed in section 110.
  • the art point time code display field 113 can be changed to the time code input mode.
  • the image of the source data corresponding to the input time code is read out as an out point image, and It can also be displayed on the out point image display section 1 12.
  • the viewer window 92 is used to preview the material at the in-point from the in-point before registering the edited material defined by the in-point and the out-point as an event.
  • a preview button 1 17 and an ADD button 1 22 A for registering, as an event, a material for which an in point and an art point have been set in the viewer window 92 in the setting state.
  • Select the log mode in which you want to register the event by entering a clip card in the log window 93 as the entry mode when registering the event.
  • Log button 1 2 2 B Event As the entry mode when registering the event, a timeline button 1 22 C for selecting the timeline mode for registering the event on the timeline 95. .
  • the log window 93 is a database window for storing the event registered in the viewer window 92 as a clip card 179.
  • This log window has a clip card display area for displaying multiple clip cards, a direct entry button 180, a scene change button 178 A, It has a recall button 178C, a sort button 178D, a delete button 178E, and a download button 178B.
  • Direct entry button 178 C is a button for setting the direct entry mode that automatically arranges clip cards 179 stored in the log window on the timeline. is there. In this direct entry mode, you can simply click on the clip card 17 9 shown in the log window 93 without dragging and dropping it. This is a mode that can be arranged on the timeline. The details will be described later.
  • the scene change button 1 7 8 C is used when you want to assign a series of clip names to events stored as clip cards 1 to 9 in this log window 93. Button. When this scene change button 1778C is clicked, a scene name setting dialog opens. The setting method of this scene will be described later.
  • the recall button 178 C is a button for searching for the clip card 179 based on the clip name etc. by clicking, and the sort button 178 D Is a button that sorts the clip card 1797 in descending or ascending order by clicking, and the delete button 1778E is clickable. By mouth This button is used to set the deletion of clip card 17 9 registered on window 9 3.
  • the download button 178 B is a button for instructing the download of the selected clip card 179 to the local storage 8.
  • FIGS. 15A to 15C. Format exists as a display format for displaying the clip card 179 registered in the log window 93.
  • a first clip card display format as shown in FIG. 15A is a format for displaying a clip name, a stamp picture at an in-point, and a duration of an event.
  • the second clip card display format as shown in Figure 15B, consists of the clip name, event duration, time code for in and art points, and in and art points. This is a format for displaying the stamp picture at point G.
  • a third clip force display format as shown in Figure 15C, is a text that describes the clip name, event duration, stamp picture at the in-point, and information about the event. This is a format for displaying a text display field for displaying text.
  • the editing operator selects a desired clip card display format from these three clip card display formats, and stores the event as a clip card in this log window 93. If so, the clip card is displayed in the selected clip card display format.
  • the program window 94 is added to the viewer window 92.
  • This window is used to create a program list (ED).
  • the program window has a timeline 95 composed of a plurality of lines on which video and audio are pasted.
  • the tie Murai emissions 9 the base video line (Base Video Line) 1 3 2 A s base audio line 1 3 2 B, sub audio line 1 3 4, and bi effect Tri down 1 3 5, overlay Rye (Overlay Line) 13, DSK Line 13 7, Voice Over Lines 13 A and 13 B.
  • Base Video Line 13 2 A is a line for attaching a base video as a base
  • Base Audio Line 13 2 B is a base audio related to the base video. It is a line for pasting.
  • the base video line 1338A and the base audio line 1338B are always linked, and the same material is used.
  • Overlay Line 1 36 is a line that is used when an animation effect that combines two images is set.
  • the overlay line is used to overlay the video on the base video. It is a line for pasting.
  • the sub audio line 13 4 is a line for setting the audio of the overlay video attached to the overlay line 1 36.
  • the overlay line 1336 and the sub audio line 1338B are always linked, and the same material is used.
  • the efline 1 3 5 is a line for setting video efet. How to use this effect line 135 will be described later.
  • the DSK line 1337 is a line for setting a down stream key (Down Stream Key) used for synthesizing a title and a character super.
  • a down stream key Down Stream Key
  • the voice over lines 13A and 13B are lines for synthesizing a voice (voice) of an analyzer or the like with the base audio.
  • the events displayed on the timeline 95 and the set effects are set to different colors for each line. For example, video events are displayed in blue, audio events in yellow, effect events in pink, and DSK events in green.
  • the timeline 95 has a nowline 1339 indicating the current time or the current position on the timeline.
  • Nowline 13 9 moves right on the timeline in conjunction with the video frame displayed on the viewer window 92. I do.
  • Nowline 13 9 is always displayed on the timeline 95 when the timeline 95 is displayed.It is normally grayed out and displayed during preview or playback. Are colored red. As described above, the Nowline 1339 is displayed in different colors depending on whether it is being previewed or being played back, so that the Nowline 1339 is currently displayed at the time code position indicated by the Nowline 1339. Whether or not the corresponding video clip is displayed on the screen in the viewer window 92 can be easily visually identified.
  • Nowline 13 9 can be easily moved to the desired position on Timeline 95 by input tool 140 displayed at the top of Timeline 95. It has been done.
  • a head button 1441 that moves the nowline 13 9 to the beginning of the timeline 95 as an input tool 140
  • a nowline 13 39 on the timeline 95 Move the tail button 1 4 2 and the now line 13 9 to move immediately to the last event of the previous event and move the previous button 14 3 and the now line 13 9 to move the previous line to the event immediately before the current event.
  • Next button 1 4 4 to move to the event after the current event Now line 1 3 9 moves to a predetermined position on the time line 9 5 and a slider 1 4 6 is provided. .
  • the timeline 95 is provided with a count time display field 152 for displaying the current position of the nowline 1339 on the timeline.
  • a scale line 147 (Scale Line) representing a scale corresponding to the time code is provided.
  • the scale width of the scale line 147 can be arbitrarily changed according to the length of an event pasted on the time line 95 and the length of a program created on the time line.
  • the program window 94 is used to adjust the time set on the timeline 95 as a GUI tool or the time indicated by one scale of the scale line 1447.
  • Zoom button 15 and zoom-in button 15 1 ing.
  • the zoom out button 150 sets the time of the time line that can be displayed on one screen of the program window 94 longer.
  • the zoom-in button 15 1 is used to shorten the time of the time line that can be displayed on one screen of the program window 94.
  • the lip button 154 As input tools, the lip button 154, the Mayuanore location button 155, the trim button 156, the match cut button 157, the Delhi button 158 and A video effect button 159 is provided.
  • the Ripple button 154 can be used to insert an event into the baseline as an input event when pasting an event in the middle of an event that is already lined up on the baseline. Set up a process to rewind and reorder the events sequentially after the insertion event, and if an event on the baseline is deleted or moved, it follows the hole in the baseline. Set the process to move up and arrange the events.
  • the manual location button 155 is used to set a preview or record of an event to which the animation effect is applied when setting the animation effect so that the position of the effect (location) can be set.
  • the trim button 156 sets a trim on the event on the timeline 95, displays the background of the event on the monitor and the background with the boundary, and matches the event.
  • the cut button 157 is provided as a button for setting an event at the position of the now line 13 9 and separating the event into two.
  • the delete button 158 is used to set deletion of an event.
  • the video effect button 159 is used to display a dialog for applying an effect (video effect) to a transition between images or the image itself.
  • the program window 94 is used to add the effects of the fade-in or fade-out of the audio event attached to the sub audio line 13 4 and the voice over line 1 38.
  • Audio fade button 16 0, DSK button 16 1 to open a dialog for various DSK settings, and how to route audio on the timeline to the final 4-channel audio output.
  • a mixdown button 162 for displaying a dialog for deciding whether or not to perform mixing is provided.
  • the source material and the event to be edited in each of the viewer window 92, the log window 93, and the program window 94 are determined according to the source.
  • a device icon 165 indicating the device material and whether it is an event is displayed.
  • the device icon 165 has five types of device icons as shown in FIGS. 18A to 18E. If the source device of the material is directory server 6, server icon 1 65 A, Low power storage icon 165B when the source device of the material is local storage 8 and VTR icon 16C when the source device of the material is VTR7, the source device of the material If the source is the auxiliary input section AUX, the AUX icon 165D is displayed. If the source device of the material is a signal generator inside the editing device, the INT icon 126 is displayed.
  • the device icon 1 6 5 is displayed in the viewer window 92.
  • the video played back in the viewer window 92 can be displayed on any source device. It can be easily identified by the device icon 165 whether or not the image is supplied from a source.
  • the device icon 165 is displayed for each clip card. In other words, by displaying the device icon 165 for each clip card 179, the event indicated by each clip card 179 becomes The device icon 165 can easily identify the source device from which the video was generated.
  • each event registered on the timeline A device icon 165 is displayed for each event to indicate whether the event was generated from the event.
  • the device icon 165 is displayed for each event on the timeline, so that each event is an event generated from the video of which source device. Can be easily identified by the device icon 165.
  • the low power storage 8 used in the editing apparatus of this embodiment uses a recording medium that can be accessed randomly, and has the ability to reproduce multi-channel video and audio in real time. Therefore, there are no restrictions on effect settings or program generation processing.
  • VTR 7 In the case of a recording medium that cannot be accessed randomly, such as VTR 7, it takes time to rewind the tape in order to queue up.Therefore, there are many restrictions on effect settings and program generation processing. It is provided. For example, it is not possible to create a program that places two or more events generated from material on a VTR7 tape close together on a timeline. Similarly, a program was created to place two or more events generated from a VTR 7 tape on a base video line and an overlay video line so that they overlap in time. You can't.
  • the source device can be easily recognized.
  • Various types of data are managed by a file manager.
  • registered events are managed by this file manager as one file.
  • this file manager manages each file so that it is stored in a specific folder specified in advance. For example, log files are stored in the log folder and the program list ( (EDL) files are stored in the program list folder, source files are stored in the source folder, and edited master files that store data related to the completed video program (EditedMaster) are stored in the edited master folder. It has become.
  • EDL program list
  • the file information includes the file name 331, the event name 332, the time code 333 at the IN point, the clip address 334 at the IN point, and the file name.
  • the file name 331 is data for indicating the event force S which file name is the data generated from the material, and the name of the source file name is registered. If the source device is local storage 8 or server 6, the source file name is registered. If the source device is VTR, the tape cassette reel name is registered. .
  • the event name 332 is a name that can be arbitrarily given by the editing operator.
  • the name of this event is The name given to the clip displayed in the log window 93 is the same as the clip name, and is simply called the clip name, and the timeline window 95 The name given to the event displayed in is called the event name.
  • the in-point clip address 3 3 4 and the art point clip address 3 3 6 are the computer 2 where the stamp picture generated when marking the in-point and art point is stored. Shows the address of the hard disk HDD.
  • the file type information 338 is a file indicating the log clip, a file indicating the program list, and a file indicating the material downloaded to the call storage.
  • the information indicates whether the program is a completed program that has been recorded in local storage. “Log” indicates that the file is a log clip, “EDL” indicates that the file is a program list, and “Materia 1” indicates that the file is a program list. Ainore indicates that the material has been downloaded to the local storage storage, and ⁇ Master '' indicates that the file is a completed program that has been recorded in the local storage. I have.
  • the file position information 339 is data indicating whether the file is a data file recorded on the hard disk HDD of the computer 2 or a material file in the local storage 8. “C” indicates a data file “in a computer”, and “L” indicates a material file in a mouth call storage.
  • the source device information is indicated by this file information This is information indicating on which source device the material is recorded. "S” indicates that the source device is server 6, “L” indicates that the source device is local storage,
  • V indicates that the source device is VTR
  • A indicates that it is an AUX (auxiliary) material
  • I indicates that it is an internal material.
  • the “operation of the editing operator” used in the following description means that the editing operator operating the computer 1 uses, for example, a mouse 2D or the like to display a part of the graphic image displayed on the monitor 2B. Clicking, dragging, and dropping operations with a keyboard device, and direct operation of the keyboard 2C, mouse 2D, dedicated controllers 4, 5, etc. are shown.
  • the CPU 21 of the computer 1 selects a source device to be controlled in response to the operation of the editing operator. Specifically, the editing operator clicks one of the source selection buttons 102 A to 102 E in the viewer window 92 displayed on the monitor 2 B as a GUI image. As a result, the CPU 21 determines the source device to be controlled. For example, when the operator clicks the source selection button 102A, the CPU 21 determines that the directory server 6 has been selected as the source device. When the operator clicks the source select button 102B, the CPU 21 determines that VT.R7 has been selected as the source device and the operator selects the source select button 102C. When clicked, the CPU 21 determines that the low-power rule storage 8 has been selected as the source device.
  • step SP302 CPU21 searches for a material file registered in the source device specified in step SP301 in response to the operation of the editing operator.
  • a dialog 300 for material search as shown in FIG. 21 is displayed on the monitor 2 B of the computer 1.
  • This dialog 300 has input items such as a generation time input list 301, a file name input list 302, and a file type input list 3 for inputting the generation date and time of the material data. 0, an audio mode selection list 304, a program name input list 304, and a search execution instruction button 303. For example, if you enter the keyword “FIRE” in the file name input list 302, you can search only files that contain the characters “FIRE” in the file name. .
  • the search condition is set by the editing operator inputting desired data into each input list of the dialog box 300, and then, when the search operator presses the search execution button 306, the CPU 21 executes this dialog box. Executes a search process to search for a file registered in the source device according to the conditions set in tag 300.
  • the CPU 21 refers to the file information stored in the RAM 21 B and searches for a file that satisfies the conditions set in the dialog 300. Then, the CPU 21 displays the search result as shown in FIG. Display as a file list 310.
  • step SP303 the CPU 21 selects a desired file from the file list of the search result in step SP302 in response to the instruction of the editing operator. Specifically, when the editing operator clicks a desired file name in the file list 3 1 0, CPU 2 1 selects specified by the file by the editing operator.
  • step SP304 the CPU 21 reproduces the video data and the audio data included in the selected file, and the reproduced video data is displayed in the viewer window 92 and the reproduced video data is reproduced.
  • the selected source device and the editing device 3 are controlled so that audio data is reproduced from the speakers 11 and 12.
  • a case where a file recorded in the daily server 6 is reproduced will be described.
  • the CPU 21 supplies a control signal for reproducing the file selected in step SP303 from the daily server to the daily server 6 via the LAN 10. Based on this control signal, the daily server 6 supplies video data and audio data included in the specified file to the editing processor 3 as a digital signal S7 based on the SDI format standard. I do.
  • the supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher section 3B of the editing processing device 3.
  • the CPU 21 activates the cross point P 19 for connecting the input terminal IN 1 and the output terminal OUT 9 via the system control section 3 A of the editing processing device 3.
  • the matrix switch 3B is controlled at the same time.
  • the input terminal IN 1 The supplied SDI format digital signal S7 is output from the output terminal OUT9 as an SDI format digital video signal S26 and supplied to the image processing unit 3C.
  • the SDI-formatted digital video signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing unit 3C.
  • the demultiplexer 51D extracts a digital video signal from the SDI format data payload, and extracts the extracted digital video signal as a switcher block 52 and a special effect block 53. It is output as the output video signal S 31 via the input / output mixer block 54.
  • the digital video signal S31 output from the image processing unit 3C is supplied to the input terminal IN9 of the playback matrix switch unit 3B.
  • the CPU 21 activates the cross point P 95 for connecting the input terminal IN 9 and the output terminal OUT 5 via the system control section 3 A of the editing processing device 3. Controls the matrix switcher section 3B.
  • the digital video signal S31 supplied to the input terminal IN9 is output to the computer 2 as a digital video signal S2 from the output terminal OUT5 via the output processor 46.
  • the digital video signal S 2 output from the editing processor 3 is supplied to the video processor 22 of the computer 2 and displayed on the computer monitor 2 B viewer window 92 via the display controller 23. You.
  • the CPU 21 converts the digital signal S7 of the SDI format supplied to the input terminal IN1 via the system control section 3A of the editing processing device 3 into the audio processing section 3D.
  • the matrix switch 3B is controlled. That is, the CPU 21 connects the cross point P 111 for connecting the input terminal IN 1 and the output terminal OUT 11 via the system control section 3 A of the editing processing device 3.
  • the matrix switch 3B is controlled so as to be activated.
  • the digital signal S7 of the SDI format supplied to the input terminal IN1 is processed not only from the output terminal OUT9 but also from the output terminal OUT11 as the digital output signal S28, and the audio processing is performed. Output to part 3D.
  • the separator 56A of the audio processing portion 3D is Separate audio data only from digital signal S28 in SDI format.
  • the CPU 21 converts the senorated audio signal S48 via the system control unit 3A of the editing processing device 3 to the output audio signal via the mixer block 57.
  • the audio processing unit 3D is controlled so as to be supplied to the speakers 11 and 12 as S17 and S18.
  • step SP305 the CPU 21 of the computer adjusts the video data and audio data reproduced from the selected source device according to the operation of the editing operator. Specifically, when the editing operator clicks on the video adjustment key 1667A in the viewer window 92, the CPU 21 of the computer 2 becomes as shown in FIG. 23. Display the dialog 170 for proper video level setting on the monitor 2B. The editing operator can set the desired level of Luminance, Chroma, etc. by moving the slider section 170 with the mouse 2D. The CPU 21 of the computer 2 uses the respective levels set by the video level setting dialog 170 via the system control section 3A as video adjustment information of file information. To remember.
  • the CPU 21 sets the Luminance level and the Chroma level of the video data reproduced from the selected source device to the Luminance level and the Chroma level set by the video level setting dialog 170.
  • the video signal processing circuits 52E and 52F of the image processing unit 3C are controlled so that the image becomes a blank.
  • the video level adjustment process described above is a process that is performed only when the video operator 167 A is clicked by the editing operator. If such video level adjustment processing is not performed, the video signal is adjusted according to default values preset as the reference Luminance level and the reference Chroma level.
  • the editing operator clicks on the audio adjustment key 167A of the viewer window 92
  • the CPU 21 of the console 2 causes the audio window as shown in FIG. 24 to be displayed.
  • the editing operator can set a desired audio input / output level by adjusting the slider 17A and moving the fader 1774A with the mouse 2D.
  • the CPU 21 of the computer 2 uses the audio level set by the audio / video level setting dialog 172 via the system control section 3A as audio adjustment information of the file information. To remember. Also, CPU 21 The audio processing unit 3D so that the input / output level of the audio data reproduced from the selected source device becomes the input / output level of the audio data set by the audio level setting dialog 1 72. Control the mixer block 57
  • the audio level adjustment process described above is a process performed only when the audio adjustment button 167B is clicked by the editing operator. If such an audio level adjustment process is not performed, the audio signal is adjusted by a default value preset as a reference input / output level of audio data.
  • step SP306 the CPU 21 searches for video material recorded in the selected source file based on the operation of the editing operator. Specifically, when the editing operator operates the device control section 96 of the viewer window 92, the CPU 21 of the computer 2 causes the selected source device to correspond to the operation. Controls the playback operation. As a result, video data at the speed specified by the editing operator is displayed in the viewer 106 of the viewer window 92.
  • step SP307 the CPU 21 sets an in point and an out point based on the operation of the editing operator. Specifically, when the video image of the selected file is displayed as a moving image in the viewer 106 by the search processing in step SP306, the editing operator can perform the processing in step SP306.
  • the mark-in button 1 of the viewer window 92 is used.
  • the in-point is specified at the timing when the mark-in button 1 15 is clicked.
  • the CPU 21 responds to the click operation, and the CPU 21 displays the viewer 106 at the clicked timing.
  • the displayed video data is displayed on the in-point image display section 110 as a clip image (stamp picture).
  • the CPU 21 recognizes the time code given to the video frame at the timing where the in-point is marked as the time code of the in-point.
  • the editing operator searched the video frame further as in step SP306, and the desired video frame was displayed in the viewer 106 of the viewer window 92.
  • the markout button 116 is clicked, an out point is designated at the timing when the markout button 116 is clicked.
  • the CPU 21 responded to the click operation and was displayed on the viewer 106 at the clicked timing.
  • the video data is displayed as a clip image (stamp picture) on the image display unit 1 1 2.
  • the CPU 21 recognizes, as the time code of the art point, the time code assigned to the video frame at the timing when the art point is marked.
  • the CPU 21 calculates the time between the in point and the out point from the time codes of the set in point and art point. The calculated time is displayed in the DUR display field 1 14 on the viewer window 92.
  • step SP308 the CPU 21 previews the period specified by the in point and the art point set in step SP307 based on the operation of the editing operator. Specifically, when the editing operator clicks the preview button 1 17 of the viewer window 92, the CPU 21 starts an alarm from the video frame several seconds before the in point. In order to play back up to the video frame of the edit point, the appropriate source devices (daily server 6, local storage 8 Or control VTR 7).
  • the preview processing in the editing system according to the present embodiment is performed on the assumption that the event generated by the processing in step SP307 has been registered at the position of nowline 1339 in timeline 95. It is.
  • the reproduction is not started from the in-point, but is started from a few seconds (for example, 5 seconds) before the in-point.
  • this preview process virtually registers the event on the timeline and starts playback from a few seconds before the In point, so that the event is actually placed on the timeline. Before registering, you can virtually check the connection between the event you are about to register and the event immediately before it.
  • step SP301 If the user does not like the material itself and the settings of the in-point and the art point as a result of the preview, the user can return to step SP301 or step SP306 again.
  • step SP308 is not an indispensable process, but a process performed only when the editing operator clicks the preview button 117.
  • the CPU 21 of the computer 2 is instructed to download the material of the directory server 6 and the VTR 7 to the oral call storage 8 according to the operation of the editing operator. Is determined. Specifically, when the editing operator clicks the download button 1 23 A in the viewer window 92, the CPU 21 determines that the download process has been specified. Note that this download process can be performed only when the directory server 6 or the VTR 7 is specified as the source device in step SP301.
  • download processing is specified by the editing operator, the CPU 21 opens a dialog 320 for setting download processing as shown in FIG. 25, and proceeds to step SP310. On the other hand, if the download operator does not specify the download processing, the process proceeds to step SP312.
  • step SP310 the CPU 21 starts the download process according to the operation of the editing operator. Specifically, before the CPU 21 actually starts the download processing, the editing operator first inputs necessary settings in the download processing dialog 320 for the download processing setting. I do.
  • the final name input section 3 2 1 is a setting list for setting a new file name given to a file downloaded to the local storage, and the start time code setting section 3 2 2 The setting list for setting the start time code of the file downloaded to the local storage storage.
  • the transfer speed setting list 3 2 3 List for setting the transfer speed You.
  • the CPU 21 determines whether the specified file in point is The source device and the edit control device 3 are controlled so that the video data from the start point to the video point is downloaded to the local storage 8.
  • the following is an example of downloading video data and audio data from the in point to the out point of a file recorded on the daily server 6 to the local storage 8 using the CPU 21 of the computer 2 as an example.
  • the operation of the editing control device 3 will be described.
  • the daily server 6 starts reproduction from the video data and audio data at the in-point of the designated file, and converts the reproduced video signal and audio signal based on the SDI format standard. It is supplied to the editing processor 3 as a digital signal S7.
  • the supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher unit 3B of the editing processing device 3.
  • the CPU 21 Since the digital signal S7 reproduced from the release server 6 has to be downloaded to the low-speed storage storage 8, the CPU 21 has the system control unit 3 of the editing processing device 3.
  • the matrix switch 3B is controlled via A to activate the cross point P11 for connecting the input terminal IN1 and the output terminal OUT1.
  • the SDI format digital signal S7 supplied to the input terminal IN1 is converted into an SDI format digital signal S15 from the output terminal OUT1 via the input / output port 43.
  • the local storage 8 records the digital signal S15 supplied from the editing processing device 3 on an appropriate recording medium using a RAID algorithm. As a result, the video and audio data recorded on the daily server 6 are downloaded to the local storage 8.
  • the CPU 21 first requires the editing processor 3
  • the matrix switch 3B is controlled so that the SDI format digital signal S7 supplied to the input terminal IN1 is output to the output terminal 9 through the system control section 3A of the Activate loss point P 19.
  • the SDI format digital signal S7 supplied to the input terminal IN1 is downloaded to the local storage via the output terminal S15, and at the same time, is output via the output terminal OUT9. It is supplied to the image processing section 3C as a digital video signal S26 in SDI format.
  • the digital video signal S26 in SDI format output from the output terminal OUT9 passes through the image processing unit 3C, passes through the image processing unit 3C as an output video signal S31, and is returned to the matrix switcher unit 3. It is supplied to the B input terminal IN 9.
  • the CPU 21 activates the crosspoint P95 for connecting the input terminal IN9 and the output terminal OUT5 via the system control section 3A of the editing processing device 3. Controls the matrix switcher section 3B.
  • the digital video signal S31 supplied to the input terminal IN9 is output from the output terminal OUT5 to the computer 2 as the digital video signal S2 via the output processor 46 (
  • the digital video signal S 2 output from the editing processing device 3 is supplied to the video processor 22 of the computer 2 and is sent to the viewer window 92 of the computer monitor 2 B via the display controller 23. Is displayed.
  • the video data reproduced from the daily server 6 is downloaded to the local storage 8 and simultaneously displayed in the viewer window 92 of the computer 2.
  • the process of displaying the edited material on the viewer window 92 while downloading it to the local storage 8 in this manner is referred to as “background processing”. This is called “download processing”.
  • step SP 311 the CPU 21 controls the editing processing device 3 so as to perform a download process in knock ground.
  • the editing operator clicks the cancel button 3 25 of the download setting dialog box 32 0 during the download process the download performed in the foreground process is performed.
  • the processing is performed as background processing.
  • the CPU 21 supplies digital data from the daily server 6 when the edit operator clicks the cancel button 3 25 of the download setting dialog 32 0.
  • the cross point P 11 between the input terminal IN 1 and the output terminal OUT 1 for downloading is maintained in the active state, but is output to the input terminal IN 1 and the image processing unit 3D.
  • the matrix switcher section 3B is controlled so that the cross point P 19 with the OUT terminal OUT 9 for inactivation is activated.
  • the digital signal S7 reproduced from the daily server continues to be downloaded to the local storage 8, but the supply to the image processing unit 3C and the computer 2 is stopped. That is, from the point of view of the editing operator who operates the computer 2, this download processing is performed in a background that is not visible to the operator.
  • step SP 311 the CPU 21 controls the editing processing apparatus 3 so as to process the stolen storage by downloading, and the download processing in the background is executed. If not, the process returns to step SP301 again and shifts to the process of editing the next material.
  • step SP 311 if the download processing in the background is not specified by the editing operator, the knock ground is used until the download processing is completed. Download processing is performed.
  • step SP309 Next, a normal editing process in which download processing is not specified in step SP309 will be described with reference to the next step SP312.
  • step SP312 the CPU 21 performs a scene name setting process according to the operation of the editing operator. Specifically, when the edit operator clicks the scene change button 1778A of the viewer window 92, the process shifts to a scene name setting procedure (step SP3 13), and the scene change is performed. If the button 178 A is not clicked, the process proceeds to step SP 314, and the clip name and the event are set using the scene name already set in step SP 314. Create a name.
  • the scene name setting process in step SP313 will be described. First, the CPU 21 opens a scene name input dialog 180 as shown in FIG. 26A on the monitor 2B.
  • the CPU 21 displays the scene name as shown in FIG. 26B. Is displayed on monitor 2B.
  • This list of scene names is a list of scene names used and registered by the editing operator during the previous editing operation, and a history list is stored in RAM 21B. This is the data stored as
  • the CPU 21 converts the selected scene name into a clip generation process described later. Register as the scene name used in event creation processing.
  • the editing operator can directly input a new scene name from the keyboard 2C into the scene name input field 181, without selecting the pull-down button 182.
  • the CPU 21 registers the input scene name as a scene name used in clip generation processing and event generation processing described later.
  • step SP Assuming that the scene name is updated to “FIRE” in 3 13, “FIREO 0 1”, “FIRE 0 0 2”, and “FIRE 0 0 3” will be used in the subsequent clip creation processing. Clips with clip names such as... Are created in order. For example, if the scene name is updated to “SEA” in step SP313, similarly, in the subsequent clip creation processing, “SEA001J, Clips having a clip name such as “r SEA 02”, “SEAO 03”... are created in order.
  • the editing operator classifies the clips registered in the log window 93 by scene name by setting an appropriate scene name when the scene of the material changes. And can be. This makes it easy to manage hundreds of clips, even if you have created hundreds of them. Also, when searching for a clip of the local storage 8 in step SP302, by using this scene name as a keyword, only the relevant clip can be easily searched. can do.
  • the CPU 21 sets the entry mode in response to the operation of the editing operator.
  • This entry mode refers to the ability to enter (register) a material with in and out points set in the log window and the timeline window. -This is the mode for deciding whether to (register). In this entry mode, the material with the in and out points set is registered as a clip in the log window as a log mode, and the in and art points are set. Timeline mode, where the registered material is registered as an event in the timeline window.
  • step SP 315 when the editing operator selects the log button 1 2 2 B in the viewer window 92, the log mode is selected, and the editing operator selects the timeline button 1 2 2 in the viewer window 92.
  • C When C is selected, timeline mode is selected. If the log mode has been set, the process proceeds to step SP 315, and if the time line mode has been set, the process proceeds to step SP 316.
  • step SP 315 in response to the operation of the editing operator, the CPU 21 registers, as an event, the material specified as the in point and the art point. Specifically, when the editing operator clicks the ADD button 1 2 2 A of the viewer window 92, the CPU 21 sends the material designated as the in point and the out point. Register as an event. At this time, the CPU 21 generates file information as shown in FIG. 27 for representing the registered event.
  • the CPU 21 determines the stamp picture at the in-point of the event, the time code at the in-point, and the step SP313. And a clip name generated based on the scene name set in the log window 93 as a clip card 179.
  • step SP315 By repeating the processing of step SP315 from step SP306, a plurality of events specified by the editing operator are registered. In addition, this log mode logs multiple clip cards 179 representing the multiple events. Can be displayed in window 93.
  • step SP316 in response to the operation of the editing operator, the CPU 21 registers the material specified as the in-point and the art-point as an event. Specifically, as in step SP 3 15, when the editing operator clicks the ADD button 12 2 A in the viewer window 92, the CPU 21 sets the in-point and the key. ⁇ Register the material specified as the point as an event. At this time, the CPU 21 generates file information for representing the registered event as shown in FIG.
  • step SP 3 14 the CPU 21 pastes the video event at the position of the now line 13 9 of the base video line 13 2 A. Then, paste the audio event at the position of now line 13 9 on base audio line 13 2 B.
  • step SP316 By repeating the processing of step SP316 from step SP306, a plurality of events specified by the editing operator are registered. Further, in this timeline window II, the plurality of events can be pasted at desired positions of the base video of the timeline 95 and the base video line 1332.
  • the flowchart of FIG. 27 is a diagram for explaining the operation of this program list creation processing.
  • the flowchart shown in Figure 27 is used to create a program list using the events displayed as clip card 179 in the log window 93. It is a flow.
  • step SP401 the events displayed as clip cards 179 in the log window 93 are arranged on the timeline.
  • the events displayed as clip cards 179 in the log window 93 are arranged on the timeline. There are two ways to arrange events on the timeline in this way.
  • the first method is that the editing operator uses the mouse 2D to insert the clip card into the desired position on the timeline 95 using the drag-and-drop. . Specifically, by clicking the clip card 179 displayed in the log window 93 with the mouse 2D, the clip card becomes active, and the drag card is activated. Is ready to be enabled. Next, drag the clip card 179 and drop it at the desired position on the timeline 95, and the clip card will drop to the drop position on the base video line 1332A. The video event corresponding to the clip card 1797 is inserted, and the audio vent corresponding to the clip card 1797 is placed at the drop position on the base audio line 1332B. Is inserted.
  • the second method is to automatically arrange the clip cards 179 on the timeline 178B using the direct entry remote mode.
  • the mode is changed from the normal mode to the direct entry mode.
  • This direct entry mode means that you can click on the clip card 179 displayed in the log window 93 without dragging and dropping it, and then click on the timeline. It is a mode that can be arranged. More specifically, in this direct entry mode, when the editing operator clicks the clip card 17 9 of the log window 93, the edit line of the time line 95 5 At the position of 39, a video event and an audio event corresponding to the clicked clip card 179 are inserted.
  • Nowline 139 automatically moves to the out-point of the newly inserted event in direct entry mode. In other words, if you click the clip card '17 9 9 in the log window ⁇ 93 in order, it will be inserted in the order in which it was clicked to the right of the time line 95. Obviously.
  • the clip card 179 displayed in the log window 93 can be removed without dragging and dropping. Just click to paste to Time Tine 95. Therefore, if you need to paste dozens of clip cards 179 instead of just a few on the timeline,
  • the rectangle entry mode eliminates the drag-and-drop operation for each clip card 179, which simplifies editing operations and reduces editing time. it can.
  • step SP402 the CPU 21 sets the mixdown of the audio pasted on the timeline 95 in response to the operation of the editing operator.
  • This mix-down processing involves setting the output levels of the four tracks set for the audio event, and combining the four tracks with the final audio output (program out). This is the process for setting the routing for the channel.
  • dialog select button 16 2 for audio mixdown is clicked from the toolbar of the program window 94, the dialog 2 for audio mixdown is displayed on the graphical user interface 90. 0 0 is displayed.
  • Dialog 200 is composed of four tracks T1 to T4 which have audio events set to base audio (BASE), sub audio (SUB), voice over 1 (VOl), and voice over 2 (VO 2). Output for setting how to associate T4 (or two tracks ⁇ 1 to ⁇ 2) with final audio output (program out) channels Chl to Ch4, respectively.
  • Fader assign button for opening the setting panel for assigning the four panel levers provided in the dedicated controller 5 for each track of the audio panel and the audio panel On / off button to turn on or off the mode for manually adjusting the audio level of each track using 202 and the four fader levers provided on the dedicated controller 5 202 A and
  • each track can be routed to the desired output channel.
  • the example shown in Figure 28 shows a crosspoint button for event track T1 on base audio line 1332B. Clicking on 201A indicates that track T1 is being routed to output channel Ch1.
  • track T 2 is routed to output channel Ch 2
  • track T 3 is routed to output channel Ch 3
  • track T 4 is routed to output channel Ch 4.
  • the voice over 1 line 13 8 A and the voice over 2 line 13 8 B the tracks T 1 to T 4 of the sub audio line audio event are respectively referred to.
  • Route to output channels Ch1 to Ch4 and route tracks T1 and T2 of audio event of voiceover 1 to output channels Ch1 and Ch2, respectively, and perform voiceover 2 Route tracks T1 and T2 of the current audio event to output channels Ch3 and Ch4, respectively. It indicates that
  • Dialog 205 is composed of four tracks T1 to T4 (or two tracks ⁇ 1 to ⁇ 2) of audio events registered in base audio, sub audio, voice over 1 and voice over 2. ) Is assigned to which of the feeder levers F1 to F4 of the dedicated controller 5 is assigned. On the assign panel 206, the user clicks the button corresponding to the desired fader lever F1 to F4 set for each track T1 to T4 set in each row. Thus, each of the tracks T1 to T4 can be assigned to any of the fader levers F1 to F4.
  • FIG. 29 shows that by clicking buttons 206A and 206B belonging to tracks T1 and T2 of the base audio, tracks T1 and T of the base audio are clicked. This indicates that 2 has been assigned to the first folder F1. Similarly, by clicking the buttons 206C and 206D of the sub audio tracks T1 and T2, the tracks T1 and T2 are moved to the second feeder lever F in the same manner. 2 shows that the voice-over tracks T1 and T2 are in the third position by clicking the buttons 206E and 206F. It indicates that it is assigned to the feeder F3.
  • Tracks for each audio line T1 to T4 When setting the slider, the desired audio can be set by moving the slider 208A of the track feeder unit 208 up and down with the mouse 2D.
  • the on-Z off button 202A when the on-Z off button 202A is on, manual adjustment can be performed with the dedicated lever of the controller. Therefore, the editing operator can set a desired audio level in a track associated with each of the fader levers by moving the fader levers F1 to F4 up and down. .
  • the editing operator operates the feeder lever of the dedicated controller 5, it follows the operation of the feeder lever, and the track feeder section 208 of the mixdown setting dialog box is displayed. Slider 208 A automatically slides.
  • Assignment 4 can be set freely. Therefore, for example, when the audio to be edited is only the base audio (BASE), the fader levers F1 to F4 are assigned to the tracks T1 to T4 of the base audio, respectively. You can do it. In other words, each audio line (BASE, SUB, VOL and V02) and each track T1 to T4 are not physically associated with the feeder lever of the dedicated controller 5. By associating them with software, the association between each audio line and each track # 1 to # 4 and the feeder lever of the dedicated controller 5 can be changed in any manner.
  • the audio mixdown setting is completed in step SP402
  • the process proceeds to the next step SP403.
  • step SP403 in response to the editing operation of the editing operator, the CPU 21 opens an effect setting dialog 190 for setting an effect for an event on the timeline. Open. Specifically, when the editing operator clicks the video effect button 159 in the program window 94, an effect setting dialog 190 as shown in FIG. 30 is opened. I do.
  • the effect setting dialog 190 includes an effect notifier section 191, which shows the currently set effect pattern, and a effect pattern section 19, which displays the frequently used effect patterns. 2, a transition setting section 193 for setting the transition of the selected effect, and a video Z-selection section 1995 for selecting the target (video / audio) for setting the effect. It has a modifying section 198 for setting parameters for effect modification, and a Key setting section 199 for setting parameters related to key signals.
  • step SP404 video and audio are selected as effect setting targets. If you want to apply effects to both video and audio at the same time, click on both the Video and Audio buttons 195 to effect only video or audio. To do so, click on either the "Video" or "Audio" button 195.
  • step SP405 the editing operator selects a desired effect. As a method of selecting this effect, the effect can be selected by any of the following three methods.
  • the first effect selection method is a method for setting a desired effect by directly inputting a pattern number representing the effect. For example, if the editing operator knows in advance the desired effect pattern number, the pattern number of the desired effect pattern can be directly input to the pattern number setting section 191 from the keyboard 2C. A desired effect corresponding to the input pattern number is set.
  • the second effect selection method is a frequently used effect pattern (hereinafter referred to as a favorite pattern) that is frequently used by editing operators. This is a method of selecting a desired effect.
  • the CPU 21 always memorizes the frequently used effect patterns that the editing operator prefers to use, and stores the effect setting dialog 190's function information. An icon indicating this frequently used effect pattern is configured to be displayed on the cut pattern display section 1992.
  • the third effect selection method is a method of selecting a desired effect pattern from all pattern lists. When the editing operator presses the non-return list button 19 4, all registered effect patterns are displayed for each type. Ehueta Tono of hope. Clicking on a turn selects the desired effect.
  • step SP406 the editing operator sets the desired transition time for the selected effect, and sets the transition time for the selected effect.
  • the transition time (transition time) of the selected effect is input from the keyboard or preset in the transition setting section 1993A on the dialog box 190.
  • a transition time can be set by selecting a desired transition time from the plurality of transition times.
  • effect parameters are set for the selected effect.
  • the effect parameters include, for example, a parameter relating to an edge at a video switching position, a parameter relating to lighting such as an effect of applying a light, and a method of drawing a shadow or a band.
  • Such parameters as Trial / Shadow, the location where the effect is to be set, and the parameters related to Location, etc.
  • Various parameters can be set according to the type of event.
  • By using the modifying section 198 of the effect setting dialogue 190 various parameters relating to these effects can be set.
  • it smells on dialog 1900 In some cases, a chroma key and / or an external key can be set by clicking a key button 19 9.
  • step SP408 according to the operation of the editing operator, the CPU 21 controls each source device and the editing processing apparatus so as to preview the set effect.
  • Edit When the operator operates the feeder lever 196 of the dialog 190 or the AT button (Aut. Button) 197, the set effect is previewed on the screen of the viewer 106. be able to.
  • the effect set is a transition effect such as a wipe effect
  • a background image is displayed on the viewer 106 when the feeder lever 196 is at the highest position. Is displayed.
  • the image gradually transitions to the foreground image.
  • the fader lever 196 is located at the lowest position, a foreground image is displayed on the viewer 106.
  • the transition effect can be previewed at an arbitrary speed and position by manually operating the fader lever 196.
  • the foreground image is an image that appears on the screen by executing the transition effect or an image that is inserted into the background image by executing the animation effect and fills the effect pattern.
  • a background image is an image that is erased from the screen by executing a transition effect or an animation effect is executed. This is the image into which the effect pattern in which the foreground image is embedded is inserted.
  • the types of the effects are a transition effect and an animation effect.
  • a transition effect is a video effect that switches between two images, such as a wipe effect and a page turn effect
  • an animation effect is a special effect applied to images such as 3D image space conversion.
  • An effect that inserts an image with a video effect into an image such as an effect to be applied or a spotlight effect, a zoom-up effect, and a picture-in-picture effect.
  • the transition speed set in advance for the ef- eter is set.
  • the transition is made from the knock ground image to the foreground image.
  • the feeder 196 moves to the uppermost position first, and then automatically at a fixed speed. It gradually moves down.
  • a transition effect is executed at a constant speed, in which the transition from the knock ground video to the foreground video is performed. As a result, the transition effect can be previewed on the viewer 106.
  • the effects selected in this step 503 are still pasted into the effect line 135 of the timeline 95 by the editing operator. It is not yet known to which event this effect is set. Therefore, the background image and the foreground image necessary for performing the preview process for previewing this effect are the video images already set in the image processing unit 3C of the editing processing device 3. Use signals to perform effects virtually. Because, the preview of this effect is a preview process to check whether the set effect itself, the set transition time, and the set effect parameter are appropriate. Therefore, the background image and the foreground image may be any images.
  • the signal currently supplied as the video signal S 24 to the image processing unit 3 C is controlled by the matrix switcher unit 3 B of the editing processor 3, foreground video
  • the signal supplied as the video signal S 26 to the image processing unit 3 C is used as background video. That is, when previewing this effect, the CPU 21 of the computer sets the signal supplied to the image processing unit 3C as the video signal S26 as the background image.
  • Te a signal supplied by a video signal S 2 4 to the image processing unit 3 C, follower Aguran c stearyl-up SP 4 0 to control the editing processor in earthenware pots by using as a de image
  • the process proceeds to the next step SP409.
  • step SP409 according to the operation of the editing operator, the CPU 21 selects the selected effect and its effect. Attach a foreground event for the event to timeline 95. The way in which the effect is attached to this timeline differs between the transition effect and the animation effect. The method of pasting the buttons is explained.
  • Edit operator force Dialog 190 The selected transition effect icon 191 B in the feature pattern display area 192 is displayed in the timeline.
  • a shadow 1992X of the icon as shown in FIG. 31A is displayed on the time line 95.
  • This Fig. 3 IB is indicated by “Mix” when transitioning from “H e 1 i — 1” to the event “S hip 2” to the event “S hip 2”.
  • the image of “He1i11” is mixed with the image of “Ship2”.
  • the event “He1i11” is specified as the background image, and the event “Ship2” is specified. Is specified as the foreground image.
  • the event of the event specified as the knock ground image can be set.
  • the point is automatically extended by the transition time.
  • the event “H e1 i — 1” specified as the background image has an out point of “00: 00: 05: 00”, and this event Assuming that the transition time of the effects effect 19 2 Y is 2 seconds, the event “H e 1 i — 1” specified as the knock ground image
  • the out point is automatically extended by 2 seconds and becomes "0: 0: 0: 0: 07: 0,0"
  • the matrix switcher unit 3B of the editing processor 3 sets “He Set the video signal of the material 1 i — 1 J as the signal S 26 output from the output terminal OUT 9 and the video signal of the material “Ship 2” output from the output terminal OUT 7 Switch the crosspoint so that it is set as the signal S24. Further, in response to the control signal from the CPU 21 of the computer, the image processing unit of the editing processing device 3 responds to the transition time set in the mix effect and various effect parameters. The mixer 54B is controlled to execute the effect.
  • a single event has a zoom effect or light spot. This is the case when setting effects for applying special effects such as cuts. This first case will be described with reference to FIGS. 32A and 32B.
  • the editing operator selects the selected animation in the dialog box 19 2 in the dialog 190.
  • the icon 1991B of the shot effect is dragged with the mouse 2D on the timeline 95
  • the shadow 1992E of the icon as shown in Fig. 32A becomes the timeline. Displayed on the button 95.
  • the shadow 1992 E of the icon is dropped at a desired position on the effect line 135 of the lime line 95, the event “002” is obtained as shown in FIG. 32B.
  • Is set to an animation effect 19 2 F such as a special effect.
  • the matrix switch of the editing processor 3 responds to a control signal from the CPU 21 of the computer 2.
  • the switch 3B turns off the cross-point so that the video signal of the material of the event “002” is set as the output terminal ⁇ the signal S26 output from the UT9. Replace it.
  • the image processing unit 3B of the editing processing device 3 transmits the transition time and various effect patterns set in the modifier effect.
  • the special effect block 53 is controlled so that the effect according to the parameter is executed.
  • the second case is a case where an effect for inserting an effected event into a certain event, such as a picture-in-picture effect, is set.
  • When setting an effect and a clip at the same time '', ⁇ Set the And the case where the clip to be pasted is the same length as the effect pasted, respectively.
  • the matrix switch section 3B of the editing processor 3 converts the video signal of the material "event 02" into the signal S26 output from the output terminal OUT9. And switch the crosspoints so that the video signal of the same event "07” is set as the signal S24 output from the output terminal OUT7 . Further, in response to a control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing device 3 sets the transition time set in the modify effect and the various output parameters. The special effect block 53 is controlled so that the effect according to the condition is executed.
  • the editing operator assigns the icon 191 B of the animation effect selected in the dialog 190 to the effect line of the time line 95. Drag the mouse with the mouse 2D onto the 135 and drop it over the event as desired, thereby effecting the desired effect 19 on the effect line 135. Paste 2K.
  • the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D.
  • the desired event 19 2 L is pasted on overlay video line 1 36.
  • event 1 pasted as this foreground image Depending on the duration of 9 2 L, the duration of the previously pasted effect 19 2 K is changed, and as a result, the effect line 13 5 is added.
  • Effect 192 M having a period corresponding to the period of 192 L is displayed. That is, the transition period of the effect 1992 M is changed according to the period of the event 1992 L attached later.
  • the matrix switch section of the editing processor 3 responds to a control signal from the CPU 21 of the computer 2.
  • 3B sets the video signal of the material of the event “002” as the signal S26 output from the output terminal OUT9, and calls the same event “002”. Switch the crosspoint so that the video signal of the source is set as the signal S24 output from the output terminal OUT7.
  • the image processing unit 3B of the editing processing device 3 sets the transition time set in the picture-in-picture effect and the various effects.
  • the switch block 52 is controlled to execute an effect according to the parameter.
  • FIG. 35A the editing operator assigns the icon 191 B of the animation effect selected in the dialog 190 to the effect line of the time line 95. Drag the desired effect on the effect line 1335 by dragging it with the mouse 2D onto the effect line 135 and dropping it over the event as desired. Paste 0.
  • the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D.
  • the dragged clip card is overlapped with the E-factor 192 attached to the end of the effect line 135 of the timeline.
  • event 192 P is pasted on the video line 136.
  • the period of the event 1992N pasted as this foreground image is changed according to the period of the effect 1992O pasted earlier.
  • the overlay video line 1336 displays an event 1992P having a period corresponding to the period of the effect 1920 pasted here. .
  • the period of the event 1920P pasted at this time and the period of the event 1992P pasted at the same time match, so that the period of the event 1992P matches. That is, if the point is changed.
  • This timeline control mode is a control mode in which the timeline 95 and the viewer window 92 are temporally related. Therefore, a video image corresponding to the time code at the display position of the now line 13 9 on the time line 95 is displayed on the viewer 106 of the viewer window 92.
  • the CPU 21 returns to the CPU 21.
  • the mark-in button 1 15 is pressed, the flag 1666 C and mark line indicating the in-point point are placed on the time line 95 at the position where the now line 13 9 exists. 1 6 6 C is displayed.
  • the in-point display field 110 on the viewer window 92 shows the start of the frame displayed in the viewer 106.
  • an image such as flag 1 16C is displayed to indicate that the IN point has been marked in the timeline control mode.
  • the editing operator operates the slider section 120 of the device control section 96 to search for a file, and clicks the mark port button 116 at a desired position.
  • the CPU 21 indicates the point at the position where the nowline 1339 exists on the timeline 95 when the markout button 116 is pressed. Display flag 166B and mask 166D.
  • the out-point display field 1 1 2 on the viewer window 9 2 is not the stamp picture of the frame displayed in the viewer 10 6, but the key in the time line control mode. ⁇ An image such as flag 1 16D is displayed to indicate that the point has been marked.
  • the editing operator drags the desired clip card 179 from the clip card 179 of the log window 93 with the mouse 2D. And drop it on the overlay video line 1336 between the set in-line mark line 1666C and the in-point mark line 1666D.
  • the event dropped from the log window 93 between the mark line 166 C and the mark line 166 D on the overlay video line 136 Is inserted.
  • the effect set in step SP407 automatically changes the mark lines 1666C and the mark lines 1 on the effect line 135. Between 6 and 6D, inserted.
  • the priority shall be given to the duration specified by the mask line 166C and the mark line 166D.
  • the duration defined by the mark line 1666C and the mark line 1666D the clip point dropped from the log window 93 force.
  • the logon window is changed with respect to the duration specified by the mark lines 166C and 166D. 9 3 It is possible to match the duration of the clip dropped from the force.
  • FIG. 36A and FIG. 36B an example in which an event is attached to the overlay video line 1336 has been described.
  • other lines the sub-audio line 1334, the voice Clips can also be pasted on the overlays (138A, 138B).
  • the effect and the foreground relating to the effect on the timeline 95 are obtained.
  • the interval where the event is inserted can be set.
  • the effect and foreground event can be set at any position and period without sticking to the edit points such as the in and art points of the background event already pasted on the timeline. Can be pasted.
  • step SP410 under the control of the editing operator, the CPU 21 of the computer 2 executes a preview process for previewing the program created on the timeline 95. Specifically, when the editing operator clicks the preview button “PVW” 123 B, the preview starts from the position of the now line 95 of the time line 95. During the preview, the video and audio corresponding to the program on the time line 95 are reproduced from the local storage 8 under the control of the computer 2.
  • control of Computer 2 enables The editing processor 3 processes the supplied video and audio materials and outputs them to the computer 2 so that the video processing and audio processing corresponding to the program on the computer 95 are performed.
  • the CPU 21 of the computer 2 controls the display controller 23 so that the supplied image is displayed on the viewer 106 of the viewer window 92, and displays the image.
  • the display controller 23 is controlled so that the position of the nowline 13 9 on the timeline 95 can be changed on the timeline 95 so as to correspond to the video being displayed.
  • Nowline 1339 has been moved to correspond to the image displayed in viewer 106 of viewer window 92, so the editing operator has been able to view viewer 1 of viewer window 92. While viewing the video displayed on 06, it is easy to see where the video displayed on the viewer 106 is the video of the program created on the timeline 95. At the same time, it is possible to easily grasp the position of the program created on the timeline 95 to which the viewing has been completed.
  • FIG. 37A is a diagram showing a state of a timeline at a timing when a preview is being executed.
  • FIG. 37 shows an example in which the transition effect “wipe” is specified between the event E () and the event E1.
  • Fig. 37 C and Fig. 37 C are diagrams respectively showing the appearance of the time line at a certain timing during the preview.
  • FIG. 37A shows a state before the effect is executed and the event E 0 is reproduced.
  • the computer 2 controls the editing processing device 3 so as to process the event E0 as a knock ground event.
  • the signal of the event E 0 is supplied to the input terminal IN 4 of the matrix switcher section 3 B of the editing processor 3 as the output signal S 13 A from the local storage.
  • the control of the editing processor 3 at this time will be described in more detail.
  • the system control section 3A of the editing processing device 3 operates such that the cross point P49 for connecting the input terminal IN4 and the output terminal OUT9 is activated to activate the crosspoint P49. Controls the switch 3B. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is output as the output video signal S26 from the output terminal OUT9 and supplied to the image processing unit 3C. Is done.
  • the output signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing unit 3C.
  • the demultiplexer 51D extracts only the digital video signal from the pay mouth portion of the data in the SDI format.
  • the digital video signal is output as the output video signal S32 via the switcher block 52, the special effect block 53, and the mixer sub-block 54. Is output.
  • the digital video signal S32 output from the image processing unit 3C is supplied again to the input terminal IN10 of the matrix switch unit 3B.
  • the CPU 21 connects a cross point P 105 for connecting the input terminal IN 10 to the output terminal OUT 5 via the system control section 3 A of the editing processing device 3. Try to be active 1 4 Controls the matrix switcher section 3B.
  • the digital video signal S 32 supplied to the input terminal IN 10 is converted into a digital video signal S 2 from the output terminal OUT 5 via the output processor 46 as a computer 2 signal. Is output to
  • the digital video signal S 2 output from the editing processing device 3 is supplied to the video processor 22 of the computer 2, and is supplied to the computer monitor 2 B via the display controller 23. Displayed in 2. As a result, the video signal of the event E0 reproduced from the local storage 8 as the reproduction signal S13A is displayed in the viewer window.
  • FIG. 37B shows a state in which the preview is further advanced than the state shown in FIG. 37A, and the transition effect set for the event E0 and the event E1. This indicates the timing when “Wipe” starts to be executed.
  • Computer 2 processes event E 0 as a knock ground event and processes event E 1 as a foreground event.
  • the editing processor 3 is controlled as described above.
  • the signal of the event E0 is output from the local storage as the output signal S13A of the local storage, and the signal of the matrix switcher 3B of the editing apparatus 3 is output.
  • the signal of the event E1 is supplied to the input terminal IN4, and the signal of the event E1 is output as the output signal S13B from the local storage to the input terminal IN5 of the matrix switcher section 3B of the editing processor 3.
  • the control of the edit processing device 3 at this time will be described in more detail by taking an example of the case where it is supplied.
  • the matrix switcher 3B of the editing processor 3 supplies a cross signal for supplying the video signal of the event E0 to the image processor 3C. Point control need not be performed. This is because the computer 2 controls the edit processing device 3 so that the event E 0 is already processed as a knock ground event, so that the matrix switcher section is used. If the cross-point P49 of 3B is activated, the video signal S13A of event E0 supplied to the input terminal IN4 is output from the output terminal OUT9. This is because it is output to the image processing unit 3C as S26.
  • the video signal of event E0 supplied as an output signal S26 to the image processing unit 3C is supplied to the video signal processing circuit 52F of the switch block 52 via the demultiplexer 51D.
  • the supplied video signal processing circuit 52E performs processing for applying a wipe effect to the supplied video signal of the event E0 based on the wipe control signal from the wipe signal generation circuit 52B. Do it.
  • the wiped video signal of event E0 is supplied to mixer circuit 54B.
  • the key signal related to the event E0 is the same as the routing process for the video signal of the event E0 in the matrix switcher 3B and the wipe process in the video signal processing circuit 52F. Thus, the routing process in the matrix switch unit 3B is performed, and the wipe process in the key signal processing circuit 52D is performed.
  • the system control section 3A of the editing apparatus 3 firstly outputs The matrix switch 3B is controlled so that the cross point P57 for connecting the input terminal IN5 and the output terminal OUT7 is activated. So as a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output as the output video signal S24 from the output terminal OUT7 and supplied to the image processing section 3C. You. The output signal S26 output from the output terminal OUT7 is supplied to the demultiplexer 51B of the image processing unit 3C.
  • the video signal of event E1 output from the demultiplexer 51B is supplied to the video signal processing circuit 52E of the switcher block 52.
  • the video signal processing circuit 52E performs a process of applying a wipe effect to the supplied video signal of the event E1 based on the wipe control signal from the wipe signal generation circuit 52A.
  • the wiped video signal of event E1 is supplied to mixer circuit 54B.
  • the key signal related to the event E1 is the same as the routing process in the matrix switcher 3B for the video signal of the event E1 and the wipe process in the video signal processing circuit 52E. As described above, the routing process in the matrix switcher 3B is performed, and further, the wipe process in the key signal processing circuit 52C is performed.
  • the mixer circuit 54B mixes the wiped video signal of the event E1 and the wiped video signal of the event E0, and outputs a mixed signal. Output as signal S32.
  • the digital video signal S32 output from the image processing unit 3C is supplied again to the computer 2 via the matrix switch unit 3B. As a result, a wipe video generated based on the video of the event E0 and the video of the event E1 reproduced from the local storage 8 is displayed in the viewer window 92.
  • Figure 37C shows a more preview than the state shown in Figure 37B. This indicates a state in which the transition effect “Wipe” set between the event E0 and the event E1 has ended, and the timing has ended.
  • Computer 2 processes the event EO as a knock grand event and processes event E 1 as a foreground event. However, at the timing when the wipe processing is completed, the computer 2 processes the event E1 as a knock ground event instead of the event E0. Controls the editing processor 3. The control of the editing processor 3 at this time will be described in more detail.
  • the matrix switch section 3B of the editing processor 3 does not need to supply the video signal of the event E0 to the image processor 3C and the computer 2, so that it has been active until now. Change the cross point P49 for connecting the input terminal IN4 and the output terminal OUT9 to inactive. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is not output from the output terminal OUT9.
  • the matrix switch unit 3B of the editing processing device 3 since the event E1 must be processed as the background video instead of the event E0, the matrix switch unit 3B of the editing processing device 3 has the event E1 Activate the crosspoint P59 for connecting the input terminal IN5, which is supplied with the signal, to the output terminal OUT9. As a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output from the output terminal OUT9.
  • the matrix switch of the editing processor 3 is set so that an appropriate signal is output according to the effect execution timing. Since the cross point of the chair 3B is automatically controlled, the editing operator simply creates a desired program on the timeline 95, and generates a video program corresponding to the created program. It can be created automatically.
  • step SP411 CPU 21 corrects the events and effects pasted on timeline 95 according to the operation of the editing operator.
  • the CPU 21 reproduces the double-clicked event from the low-level storage 8 and displays it in the local window 8 and edits it so that it can be displayed in the viewer window 92. Controls processing unit 3. Further, the CPU 21 displays the video reproduced from the local storage 8 on the viewer 106 of the viewer window 92, and displays the video stored in the internal hard disk HDD. The point and the stamp picture of the point are displayed on the in-point image display unit 110 and the in-point image display unit 120, respectively.
  • the CPU 21 executes the corrected event.
  • Information about the event over the old event on timeline 95 and change the display of the timeline 95 from the old event to the modified event.
  • the CPU 21 When the desired setting is completed and the effect setting dialog 190 is closed, the CPU 21 overwrites information on the corrected effect with information on the old effect, and Change the display of timeline 95 from the old effect to the modified effect.
  • step SP412 the CPU 21 creates a program list (EDL) according to the program created on the timeline 95, and stores the EDL in an EDL folder provided on the internal hard disk HDD. Record as a file at
  • step SP412 CPU21 creates a completed video program according to the instructions of the editing operator.
  • the editing operator clicks the REC button 123D a REC dialog as shown in Fig. 38 opens.
  • the editing operator must select a recording device for recording the completed video program in the local storage 8, the VTR 7, and the on-air server 9.
  • Computer 2 displays the created program list (EDL) or timeline 95 as in the preview.
  • the local storage 8 and the editing processing device 3 are controlled in accordance with the program.
  • the complete video program is recorded on the specified device.
  • the editing apparatus of the present invention determines an edit point while viewing a video image of a source material, and a viewer window for generating an event by setting an edit point.
  • a log window that displays a clip image of the events and a program window that creates a program list by arranging multiple events on the timeline in the desired order. Display and display a computer for each event arranged on the timeline to show an icon indicating from which source device the event originated. It is a feature.
  • the editing apparatus of the present invention includes a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a viewer window.
  • Display a clip image about A log window and a program window for creating a program list by arranging a plurality of events on a timeline in a desired order are displayed on a computer display.
  • the editing apparatus of the present invention can quickly and easily select an effect and set it for each event.
  • the editing system of the present invention provides a list of clip images, input images, timelines, and the like of all editing skills on a GUI, and an editing order while viewing the arranged clips. Can be easily determined and replaced.
  • the editing apparatus of the present invention provides a fader assignment dialog for assigning an audio-off radar provided in an audio-only cone controller to an audio track of each event arranged in a timeline.
  • the feature is to control the level of each audio track of an event based on the information set in the fader assignment dialog.
  • the audio track of each event can be individually controlled by the dedicated controller, and each event can be controlled according to the event.
  • Rack and Fodale The setting with the bar can be changed arbitrarily.
  • the editing apparatus of the present invention provides a mode in which a plurality of events displayed as clip images in a log window are dragged and dropped for each event and arranged on a timeline. Mode that automatically arranges multiple events displayed as clip images in the mouth window and the clip window in the specified order without dragging and dropping. It is characterized by having.
  • the editing apparatus of the present invention sets an effect insertion section on the timeline while viewing a plurality of events arranged on the timeline, and sets the effect insertion section on the timeline.
  • the selected effect is set.
  • the editing apparatus of the present invention sets an event insertion section to be overlaid on the event on the timeline while viewing a plurality of events arranged on the timeline, and
  • the feature is that the event selected in the dow is inserted into the set event insertion section on the timeline.
  • the editing method of the present invention is applied to a viewer window for generating an event by determining an edit point while viewing a video image of a source material, and a viewer window for generating an event.
  • a log window that displays a clip image of the set events, and multiple events are displayed in the desired order.
  • a program window that creates a program list by arranging them on the timeline is displayed on a computer display, and for each event arranged on the timeline, the event is It is characterized by having a computer to display an icon indicating whether the event is a generated event.
  • the editing operator can easily and visually grasp from which source device each event is generated, and can perform reliable editing work.
  • the editing method of the present invention includes a viewer window for generating an event by determining an editing point while viewing a video image of a source material, and an event set in a view window. Window that displays a clip image of the program and a program window that creates a program list by arranging multiple events on the timeline in the desired order. View and Edit Displays the Effect Settings dialog for setting effects for each event arranged in the timeline in response to the operator's operation, and displays the selected effect in the Effect Settings dialog box. The icon of the desired effect is used to associate the event with the event. By then paste on emissions, and is characterized in a generation child program list for performing Effect in pairs to an event.
  • the editing method of the present invention can quickly and easily select an effect and set it for each event.
  • the editing system of the present invention includes a clip image of all editing cuts, Input images and timelines can be listed on the GUI, and the editing order can be determined while viewing the clips arranged side by side, and they can be easily replaced.
  • the editing method of the present invention provides a fader assignment dialog for assigning an audio feeder provided in an audio-only cone controller to an audio track of each event arranged in a timeline. Is displayed,
  • the feature is to control the level of each audio track of an event based on the information set in the fader assignment dialog.
  • the audio track of each event can be individually controlled by the dedicated controller, and each event can be controlled according to the event.
  • the rack and forder lever settings can be changed arbitrarily.
  • a plurality of events displayed as clip images in a log window are drag-and-dropped for each event and arranged on a timeline.
  • Mode and multiple events displayed as clip images in the mouth window automatically in the specified order without drag-and-drop. It is characterized by having the modes arranged above.
  • the editing method of the present invention sets an effect insertion section on the timeline while viewing a plurality of events arranged on the timeline, and sets the effect insertion section on the timeline.
  • the selected effect is set.
  • the editing method of the present invention sets an insertion section of an event to be overlaid on an event on the timeline while viewing a plurality of events arranged on the timeline, and The feature is to insert the selected event into the set event insertion section on the timeline.
  • the editing apparatus and method of the present invention can perform a quick editing operation utilizing a random access characteristic that is a characteristic of non-linear when producing a news program requiring immediacy.
  • the editing apparatus and method of the present invention can display clip images, input images, timelines, etc. of all editing cuts on a GUI while viewing the arranged clips. You can decide the order of editing and easily change the order. Further, since the editing apparatus and method of the present invention can set various effect functions, it is possible to perform high-speed expressive video production.
  • the editing device and method of the present invention can be used to edit mosaic effects, change the voice of the speaker, and remove surrounding noise at the interview site. Can be done at
  • the editing apparatus and method of the present invention use both processing on software by a computer and hardware to realize these various effects so as to optimize them. Real-time high-speed digital image editing and audio editing can be realized. Range of request
  • An editing device including an editing processing device for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing device, wherein the computer includes:
  • Control means for displaying, on a computer display, a log window to be created and a program window for creating a program list by arranging the plurality of events on a timeline in a desired order.
  • An editing apparatus characterized by displaying, for each event arranged in the timeline, an icon indicating from which source device the event is generated.
  • An editing apparatus comprising: an editing processing device for processing a video signal and an audio signal supplied as a source material; and a computer for controlling the editing processing device, wherein the computer comprises:
  • a log window that displays the messages and the multiple events listed above are arranged on the timeline in the desired order.
  • control means for displaying a program window for creating a program list by a computer display on the computer display.
  • an effect setting dialog for setting an effect for each of the events arranged on the timeline is displayed.
  • An editing device which generates a program list for performing an event on the event.
  • An editing apparatus comprising: an editing processing device for processing a video signal and an audio signal supplied as a source material; and a computer for controlling the editing processing device, wherein the computer comprises:
  • a viewer window for generating events by deciding edit points while viewing the video image of the source material, and a clip image for the events set in the viewer window Control means for displaying on a computer display a log window to be displayed and a program window for creating a program list by arranging the plurality of events on a timeline in a desired order;
  • the control means for displaying on a computer display a log window to be displayed and a program window for creating a program list by arranging the plurality of events on a timeline in a desired order;
  • An editing apparatus wherein the level of each audio track of the event is controlled based on information set in the fader assignment dialog.
  • An editing apparatus including an editing processor for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processor, wherein the computer is
  • An editing device comprising:
  • An editing apparatus including an editing processing device for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing device, wherein the computer includes: Displays a viewer window for generating an event by determining the editing point while viewing the video image of the source material, and a clip image related to the event set in the viewer window A control unit for displaying a log window and a program window for creating a program list by arranging the plurality of events on a timeline in a desired order on a computer display; The effect input section is set on the timeline while viewing the multiple events arranged in the timeline, and the selected effect is set in the set effect insertion section on the timeline.
  • An editing device characterized by the following.
  • An editing device including an editing processing device for processing a video signal and an audio signal supplied as a source material, and a computer for controlling the editing processing device, wherein the computer is ,
  • the event selected in the above log window is An editing device characterized in that the editing device inserts the event into the event insertion section set on the memory line.
  • a viewer window for generating an event by determining an editing point while viewing the video image of the source material and a viewer window for generating the event.
  • a log window that displays a clip image of the events set in the window, and a program window that creates a program list by arranging the multiple events on the timeline in a desired order And are displayed on the computer display,
  • An editing method characterized by displaying, for each of the events arranged on the timeline, an icon indicating from which source device the event is generated.
  • a viewer window for generating an event by determining an editing point while viewing a video image of the source material and a viewer window for generating an event.
  • a log window that displays a clip image of the set event and a program window that creates a program list by arranging the multiple events on a timeline in a desired order Is displayed on the computer display, and
  • an effect setting dialog for setting an effect for each of the events arranged in the time line is displayed.
  • the icon of the desired effect selected in the effect setting dialog is set so that the icon is associated with the event.
  • An editing method characterized by generating a program list for effecting the above events.
  • a viewer window for generating an event by deciding an editing point while viewing the source material, and a view window set in the above view window.
  • a log window that displays a clip image related to an event
  • a program window that creates a program list by arranging the plurality of events on a timeline in a desired order. Show in play,
  • a viewer window for generating an event by determining an editing point while viewing the source material, and setting in the view window described above.
  • a log window that displays a live image of the event related to the event
  • a program window that creates a program list by arranging the multiple events on a timeline in a desired order.
  • On the display A mode in which a plurality of events displayed as clip images in the mouth window are dragged and dropped for each event and arranged on the timeline. In this mode, multiple events displayed as clip images in the window are automatically arranged in the specified order on the timeline without dragging and dropping. And an event displayed as a clip image in the log window is arranged on the time line.
  • a viewer window for generating an event by determining an edit point while viewing a video image of the source material, and the viewer
  • a log window that displays a clip image of the events set in the window
  • a program that creates a program list by arranging the multiple events on the timeline in a desired order The Gram window and are displayed on the computer display.
  • An effect insertion section is set on the timeline while viewing a plurality of events arranged on the timeline, and the selected effect is added to the set effect insertion section on the timeline.
  • An editing method characterized by setting.
  • a viewer window for generating an event by determining an edit point while viewing the video image of the source material and the viewer
  • a log window that displays a clip image related to the events set in the window, and the above-mentioned multiple events are arranged in a desired order on the timeline.
  • the program window for creating a program list is displayed on the computer display.
  • An editing method comprising: inserting the event selected in the log window into the set event insertion section on the timeline.

Description

明 細 書 編集装置及び編集方法 技術分野
この発明は編集装置に関し、 例えば放送局などで使用 される ニュース素材等を編集するための編集装置及ぴ編集方法に適用 して好適なものである。 背景技術
従来、 放送局等における編集素材を編集するためのボス トプ ロダク ショ ンの分野では、 編集素材を記録するための記録装置 と して磁気テープを使用 したテープ編集が一般的であった。 こ のテープ編集とは、 素材テープをサーチしながら編集点を決定 する こ と によって必要なシーンだけを選び、 マスタ一テープへ ダビングしながら番組のス ト一リ ーを組み立てていく 作業であ る。 しかし、 このテープ編集作業は、 テープ上の記録された素 材の所望のフ レームにアクセスするために、 試行錯誤しながら キューァ ップを繰り 返さなければならないため、 編集点の決定 に膨大な時間がかかっていた。 また、 編集点が決定されたカ ツ ト毎にテープからテープへのダビングが必要であ り 、 その都度、 素材テープの V T R とマスタ一の V T Rを制御しなければけな いため、 編集作業に多大な時間が必要であった。 その結果、 編 集作業者は、 長時間にわたって精神の集中が求められる このテ ープ編集作業から開放される こ とはなかった。
放送局でのニュース番組、 報道番組及びスポーツ番組の制作 では、 各地で起こった当 日 の出来事をいち早く 視聴者に提供す る こ と、 すなわち速報性が要求される。 特に、 このよ う なニュ ース番組、 報道番組及びスポーツ番組の制作では、 単に編集さ れたシーンをつなぎあわせる よ う なァ ッセンブル編集だけでな なく 、 編集シーンの映像に対してモザィ ク効果や A Z B ロ ール 等のエフェク トゃ、 編集シーンの音声に対して、 話者の声色の 変更、 取材現場の周辺ノイ ズの除去などのエフェク と追加 しな ければいけない。
エフェク ト等を追加するためには、 ソース V T R及びマス タ V T Rを操作する編集作業だけで無く 、 これらのエフヱク トを 施すためのビデオスィ ッチヤ装置や特殊効果装置を操作するた めの別の編集作業が必要であつた。
そのため、 従来の編集装置では、 ニュース番組、 報道番組及 びスポーツ番組に提供される ビデオプロ グラムを、 素早く 迅速 に制作する こ とができないとい う問題があつた。 発明の開示
本発明は以上の点を考慮してなされたもので、 迅速に、 ニュ ース番組、 報道番組及びスポーツ番組等に提供される即時性の 要求される ビデオプロ グラムを制作する こ と のでき る使い勝手 の向上した編集装置及び編集方法を提案しょ う とする ものであ る。
本発明の編集装置は、 ソース素材のビデオイ メ ージをビュー イ ングしながら編集点を決定する こ とによってイベン トを生成 するためのビューァウイ ン ドウ と、 ビューア ウン ドウにおいて 設定されたィベン トに関する ク リ ップイ メ ージを表示する ロ グ ウィ ン ドウ と、 複数のィベン トを所望の順にタイ ムライ ン上に 並べる こ とによってプロ グラム リ ス トを作成するプロ グラ ム ゥ イ ン ドウ と をコンピュータディ スプレイ に表示し、 タイ ムライ ンに並べられた各ィベン 卜に対して、 ィベン 卜がどのソースデ バイスから生成されたィベン トであるかを示すアイ コンを表示 する こ と をコ ンピュータを備えたこ とを特徴とする ものである , 従って、 編集オペレータは、 各イベン トがどのソースデバイ スから生成されたイ ベン トであるかを視覚的に容易に把握する こ とができるので、 確実な編集作業を行な う こ とができる。
また、 本発明の編集装置は、 ソース素材のビデオイ メージを ビューイ ングしながら編集点を決定するこ と によってイベン ト を生成するためのビューァ ウィ ン ドウと、 ビューア ウン ドウに おいて設定されたィベン トに関するク リ ップイ メージを表示す る ロ グウィ ン ドウ と、 複数のィベン トを所望の順にタイ ムライ ン上に並べる こ と によってプロ グラム リ ス トを作成するプロ グ ラムウィ ン ドウ とをコ ン ピュータディ スプレイ に表示し、 編集 オペレータの操作に応答して、 タイムライ ンに並べられた各ィ ベン トに対してエフェク トを設定するためのエフェク ト設定ダ ィァロ グを表示し、 エフェク ト設定ダイアロ グにおいて選択さ れた所望のエフェク トのアイ コンを、 イベン トを関連付ける よ う にタイムライ ン上に貼り 付けるこ とによって、 ィベン 卜に対 してエフェク トを施すためのプロ グラム リ ス トを生成する こ と を特徴とする ものである。
従って、 本発明の編集装置は、 迅速に且つ容易にエフェク ト を選択する と共に各ィベン 卜に設定する こ とができ る。 また、 本発明の編集システムは、 全ての編橥カ ツ トのク リ ップ画と 、 入力画と 、 タイ ムライ ンな どが G U I 上で一覧でき る と共に、 並んだク リ ップを見ながら編集順序をきめた り 、 それを簡単に 入れ替える こ とができ る。
また、 本発明の編集装置は、 タイムライ ンに並べられた各ィ ベン トのオーディオ トラ ック に対してオーディオ専用コーン ト ローラに設けられたオーディオフエ一ダをアサイ ンするための フエーダアサイ ンダイアロ グを表示し、
フエーダアサイ ンダイアロ グに設定された情報に基いて、 ィべ ン トの各オーディオ トラ ックのレベルを制御する こ と を特徴と する ものである。
従って、 本発明の編集装置によれば、 専用コン ト ローラによ つて、 各ィベン トのォ一ディォ トラ ック を個別に制御するこ と ができ る と と もに、 ィベン トに応じて各 ト ラ ック と フォーダレ バーとの設定を任意に可変する こ とができる。
また、 本発明の編集装置は、 ロ グウィ ン ドウにク リ ップィ メ ージと して表示された複数のイベン トを、 各イベン ト毎に ドラ ッグアン ド ドロ ップしてタイムライ ン上に並べるモ一 ドと、 口 グウィ ン ドウにク リ ップイ メージと して表示された複数のィべ ン トを、 ドラ ッグアン ド ドロ ップせずに、 指定された順に自動 的にタイ ムライ ン上に並べるモー ドと を備えたこ と を特徴とす る ものである。
また、 本発明の編集装置は、 タイ ムライ ン上に並べられた複 数のイベン トを見ながら、 タイ ムライ ン上においてエフェク ト 挿入区間を設定し、 タイムライ ン上の設定されたエフヱク ト揷 入区間に、 選択されたエフェク トを設定する こ とを特徴とする ものである。 また、 本発明の編集装置は、 タイムライ ン上に並べられた複 数のイベン トを見ながら、 タイ ムライ ン上において、 イベン ト に対してオーバレイ させられるィベン トの揷入区間を設定し、 ロ グウィ ン ドウにおいて選択されたィベン トを、 タイ ムライ ン 上の設定されたイベン ト挿入区間に挿入する こ と を特徴とする ものである。
本発明の編集方法は、 ソ一ス素材のビデオイ メージをビュ一 イ ングしながら編集点を決定するこ とによってイベン トを生成 するためのビューァウィ ン ドウ と、 ビューア ウン ドウにおいて 設定されたイベン トに関する ク リ ップイ メージを表示する ロ グ ウィ ン ドウ と 、 複数のィベン トを所望の順にタイ ムライ ン上に 並べる こ と によってプロ グラム リ ス トを作成するプロ グラムゥ イ ン ドウ とをコンピュータディ スプレイ に表示し、 タイ ムライ ンに並べられた各ィベン トに対して、 ィベン トがどのソースデ バイスから生成されたィベン トであるかを示すアイ コ ンを表示 する こ と をコンピュータ を備えたこ と を特徴とする ものである( 従って、 編集オペ レータは、 各イベン トがどの ソースデバイ スから生成されたイ ベン トであるかを視覚的に容易に把握する こ とができ るので、 確実な編集作業を行な う こ とができる。
また、 本発明の編集方法は、 ソース素材のビデオイ メージを ビューイ ングしながら編集点を決定するこ と によってィベン ト を生成するためのビューァ ウィ ン ドウ と、 ビューア ウン ドウに おいて設定されたィベン トに関するク リ ップイ メージを表示す る ロ グウィ ン ドウ と、 複数のィベン トを所望の順にタイムライ ン上に並べる こ と によってプロ グラム リ ス トを作成するプロ グ ラム ウィ ン ドウ と をコ ンピュータディ スプレイ に表示し、 編集 オペレータの操作に応答して、 タイムライ ンに並べられた各ィ ベン トに対してエフェク トを設定するためのエフエタ ト設定ダ ィァロ グを表示し、 エフェク ト設定ダイァロ グにおいて選択さ れた所望のエフェク トのアイ コンを、 イベン トを関連付ける よ う にタイ ムライ ン上に貼り付ける こ と によって、 ィベン トに対 してエフェク トを施すためのプロ グラム リ ス トを生成する こ と を特徴とする ものである。
従って、 本発明の編集方法は、 迅速に且つ容易にエフェク ト を選択する と共に各ィベン トに設定する こ とができ る。 また、 本発明の編集システムは、 全ての編集カ ツ トのク リ ップ画と、 入力画と 、 タイ ムライ ンな どが G U I 上で一覧でき る と共に、 並んだク リ ップを見ながら編集順序をきめた り 、 それを簡単に 入れ替える こ とができ る。
また、 本発明の編集方法は、 タイ ムライ ンに並べられた各ィ ベン ト のオーディオ トラ ック に対してオーディ オ専用コーン ト ローラに設けられたオーディ オフェ一ダをアサイ ンするための フエーダアサイ ンダイアロ グを表示 し、
フエーダアサイ ンダイァロ グに設定された情報に基いて、 ィべ ン トの各オーディ オ ト ラ ッ クの レベルを制御する こ と を特徴と する ものである。
従って、 本発明の編集方法によれば、 専用コ ン ト ローラによ つて、 各ィベン トのオーディ オ トラ ック を個別に制御する こ と ができ る と と もに、 ィベン トに応じて各 ト ラ ッ ク と フォーダレ バーとの設定を任意に可変する こ とができ る。
本発明の編 i 方法は、 ソース素材を ビューイ ングしなが ら編 槃点を決定する こ と によってィベン トを生成するためのビュー ァ ウィ ン ドウ と、 上記ビューア ウン ドウにおいて設定されたィ ベン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウ と 上記複数のィベン トを所望の順にタイムライ ン上に並べる こ と によってプロ グラム リ ス トを作成するプログラムウィ ン ドウ と をコンピュータディスプレイ に表示し、 上記ロ グウィ ン ドウに ク リ ップイ メージと して表示された複数のィベン トを、 各ィべ ン ト毎に ドラ ッグアン ド ドロ ップして上記タイ ムライ ン上に並 ベるモー ドと、 上記ロ グウィ ン ドウにク リ ップイ メージと して 表示された複数のィベン トを、 ドラ ッグア ン ド ドロ ップせずに、 指定された順に自動的に上記タイ ムライ ン上に並べるモー ドと に基いて、 上記口 ダウン ドウにク リ ップイ メージと して表示さ れたィベン トを上記タイムライ ン上に並べる こ と を特徴とする 編集方法である。
また、 本発明の編集方法は、 上記タイムライ ン上に並べられ た複数のィベン トを見ながら、 タイムライ ン上においてェフエ ク ト挿入区間を設定し、 上記タイムライ ン上の上記設定された エフェク ト挿入区間に、 選択されたエフエタ トを設定する こ と を特徴とする ものである。
また本発明の編集方法は、 上記複数のイベン トを所望の順に タイムライ ン上に並べる こ とによってプログラム リ ス トを作成 するプロ グラムウィ ン ドウ とをコンピュータディ スプレイ に表 示し、 上記タイムライ ン上に並べられた複数のィベン トを見な がら、 タイ ムライ ン上において、 上記イベン トに対してオーバ レイ させられるィベン トの揷入区間を設定し、 上記ロ グウィ ン ドウにおいて選択されたィベン トを、 上記タイ ムライ ン上の上 記設定されたィベン ト挿入区間に挿入する こ と を特徴とする も のである。
すなわち、 本発明の編集装置及び方法によれば、 即時性の求 められるニュース番組の制作時に、 ノ ンリ ユアの特徴である ラ ンダムアクセス性を生かした素早い編集作業が行なえる。 また、 本発明の編集装置及び方法は、 全ての編集カ ツ トのク リ ップ画 と、 入力画と、 タイムライ ンなどが G U I 上で一覧でき る と共 に、 並んだク リ ップを見ながら編集順序をきめた り 、 それを簡 単に入れ替えるこ とができ る。 また、 本発明の編集装置及び方 法は、 多彩なエフヱク ト機能を設定する こ とができ るので、 高 速に表現力豊かな映像制作を行な う こ とができ る。
ニュース番組制作や報道番組制作において、 本発明の編集装 置及び方法を適用する こ と によって、 モザイ ク効果の追加や話 者の声色の変更、 取材現場の周辺ノイズの除去機能などの編集 を、 自分一人で行な う こ とができる。 また、 本発明の編集装置 及び方法は、 これらの多彩なエフ -ク トを実現するために、 コ ンピュータによる ソフ ト上の処理とハー ドウエアの両方を最適 になる よ う に使用 して、 リ アルタイ ムでの高速デジタル画像編 巢及びオーディ オ編集を実現でき る。 図面の簡単な説明
図 1 は、 本発明を適用 した編集装置を示すブロ ック図である。 図 2 は、 編集装置を構成する コ ンピュータの内部構成を示す ブロ ック図である。
図 3 は、 編集装置を構成する編集処理装置の内部郴成を示す ブロ ッ ク図である。
図 4 は、 編集処理装置のシステム コ ン ト ロ ール部の構成を示 すブロ ック図である。
図 5 は、 編集処理装置のマ ト リ ク ススィ ッチヤ部の構成を示 すブロ ッ ク図である。
図 6 は、 編集処理装置の画像処理部の構成を示すブロ ック図 である。
図 7 は、 編集処理装置の音声処理部の構成を示すブロ ック図 である。
図 8 は、 編集装置に接続されるローカルス ト レージの構成を 示すブロ ック図である。
図 9 は、 ローカノレス ト レージのディ スク ア レイ ブロ ッ ク の構 成を示すブロ ック図である。
図 1 0 は、 ディ スクア レイブロ ック における動作を説明する ための図である。
図 1 1 は、 ディ スクア レイブロ ックにおける動作を説明する ための図である。
図 1 2 は、 編集用のグラフィ ックユーザイ ンタ一フェース画 面を説明するための図である。
図 1 3 は、 ビューァウィ ン ドウを説明するための図である。 図 1 4 は、 ロ グウィ ン ドウを説明するための図である。
図 1 5 は、 ログウィ ン ドウにおけるク リ ップカー ドの表示形 式を説明するための図である。
図 1 6 は、 プログラムウィ ン ドウを説明するための略線図で ある。
図 1 7 は、 プログラムウィ ン ドウを説明するための略線図で ある。
図 1 8 は、 デバイ スアイ コ ンを説明するための略線図である。 図 1 9 は、 フ ァ イル情報を説明するための図である。
図 2 0 は、 ィベン ト登録処理の動作を説明するためのフロー チヤ一 トである。
図 2 1 は、 フ ァイル検索ダイアロ グを説明するための図であ る。
図 2 2は、 ファイルリ ス ト表示ダイアロ グを説明するための 図である。
図 2 3 は、 ビデオレベル設定ダイアロ グを説明するための図 である。
図 2 4 は、 オーディオレベル設定ダイアロ グを説明するため の図である。
図 2 5 は、 ダウン口一 ド設定ダイアロ グを説明するための図 である。
図 2 6 は、 シーン名設定ダイアログを説明するための図であ る。
図 2 7は、 プロ グラム リ ス ト作成処理を説明するためのフ ロ —チヤ一 トである。
図 2 8 は、 ミ ッ ク スダウン設定用のダイアロ グを説明するた めの図である。
図 2 9 は、 フエ一ダアサイ ン用のダイアロ グを説明するため の図である。
図 3 0 は、 エフェク ト設定ダイアロ グを説明するための図で ある。
図 3 1 は、 タイ ムライ ン上でのエフェク ト設定作業を説明す るための図である。
3 2は、 タイ ムライ ン上でのエフェク ト設定作業を説明す るための図である。
図 3 3 は、 タイムライ ン上でのエフェク ト設定作業を説明す るための図である。
図 3 4 は、 タイ ムライ ン上でのエフェク ト設定作業を説明す るための図である。
図 3 5 は、 タイムライ ン上でのエフェク ト設定作業を説明す るための図である。
図 3 6 は、 タイムライ ン上でのエフェク ト設定作業を説明す るための図である。
図 3 7は、 プレビュー実行時におけるタイムライ ン上のナウ ライ ンの状態を説明するための図である。
図 3 8 は、 記録デバイ スを設定するためのダイ ロ グを説明す るための図である。
発明を実施するための最良の形態
以下、 本発明に係る編集システム及び編集方法の好ま しい実 施の形態について説明する。
1 . 編集装置の構成
1 - 1 . 編集装置の全体構成
図 1 において、 1 は全体と して本発明を適用した編集装置を 示し、 大き く 分けてコ ンピュータ 2 と編集処理装置 3 からなる。
制御手段と してコ ンピュータ 2は、 C P U (中央処理ュニッ ト) や各種処理回路、 或いはフロ ッ ピーディ スク ドライブ、 ハ ー ドディスク ドライブ等を備える本体 2 Aと、 当該本体 2 Aに 接続される表示手段と してのモニタ 2 B と、 入力手段と しての キーボー ド 2 C及びマウス 2 D とを有している。 このよ う なコ ンピュータ 2は編集のためのアプリ ケーショ ンソフ ト ウェアが ハー ドディスク ドライブに予めイ ンス ト一ルされており 、 オペ レーティ ングシステムの基で当該アプリ ケーショ ンソ フ ト ゥェ ァを動作させるこ とによ り編集装置用のコ ンピュータ と して起 動するよ う になされている。
このアプリ ケーショ ンソ フ ト ウエアを動作させたと きには、 モニタ 2 B上に編集用の G U I (グラフィ カルュ一ザイ ンター フェース) のためのグラフィ ックイ メージが表示されるよ う に なされている。 この編集装置 1 では、 このグラフィ ック表示と 上述した入力手段とによってユーザイ ンターフェースを構成し. 例えばマウス 2 Dを使用 して、 モニタ 2 B に表示される制御コ マン ドボタンを示すグラフィ ック表示の中から所望のグラフィ ック表示を選択するこ とによ り 、 編集処理の処理内容を指定す るための制御コマン ドを入力する よ う になされている。 なお、 コ ンピュータ 2は、 入力された制御コマン ドが編集処理装置 3 における編集処理動作を制御するものであれば当該制御コマン ドに応じた制御信号 S 1 を生成し、 これを編集処理装置 3 に送 出して編集処理動作を指示するよ うになされている。
またこのコンピュータ 2には編集処理装置 3 を介してビデオ 信号 S 2が入力され、 これによ り各素材の映像をモニタ 2 Bに 表示して素材内容を確認しながらイ ン点 (イベン トの開始点) やアウ ト点 (イベン トの終了点) をマーキングイ しり ことがで きる。 このイベン トとは、 イン点及ぴアン ト点によって指定さ れた編集区間のことであって、 タイムライン上に並べられた 1 つの編集素材のことをを示している。 また、 このイベン トは、 オーディオイベン ト、ビデオイベン ト、 D S K ( Down Stream Key ) ィベン ト等から構成される。
このコ ンピュータ 2は、 イ ン点及びァゥ ト点を指示すること によって切り取られたィベン トゃ編集した完成プログラムの映 像をモニタ上に表示することによって、 それらを確認すること ができる。 (以下、 この切り取られたイベン トや編集プロダラ ムを再生して表示することをプレビューと呼ぶ) 。
一方、 編集処理装置 3は内部にマ ト リ ク ススィ ッチャ部、 画 像処理部及び音声処理部を有しており、 素材の切り取りゃ槃ぎ 合わせ、 或いはビデオ信号やオーディオ信号に対するエフェク ト処理等、 実際の編集作業を実行する編集実行装置である。 この編集処理装置 3 には上述したよ うなコ ンピュータ 2が接 続されているだけでなく 、 別の入力手段と して専用コン トロー ラ 4、 5 も接続されており 、 当該専用コ ン ト ローラ 4 、 5 を使 用しても編集のための制御コマン ドを入力し得るよ う になされ ている。
専用コン トローラ 4は、 素材のイン点やアウ ト点を指示する ためのボタン操作子や、 素材の再生を指示するためのボタン操 作子、 或いは編集したプロ グラムの記録を指示するためのボタ ン操作子等を有している と共に、 変速再生 (いわゆるシャ トル 再生) やコマ送り再生 (いわゆるジョグ再生) の指示を入力す るためのダイアル操作子等を有しており、 それらのボタン操作 子又はダイアル操作子を介して入力された指示情報に応じた制 御信号 S 3 を編集処理装置 3 に送出するよ うになされている。
また専用コン トローラ 5は、 オーディオ信号の信号レベルを 設定するための 4つのオーディオ用フエ一ダレバーや 2つの映 像を切り換える ときの切換率を設定するためのビデオ用フエ一 ダレバー等を有しており、 それらのフエ一ダレバーを介して入 力された指示情報 (この指示情報はフエ一ダレバーによる設定 値を示す) に応じた制御信号 S 4を編集処理装置 3 に送出する よ うになされている。
また、 この編集処理装置 3 に対しては、デイ リーサーバ 6 (— 般に放送局において映像や音声等の編集素材を記憶している記 憶手段) が接続されており 、 この編集処理装置 3 は、 デイ リー サーバ 6 に記憶されているビデオ及びオーディオ信号を取り込 むことができる。 デイ リーサーバ 6は 2チャンネル分の出力ポ ー トを有しており、 編集処理装置 3から供給されるチャンネル 毎の制御信号 S 5、 S 6に応じて所望のビデオ及びオーディオ 信号 S 7、 S 8を記憶媒体 6 Aから読み出して出力することが できる。なお、記憶媒体 6 Aには圧縮率 1 / 10の M P E G ( Mov i ng P i c ture cod i n g Exp ert s Group ) 規格で圧縮されたビデオ及ぴ オーディオ信号が記憶されており、 読み出されたビデオ及びォ 一ディォ信号はそれぞれデコーダ 6 B、 6 Cを介して復号化が 行われた後、 シ リ アルディジタルイ ンターフェイ ス (以下、 こ れを S D I と呼ぶ) 規格のフォーマッ トに変換され、 その S D I規格のビデオ及びオーディオ信号 S 7、 S 8が編集処理装置 3 に供給される。
またこの編集処理装置 3 に対しては V T R 7 も接続されてお り、 この編集処理装置 3は、 V T R 7に記憶されているビデオ 及びオーディオ信号も取り込むことができる。 V T R 7は S D I規格の入出力インターフェイ スを有しており、 編集処理装置 3から供給される制御信号 S 9に応じて所望のビデオ及びォー ディォ信号 S 1 0を読み出して出力することができる。 また V T R 7は、 編集処理された後のビデオ及びオーディオ信号ゃデ イ リ一サーバ 6から読み出されたビデオ及びオーディオ信号 S 7、 S 8を記録対象のビデオ及びオーディオ信号 S 1 1 と して 編集処理装置 3から受けることができと と もに、 制御信号 S 9 に応じてそのビデオ及びオーディォ信号 S 1 1 をビデオテープ に記録できるよ うにも構成されている。
またこの編集処理装置 3 に対しては、 記憶手段と して、 複数 のハー ドディ スクからなる口 一カルス ト レージ 8 も接続されて おり、 編集処理装置 3は、 当該ローカルス ト レージ 8 に記憶さ れている ビデオ及びオーディオ信号も取り込むこ とができるよ うに構成されている。 ロ ーカルス ト レージ 8 は S D I 規格の入 出力イ ンターフェイ スを有している と共に、 出力ポー トと して は 2チャンネル分のポー トを有しており 、 編集処理装置 3から 供給される制御信号 S 1 2 に応じて所望のビデオ及びオーディ ォ信号 S 1 3 A〜 S Eを読み出して出力するよ うになされてい る。 またローカルス トレ一ジ 8は、 編集処理された後のビデオ 及びオーディオ信号やディ リーサーバ 6又は V T R 7から読み 出されたビデオ及びオーディォ信号を記録対象のビデオ及ぴォ 一ディォ信号 S 1 5 と して編集処理装置 3から受けるよ うにな されており、 制御信号 S 9 に応じてそのビデオ及びオーディオ 信号 S 1 5を内部のハー ドディスクに記録するよ うにもなされ ている。
またこの編集処理装置 3 に対しては、 オンエアバッファ (放 送の際にプログラムを一時的に記憶するための記憶手段) 9 も 接続されており、 当該編集処理装置 3 によって編集処理したプ ログラムのビデオ及びオーディオ信号 S 1 6をオンエアバッフ ァ 9に記憶し得るよ うになされている。 この場合、 オンエアバ ッファ 9は S D I規格の入カインターフェイスを有しているの で、 送出されるビデオ及びオーディオ信号 S 1 6 と しては S D I 規格の信号フォ一マツ トになっている。 またオンエアバッフ ァ 9においては、 供給されたビデオ及びオーディォ信号 S 1 6 をエンコーダ 9 Aによって圧縮率 1 0 の M P E G規格で圧縮 した後、 内部の記憶媒体 9 Bに記憶するよ うになされている。 なお、 このオンエアバッファ 9 と編集装置 1 のコンピュータ 2は例えばイーサネッ ト等のローカルエリアネッ トワーク (以 下、 これを L A Nと呼ぶ) 1 0を介して接続されており、 オン エアバッファ 9に対する制御コマン ドはコンピュータ 2及び L A N 1 0を介して当該オンエアバッファ 9に送出される。 また 編集されたプログラムがどのよ うな素材で構成されているかを 示す編集リス ト (一般にエディツ トデイシジョ ンリ ス トと呼ば れる) も、 この L A N 1 0を介してオンエアバッファ 9 に送出 される。
また編集装置 1 のコンピュータ 2 とディ リーサーバ 6 もこの L A N 1 0 を介して接続されており、 当該 L A N 1 0を介して ディ リーサーバ 6に記憶されている各素材のファイル名等をコ ンピュータ 2から参照し得るよ うになされている。
また編集処理装置 3に対しては、 オプション接続と してスピ 一力 1 1及び 1 2が接続されるよ うになされており、 編集処理 装置 3によって編集されたオーディオ信号 S 1 7、 S 1 8を当 該スピーカ 1 1 、 1 2から送出してオーディオに関する編集結 果を確認し得るよ うになされている。
さ らに編集処理装置 3 に対しては、 オプション接続と してプ レビュー専用のモニタ 1 3 も接続されるよ うになされており、 編集処理装置 3によって編集されたビデオ信号 S 1 9を当該モ ユタ 1 3 に表示してビデオに関する編集結果をこのモニタ 1 3 によっても確認し得るよ う になされている。 このモニタ 1 3 に 表示されるプレビュー画面の方がコンピュータ 2のモニタ 2 B に表示されるプレビュー画面よ り も大きいので、 モニタ 1 3 を 接続した方がよ り鮮明に編集結果を確認し得る。
ここでこの編集装置 1 における編集方法を簡単に説明する。 まずこの編集装置 1 では、 アプリ ケーショ ンソフ トウェアを起 動させると、 上述したよ う にモニタ 2 Bに G U I のためのグラ ブイ ック表示が表示される。 このグラフィ ック表示と しては、 後述するよ うに、 素材の映像を見ながらイ ン点やアウ ト点を指 定することによってィベン トを生成する ビューァウイン ドウの 画面や、 ビューァウィン ドウによって生成したィベン トのク リ ップ画を表示するログウィン ドウの画面、 或いはこの編集装置 1 で行う編集処理内容を指定すると共に、 指定された編集処理 内容をグラフィ ック表示を使用して表示するプログラムウィン ドウの画面や、 その他、 制御コマンドを入力するための制御コ マンドボタン等である。
まず編集オペレータは、 このモニタ 2 Bに表示される所定の 制御コマン ドポタンをマウス 2 Dを使用してボタンやアイコン をク リ ックすることにより、 編集素材が記憶されているデバイ ス (すなわちデイ リーサーバ 6 、 V T R 7又はローカルス ト レ ージ 8 ) を指示すると共に、 その素材の再生を指示する。 これ によ りその指示された素材のビデオ信号 S 2が編集処理装置 3 を介してコ ンピュータ 2に供給され、 その素材の映像がモニタ 2 Bに表示される。 オペレータはその素材の映像を見ながらィ ン点とアウ ト点を指示することによ り、 プログラム作成に必要 なイベン トを生成する。 オペレータはこの処理を繰り返し、 プ ログラム作成に必要なィベン トを一通り用意し、 これをログゥ イ ン ドウに登録する。
続いてオペレータは、 口グウイ ン ドウに示されている所望の ク リップ画をマウス 2 Dによってク リ ックするこ とによ り所望 のイベン トを選択する。 これによ り選択したイベン トを示す帯 状グラフィ ックが表示されるので、 これをプログラムウィン ド ゥ内にあるタイムライン (詳細は後述する) 上の所望位置に置 く。 これを順に繰り返してイベン トを示す帯状グラフィ ック表 示を所望の順番に並べるこ とによ りプログラムの順番を指示す る。 また所望のイベン トにビデオエフェク トを付加するのであ れば、 所定の制御コマン ドボタンをク リ ックするこ とによ り ビ デォエフェク ト設定のためのダイアログを表示させ、 その中か ら付加したいビデオェフエタ トを選択する。 これによ り選択し たビデオエフェク トを示す帯状グラフィ ック表示が表示される ので、 これをタイムライン上のビデオエフェク トを付加したい 位置に置く。
このよ うにしてプログラムの概案が決まると、 オペレータは 所定の制御コマン ドボタンをク リ ックすることによ りプレビュ 一の指示を入力する。 これを受けた編集装置 1 は、 編集処理装 置 3を制御することによ りプログラムウィン ドウで指示された プログラムの順番に基づいて各イベントを再生する と共に、 編 集処理装置 3 を制御するこ とによ り指示されたィベン トにビデ ォエフェク トを施し、 ビデオ信号 S 2を生成する。 このビデオ 信号 S 2はコ ンピュータ 2に供給され、 モニタ 2 Bに表示され る。 これによ りオペレータはプログラムウィン ドウを使用して 指示したプログラム内容を確認することができる。
このよ うなプレビューの結果、 プログラム内容に変更がなけ れば、 オペレータは所定の制御コマン ドボタンをク リ ックする ことによ り記録指示を入力する。 これを受けた編集装置 1 は、 先程と同様に編集処理装置 3 を制御することによ り指示された プログラムを示すビデオ及びオーディオ信号 S 1 5 a 、 S 1 5 b を生成し、 これをロ ーカルス ト レージ 8 に供給して記録する。 かく してこの処理によ り 、 プログラムウィン ドウによって指示 されたプログラムが完成し、 ロ ーカルス ト レージに記憶される。 なお、 この編集によ り生成したプログラムを放送する場合には、 G U I を介して転送の指示を入力すれば、 ロ ーカルス ト レージ からそのビデオ及びオーディオ信号が読み出され、 編集処理装 置 3 を介してオンエアバッファ 9 に転送される。
このよ う にしてこの編集装置 1 では、 各素材の映像ゃプロ グ ラムの映像をモニタ 2 Bで確認しながら当該プロ ダラムを作成 し得るので、 編集の使い勝手を向上し得る。 またこの編集装置 1 では、 オペレータがスィ ッチャゃ特殊効果装置を直接操作し なく ても編集が行えるので、 編集操作を容易に行う こ とができ、 編集に掛かる手間を削減し得る。
1 — 2. コ ンピュータの構成
この項ではコンピュータ 2の内部構成について具体的に説明 する。 図 2 に示すよ う に、 コ ンピュータ 2は、 コマン ドデータ やビデオデータを伝送するためのシステムバス 2 0、 コンビュ —タ全体の制御を行う C P U 2 1 、 入力される ビデオ信号 S 2 に対して画像処理等を行う ビデオプロセ ッサ 2 2、 モニタ 2 B に表示される ビデオデータや G U I のためのグラフィ ック表示 を管理する表示コン トローラ 2 3 、 ローカルハー ドディスク ド ライブ (ローカル H D D) 2 4 Aを制御するための H D Dイ ン ターフェイス 2 4 、 フロッピーディスク ドライブ ( F D D) 2 5 Aを制御するための F D Dイ ンターフェイ ス 2 5 、 マウス 2 D及びキーボー ド 2 C等のポィ ンティ ングデバイスからのコマ ン ドに基づいて制御コマン ドを生成するポイ ンティ ングデバイ スイ ンターフェイ ス 2 6 、 編集処理装置 3 に制御信号 S 1 を送 出するためのソフ ト ウエア ドライバを備えた外部イ ンターフエ イス 2 7 を有している。
システムバス 2 0は、 コ ンピュータ 2内部でビデオデータや コマン ドデータ、 或いはァ ドレスデータ等の通信を行う ための バスであり、 ビデオデータを伝送するための画像データバス 2 O Aと、 コマン ドデータゃァ ドレスデータを伝送するためのコ マ ン ドデータノくス 2 0 B と力 らなる。
画像データバス 2 0 Aには C P U 2 1 、 ビデオプロセッサ 2 2、 表示コン トローラ 2 3、 H D Dインターフェイ ス 2 4及び F D Dイ ンターフェイ ス 2 5がそれぞれ接続されており、 当該 C P U 2 1 、 ビデオプロセッサ 2 2、 表示コ ン ト ローラ 2 3、 H D Dインタ一フェイ ス 2 4及び F D Dインターフェイ ス 2 5 はこの画像データバス 2 0 Aを介してビデオデータの伝送を行 う よ う になされている。
—方、 コマン ドデータノくス 2 0 Bには、 C P U 2 1 、 ビデオ プロセッサ 2 2、 表示コン トローラ 2 3、 H D Dインターフエ イ ス 2 4、 F D Dインターフェイ ス 2 5、 ポインティングデバ イ スイ ンターフェイ ス 2 6及ぴ外部イ ンターフェイ ス 2 7がそ れぞれ接続されており (すなわちコ ンピュータ 2内部の全ての ブロ ックが接続されている) 、 当該コマン ドデータバス 2 0 B を介してコマン ドデータゃァ ドレスデータの伝送を行う よ うに なされている。
C P U 2 1 はコ ンピュータ 2全体の制御を行うプロ ックであ り 、 コ ンピュータ 2のオペレーティ ングシステムが格納されて いる R OM 2 1 Aと、 アツブロー ドされたアプリケーショ ンソ フ トウェア等が格納される R AM 2 1 B とを有している。 コ ン ピュータ 2を起動する場合には、 C P U 2 1 は R OM 2 1 Aに 記憶されたオペレーティングシステムに基づいたソ フ トウェア を実行する。 またアプリケーショ ンソフ トウェアをこの起動中 のオペレーティングシステムの下で実行する場合には、 C P U 2 1 はまずハー ドディスク ドライブ 2 4 Aのハー ドディスクに 記録されているアプリケーショ ンソ フ トウエアを読み出して R A M 2 1 Bにアップロー ドし、 その後、 当該アプリケーショ ン ソフ トウェアを実行する。
ビデオプロセッサ 2 2は、 コンピュータ 2に入力される S D I規格のビデオ信号 S 2を受け取り、 当該ビデオ信号 S 2に対 してデータ変換を施すと共に、 その変換されたビデオデータを 一時的にバッファリ ングするためのプロ ックである。 具体的に は、 ビデオプロセッサ 2 2は、 当該ビデオプロセッサ 2 2の全 体を制御するプロセッサコン トローラ 2 2 Aと、 受け取ったビ デォ信号 S 2のペイロー ド部からコンポジッ トビデオ信号を抽 出し、 かつ当該コンポジッ ト ビデオ信号をディジタルのコンポ 一ネン トビデオ信号に変換するデータ変換部 2 2 B と、 データ 変換部 2 2 Bから送出される数フ レーム分のビデオデータを一 時的に記憶するフ レームメ モ リ 2 2 Cとからなる。
プロセッサコ ン ト ローラ 2 2 Aは、 データ変換部 2 2 Bに対 して制御信号を送出するこ とによ り 当該データ変換部 2 2 Bの データ変換動作を制御する と共に、 当該データ変換部 2 2 Bに ビデオ信号 S 2からタイムコ ー ドを抽出させる。 またプロセッ サコ ン ト ローラ 2 2 Aは、 フ レームメ モ リ 2 2 Cに対して制御 信号を送出することによ り 当該フ レームメ モ リ 2 2 Cのリー ド /ライ トタイ ミ ング及ぴリー ド ライ トア ド レスを制御する。 リードタイ ミ ングに関しては、 プロセッサコ ン ト ローラ 2 2 A は表示コン トローラ 2 3 に送出するタイムコー ドと ビデオデー タ (フ レームデータ) とが対応するよ う にフ レームメ モ リ 2 2 Cのリー ドタイ ミ ングを制御する。 データ変換部 2 2 Bは、 プロセッサコン トローラ 2 2 Aから の制御信号に基づいてコンポジッ トビデオ信号をディジタルの コンポーネン トビデオ信号に変換する。 タイムコー ドはこの変 換過程において抽出される。 この変換によ り得られたビデオデ ータは上述したよ うにフレームメモリ 2 2 Cに送出され、 また 抽出されたタイムコー ドはプロセッサコン トローラ 2 2 Aに送 出される。
フレームメモリ 2 2 Cはデータ変換部 2 2 Bから供給される ビデオデータを一時的に記憶する。 このフレームメモリ 2 2 C のリー ド /ライ トタイ ミ ングは、 上述したよ うにプロセッサコ ン トローラ 2 2 Aによって制御される。 このフレームメモ リ 2 2 Cは 2個のフレームメモリ から構成され、 2 フ レーム分のビ デォデータを記憶し得るよ うになされている。
このフレームメモ リ 2 2 Cに記憶されたビデオデータは、 プ ロセッサコン トローラ 2 2 Aの読み出し制御に基づいて読み出 される。 その際、 フレームメモリ 2 2 Cに記憶されたビデオデ 一タを全画素読み出すのではなく 、 所定の間隔で間引いて読み 出すことによ り画像サイズを原画像よ り も小さ くする。 このよ うにして画像サイズが小さ く変換されたビデオデータは、 モニ タ 2 Bのビューァウィン ドウ (詳細は後述する) に表示される ため、 画像データバス 2 O Aを介して表示コン ト ローラ 2 3 に 送出される。
表示コン ト ローラ 2 3 は、 モニタ 2 Bに表示されるデータを 制御するための制御ブロ ックである。 表示コン トローラ 2 3 は メモリ コン トローラ 2 3 Aと V R AM (ビデオランダムァクセ スメモリ) 2 3 B とを有してレヽる。 メモ リ コン ト ローラ 2 3 A はコ ンピュータ 2の内部同期に従って V R AM 2 3 Bの リ ー ド /ライ トタイ ミ ングを制御する。 この V R A M 2 3 Bには、 ビ デォプロセッサ 2 2のフ レームメ モ リ 2 2 Cから送出されたビ デォデータ及び C P U 2 1 によって生成されるィ メージデータ が、 メモリ コン トローラ 2 3 Aからのタイ ミ ング制御信号に基 づいて記憶される。 この V R AM 2 3 Bに記憶されたビデオデ ータゃイ メージデータは、 コ ンピュータ 2の内部同期に基づい たメモリ コン トローラ 2 3 Aからのタイ ミ ング制御信号に基づ いて読み出され、 モニタ 2 B に表示される。
この場合、 イメージデータによるグラフィ ック表示が G U I のためのグラフィ ック表示となる。 C P U 1 0 から V R AM 2 3 Bに送出されるイ メージデータは、 例えばウィ ン ドウやカー ソル、 或いはスク ロールバーゃデパイスを示すアイ コン等のィ メージデータである。 このコンピュータ 2では、 これらの複数 種類のイ メージデータをモニタ 2 Bに表示する こ とによって G U I のためのグラフィ ック表示を得ている。
HD Dイ ンターフェイ ス 2 4 は、 コ ンピュータ 2内部に設け られたローカルハー ドディ スク ドライブ (H D D ) 2 4 Aと通 信するためのイ ンターフェイスブロ ックである。 この H D Dィ ンタ一フェイ ス 2 4 とハー ドディ スク ドライブ 2 4 Aとは S C S I (Small Computer System Interface ) の伝送フォーマツ トに基づいて通信が行われる よ う になされている。
ハー ドディスク ドライブ 2 4 Aには、 こ のコンピュータ 2で 起動するアプリ ケーショ ン ソ フ ト ウエアがイ ンス トールされて おり、 当該アプリ ケーショ ンソ フ ト ウエアを実行する場合には、 このハー ドディ スク ドライ ブ 2 4 Aから読み出されて C P U 2 1 の R AM 2 1 B にアップロー ドされる。 またこのアプリ ケー シヨ ンソフ ト ウエアを終了する際には、 R AM 2 1 Bに記憶さ れている編集オペレーショ ンによって生成された各種情報 (例 えばファイル情報等) は、 こ のハー ドディ スク ドライブ 2 4 A を介してハー ドディ スク にダウンロー ドされる。
F D Dイ ンタ一フェイ ス 2 5 は、 コ ンピュータ 2 内部に設け られたフ ロ ッ ピーディ スク ドライブ ( F D D) 2 5 Aと通信す るためのイ ンターフェイスブロ ックである。 この F D Dイ ンタ 一フェイ ス 2 5 と フロッピーディ スク ドライブ 2 5 Aとは S C S I の伝送フォーマツ トに基づいて通信が行われる よ う になさ れている。
ポイ ンティ ングデバイスイ ンターフェイ ス 2 6 は、 コンビュ ータ 2 に接続されたマウス 2 D及びキーボー ド 2 Cからの情報 を受信するイ ンタ一フェイ スプロ ックである。 ポイ ンティ ング デバイスイ ンターフェイ ス 2 6 は、 マウス 2 Dに設けられた 2 次元ロ ータ リ ーエンコーダの検出情報と、 マウス 2 Dに設けら れた左右のボタンのク リ ック情報とを当該マウス 2 Dから受け 取り 、 受け取ったそれらの情報をデコー ドして C P U 2 1 に送 出する。 同様に、 ポイ ンティ ングデバイスイ ンターフェイス 2 6 はキーボー ド 2 Cに設け られたボタンからの入力情報を受け 取り 、 受け取った入力情報をデコー ドして C P U 2 1 に送出す る。 これによ り C P U 2 1 は、 モニタ 2 Bに表示される G U I の う ちいずれのコマン ドボタ ンが指示されたか認識し得る と共 に、 キーボー ド 2 Cよ り入力された各種データを認識し得、 そ れらに対応する制御を行う こ とができる。
外部イ ンターフェイ ス 2 7 は、 コ ンピュータ 2の外部に接続 された編集処理装置 3 と通信するためのブロ ックである。 外部 インターフェイ ス 2 7は C P U 2 1 で生成された再生コマン ド や記録コマン ド等の各種制御コマンドを所定の通信プロ トコル のデータに変換する ドライバを有しており、 当該ドライバを介 して制御コマン ドを示す制御信号 S 1 を編集処理装置 3 に送出 する。
1 — 2. 編集処理装匱の構成
この項では編集処理装置 3 の構成について説明する。 図 3 に 示すよ うに、 編集処理装置 3 は大きく分けてシステム コ ン ト口 ール部 3 A、 マ ト リ ク ススィ ッチャ部 3 B、 画像処理部 3 C及 ぴ音声処理部 3 Dからなつている。 システムコ ン ト ロ ール部 3 Aは、 コ ンピュータ 2から送られてく る制御信号 S 1や専用コ ン トローラ 4 、 5から送られてく る制御信号 S 3 、 S 4 を受け、 当該制御信号 S 1 、 S 3又は S 4を基に各プロ ッ ク の動作を制 御する。 具体的には、 システムコ ン ト ロ ール部 3 Aは、 コ ン ト ロールバス 3 Eを介してマ ト リ ク ススィ ツチャ部 3 B、 画像処 理部 3 C及び音声処理部 3 Dの動作を制御する と共に、 制御信 号 S 5、 S 6 、 S 9又は S I 2を送出してデイ リーサーバ 6 、 V T R 7及びローカルス ト レージ 8の再生又は記録動作等を制 御する。 システムコ ン ト ロ ール部 3 Aは外部よ り供給される リ フエ レンスタイ ムコー ド (REF- TC) も受け取り 、 タイ ムコ一 ド の管理も行う よ うになされている。
マ ト リ スク スィ ツチャ部 3 Bは複数の入力端子と複数の出力 端子とを有し、 システム コ ン トロール部 3 Aからの制御に応じ て所望の入力端子を所望の出力端子に接続するよ う になされて おり、 これによ り各デバイス (ディ リ一サーバ 6 、 V T R 7又 はローカルス トレージ 8 ) から読み出されたビデオ及びオーデ ィォ信号のうち所望の信号を画像処理部 3 Cや音声処理部 3 D に送出し得ると共に、 所望の信号をコ ンピュータ 2ゃ各デバイ ス (V T R 7 、 ローカルス ト レージ 8 又はオンエアノくッラブ 9 ) に送出し得るよ うになされている。 さらに画像処理部 3 Cによ つて処理されたビデオ信号をコ ンピュータ 2に送出したり、 或 いはそのビデオ信号に音声処理部 3 Dによって処理されたォー ディォ信号を重畳して各デバイス (V T R 7 、 ロ ーカルス ト レ ージ 8又はオンエアバッファ 9 ) に送出し得るよ うにもなされ ている。
画像処理部 3 Cは、 ト ラ ンジシヨ ンエフェク ト (ワイ プゃぺ ージターン等、 バックグラゥン ドの映像からフォアグラゥンド の映像に切り換えるようなエフェク ト) やアニメ ーショ ンエフ ェク ト (モザイクゃピクチャインピクチャ等、 特殊な画像処理 や挿入処理を伴うエフェク ト) といったエフェク ト処理をビデ ォ信号に施すブロ ックであり、 マ ト リ ク ススィ ツチャ部 3 Bに よって選択されたビデオ及びオーディオ信号からビデオ信号を 抽出し、 当該ビデオ信号にエフェク ト処理を施した後、 そのビ デォ信号をマ ト リ ク ススィ ツチャ部 3 Bに出力する。
尚、 この編集装置においては、 エフェク トの種類と して トラ ンジシヨ ンエフェク ト と アニメ ーショ ンエフヱ ク トの 2種類を 有している。 トランジシヨ ンエフェク ト とは、 ワイプ効果ゃぺ ージターン効果等のよ うに、 2つの画像を切り換えるビデオェ フエク トのことを言い、 アニメーシ ョ ンエフェク ト とは、 3次 元画像空間変換等の画像に特殊効果をかけるエフエタ ト、 また
2 フ は、 スポッ トライ ト効果、 ズームアップ効果及びピクチャイン ピクチャ効果等のようにある画像にビデオエフェク トのかかつ た画像を挿入するエフェク トのこ とを言う。
音声処理部 3 Dは、 オーディオ信号のレベル調整や合成を 行うブロ ックであり、 マ ト リ ク ススィ ツチャ部 3 Dによって選 択されたビデオ及びオーディォ信号からオーディォ信号を抽出 した後、 そのオーディオ信号にレベル調整を施したり、 或いは オーディオ信号同士をそれぞれ合成したり し、 その結果得られ るオーディオ信号をマ ト リ ク ススィ ツチャ部 3 B又はス ピーカ
1 1 、 1 2に出力する。
ここでこれら各プロ ッ ク の構成を図を用いて以下に具体的に 説明する。 図 4 に示すよ う に、 システム コ ン ト ロール部 3 Aは、 メ イ ン C P U (M— C P U) 3 0 、 コ ミ ュニケーショ ン C P U (C— C P U) 3 1及びデバイス制御用 C P U (D— C P U)
3 2〜 3 4の複数の C P Uから構成される。 メイ ン C P U 3 0 は、 コ ン ト ロ ールバス 3 Eを介して各ブロ ック (すなわちマ ト リ ク ススィ ツチャ部 3 B、画像処理部 3 C及び音声処理部 3 D ) に制御コマン ドを与えるこ とによ り 当該各プロ ックの動作を制 御するための C P Uである。 またコ ミュニケーショ ン C P U 3
1 は、 外部のタイムコー ド発生器 (図示せず) によって発生し たリ ファ レンス タイ ムコー ド ( REF- TC) を受け取ったり、 或い はコンピュータ 2からの制御信号 S 1や専用コン トローラ 4 、
5からの制御信号 S 3 、 S 4 を受け取ったりするための通信用 C P Uである。 またデバイス制御用 C P U 3 2〜 3 4は、 各デ バイ ス (すなわちデイ リーサーバ 6 、 V T R 7及びロ ーカルス ト レージ 8 ) に対して制御信号 S 5 、 S 6 、 S 9又は S 1 2を 送出して当該各デバイ スの動作を制御するための C P Uである, このよ うなシステム コ ン トローノレ部 3 Aは、 .コ ミュニケーシ ヨ ン C P U 3 1 によって制御信号 S 1 、 S 3又は S 4を受け取 り、 当該コ ミュニケーショ ン C P U 3 1 によってその制御信号 S l 、 S 3又は S 4が示す制御コマン ドを再生する。 この制御 コマン ドはシステムコ ン トロール部 3 A内部のバス 3 5を介し てメ イ ン C P U 3 0 に転送される。 メ イ ン C P U 3 0 はこの制 御コマン ドを解析し、 デバイス制御が必要であれば対応するデ バイ ス制御用 C P U 3 2 、 3 3又は 3 4に制御コマン ドを送出 して当該デバイス制御用 C P U 3 2、 3 3又は 3 4を介してデ バイ スの動作を制御し、 マ ト リ ク ススィ ッチャ部 3 B、 画像処 理部 3 C又は音声処理部 3 Dの制御が必要であれば対応するブ 口 ックにコン トロールバス 3 Eを介して制御コマン ドを送出し て当該プロ ッ ク の動作を制御する。
コ ミ ュニケーショ ン C P U 3 1 は、 内部にコ ンピュータ 2の 外部インターフェイ ス 2 7 に対応した通信用の ドライバを有し ており、 当該 ドライバによってコ ンピュータ 2から送られてく る制御信号 S 1 を受信する よ う になされている。 またデバイス 制御用 C P U 3 2〜 3 4は内部に R S — 4 2 2規格の ドライ ノく を有しており、 当該 ドライバによって R S — 4 2 2規格の制御 信号 S 5 、 S 6 、 S 9又は S I 2を各デバイスに送出するよ う になされている。
続いて図 5 を用いてマ ト リ ク ススィ ツチャ部 3 Bについて説 明する。 この図 5 に示すよ う に、 マ ト リ クススィ ッチャ部 3 B は大き く 分けて制御回路 4 0 、 マ ト リ ク ススィ ッチャブロ ック 4 1及びフォーマツ ト変换ブロ ッ ク 4 2からなつている。 制御 回路 4 0 はこのマ ト リ ク ススィ ツチャ部 3 Bの全体を制御する 回路であり、 コ ト ロ ールバス 3 Eを介して受けた制御コマン ドに基づいて制御信号 S 2 0、 S 2 1 を生成し、 当該制御信号 S 2 0、 S 2 1 をそれぞれマ ト リ ク ススイ ツチヤブロ ック 4 1、 フォーマツ ト変換プロ ック 4 2に出力してその動作を制御する, マ ト リ クススィ ッチャブロ ック 4 1 は、 入力端子 I N 1 ~ I N 1 1 にそれぞれ接続される複数の入力ラインと、 出力端子 O U T l〜O U T l 3 にそれぞれ接続される複数の出力ラインと が格子状に配列されており、 入力ラインと出力ラインが交差す るクロスポイン ト P (図中 X印で示す) の所で当該入力ライン と出力ライ ンを接続し得るよ う になされている。 このためマ ト リ ク ススイ ツチヤブロ ック 4 1 は、 制御回路 4 0から供給され る制御信号 S 2 0に基づいて所望のク ロ スポイ ン トの所で入力 ラインと出力ライ ンを接続すれば、 入力端子 I N 1〜 I N 1 1 に入力された所望の信号を所望の出力端子 O U T 1〜O U T 1 3 に出力するこ とができる。 尚、 移行の説明において、 例えば I N 7 と O U T 9 を接続するク ロ スポイ ン トを 「 P 7 9 J と し、 I N 1 0 と O U T 4 とを接続するク ロ スポイ ン トを「 P 1 0 4 J とする。
このマ ト リ ク ススィ ツチャ部 3 Bにおいては、 ディ リーサ一 バ 6、 V T R 7及びローカルス ト レージ 8の各デバイスから読 み出されたビデオ及びオーディオ信号がそれぞれ入力端子 I N 1〜 I N 8に入力されるよ う になされている (但し、 この図 5 の例では、 入力端子 I N 1〜 I N 5にビデオ及びオーディオ信 号 S 7、 S 8、 S 1 0及び S 1 3 A〜S 1 3 Eが入力され、 入 力端子 I N 5〜 I N 8は空き端子となっている) 。 また入力端 子 I N 9及び I N l 0には画像処理部 3 Cによって画像処理が 施されたビデオ信号 S 3 1 、 S 3 2がそれぞれ入力され、 入力 端子 I N l 1 には音声処理部 3 Dによって信号処理が施された オーディオ信号 S 3 3が入力されるよ うになされている。
またこのマ ト リ クススィ ツチャ部 3 Bにおいては、 出力端子 O U T 1 はローカルス ト レージ 8 にビデオ及ぴオーディオ信号 S 1 5を出力するための端子と して割り 当てられ、 出力端子 O U T 2は V T R 7にビデオ及びオーディオ信号 S 1 1 を出力す るための端子と して割り 当てられ、 出力端子 O U T 3 はオンェ ァバッファ 9 にビデオ及びオーディオ信号 S 1 6を出力するた めの端子と して割り 当てられており、 出力端子 O U T l 〜 O U T 3はそれぞれプログラム出力用の端子と して割り 当てられて いる。 また出力端子 O U T 4はプレビュー専用のモニタ 1 3 に ビデオ信号 S 1 9 を出力するためのプレビュー用の出力端子と して割り 当てられており、 出力端子 O U T 5 はコンピュータ 2 にビデオ信号 S 2を出力するためのキヤプチャ用の出力端子と して割り 当てられている。 さ らに出力端子 O U T 6〜 O U T 1 0は画像処理部 3 Cにビデオ及びオーディオ信号 S 2 3 〜 S 2 7を出力するための端子と して割り 当てられ、 出力端子 O U T 1 l 〜O U T l 3 は音声処理部 3 Dにビデオ及びオーディオ信 号 S 2 8 〜 S 3 0 を出力するための端子と して割り 当てられて いる。
フォーマツ ト変換プロ ック 4 2は、 制御回路 4 0から供給さ れる制御信号 S 2 1 に基づいて、 出力端子 O U T 1 〜 O U T 5 に出力する信号を S D I 規格の信号に変換する回路ブロ ックで あり、 出力端子 O U T l 〜 O U T 3 に出力する信号をフォーマ ッ ト変換するァゥ トプッ トプロセッサ 4 3及びオーディオコン バイナ 4 4 と、 出力端子 O U T 4 に出力する信号をフォーマツ ト変換するアウ トプッ トプロセッサ 4 5 と、 出力端子 O U T 5 に出力する信号をフォーマツ ト変換するァゥ トプッ トプロセ ッ サ 4 6 とを有している。
ァゥ トプッ トプロセッサ 4 3 は、 画像処理部 3 Cによって画 像処理されたビデオ信号 (すなわち入力端子 I N 9又は I N 1 0に入力されるビデオ信号 S 3 1又は S 3 2 ) を出力する とき、 当該ビデオ信号 S 3 1又は S 3 2を S D I 規格のビデオ信号に 変換する。 オーディオコ ンパイナ 4 4は、 音声処理部 3 Dによ つて処理されたェンべデッ ドオーディオ信号 (すなわち入力端 子 I N i l に入力されるオーディオ信号 S 3 3 ) を出力すると き、 ァゥ トプッ トプロセッサ 4 3から出力される S D I 規格の ビデオ信号に当該ェンべデッ ドオーディオ信号 S 3 3 を重畳す る。 これによ り画像処理部 3 Cによって処理されたビデオ信号 S 3 1 、 S 3 2や音声処理部 3 Dによって処理されたオーディ ォ信号 S 3 3 を S D I 規格の信号でローカルス ト レージ 8や V T R 7或いはオンエアバッファ 9に送出し得る。 尚、 このェン ベデッ ドオーディオ ( Embedded Audio ) とは、 S D I規格の 補助データ領域のバケツ トを使用して伝送されるデジタルォー ディォデータのことである。
入力端子 I N 1 〜 I N 8に入力されたビデオ及ぴオーディオ 信号を出力端子 O U T 1 〜 O U T 3 に出力する場合には、 当該 ビデオ及びォ一ディォ信号が S D I 規格で各デバイスから出力 されているので、 ァゥ トプッ トプロセッサ 4 3及びオーディオ コ ンパイナ 4 4は何ら処理せず、 入力される ビデオ及びオーデ ィォ信号をそのまま出力端子 O U T l 〜O U T 3 に出力する。 アウ トプッ トプロセッサ 4 5 、 4 6 も、 同様に、 それぞれ画 像処理部 3 Cによって画像処理されたビデオ信号 S 3 1又は S 3 2を出力端子 O U T 4又は O U T 5に出力するとき、 当該ビ デォ信号 S 3 1 又は S 3 2を S D I規格のビデオ信号に変換す る。 これによ り画像処理部 3 Cによって処理されたビデオ信号 S 3 1又は S 3 2を S D I 規格の信号でプレビュー専用のモニ タ 1 3やコンピュータ 2に送出し得る。 このァゥ トプッ トプロ セッサ 4 5 、 4 6 も、 入力端子 I N 1 〜 I N 8に入力されたビ デォ及びオーディオ信号を出力端子 O U T 4 、 O U T 5に出力 する場合には、 当該ビデオ及びオーディオ信号に何ら処理せず、 そのまま出力端子 O U T 4 、 O U T 5に出力する。
続いて図 6を用いて画像処理部 3 Cについて説明する。 この 図 6に示すよ う に、 画像処理部 3 Cは大き く分けて制御回路 5 0 と、 デマルチプレクサブロ ック 5 1 と、 スィ ッチャブロ ック 5 2 と、 特殊効果ブロ ック 5 3 と、 ミキサブロ ック 5 4 とを有 している。 制御回路 5 0はこの画像処理部 3 Cの全体を制御す る回路であり、 コ ン ト ロ ールバス 3 Eを介して受けた制御コマ ン ドに基づいて制御信号 S 4 0 、 S 4 1 、 S 4 2、 S 4 3 を生 成し、 当該制御信号 S 4 0 、 S 4 1 、 S 4 2、 S 4 3 をそれぞ れデマノレチプレクサブロ ック 5 1 、 スィ ッチャブロ ック 5 2、 特殊効果ブロ ック 5 3、 ミキサブロ ック 5 4に出力してその動 作を制御する。 これによ り この画像処理部 3 Cでは、 マ ト リ ク ススィ ツチャ部 3 Bから供給されたビデオ信号 ( S 2 3〜 S 2 7 ) に対して画像処理を施す。 こ こで言う画像処理とは、 ソー スビデオ信号に特殊効果を施したり、 バックグラウン ドビデォ 信号に特殊効果のかかったビデオ信号を挿入した りするアニメ ーシヨ ンエフェク トゃ、 バック グラ ウン ドビデオ信号からフォ ァグラ ウン ドビデオ信号に映像を切り換える トランジシヨ ンェ フエク トのこ とである。
デマルチプレクサブロ ック 5 1 は、 S D I 規格の信号形式で 送られてく る ビデオ及ぴオーディオ信号 S 2 3 〜 S 2 7からビ デォ信号又はキー信号を抽出するブロ ックである。 このデマル チプレクサブ口 ック 5 1 は、 入力される ビデオ及びオーディオ 信号 S 2 3〜 S 2 7からそれぞれ信号抽出を行う 5 つのデマル チプレクサ回路 5 1 A〜 5 1 Eからなつている。 デマルチプレ クサ回路 5 1 Aは、 ビデオ及びオーディオ信号 S 2 3 を形成す る各パケッ トのペイ ロー ド部からキー信号を抽出する回路であ り 、 当該キー信号の先頭に配置されている同期信号及びヘッダ 情報に基づいて抽出を行う。 またデマルチプレク サ回路 5 1 B は、 ビデオ及びオーディォ信号 S 2 4 を形成する各バケツ トの ペイ ロー ド部からビデオ信号を抽出する回路であり 、 当該ビデ ォ信号の先頭に配置されている同期信号及びヘッダ情報に基づ いて抽出を行う。 同様に、 デマルチプレクサ回路 5 1 Cはビデ ォ及びオーディオ信号 S 2 5 からキー信号を抽出し、 デマルチ プレクサ回路 5 1 Dはビデオ及ぴオーディオ信号 S 2 6からビ デォ信号を抽出 し、 デマルチプレクサ回路 5 1 Eはビデオ及び オーディオ信号 S 2 7から ビデオ信号を抽出する。
スィ ッチャブロ ック 5 2 は、 抽出されたキー信号及びビデオ 信号に対して トランジショ ンエフェク トのための処理を施すブ ロ ックであり 、 ワイプ信号発生器 5 2 A、 5 2 B、 キー信号処 理回路 5 2 C、 5 2 D、 及びビデオ信号処理回路 5 2 E、 5 2 Fからなつている。 ワイプ信号発生器 5 2 Aは、 制御回路 5 0 からの制御信号 S 4 1 に基づいてオペレータが指定した トラン ジシヨ ンエフェク トに対応するワイプ信号を生成し、 当該ワイ プ信号をキー信号処理回路 5 2 C及ぴビデオ信号処理回路 5 2 Eに送出する。 キー信号処理回路 5 2 Cは、 供給されるワイプ 信号に基づいてデマルチプレクサ回路 5 1 Aから供給されるキ 一信号を当該ワイプ信号に対応するよ うに変換し (又は供給さ れるワイプ信号に基づいて当該ワイプ信号に対応する所望のキ 一信号を新たに生成する) 、 その結果得られるキー信号を後述 する ミキサブ口 ック 5 4に送出する。 またビデオ信号処理回路 5 2 Eは、 供給されるワイプ信号に基づいてデマルチプレクサ 回路 5 1 Bから供給される ビデオ信号を当該ワイプ信号に対応 するよ うに変換し、 その結果得られるビデオ信号を後述する ミ キサブ口 ック 5 4に送出する。
同様に、 ワイプ信号発生器 5 2 Bは、 制御回路 5 0からの制 御信号 S 4 1 に基づいてオペレータが指定した トランジショ ン エフェク トに対応するワイプ信号を生成し、 当該ワイプ信号を キ一信号処理回路 5 2 D及びビデオ信号処理回路 5 2 Fに送出 する。 キー信号処理回路 5 2 Dは、 供給されるワイプ信号に基 づいてデマルチプレクサ回路 5 1 Cから供給されるキー信号を 当該ワイプ信号に対応するよ う に変換し (又は供給されるワイ プ信号に基づいて当該ワイプ信号に対応する所望のキー信号を 新たに生成する) 、 その結果得られるキー信号を後述する特殊 効果プロ ック 5 3に送出する。 またビデオ信号処理回路 5 2 F は、 供給されるワイプ信号に基づいてデマルチプレクサ回路 5 1 Dから供給されるビデオ信号を当該ワイプ信号に対応するよ うに変換し、 その結果得られるビデオ信号を後述する特殊効果 ブロ ック 5 3 に送出する。
特殊効果ブロ ック 5 3は、 制御回路 5 0から供給される制御 信号 S 4 2に基づいて、 キー信号処理回路 5 2 Dから出力され るキー信号及びビデオ信号処理回路 5 2 Fから出力されるビデ ォ信号を 3次元的に画像変換するためのブロ ックであり、 3次 元ア ドレス発生回路 5 3 A、 フ レームメモ リ 5 3 B、 5 3 C及 び補間回路 5 3 D、 5 3 Eからなつている。 3次元ア ドレス発 生回路 5 3 Aは、 制御信号 S 4 2に基づいて、 オペレータが指 定した 3次元的な画像変換を行うための変換ア ドレスを生成し 当該変換ァ ドレスをフ レームメ モ リ 5 3 B、 5 3 C及び補間回 路 5 3 D、 5 3 Eに出力する。
フ レームメ モ リ 5 3 Bは、 キー信号処理回路 5 2 Dから供給 されるキー信号を順次内部のメモリ領域に格納する と共に、 そ の格納されたキー信号を変換ァ ド レスに基づいて読み出すこと によ り、 当該キー信号に対して 3次元的な画像変換を施し、 そ の結果得られるキー信号を補間回路 5 3 Dに送出する。 同様に、 フ レームメ モ リ 5 3 Bは、 ビデオ信号処理回路 5 2 Fから供給 されるビデオ信号を順次内部のメ モ リ領域に格納する と共に、 その格納されたビデオ信号を変換ァ ドレス に基づいて読み出す こ とによ り 、 当該ビデオ信号に対して 3次元的な画像変換を施 し、 その結果得られるビデオ信号を補間回路 5 3 Eに送出する。 補間回路 5 3 Dは 3次元的な変換処理が施されたキー信号に 補間処理を施す回路であり 、 変換ァ ドレスに基づいてキー信号 の画素を空間的に補間し、 その結果得られるキー信号を後述す る ミキサブロ ック 5 4 に送出する。 同様に、 捕問回路 5 3 Eは 3次元的な変換処理が施されたビデオ信号に補間処理を施す回 路であり 、 変換ア ドレスに基づいてビデオ信号の画素を空間的 に補間し、 その結果得られるビデオ信号を後述する ミキサブ口 ック 5 4 に送出する。
ミキサブ口 ック 5 4は制御信号 S 4 3による指示に従ってビ デォ信号を合成するプロ ックであり、 2つのミ ックス回路 5 4 A、 5 4 Bからなつている。 ミ ックス回路 5 4 Aは、 特殊効果 ブロ ック 5 3から出力されるキー信号に基づいて、 当該特殊効 果ブロ ック 5 3 によって画像変換されたビデオ信号とデマルチ プレクサ回路 5 1 Eから出力されるビデオ信号とを合成するこ とによ り ビデオ信号 S 3 1 を生成する。 またミックス回路 5 4 Bは、 スィ ッチャブロ ック 5 2から出力されるキー信号に基づ いて、 当該スィ ッチャブロ ック 5 2から出力されるビデオ信号 と ミックス回路 5 4 Aから出力されるビデオ信号 S 3 1 とを合 成することによ り ビデオ信号 S 3 2を生成する。 このよ うにし て生成されたビデオ信号 S 3 1 、 S 3 2は、 上述したよ うにマ ト リ クススィ ツチャ部 3 Bに送出される。
単に 2つの映像を切り換えるだけの トランジショ ンエフエタ トを行う場合には、 デマルチプレクサ回路 5 1 Dから出力され るビデオ信号をバックグラウン ドビデオ信号と してミ ック ス回 路 5 4 Aを介してミック ス回路 5 4 Bに入力する と共に、 ビデ ォ信号処理回路 5 2 Eから出力されるビデオ信号をフォアグラ ゥンドビデオ信号と してミ ックス回路 5 4 Bに入力し、 その 2 つのビデオ信号をキー信号処理回路 5 2 Cから出力されるキー 信号に基づいて合成する。 これによ りバックグラウン ドビデオ 信号からフォアグラウン ドビデオ信号に切り換わるビデオ信号 S 3 2が生成される。
尚、 フォアグラン ド映像と は、 トランジシヨ ンエフェク トの 実行によって画面に現れる画像または、 アニメーショ ンェフエ ク トの実行によってバック グランフ ド画像に挿入され、 ェフエ ク トパターンを埋める画像の事を言う。 また、 ノくック グラン ド 映像とは、 トランジシヨ ンエフェク トの実行によって、 画面か ら消し去られる画像または、 アニメーショ ンエフェク トの実行 によってフォアグラン ド画像が埋められたエフェク トパターン が挿入される画像のこ とを言う。
またページターンのよ う な画像変換を伴う トランジショ ンェ フエク トを行う場合には、 デマルチプレクサ回路 5 1 Eから出 力される ビデオ信号をバック グラ ウン ドビデオ信号と して ミ ツ クス回路 5 4 Aに入力する と共に、 ビデオ信号処理回路 5 2 F から出力されるビデオ信号をフォアグラ ウン ドビデオ信号と し て特殊効果ブロ ック 5 3 を介して画像変換した後にミ ック ス回 路 5 4 Aに入力し、 その 2つのビデオ信号を特殊効果プロ ック 5 3 を介して信号処理されたキ一信号に基づいて合成する。 こ れによ りページをめく る よ う にしてバック グラ ウン ドビデオ信 号からフォアグラ ウン ドビデオ信号に切り換わる ビデオ信号 S 3 1 が生成される。
またピクチャイ ンピクチャのよ う なアニメーショ ンエフェク トを行う場合には、 デマルチプレクサ回路 5 1 Eから出力され る ビデオ信号をバック グラ ウン ドビデオ信号と して ミ ック ス回 路 5 4 Aに入力する と共に、 ビデオ信号処理回路 5 2 Fから出 力される ビデオ信号を挿入素材と して特殊効果プロ ック 5 3 を 介して画像変換した後にミ ッ ク ス回路 5 4 Aに入力 し、 その 2 つのビデオ信号を特殊効果ブロ ック 5 3 を介して信号処理され たキ一信号に基づいて合成する。 これによ りバックグラウンド ビデオ信号に挿入素材が挿入されたピクチャインピクチャのビ デォ信号 S 3 1 が生成される。
続いて図 7を用いて音声処理部 3 Dについて説明する。 この 図 7に示すよ うに、 音声処理部 3 Dは大き く分けて制御回路 5 5、 入力信号処理ブロック 5 6 、 補助入力信号処理ブロ ック 5 7、 ミキサブロック 5 8及び出力信号処理ブロ ック 5 9からな つている。 制御回路 5 5 はこの音声処理部 3 Dの全体を制御す る回路であり、 コ ン トロールバス 3 Eを介して受けた制御コマ ン ドに基づいて制御信号 S 4 5、 S 4 6、 S 4 7、 S 4 8を生 成し、 当該制御信号 S 4 5、 S 4 6、 S 4 7、 S 4 8をそれぞ れ入力信号処理ブロック 5 6、補助入力信号処理ブロック 5 7、 ミキサブロック 5 8、 出力信号処理ブロック 5 9に出力してそ の動作を制御する。 これによ り この音声処理部 3 Dでは、 マ ト リ ク ススイツチヤ部 3 Bから供給されたオーディオ信号 ( S 2 8〜S 3 0 ) に対して音声処理が施される。 ここで言う音声処 理とは、 オーディオ信号のレベル調整と合成のことである。 入力信号処理ブロック 5 6は、 S D I 規格の信号形式がパラ レル化され送られてく るビデオ及びオーディォ信号 S 2 8 ~ S 3 0からオーディオ信号を抽出し、 そのオーディオ信号を信号 処理部 (D S P部) で処理するために D S P フォーマ ッ トのォ 一ディォ信号に変換して送出するプロ ックである。 この入力信 号処理ブロック 5 6は、 信号分離回路と してのセパ レータ 5 6 A〜 5 6 Cを有している。 セノ レータ 5 6 A〜 5 6 Cは、 それ ぞれパラレル化された S D I 規格のビデオ及びオーディォ信号 S 2 8〜S 3 0力 ら D S P フォーマツ トのオーディオ信号を抽 出する回路である。 すなわち、 セパレータ 5 6 A〜 5 6 Cは、 入力されるビデオ及びオーディオ信号 S 2 8〜S 3 0からェン ベデッ トオーディオ信号を抽出して、 シリ アル化した後オーデ ィォ信号をそれぞれミキサブロック 5 8 に送出する。
補助入力信号処理ブロ ック 5 7は、 外部から入力される A E S / £ B U Audio Engineering Society / European Broadca sting Union ) フォーマ ツ トのオーディオ信号を D S Pフォー マツ トのオーディオ信号に変換するブロ ックである。 この補助 入力信号処理ブロ ック 5 7は、 レー ト変換のためのサンプリ ン グレー トコ ンバータ 5 7 A〜 5 7 Dと、 フォーマツ ト変換回路 と してのデコーダ 5 7 E〜 5 7 Hとを有している。 サンプリ ン グレー トコンバータ 5 7 A〜 5 7 Dでは、 供給された A E S Z E B Uフォーマツ トのオーディオ信号の異なるサンプリ ングレ 一トが音声処理部 3 D内の所定のサンプリ ングレー トに変換さ れる。 サンプリ ングレー トが変換されたオーディオ信号は、 デ コーダ 5 7 E〜 5 7 Hに送出される。 デコーダ 5 7 E〜 5 7 H は、 それぞれオーディオ信号をフォーマツ ト変換する回路であ り、 入力される A E S / E B Uフォーマ ツ トのオーディオ信号 をそれぞれ D S Pフォーマ ッ トのオーディオ信号に変換し、 そ の結果得られるオーディオ信号をそれぞれミキサブロック 5 8 に送出する。
ミキサブロック 5 8は、 オーディオ信号のレベル調整を行う と共に、 信号合成を行うブロックであり、 ゲイン設定回路 5 8 A〜 5 8 Nと、 加算回路 5 8 0、 5 8 P と、 ゲイン設定回路 5 8 A〜 5 8 Nの信号レベルを専用コ ン ト ロ ーラ 5へ送信するメ ータデータ発生回路 5 8 Qとからなっている。 入力信号処理プ ロック 5 6から供給されたオーディオ信号及ぴ補助入力信号処 理ブロ ック 5 7から供給されたオーディオ信号は、 それぞれ右 側成分と左側成分に分離された後にゲイン設定回路 5 8 A〜 5 8 Gとゲイン設定回路 5 8 H〜 5 8 Nに入力される。 ゲイン設 定回路 5 8 A〜 5 8 Gと 5 8 H〜 5 8 Nは、 コ ンピュータ 2の モニタ 2 Bに表示される G U I のオーディオフエーダ又は専用 コ ン トローラ 5に設けられたオーディオフエーダの操作に連動 して抵抗値が変化するよ うになされており、 これによ り入力さ れるオーディオ信号をそれぞれオペレータが指定した信号レべ ルに レベル調整する。
ゲイン設定回路 5 8 A〜 5 8 Gによってレベル調整されたォ 一ディォ信号は、 それぞれ加算回路 5 8 Oに入力され、 こ こで 加算された後に出力信号処理ブロック 5 9に送出される。 同様 に、 ゲイン設定回路 5 8 H〜 5 8 Nによってレベル調整された オーディオ信号は、 それぞれ加算回路 5 8 Pに入力され、 こ こ で加算された後に出力信号処理ブロ ック 5 9 に送出される。 メ ータデータ発生回路 5 8 Qは、 後述する専用コ ン ト ローラ 5の パネルのディジタルメータを直接制御するよ うに、 この時の信 号レベルをデータへ変換する。 変換されたデータは、 専用コ ン トローラ 5へ送出される。
出力信号処理ブロック 5 9は出力する D S Pフォーマ ツ トの オーディオ信号を S D I 規格の信号形式をパラ レル化したェン べデッ ドオーディオ信号に変換するブロ ックである。 この出力 信号処理プロ ック 5 9は、 信号合成回路と してのェンべデッ ト 回路 5 9 Aと、 フォーマツ ト変換回路と してのエンコーダ 5 9 B、 5 9 Cとを有している。 ェンべデッ ト回路 5 9 Aは、 マ ト リ ク ススイツチヤ部 3 Bのコ ンパイナ 4 4 によってオーディオ 信号を S D I 規格のビデオ信号に重畳し得るよ う に所定の信号 形式に信号変換を行う回路であり、 加算回路 5 8 0及び 5 8 P から供給されたシ リ アルのオーディオ信号を合成した後に所定 の信号形式、 すなわちパラ レルのェンべデッ ドオーディォ信号 に信号変換を行う。 この処理によ り得られたェンべデッ ドォー ディォ信号 S 3 3は、 上述したよ う にマ ト リ クススィ ッチャ部 3 Bのコ ンパイナ 4 4に送出される。
エンコーダ 5 9 Bは D S Pフォーマツ トのオーディオ信号を A E S / E B Uフォーマ ツ トのオーディオ信号にフォーマツ ト 変換する回路であり、 加算回路 5 8 0から出力されたオーディ ォ信号を A E S Z E B Uフォーマ ツ トのオーディオ信号 S 1 7 にフォーマツ ト変換し、音声確認用のスピ一力 1 1 (図 1参照) に送出する。 同様に、 エンコーダ 5 9 Cは D S P フォーマッ ト のオーディオ信号を A E S Z E B Uフォーマ ツ トのオーディオ 信号にフォーマツ ト変換する回路であり、 加算回路 5 8 Pから 出力されたオーディオ信号を A E S / E B Uフォーマツ トのォ 一ディォ信号 S 1 8 にフォーマツ ト変換し、 音声確認用のスピ 一力 1 2 (図 1参照) に送出する。
1 ー 4 . ロ ー力ゾレス ト レージの構成
次にこの項では編集処理装置 3 に接続されるデータ記憶手段 と してロ ーカルス トレージ 8 について説明する。 図 8に示すよ う に、 このローカノレス ト レージ 8 は、 入出力イ ンターフェイ ス と してのデータ入出力プロ ッ ク 6 0 と 、 このローカノレス ト レ一 ジ 8全体の動作を制御するシステムコ ン ト ロールブロ ック 6 1 と、 ビデオデータを記憶するディスクア レイブロ ック 6 2 と、 オーディオデータを記憶するディスクアレイプロ ック 6 3 とを 有している。 尚、 この図 8 には、 1 チャンネル分の入出力ブロ ック及ぴディ スクアレイプロ ック しか書かれていないが、 実際 には、 5チャンネル分の入出力ブロ ック及ぴディスクアレイブ 口 ックカ Sある。
データ入出力プロ ック 6 0 は入力 1 チャンネル、 出力 2チヤ ンネルの構成を有しており 、 システムコン ト ローノレプロ ック 6 1 からの制御信号 S 6 0 に基づいて、 編集処理装置 3 から供給 されたビデオ及びオーディオ信号 S 1 5 にデータ記憶に先立つ て所定の信号処理を施すと共に、 ディスクア レイプロ ック 6 2、 6 3 から読み出したデータに所定の信号処理を施してビデオ及 びオーディオ信号 S 1 3 A〜 S 1 3 E と して出力する。
具体的に説明する と、 まず編集処理装置 3 から供給されたビ デォ及びオーディオ信号 S 1 5 はエンコーダ 6 O Aに入力され る。 エンコーダ 6 0 Aは S D I 規格のビデオ及びオーディオ信 号 S 1 5 から ビデオ信号 S 6 1 とオーディオ信号 S 6 2 を抽出 し、 当該ビデオ信号 S 6 1 をビデオ圧縮回路 6 0 Bに出力する と共に、 オーディオ信号 S 6 2 をオーディオ圧縮回路 6 0 J に 出力する。 ビデオ圧縮回路 6 0 Bは、 圧縮率 1 / 10の M P E G規 格でビデオ信号 S 6 1 を圧縮し、 その圧縮したビデオデータを バッファメ モ リ 6 O Cに格納する。 同様に、 オーディオ圧縮回 路 6 0 J は、 所定の音声圧縮方式を用いてオーディ オ信号 S 6 2 を圧縮し、 その圧縮したオーディオデータをバッファメ モ リ 6 O Kに格納する。 ノくッファメ モ リ 6 O C、 6 O Kに格納され たビデオデータとオーディオデータは、 システム コ ン トロール ブロ ック 6 1 の制御の基に順次読み出され、 ビデオデータ用の ディスクアレイプロ ック 6 2 とオーディオ用のディスクアレイ ブロ ック 6 3 にそれぞれ記録される。
一方、 再生第 1 チャンネルのビデオデータ と してディスクァ レイブロ ック 6 2から読み出されたビデオデータは、 システム コ ン ト ロールブロ ック 6 1 の制御の基に、 順次バッ ファメモ リ 6 0 Fに格納される。 同様に、 再生第 1 チャンネルのオーディ ォデータと してディスクア レイブロ ック 6 3から読み出された オーディオデータは、 システムコ ン トロールプロ ック 6 1 の制 御の基に、 順次バッファメモリ 6 0 Mに格納される。 第 1 のビ デォ伸長回路 6 0 Fは、圧縮率 1 / 10の M P E G規格で圧縮され ているビデオデータをバッファメ モ リ 6 0 Fから読み出し、 当 該ビデオデータを伸長処理した後、 そのビデオデータ S 6 3 を 第 1 のデコーダ 6 0 Dに出力する。 同様に、 第 1 のオーディオ 伸長回路 6 0 Lは、 圧縮されているオーディオデータをバッフ ァメ モ リ 6 O Mから読み出し、 当該オーディオデータを伸長処 理した後、 そのオーディオデータ S 6 4を第 1 のデコーダ 6 0 Dに出力する。 第 1 のデコーダ 6 O Dは S D I 規格のフォーマ ッ トに基づいてビデオデータ S 6 3 にオーディオデータ S 6 4 を重畳する。 これによりディスクア レイプロ ック 6 2から読み 出した再生第 1 チャンネルのビデオデータ とディスクア レイブ 口 ック 6 3から読み出した再生第 1 チャンネルのオーディオデ ータを S D I 規格のビデオ及びオーディオ信号 S 1 3 Aと して 送出し得る。
同様に、 再生第 2チャンネルのビデオデータ と してディスク ア レイプロ ック 6 2から読み出されたビデオデータは、 システ ムコ ン ト ロ ーノレブロ ック 6 1 の制御の基に、 I噴次ノくッ ファメ モ リ 6 0 I に格納される。 また再生第 2チャンネルのオーディオ データと してディスクア レイブロ ック 6 3から読み出されたォ 一ディォデータも、 システムコ ン ト ロールブロ ック 6 1 の制御 の基に、 順次バッファメモリ 6 0 Pに格納される。 第 2のビデ ォ伸長回路 6 0 Hは、圧縮率 1/10の M P E G規格で圧縮されて いるビデオデータをバッファメ モ リ 6 0 I から読み出し、 当該 ビデオデータを伸長処理した後、 そのビデオデータ S 6 5を第 2のデコーダ 6 0 Gに出力する。 同様に、 第 2のオーディオ伸 長回路 6 O Nも、 圧縮されているオーディオデータをバッファ メモ リ 6 0 Pから読み出し、 当該オーディオデータを伸長処理 した後、 そのオーディオデータ S 6 6を第 2のデコーダ 6 0 G に出力する。 第 2のデコーダ 6 0 Gは S D I 規格のフォーマツ トに基づいてビデオデータ S 6 5 にオーディオデータ S 6 6を 重畳する。 これによ りディスクア レイブロ ック 6 2から読み出 した再生第 2チャンネルのビデオデータとディスクア レイプロ ック 6 3から読み出した再生第 2チャンネルのオーディオデー タを S D I 規格のビデオ及びオーディオ信号 S 1 4 と して送出 し得る。
システムコ ン ト ロールブロ ック 6 1 は、 このロ ーカノレス ト レ ージ 8の全体を制御するブロ ックであり、 C P U 6 1 Aと、 D IVlAコ ン ト ロ 一フ (Direct Memory Access controller j 6 1 B、 6 1 C と 、 S C S I プロ ト コルコ ン ト ローラ 6 1 D、 6 1 E と、 制御信号 S 1 2の入力イ ンターフェイ ス 6 1 F とを有し ている。 C P U 6 1 Aはシステムコ ン ト ロールブロ ッ ク 6 1 の 中心的存在である制御回路を構成しており、 編集処理装置 3か ら R S — 4 2 2の通信プロ トコルで送られてく る制御信号 S 1 2を入力イ ンターフェイ ス 6 1 Fを介して受け、 その制御信号 S 1 2が示す制御コマン ドに基づいて、 DMAコン トローラ 6 1 B、 6 1 Cと S C S I プロ トコルコン トローラ 6 1 D、 6 1 Eの動作を制御する。 また C P U 6 1 Aは上述したように制御 信号 S 6 0を生成してデータ入出力ブロ ック 6 0に出力するこ とによ り 当該データ入出力プロ ック 6 0の動作を制御する。
さらに C P U 6 1 Aは、 ディスクア レイプロ ック 6 2及び 6 3の記録ァ ドレスを、 記録されるデータのタイムコー ドと共に 管理しており、 これによ り タイムコー ドを基準にしてそのタイ ムコー ドが示すデータの記録ァ ドレスを容易に検索し得るよ う になされている。 具体的には、 C P U 6 1 Aは、 ディスクァレ イブロ ック 6 2にフ レーム単位で記録されるビデオデータの全 記録ア ドレス と 、 記録されるフ レームの全タイ ムコー ドとを対 応付けた対応表を内蔵メ モ リ に記憶している。 同様に、 C P U 6 1 Aは、 ディ スク ア レイ ブロ ッ ク 6 3 にフ レーム単位で記録 されるオーディオデータの全記録ァ ドレス と 、 記録される フ レ 一ムの全タイムコー ドとを対応付けた対応表を内蔵メモリ に記 憶している。 従って外部からタイムコー ドを指定しさえすれば、 対応表を参照して記録ァ ド レスを容易に探し出すこ とができ、 ビデオデータ及びオーディオデータを速やかに再生することが でき る。
ビデオ系の DMAコン トローラ 6 1 Bは、 C P U 6 1 Aから のコマン ドに応じて、 データ記録時にはデータ入出力プロ ック 6 0のバッファメ モ リ 6 0 Cからビデオデータを読み出し、 デ ータ再生時にはデータ入出力プロ ック 6 0 のバッファメ モ リ 6 0 F、 6 0 I にビデオデータを書き込む。 また.ビデオ系の S C S I プロ トコルコン トローラ 6 1 Dは、 データ記録時、 C P U 6 1 A力 らのコマン ドと、 DMAコン トローラ 6 1 B力 ら受け 取ったフ レーム単位のビデオデータ と、 そのビデオデータのフ レームに付与されているタイ ムコー ドとを S C S I フォーマツ トのデータ S 6 7 に変換してビデオデータ用のディ スクア レイ ブロ ック 6 2 に送出し、 ビデオデータの記録を当該ディスクァ レイブロ ック 6 2 に指示する。 また S C S I プロ ト コルコ ン ト ローラ 6 1 Dは、 データ再生時、 ディスクア レイブロ ック 6 2 から再生された S C S I フォーマツ トのビデオデータ S 6 7を 受け取り 、 これを元のデータ形式に変換して DMAコ ン ト ロー ラ 6 1 Bに送出する。
同様に、 オーディオ系の DMAコン トローラ 6 1 Cは、 C P U 6 1 Aからのコマン ドに応じて、 データ記録時にはデータ入 出力ブロ ック 6 0 のノくッ ファ メ モ リ 6 0 Kからオーディオデー タを読み出し、 データ再生時にはデータ入出力ブロ ック 6 0の バッファメ モ リ 6 O M、 6 0 P にオーディオデータを書き込む c またオーディオ系の S C S I プロ ト コルコン トローラ 6 1 Eは データ記録時、 C P U 6 1 A力、らのコマン ドと、 D MAコン ト ローラ 6 1 Cから受け取ったフ レーム単位のオーディオデータ と、 そのオーディオデータのフ レームに付与されているタイム コー ドとを S C S I フォーマツ 卜のデータ S 6 8 に変換してォ 一ディォデータ用のディスク ア レイプロ ック 6 3 に送出し、 ォ —ディォデータの記録を当該ディ スクア レイプロ ック 6 3 に指 示する。 また S C S I プロ ト コルコ ン ト ローラ 6 1 Eは、 デー
4 フ タ再生時、 ディスクア レイブロ ック 6 3から再生された S C S I フォーマツ トのオーディオデータ S 6 8 を受け取り、 これを 元のデータ形式に変換して DMAコン トローラ 6 1 Cに送出す る。
ビデオデータ用のディスクア レイブロ ック 6 2及びオーディ ォデータ用のディスクアレイブロ ック 6 3 は、 それぞれ内部に 複数のハー ドディスクを有したディスクアレイ装置からなり、 その複数のバー ドディスクを並列的に同時運転してビデオデー タゃオーディオデータを記録するよ うになされている。 またデ イ スクア レイブロ ック 6 2及び 6 3は、 データを記録するとき に冗長性を持たせて記録するよ うになされており、 これによ り ディスクア レイ装置内のいずれかのハー ドディスクが故障した 場合でも、 故障したハー ドディスクに記録されていたデータを 復旧 (再構築動作と もいう) し得るよ う になされている。 なお、 このよ うなデータの再構築機能を有するディスクアレイ装置は 一般に、 R A I D ( Redandant Array of Inexpensive Disks) と呼ばれている。
ここでこのよ う なディ スクアレイブロ ック 6 2、 6 3 につレヽ て、 以下に図を用いて具体的に説明する。 但し、 ディスクァ レ イブ口 ック 6 2、 6 3 は基本的に同一の構成を有しているので、 ここではディスクアレイブロ ック 6 2についてのみ説明する。 図 9に示すよ うに、 ディスクア レイブロ ック 6 2は、 大きく分 けてバッファメモ リ 6 2 Aと、 ディ スクア レイ コン ト口 一ラ 6 2 B と、 データマルチプレクサ 6 2 Cと、 ノ リティ演算回路 6 2 Dと、 複数の S C S I プロ トコルコン トローラ 6 2 E〜 6 2 I と、 複数のハー ドディスク 6 2 J 〜 6 2 Nとからなっている。 バッファメモ リ 6 2 Aはデータの一時記憶用のメモ リであり 図 8 に示したシステムコン ト ロールブロ ック 6 1 から送出され る S C S I フォーマツ トのデータ S 6 7を順次受け取って記憶 する と共に、 データ再生時には後述するデータマルチプレクサ 6 2 Cから送られてく るデータをデータ送出に伴って一時的に
BQ fe O。
ディスクアレイ コン トローラ 6 2 Bは、 このディスクアレイ ブロ ック 6 2 における記録動作や再生動作等、 ブロ ック全体の 動作を制御する回路である。 このディスクア レイ コン トローラ 6 2 Bは、 バッファメモ リ 6 2 Aに記憶されているデータの う ちシステムコン トロールブロ ック 6 1 からの制御コマン ドに関 するデ一タをコマン ドデータバス 6 2 Pを介して受け取り、 そ の制御コマン ドに対応したコマン ドデータをコマン ドデ一タバ ス 6 2 Pを介してデータマルチプレクサ 6 2 C、 S C S I プロ トコルコン ト ローラ 6 2 E〜 6 2 I 及びハー ドディ スク 6 2 J 〜 6 2 Nに送出するこ と によ り各部の動作を制御する。
データマルチプレクサ 6 2 Cは、 データ記録時、 ビデオデー タ等の記録対象のデータをバッファメモリ 6 2 Aから読み出し て当該データを S C S I プロ トコルコ ン トローラ 6 2 E〜 6 2 Hを介して各ハー ドディ スク 6 2 J 〜 6 2 Mに振り分ける と共 に、 振り分けたデータ内容をパリティ演算回路 6 2 Dに通知す る。 またデータマルチプレクサ 6 2 Cは、 データ再生時、 各ハ — ドディ スク 6 2 J 〜 6 2 Mから再生されたデータを 1 つにま と めてバッファメモリ 6 2 Aに送出する と共に、 ハー ドデイ ス ク 6 2 J 〜 6 2 Mの損傷等によ り再生できなかったデータがあ るのであればパリ ティ演算回路 6 2 Dから供給されるパリ ティ データを基にそのデータを再構築演算によって再生する。
パリティ演算回路 6 2 Pは、 データ記録時、 データマルチプ レクサ 6 2 Cが振り分けたデータ内容に基づいてそれらのデー タのパリ ティデータを演算し、 当該パリティデータを S C S I プロ トコルコ ン トローラ 6 2 I を介してハー ドディスク 6 2 N に供給する。 またパリ ティ演算回路 6 2 Pは、 データ再生時、 ハー ドディ スク 6 2 J 〜 6 2 Mから再生できないデータがある のであれば、 ハー ドディ スク 6 2 Nから再生したパリ ティデー タをデータマルチプレクサ 6 2 Cに送出する。
S C S I プロ トコルコ ン トローラ 6 2 E〜 6 2 I は、 データ 記録時、 データマルチプレクサ 6 2 Cから供給された記録対象 のデータ又はパリティ演算回路 6 2 Pから供給されたパリティ データをハー ドディスク 6 2 J 〜 6 2 Nの記録フォーマツ トに 合ったデータ形式に変換し、 当該変換されたデータをハー ドデ イ スク 6 2 J 〜 6 2 Nに送出する。 また S C S I プロ トコルコ ン トローラ 6 2 E〜 6 2 I は、 データ再生時、 各ハー ドデイ ス ク 6 2 J 〜 6 2 Nから再生されたデータを S C S I フォーマツ トのデータ形式に変換し、 これをデータマルチプレクサ 6 2 C 又はパリ ティ演算回路 6 2 Pに送出する。
S C S I プロ トコルコ ン ト ローラ 6 2 E〜 6 2 I は、 ハー ド ディスク 6 2 J 〜 6 2 Nをアクセス した際に当該ハ一 ドデイ ス ク 6 2 J 〜 6 2 Nの故障等によ りデータ再生ができないこ とが 検出された場合には、 その検出結果をディ スクア レイ コ ン トロ ーラ 6 2 Bに送出するよ う になされており 、 これによ りデイ ス クア レイ コ ン トローラ 6 2 B力 らデ一タマノレチプレクサ 6 2 C にデータ再構築を指示し得る よ う になされている。 ハー ドディスク 6 2 J 〜 6 2 Nは、 ビデオデータ等の記録対 象のデータを分散して並列的に記録するためのデータ記憶手段 である。 この例では、 4つのハー ドディスク 6 2 J 〜 6 2 Mを 設けてデータを分散するよ うになっているが、 この数は特に限 定されるものではない。 このハードディスク 6 2 J 〜 6 2 Mは、 データ記録時、 S C S I プロ トコルコン トローラ 6 2 E〜 6 2 Hから供給されるデータを順次所望の記録エリアに記録すると 共に、 データ再生時にはデータを順次読み出して S C S I プロ トコルコン トローラ 6 2 E〜 6 2 Hに送出する。 このよ う に複 数のハー ドディスク 6 2 J 〜 6 2 Mを設けてデータを分散して 記録するよ うにしたことによ り、 このディスクア レイブロ ック 6 2ではビデオデータ等のよ うな大容量のデータであっても確 実に記録することができる。
またハー ドディスク 6 2 Nは、 記録対象のデータを基に算出 したパリティデータを記録するためのデータ記憶手段である。 このノヽー ドディスク 6 2 Nは、 データ記録時、 S C S I プロ ト コルコン トローラ 6 2 I 力、ら供給されるパリティデータを順次 所望の記録エリアに記録する と共に、 データ再生時にはパリテ ィデータを順次読み出して S C S I プロ トコルコン トローラ 6 2 I に送出する。 このよ う に記録対象のデータを基に算出した パリティデータを、 当該記録対象のデータを記録するハ一 ドデ イスク 6 2 J 〜 6 2 Mとは別のハードディスク 6 2 Nに記録す るよう にしたことによ り 、 故障等によってハー ドディスク 6 2 J 〜 6 2 Mからデータを再生できない場合でも、 当該パリティ データを基にデータを再構築することができる。
ここでこのデータ再構築の原理について説明する。 まずデー タマルチプレクサ 6 2 Cによって割り振られたデータのうちハ ー ドディスク 6 2 J に割り振られたデータを D 0、 ハー ドディ スク 6 2 Kに割り振られたデータを D l 、 ハー ドディスク 6 2 Lに割り振られたデータを D 2、 ハー ドディスク 6 2 Mに割り 振られたデータを D 3 と し、 パリティ演算回路 6 2 Pによって 算出されたパリティデータを P Dとする。
パリティ演算回路 6 2 P内部には、 図 1 O Aに示すよ うな論 理演算手段 7 0が設けられており、 当該論理演算手段 7 0によ つてパリティデータを算出するよ うになされている。 この論理 演算手段 7 0は、 ハー ドディスク 6 2 J に割り振られたデータ D O と、 ハー ドディスク 6 2 Kに割り振られたデータ D 1 と、 ハー ドディスク 6 2 Lに割り振られたデータ D 2 と、 ハー ドデ イスク 6 2 Mに割り振られたデータ D 3 とを加算し、 その加算 結果が偶数であれば値 「 1 」 のパリティデータ P Dを出力し、 加算結果が奇数であれば値 「 0」 のパリティデータを出力する。 加算結果が 「 0」 である場合には、 偶数と見なして値 「 1 」 の パリティデータ P Dを出力する。
具体的には、 図 1 0 Bに示すよ うに、 例えばデータ D 0〜 D 3が全て値 「 0」 の場合には、 論理演算手段 7 0は加算結果が 「 0」 となるので値 「 1 」 なるパリティデータ P Dを出力し、 データ D 0〜 D 2が値 「 0」 でデータ D 3が値 「 1 」 の場合に は、 加算結果が 「 1 」 となるので値 「 0」 なるパリティデータ P Dを出力する。 以下、 同様の原理でその他のデータの組み合 わせについても、 図 1 0 Bの図表のよ う なパリティデータ P D を出力する。 このよ う に算出されたパリティデータ P Dは、 上 述したよ うに S C S I プロ トコルコン ト ローラ 6 2 I を介して ハー ドディスク 6 2 Nに記録される。
こ こで再生時にハードディスク 6 2 Lの故障で当該ハ一ドデ イ スク 6 2 Lに記録されているデータ D 2が再生できなかった とすると、 ディスクア レイ コ ン ト ローラ 6 2 Bは、 S C S I プ ロ トコルコン トローラ 6 2 Gからの再生不可の検出結果を受け て、 データマルチプレクサ 6 2 Cにパリティデータによるデー タ再構築を指示する。 これを受けたデータマルチプレクサ 6 2 Cは、 図 1 1 Aに示すよ う に、 内部に設けられた論理演算手段 7 1 に対してハー ドディスク 6 2 Jから再生されたデータ D O , ハー ドディスク 6 2 Kから再生されたデータ D 1 、 ハードディ スク 6 2 Mから再生されたデータ D 3及びハードディスク 6 2 Nから再生されたパリティデータ P Dを入力し、 当該論理演算 手段 7 1 によってデータ D 2の再構築のための演算を実行する c この論理演算手段 7 1 は、 ノ、。リティデータ P Dを算出する論理 演算手段 7 0 と同様に、 入力されるデータ D O 、 D l 、 D 3及 びパリティデータ P Dを加算し、 その加算結果が偶数であれば 値 「 1 」 の再構築データ (D 2 ) を出力し、 加算結果が奇数で あれば値 「 0」 の再構築データ (D 2 ) を出力する。
具体的には、 図 1 1 Aに示すよ う に、 例えばデータ D 0 、 D 1 、 D 3が値 「 0」 でパリティデータ P Dが値 「 1 」 の場合に は、 論理演算手段 7 1 は加算結果が 「 1 」 となるので値 「 0 J なる再構築データ (D 2 ) を出力し、 データ D O 、 D l 、 P D が値 「 0」 でデ一タ D 3が値 「 1 」 の場合には、 加算結果が同 じく 「 1 」 となるので値 「 0」 なる再構築データ (D 2 ) を出 力する。 以下、 同様の原理でその他のデータ の組み合わせにつ いても、 図 1 1 Bの図表のよ うな再構築データ (D 2 ) を出力 する。 この図 1 I B と先の図 1 O Bを対比させれば分かる よ う に、 ハー ドディスク 6 2 Lの故障によ り再生できなかったデ一 タ D 2が正確に復元できている。
このよ う にしてこのディ スクアレイブロ ック 6 2 では、 デー タ記録時、 記録対象のデータ D O 〜 D 3 を基にパリ ティデータ P Dを算出してハー ドディ スク 6 2 Nに当該パリ ティデータ P Dを記録するよ う にしたこ と によ り 、 データ再生時にハー ドデ イ スク 6 2 J 、 6 2 K、 6 2 L又は 6 2 Μの故障によ りデータ D 0 、 D 1 、 D 2又は D 3 が再生できなかった場合でも、 当該 パリティデータ P Dを基に再生できなかったデータ D 0 、 D 1 、 D 2又は D 3 を確実に復元し得る。
2 . グラ フ ィ ッ クユーザイ ンターフ ェースの構成
2 - 1 . 本実施例の編集装置 1 においては、 まずコ ンビユー タ 2によ り編集用のアプリ ケーショ ンソフ ト ウエアを、 コンビ ユータ內部のハー ドディ スク H D Dよ り 読み出 して起動するこ とによって、 モニタ 2 B上に図 1 2 に示すよ う な編集用のダラ フイ カノレユーザィ ンタ一フェース 9 0 を表示させる。
編集処理を行な う ためのグラフィカルユーザイ ンターフエ一 ス 9 0 は、 ビューァウィ ン ドウ 9 2、 ログウィ ン ドウ 9 3及び プロ グラムウィ ン ドウ 9 4 の 3つのウィ ン ドウから構成され、 これら 3 つのウィ ン ドウを使用 して編集操作を行な う。
ビューァ ウィ ン ドウ 9 2 は、 選択されたソースデバイスから 再生されたビデオイ メージをビューイ ングしながら、 そのソー スデバイ スから再生された編集素材に対してイ ン点及びァゥ ト 点を設定するためのウィ ン ドウである。 ロ グウィ ン ドウ 9 3 は、 イ ン点及びアウ ト点の指定によって生成されたイベン トを 表わすク リ ップカー ド (スタンプピクチャ) を登録するための ウィ ン ドウである。 プロ グラムウィ ン ドウ 9 4 は、 イ ン点及 びァゥ ト点が指定されたイベン トを、 タイ ムライ ンに並べる こ とによって、 所望のプロ グラムを作成するためのウィ ン ドウで ある。
大まかな編集方法と しては、 ビューァウイ ン ドウ 9 2 におい てイ ン点及びァゥ ト点を指定する こ とでィベン トを生成する。 そして、 ロ グウィ ン ドウ 9 3 にその作成したイベン トをク リ ッ プカー ドと して表示する。 このよ う な作業を繰り返すこ とによ つてロ グウィ ン ドウ 9 3 上に複数のィベン トを表わすク リ ップ カー ドが表示される。
次に、 ロ グウィ ン ドウ 9 3 に登録されたイベン ト の中から所 望のィベン トを ドラ ッグアン ド ドロ ップを使用 して、 プロ ダラ ムウィ ン ドウ 9 4 のタイムライ ン 9 5 に並べてる こ とによって . プログラムを作成する こ とができる。 また、 このタイムライ ン 上で、 タイ ムライ ン 9 5 上に並べられたイベン トに対してァニ メーシヨ ンエフェク ト又は トランジシヨ ンエフェク ト等ビデオ エフェク トを設定する こ とができる。
2 - 2 . ビューァウィ ン ドウの構成
ビューァ ウィ ン ドウ 9 2 は、 ソースデバイ スを選択し、 選択 されたソースデバイスから再生されたビデオイ メージをビュー イ ングしなが ら、 そのソースデバイスから再生された編集素材 に対してイ ン点及びァゥ ト点を設定するためのウィ ン ドウであ る。 図 1 3 に示すよ う に、 ビューァウィ ン ドウ 9 2は、 ソースデ バイスから再生されたビデオイメージをビューイ ングする ビュ ーァ 1 0 6 と、 選択されたソースデバイスをコン ト ロールする ためのデバイ スコ ン ト ロ ール部 9 6 と、 ビューァウィ ン ドウ 9 2 に表示されている素材に対して、 イ ン点を指定するためのマ 一クイ ンボタン 1 1 5 と、 マークイ ンボタン 1 1 5 のク リ ック によって指定されたイ ン点のスタンプ画像を表示するイ ン点画 像表示部 1 1 0 と、 ビューァウィ ン ドウ 9 2 に表示されている 素材に対して、 ァゥ ト点を指定するためのマークァ ゥ トボタン 1 1 6 と、 マークアウ トボタン 1 1 6 のク リ ック によって指定 されたァゥ ト点のスタンプ画像を表示するァゥ ト点画像表示部 1 1 2有してレヽる。
ビューァウィ ン ドウ 9 2 は、 イ ン点画像表示部 1 1 0 に表示 されているスタンプ画像のタイ ムコー ドつま りィ ン点のタイム コー ドを表示するためのイ ン点タイムコー ド表示欄 1 1 1 と、 アウ ト点画像表示部 1 1 2 に表示されているスタンプ画像のタ ィムコ一 ドつま り ァゥ ト点のタイ ムコー ドを表示するためのァ ゥ ト点タイ ムコー ド表示欄 1 1 3 と、 イ ン点とァ ゥ ト点のマー キングによって生成されたィベン トの期間(Duration)を表示す るための欄であって、 イ ン点のタイムコー ド及びァ ゥ ト点のタ ィムコ一 ドに基いて演算されたタイ ムコー ドが表示される D U R表示欄 1 1 4 と を有している。
さ らに、 ビューァウィ ン ドウ 9 2 は、 デイ リ ーサーバ 6 、 V T R 7、 ローカルス ト レージ 8 、 補助入力部 A U X及び内部入 力 I N Tの各ソースデバイ スを任意の選択するためのソース選 択ボタン 1 0 2 ( 1 0 2 A〜 1 0 2 E ) を有している。 編集ォ ペレータが、 これらのいずれかのソース選択ボタンをク リ ック するこ と によ り 、 デイ リ ーサーバ 6 、 V T R 7.、 ローカルス ト レージ 8 、 補助入力部 A U X及ぴ内部入力 I N Tのいずれかを ソースデバイ スと して選択するこ とができる。
補助入力部 AU Xは複数のソースを有する もので、 現在、 補 助入力部 A U X と して設定されている補助入力部 (A U X 1 〜 A U X n ) 内のいずれかの入力部名がソース選択ボタン 1 0 2 Dに表示される。
デバイス コ ン ト ロール部 9 6は、 スライ ダ(Slider)部 1 2 0 及びジョ グシャ トル部 1 2 1 とを有している。 スライダ部 1 2 0 を操作する こ とによって、 イベン トの長さを示すデュレーシ ヨ ン表示部 1 2 O Aの範囲内においてスライ ダ 1 2 0 Bの表示 される位置によって、 現在、 再生中のファイルの現在位置を表 すと共に、 当該スライダ 1 2 0 Bをマウス 2 Dによってデュレ ーシヨ ン表示部 1 2 O Aの任意の位置にスライ ドするこ とによ つてファイルの所望の位置をサーチするこ とができる。 矢印ボ タン 1 2 0 C又は 1 2 0 Dをク リ ックする こ と によ り 、 フアイ ルの位置をそれぞれ ± 1 フ レームずつ前後に移動させる こ とが できるよ う になされている。
ジョ グシャ トル部 1 2 1 は、 1倍速再生を指示する再生ボタ ン 1 1 9 Aと、 スチル再生を指示するスチルボタン 1 1 9 B と、 シャ トル再生するシャ トルモー ドを指示するシャ トルボタン 1 2 1 Aと、 このシャ トルモ一 ドにおいてデバイ スのサーチ速度 を一 50 倍速から + 50 倍速範囲で可変にするためのボタン 1 2 1 B又は 1 2 1 C とを有している。
ビューァウィ ン ドウ 9 2は、 さ らに、 選択された編集素材名
5 フ が表示される素材名欄 1 0 7 と、 ビューァ 1 0 6 に表示されて いる映像フ レームのタイムコー ドが表示される.タイ ムコー ド表 示欄 1 0 8 と、 ビューァウィ ン ドウ 9 2 の状況 (ステイ タ ス) を表示するためのステイ タス欄 1 0 9 とを有している。
タイムコー ド表示欄 1 0 8 をク リ ックするこ と によ り 、 当該 タイムコー ド表示欄 1 0 8 を入力モー ドに設定する こ とができ ここでタイムコー ド表示欄 1 0 8 に素材の所望の位置のタイム コー ドを入力してエンターキーを入力する こ と によ り 、 素材の 所望の位置をタイムコー ドに応じて探し出す (サーチ) こ とが できる。
また、 ステイ タス欄 1 0 9 のステイ タス表示が 「 O P E N」 となる と、 デバイスコ ン ト ロ ール部 9 6 によるデバイスコ ン ト ロールによって選択された素材に対するデバイスコ ン ト ロール が実行可能な状態に設定されている こ と を示す。
さ らに、 ステイ タ ス欄 1 0 9 にテンキー入力によ り再生速度 を入力する と、 当該再生速度でデバイスを再生モー ドに設定す る こ とができる。 このと き再生中の素材の所望位置において、 マークイ ンボタン 1 1 5 をク リ ック入力する こ と によ り 、 その 位置にイ ン点が設定される と共に、 スタ ンプ画と タイムコー ド が取り込まれてそれぞれイ ン点画像表示部 1 1 0 とイ ン点タイ ムコー ド表示欄 1 1 1 と に表示される。 さ らに選択された素材 のサーを行ない、 マークァ ゥ トポタン 1 1 6 をク リ ック入力す る こ と によ り 、 その位置にア ウ ト点が設定される と共に、 スタ ンプ画と タイ ムコー ドが取 り 込まれてそれぞれァゥ ト点画像表 示部 1 1 2 とァゥ ト点タイ ムコー ド表示欄 1 1 3 と に表示され る。 また、 イ ン点タイムコー ド表示欄 1 1 1 をク リ ッ クするこ と によってイ ン点タイムコー ド表示欄 1 1 1 をタイムコー ドの入 力モー ドにかえるこ とができ、 このときイ ン点タイ ムコー ド表 示欄 1 1 1 に目的のタイムコー ド値をテンキー入力するこ と に よ り入力タイムコー ドに対応する素材データの画像をイ ン点画 像と して読み出し、 イ ン点画像表示部 1 1 0 に表示させるこ と もできる。 同様にしてァゥ ト点タイムコー ド表示欄 1 1 3 をク リ ックするこ とによってァゥ ト点タイムコー ド表示欄 1 1 3 を タイムコー ドの入力モー ドにかえるこ とができ、 このときァゥ ト点タイムコー ド表示欄 1 1 3 に目的のタイ ムコー ド値をテン キー入力するこ とによ り入力タイムコー ドに対応する素材デー タの画像をアウ ト点画像と して読み出し、 ア ウ ト点画像表示部 1 1 2に表示させるこ と もできる。 またビューァウィ ン ドウ 9 2は、 イ ン点とアウ ト点によって規定された編集素材を、 ィ ベン ト と して登録する前に、 イ ン点からァ ゥ ト点の素材をプレ ビューするためのプレビューボタン 1 1 7 と 、 そしてその設定 状態でビューァウィ ン ドウ 9 2 においてイ ン点及びァゥ ト点を が設定された素材をィベン ト と して登録するための A D Dボタ ン 1 2 2 Aと、 イベン トを登録する際のエン ト リ ーモー ドと し て、 イベン トをログウィ ン ドウ 9 3 にク リ ップカー ドをして登 録するログモー ドを選択する ロ グボタン 1 2 2 B、 イベン トを 登録する際のエン ト リ ーモー ドと して、 タイ ムライ ン 9 5 にィ ベン トを登録するタイ ムライ ンモ一 ドを選択するタイ ムライ ン ボタン 1 2 2 C と を有してレ、る。
2 - 3 . ロ グウィ ン ドウの構成 ログウィ ン ドウ 9 3 は、 ビュアーウィ ン ドウ 9 2 において登 録されたイベン トをク リ ップカー ド 1 7 9 と して格納しておく ためのデータべ一スウイ ン ドウである。
このロ グウィ ン ドウは、 複数のク リ ップカー ドを表示するた めのク リ ップカー ド表示エ リ アと、 ダイ レク トエン ト リ ーボタ ン 1 8 0 と、 シーンチェンジボタン 1 7 8 Aと、 リ コールボタ ン 1 7 8 C と、 ソー トボタン 1 7 8 D、 デリ ー トボタン 1 7 8 E、 ダウンロー ドボタン 1 7 8 B とを有している。
ダイ レク トエン ト リーボタン 1 7 8 Cは、 ログウィ ン ドウに 格納されているク リ ップカー ド 1 7 9 をタイムライ ン上に自動 的に並べるダイ レク トェン ト リーモー ドを設定するためのボタ ンである。 このダイ レク トエン ト リ一モー ドとは、 ロ グウィ ン ドウ 9 3 に表示されているク リ ップカー ド 1 7 9 を、 ドラ ッグ アン ド ドロ ップせずにク リ ックするだけで、 タイムライン上に 並べる こ とができるモー ドである。 具体的には、 後述する。
シーンチェンジボタン 1 7 8 Cは、 このロ グウィ ン ドウ 9 3 にク リ ップカー ド 1 Ί 9 と して格納されるィベン トに対して、 一連のク リ ップ名を付けたい場合に使用するボタンである。 こ のシーンチェンジボタン 1 7 8 Cがク リ ック される と、 シーン 名設定ダイアログがオープンする。 このシーンの設定方法につ いては後述する。
リ コールボタン 1 7 8 Cは、 ク リ ックするこ とによ り ク リ ツ プ名等をも とにク リ ップカー ド 1 7 9 を検索するボタンであつ つて、 ソー トボタン 1 7 8 Dはク リ ックするこ とによ り ク リ ツ プカー ド 1 7 9 を降順又は昇順に並べ替えするボタンであって、 さ らにデリ ー トボタン 1 7 8 Eはク リ ックするこ と によって口 グウィ ン ドウ 9 3 上に登録したク リ ップカー ド 1 7 9 の削除を 設定するボタンである。
さ らにダウンロー ドボタン 1 7 8 Bは、 選択されたク リ ップ カー ド 1 7 9 をローカルス ト レージ 8 へのダウンロー ドを指示 するためのボタンである。
このロ グウィン ドウ 9 3 に登録されたク リ ップカー ド 1 7 9 を表示するための表示形式と して、 図 1 5 A〜図 1 5 Cに示す よ う に、 3つのク リ ップカー ド表示形式が存在する。
図 1 5 Aに示すよ う な第 1 のク リ ップカー ド表示形式は、 ク リ ップ名、 イ ン点のスタンプピクチャ及びイベン トのデュ レー シヨ ンを表示する形式である。 図 1 5 Bに示すよ う な第 2のク リ ップカー ド表示形式は、 ク リ ップ名、 イベン トデュ レーショ ン、 イ ン点及びァゥ ト点のタイムコー ド及ぴイ ン点及びァゥ ト 点のスタンプピク チャを表示する形式である。 図 1 5 Cに示す よ う な第 3 のク リ ップ力一 ド表示形式は、 ク リ ップ名、 ィベン トデュ レーショ ン、 ィ ン点のスタンプピクチャ及びィベン トに 関する情報を記載したテキス トを表示するテキス ト表示欄を表 示する形式である。
編集オペレータによって、 これらの 3つのク リ ップカー ド表 示形式の中から所望のク リ ップカー ド表示形式が選択され、 こ のログウィ ン ドウ 9 3 にイベン トをク リ ップカー ドと して格納 する場合には、 その選択されク リ ップカー ド表示形式となるよ う にク リ ップカー ドが表示される。
2 - 4 . プログラムウィ ン ドウの構成
プログラムウィ ン ドウ 9 4 は、 ビューァウィ ン ドウ 9 2 にお いてィ ン点とァゥ ト点が指定された素材及び口 グウイ ン ドウ 9 3 に格納されているク リ ップカー ド 1 7 9 を、 .タイムライ ン上 にイベン ト と して並べるこ と によって、 プロ グラム リ ス ト ( E D ) を作成するためのウィ ン ドウである。
図 1 6及び図 1 7に示すよ う にプログラムウィ ン ドウは、 ビ デォ及ぴオーディオを貼り付ける複数のライ ンによ り構成され ているタイムライ ン 9 5 を有している。 このタイ ムライ ン 9 5 は、 ベースビデオライ ン(Base Video Line) 1 3 2 A s ベース オーディオライ ン 1 3 2 B、 サブオーディオライ ン 1 3 4 、 ビ エフェク トライ ン 1 3 5 と、 オーバレイ ライ ン(Over lay Line) 1 3 6 と 、 D S Kライ ン 1 3 7 と、 ボイ スオーバライ ン 1 3 8 A、 1 3 8 B と力、ら構成される。
ベースビデオラィ ン(Base Video Line) 1 3 2 Aは、 ベース と なるベースビデオを貼るためのライ ンであって、 ベースオーデ ィォライ ン 1 3 2 Bは、 ベースビデオに関連するベースオーデ ィォを貼るためのライ ンである。 このベース ビデオライ ン 1 3 8 Aとべ一スォ一ディ オライ ン 1 3 8 Bは、 常に リ ンク してお り 、 同じ素材が使用される。
オーバ レイ ライ ン (Overlay Line) 1 3 6 は、 2 つの映像を合 成するよ う なアニメーシ ョ ンエフェク トを設定した場合に使用 するライ ンであって、 ベース ビデオに対してオーバ レイ させる ビデオを貼るためのライ ンである。 サブオーディ オライ ン 1 3 4 は、 オーバレイ ライ ン 1 3 6 に貼られたオーバレイ ビデオの オーディ オを設定するためのライ ンである。 このオーバレイ ラ イ ン 1 3 6 とサブオーディ オライ ン 1 3 8 Bは、 常にリ ンク し ており 、 同 じ素材が使用 される。 エフエタ トライ ン 1 3 5 は、 ビデオェフエタ トを設定するた めのライ ンである。 このエフェク トライ ン 1 3 5の使い方につ いては後述する。
D S Kライ ン 1 3 7は、 タイ トルや文字スーパの合成等に使 用されるダウンス ト リームキー( Down Stream Key) を設定する ためのライ ンである。
ボイスオーバライン 1 3 8 A及び 1 3 8 Bは、 ベースオーデ ィォに対して、 アナゥンサ等の声 (Vo i ce ) を合成するためのラ イ ンである。
タイムライ ン 9 5 に表示されるイベン ト及び設定されたエフ エタ トは各ライン毎に異なった色に設定されている。 例えば、 ビデオイベン トは青、 オーディオイベン トは黄色、 エフヱク ト ィベン トはピンク色、 D S Kィベン トは緑色によって表示され る。
またタイ ムライ ン 9 5 は、 タイムライ ン上におけるカ レン ト タイム又はカ レン ト位置を表わすナウライ ン 1 3 9 を有してい る。 タイ ムライ ン 9 5 上のイ ベン ト をプレビューするプレビュ 一モー ドのときには、 ビューァウィ ン ドウ 9 2 に画面表示され る ビデオフ レームと連動して、 ナウライ ン 1 3 9 がタイムライ ン上を右に移動する。
ナウライ ン 1 3 9 はタイ ムライ ン 9 5が表示されている と き は、 当該タイムライ ン 9 5 上に常時表示されるよ う になされて おり 、 通常は灰色表示され、 プレビュー又は再生実行中には赤 色に色別表示される。 このよ う にナウライ ン 1 3 9 をプレビュ 一又は再生実行中とで色別表示するよ う にしたこ と によ り 、 現 在、 ナウライ ン 1 3 9 によって示されるタイ ムコー ド位置に対 応する映像ク リ ップがビューァウィ ン ドウ 9 2 に画面表示され ているものであるか否かを視覚によ り容易に識別し得る。
図 1 6 に示すよ う にナウライ ン 1 3 9 は、 タイムライ ン 9 5 の上部に表示される入力ツール 1 4 0 によって簡易にタイムラ イ ン 9 5上の所望の位置へ移動させる こ とができる よ う になさ れている。 プログラムウィ ン ドウ 9 4 には、 入力ツール 1 4 0 と してナウライ ン 1 3 9 をタイムライ ン 9 5 の先頭に移動させ るヘッ ドボタン 1 4 1 、 ナウライ ン 1 3 9 をタイムライ ン 9 5 上の最後尾のイベン トに直後に移動させるテールボタン 1 4 2、 ナウライ ン 1 3 9 を現在位置するィベン トの一つ前のィベン ト に移動させる前ボタン 1 4 3 、 ナウライ ン 1 3 9 を現在位置す るィベン トの一つ後のィベン トに移動させる次ボタン 1 4 4 、 ナウライ ン 1 3 9 をタイムライ ン 9 5上の所定の位置に移動し スライ ダ 1 4 6が設けられている。
またタイムライ ン 9 5 には、 ナウライ ン 1 3 9のタイムライ ン上の現在位置を表示するためのカ ウン トタイ ム表示欄 1 5 2 が設けられている。
また、 タイ ムライ ン 9 5 上には、 タイムコー ドに対応した目 盛り を表すスケールライ ン 1 4 7 ( Sca l e L i n e ) が設けられて いる。 このスケールライ ン 1 4 7のスケール幅は、 タイムライ ン 9 5 に貼り付けられるイベン トの長さ、 及びタイ ムライ ン上 で作成されるプロ グラムの長さに応じて任意に変更できる。
図 1 7 に示すよ う に、 プロ グラムウィ ン ドウ 9 4 には、 G U I ツールと してタイムライ ン 9 5 に設定される時間又は、 スケ ールライ ン 1 4 7 の一目盛り が示す時間を調整するためのズー ムァ ゥ トボタン 1 5 0及ぴズームイ ンボタン 1 5 1 が設けられ ている。 ズームアウ トボタン 1 5 0は、 プログラム ウィ ン ドウ 9 4の 1 画面で表示できるタイ ムライ ンの時間を長く 設定する ものである。 またズームイ ンボタン 1 5 1 はプロ グラムウィ ン ドウ 9 4 の 1 画面で表示できるタイムライ ンの時間を短く設定 するものである。
またプロ グラムウィ ン ドウ 9 4 には、 入力ツールと して、 リ ップノレボタン 1 5 4 、 マユユアノレロケーショ ンボタン 1 5 5 、 ト リ ムポタン 1 5 6 、 マッチカッ トボタン 1 5 7、 デリー トボ タン 1 5 8及びビデオエフェク トボタン 1 5 9が設けられてい る。
リ ップルボタン 1 5 4 は、 既にベースライ ンに並んでいるィ ベン トの途中にィベン トを貼り付ける場合、 貼り付けるィベン トを揷入ィベン ト と してベースライ ンに挿入し、 以降のィベン トをその挿入ィベン トの次に続く よ う に順次、 繰下げて並べ替 える処理を設定する と共に、 ベースライ ン上のイベン トが削除 又は移動された場合にはベースライ ンに穴が開いた部分に後に 続く ィベン トを繰り 上げて並べる という処理を設定する。
またマニュアルロケーショ ンボタン 1 5 5 は、 エフェク トの 位置 (ロケーショ ン) を設定し得るよ う なアニメーショ ンエフ ェク トを設定する と きに、 当該アニメーシ ョ ンエフェク トをか けるィベン トのプレビュー又はレコーディ ング実行中にマウス
2 Dによる操作によってエフェク トのロケーショ ンを制御し得 る よ う に設定する。
また ト リ ムボタン 1 5 6 は、 タイムライ ン 9 5上においてィ ベン 卜に ト リ ムを設定しモニタ上にてィベン トのバックグラン ド及びバック グラン ドをその境界部分と と共に表示し、 マッチ カツ トボタン 1 5 7は、 イベン トをナウライ ン 1 3 9の位置に て 2つに切 り離す設定をするためのボタンと して設けられてい る。
またデリー トボタン 1 5 8 は、 イベン トに対して削除を設定 する ものである。 またビデオエフェク トボタン 1 5 9 は、 映像 の変わり 目や映像自体にエフェク ト (ビデオエフェク ト) をか けるためのダイアログを表示させるものである。
さ らにプロ グラムウィ ン ドウ 9 4 には、 サブオーディオライ ン 1 3 4 、 ボイスオーバライ ン 1 3 8 に貼り付けられたオーデ ィォイベン トのフェー ドイ ン又はフェイ ドアゥ トの効果を付け るためのオーディオフェー ドボタン 1 6 0、 D S Kの各種設定 を行うためのダイアロ グを開く ための D S Kボタン 1 6 1 及び 最終的なオーディオの 4チャネル出力に対してタイムライン上 のオーディ ォをどのよ う にルーティ ングするかを決定するため のダイアログを表示させる ミ ックスダウンボタン 1 6 2が設け られている。
2 — 5 . デバイ スアイ コ ン
本実施例の編集装置においては、 ビューァウィ ン ドウ 9 2、 ロ グウィ ン ドウ 9 3及びプログラムウィ ン ドウ 9 4の各ウィ ン ドウにおいて、 編集対象となっている素材及びイベン トが、 ど のソースデバイスの素材及びイベン トであるのかを示すデバィ スアイ コ ン 1 6 5が表示される。
デバイスアイ コン 1 6 5 は、 図 1 8 A〜図 1 8 Eに示すよ う な、 5種類のデバイスアイ コンを有している。 素材のソースデ バイ スがディ リ一サーバ 6 の場合はサーバアイ コ ン 1 6 5 A、 素材の ソースデバイ スがローカルス ト レージ 8 の場合はロー力 ノレス ト レージアイ コ ン 1 6 5 B、 素材のソースデバイ スが V T R 7 の場合は V T Rアイ コ ン 1 6 5 C、 素材のソースデバイ ス が補助入力部 A U Xである場合は A U Xアイ コ ン 1 6 5 D、 素 材のソースデバイスが編集装置内部の信号発生装置である場合 は I N Tアイ コン 1 2 6 がそれぞれ表示される。
ビューァウィ ン ドウ 9 2 においては、 図 1 3 に示されるよ う に、 ビューァ 1 0 6 に表示されている映像がどのソースデバイ スであるかを示すために、 ビューァ 1 0 6 の上部に、 このデバ イスアイ コン 1 6 5が表示される。 つま り 、 デバイスアイ コン 1 6 5 をイベン ト画像と同時にビューァウィ ン ドウ 9 2上に表 示するよ う にしたこ とによ り 、 ビューァウィ ン ドウ 9 2 に再生 されている映像がどのソースデバイ スから供給されている映像 であるかを、 デバイスアイ コン 1 6 5 によって容易に識別する こ とができる。
ログウィ ン ドウ 9 3 においては、 図 1 8 に示されるよ う に、 各ク リ ップカー ド 1 7 9 によって示されるィベン 卜がどのソー スデバイスから生成されたィベン トであるかを示すために、 各 ク リ ップカー ド毎にデバイ スアイ コン 1 6 5 が表示される。 つ ま り、 デバイスアイ コン 1 6 5 を各ク リ ップカー ド 1 7 9毎に 表示するよ う にしたこ と によ り 、 各ク リ ップカー ド 1 7 9 によ つて示されるィベン トが、 どの ソースデバイ スの映像から生成 されたイベン トであるかを、 デバイスアイ コ ン 1 6 5 によって 容易に識別する こ とができ る。
プロ グラムウィ ン ドウ 9 4 においては、 図 1 6 に示すよ う に、 タイムライ ン上に登録された各ィベン ト どのソースデバイスか ら生成されたィベン トであるかを示すために、 各ィベン ト毎に デバイスアイ コン 1 6 5が表示される。 つま り .、 デバイスアイ コン 1 6 5 をタイムライ ン上の各イベン ト毎に表示するよ う に したこ とによ り 、 各イベン トが、 どのソースデバイスの映像か ら生成されたイベン トであるかを、 デバイスアイ コ ン 1 6 5 に よって容易に識別するこ とができる。
編集オペレータが、 編集プログラムを作成するにあたって、 各イベン トのソースデバイスを認識しなければいけない理由を 説明する。 本実施例の編集装置において使用されているロー力 ルス ト レレージ 8 は、 ランダムアクセス可能な記録媒体を使用 し、 しかも、 マルチチャンネルのビデオ及びオーディオを リ ア ルタイムで再生できる能力を有しているので、 エフェク ト設定 やプロ グラム生成処理に関して何の制限もない。
しかし、 V T R 7のよ う にランダムアクセスできない記録媒 体の場合には、 キューア ップするためにはテープをまき戻す時 間が必要であるため、 エフェク ト設定及びプログラム生成処理 に関して多く の制限が設け られている。 例えば、 V T R 7 のテ ープ上の素材から生成された 2つ以上のイベン トを、 タイムラ イ ン上において近く に並べる よ う なプロ グラムを作成するこ と はできない。 また、 同じよ う に、 V T R 7 のテープから生成さ れた 2つ以上のイベン トを、 時間的重なる よ う に、 ベースビデ オライ ンとオーバレイ ビデオライ ンに配置する よ う なプロ グラ ムは作成する こ とはできない。
また、 サーバから生成された素材に関しては、 V T Rほどェ フエク ト設定及びプロ グラム生成処理において制限はないが、 ロ ーカルス ト レージ 8 に比べる とア クセス性能が遅いとい う理 由 と、 編集処理装置から離れた位置に配置されているため、 ビ デォ信号の受取り に遅延が発生するこ とがある.とい う理由で、 数種類のエフュク ト設定に関して制限がある。
以上のよ うな理由で、 編集オペレータは、 編集プログラムを 作成するにあたって、 各イベン トのソースデバイスを認識しな ければいけない。
このよ う に、 各イベン トに対して、 デバイスアイ コンを付与 するこ と によって、 容易にソースデバイスを認識するこ とがで きる。 これによ り 、 イベン トに対してエフェク トを設定する と き、 イベン トのソースデバイスが、 V T R 7、 デイ リーサーバ 6又はローカルス ト レージ 8であるか否かを容易に判別するこ とができる。 例えば、 エフェク トを付加しょ う とするイベン ト のソースデバイスが V T R 7であって、 タイムライ ン上におい てそのィベン トの近く に設定されているィベン トのソースデバ イスも V T Rである こ とが判明した場合には、 どち らかのィべ ン トを V T R 7力、らローカルス ト レージ 8 にダウンロー ドする よ う に指示するこ とができ る。 つま り 、 素材に対する編集操作 をよ り確実に行な う こ とができる。
3 . ファイルマネージャ
本実施例の編集装置においては、 ローカルス ト レージ 8 にダ ゥンロー ドした素材や完成ビデオプログラム、 コ ンピュータ 2 のハー ドディ スク H D Dに保存されたプロ グラム リ ス トやロ グ ク リ ップ等の各種データは、 ファイルマネージャで管理するよ う にされてレヽる。 つま り 、 登録されたイベン トは、 1 つのファ ィルと してこのファイルマネージャによって管理されている。 また、 このファイルマネージャによって、 各フ ァ イ ルは予め 指定された特定のフォルダに格納されるよ う に管理されている, 例えば、 ロ グファイルは、 ロ グフォルダに格納され、 プログラ ムリ ス ト ( E D L ) ファイルは、 プログラム リ ス ト フォルダに 格納され、 素材ファイルは、 素材フォルダに格納され、 完成ビ デォプロ グラム ( EditedMaster ) に関するデータを記憶する 編集マスタファイルは、 編集マスタフォルダに格納されるよ う になっている。
このファイルマネージャによって管理される全てのファイル は、 図 2 7 に示したよ う なファイル情報を有している。 このフ ア イ ル情報は、 フ ァ イ ル名 3 3 1 、 イ ベン ト名 3 3 2 、 イ ン点 のタイムコー ド 3 3 3 、 イ ン点のク リ ップア ドレス 3 3 4、 ァ ゥ ト点のタイムコー ド 3 3 5 、 アウ ト点のク リ ップア ドレス 3 3 6 、 ディユレーシヨ ン 3 3 7、 ファイルタイプ情報 3 3 8 、 ファイル位置情報 3 3 9 、 ソースデバイス I D情報 3 4 0、 作 成日時 3 4 1 、 ビデオ調整情報 3 4 2、 オーディオ調整情報 3 4 3 、 テキス トデータ 3 4 4 、 プロ グラム リ ス ト名 3 4 5等力 ら構成されている。
このファイル名 3 3 1 は、 このイベン ト力 Sどのファイル名の 素材から生成されたデータであるかを示すためのデータであつ て、 ソース フ ァ イ ル名の名前が登録される。 ソースデバイ ス力 、 ローカルス ト レージ 8又はサーバ 6 の場合には、 そのソースフ アイル名が登録されるが、 ソースデバイスが、 V T Rの場合に は、 テープカセ ッ トの リ ール名が登録される。
イ ベン ト名 3 3 2は、 編集オペ レータが任意に付与するこ と のでき る名称である。 このイベン ト名は、 すでに説明 したク リ フ 0 ップ名 と同じものであって、 単に、 ログウィ ン ドウ 9 3 に表示 されているク リ ップに付与されている されている名称をク リ ッ プ名と呼び、 タイムライ ンウィ ン ドウ 9 5 に表示されているィ ベン トに付与されている名称をィベン ト名 と呼んでいる。
イン点のク リ ップア ドレス 3 3 4及びァゥ ト点のク リ ップア ドレス 3 3 6 は、 イ ン点及びァゥ ト点をマーキングしたときに 生成されたスタンプピクチャが記憶されているコンピュータ 2 のハー ドディ スク H D Dのァ ドレスを示している。
ファイルタイプ情報 3 3 8 は、 そのファイルがロ グク リ ップ を示すファイルであるの力 、 プログラム リ ス トを示すファイル であるのカ 口一カルス ト レージにダウンロー ドされた素材を 示すファ イルであるの力、、 ロ ーカルス ト レージに記録済みの完 成プログラムであるのかを示す情報である。 「 L o g」 は、 そ のファイルがロ グク リ ップであるこ とを示し、 「 E D L」 は、 そのファイルがプロ グラム リ ス トである こ と を示し、 「M a t e r i a 1 」 は、 そのフ ア イノレがローカノレス ト レージにダウン ロー ドされた素材である こ と を示し、 「M a s t e r 」 は、 そ のファイ ルが、 ロ ーカルス ト レージに記録済みの完成プログラ ムである こ と を示している。
ファイル位置情報 3 3 9 は、 そのファイルがコンピュータ 2 のハ ー ドディ スク H D Dに記録されているデータファイルであ るの力 、 ローカルス ト レージ 8 内の素材ファイルであるのかを 示すデータである。 「 C」 は、 コ ンピュータ内のデータフアイ ル 「である こ と を示し、 「 L」 は口 一カルス ト レ一ジ内の素材 フ ァ イルを示している。
ソースデバイ ス情報は、 このファイル情報によって示される 素材がどのソースデバイスに記録されているかを示す情報であ る。 「 S」 はソースデバイスがサーバ 6 であるこ と を示し、 「 L」 はソースデバイスがローカルス ト レージである こ と を示し、
「V」 は、 ソースデバイスが、 V T Rである こ と を示し、 「A」 は AU X (ォグジャ リー) 素材であるこ とを示し、 「 I 」 は内 部素材であることを示している。
4. 編集処理の動作
4 - 1 . イベン ト作成処理
まず、 図 2 0のフローを参照して、 編集処理の最初の処理で あるイベン ト作成処理ついて説明する。 尚、 以下の説明におい て使用する 「編集オペレータの操作」 とは、 コンピュータ 1 を 操作する編集オペレータが、 例えば、 モニタ 2 Bに表示された グラフィ ックイ メージのある部分をマウス 2 D等のボイ ンティ ングデバイスによってク リ ック、 ドラ ッグ及び ドロ ップする操 作や、 キーボー ド 2 C、 マウス 2 D、 専用コ ン ト一ラ 4 、 5等 を直接操作するこ とを示している。
まず、 ステップ S P 3 0 1 において、 コ ンピュータ 1 の C P U 2 1 は、 編集オペレータの操作に応答して、 制御対象となる ソースデバイスを選択する。 具体的には、 編集オペレータが、 G U I 用の画像と してモニタ 2 B上に表示されたビューァウイ ン ド 9 2のソース選択ポタ ン 1 0 2 A〜 1 0 2 Eのいずれかを ク リ ックする こ とによ り 、 C P U 2 1 は、 制御対象となる ソー スデバイスを決定するこ と になる。 例えば、 オペレータによつ てソース選択ボタン 1 0 2 Aがク リ ッ ク される と C P U 2 1 は ソースデバイ スと してディ リ ーサーバ 6 が選択されたと判断し. フ 2 オペレータによってソース選択ボタン 1 0 2 Bがク リ ック され る と、 C P U 2 1 はソースデバイ スと して V T. R 7 が選択され たと判断し、 オペレータによってソース選択ボタン 1 0 2 Cが ク リ ック される と、 C P U 2 1 はソースデバイ スと してロー力 ルル ト レ一ジ 8が選択されたと判断する。
ステップ S P 3 0 2では、 C P U 2 1 は、 編集オペレータの 操作に応答して、 ステップ S P 3 0 1 において指定されたソー スデバイスに登録されている素材ファイルを検索する。 具体的 には、 まず、 コ ンピュータ 1 のモユタ 2 B上に図 2 1 に示した よ うな素材検索用のダイアログ 3 0 0が表示される。 このダイ ァログ 3 0 0 は、 入力項目 と して、 素材データの生成日時を入 力するための生成 Θ時入力覧 3 0 1 と、 フ ァイル名称入力覧 3 0 2 と、 ファイルタイプ入力覧 3 0 3 と、 オーディオモー ド選 択覧 3 0 4 と、 プログラム名入力覧 3 0 5 と、 検索実行指示ボ タン 3 0 6 とを有している。 例えば、 ファイル名称入力覧 3 0 2 に 「 F I R E」 とレヽぅ キ一ワー ドを入力する と、 ファイル名 称に 「 F I R E」 という文字が含まれている ファイ ルのみを検 索するこ とができる。 編集オペレータがダイアログ 3 0 0の各 入力覧に所望のデータを入力するこ とによって検索条件が設定 され、 その後、 編集オペレータによって検索実行ボタン 3 0 6 が押される と、 C P U 2 1 は、 このダイアロ グ 3 0 0 に設定さ れた条件に従ってソースデバイスに登録されたファイルを検索 する検索処理を実行する。
C P U 2 1 は、 R AM 2 1 Bに記憶されたファイ ル情報を参 照し、 ダイアロ グ 3 0 0 に設定された条件にあったフ ァ イ ルを 検索する。 そ して、 C P U 2 1 は、 その検索結果を図 2 2 に示 フ 3 されるよ うなファイルリ ス ト 3 1 0 と して表示する。
ステ ップ S P 3 0 3では、 C P U 2 1 は、 編集オペレータの 指示に応答して、 ステップ S P 3 0 2における検索結果のファ ィルリ ス トから所望のフ ァイルを選択する。 具体的には、 編集 オペレータがファイルリ ス ト 3 1 0の中から所望のファイル名 をク リ ックすると、 C P U 2 1 は、 編集オペレータによって指 定されたフ ァイルを選択する。
ステップ S P 3 0 4では、 C P U 2 1 は、 選択されたフアイ ルに含まれるビデオデータ及びオーディオデータを再生し、 そ の再生されたビデオデータがビューァウイン ドウ 9 2に表示さ れる共に、 再生されたオーディオデータがス ピーカ 1 1及び 1 2から再生されるよ うに、 選択されたソースデバイス及ぴ編集 装置 3を制御する。 一例と して、 デイ リーサーバ 6 に記録され ているフ ァイルを再生する場合を例にあげて説明する。
まず、 C P U 2 1 は、 L A N 1 0を介してデイ リーサーバ 6 に対して、 ステップ S P 3 0 3 において選択されたファイルを デイ リーサーバから再生するための制御信号を供給する。 ディ リーサーバ 6は、 この制御信号に基いて、 指定されたフ ァ イル に含まれるビデオデータ及びオーディオデータを S D I フォー マッ トの規格に基いたデジタル信号 S 7 と して編集処理装置 3 に供給する。 供給されたデジタル信号 S 7は、 編集処理装置 3 のマ ト リ ク ススイチャ部 3 Bの入力端子 I N 1 に入力される。
C P U 2 1 は、 編集処理装置 3 のシステム コ ン ト ロール部 3 Aを介して、 入力端子 I N 1 と出力端子 O U T 9 を接続するた めのク ロ スポイン ト P 1 9 をアクティブにするよ う にマ ト リ ク ススィチヤ部 3 Bを制御する。 その結果、 入力端子 I N 1 に供 給された S D I フォーマ ツ トのデジタル信号 S 7 は、 出力端子 O U T 9から S D I フォーマツ トのデジタルビデォ信号 S 2 6 と して出力され、 画像処理部 3 Cに供給される。
出力端子 O U T 9から出力された S D I フォーマツ 卜のデジ タルビデオ信号 S 2 6 は、 画像処理部 3 Cのデマルチプレクサ 5 1 Dに供給される。 デマルチプレクサ 5 1 Dは、 S D I フォ 一マツ トのデータのペイ ロー ド部からデジタルビデオ信号を抽 出し、 その抽出されたデジタルビデオ信号は、 スィ ッチャブロ ック 5 2 、 特殊効果ブロ ック 5 3及ぴミキサブロ ック 5 4 を介 して出力ビデオ信号 S 3 1 と して出力される。
画像処理部 3 Cから出力されたデジタルビデオ信号 S 3 1 は. 再ぴマ ト リ ック ススイ ツチヤ部 3 Bの入力端子 I N 9 に供給さ れる。 C P U 2 1 は、 編集処理装置 3 のシステムコ ン ト ロール 部 3 Aを介して、 入力端子 I N 9 と出力端子 O U T 5 を接続す るためのク ロスポイ ン ト P 9 5 をアクティブにする よ う にマ ト リ ク ススイチャ部 3 Bを制御する。 その結果、 入力端子 I N 9 に供給されたデジタルビデオ信号 S 3 1 は、 ァゥ トプッ トプロ セ ッサ 4 6 を介して出力端子 O U T 5からデジタルビデオ信号 S 2 と してコ ンピュータ 2 に出力される。
編集処理装置 3 から出力されたデジタルビデオ信号 S 2は、 コ ンピュータ 2のビデオプロセ ッサ 2 2 に供給され、 表示コン ト ローラ 2 3 を介してコンピュータモニタ 2 B ビューァウィ ン ドウ 9 2 に表示される。
一方、 C P U 2 1 は、 編集処理装置 3 のシステムコ ン ト ロー ル部 3 Aを介して、 入力端子 I N 1 に供給された S D I フォー マ ツ トのデジタル信号 S 7 を、 音声処理部 3 Dに供給するよ う に、 マ ト リ クススィチヤ部 3 Bを制御する。 つま り 、 C P U 2 1 は、 編集処理装置 3 のシステム コ ン トロール部 3 Aを介して, 入力端子 I N 1 と出力端子 O U T 1 1 を接続するためのク ロ ス ポイ ン ト P 1 1 1 をアクティ ブにする よ う にマ ト リ ク ススイチ ャ部 3 Bを制御する。 その結果、 入力端子 I N 1 に供給された S D I フォーマツ トのデジタル信号 S 7 は、 出力端子 O U T 9 からだけでは無く 、 出力端子 O U T 1 1 からもデジタル出力信 号 S 2 8 と して、 音声処理部 3 Dに出力される。
S D I フォーマツ トのデジタル出力信号 S 2 8 のペイ ロー ド 部には、 ビデオデータが重畳され、 補助データ部にはオーディ ォデータが重畳されているので、 音声処理部 3 Dのセパレータ 5 6 Aは、 S D I フォーマツ トのデジタル信号 S 2 8 からォー ディォデータみをセパレー トする。 C P U 2 1 は、 編集処理装 置 3のシステム コ ン ト ロール部 3 Aを介して、 セノ レー ト され たオーディ オ信号 S 4 8 を、 ミ キサブロ ック 5 7 を介して、 出 力オーディオ信号 S 1 7、 S 1 8 と してス ピーカ 1 1 及び 1 2 に供給する よ う に音声処理部 3 Dを制御する。
ステップ S P 3 0 5 では、 編集オペレータの操作に従って、 コンピュータの C P U 2 1 は、 選択されたソースデバイスから 再生されたビデオデータ とオーディオデータを調整する。 具体 的には、 編集オペレータによってビューァ ウィ ン ドウ 9 2のビ デオアジャ ス トキ一 1 6 7 Aがク リ ック される と、 コ ンビユー タ 2の C P U 2 1 は、 図 2 3 に示したよ う なビデオレバル設定 用のダイアロ グ 1 7 0 をモニタ 2 Bに表示する。 編集オペレー タは、 スライ ダ部 1 7 0 をマウス 2 Dによって移動させて、 所 望の Luminanceや Chroma等のレベルを設定する こ と力 でき る。 コ ンピュータ 2の C P U 2 1 は、 システム コ ン ト ロール部 3 Aを介して、 このビデオレベル設定用のダイァロ グ 1 7 0 によ つて設定された各レベルを、 ファイル情報のビデオ調整情報と して記憶する。 また、 C P U 2 1 は、 選択されたソースデバイ スから再生されたビデオデータの Luminance レベル及び Chroma レベルが、 このビデオレバル設定用のダイアログ 1 7 0 によつ て設定された Luminanceレべノレ及び Chromaレべノレとなるよ う に、 画像処理部 3 Cのビデオ信号処理回路 5 2 E及び 5 2 Fを制御 する。
尚、 上述したビデオレベル調整処理は、 編集オペレータによ つてビデオアジヤス トキ一 1 6 7 Aがク リ ック された場合にの み行われる処理である。 このよ う なビデオレベル調整処理が行 われない場合には、基準 Luminance レベル及び基準 Chroma レべ ルと して予め設定されたデフォル ト値によってビデオ信号が調 整される。
一方、 編集オペレータによってビューァウィ ン ドウ 9 2のォ 一ディオアジャス トキ一 1 6 7 Aがク リ ック される と、 コ ンビ ユータ 2の C P U 2 1 は、 図 2 4 に示したよ う なオーディオビ デォレバル設定用のダイアログ 1 7 2をモエタ 2 B上に表示す る。 編集オペレータは、 スライダ 1 7 3 Aを調整及びフエ一ダ 1 7 4 Aをマウス 2 Dによって移動させるこ とによって、 所望 のオーディ オ入出力レベルを設定するこ とができ る。
コ ンピュータ 2の C P U 2 1 は、 システムコ ン ト ロール部 3 Aを介して、 このオーディオビデオレバル設定用のダイアロ グ 1 7 2によって設定されたオーディオレベルを、 フ ァイル情報 のオーディオ調整情報と して記憶する。 また、 C P U 2 1 は、 選択されたソースデバイスから再生されたオーディオデータの 入出力レベルが、 このオーディオレベル設定用のダイァロ グ 1 7 2によって設定されたオーディオデータの入出力レベルとな るよ う に、 音声処理部 3 Dのミキサブロ ック 5 7 を制御する。 尚、 上述したオーディオレベル調整処理は、 編集オペレータ によってオーディオアジャス トキ一 1 6 7 Bがク リ ック された 場合にのみ行われる処理である。 このよ う なオーディオレベル 調整処理が行われない場合には、 オーディオデータの基準入出 カレベルと して予め設定されたデフオル ト値によってオーディ ォ信号が調整される。
ステップ S P 3 0 6 において、 C P U 2 1 は、 編集オペレー タの操作に基いて、 選択されたソースフ ァイルに記録されてい る ビデオ素材をサーチする。 具体的には、 編集オペレータが、 ビューァウィ ン ドウ 9 2のデバイスコン ト ロール部 9 6 を操作 する と、 コンピュータ 2の C P U 2 1 は、 その操作に対応する よ う に、 選択されたソースデバイ スの再生動作を制御する。 そ の結果、 ビューワ ウイ ン ドウ 9 2のビューァ 1 0 6 には、 編集 オペレータの指定した速度のビデオデータが表示される。 ステップ S P 3 0 7 において、 C P U 2 1 は、 編集オペレー タの操作に基いて、 イ ン点及びアウ ト点を設定する。 具体的に は、 ステップ S P 3 0 6 のサーチ処理によって、 選択されたフ アイルのビデオイ メージがビューァ 1 0 6 に動画と して表示さ れている と きに、 編集オペレータがステップ S P 3 0 6 のよ う にビデオフ レームをサーチする こ とによつて所望のビデオフ レ ームがビュ ワーウイ ン ドウ 9 2 の ビューァ 1 0 6 に表示された ときに、 ビュワーウイ ン ドウ 9 2のマークイ ンボタン 1 1 5 を ク リ ックする と、 そのマークイ ンボタン 1 1 5 をク リ ック した タイ ミ ングでイ ン点が指定される。 C P U 2 1 は、 そのマーク イ ンボタン 1 1 5がク リ ック される とそのク リ ック操作に応答 して、 そのク リ ック されたタイ ミ ングにおける ビューァ 1 0 6 に表示されていたビデオデータを、 ク リ ップ画 (スタ ンプピク チヤ) と してイ ン点画像表示部 1 1 0 に表示する。 それと同時 に、 C P U 2 1 は、 そのイ ン点がマーキングされたタイ ミ ング のビデオフ レームに付与されていたタイムコー ドをィ ン点のタ ィムコー ドと して認識する。
イ ン点が指定された後、 編集オペレータがステップ S P 3 0 6のよ う にビデオフ レームをさ らにサーチし、 所望のビデオフ レームがビュ ワーウイ ン ドウ 9 2のビューァ 1 0 6 に表示され たときに、 マークアウ トボタン 1 1 6 をク リ ックする と、 その マークァゥ トボタン 1 1 6 をク リ ック したタイ ミ ングでアウ ト 点が指定される。 C P U 2 1 は、 そのマークアウ トボタン 1 1 6がク リ ック される とそのク リ ック操作に応答して、 そのク リ ック されたタイ ミ ングにおける ビューァ 1 0 6 に表示されてい たビデオデータを、 ク リ ップ画 (スタンプピクチャ) と してァ ゥ ト点画像表示部 1 1 2 に表示する。 それと同時に、 C P U 2 1 は、 そのァゥ ト点がマーキングされたタイ ミ ングのビデオフ レームに付与されていたタイムコー ドをァゥ ト点のタイムコー ドと して認識する。
このよ う にアウ ト点が指定される と、 C P U 2 1 は、 設定さ れたイ ン点及びァゥ ト点それぞれのタイムコ ー ドからイ ン点及 びアウ ト点間の時間が計算され、 その計算した時問をビューァ ウィ ン ドウ 9 2上の D U R表示欄 1 1 4 に表示する。
9 ステ ップ S P 3 0 8では、 C P U 2 1 は、 編集オペレータの 操作に基いて、 ステップ S P 3 0 7において設定されたイ ン点 及びァゥ ト点によって指定された期間をプレビューする。 具体 的には、 編集オペレータが、 ビュ一ワ ウイ ン ドウ 9 2のプレビ ユーボタン 1 1 7をク リ ックする と、 C P U 2 1 は、 イン点よ り も数秒前のビデオフ レームからァゥ ト点のビデオフ レームま でを再生するよ う に、 編集制御装置 3のシステムコ ン ト ロ ール 部 3 Aを介して、 適切なソースデバイス (デイ リーサーバ 6 、 ローカルス ト レ一ジ 8又は V T R 7 ) を制御する。
本実施例の編集システムにおけるプレビュー処理は、 ステツ プ S P 3 0 7の処理によって生成されたィベン トが、 タイムラ イ ン 9 5のナウライ ン 1 3 9の位置に登録されたと仮定して行 われる処理である。 また、 このプレビュー処理は、 イ ン点から 再生を開始するのではなく 、 イ ン点の数秒前 (例えば 5秒前) から再生を開始するよ う にしている。
つま り 、 このプレビュー処理は、 仮想的にイベン トをタイ ム ライン上の登録し、 イン点の数秒前から再生を開始するよ う に するこ とによって、 実際にイベン トをタイ ムライ ン上に登録す る前に、 これから登録しょ う と しているイベン ト とその直前の イベン ト とのつなぎめを仮想的に確認する こ とができる。
も し、 このプレビューの結果、 素材自体及びイ ン点及ぴァゥ ト点の設定等が気に入らない場合には、 再びステップ S P 3 0 1又はステップ S P 3 0 6 に戻るこ とができ る。
尚、 このステップ S P 3 0 8は、 必須の処理ではなく て、 編 集オペレータによってプレビューボタン 1 1 7 がク リ ック され たときにのみ行われる処理である。 ステ ップ S P 3 0 9では、 コ ンピュータ 2の C P U 2 1 は、 編集オペレータの操作に従って、 ディ リ一サーバ 6及び V T R 7の素材を口一カルス ト レージ 8 にダウンロー ドする処理が指 定されたか否かを判断する。 具体的には、 編集オペレータが、 ビューァウィ ン ドウ 9 2のダウンロー ドボタン 1 2 3 Aをク リ ックする と、 C P U 2 1 は、 ダウンロー ド処理が指定されたと 判断する。 尚、 このダウンロー ド処理は、 ステップ S P 3 0 1 においてソースデバイスと して、 ディ リーサーバ 6又は V T R 7が指定されている ときにのみ行なえる処理である。 編集オペ レータによって、 ダウンロー ド処理が指定される と、 C P U 2 1 は、 図 2 5 に示すよ う にダウンロー ド処理設定用のダイァロ グ 3 2 0 をオープンし、 ステップ S P 3 1 0 に進む。 一方、 編 集オペレータによってダウ ンロー ド処理が指定されない場合に はステップ S P 3 1 2 に進む。
ステップ S P 3 1 0では、 C P U 2 1 は、 編集オペレータの 操作に従って、 ダウンロー ド処理を開始する。 具体的には、 C P U 2 1 が実際にダウンロー ド処理を開始する前に、 まず、 編 集オペレータがダウンロー ド処理設定用のダイアロ グ 3 2 0 に おいてダウンロー ド処理おいて必要な設定を入力する。 フアイ ノレ名称入力部 3 2 1 は、 ローカルス ト レージにダウンロー ドさ れるファイルに対して付与される新たなファイル名を設定する ための設定覧であって、 スター トタイムコー ド設定部 3 2 2は、 ローカノレス ト レージにダウンロー ドされる フアイノレのスター ト タイムコー ドを設定するための設定覧であって、 転送ス ピー ド 設定覧 3 2 3 は、 選択されたソースデバイスからロ ーカルス ト レージに転送される転送スピー ドを設定するための設定覧であ る。
編集オペレータが、 ダウンロード処理設定用のダイアログ 3 2 0に必要な設定を入力し、 ェグゼキュー トボタン 3 2 4 をク リ ックする と、 C P U 2 1 は、 指定されたフ ァ イルのイ ン点か らァゥ ト点までのビデオデータをローカルス ト レージ 8にダウ ンロー ドするよ うに、 ソースデバイス及び編集制御装置 3 を制 御する。 以下に、 デイ リーサーバ 6に記録されているファイル のイ ン点からアウ ト点のビデオデータ及びオーディオデータを ローカルス トレージ 8にダウンロー ドする場合を例に挙げて、 コ ンピュータ 2の C P U 2 1及び編集制御装置 3 の動作を説明 する。
まず、 デイ リーサーバ 6 は、 指定されたフ ァ イルのイ ン点の ビデオデータ及びオーディオデータから再生を開始し、 その再 生されたビデオ信号及びオーディォ信号を S D I フォーマ ッ ト の規格に基いたデジタル信号 S 7 と して編集処理装置 3 に供給 する。 供給されたデジタル信号 S 7は、 編集処理装置 3のマ ト リ ク ススイチャ部 3 Bの入力端子 I N 1 に入力される。
ディ リーサ一バ 6から再生されたデジタル信号 S 7をロ ー力 ノレス ト レージ 8にダウンロ ー ドしなければいけないので、 C P U 2 1 は、 編集処理装置 3 のシステムコ ン ト ロ ール部 3 Aを介 して、 入力端子 I N 1 と出力端子 O U T 1 を接続するためのク ロスポイン ト P 1 1 をアクティブにするよ う にマ ト リ クススィ チヤ部 3 Bを制御する。 その結果、 入力端子 I N 1 に供給され た S D I フォ一マツ トのデジタル信号 S 7は、 ァゥ トプッ トプ 口セッサ 4 3 を介して出力端子 O U T 1 から S D I フォーマツ トのデジタル信号 S 1 5 と して出力される。 ローカルス ト レージ 8 は、 編集処理装置 3 から供給されたデ ジタル信号 S 1 5 を、 R A I Dアルゴリ ズムを使用 して適切な 記録媒体に記録する。 その結果、 デイ リーサーバ 6 に記録され ている ビデオ及びオーディオデータが、 ローカルス ト レージ 8 にダウンロー ドされる。
一方、 このよ う なダイ ンロー ド処理中、 ローカノレス ト レージ にダウンロ ー ドされている ビデオ信号をビュ一ワ ウイ ン ドウ 9 2 に表示するために、 まず、 C P U 2 1 は、 編集処理装置 3 の システム コ ン ト ロール部 3 Aを介して、 入力端子 I N 1 に供給 された S D I フォーマ ツ トのデジタル信号 S 7 を出力端子 9 に 出力する よ う に、 マ ト リ クススィチヤ部 3 Bのク ロスポイ ン ト P 1 9 をアクティブにする。 その結果、 入力端子 I N 1 に供給 された S D I フォーマツ トのデジタル信号 S 7 は、 出力端子 S 1 5 を介してローカルス ト レージにダウンロー ドされる と同時 に、 出力端子 O U T 9 を介して、 S D I フォーマッ トのデジタ ルビデオ信号 S 2 6 と して画像処理部 3 Cに供給される。
出力端子 O U T 9 から出力された S D I フォーマツ トのデジ タルビデオ信号 S 2 6 は、 画像処理部 3 C部を通って、 出力ビ デォ信号 S 3 1 と して再びマ ト リ ックススィ ッチャ部 3 Bの入 力端子 I N 9 に供給される。 C P U 2 1 は、 編集処理装置 3の システム コ ン ト ロール部 3 Aを介して、 入力端子 I N 9 と出力 端子 O U T 5 を接続するためのク ロスポイ ン ト P 9 5 をァクテ イ ブにする よ う にマ ト リ ク ススイチャ部 3 Bを制御する。 その 結果、 入力端子 I N 9 に供給されたデジタルビデオ信号 S 3 1 は、 ァゥ トプッ トプロセッサ 4 6 を介して出力端子 O U T 5か らデジタルビデオ信号 S 2 と してコンピュータ 2 に出力される ( 編集処理装置 3 から出力されたデジタルビデオ信号 S 2 は、 コ ンピュータ 2のビデオプロセ ッサ 2 2 に供給され、 表示コ ン ト ローラ 2 3 を介してコンピュータモニタ 2 Bのビューァウイ ン ドウ 9 2 に表示される。
つま り 、 ディ リーサーバ 6から再生されたビデオデータは、 ローカルス ト レ一ジ 8 にダウンロー ドされる と同時に、 コ ンビ ユータ 2のビューワ ウイ ン ドウ 9 2 に表示される。 尚、 本実施 例の編集装置では、 編集素材を、 このよ う にローカルス ト レー ジ 8 にダウンロー ドしながらビューワウイン ドウ 9 2に表示す る よ う にする処理を 「バック グラン ドでのダウンロー ド処理」 と呼んでいる。
ステップ S P 3 1 1 では、 編集オペレータの指示に従って、 C P U 2 1 は、 ノ ック グラ ウン ドでダウンロー ド処理を行な う よ う に編集処理装置 3 を制御する。 編集オペレータが、 ダウン ロ ー ド処理中にダウンロ ー ド設定用ダイアログ 3 2 0のキャ ン セルボタン 3 2 5 をク リ ックするこ と、 フォアグラ ウン ド処理 と して行われていたダウンロー ド処理が、 バック グラン ド処理 と して行なわれる。 具体的には、 C P U 2 1 は、 編集オペレー タによってダウンロー ド設定用ダイアログ 3 2 0のキャ ンセル ボタン 3 2 5 がク リ ック される と、 ディ リーサーバ 6からのデ ジタルデータが供給される入力端子 I N 1 と、 ダウンロー ドす るための出力端子 O U T 1 とのク ロスポイ ン ト P 1 1 は、 ァク ティブの状態で維持するが、 入力端子 I N 1 と画像処理部 3 D に出力するための O U T端子 O U T 9 とのク ロスポイ ン ト P 1 9 を、 イ ンアクティブにする よ う に、 マ ト リ ックススィ ッチャ 部 3 Bを制御する。 その結果、 ディ リーサーバから再生されたデジタル信号 S 7 は、 ローカルス ト レ ジ 8 にダウンロー ドされ続けるが、 画 像処理部 3 C及びコ ンピュータ 2への供給はス ト ップする。 つ ま り、 コ ンピュータ 2を操作する編集オペレータから見る と、 オペレータの見えないバック グラン ドでこのダウンロー ド処理 が行われているこ とになる。
このステップ S P 3 1 1 の処理において、 C P U 2 1 は、 口 一力ルス ト レージをダウンロ一ドで処理する よ う に編集処理装 置 3 を制御する と、 バック グラン ドでのダウンロー ド処理を行 いなから、 再びステップ S P 3 0 1 に戻り 、 次の素材を編集す る処理に移行する。
尚、 このステップ S P 3 1 1 において、 編集オペレータによ つてバック グラ ウン ドでのダウンロー ド処理が指定されない場 合には、 ダウン口一 ド処理が終了するまで、 ノくック グラン ドで のダウンロー ド処理が行なわれる。
次に、 ステップ S P 3 0 9 においてダウンロー ド処理が指定 されない通常の編集プロセスについて、 次のステップ S P 3 1 2からを参照して説明する。
ステ ップ S P 3 1 2では、 C P U 2 1 は、 編集オペレータの 操作に従って、 シーン名設定処理を行な う。 具体的には、 編集 オペレータ によって ビューァ ウィ ン ドウ 9 2のシーンチェンジ ボタン 1 7 8 Aがク リ ック される と、 シーン名設定処置 (ステ ップ S P 3 1 3 ) に移行し、 シーンチェンジボタン 1 7 8 Aが ク リ ック されない場合には、 ステップ S P 3 1 4 に移行し、 そ のステップ S P 3 1 4 において既に設定されているシーン名を 使用してク リ ップ名及びイベン ト名を作成する。 ステップ S P 3 1 3 のシーン名設定処理について説明する。 まず、 C P U 2 1 は、 図 2 6 Aに示される よ う なシーン名入 力用のダイ アロ グ 1 8 0 をモニタ 2 B上にオープンする。 編集 オペレータによって、 ダイアログ 1 8 0 内に設けられたシーン 名のリ ス トを表示させるためのプルダウンボタン 1 8 2が選択 された場合、 C P U 2 1 は、 図 2 6 Bに示すよ うなシーン名の リ ス ト 1 8 3 をモニタ 2 B上に表示する。 このシ一ン名の リ ス トは、 前回の編集オペレーショ ンのときに編集オペレータによ つて使用及び登録されたシーン名のリ ス トであって、 R AM 2 1 Bに履歴 リ ス ト と して記憶されているデータである。
編集オペ レータによって表示されたリ ス ト 1 8 3 中からシー ン名が選択された場合には、 C P U 2 1 は、 その選択されたシ ーン名を、 後述するク リ ップ生成処理及びイベン ト作成処理で 使用するシーン名 と して登録する。
また、 このプルダウンボタン 1 8 2を選択せずに、 編集オペ レータがシ一ン名入力欄 1 8 1 に新たにシーン名をキーボー ド 2 Cから直接入力するこ と もできる。 この場合にも同 じよ う に、 C P U 2 1 は、 その入力されたシーン名を、 後述するク リ ップ 生成処理及びィベン ト作成処理で使用するシーン名 と して登録 する。
本実施例の編集装置に、 このよ う なシーン名を更新する機能 が設けられている理由について説明する。
後述する ク リ ップ作成処理及びィベン ト作成処理では、 この シーン名を使用 してク リ ップ名及びィベン ト名が付与される。 具体的には、 ク リ ップ名及びイベン ト名は、 「シーン名称」 と 「シ リ アル番号」 とから生成される。 すなわち、 ステップ S P 3 1 3 においてシーン名が 「 F I R E」 に更新されたとする と, この後の、 ク リ ップ作成処理において、 「 F I R E O 0 1 」 、 「 F I R E 0 0 2」 、 「 F I R E 0 0 3」 . . . . とレヽう よ う なク リ ップ名を有するク リ ップが順に作成される。 例えば、 こ の後、 ステップ S P 3 1 3 においてシーン名が 「 S E A」 に更 新されたとする と、 同じよ う に、 この後の、 ク リ ップ作成処理 において、 「 S E A 0 0 1 J 、 r S E A 0 0 2」 、 「 S E A O 0 3」 . . . . という よ う なク リ ップ名を有するク リ ップが順 に作成される。
つま り このよ う に、 編集オペレータが、 素材のシーンが変わ つた時に適切なシーン名を設定するこ と によって、 ログウィ ン ドウ 9 3 に登録されたク リ ップをシーン名毎に分類するこ とが できる。 それによつて、 何百という ク リ ップを作成したと して も、 その沢山のク リ ップを容易に管理する こ とができ る。 また、 ステップ S P 3 0 2においてローカルス ト レージ 8 のク リ ップ を検索する と きに、 このシーン名をキーワー ドとする こ とによ つて、 関連するク リ ップのみを容易に検索する こ とができる。 ステップ S P 3 1 4 において、 編集オペレータの操作に応答 して、 C P U 2 1 は、 エン ト リ ーモー ドを設定する。 このェン ト リ一モー ドとは、 イ ン点及ぴアウ ト点が設定された素材を、 ログウィ ン ドウにエン ト リ ー (登録) する力、、 タイムライ ンゥ イ ン ドウにエン ト リ ー (登録) するかを決めるためのモー ドで ある。 このエン ト リ ーモーは、 イ ン点及びアウ ト点が設定され た素材を、 ロ グウィ ン ドウにク リ ップと して登録するロ グモー ドと、 イ ン点及びァゥ ト点が設定された素材をタイムライ ンゥ イ ン ドウにイベン ト と して登録するタイムライ ンモー ドとの 2
8 つのモー ドを有し、 ェン ト リーモー ドと して何れかのモー ドが 指定される よ う に構成されている。
具体的には、 編集オペレータが、 ビューァ ウィ ン ドウ 9 2の ログボタン 1 2 2 Bを選択する と、 ログモー ドが選択され、 編 集オペレータが、 ビューァウィ ン ドウ 9 2のタイムライ ンボタ ン 1 2 2 Cを選択する と、 タイムライ ンモー ドが選択される。 ログモー ドが設定された場合にはステップ S P 3 1 5 に進み、 タイムライ ンモー ドが設定された場合にはステップ S P 3 1 6 に進む。
ステップ S P 3 1 5では、 編集オペレータの操作に応答して、 C P U 2 1 は、 イ ン点とァ ゥ ト点と して指定された素材をィべ ン ト と して登録する。 具体的には、 編集オペレータが、 ビュー ァウィ ン ドウ 9 2の A D Dボタン 1 2 2 Aをク リ ックする と、 C P U 2 1 は、 イ ン点とア ウ ト点と して指定された素材をィべ ン ト と して登録する。 このと き、 C P U 2 1 は、 この登録され たィベン トを表わすための図 2 7 に示したよ う なファイル情報 を生成する。
さ らに、 ステップ S P 3 1 4 においてロ グモー ドが選択され ているので、 C P U 2 1 は、 イベン トのイ ン点のスタンプピク チヤ と、 イ ン点のタイムコー ドと、 ステップ S P 3 1 3 におい て設定されたシーン名に基いて生成されたク リ ップ名 とをク リ ップカー ド 1 7 9 と してロ グウィ ン ドウ 9 3 に表示する。
ステップ S P 3 0 6力 らこのステップ S P 3 1 5 の処理を繰 り 返すこ と によって、 編集オペレータによって指定された複数 のイベン トが登録される。 さ らに、 このロ グモー ドでは、 その 複数のィベン トを表わす複数のク リ ップカー ド 1 7 9 をロ グゥ イ ン ドウ 9 3 に表示される こ とができる。
ステップ S P 3 1 6では、 編集オペレータの操作に応答して , C P U 2 1 は、 イ ン点とァ ゥ ト点と して指定された素材をィべ ン ト と して登録する。 具体的には、 ステップ S P 3 1 5 と同じ よ う に、 編集オペレータが、 ビューァウィ ン ドウ 9 2の A D D ボタン 1 2 2 Aをク リ ックする と、 C P U 2 1 は、 イ ン点とァ ゥ ト点と して指定された素材をイベン ト と して登録する。 この と き、 C P U 2 1 は、 図 1 9 に示したよ う な、 この登録された ィベン トを表わすためのファイル情報を生成する。
さ らに、 ステップ S P 3 1 4 においてタイムライ ンモー ドが 選択されているので、 C P U 2 1 は、 ビデオイベン トをべ一ス ビデオライ ン 1 3 2 Aのナウライ ン 1 3 9の位置に貼り付け、 オーディオイベン トをベースオーディオライ ン 1 3 2 Bのナウ ライ ン 1 3 9の位置に貼り付ける。
ステップ S P 3 0 6からこのステップ S P 3 1 6 の処理を繰 り返すこ と によって、 編集オペレータによって指定された複数 のイベン トが登録される。 さ らに、 このタイ ムライ ンウィ ン ド ゥでは、 その複数のイベン トをタイムライ ン 9 5のベース ビデ ォ及びべ一スォ一ディオライ ン 1 3 2の所望の位置に貼り付け るこ とができる。
尚、 このロ グモー ドにおいて生成されるイベン ト と、 タイ ム ライ ンモー ドにおいて生成されるィベン ト とは全く 同じである < このロ グモー ド及びタイムライ ンモー ドとの違いは、 生成され たィベン トを、 ク リ ップカー ドと してロ グウィ ン ドウ 9 3 に表 示するか又はィベン ト と してタイムライ ン 9 5 に表示されるか という点が異なるだけである。 4 2 プロ グラム リ ス ト作成処理
次に、 ステップ S P 3 0 1 力、らステップ S P 3 1 5 のィベン ト生成処理によって作成されたィベン トを使用 して、 プロ グラ ム リ ス トを作成するプログラム リ ス ト作成処理に関して説明す る。
図 2 7のフローチヤ一トは、 このプロ グラム リ ス ト作成処理 の動作を説明するための図である。 この図 2 7 に示されたフロ 一チャー トは、 ログウィ ン ドウ 9 3 にク リ ップカー ド 1 7 9 と して表示されたイベン トを使用 してプロ グラム リ ス トを作成す る場合のフローである。
まず、 ステップ S P 4 0 1 では、 ログウィ ン ドウ 9 3 にク リ ップカー ド 1 7 9 と して表示されているイベン トを、 タイムラ ィ ン上に並べる。 このよ う にタイムライ ン上にィベン トを並べ るためには、 以下の 2つの方法がある。
第 1 の方法は、 編集オペレータが、 マウス 2 Dを使用 してク リ ップカー ドを ドラ ッグアン ド ドロ ップを使用 して、 タイムラ イ ン 9 5上の所望の位置に揷入する方法である。 具体的には、 ログウィ ン ドウ 9 3 に表示されているク リ ップカー ド 1 7 9 を マウス 2 Dでク リ ックする こ とによって、 このク リ ップカー ド がアクティ ブにな り 、 ドラ ッグ可能な状態になる。 次に、 この ク リ ップカー ド 1 7 9 を ドラ ッグさせ、 タイムライ ン 9 5 の所 望の位置で ドロ ップする と、 ベースビデオライ ン 1 3 2 A上の ドロ ップ位置に、 ク リ ップカー ド 1 7 9 に対応する ビデオイべ ン トが挿入され、 ベースオーディオライ ン 1 3 2 B上の ドロ ッ プ位置に、 ク リ ップカー ド 1 7 9 に対応するオーディオベン ト が挿入される。
第 2の方法は、 ダイ レク トエン ト リモー ドを使用 して、 ク リ ップカー ド 1 7 9 をタイムライ ン 1 7 8 B上に自動的に並べる 方法である。 まず、 編集オペレータによってロ グウィ ン ドウ 9 3 ダイ レク トエン ト リーボタン 1 8 0がク リ ック される と、 通 常モー ドから、 ダイ レク トエン ト リ ーモー ドになる。 このダイ レク トエン ト リーモー ドとは、 ログウィ ン ドウ 9 3 に表示され ているク リ ップカー ド 1 7 9 を、 ドラ ッグアン ド ドロ ップせず にク リ ックするだけで、 タイムライ ン上に並べるこ とができる モー ドである。 具体的には、 このダイ レク トエン ト リ ーモー ド において、 編集オペレータが、 ログウィ ン ドウ 9 3 のク リ ップ カー ド 1 7 9 をク リ ックする と、 タイムライ ン 9 5 のナウライ ン 1 3 9の位置に、 ク リ ック されたク リ ップカー ド 1 7 9 に対 応するビデオイベン ト及びオーディオイベン トが揷入される。 また、 このイベン トの挿入に伴なつてナウライ ン 1 3 9 は、 ダ ィ レク トエン ト リ ーモー ドによって新しく 挿入されたイベン ト のアウ ト点の位置に自動的に移動する。 つま り 、 ロ グウィ ン ド ゥ 9 3 のク リ ップカー ド' 1 7 9 を順にク リ ックする と、 タイム ライ ン 9 5 の右側にク リ ック された順に挿入されていく こ とに なる。
こ と よ う なダイ レク トエン ト リーモー ドを使用する こ と によ つて、 ログウィ ン ドウ 9 3 に表示されているク リ ップカー ド 1 7 9 を、 ドラ ッグアン ド ドロ ップせずに、 ク リ ックするだけで タイムタイ ン 9 5 に貼り付ける こ とができる。 従って、 数個で は無く何十という沢山の数のク リ ップカー ド 1 7 9 を、 タイム ライ ン上に貼り付けなければいけないよ う な場合に、 このダイ レク トエン ト リーモー ドによって、 各ク リ ップカー ド 1 7 9 に 対する ドラ ッグアン ド ドロ ップ操作を省略する こ とができるの で、 編集操作を簡略化でき る と共に編集時間を短縮する こ とが できる。
ステップ S P 4 0 2では、 編集オペレータの操作に応じて、 C P U 2 1 は、 タイムライ ン 9 5 に貼り付けられたオーディオ の ミ ッ ク スダウン設定を行な う。 このミ ッ ク スダウン処理とは、 オーディオイベン トに対して設定された 4つの トラ ックの出力 レベルを設定する と共に、 この 4つの トラ ック を最終オーディ ォ出力 (プロ グラムアウ ト) の 4チャ ンネルに対するルーティ ングを設定するための処理である。
まず、 プロ グラムウィ ン ドウ 9 4 のツールバーからオーディ ォミックスダウン用のダイアロ グ選択ボタン 1 6 2がク リ ック される と、 グラフィ カルユーザイ ンターフェース 9 0上にォー ディォミ ックスダウン用のダイアロ グ 2 0 0 が表示される。
ダイアロ グ 2 0 0 は、 ベースオーディオ ( B A S E ) 、 サブ オーディオ ( S U B ) 、 ボイ スオーバ 1 ( V O l ) 及びボイス オーバ 2 ( V O 2 ) に設定された各オーディオイベン トがもつ 4つの トラック T 1〜T 4 (又は 2つの トラ ック Τ 1〜Τ 2 ) を、 夫々最終オーディオ出力 (プログラムアウ ト) チャンネル C h l〜C h 4 にどのよ う に対応付けて出力するかを設定する ための出力ルーティ ング部 2 0 1 と、 この各オーディオイベン トがもつ 4つの ト ラック T 1〜T 4 に対し、 夫々オーディオの レベルを設定するための トラ ック フエーダ部 2 0 8 と、 専用コ ン トーローラ 5 に設けられた トタ ック フエーダが 4つの トラッ ク Τ 1〜Τ 4 にどのよ う にアサイ ンされているかを示すフエ一 ダパネルアサイ ン部 2 0 7 と、 オーディオライ ンの各 トラ ック に对して専用コン トーローラ 5 に設けられた 4つのフエ一ダレ バーをアサイ ンするための設定ダイァロ グをオープンするため のフエーダアサイ ンボタン 2 0 2 と、 専用コン トーローラ 5 に 設けられた 4つのフエ一ダレバーを使用 して各 トラ ックのォー ディオレベルをマニュアル調整するモー ドを、 オンするかオフ するかを示すオン オフボタン 2 0 2 Aと を備えている。
この出力ルーティ ング部 2 0 1 において、 各 トラック T 1 〜 T 4 に対して所望の出力チャンネル C h l 〜 C h 4位置に対応 するク ロスポイ ン トボタンをク リ ックする こ と によ り 、 各 トラ ック を所望の出力チャンネルにルーティ ングする こ とができる, 例えば、 図 2 8 に示した例は、 ベースオーディオライ ン 1 3 2 B上のイベン トの トラック T 1 のク ロスポイ ン トボタン 2 0 1 Aをク リ ックするこ とによ り 、 トラック T 1 を出力チャンネ ル C h 1 にルーティ ングしている こ とを示している。 以下同様 にして、 トラック T 2 を出力チャンネル C h 2 、 トラック T 3 を出力チャ ンネル C h 3 に、 また トラック T 4 を出力チャンネ ル C h 4 にルーティ ングしているこ とを示している。 またサブ オーディオライ ン 1 3 4 、 ボイスオーバ 1 ライ ン 1 3 8 A及び ボイスオーバ 2 ライ ン 1 3 8 Bについても同様に、 サブオーデ ィォライ ンのオーディオイベン トの トラック T 1 〜 T 4 をそれ ぞれ出力チャ ンネル C h 1 〜 C h 4 にルーティ ングし、 またボ イスオーバ 1 のオーディオイベン トの トラック T 1 及び T 2 を それぞれ出力チャンネル C h 1 及び C h 2 にルーティ ングし、 ボイスオーバ 2のオーディオイベン トの トラック T 1 及び T 2 をそれぞれ出力チャンネル C h 3及び C h 4 にルーティ ングし ている こ と を示している。
こ こでミ ッ ク スダウン設定用のダイアロ グ 2 0 0 に設けられ た、 マニュアルフエ一ダボタン 2 0 2 をク リ ックする と、 図 2 9 に示すよ う なフューダアサイ ン用のダイアロ グ 2 0 5が表示 される。
ダイアロ グ 2 0 5は、 ベースオーディオ、 サブオーディオ、 ボイスオーバ 1 及びボイスオーバ 2 に登録されたオーディオイ ベン トが有する 4つの トラック T 1〜T 4 (又は 2つの トラ ッ ク Τ 1〜Τ 2 ) を、 専用コ ン トローラ 5のどのフエ一ダレバー F 1〜F 4 にアサイ ンするかを設定するためのアサイ ンパネル 2 0 6 を有している。 当該アサイ ンパネル 2 0 6 において、 各 列に設定された各 トラック T 1〜T 4 に対して設定された所望 のフエ一ダレバー F 1〜F 4 に対応するボタンをク リ ックする こ とによ り 、 それぞれの トラック T 1〜T 4 を任意のフエーダ レバー F 1〜F 4 にアサイ ンする こ とができる。
例えば図 2 9 は、 ベースオーディオの トラック T 1 及び T 2 に属するボタン 2 0 6 A及び 2 0 6 Bをク リ ックする こ とによ り 、 ベ一スオーディオの ト ラック T 1及び T 2 を第 1 のフエ一 ダレバ一 F 1 にアサイ ンしている こ とを示している。 以下同様 にして、 サブオーディオの トラック T 1 及び T 2のボタン 2 0 6 C及び 2 0 6 Dをク リ ックする こ とによ り トラック T 1 及び T 2 を第 2のフエ一ダレバー F 2 にアサイ ンしている こ と を示 し、 さ らにボタ ン 2 0 6 E及び 2 0 6 Fをク リ ックするこ とに よ り ボイスオーバの トラック T 1 及び T 2 を第 3 のフエ一ダレ バ一 F 3 にアサイ ンしている こ とを示す。
各オーディ オライ ンの ト ラ ック T 1〜T 4のォ一ディオレべ ルを設定する場合には、 マウス 2 Dで、 トラ ック フエーダ部 2 0 8のスライ ダ 2 0 8 Aを上下させる こ と によって所望のォ一 ディォを設定するこ とができる。 また、 オン Zオフボタン 2 0 2 Aがオンになっている場合には、 専用コン トロ ーラのフエ一 ダレバーによるマニュアル調整が可能である。 従って、 編集ォ ペレ一タが、 このフエ一ダレーバ F 1〜F 4 を上下させる こ と によって、 各フエ一ダレバーに対応付けられた トラ ック におい て所望のオーディオレベルろ設定するこ とができる。 また、 こ の時、 編集オペレータが専用コ ン ト ローラ 5のフエ一ダレバー を操作する と、 そのフエ一ダレバーの操作に追従して、 ミ ック スダウン設定ダイアログの トラ ック フエーダ部 2 0 8 のスライ ダ 2 0 8 Aが自動的にスライ ドする。
また、 フエーダアサイ ンダイアロ グ 2 0 5 において、 各ォ一 ディオライ ン ( B A S E、 S U B、 V O l 及び V 0 2 ) の各 ト ラ ック T 1〜T 4 に対する専用コン トローラのフエ一ダレバー F 1〜F 4 のアサイ ンを自 由に設定する こ とができ る。 従って、 例えば、 編集すべきオーディオがベースオーディオ ( B A S E ) のみの場合には、 このべ一スオーディオの トラ ック T 1〜T 4 に対して、 それぞれフエ一ダレバー F 1〜F 4 をアサイ ンする こ とができたり もする。 つま り 、 各オーディオライ ン ( B A S E、 S U B、 V O l 及び V 0 2 ) 及び各 ト ラ ック T 1〜T 4 を、 物理的に専用コン トロ一ラ 5 のフヱーダレバーと関連付けてい るのでは無く 、 ソフ ト的に関連付けている事によって、 各ォー ディオライ ン及び各 トラ ック Τ 1〜Τ 4 と、 専用コン トローラ 5のフエ一ダレバーと関連付けを如何様にでも変更する こ とが できる。 ステップ S P 4 0 2 においてオーディオミ ックスダウンの設 定が終了する と、 次のステップ S P 4 0 3 に進む。
ステップ S P 4 0 3 では、 編集オペレータの編集操作に応答 して、 C P U 2 1 は、 タイムライ ン上のイベン トに対してェフ ェク トを設定するためのエフェク ト設定ダイアログ 1 9 0 をォ ープンする。 具体的には、 編集オペレータが、 プロ グラムウイ ン ドウ 9 4 においてビデオエフェク トボタン 1 5 9 をク リ ック する と、 図 3 0 に示すよ う なエフェク ト設定用のダイアロ グ 1 9 0がオープンする。
このエフェク ト設定ダイアログ 1 9 0は、 現在設定されてい るエフェク トパターンを示すエフェク ト ノ タ一ン部 1 9 1 と、 使用頻度の高いエフェク トパターンが表示されるフエバリ ッ ト パターン部 1 9 2 と、 選択されたエフェク トの トランジシヨ ン を設定するための トランジショ ン設定部 1 9 3 と、 エフェク ト を設定する対象 (ビデオ/オーディオ) を選択する ビデオ Zォ 一ディォ選択部 1 9 5 と、 エフェク トをモディ ファイするため のパラメータが設定されるモディ ファイ部 1 9 8 と 、 キー信号 に関するパラメータを設定する K e y設定部 1 9 9 と を備えて いる。
ステップ S P 4 0 4では、 エフェク ト設定対象と して、 ビデ ォ及びオーディオを選択する。 ビデオとオーディオの両方に同 時にエフェク トをかける場合には、 「V i d e o」 と 「A u d i o」 ボタン 1 9 5の両方をク リ ック し、 ビデオ又はオーディ ォのいずれか一方のみにエフェク トをかける場合には、 「V i d e o」 又は 「A u d i o 」 ボタン 1 9 5 のいずれかをク リ ツ クする。 ステップ S P 4 0 5 では、 編集オペレータは、 所望のェフエ ク トを選択する。 このエフェク トを選択する方法と して、 以下 の 3つの方法のいずれかによつてエフヱク トを選択する こ とが できる。
第 1 のエフェク ト選択方法は、 エフェク トを表わすパターン 番号を直接入力するこ と によって、 所望のエフェク トを設定す る方法である。 例えば、 編集オペレータが、 所望のエフェク ト パターン番号を予め知っている場合には、 パターン番号設定部 1 9 1 に所望のエフェク トパターンのパターン番号を、 キーボ ー ド 2 Cよ り 直接入力する と、 この入力されたパターン番号に 対応した所望のエフェク 卜が設定される。
第 2のエフェク ト選択方法は、 編集オペレータが好んで使用 する使用頻度の高いエフェク トのパターン (以下、 これをフエ イ ノくリ ッ ト ノ ターン(Fav or i te Pattern)と呼ぶ) 力 ら所望のェ フエタ トを選択する方法である。 具体的には、 C P U 2 1 は、 編集オペ レータが好んで使用する使用頻度の高いエフ - タ トの パターンを常に記憶しておき、 このエフェク ト設定ダイアロ グ 1 9 0 のフ エイ ノくリ ッ トパターン表示部 1 9 2 に、 この使用頻 度の高いエフェク トのパターンを示すアイ コ ンが表示されるよ う に構成さ されている。 編集オペレータが、 このフェイバリ ツ トパターン表示部 1 9 2の中から所望のエフェク トパターンを ク リ ッ クする こ と によって、 所望のエフェク トが選択される。 第 3 のエフエ タ ト選択方法は、 全パターン リ ズ トの中から所 望のエフェク トパターンを選択する方法である。 編集オペレー タが、 ノ ターン リ ス トボタ ン 1 9 4 を押すと 、 登録されている 全てのエフヱク トパターンが種類毎に表示され、 その中から所 望のエフエタ ト ノ、。ターンをク リ ックするこ と によって、 所望の エフェク トが選択される。
これらの何れかの方法でエフェク トが選択される と、 その選 択されたエフエタ トのアイ コ ンが、 エフェ ク ト ノ、 "ターン部 1 9 1 に表示される。 これによつて、 エフェク トが選択される。 ステップ S P 4 0 6では、 編集オペレータによって、 選択さ れたエフエタ トに対して所望の トランジショ ン時間が設定され る。 この選択されたエフェク トに対して トランジシ ヨ ン時間を 設定する場合には、 ダイアログ 1 9 0上の トランジシ ヨ ン設定 部 1 9 3 Aにおいて、 選択したエフェク トの遷移時間 ( トラン ジシヨ ン時間) をキ一ボー ドから入力するか又はプリセッ ト さ れた複数個の トランジショ ン時間の中から所望の トランジショ ン時間を選択するこ とによ り トランジシヨ ン時間を設定するこ とができる。
ステップ S P 4 0 7では、 選択されたエフェク トに対してェ フエク トパラメ一タを設定する。 具体的には、 このエフェク ト パラメータ とは、 例えば、 ビデオ切り替え位置のエッジ(Edge) に関するパラメータ、 ライ トを当てるよ うな効果であるライテ ィ ング(Lighting)に関するパラメータ、 影や帯を引 く よ う な効 果である トライアル(Traial)/ シャ ドウ(Shadow)に関するパラ メ ー タ 、 エ フ エ タ ト を設定する 位置であ る ロ ケー シ ョ ン (Location)に関するパラメータ等であって、 エフェク トの種類 に応じて様々なパラメータを設定できるよ う になつている。 ェ フエク ト設定ダイアログ 1 9 0のモディ ファイ部 1 9 8 を使用 するこ とによって、 これらのエフェク トに関する各種パラメ一 タを設定する こ とができる。 さ らにダイアロ グ 1 9 0 上におい ては、 キーボタン 1 9 9 をク リ ック入力する こ と によってク ロ マ(Chroma)キー及び又は外部(External )キーを設定し得るよ う になされている。
ステップ S P 4 0 8では、 編集オペレータの操作にしたがつ て、 C P U 2 1 は、 設定されたエフェク トをプレビューするす るよ う に各ソースデバイス及び編集処理装置を制御する。 編集 オペレータが、 ダイアログ 1 9 0 のフエ一ダレバー 1 9 6又は A Tボタン (A u t 。ボタン) 1 9 7 を操作するこ とによって、 設定されたエフェク トをビューァ 1 0 6 の画面上でプレビュー するこ とができる。
設定されたエフヱク トが、 ワイプ効果等の トランジシ ヨ ンェ フエク トの場合には、 フエ一ダレバー 1 9 6が最も上に位置し ている状態ではビュ一ァ 1 0 6 にはバック グラン ド画像が表示 される。 またフエ一ダレバー 1 9 6 をマウスによ り ドラ ッグし て上から下の方向に向かって移動させるに従って、 フォアグラ ン ド画像に次第に トランジシヨ ン していく。 そして、 フエーダ レバー 1 9 6 が最も下に位置している状態ではビューァ 1 0 6 にはフォアグラン ド画像が表示される。 これによ り フエ一ダレ バー 1 9 6 のマニュアル操作による任意の速度及び位置で トラ ンジシヨ ンエフェク トをプレビューするこ とができる。
尚、 フォアグラン ド画像とは、 トランジシヨ ンエフェク トの 実行によって画面に現れる画像または、 アニメ一シ ョ ンェフエ ク トの実行によってバック グランフ ド画像に揷入され、 ェフエ ク トパターンを埋める画像の事を言う。 また、 バック グラン ド 画像とは、 トランジシヨ ンエフェク トの実行によって、 画面か ら消し去られる画像または、 アニメーショ ンエフェク トの実行 によってフォアグラン ド画像が埋められたエフェク トパターン が挿入される画像のこ とを言う。
また、 本実施例の編集装置においては、 エフエタ トの種類と して トランジシヨ ンエフェク ト とアニメーショ ンエフェク トの
2種類を有している。 トランジシヨ ンエフェク ト とは、 ワイプ 効果やページターン効果等のよ う に、 2つの画像を切り換える ビデオエフェク トのこ とを言い、 アニメーショ ンエフヱク ト と は、 3次元画像空間変換等の画像に特殊効果をかけるエフエタ ト、 または、 スポッ トライ ト効果、 ズームアップ効果及びピク チヤイ ンピクチャ効果等のよ う にある画像にビデオエフェク ト のかかった画像を挿入するエフヱク トのこ と を言う。
また、 フエ一ダレバー 1 9 6 のマ二ユアノレ操作の代わり に、 A Tボタン (A u t 。 ボタン) 1 9 7がク リ ック された場合に は、 エフエタ トに対して予め設定された トランジシヨ ンスピー ドで、 ノくック グラン ド画像からフォアグラン ド画像に トランジ シヨ ンしていく 。 具体的には、 A Tボタン 1 9 7がク リ ック さ れる と、 まず初めにフエ一ダレパー 1 9 6 が最も上の位置に移 動して、 その後、 自動的に一定のス ピー ドで徐々 に下に移動し ていく。 そのフエ一ダレバー 1 9 6 の移動に伴なつて一定のス ピー ドで、 ノくック グラン ドビデオからフォアグラン ドビデォに トランジシヨ ンする トランジシヨ ンエフヱク トが実行される。 その結果、 ビューァ 1 0 6 上にて トランジシヨ ンエフェク トを プレビューする こ とができ る。
このプレビュー処理を行な う段階では、 このステ ップ 5 0 3 において選択されたエフェク トは編集オペレータによってまだ タイムライ ン 9 5 のエフェク トライ ン 1 3 5 に貼り付けられて いないので、 このエフェク トがどのイベン トに対して設定され るかはまだ分からない。 従って、 このエフェク トをプレ ビュー するためのプレビュー処理を行なうために必要なバック グラ ン ド画像及びフォアグラン ド画像は、 既に、 編集処理装置 3 の画 像処理部 3 Cに設定されていたビデオ信号を使用 し、 エ フ ェ ク トを仮想的に実行する。 なぜなら、 このエフェク トのプレ ビュ —は、 設定されたエフェク ト 自体、 設定された トラ ンジシ ヨ ン 時間及び設定されたエフ -ク トバラメータが適切か否かをチェ ックするためのプレビュー処理であるので、 バック グラン ド画 像及びフォア グラ ン ド画像はどのよ う な画像であっても良いか らである。
実際には、 編集処理装置 3 のマ ト リ ック ススィ ツチャ部 3 B の制御によって、 現在、 画像処理部 3 Cに対してビデオ信号 S 2 4 と して供給されている信号をフォアグラン ドビデオと し、 画像処理部 3 Cに対してビデオ信号 S 2 6 と して供給されてい る信号をバック グラン ドビデオと して使用する。 つま り 、 この エフェク トのプレビューをおこな う と きには、 コンピュータの C P U 2 1 は、 画像処理部 3 Cにビデオ信号 S 2 6 と して供給 されていた信号をバック グラン ド画像と して使用 し、 画像処理 部 3 Cにビデオ信号 S 2 4 と して供給されている信号を、 フォ アグラン ド画像と して使用する よ う に編集処理装置を制御する c ステ ップ S P 4 0 8 のプレ ビューの結果、 エフェ ク トダイァ ロ グ 1 9 0 によって設定したエフェク トが所望のエフェク トで あったときには、 次のステップ S P 4 0 9 に進む。
ステップ S P 4 0 9 では、 編蕖オペレータの操作に したがつ て、 C P U 2 1 は、 選択されたエフェク ト及び、 そのエフェク トに関するフォアグラン ドィベン トを、 タイ ムライ ン 9 5 に貼 り付ける。 このタイムライ ンへのエフヱク 卜の貼り 付け方は、 トランジシヨ ンエフェク ト とアニメーショ ンエフェ ク 卜 とで異 なるので、 ト ラ ンジシ ヨ ンエフェ ク トのタイ ム ライ ンの貼り付 け方法とアニメーショ ンエフェク トのタイ ムライ ンの貼り付け 方法とをそれぞれ説明する。
まず、 図 3 1 A及び図 3 6 Bを参照して、 トランジシ ヨ ンェ フエク トをタイムライ ンに貼り付ける方法を説明する。
編集オペレータ力 ダイアロ グ 1 9 0のフ エイ ノく リ ッ ト パ タ ーン表示部 1 9 2 内の選択された ト ラ ンジシ ヨ ンエ フ ェ ク トの アイ コン 1 9 1 Bを、 タイ ムライ ン 9 5上にマウス 2 Dによつ て ドラ ッグする と 、 図 3 1 Aに示すよ う なアイ コ ンの影 1 9 2 Xが、 タイ ムライ ン 9 5 上に表示される。
このアイ コ ンの影 1 9 2 Xを、 ライ ム ライ ン 9 5 のエフェ ク トライ ン 1 3 5 の所望する位置で ドロ ップする と、 図 3 1 Bに 示すよ う に、 ト ラ ンジシ ヨ ンエ フェク ト 1 9 2 Yが設定される。
この図 3 I Bは、 「H e 1 i — 1 」 とレヽ ぅ イ ベン ト力 ら 「 S h i p 2」 とレ、うイベン トに遷移する と き に、 「M i x 」 によ つて示されたエフェク ト期間において、 「 H e 1 i 一 1 」 の画 像と 「 S h i p 2」 の画像と を ミ ッ ク スする こ と を表わしてい る。 つま り 、 この ミ ックスエフェク トを実行する場合には、 「 H e 1 i 一 1 」 とレ、うイベン トがバ ッ ク グラ ン ド画像と して指定 され、 「 S h i p 2」 とい うイベン トがフォ アグラ ン ド画像と して指定される。
このよ う にィベン ト間に トラ ンジショ ンエフェク トを設定す る と、 ノくック グラン ド画像と して指定されているィベン トのァ ゥ ト点が、 自動的に トランジシ ヨ ン時間分だけ延長ざれる。 例 えば、 バック グラン ド画像と して指定されているイベン ト 「 H e 1 i — 1 」 のア ウ ト点が、 「 0 0 : 0 0 : 0 5 : 0 0」 であ つて、 この ミ ッ ク スエフェ ク ト 1 9 2 Yの ト ラ ンジシ ヨ ン時間 が 2秒であったとする と 、 ノくック グラン ド画像と して指定され ているイベン ト 「 H e 1 i — 1 」 のア ウ ト点が、 自動的に 2秒 だけ延長され、 「 0 0 : 0 0 : 0 7 : 0 0」 になる とレ、う こ と である。
このよ う な トランジショ ンエフヱク トを実行する場合には、 コンピュータの C P U 2 1 からの制御信号に応答して、 編集処 理装置 3 のマ ト リ ッ ク ス スィ ッチャ部 3 Bは、 「H e 1 i — 1 J という素材のビデオ信号を、 出力端子 O U T 9 から出力される 信号 S 2 6 と して設定し、 「 S h i p 2」 とい う素材のビデオ 信号を、 出力端子 O U T 7 から出力される信号 S 2 4 と して設 定する よ う にク ロ スポイ ン トを切り換える。 また、 コ ンビュ一 タの C P U 2 1 からの制御信号に応答して、 編集処理装置 3 の 画像処理部は、 この ミ ック スエフェク 卜に設定された トランジ ショ ン時間及び各種のエフェク トパタメータに応じたエフェク トを実行する よ う に、 ミ キサ 5 4 Bを制御する。
次に、 図 3 2から、 図 3 5 を参照して、 アニメーシ ョ ンエフ ェク トをタ イ ムライ ンの貼り付け方法を説明する。 アニメーシ ヨ ンエフェ ク トをタイ ムライ ン上に貼 り付ける方法は、 ェフエ ク トの種類及びイベン トに対するエフヱク 卜の設定の仕方によ つて異なって く るので以下の第 1 のケース及び第 2のケースに 分けで説明する。
第 1 のケースは、 1 つのィベン トにズ一ム効果やライ トスポ ッ ト等の特殊効果をかけるためのエフェク トを設定する場合で ある。 この第 1 のケースについて、 図 3 2 A及び図 3 2 Bを参 照して説明する。
トランジシヨ ンエフェク トをタイムライ ン上に貼り 付けた操 作と同 じよ う に、 編集オペレータが、 ダイアロ グ 1 9 0 のフエ イ ノくリ ッ トパターン表示部 1 9 2内の選択されたアニメ一ショ ンエフェク 卜のアイ コン 1 9 1 Bを、 タイムライ ン 9 5 上にマ ウス 2 Dによって ドラ ッグする と、 図 3 2 Aに示すよ う なアイ コンの影 1 9 2 Eが、 タイ ムライ ン 9 5上に表示される。 この アイ コンの影 1 9 2 Eを、 ライムライ ン 9 5 のエフェク ト ライ ン 1 3 5の所望する位置で ドロ ップする と、 図 3 2 B に示すよ う に、 イベン ト 「 0 0 2」 に対して特殊効果等のアニメーショ ンエフェク ト 1 9 2 Fが設定される。
尚、 図 3 2 Bに示したよ う なアニメーショ ンエフェク トを実 行する場合には、 コンピュータ 2の C P U 2 1 力ゝらの制御信号 に応答して、 編集処理装置 3 のマ ト リ ッ ク ススィ ツチャ部 3 B は、 イベン ト 「 0 0 2 」 と い う素材のビデオ信号を出力端子◦ U T 9から出力される信号 S 2 6 と して設定する よ う に、 ク ロ スポイ ン トを切 り換える。 また、 コ ン ピュータの C P U 2 1 か らの制御信号に応答して、 編集処理装置 3 の画像処理部 3 Bは、 このモディ フアイエフェク トに設定された ト ランジショ ン時間 及び各種のエフェク トパタ メ 一タに応じたエフヱク トを実行す る よ う に、 特殊効果ブロ ッ ク 5 3 を制御する。
第 2のケースは、 ピクチャイ ンピクチャ効果等のよ う に、 あ るィベン 卜に対してエフェク トのかかったィベン トを挿入する ためのエフェ ク と設定する場合である。 この第 2のケースを説 明するために、 以下のよ う に、 「エフェク ト と ク リ ッブと を同 時に設定する場合」 、 「先に貼ったエフェク トを、 後から貼る ク リ ップと同 じ長さにする場合」 及び 「後から貼る ク リ ップを、 先に貼ったエフェク 卜 と同 じ長さにする場合」 について、 それ ぞれ説明する。
まず、 エフェク ト と ク リ ップと を同時に設定する場合につい て、 図 3 3 A及び図 3 3 B を参照して説明する。
まず、 編集オペレータが、 ロ グウィ ン ドウに表示されたク リ ップカー ド 1 7 9 をマウス 2 Dによってタイ ムライ ン上に ドラ ッグする と、 図 3 3 Aに示すよ う なアイ コ ンの影 1 9 2 Gが、 タイムライ ン 9 5 上に表示される。 こ のアイ コ ンの影 1 9 2 G を、 オーバ レイ ビデオライ ン 1 3 6 の所望する位置で ドロ ップ する と、 図 3 3 Bに示すよ う に、 オーバレイ ビデオライ ン 1 3 6 に、 ロ グウィ ン ドウ 9 3 力 ら ドラ ッグアン ド ドロ ップされた イ ベン ト 「 0 0 7 」 が貼 り 付けされる。 さ らに、 これと同時に、 エ フ ェ ク ト設定ダイ アロ グ 1 9 0 に現在設定されているェフ エ ク トが、 自動的にエフェク 卜 ライ ン 1 3 5 に貼 り付け られる。 また、 そのエフェク トの期間 と して、 オーバレイ ビデオライ ン 1 3 6 に貼り付けられたイ ベン ト 「 0 0 7 」 の期問に対応する 期間が設定される。
このよ う に、 オーバ レイ ビデオライ ン 1 3 6 に所望のィベン トを貼り付けるだけで、 タイ ムライ ンのエフェク ト ライ ン 1 3 5 に自動的にエフェ ク 卜が設定される こ と によって、 一層操作 性を向上させる こ とができ る。
図 3 3 Bに示 したよ う なアニメーシ ョ ンエ フェク トを爽行す る場合には、 コ ンピュータ 2 の C P U 2 1 力 らの制御信号に応
1 〇 5 答して、 編集処理装置 3 のマ ト リ ック ススイ ツチヤ部 3 Bは、 イベン ト 「 0 0 2」 とい う素材のビデオ信号を、 出力端子 O U T 9から出力される信号 S 2 6 と して設定し、同 じイベン ト「 0 0 7」 とい う素材のビデオ信号を、 出力端子 O U T 7から出力 される信号 S 2 4 と して設定する よ う にク ロ スポイ ン トを切 り 換える。 また、 コ ンピュータの C P U 2 1 からの制御信号に応 答して、 編集処理装置 3 の画像処理部 3 Bは、 このモディ フ ァ イエフエク 卜に設定された トランジショ ン時間及び各種のエフ 工ク トパタメータに応じたエフヱク トを実行する よ う に、 特殊 効果プロ ック 5 3 を制御する。
次に、 先に貼ったエフェク トを、 後から貼るク リ ップと同 じ 長さにする場合について、 図 3 4 A及び図 3 4 B を参照して説 明する。
まず、 編集オペレータが、 図 3 4 Aに示すよ う に、 ダイァロ グ 1 9 0 において選択されたアニメーシ ョ ンエフェク トのアイ コ ン 1 9 1 B を、 タイ ムライ ン 9 5 のエフェ ク ト ライ ン 1 3 5 上にマウス 2 Dによって ドラ ッグし、 所望にィ ベン 卜 の上にに なるよ う に ドロ ップする こ と によって、 エフェク ト ライ ン 1 3 5 上に所望のエフェク ト 1 9 2 Kを貼り付ける。
次に、 編集オペレータが、 図 3 4 Aに示すよ う に、 ロ グウイ ン ドウに表示されたク リ ップカー ド 1 7 9 をマウス 2 Dによつ てタイムライ ン上に ドラ ッ グする。 そ して、 図 3 3 B に示すよ う に、 ドラ ッグしたク リ ップカー ドをタイ ムライ ンのォ一バレ ィ ビデオライ ン 1 3 6 に ドロ ップする と、 所望にイベン ト 1 9 2 Lがオーバレイ ビデオライ ン 1 3 6 に貼り付けられる。 そ し て、 このフォアグラン ド画像と して貼り付けられたィベン ト 1 9 2 Lの期間に応じて、 先に貼り付け られたエ フェ ク ト 1 9 2 Kの期間が変更され、 その結果、 エフェク ト ライ ン 1 3 5 には. この後に貼り付けられたィベン ト 1 9 2 Lの期間に対応した期 間を有したエフェ ク ト 1 9 2 Mが表示される。 つま り 、 後に貼 り付けられたイベン ト 1 9 2 Lの期間に応じて、 エフェク ト 1 9 2 Mの ト ラ ンジシ ョ ン期間が変更される。
このよ う にして、 このフォアグラン ド画像と して貼り付け ら れたイベン ト 1 9 2 Lの期間に応じて、 先に貼り付けられたェ フエク トの期間を自動的に変更する こ とによって、 エフェク ト の期間を再設定する必要がないので、 編集操作性を向上させる こ とができ る。
図 3 4 B に示したよ う なアニメーショ ンエフェク トを実行す る場合には、 コ ンピュータ 2の C P U 2 1 からの制御信号に応 答して、 編集処理装置 3 のマ ト リ ック ススイ ツチヤ部 3 Bは、 イ ベン ト 「 0 0 2」 とい う素材のビデオ信号を、 出力端子 O U T 9から出力 される信号 S 2 6 と して設定し、同 じイ ベン ト「 0 0 2」 とい う 素材のビデオ信号を、 出力端子 O U T 7から出力 される信号 S 2 4 と して設定する よ う にク ロ スポイ ン 卜を切 り 換える。 また、 コ ンピュータの C P U 2 1 力 らの制御信号に応 答して、 編集処理装置 3 の画像処理部 3 Bは、 このピクチャィ ンピクチャエフェク トに設定された トランジショ ン時間及び.各 種のエフェク トパタメータに応じたエフェク トを実行するよ う に、 スィ ツチャブロ ック 5 2 を制御する。
次に、 後から貼るク リ ップを、 先に貼ったエフヱ ク ト と同 じ 長さにする場合について、 図 3 5 A及び図 3 5 Bを参照して説 明する。 まず、 編集オペレータが、 図 3 5 Aに示すよ う に、 ダイァロ グ 1 9 0 において選択されたアニメーシ ョ ンエフェク 卜のアイ コ ン 1 9 1 B を、 タイ ムライ ン 9 5 のエ フェ ク ト ライ ン 1 3 5 上にマウス 2 Dによって ドラ ッグし、 所望にィベン 卜の上にに なるよ う に ドロ ップする こ と によって、 エフェク トライ ン 1 3 5上に所望のエフェク ト 1 9 2 0を貼り付ける。
次に、 編集オペレータが、 図 3 5 Aに示すよ う に、 ロ グウイ ン ドウに表示されたク リ ップカー ド 1 7 9 をマウス 2 Dによつ てタイムライ ン上に ドラ ッグする。 そ して、 図 3 5 Bに示すよ う に、 ドラ ッグしたク リ ップカー ドをタイムライ ンのエフェク トライ ン 1 3 5 の先に貼られたエフ工ク ト 1 9 2 0に重なる よ う に ドロ ップする と、 イ ベン ト 1 9 2 Pがォーノくレイ ビデオラ イ ン 1 3 6 に貼り付けられる。 そ して、 先に貼り付けられたェ フエ ク ト 1 9 2 Oの期間に応 じて、 このフォ ア グラ ン ド画像と して貼り付けられたイベン ト 1 9 2 Nの期間が変更され、 その 結果、 オーバ レイ ビデオラ イ ン 1 3 6 には、 こ の先に貼り付け られたエフェク ト 1 9 2 Oの期間に対応した期間を有したィべ ン ト 1 9 2 Pが表示される。 つま り 、 この先に貼り付けられた エフェク ト 1 9 2 0の期間と 、 後に貼られたイベン ト 1 9 2 P の期間とがー致する よ う に、 イ ベン ト 1 9 2 Pのァ ゥ ト点が変 更される とレヽ う こ とである。
このよ う に して、 この先に貼り付けられたエ フェ ク ト期間と、 後に貼られたィベン トの期間 とがー致する よ う にする こ と によ つて、 イ ベン ト の期問を変更する作業を省略する こ とができ る ので、 編槳操作性を向上させる こ とができ る。
図 3 5 B に示 したよ う なアニメ ーシ ョ ンエ フェク 卜を実行す る場合には、 コ ンピュータの C P U 2 1 からの制御信号に応答 して、 編集処理装置 3 のマ ト リ ックススィ ッチャ部 3 Bは、 ィ ベン ト 「 0 0 6」 という素材のビデオ信号を、 出力端子 O U T 9から出力される信号 S 2 6 と して設定し、 イベン ト 「 0 0 3 J という素材のビデオ信号を、 出力端子 O U T 7から出力される 信号 S 2 4 と して設定する よ う にク ロ スポイ ン トを切り換える , また、 コンピュータの C P U 2 1 からの制御信号に応答して、 編集処理装置 3 の画像処理部は、 このモディ フ ァ イ エフ ヱ ク 卜 に設定された トランジショ ン時間及び各種のエフェク トパタメ —タに応じたエ フェク トを実行する よ う に、 特殊効果ブロ ック 5 3 を制御する。
次に、 タイ ムライ ン 9 5 を使用 して、 エフェク トをタイ ムラ イ ン 9 5 に貼り付ける方法について、 図 3 6 A及び図 3 6 Bを 参照して説明する。
まず、 編集オペレータが、 ビューァウィ ン ドウ 9 2 の T Lボ タン 1 2 6 をク リ ック入力する と タイ ムライ ン制御モー ドに切 り換わる。 このタ イ ムライ ン制御モー ドとは、 タ イ ムライ ン 9 5 と ビューワ ウイ ン ドウ 9 2 を時間的に関連つけた制御モー ド である。 従って、 タイ ムライ ン 9 5 におけるナウライ ン 1 3 9 の表示位置のタイ ムコー ドに対応する ビデオ画像が、 ビューァ ウィ ン ドウ 9 2 のビューァ 1 0 6 に表示される。
編集オペレータが、 フアイ ノレの所望フ レームをサーチするた めに、 デノくイ スコ ン ト 口一ル部 9 6 のス ライ ダ部 1 2 0 を操作 する と、 それに伴なつてナウ ライ ン 1 3 9 は、 タイ ムライ ン 9 5 上を移動する。 つま り 、 編集オペレータが再生やジョ グ走行 等のデバイ スコ ン ト ロールを行な う と 、 コ ンピュータ 2は、 ナ ゥライ ン 1 3 9 がタイ ムライ ン 9 5上を右に移動する よ う に、 モニタ 2 Dに表示されるグラフィ カルユーザイ ンターフェース 9 0 を変更し、 これと連動してビューァ ウィ ン ドウ 9 2 の ビュ ーァ 1 0 6 にビデオ画像が表示される よ う に、 各ソ一スデバイ スを制御する。
次に、 編集オペレータ力 ビューァウィ ン ドウ 9 2 のビュ一 ァ 1 0 6 に表示されたビデオイ メージを見ながら、 所望の位置 にてマークイ ンポタン 1 1 5 をク リ ックする と 、 C P U 2 1 は マークイ ンボタン 1 1 5が押されたと きに、 タイ ムライ ン 9 5 上においてナウライ ン 1 3 9 が存在している位置に、 イ ン点ポ イ ン トを示すフラグ 1 6 6 C とマーク ライ ン 1 6 6 Cを表示す る。
また、 このィ ン点がマ一キングされたタイ ミ ングにおいて、 ビューァウィ ン ドウ 9 2上のイ ン点表示欄 1 1 0 には、 ビュ一 ァ 1 0 6 に表示されているフ レームのスタ ンプピクチャでは無 く て、 タイ ムライ ン制御モー ドにおいてイ ン点がマーキングさ れたこ と を示すために、 フラ グ 1 1 6 Cのよ う な画像が表示さ れる。
さ らに、 編集オペレータが、 デバイスコン ト 口 ル部 9 6 の ス ライ ダ部 1 2 0 を操作してファイ ルをサーチし 所望の位置 にてマーク ァ ゥ トボタ ン 1 1 6 をク リ ックする と C P U 2 1 は、 マークア ウ トボタ ン 1 1 6 が押されたと きに タイ ムライ ン 9 5 上においてナウライ ン 1 3 9が存在している位置に、 ァ ゥ ト点ポイ ン トを示すフラグ 1 6 6 B とマ一ク ライ ン 1 6 6 D を表示する。
また、 このァ ゥ ト点がマ一キングされたタイ ミ ングにおいて ビューァ ウィ ン ドウ 9 2上のア ウ ト点表示欄 1 1 2 には、 ビュ ーァ 1 0 6 に表示されてレヽるフ レームのスタンプピクチャでは 無く て、 タイ ムライ ン制御モ一 ドにおいてァ ゥ ト点がマーキン グされたこ と を示すために、 フラグ 1 1 6 Dのよ う な画像が表 示される。
次に、 編集オペレータは、 図 3 6 Bに示すよ う に、 ログウイ ン ドウ 9 3 のク リ ップカー ド 1 7 9 の中から所望のク リ ップカ — ド 1 7 9 をマウス 2 Dによって ドラ ッグし、 設定したイ ン点 のマ一ク ライ ン 1 6 6 C とァゥ ト点のマーク ライ ン 1 6 6 Dの 間のオーバレイ ビデオライ ン 1 3 6上に ドロップする。 その結 果、 オーバレイ ビデオライ ン 1 3 6上のマーク ライ ン 1 6 6 C 及びマ一ク ライ ン 1 6 6 Dの間に、 ロ グウィ ン ドウ 9 3 力 ら ド ロ ップされたイベン トが挿入される。 また、 図 3 6 Bに示すよ う に、 ステップ S P 4 0 7 において設定されているエフェク ト が、 自動的に、 エフェク トライ ン 1 3 5 上のマーク ライ ン 1 6 6 C及びマーク ライ ン 1 6 6 Dの間に、 挿入される。
も し、 ロ グゥン ドウ 9 3 力 ら ドロ ップされるク リ ップのデュ レーシヨ ンと、 マ一ク ライ ン 1 6 6 C及びマーク ライ ン 1 6 6 Dによって規定されるデュ レ一ショ ンとが異なる場合には、 マ —ク ライ ン 1 6 6 C及びマーク ライ ン 1 6 6 Dによって規定さ れるデュ レーシヨ ンよ優先させるよ う に してレ、る。 つま り 、 マ 一ク ライ ン 1 6 6 C及びマーク ライ ン 1 6 6 Dによって規定さ れるデュ レーシヨ ンに従って、 ロ グゥン ドウ 9 3 力 ら ドロ ップ されるク リ ップのァゥ ト点のタイ ムコ 一 ドを補正する よ うする こ とによって、 マーク ライ ン 1 6 6 C及びマーク ライ ン 1 6 6 Dによって規定されるデュ レーショ ンに対して、 ロ グゥン ドウ 9 3 力 ら ドロ ップされるク リ ップのデュ レーシヨ ンと を一致さ せる こ とができ る。
尚、 図 3 6 A及び図 3 6 Bでは、 オーバレイ ビデオライ ン 1 3 6 にィベン トを貼る例を説明 したが、 同様に、他のライ ン (サ ブォ一ディ オライ ン 1 3 4 、 ボイスオーバライ ン 1 3 8 A、 1 3 8 B ) にもク リ ップを貼るこ とができる。
以上のよ う な操作及び制御によって、 既にタイムライ ン上に 貼り付けられているバック グラン ドィベン 卜の位置をタイムラ イ ン上で見ながら、 タイムライ ン 9 5上においてエフェク ト及 びエフェク トに関するフォアグラン ドィベン トの挿入される区 間を設定する こ とができる。 また、 既にタイ ムライ ン上に貼り 付けられているバック グラン ドィベン 卜のイ ン点及びァゥ ト点 等の編集点にこだわるこ と なく 、 任意の位置及び期間にェフエ ク ト及びフォアグラン ドィベン トを貼り付けるこ とができる。 ステップ S P 4 0 9のエフエタ トの貼り付け処理及びフォア グラン ドィベン トの貼り付け処理が終了する と、 次のステップ S P 4 1 0 に進む。
ステップ S P 4 1 0 において、 編集オペレータの制御に した がって、 コンピュータ 2の C P U 2 1 は、 タイ ムライ ン 9 5 上 に作成したプロ グラムをプレビューするプレビュー処理を実行 する。 具体的には、 編集オペレーが、 プレ ビューポタ ン 「 P V W」 1 2 3 Bをク リ ックする と 、 タイ ムライ ン 9 5 のナウライ ン 1 3 9 の位置からプレビュ ーが開始される。 プレ ビュ ー中は、 コンピュータ 2の制御によって、 タイ ムライ ン 9 5 上のプロ グ ラムに対応した映像及び音声がローカルス ト レ一ジ 8 から再生 される。 さ らに、 コ ンピュータ 2の制御によって、 タイ ムライ ン 9 5上のプログラムに対応した映像処理及び音声処理が行わ れるよ う に、 編集処理装置 3 は、 供給された映像素材及び音声 素材を処理し、 コ ンピュータ 2 に出力する。 コ ンピュータ 2 の C P U 2 1 は、 供給された映像がビューァ ウィ ン ドウ 9 2 の ビ ユ ーァ 1 0 6 に表示する よ う に表示コ ン ト ローラ 2 3 を制御す る と共に、 その表示されている映像と対応する よ う に、 タイ ム ライ ン 9 5上においてナウライ ン 1 3 9のタイ ムライ ン 9 5 上 における位置を可変する よ う に表示コ ン ト ローラ 2 3 を制御す る。
ナウライ ン 1 3 9 が、 ビュ ーァ ウィ ン ドウ 9 2 の ビューァ 1 0 6 に表示されている映像と対応する よ う に移動しているので 編集オペレータは、 ビューァ ウィ ン ドウ 9 2のビューァ 1 0 6 に表示されている映像を見ながら、 ビューァ 1 0 6 に表示され ている映像が、 タイ ムライ ン 9 5上に作成されたプロ グラムの どの位置の映像であるのかを容易に把握でき る と共に、 タイム ライ ン 9 5 上に作成されたプロ グラムのどの位置までビューィ ングが終了 したかを容易に把握する こ とができ る。
次に、 このプレビューのと きの編集処理装置 3 の処理につい て、 図 3 7 を参照 して詳し く 説明する。 図 3 7 A力ゝら図 3 7 C は、 プレビューを実行している と きのあるタイ ミ ングにおける タイムライ ンの様子を表わ している図である。
図 3 7 は、 イベン ト E () とイベン ト E 1 との間に ト ランジシ ヨ ンエフェ ク ト 「w i p e 」 が指定されている例を示している。 図 3 7 Λ力 ら図 3 7 Cは、 プレビューを実行中のある タイ ミ ン グにおける タイ ムライ ンの様子をそれぞれ表わ している図であ る。 図 3 7 Aは、 エフェク ト実行前であって、 イベン ト E 0 が再 生されている状態を示している。 こ のと きには、 コ ン ピュータ 2 は、 このィ ベン ト E 0 をノく ッ ク グラ ン ドィ ベン 卜 と して処理 するよ う に編集処理装置 3 を制御する。 このィベン E 0 の信 号がローカルス ト レージからの出力信号 S 1 3 Aと して編集処 理装置 3 のマ ト リ ク ススイ チャ部 3 Bの入力端子 I N 4 に供給 されている場合を例にあげて、 この時の編集処理装置 3 の制御 をよ り詳しく 説明する。
編集処理装置 3 のシステム コ ン ト ロール部 3 Aは、 まず、 入 力端子 I N 4 と出力端子 O U T 9 を接続するためのク ロ スボイ ン ト P 4 9 をアクティブにする よ う にマ ト リ クススィチヤ部 3 B を制御する。 その結果、 入力端子 I N 4 に供給されたィベン ト E 0 のビデオ信号 S 1 3 Aは、 出力端子 O U T 9 から出力ビ デォ信号 S 2 6 と して出力され、 画像処理部 3 Cに供給される。
出力端子 O U T 9から出力 された出力信号 S 2 6 は、 画像処 理部 3 Cのデマルチプレクサ 5 1 Dに供給される。 デマルチプ レクサ 5 1 Dは、 S D I フォーマ ツ 卜のデータのペイ 口一 ド部 からデジタルビデオ信号をのみを抽出する。 画像処理部 3 じに おいて、 デジタルビデオ信号は、 スィ ッチャブロ ック 5 2、 特 殊効果プロ ッ ク 5 3及びミ キサブ口 ック 5 4 を介して出力ビデ ォ信号 S 3 2 と して出力される。
画像処理部 3 Cから出力されたデジタルビデオ信号 S 3 2 は, 再びマ ト リ ック ススイ ツチヤ部 3 B の入力端子 I N 1 0 に供給 される。 C P U 2 1 は、 編集処理装置 3 のシステム コ ン ト ロ ー ル部 3 Aを介 して、 入力端子 I N 1 0 と出力端子 O U T 5 を接 続するためのク ロスポイ ン 卜 P 1 0 5 をアクティ ブにする よ う 1 4 にマ ト リ ク ススイチャ部 3 B を制御する。 その結果、 入力端子 I N 1 0 に供給されたデジタルビデオ信号 S 3 2 は、 ァ ゥ トプ ッ トプロセ ッサ 4 6 を介して出力端子 O U T 5からデジタルビ デォ信号 S 2 と してコ ンピュータ 2 に出力される。
編集処理装置 3 から出力されたデジタルビデオ信号 S 2 は、 コ ンビュ一タ 2 のビデオプロセッサ 2 2に供給され、 表示コ ン ト ロ一ラ 2 3 を介してコ ンピュータモエタ 2 B ビューァウィ ン ドウ 9 2 に表示される。 その結果、 ローカルス ト レージ 8 から 再生信号 S 1 3 Aと して再生されたイベン ト E 0 のビデオ信号 が、 ビュ一ァ ウィ ン ドウに表示される。
図 3 7 Bは、 図 3 7 Aに示した状態よ り さ らにプ レ ビューが 進んだ状態を示 し、 ィベン ト E 0 とィベン E 1 の問に設定さ れた ト ラ ンジシヨ ンエフェク ト 「 W i p e 」 が実行され始める タイ ミ ングを示している。
このタ イ ミ ングにおいて、 コ ンピュータ 2 は、 こ のイベン ト E 0 をノく ッ ク グラン ドイベン ト と して処理し、 イベン ト E 1 を フォア グラ ン ドィ ベン ト と して処理するよ う に編集処理装置 3 を制御する。 先ほどと同 じよ う に、 このイ ベン ト E 0 の信号が ローカルス ト レ一ジからの出力信号 S 1 3 Aと して編橥処理装 置 3 のマ ト リ ク ススイチャ部 3 Bの入力端子 I N 4 に供給され、 ィ ベン ト E 1 の信号がローカルス ト レージからの出力信号 S 1 3 B と して編集処理装置 3 のマ ト リ ク ススイチャ部 3 Bの入力 端子 I N 5 に供給されている場合を例にあげて、 この時の編柒 処理装置 3 の制御をよ り詳しく 説明する。
編集処理装置 3 のマ ト リ ク ススィ チヤ部 3 B は、 イベン ト E 0 のビデオ信号を画像処理装置 3 Cに供給するために、 ク ロ ス ポイ ン トの制御は行なわなく てよい。 なぜなら、 コ ンピュータ 2 によって、 イベン ト E 0 は既にノく ッ ク グラ ンン ドイ ベン ト と して処理されるよ う に編集処理装置 3 が制御されているので、 マ ト リ ッ ク ススィ ッチャ部 3 B のク ロ スポイ ン ト P 4 9 をァ ク ティブに しておけば、 入力端子 I N 4 に供給されたイベン ト E 0 のビデオ信号 S 1 3 Aは、 出力端子 O U T 9 から出力ビデオ 信号 S 2 6 と して画像処理部 3 Cに出力されるからである。
画像処理部 3 Cに出力信号 S 2 6 と して供給されたィベン 卜 E 0のビデオ信号は、 デマルチプレクサ 5 1 Dを介して、 スィ ツチャブロ ック 5 2のビデオ信号処理回路 5 2 Fに供給される , ビデオ信号処理回路 5 2 Eは、 供給されたィベン E 0 の ビデ ォ信号に対して、 ワイ プ信号発生回路 5 2 Bからのワイプ制御 信号に基いて、 ワイプ効果を施す処理を行な う。 ワイ プ処理さ れたィベン E 0 のビデオ信号は、 ミ キサ回路 5 4 B に供給さ れる。
尚、 イベン ト E 0 に関するキー信号は、 イベン ト E 0 のビデ ォ信号に対するマ ト リ ッ ク ス スィ ツチャ部 3 Bにおけるルーテ イ ング処理及びビデオ信号処理回路 5 2 F における ワイプ処理 と同 じよ う に、 マ ト リ ック ススイ ツチヤ部 3 Bにおけるルーテ イ ング処理が行われ、 さ らに、 キー信号処理回路 5 2 Dにおけ る ワイプ処理が行われる。
一方、 ロ ーカルス ト レージ 8 カゝら再生されたィベン ト E 1 の ビデオ信号をコ ン ピュータ 2 に供給するため、 編槳処理装置 3 のシステム コ ン ト ロ ール部 3 Aは、 まず、 入力端子 I N 5 と出 力端子 O U T 7 を接続するためのク ロ スポイ ン ト P 5 7 をァク ティ ブにする よ う にマ ト リ ク ススィチヤ部 3 Bを制御する。 そ の結果、 入力端子 I N 5 に供給されたィベン ト E 1 のビデオ信 号 S 1 3 Bは、 出力端子 O U T 7 から出力ビデオ信号 S 2 4 と して出力され、 画像処理部 3 Cに供給される。 出力端子 O U T 7から出力 された出力信号 S 2 6 は、 画像処理部 3 Cのデマル チプレクサ 5 1 B に供給される。 デマルチプレクサ 5 1 Bから 出力されたィベン ト E 1 のビデオ信号は、 スィ ッチヤプロ ック 5 2 のビデオ信号処理回路 5 2 Eに供給される。 ビデオ信号処 理回路 5 2 Eは、 供給されたィベン E 1 のビデオ信号に対し て、 ワイプ信号発生回路 5 2 Aからのワイプ制御信号に基いて、 ワイ プ効果を施す処理を行な う。 ワイプ処理されたィベン ト E 1 のビデオ信号は、 ミ キサ回路 5 4 Bに供給される。
尚、 ィベン ト E 1 に関するキ一信号は、 ィベン ト E 1 のビデ ォ信号に対するマ ト リ ッ ク ススィ ツチャ部 3 Bにおけるルーテ ィ ング処理及びビデオ信号処理回路 5 2 Eにおける ワイプ処理 と同 じよ う に、 マ ト リ ック ススィ ツチャ部 3 Bにおけるルーテ イ ング処理が行われ、 さ らに、 キ一信号処理回路 5 2 Cにおけ る ワイ プ処理が行われる。
ミ キサ回路 5 4 Bは、 ワイプ処理されたィベン ト E 1 のビデ ォ信号と 、 ワイ プ処理されたィベン ト E 0 のビデオ信号とを ミ ック ス し、 ミ ック ス した信号を出力信号 S 3 2 と して出力する。 画像処理部 3 Cから出力 されたデジタルビデオ信号 S 3 2 は 再びマ ト リ ック ススイ ツチヤ部 3 Bを介して、 コンピュータ 2 に供給される。 その結果、 ロ ーカルス ト レージ 8 から再生され たィベン ト E 0 の映像とィベン E 1 の映像と に基いて生成さ れたワイ プ映像が、 ビューァ ウィ ン ドウ 9 2 に表示される。
図 3 7 Cは、 図 3 7 Bに示 した状態よ り さ らにプレビューが 進んだ状態を示し、 イベン ト E 0 とイベン ト E 1 の間に設定さ れた トランジシヨ ンエフェク ト 「W i p e 」 が終了 したタイ ミ ングを示している。
ワイプ処理が行われていと きには、 コ ンピュータ 2 は、 こ の イベン ト E O をノくック グラン ドイベン ト と して処理し、 ィベン ト E 1 をフォアグラン ドィベン ト と して処理していたが、 この ワイプ処理が終了 したタイ ミ ングにおいて、 コ ンピュータ 2 は、 ィベン ト E 0 に代わって、 ィ ベン E 1 をノ ック グラ ン ドィ べ ン ト と して処理するよ う に編集処理装置 3 を制御する。 こ の時 の編集処理装置 3 の制御をよ り詳しく 説明する。
まず、 編集処理装置 3 のマ ト リ ク ススィ チヤ部 3 Bは、 ィべ ン ト E 0 のビデオ信号を画像処理装置 3 C及びコ ン ピュータ 2 に供給する必要がないので、 いままでァクティ ブであった入力 端子 I N 4 と出力端子 O U T 9 を接続するためのク ロ スポイ ン ト P 4 9 を、 イ ンアクティ ブに変更する。 その結果、 入力端子 I N 4 に供給されたイベン ト E 0 のビデオ信号 S 1 3 Aは、 出 力端子 O U T 9 から出力されなく なる。 一方、 イ ベン ト E 0 の 代わり に、 ィベン ト E 1 をバッ ク グラン ドビデオと して処理し なければいけないので、 編集処理装置 3 のマ ト リ ク ススィ チヤ 部 3 Bは、 ィベン ト E 1 の信号が供給されている入力端子 I N 5 と出力端子 O U T 9 と を接続するためのク ロ スポイ ン ト P 5 9 をアク ティ ブにする。 その結果、 入力端子 I N 5 に供給され ているィベン ト E 1 のビデオ信号 S 1 3 Bは、 出力端子 O U T 9 から出力される。
このよ う に、 エフェク トの実行タイ ミ ングに応 じて、 適切な 信号が出力 される よ う に編集処理装置 3 のマ ト リ ッ ク ススィ ッ チヤ部 3 Bのク ロ スポイ ン トを自動的に制御 しているので、 編 集オペレータはタイムライ ン 9 5上に所望のプロ グラムを作成 するだけで、 作成したプロ グラムに対応したビデォプロ グラム を自動で作成するこ とができ る。
このステ ップ S P 4 1 0 におけるプレビュー処理の結果、 満 足のいく プロ グラムでなく 、 修正が必要であるのであれば次の ステップ S P 4 1 1 に進み、 満足のいいく プロ グラムであれば、 次のステップ S P 4 1 2 に進む。
ステップ S P 4 1 1 では、 編集オペレータの操作に従って、 C P U 2 1 は、 タイムライ ン 9 5 に貼り付けられたイベン ト及 びエフェク トを修正する。
イベン トを修正する場合には、 まず、 タイ ム ライ ン 9 5 にお いて修正を必要とするィベン トをマウス 2 Dでダブルク リ ック する。 C P U 2 1 は、 ダブルク リ ック されたイ ベン トをロ ー力 ルス ト レ一ジ 8力 ら再生し、 ビューァ ウィ ン ドウ 9 2 に表示す る よ う に、 ローカルス ト レージ 8及び編集処理装置 3 を制御す る。 また、 C P U 2 1 は、 ロ ーカルス ト レ一ジ 8 力 ^ら再生され た映像をビューァウィ ン ドウ 9 2のビューァ 1 0 6 に表示する と共に、 内部ハ ー ドディ ス ク H D Dに記憶されたィ ン点及びァ ゥ ト点のスタンプピクチャをイ ン点画像表示部 1 1 0及びァ ゥ ト点画像表示部 1 2 0 にそれぞれ表示する。
ク リ ップを作成したと き と 同 じ要領で、 必要に応じて、 イ ン 点及びァ ゥ ト点の再設定、 ビデオ及びオーディ オレベル等の各 種パラメータの再調整を行な う。
所望の修正処理が終了 し、 編集オペレータは、 Λ D Dボタ ン 1 2 2 Λをク リ ックする と 、 C P U 2 1 は、 修正されたィベン トに関する情報を、 タイ ムライ ン 9 5 上の古いイベン トの情報 にオーバライ トする と共に、 タイ ムライ ン 9 5 の表示を、 古い ィベン トから修正されたィベン トに変更する。
また、 エフエタ トを修正する場合には、 まず、 タイ ムライ ン 9 5 において修正を必要とするエフェク トをマウス 2 Dでダブ ルク リ ックする。 C P U 2 1 は、 ダブルク リ ック されたエフェ ク トを設定したエフェク ト設定ダイアロ グ 1 9 0 をオープンす る。
エフェク トを設定したと き と同 じ要領で、 必要に応じて、 ェ フエク ト種類、 ト ランジシヨ ン時間及びモディ ファイパラメ一 タ等の再設定を行な う。
所望の修正が終了 し、 エ フ ェ ク ト設定ダイアロ グ 1 9 0が閉 じられる と 、 C P U 2 1 は、 修正されたエフェク トに関する情 報を、 古いエフェク 卜の情報にオーバライ トする と共に、 タイ ムライ ン 9 5 の表示を、 古いエフェク トから修正されたェフエ ク 卜に変更する。
ステップ S P 4 1 2では、 C P U 2 1 は、 タイムライ ン 9 5 上に作成されたプロ グラムに従ってプロ グラム リ ス ト( E D L ) を作成し、 その E D Lを内部ハー ドディ スク H D Dに設けされ た E D L フォルダにファイルと して記録する。
ステ ップ S P 4 1 2では、 C P U 2 1 は、 編集オペレータの 指示に従って、 完成ビデオプロ グラムを作成する。 編集オペレ ータが、 R E Cボタン 1 2 3 Dをク リ ックする と、 図 3 8 のよ う な R E Cダイアロ グがオープンする。 まず、 編集オペレータ は、 完成ビデオプロ グラムを記録するための記録デバイ スを、 ロ ーカルス ト レ一ジ 8 、 V T R 7及びオンエアサーバ 9の中か
2 0 ら選択し、 適切なフ ァイ ル名を入力する。 編集オペ レータが、 ェクシキュー トボタン 「 E x e c u t e 」 をク リ ックする と、 コ ンピュータ 2は、 プレビューのと き と同 じよ う に、 作成した プログラム リ ス ト ( E D L ) 又はタイムライ ン 9 5上のプログ ラムに従って、 ローカルス ト レージ 8及ぴ編集処理装置 3 を制 御する。 その結果、 指定されたデバイス上に、 完全ビデオプロ グラムが記録される。 以上のよ う に、 本発明の編集装置は、 ソース素材のビデオイ メージをビューイ ングしながら編集点を決定する こ とによって イベン トを生成するためのビューァウィ ン ドウ と、 ビューァゥ ン ドウにおいて設定されたィベン トに関するク リ ップイ メージ を表示する ロ グウィ ン ドウ と、 複数のィベン トを所望の順にタ ィムライ ン上に並べる こ と によってプログラム リ ス トを作成す るプロ グラムウィ ン ドウ と をコンピュータディスプレイに表示 し、 タイ ムライ ンに並べられた各イベン トに対して、 イベン ト がどのソースデバイスから生成されたイベン トであるかを示す アイ コ ンを表示するこ と をコ ンピュータを備えたこ とを特徴と する ものである。
従って、 編集オペレータは、 各イベン トがどのソースデバィ スから生成されたィベン トであるかを視覚的に容易に把握する こ とができ るので、 確実な編集作業を行なう こ とができる。 また、 本発明の編集装置は、 ソース素材のビデオイメージを ビューイ ングしながら編集点を決定することによってイベン ト を生成するためのビューァ ウィ ン ドウと、 ビューアウン ドウに おいて設定されたィベン トに関するク リ ップイ メージを表示す るログウィ ン ドウ と、 複数のイベン トを所望の順にタイムライ ン上に並べるこ とによってプログラムリ ス トを作成するプロ グ ラムウィン ドウとをコンピュータディスプレイ に表示し、 編集 オペレータの操作に応答して、 タイムライ ンに並べられた各ィ ベン トに対してエフエタ トを設定するためのエフェク ト設定ダ ィァログを表示し、 エ フェ ク ト設定ダイアロ グにおいて選択さ れた所望のエフェク トのアイ コンを、 イベン トを関連付ける よ う にタイムライ ン上に貼り付けるこ とによって、 イベン トに対 してエフェク トを施すためのプログラム リ ス トを生成する こ と を特徴とする ものである。
従って、 本発明の編集装置は、 迅速に且つ容易にエフヱク ト を選択する と共に各イベン トに設定する こ とができ る。 また、 本発明の編集システムは、 全ての編集力 ッ トのク リ ツプ画と、 入力画と、 タイムライ ンなどが G U I 上で一覧でき る と共に、 並んだク リ ップを見ながら編集順序をきめた り 、 それを簡単に 入れ替えるこ とができる。
また、 本発明の編集装置は、 タイムライ ンに並べられた各ィ ベン トのオーディオ トラ ック に対してオーディオ専用コーン ト ローラに設けられたオーディ オフエ ーダをアサイ ンするための フエーダアサイ ンダイアロ グを表示し、
フエーダアサイ ンダイアロ グに設定された情報に基いて、 ィべ ン トの各オーディオ トラ ッ クのレベルを制御するこ と を特徴と する ものである。
従って、 本発明の編集装置によれば、 専用コ ン ト ローラによ つて、 各ィベン トのオーディ オ トラ ック を個別に制御するこ と ができる と と もに、 イベン トに応じて各 ト ラ ック と フォーダレ バーとの設定を任意に可変するこ とができ る。
また、 本発明の編集装置は、 ログウィ ン ドウにク リ ップィ メ ージと して表示された複数のィベン トを、 各ィベン ト毎に ドラ ッグアン ド ドロ ップしてタイムライ ン上に並べるモー ドと、 口 グウィ ン ドウにク リ ップイ メージと して表示された複数のィべ ン トを、 ドラ ッグアン ド ドロ ップせずに、 指定された順に自動 的にタイムライ ン上に並べるモー ドとを備えたこ と を特徴とす る ものである。
また、 本発明の編集装置は、 タイムライ ン上に並べられた複 数のイベン トを見ながら、 タイムライ ン上においてエフェク ト 挿入区間を設定し、 タイ ムライ ン上の設定されたエフュク ト揷 入区間に、 選択されたエフェク トを設定する こ と を特徴とする ものである。
また、 本発明の編集装置は、 タイムライ ン上に並べられた複 数のイベン トを見ながら、 タイムライ ン上において、 イベン ト に対してオーバレイ させられるィベン トの挿入区間を設定し、 ロ グウィ ン ドウにおいて選択されたィベン トを、 タイムライ ン 上の設定されたイベン ト挿入区間に挿入する こ と を特徴とする ものである。
以上のよ う に、 本発明の編集方法は、 ソース素材のビデオイ メージをビューイ ングしながら編集点を決定するこ とによって ィベン トを生成するためのビューァウィ ン ドウと、 ビュ一ァゥ ン ドウにおいて設定されたィベン トに関するク リ ップイメージ を表示する ロ グウィ ン ドウ と、 複数のィベン トを所望の順にタ ィムライ ン上に並べる こ と によってプログラム リ ス トを作成す るプロ グラムウィ ン ドウ と をコ ンピュータディスプレイに表示 し、 タイ ムライ ンに並べられた各イベン トに対して、 イベン ト がどのソースデバイスから生成されたイベン トであるかを示す アイ コ ンを表示する こ と をコ ンピュータを備えたこ と を特徴と する ものである。
従って、 編集オペレータは、 各イベン トがどのソースデバイ スから生成されたィベン トであるかを視覚的に容易に把握する こ とができ るので、 確実な編集作業を行な う ことができる。 また、 本発明の編集方法は、 ソース素材のビデオイ メージを ビューィ ングしながら編集点を決定するこ と によってィベン ト を生成するためのビューァウィ ン ドウ と、 ビュ一アウン ドウに おいて設定されたィベン トに関するク リ ップイメージを表示す る ロ グウィ ン ドウ と、 複数のィベン トを所望の順にタイムライ ン上に並べる こ とによってプログラム リ ス トを作成するプロ グ ラムウィ ン ドウ と をコ ンピュータディ スプレイに表示し、 編集 オペレータの操作に応答して、 タイムライ ンに並べられた各ィ ベン トに対してエフェク トを設定するためのエフェク ト設定ダ ィァロ グを表示し、 エフェク ト設定ダイアログにおいて選択さ れた所望のエフェク トのアイ コンを、 イベン トを関連付けるよ う にタイ ムライ ン上に貼り付けるこ とによって、 イベン トに対 してエフェク トを施すためのプログラムリ ス トを生成するこ と を特徴とする ものである。
従って、 本発明の編集方法は、 迅速に且つ容易にエフェク ト を選択する と共に各イベン トに設定するこ とができる。 また、 本発明の編集システムは、 全ての編集カ ツ トのク リ ップ画と、 入力画と、 タイムライ ンなどが G U I 上で一覧できる と共に、 並んだク リ ップを見ながら編集順序をきめた り 、 それを簡単に 入れ替える こ とができる。
また、 本発明の編集方法は、 タイムライ ンに並べられた各ィ ベン トのオーディオ トラ ック に対してオーディオ専用コーン ト ローラに設けられたオーディオフヱーダをアサイ ンするための フエーダアサイ ンダイアロ グを表示し、
フエーダアサイ ンダイアロ グに設定された情報に基いて、 ィべ ン トの各オーディオ ト ラ ックのレベルを制御する こ とを特徴と する ものである。
従って、 本発明の編集方法によれば、 専用コ ン ト ローラによ つて、 各イベン トのオーディ オ トラ ック を個別に制御する こ と ができる と と もに、 イベン トに応じて各 ト ラ ック と フォーダレ バーとの設定を任意に可変する こ とができ る。
また、 本発明の編集方法は、 ログウィ ン ドウにク リ ップィ メ —ジと して表示された複数のィベン トを、 各ィベン ト毎に ドラ ッグアン ド ドロ ップしてタイ ムライ ン上に並べるモー ドと、 口 グウイ ン ドウにク リ ップィ メ ージと して表示された複数のィべ ン トを、 ドラ ッグア ン ド ドロ ップせずに、 指定された順に自動 的にタイ ムライ ン上に並べるモー ドとを備えたこ と を特徴とす る ものである。
また、 本発明の編集方法は、 タイムライ ン上に並べられた複 数のイベン トを見ながら、 タイムライ ン上においてエフェク ト 挿入区間を設定し、 タイ ムライ ン上の設定されたエフェク ト挿 入区間に、 選択されたエフェク トを設定する こ と を特徴とする ものである。 また、 本発明の編集方法は、 タイムライン上に並べられた複 数のイベン トを見ながら、 タイムライン上において、 イベン ト に対してオーバレイ させられるィベン トの挿入区間を設定し、 ログウィン ドウにおいて選択されたィベン トを、 タイムライン 上の設定されたィベン ト挿入区間に挿入することを特徵とする ものである。
すなわち、 本発明の編集装置及び方法は、 即時性の求められ るニュース番組の制作時に、 ノ ン リ ニアの特徴であるランダム アクセス性を生かした素早い編集作業が行なえる。 また、 本発 明の編集装置及び方法は、 全ての編集カツ トのク リ ップ画と、 入力画と、 タイムラインなどが G U I 上でー覽できると共に、 並んだク リ ップを見ながら編集順序をきめたり、 それを簡単に 入れ替えることができる。 また、 本発明の編集装置及び方法は、 多彩なエフヱク ト機能を設定することができるので、 高速に表 現力豊かな映像制作を行なう ことができる。
二ユース番組制作や報道番組制作において、 本発明の編集装置 及び方法を適用することによって、 モザイク効果の追加や話者 の声色の変更、 取材現場の周辺ノイズの除去機能などの編集を、 自分一人で行なう ことができる。 また、 本発明の編集装置及び 方法は、 これらの多彩なエフヱク トを実現するために、 コンビ ユータによるソフ ト上の処理とハ一 ドウエアの両方を最適にな るよ う に使用して、 リ アルタイムでの高速デジタル画像編集及 びオーディォ編集を実現できる。 求 の 範 囲
1 . ソース素材と して供給されたビデオ信号及びオーディオ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコ ンピュータ とを備えた編集装置において、 上記コ ンピュータは、
上記ソース素材のビデオイ メージをビューイ ングしながら編集 点を決定するこ とによってイベン トを生成するためのビューァ ウィン ドウと、 上記ビューアウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウ と、 上記複数のィベン トを所望の順にタイムライ ン上に並べる こ と によってプロ グラムリ ス トを作成するプロ グラムウィ ン ドウ と をコ ンピュータディ スプレイ に表示する制御手段を備え、 上記制御手段は、
上記タイムライ ンに並べられた各イベン トに対して、 上記ィべ ン トがどのソースデバイスから生成されたイベン トであるかを 示すアイ コ ンを表示する こ と を特徴とする編集装置。
2 . ソース素材と して供給されたビデオ信号及びオーディオ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコンピュータ と を備えた編集装置において、 上記コ ンピュータは、
上記ソース素材のビデオイ メージをビューイ ングしながら編集 点を決定する こ と によってイベン トを生成するためのビューァ ウィ ン ドウ と 、 上記ビューアウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メ ージを表示する ロ グウィ ン ドウ と、 上記複数のィベン トを所望の順にタイムライ ン上に並べる こ と
2 フ によってプログラム リ ス トを作成するプロ グラムウィ ン ドウ と をコ ンピュータディ スプレイ に表示する制御手段を備え、 上記制御手段は、
編集オペレータの操作に応答して、 上記タイ ムライ ンに並べら れた各イベン トに対してエフェク トを設定するためのエフェク ト設定ダイアログを表示し、
上記エフェク ト設定ダイアロ グにおいて選択された所望のエフ ェク トのアイ コ ンを、 上記イベン トを関連付けるよ う に上記タ ィムライ ン上に貼り付ける こ とによって、
上記ィベン トに対してエフエ タ ト を施すためのプロ グラム リ ス トを生成する こ とを特徴とする編集装置。
3 . ソース素材と して供給されたビデオ信号及ぴオーディオ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコンピュータ と を備えた編集装置において、 上記コ ンピュータは、
上記ソース素材のビデオイ メージをビューイ ングしながら編集 点を決定する こ とによってィベン トを生成するためのビューァ ウィ ン ドウ と、 上記ビューア ウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウと、 上記複数のイベン トを所望の順にタイムライ ン上に並べるこ と によってプロ グラム リ ス トを作成するプロ グラムウィ ン ドウ と をコンピュータディスプレイ に表示する制御手段を備え、 上記制御手段は、
上記タイ ムライ ンに並べられた各イベン トのオーディオ トラ ッ ク に対してオーディオ専用コーン トローラに設けられたオーデ ィオフエ ーダをアサイ ンするためのフエーダアサイ ンダイァロ グを表示し、
上記フエーダアサインダイアログに設定された情報に基いて、 上記ィベン トの各オーディオ トラ ックのレベルを制御すること を特徴とする編集装置。
4 . ソース素材と して供給されたビデオ信号及ぴオーディオ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコンピュータ とを備えた編集装置において、 上記コ ンピュータは、
上記ソース素材のビデオイメージをビューイングしながら編集 点を決定することによってイベン トを生成するためのビューァ ウィ ン ドウと、 上記ビューアウン ドウにおいて設定されたィべ ン トに関するク リ ップイメージを表示するログウィン ドウと、 上記複数のイベン トを所望の順にタイムライ ン上に並べること によってプログラムリス トを作成するプログラムウィンドウと をコ ンピュータディ スプレイ に表示する制御手段を備え、 上記ログウィンドウにク リ ップイメージと して表示された複数 のイベン トを、 各ィベン ト毎に ドラ ッグアン ド ドロ ップして上 記タイムライン上に並べるモ一 ドと、
上記ログウィンドウにク リ ップイメージと して表示された複数 のイベン トを、 ドラッグアン ドドロ ップせずに、 指定された順 に自動的に上記タイムライ ン上に並べるモー ドと、
を備えたことを特徴とする編集装置。
5 . ソース素材と して供給されたビデオ信号及びオーディオ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコンピュータ とを備えた編集装置において、 上記コ ンピュータは、 上記ソース素材のビデオイ メージをビューイ ングしながら編集 点を決定するこ とによってイベン トを生成するためのビューァ ウィン ドウと、 上記ビューアウン ドウにおいて設定されたィべ ン トに関するク リ ップイメージを表示する ロ グウィ ン ドウ と、 上記複数のイベン トを所望の順にタイムライ ン上に並べる こ と によってプログラム リ ス トを作成するプログラムウィ ン ドウ と をコンピュータディスプレイ に表示する制御手段を備え、 上記タイムライン上に並べられた複数のィベン トを見ながら、 タイムライ ン上においてエフェク ト揷入区間を設定し、 上記タイムライ ン上の上記設定されたエフェク ト挿入区間に、 選択されたエフェク トを設定するこ と を特徴とする編集装置。
6 . ソース素材と して供給されたビデオ信号及びオーディ オ 信号を処理するための編集処理装置と、 上記編集処理装置を制 御するためのコ ンピュータ と を備えた編集装置において、 上記コ ンピュータは、
上記上記ソース素材のビデオイ メージをビューイ ングしながら 編集点を決定する こ と によってイ ベン トを生成するためのビュ ーァウィ ン ドウ と、 上記ビュ一アウン ドウにおいて設定された イベン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウ と、 上記複数のイベン トを所望の順にタイ ムライ ン上に並べる こ とによってプロ グラム リ ス トを作成するプロ グラムウィ ン ド ゥ とをコ ンピュータディ スプレイ に表示する制御手段を備え、 上記タイムライ ン上に並べられた複数のイベン トを見ながら、 タイムライ ン上において、 上記ィベン トに対してオーバ レイ さ せられるィベン トの挿入区間を設定し、
上記ロ グウィ ン ドウにおいて選択されたィベン トを、 上記タイ ムライ ン上の上記設定されたイベン ト挿入区間に挿入するこ と を特徴とする編集装置。
7 . ソース素材を編集するための編集方法において、 上記ソース素材のビデオイ メ ージをビューイ ングしながら編集 点を決定するこ と によってイベン トを生成するためのビューァ ウィ ン ドウと、 上記ビューア ウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メージを表示するロ グウィ ン ドウ と、 上記複数のィベン トを所望の順にタイムライ ン上に並べるこ と によってプログラム リ ス トを作成するプログラムウィン ドウと をコンピュータディスプレイ に表示し、
上記タイ ムライ ンに並べられた各イベン トに対して、 上記ィべ ン トがどのソースデバイスから生成されたィベン トであるかを 示すアイ コ ンを表示する こ と を特徴とする編集方法。
8 . ソース素材を編集するための編集方法において、 上記ソース素材のビデオイ メージをビューイ ングしながら編集 点を決定する こ と によってィベン トを生成するためのビューァ ウィ ン ドウ と、 上記ビューア ウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウ と、 上記複数のイベン トを所望の順にタイムライ ン上に並べるこ と によってプログラム リ ス トを作成するプログラムウィ ン ドウと をコ ンピュータディスプレイ に表示し、
編集オペレータの操作に応答して、 上記タイム.ライ ンに並べら れた各イベン トに対してエフェク トを設定するためのエフェク ト設定ダイアログを表示し、
上記エフェク ト設定ダイアロ グにおいて選択された所望のエフ ェク トのアイ コ ンを、 上記イベン トを関連付けるよ う に上記タ
3 1 ィムライ ン上に貼り付ける こ とによって、
上記イベン トに対してエフェク トを施すためのプログラム リ ス トを生成する こ とを特徴とする編集方法。
9 . ソース素材を編集するための編集方法において、 ソース素材をビューイ ングしながら編集点を決定するこ とによ つてイベン トを生成するためのビューァウィ ン ドウ と、 上記ビ ユーアウン ドウにおいて設定されたィベン トに関するク リ ップ ィメージを表示するログウィ ン ドウと、 上記複数のィベン トを 所望の順にタイムライ ン上に並べるこ とによってプログラム リ ス トを作成するプログラムウィ ン ドウ とをコ ンピュータデイ ス プレイ に表示し、
上記タイムライ ンに並べられた各ィベン トのオーディオ トラ ッ クに対してオーディオ専用コーン トローラに設けられたオーデ ィオフエーダをアサイ ンするためのフエーダアサインダイァロ グを表示し、
上記フエーダアサイ ンダイアログに設定された情報に基いて、 上記ィベン トの各オーディオ トラ ックのレベルを制御するこ と を特徴とする編集方法。
1 0 . ソース素材を編集するための編集方法において、 ソース素材をビュ一イ ングしながら編集点を決定することによ つてィベン トを生成するためのビューァウィ ン ドウと、 上記ビ ユーアウン ドウにおいて設定されたィベン トに関するク リ ッブ イメージを表示するロ グウィ ン ドウ と、 上記複数のィベン トを 所望の順にタイムライ ン上に並べるこ とによってプログラム リ ス トを作成するプログラムウィ ン ドウ とをコンピュータデイ ス プレイ に表示し、 上記口グウィ ン ドウにク リ ップイ メージと して表示された複数 のイベン トを、 各イベン ト毎に ドラ ッグア ン ド ドロ ップして上 記タイムライ ン上に並べるモー ドと、 上記ロ グウィ ン ドウにク リ ップイ メージと して表示された複数のィベン トを、 ドラ ッグ アン ド ドロ ップせずに、 指定された順に自動的に上記タイムラ イ ン上に並べるモー ドとに基いて、 上記ロ グゥン ドウにク リ ッ プイ メージと して表示されたイベン トを上記タイ ムライ ン上に 並べるこ とを特徴とする編集方法。
1 1 . ソース素材を編集するための編集方法において、 上記ソース素材のビデオイ メ ージをビューイ ングしながら編集 点を決定するこ と によってイベン トを生成するためのビューァ ウィ ン ドウ と、 上記ビューアウン ドウにおいて設定されたィべ ン トに関するク リ ップイ メージを表示する ロ グウィ ン ドウ と、 上記複数のイベン トを所望の順にタイ ムライ ン上に並べる こ と によってプログラム リ ス トを作成するプロ グラムウィ ン ドウ と をコンピュータディ スプレイ に表示し、
上記タイ ムライ ン上に並べられた複数のイベン トを見ながら、 タイムライ ン上においてエフエタ ト挿入区間を設定し、 上記タイ ムライ ン上の上記設定されたエフェク ト挿入区間に、 選択されたエフェク トを設定する こ とを特徴とする編集方法。
1 2 . ソース素材を編集するための編集方法において、 上記ソース素材のビデオイ メ ージをビューイ ングしながら編集 点を決定する こ と によってイベン トを生成するためのビューァ ウィ ン ドウ と、 上記ビューア ウン ドウにおいて設定されたィべ ン トに関するク リ ップイメージを表示するロ グウィ ン ドウ と、 上記複数のィベン トを所望の順にタイムライ ン上に並べるこ と によってプログラムリ ス トを作成するプロ グラムウィ ン ドウ と をコ ンピュータディスプレイ に表示し、
上記タイムライン上に並べられた複数のイベン トを見ながら、 タイムライ ン上において、 上記ィベン トに対してオーバレイ さ せられるイベン トの挿入区間を設定し、
上記ログウィ ン ドウにおいて選択されたイベン トを、 上記タイ ムライ ン上の上記設定されたイベン ト挿入区間に挿入するこ と を特徴とする編集方法。

Claims

- 補正書の請求の範囲
[ 1 9 9 8年 9月 1 0日 (1 0 . 0 9 . 9 8 ) 国際事務局受理: 新しい請求の範囲 1 3— 5 が加えられた;他の請求の範囲は変更なし。 ( 1 5頁) ] によってプロ グラム リ ス トを作成するプロ グラムウィ ン ドウ と をコンピュータディスプレイ に表示し、
上記タイムライ ン上に並べられた複数のィベン トを見ながら、 タイムライ ン上において、 上記ィベン 卜に対してオーバレイ さ せられるィベン 卜の挿入区間を設定し、
上記ロ グウィ ン ドウにおいて選択されたィベン トを、 上記タイ ムライ ン上の上記設定されたイベン ト挿入区間に挿入するこ と を特徴とする編集方法。
1 3 . (追加) 上記編集すべき ソース素材を記録するためのラ ンダムアクセス可能な記録媒体を有したデータス ト レージ装置 をさ らに備え、
上記編集処理装置は、
上記デ一タス ト レージ装置から再生されたソースデータをル一 ティ ングするためのスィ ツチャブロ ック と、 上記スィ ツチャブ ロ ックから出力されたビデオ信号を処理する ビデオ信号処理ブ 口 ック と、 上記スィ ツチャブロ ックから出力されたオーディオ 信号を処理するオーディオ処理プロ ック とを備え、
上記コ ンピュータの制御手段は、
上記データス ト レ一ジに記録されたソース素材を編集するため の編集用ソフ ト ウエアプロ グラムによってプロ グラムされてい る こ と を特徴とする請求項 1 記載の編集装置。
1 4 . (追加) 上記制御手段は、
上記ィベン トが生成されたソース素材が供給されたソース供給 デバイ スを示す情報を、 ソース情報と して記憶するメモ リ 手段 と 、
上記ソース情報を各ィベン ト毎にフ ァ イ ル と して管理する フ ァ
135
補正された用紙 (条約第 19条) ィルマネージャ と
を有しているこ と を特徴とする請求項 1 3記載の編集システム
1 5 . (追加) 上記制御手段は、
上記フ ァイルに記憶されたソース供給デバイ スを示すソース情 報に基いて、 上記ロ グウィ ン ドウに登録されているィベン トが どのソース供給デバイスのソース素材から生成された素材であ るかを示すアイ コ ンを表示するこ とを特徴とする請求項 1 4記 載の編集システム。
1 6 . (追加) 上記ソース供給デバイス上に記録されている ソ ース素材から生成されたィベン トを、 上記ソース供給デバイス から上記データス ト レ一ジ装置にダウンロー ドした場合には、 上記制御手段は、 上記ダウンロー ドされたイベン トに関するフ アイルにおける ソース情報を、 上記ソース供給デバイスを示す 情報から上記データス ト レージを示す情報に書き換えるこ と を 特徴とする請求項 1 7記載の編集システム。
1 7 . (追加) 上記イベン トに関するフ ァ イルには、
少なく と も、 上記イベン ト対して付与されたイベン ト名、 上記 ィベン トのイ ン点及ぴァゥ ト点のタイムコ一 ドに関する情報が 含まれているこ と を特徴とする請求項 1 5記載の編集システム
1 8 . (追加) 上記制御手段は、
ソース供給デバイスに記憶された複数のソース素材から、 所望 の ソース素材を検索する ソース素材検索処理と、
上記検索されたソース素材から上記複数のイベン トを生成する イベン ト生成処理と 、
136 補正された用紙 (条約第 19条) 上記ィベン ト生成処理によって生成された複数のィベン トを所 望の順に並び替えるこ と によって上記プログラム リ ス トを生成 するプロ グラム リ ス ト生成処理と、
上記作成したプロ グラム リ ス トに基いて、 最終ビデオプロ ダラ ムを作成する処理と
を実行するよ う に上記ビデオ信号処理ブロ ック及び上記スイ ツ チヤブロ ックを制御するこ と を特徴とする請求項 1 3記載の編 集システム。
1 9 . (追加) 上記制御手段は、
上記ソース供給デバイスから再生されたソース素材のビデオデ ータを、 上記ビデオ信号処理ブロ ックを介して、 上記コ ン ビュ —タに供給するよ う に上記スィ ッチャブロ ックを制御する と共 に、 上記ソース供給デバイスから再生されたソース素材のォー ディォデータを、 上記オーディォ信号処理ブロ ッ クを介して、 ス ピーカに供給するよ う に上記スィ ッチャブロ ックを制御する こ と を特徴とする請求項 1 8記載の編集システム。
2 0 . (追加) 上記制御手段は、
上記ソース供給デバイスに記録された上記ソース素材を上記デ 一タ ス ト レージ装置にダウンロー ドするダウンロー ド処理と、 上記データス ト レージ装置に既に記憶されている上記ソース素 材とは異なる ソース素材を、 上記ビデオ信号処理プロ ック及び 上記オーディオ信号処理ブロ ックを介して上記コ ンピュータに 供給する こ とによって、 上記データス ト レージ装置に記録され ている ソース素材を編集する編集処理とを同時に行な う こ と を 特徴とする請求項 1 8記載の編集システム。
2 1 . (追加) 上記編集用 ソフ ト ウエアプログラムは、
137 補正された用紙 (条約第 19条) 上記ィベン トを登録するモー ドと して、 上記タイ ムライ ン上に 登録するタイムライ ンモー ドと、 上記ロ グウィ ン ドウ内に登録 するログモー ドとを有し、
上記制御手段は、
上記タイムライ ンモー ドが設定されている場合には、 上記登録 が指定されたィベン トを上記タイムライ ン上にビデオイベン ト 又はオーディオイベン ト と して貼り付け、
上記ログモー ドが設定されている場合には、 上記登録が指定さ れたイベン トを上記ロ グウィ ン ドウにク リ ップカー ドと して表 示するこ とを特徴とする請求項 1 7記載の編集システム。
2 2 . (追加) 上記ロ グイ ン ドウに表示されるク リ ップカー ド の表示形態と して、
上記イベン トのイ ン点又はァゥ ト点のク リ ップ画を表示する第 1 の表示形態と、
上記イベン トのイ ン点及ぴァゥ ト点の両方のク リ ップ画を表示 する第 2の表示形態と、
上記ィベン トのイ ン点又はァゥ ト点のク リ ップ画と、 上記ィべ ン トに対して付与されたコメ ン トデータを関連付けて表示する 第 3の表示形態とが存在し、
上記制御手段は、
上記イベン ト表わすク リ ップカー ドを、 上記の 3つの表示形態 の何れかの表示形態で表示するこ とを特徴とする請求項 2 1 記 載の編集システム。
2 3 . (追加) 上記編集用ソフ ト ウェアプロ グラムは、 上記ロ グウィ ン ドウ内にク リ ップカー ドと して表示されている ィベン トを上記プロ グラムウィ ン ドウのタイムライ ン上に登録
138 補正された用紙 (条約第 19条) するモ一 ドと して、
上記ロ グウィ ン ドウに登録されているィベン トをポイ ンティ ン グデバイスで指定するだけで、 上記タイ ムライ ン上に登録する 第 1 のモー ドと、
上記ロ グウィ ン ドウに登録されているイベン トをポイ ンティ ン グデバイスで ドラグアン ド ドロ ップするこ とによって上記タイ ムライ ン上に登録する第 2 のモー ドと を有しているこ とを特徴 とする請求項 2 2記載の編集システム。
2 4 . (追加) 上記タイムライ ンは、
上記ソース素材から生成されたビデオイベン トをベース ビデオ ィベン ト と して貼り付けるベース ビデオライ ンと、
上記ベースイベン トの含まれる ビデオデータに対応するオーデ ィォデータをオーディオイベン ト と して貼り付けるオーディオ ライ ンと、
上記ベースビデオイベン トに対して設定されたエフェク トをェ フエク トイベン ト と して貼り付けるエフェク トライ ンと、 上記ベースビデオイベン トに対して上記エフヱク トイベン トに よってエフェク トを施したと きに、 上記ベースビデオイベン ト に対してオーバレイ される ビデオイベン トをオーバ一レイ ビデ オイベン ト と して貼り付けるオーバレイ ビデオライ ンと を備えている こ と を特徴とする請求項 2 3記載の編集システム
2 5 . (追加) 上記プロ グラム リ ス ト生成処理は、
上記オーディオライ ンに貼り付けられたオーディオイベン トに 含まれる複数チャ ンネルのオーディオデータの レベルを設定す るオーディオレベル設定処理と、
139 補正された'用紙 (条約第 19条) 上記ベースビデオラインに貼り付けられ 2つのベースビデオイ ベン ト の間に トランジシヨ ンエフェク トを設定する、 又は上記 ベ一スビデオラインに貼り付けられベースビデオイベン トに対 してアニメーシ ョ ンエフエタ トを設定する、 又は上記ベースビ デォライ ンに貼り付けられたベースビデオイベン トとオーバレ ィ ビデオラインに貼り付けられたオーバ レイ ビデオイベン トと の間にエフエタ トを設定するエフェク ト設定処理とを含むこと を特徴とする請求項 2 4記載の編集システム。
2 6 . (追加) 上記オーディオレベル設定処理において、 上記制御手段は、 上記タイムラインに貼り付けられたオーディ オイベン トの各チャンネノレに対するオーディオレべノレをコン ト ロールするための複数の トラックフエーダを有したダイアログ を表示し、
上記ダイアログにおける編集オペレータによる設定に基いて、 上記オーディオイベン ト の複数のチャ ンネルと上記ダイアログ 内の上記複数の トラックフエ一ダとをそれぞれ任意に対応付け ることを特徴とする請求項 2 5記載の編集システム。
2 7 . (追加) 上記ォ一ディオレベル設定処理において、 上記制御手段は、 さらに、 上記ダイアログにおける編集オペレ ータの設定に基いて、 上記ダイアログ内の上記複数の トラ ック フエ一ダと、 専用コ ン ト ローラに設けられた複数のマニュアル フヱーダレバーとを任意に対応付け、
上記マニュアルフエ一ダレバーが編集オペレータによってマ二 ュアル調整された場合には、 その調整操作に追従して、 上記調 整操作されたマニュアルフエ一ダレバーの対応付けられた上記 ダイァロ グ内の トラックフエーダのス ライダ位置を変更するこ
140 補正された用紙 (条約第 19条) と を特徴とする請求項 2 6記載の編集システム。
2 8 . (追加) 上記エフェク ト設定処理において、
上記制御手段は、 複数のエフェク トパターンを示すアイ コンが 登録されれているエフユタ ト設定ダイアロ グを表示し、 編集オペレータが上記エフェク ト設定ダイアロ グに表示されて いるエフ工ク トアイ コ ンを選択し、 選択したエフェク トアイ コ ンを上記エフェク トライ ンに ドラ ッグアン ド ドロ ップするこ と によって上記エフェク ト設定処理を行な う こ と を特徴とする請 求項 2 5記載の編集システム。
2 9 . (追加) 上記エフ工ク ト設定ダイアロ グは、
編集オペレータが好んで使用する複数のエフェク トパターンの アイ コ ンが表示されるフエバリ ッ トパターン表示部と、 選択さ れたエフェク トのデュ レーショ ンを設定するデュ レーショ ン設 定部と を有しているこ と を特徴とする請求項 2 8記載の編集シ ステム。
3 0 . (追加) 上記エフヱク ト設定処理において、
上記制御手段は、 上記選択したエフェク トをタイムライ ン上に 貼り付ける前に、 上記ビデオ処理プロ ック に対してフォアグラ ン ドビデオ及びバック グラン ドビデオと して割当てられていた ビデオイベン トを使用 して、 上記選択されたエフェク トのプレ ビューを実行するよ う に上記スィ ツチャブロ ック及び上記ビデ ォ処理ブロ ック を制御するこ と を特徴とする請求項 2 9記載の 編集システム。
3 1 . (追加) 上記エフヱク ト設定処理において、
上記バック グラン ドビデオと して指定されているィベン ト と上 記フォア グラ ン ドビデオと して指定されているィベン ト の間に
141 補正された¾¾ (条約第 19条) おいて、 上記 ト ランジシヨ ンエフェク トを設定する場合には、 上記制御手段は、 上記バック グラン ドビデオと.して指定されて いるイベン トのアウ ト点を、 上記 トランジシヨ ンエフェク トの デュ レーシヨ ンに応じて更新する こ と を特徴とする請求項 3 0 記載の編集システム。
3 2 . (追加) 上記エフェク ト設定処理において、 上記ベース ビデオイベン ト と上記オーバレイ ビデオイベン ト との間に上記 アニメ ーシ ョ ンエフェク トを設定する場合には、
上記制御手段は、 上記オーバレイ ビデオライ ンに貼り付けられ る上記オーバ レイ ビデオイベン ト の位置に応じて、 上記アニメ ーショ ンエフェク トのデュ レーショ ン又は上記オーバレイ ビデ オイベン トのデュ レ一ショ ンを変更する こ と を特徴とする 3 1 記載の編集システム。
3 3 . (追加) 上記制御手段は、
上記ベースビデオライ ンに貼り付けられている ビデオイベン ト に関する ビデオ素材を上記ビューァウィ ン ドウに表示する と同 時に、 該ビューアウン ドウに表示されている ビデオイベン トの フ レームの上記タイムライ ンにおける時間的位置を示すために 、 上記タイムライ ン上にナウライ ンを表示し、
編集オペレータによる編集点のマ一キング操作に応答して、 上 記マーキング操作したと きの上記ライ ン位置が上記編集点であ る こ と をタイムライ ン上において示すために、 上記イ ン点及び アウ ト点を示すフラグを上記タイムライ ン上に表示するこ と を 特徴とする請求項 3 2記載の編集システム。
3 4 . (追加) 上記タイムライ ン上のイ ン点及びァゥ ト点によ つて設定された期間に、 ビデオイベン ト 、 オーディオイベン ト
142 補正された用 約 19条) 又はエフェク トイベン トが挿入された場合には、 上記制御手段は、 上記タイムライ ン上のィ ン点及びァゥ ト点に よって設定された期間と、 その期間に挿入されるイベン トのデ ュ レ一ショ ンが一致するよ う に、 挿入されるィベン トのデュ レ
—シヨ ンを変更するこ と を特徴とする請求項 3 3記載の編集シ ステム。
3 5 . (追加) 第 1 のベース ビデオイベン ト と第 2のベース ビ デォイベン ト との間に上記 ト ランジシヨ ンエフェク トが設定さ れている最終ビデオプロ グラムをプレビューする場合には 上記制御手段は、
上記 ト ランジシヨ ンエフェク ト実行前は、 上記第 1 のベース ビ デオイベン トをバック グラン ドビデオと して上記ビデオ信号処 理ブロ ックに供給するよ う に上記スィ ツチャブロ ック を制御し · 上記 ト ランジシヨ ンエフェク ト実行中は、 上記第 1 のべ一ス ビ デオイベン トをバック グラン ドビデオと して上記ビデオ信号処 理ブロ ックに供給する と共に、 上記第 2 のべ一スビデオイベン トをフォアグラン ドビデオと して上記ビデオ信号処理プロ ック に供給するよ う に上記スィ ツチャブロ ックを制御し、
上記 トランジシヨ ンエフェク ト実行後は、 上記フォアグラン ド と して上記ビデオ信号処理ブロ ックに供給されていた上記第 2 のベース ビデオイベン トを、 バック グラン ドと して上記ビデオ 信号処理プロ ックに供給するよ う に上記スィ ツチャブロ ック を 制御する こ と を特徴とする請求項 3 4記載の編集システム。
3 6 . (追加) 上記ソース供給デバイ スに記憶された複数のソ ー ス素材から、 所望のソース素材を検索する ソース素材検索処
143 補正された用紙 (条約第 19条) 理と、
上記検索されたソース素材から上記複数のィベン トを生成する イベン ト生成処理と、
上記ィベン ト生成処理によって生成された複数のィベン トを所 望の順に並び替えるこ と によって上記プロ グラム リ ス トを生成 するプロ グラム リ ス ト生成処理と、
上記作成したプロ グラム リ ス ト に基いて、 最終ビデオプロダラ ムを作成する最終ビデオプロ グラム作成処理と
を有する こ と を特徴とする請求項 7記載の編集方法。
3 7 . (追加) 上記イベン ト生成処理において、 上記編集オペ レータによって、 上記ビュアーウィ ン ドウに表示されている ビ デォデータに対してイ ン点及びアウ ト点が指定された場合には 上記イ ン点及び上記アウ ト点によって規定された期間のソース 素材を、 新たなイベン ト と して登録する こ と を特徴とする請求 項 3 6記載の編集方法。
3 8 . (追加) 上記イベン ト生成処理において作成された新た なイベン トに対してプレビューが実行された場合には、 上記新たなイベン ト の時間的前の位置に既に貼り付けられてい る既存のィベン トに対する上記新たなィベン トのつなが り 具合 を見るために、 上記新たなィベン ト と して登録されたィベン ト を上記タイ ムライ ン上に仮想的に貼り付け、 上記新たなィベン トの所定時間前からプレビュー処理を行な う こ と を特徴とする 請求項 3 7記載の編集方法。
3 9 . (追加) 上記ソース供給デバイ スに記録された上記ソー ス素材を、 ラ ンダムア ク セス可能な記録媒体にダウン口一 ドす
144 補正された用, (条約第 19条) るダウンロー ド処理と、
上記ラ ンダムア クセス可能な記録媒体に記憶されている上記ソ ース素材とは異なる ソース素材を、 上記ディ スプレイのビュ一 ァウィ ン ドウに供給する こ と によって、 上記ランダムアクセス 可能な記録媒体に記録されている ソース素材を編集する編集処 理と を同時に行な う こ と を特徴とする請求項 3 7記載の編集方 法。
4 0 . (追加) 上記編集処理を行な う ためのソフ ト ウェアプロ グラムは、
上記ィベン トを登録するモー ドと して、 上記タイムライ ン上に 登録するタイムライ ンモ一 ドと、 上記ログウィ ン ドウ内に登録 するロ グモー ドと を有し、
上記タイムライ ンモー ドが設定されている場合には、 上記登録 が指定されたイベン トを上記タイムライ ン上にビデオイベン ト 又はオーディオイベン ト と して貼り付け、
上記ロ グモー ドが設定されている場合には、 上記登録が指定さ れたィベン トを上記ロ グウィ ン ドウにク リ ップカー ドと して表 示する こ と を特徴とする請求項 3 9記載の編集方法。
4 1 . (追加) 上記ロ グイ ン ドウに表示されるク リ ップカー ド の表示形態と して、
上記ィベン 卜のイ ン点又はァゥ ト点のク リ ップ画を表示する第 1 の表示形態と、
上記ィベン 卜のイ ン点及びァゥ ト点の両方のク リ ップ画を表示 する第 2 の表示形態と、
上記イベン トのイ ン点又はァゥ ト点のク リ ップ画と、 上記ィべ ン トに対して付与されたコメ ン トデータを関連付けて表示する
145 補正された用紙 (条約第 19条) 第 3 の表示形態とが存在し、
上記ィベン ト表わすク リ ップカー ドは、 上記の .3つの表示形態 の何れかの表示形態で上記ロ グウィ ン ドウに表示されるこ とを 特徴とする請求項 4 0記載の編集方法。
4 2 . (追加) 上記タイムラインは、
上記ソース素材から生成されたビデオイベン トをベース ビデオ ィベン ト と して貼り付けるベース ビデオライ ンと、
上記ベースイベン トの含まれるビデオデータに対応するオーデ ィォデータをオーディオイベン ト と して貼り付けるオーディオ ライ ンと 、
上記ベースビデオイベン トに対して設定されたエフェク トをェ フエク トイベン ト と して貼り付けるエフェク トライ ンと、 上記ベースビデオイベン トに対して上記エフェク トイベン トに よってエフヱク トを施したと きに、 上記ベースビデオイベン ト に対してオーバ レイ される ビデオイベン トをォ一パー レイ ビデ オイベン ト と して貼り付けるォ一バ レイ ビデオライ ンと を備えているこ とを特徴とする請求項 4 1記載の編集方法。 4 3 . (追加) 上記プロ グラム リ ス ト生成処理は、
上記オーディオライ ンに貼り付けられたオーディオイベン トに 含まれる複数チャ ンネルのオーディオデータ の レベルを設定す るオーディオレベル設定処理と、
上記ベース ビデオライ ンに貼り付けられ 2 つのベース ビデオイ ベン トの間に トランジシヨ ンエフェク トを設定する、 又は上記 ベース ビデオライ ンに貼り付けられベース ビデオイベン トに対 してアニメーシ ョ ンエフェク トを設定する、 又は上記ベースビ デォライ ンに貼り付けられたべ一ス ビデオイベン ト とオーバ レ
146 補正された用紙 (条約第 19条) ィ ビデオラインに貼り付けられたォ一バレイ ビデオイベン ト と の間にエフェク トを設定するエフェク ト設定処理とを含むこと を特徴とする請求項 4 2記載の編集方法。
4 4 . (追加) 上記オーディオレベル設定処理において、 上記タイ ムライ ンに貼り付けられたオーディオイベン トの各チ ヤ ンネノレに対するオーディオレべノレをコン トローノレするための 複数の トラックフエーダを有したダイアログを上記コ ンビュ一 タディスプレイに表示し、
上記ダイアログにおける編集オペレータによる設定に基いて、 上記オーディオイベン トの複数のチャ ンネルと上記ダイァログ 内の上記複数の トラックフエ一ダとをそれぞれ任意に対応付け ることを特徴とする請求項 4 3記載の編集方法。
4 5 . (追加) 上記オーディオレベル設定処理において、 上記ダイアログにおける編集オペレータの設定に基いて、 上記 ダイアログ内の上記複数の トラックフエーダと、 専用コン ト口
—ラに設けられた複数のマニュアルフエ一ダレバ一とを任意に 対応付け、
上記マニュアルフエーダレバ一が編集オペレータによってマ二 ュアル調整された場合には、 その調整操作に追従して、 上記調 整操作されたマニュアルフエ一ダレバーの対応付けられた上記 ダイアログ内の トラックフエーダのス ライダ位置を変更するこ とを特徴とする請求項 4 4記載の編集方法。
4 6 . (追加) 上記エフェク ト設定処理において、
複数のエフェク トパターンを示すアイ コンが登録されれている エフェク ト設定ダイアログを上記ディスプレイに表示し、 編集オペレータが上記エフェク ト設定ダイアログに表示されて
147 補正された用紙 (条約第 19条) いるエフェク ト アイ コ ンを選択し、 選択したエフエ タ ト アイ コ ンを上記エフェク ト ライ ンに ドラ ッグアン ド ドロ ップする こ と によって上記エフェク ト設定処理を行な う こ と を特徴とする請 求項 4 5記載の編集方法。
4 7 . (追加) 上記エフェク ト設定ダイアロ グは、
編集オペレータが好んで使用する複数のエフェク トパターンの アイ コ ンが表示されるフ エバリ ッ トパターン表示部と、 選択さ れたエフエタ トのデュ レーショ ンを設定するデュ レーショ ン設 定部と を有しているこ と を特徴とする請求項 4 6記載の編集方 法。
4 8 . (追加) 上記エフェク ト設定処理において、
上記バック グラン ドビデオと して指定されているイベン ト と上 記フォアグラ ン ドビデオと して指定されているィベン トの間に おいて、 上記 ト ランジシヨ ンエフエタ トを設定する場合には、 上記バック グラン ドビデオと して指定されているィベン トのァ ゥ ト点を、 上記 トランジシヨ ンエフェク トのデュ レ一シヨ ンに 応じて更新する こ と を特徴とする請求項 4 7記載の編集方法。
4 9 . (追加) 上記エフ工ク ト設定処理において、 上記ベース ビデオイベン ト と上記オーバレイ ビデオイベン ト との間に上記 アニメーショ ンエフェク トを設定する場合には、
上記オーバ レイ ビデオライ ンに貼り 付けられる上記オーバレイ ビデオイベン トの位置に応じて、 上記アニメーショ ンエフェク トのデュ レーショ ン又は上記オーバレイ ビデオイベン トのデュ レ一ショ ンを変更する こ と を特徴とする 4 8記載の編集方法。
5 0 . (追加) 上記べ一ス ビデオライ ンに貼り付けられている ビデオイベン トに関する ビデオ素材を上記ビューァウィ ン ドウ
148
補正された用紙 (条約第 19条) に表示する と同時に、 該ビューアウン ドウに表示されている ビ デォイベン トのフ レームの上記タイムライ ンにおける時間的位 置を示すために、 上記タイムライ ン上にナウライ ンを表示し、 編集オペレータによる編集点のマーキング操作に応答して、 上 記マーキング操作したと きの上記ライ ン位置が上記編集点であ るこ とをタイムライ ン上において示すために、 上記イ ン点及び ァゥ ト点を示すフラグを上記タイムライ ン上に表示する こ とを 特徴とする請求項 4 9記載の編集方法。
5 1 . (追加) 上記タイムライ ン上のイ ン点及びァゥ ト点によ つて設定された期間に、 ビデオイベン ト、 オーディオイベン ト 又はエフェク トイベン トが挿入された場合には、
上記タイムライ ン上のイ ン点及びアウ ト点によって設定された 期間と、 その期間に挿入されるィベン トのデュ レーショ ンがー 致するよ う に、 挿入されるィベン トのデュ レーショ ンが変更さ れるこ と を特徴とする請求項 4 9記載の編集方法。
149 補正された用紙 (条約第 19条)
PCT/JP1998/001685 1997-04-12 1998-04-13 Dispositif d'edition et procede d'edition WO1998047146A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP98912780A EP0920014A4 (en) 1997-04-12 1998-04-13 EDITING DEVICE AND EDITING METHOD
JP54372798A JP4536164B2 (ja) 1997-04-12 1998-04-13 編集装置及び編集方法
US09/202,232 US6674955B2 (en) 1997-04-12 1998-04-13 Editing device and editing method
CA002257316A CA2257316C (en) 1997-04-12 1998-04-13 Editing device and editing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/110307 1997-04-12
JP11030797 1997-04-12

Publications (1)

Publication Number Publication Date
WO1998047146A1 true WO1998047146A1 (fr) 1998-10-22

Family

ID=14532395

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/001685 WO1998047146A1 (fr) 1997-04-12 1998-04-13 Dispositif d'edition et procede d'edition

Country Status (5)

Country Link
US (1) US6674955B2 (ja)
EP (1) EP0920014A4 (ja)
JP (1) JP4536164B2 (ja)
CA (1) CA2257316C (ja)
WO (1) WO1998047146A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008512745A (ja) * 2004-09-07 2008-04-24 アドビ システムズ, インコーポレイテッド デジタルデータに対して局所的作業を行う方法およびシステム
JP2011125059A (ja) * 2003-02-26 2011-06-23 Thomson Licensing ビデオ再生システムの時間ベース・ナビゲーション機能のための時間値の設定
US8605940B1 (en) 2006-12-01 2013-12-10 Adobe Systems Incorporated Coherent image modification
WO2018021112A1 (ja) * 2016-07-27 2018-02-01 ソニー株式会社 スタジオ機器制御システム、スタジオ機器制御システムの制御方法およびプログラム

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033311A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif d'edition
US6748421B1 (en) * 1998-12-23 2004-06-08 Canon Kabushiki Kaisha Method and system for conveying video messages
JP2000353375A (ja) * 1999-06-11 2000-12-19 Pioneer Electronic Corp 情報編集装置及び情報再生装置
JP4328992B2 (ja) * 2000-02-03 2009-09-09 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
US6925602B1 (en) 2000-03-20 2005-08-02 Intel Corporation Facilitating access to digital video
JP3712913B2 (ja) * 2000-04-03 2005-11-02 三菱電機株式会社 表示器作画装置
JP2001292408A (ja) * 2000-04-07 2001-10-19 Sony Corp 映像編集装置、映像編集方法、映像編集システム、および映像編集用プログラムを記録したコンピュータ読み取り可能な記録媒体
AU2001279304A1 (en) * 2000-07-13 2002-01-30 Christopher J. Feola System and method for associating historical information with sensory data and distribution thereof
TW507235B (en) * 2000-09-06 2002-10-21 Futaba Denshi Kogyo Kk Filament for fluorescent display device
US20020127001A1 (en) * 2000-11-08 2002-09-12 Masanori Gunji Recording/reproducing apparatus
GB2373118B (en) * 2000-12-21 2005-01-19 Quantel Ltd Improvements in or relating to image processing systems
JP4478343B2 (ja) * 2001-02-01 2010-06-09 キヤノン株式会社 記録装置及び方法
US7248778B1 (en) * 2001-03-16 2007-07-24 Gateway Inc. Automated video editing system and method
GB2374719A (en) * 2001-04-20 2002-10-23 Discreet Logic Inc Image data processing apparatus with two timelines
JP2003037806A (ja) * 2001-07-23 2003-02-07 Sony Corp ノンリニア編集方法、ノンリニア編集装置、プログラム及びそのプログラムを格納した記録媒体
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US7735011B2 (en) * 2001-10-19 2010-06-08 Sony Ericsson Mobile Communications Ab Midi composer
US20040205479A1 (en) * 2001-10-30 2004-10-14 Seaman Mark D. System and method for creating a multimedia presentation
US7102643B2 (en) * 2001-11-09 2006-09-05 Vibe Solutions Group, Inc. Method and apparatus for controlling the visual presentation of data
US7873260B2 (en) * 2002-02-15 2011-01-18 Acoustic Technology Llc Video and audio processing control
JP2004134985A (ja) * 2002-10-09 2004-04-30 Olympus Corp データ編集装置及びデータ編集プログラム
JP4005470B2 (ja) * 2002-10-09 2007-11-07 オリンパス株式会社 情報処理装置及び情報処理プログラム
EP1434372B1 (en) 2002-12-24 2014-08-27 Yamaha Corporation Operation panel for mixing system
DE10314105A1 (de) * 2003-03-28 2004-01-08 Bts Media Solutions Gmbh Verfahren zur Steuerung einer Einrichtung zur Verteilung und Bearbeitung von Videosignalen
DK2369590T3 (en) * 2003-04-28 2015-05-04 Panasonic Corp Playback devices, playback method, recording medium, recording devices, recording method for recording a video stream and graphics with window information via graphic display
KR100609154B1 (ko) * 2003-05-23 2006-08-02 엘지전자 주식회사 비디오 콘텐츠 재생 방법 및 장치
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
JP4225124B2 (ja) * 2003-06-06 2009-02-18 ソニー株式会社 データ処理方法およびそのシステム
JP2005057657A (ja) * 2003-08-07 2005-03-03 Canon Inc 画像処理装置
US7290895B2 (en) * 2003-08-08 2007-11-06 Production Resource Group, L.L.C. File system for a stage lighting array system
US7869699B2 (en) * 2003-09-08 2011-01-11 Ati Technologies Ulc Method of intelligently applying real-time effects to video content that is being recorded
US20050166150A1 (en) * 2004-01-26 2005-07-28 Sandy Chu Method and system for effect addition in video edition
KR101058007B1 (ko) * 2004-05-18 2011-08-19 삼성전자주식회사 기록 매체에 저장된 데이터를 삭제하는 방법 및 삭제된데이터를 복원하는 방법
US20060053374A1 (en) * 2004-09-07 2006-03-09 Adobe Systems Incorporated Localization of activity with respect to digital data
US7752548B2 (en) * 2004-10-29 2010-07-06 Microsoft Corporation Features such as titles, transitions, and/or effects which vary according to positions
JP2006254372A (ja) * 2005-03-14 2006-09-21 Sony Corp データ取込装置、データ取込方法及びプログラム
US7450124B2 (en) * 2005-03-18 2008-11-11 Microsoft Corporation Generating 2D transitions using a 3D model
US7511767B2 (en) * 2005-03-29 2009-03-31 Snell & Wilcox Limited Video storage device, and method of controlling a video storage device and video mixer
JP4285444B2 (ja) * 2005-05-31 2009-06-24 ソニー株式会社 再生システム、再生装置、受信再生装置、再生方法
US20070033632A1 (en) * 2005-07-19 2007-02-08 March Networks Corporation Temporal data previewing system
US20080238938A1 (en) * 2005-08-29 2008-10-02 Eklund Don Effects for interactive graphic data in disc authoring
US7644364B2 (en) * 2005-10-14 2010-01-05 Microsoft Corporation Photo and video collage effects
US8607147B2 (en) * 2005-12-09 2013-12-10 International Business Machines Corporation System and methods for previewing alternative compositions and arrangements when composing a strictly-structured flow diagram
CN101375310A (zh) * 2006-01-24 2009-02-25 日本电气株式会社 图像再生系统、图像再生方法及图像再生程序
JP4733574B2 (ja) * 2006-06-30 2011-07-27 オリオン電機株式会社 映像編集機能を備えた記録再生装置
KR20080038893A (ko) 2006-10-31 2008-05-07 삼성전자주식회사 동영상 파일 재생 방법 및 장치
US8521709B2 (en) * 2006-10-31 2013-08-27 The Jellyvision Lab, Inc. Methods for preloading media assets
US8004536B2 (en) * 2006-12-01 2011-08-23 Adobe Systems Incorporated Coherent image selection and modification
US20080184143A1 (en) * 2006-12-14 2008-07-31 Gottlieb Harry N Methods for Identifying Actions in a Flowchart
US7984385B2 (en) 2006-12-22 2011-07-19 Apple Inc. Regular sampling and presentation of continuous media stream
WO2008098161A1 (en) 2007-02-08 2008-08-14 Gottlieb Harry N Method of automatically populating and generating flowchart cells
US20100095236A1 (en) * 2007-03-15 2010-04-15 Ralph Andrew Silberstein Methods and apparatus for automated aesthetic transitioning between scene graphs
US20080256136A1 (en) * 2007-04-14 2008-10-16 Jerremy Holland Techniques and tools for managing attributes of media content
CA2691008A1 (en) * 2007-06-28 2008-12-31 Thomson Licensing Dual use video mixer crosspoint matrix
US8661096B2 (en) * 2007-11-05 2014-02-25 Cyberlink Corp. Collaborative editing in a video editing system
AU2007237206B2 (en) * 2007-11-27 2009-12-10 Canon Kabushiki Kaisha Method, apparatus and system for displaying video data
US9704532B2 (en) 2008-01-14 2017-07-11 Apple Inc. Creating and viewing preview objects
US9349109B2 (en) * 2008-02-29 2016-05-24 Adobe Systems Incorporated Media generation and management
EP2301242A1 (en) * 2008-07-16 2011-03-30 GVBB Holdings S.A.R.L Multi-preview capability for video production device
CN101650932B (zh) * 2008-08-12 2012-10-10 鸿富锦精密工业(深圳)有限公司 便于调整图片参数的电子相框及其方法
FR2940481B1 (fr) * 2008-12-23 2011-07-29 Thales Sa Procede, dispositif et systeme pour l'edition de medias enrichis
US9355469B2 (en) 2009-01-09 2016-05-31 Adobe Systems Incorporated Mode-based graphical editing
US8879895B1 (en) 2009-03-28 2014-11-04 Matrox Electronic Systems Ltd. System and method for processing ancillary data associated with a video stream
US8392004B2 (en) * 2009-04-30 2013-03-05 Apple Inc. Automatic audio adjustment
US8555169B2 (en) * 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
US8701007B2 (en) * 2009-04-30 2014-04-15 Apple Inc. Edit visualizer for modifying and evaluating uncommitted media content
US9564173B2 (en) 2009-04-30 2017-02-07 Apple Inc. Media editing application for auditioning different types of media clips
US8631326B2 (en) * 2009-04-30 2014-01-14 Apple Inc. Segmented timeline for a media-editing application
US8522144B2 (en) * 2009-04-30 2013-08-27 Apple Inc. Media editing application with candidate clip management
US8549404B2 (en) 2009-04-30 2013-10-01 Apple Inc. Auditioning tools for a media editing application
US8881013B2 (en) * 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US20110010623A1 (en) * 2009-07-10 2011-01-13 Vanslette Paul J Synchronizing Audio-Visual Data With Event Data
JP2011022726A (ja) * 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法
US8885087B2 (en) * 2009-12-28 2014-11-11 Canon Kabushiki Kaisha Lens system that is communicable wirelessly
JP2012003689A (ja) 2010-06-21 2012-01-05 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9323438B2 (en) 2010-07-15 2016-04-26 Apple Inc. Media-editing application with live dragging and live editing capabilities
JP5533386B2 (ja) * 2010-07-20 2014-06-25 ヤマハ株式会社 音響信号処理装置
JP5699566B2 (ja) * 2010-11-29 2015-04-15 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8862254B2 (en) 2011-01-13 2014-10-14 Apple Inc. Background audio processing
US8775480B2 (en) 2011-01-28 2014-07-08 Apple Inc. Media clip management
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US9026909B2 (en) 2011-02-16 2015-05-05 Apple Inc. Keyword list view
US8244103B1 (en) 2011-03-29 2012-08-14 Capshore, Llc User interface for method for creating a custom track
US10593364B2 (en) 2011-03-29 2020-03-17 Rose Trading, LLC User interface for method for creating a custom track
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
US20130073933A1 (en) 2011-09-20 2013-03-21 Aaron M. Eppolito Method of Outputting a Media Presentation to Different Tracks
US9003287B2 (en) * 2011-11-18 2015-04-07 Lucasfilm Entertainment Company Ltd. Interaction between 3D animation and corresponding script
WO2013173658A2 (en) * 2012-05-16 2013-11-21 Qwire Holdings, Llc Collaborative production asset management
US9336825B2 (en) * 2013-06-24 2016-05-10 Arcsoft (Nanjing) Multimedia Technology Company Limited Method of editing a video with video editing software executed on a computing device
KR102092316B1 (ko) 2013-10-14 2020-03-23 한화테크윈 주식회사 모니터링 방법
JP2016201683A (ja) * 2015-04-10 2016-12-01 ソニー株式会社 ビデオサーバー、ビデオサーバーシステムおよび命令処理方法
KR102432792B1 (ko) * 2015-08-10 2022-08-17 삼성전자주식회사 전자 장치 및 그의 동작 방법
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05183863A (ja) * 1992-01-06 1993-07-23 Fuji Xerox Co Ltd 動画像編集装置
JPH07319901A (ja) * 1994-05-23 1995-12-08 Ii D Kontoraibu Kk 画像データベースを利用した希望ジョブ実行方法
JPH09139913A (ja) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd 映像表示方法および映像表示装置
JPH09200687A (ja) * 1995-11-14 1997-07-31 Hitachi Denshi Ltd 放送番組の素材データを記録しその内容を表示する方法、およびその方法を行うシステム、及びその方法の手順を記録した記録媒体
JPH09322111A (ja) * 1996-05-30 1997-12-12 Nippon Telegr & Teleph Corp <Ntt> 映像編集装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5218672A (en) * 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US5359712A (en) * 1991-05-06 1994-10-25 Apple Computer, Inc. Method and apparatus for transitioning between sequences of digital information
EP0526064B1 (en) * 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Video editing system operator interface for visualization and interactive control of video material
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
EP0613145A2 (en) * 1993-02-26 1994-08-31 Sony Electronics Inc. Card file graphical user interface with visual representation of video data
JP3595835B2 (ja) * 1994-03-16 2004-12-02 ソニー株式会社 映像データ編集装置及び映像データ編集方法
US6154207A (en) * 1994-12-22 2000-11-28 Bell Atlantic Network Services, Inc. Interactive language editing in a network based video on demand system
EP1248258A2 (en) * 1995-04-08 2002-10-09 Sony Corporation Editing system
JP3460404B2 (ja) * 1995-09-08 2003-10-27 ソニー株式会社 映像信号送出システム
US5732184A (en) * 1995-10-20 1998-03-24 Digital Processing Systems, Inc. Video and audio cursor video editing system
US5760767A (en) * 1995-10-26 1998-06-02 Sony Corporation Method and apparatus for displaying in and out points during video editing
US5877781A (en) * 1995-11-29 1999-03-02 Roland Kabushiki Kaisha Memory control device for video editor
US5889519A (en) * 1996-03-26 1999-03-30 International Business Machines Corp. Method and system for a multimedia application development sequence editor using a wrap corral
US6154601A (en) * 1996-04-12 2000-11-28 Hitachi Denshi Kabushiki Kaisha Method for editing image information with aid of computer and editing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05183863A (ja) * 1992-01-06 1993-07-23 Fuji Xerox Co Ltd 動画像編集装置
JPH07319901A (ja) * 1994-05-23 1995-12-08 Ii D Kontoraibu Kk 画像データベースを利用した希望ジョブ実行方法
JPH09200687A (ja) * 1995-11-14 1997-07-31 Hitachi Denshi Ltd 放送番組の素材データを記録しその内容を表示する方法、およびその方法を行うシステム、及びその方法の手順を記録した記録媒体
JPH09139913A (ja) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd 映像表示方法および映像表示装置
JPH09322111A (ja) * 1996-05-30 1997-12-12 Nippon Telegr & Teleph Corp <Ntt> 映像編集装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0920014A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125059A (ja) * 2003-02-26 2011-06-23 Thomson Licensing ビデオ再生システムの時間ベース・ナビゲーション機能のための時間値の設定
JP2011147137A (ja) * 2003-02-26 2011-07-28 Thomson Licensing ビデオ・レコーダ・システムの時間ベース・ナビゲーション機能のための時間値の管理
JP2008512745A (ja) * 2004-09-07 2008-04-24 アドビ システムズ, インコーポレイテッド デジタルデータに対して局所的作業を行う方法およびシステム
US8605940B1 (en) 2006-12-01 2013-12-10 Adobe Systems Incorporated Coherent image modification
WO2018021112A1 (ja) * 2016-07-27 2018-02-01 ソニー株式会社 スタジオ機器制御システム、スタジオ機器制御システムの制御方法およびプログラム
JPWO2018021112A1 (ja) * 2016-07-27 2019-05-09 ソニー株式会社 スタジオ機器制御システム、スタジオ機器制御システムの制御方法およびプログラム
US11601604B2 (en) 2016-07-27 2023-03-07 Sony Corporation Studio equipment control system and method of controlling studio equipment control system

Also Published As

Publication number Publication date
CA2257316A1 (en) 1998-10-22
CA2257316C (en) 2006-06-13
JP4536164B2 (ja) 2010-09-01
EP0920014A4 (en) 2002-12-04
US6674955B2 (en) 2004-01-06
US20030086686A1 (en) 2003-05-08
EP0920014A1 (en) 1999-06-02

Similar Documents

Publication Publication Date Title
JP4536164B2 (ja) 編集装置及び編集方法
US20030091329A1 (en) Editing system and editing method
US6441832B1 (en) Hierarchical processing apparatus and hierarchical processing method for video and audio data
US7769270B2 (en) Editing system and control method thereof
US5801685A (en) Automatic editing of recorded video elements sychronized with a script text read or displayed
US8560951B1 (en) System and method for real time video production and distribution
US6952221B1 (en) System and method for real time video production and distribution
JP4168334B2 (ja) 編集装置及び編集方法
JP4229199B2 (ja) 編集装置及び編集方法
JP4588126B2 (ja) 編集システム及び編集方法
JP4174718B2 (ja) 編集装置及び編集方法
KR100603173B1 (ko) 편집장치및편집방법
KR100603161B1 (ko) 편집시스템및편집방법
JP4172525B2 (ja) 編集装置及び編集方法
JP2007317352A (ja) 編集装置及び編集方法
JP3951196B2 (ja) 編集装置
JPH10283759A (ja) 編集装置
JPH10290419A (ja) 編集装置
KR19980042871A (ko) 영상 음성 데이터 처리 장치의 보존 장소 지정 시스템 및 그 방법
JPH10290417A (ja) 編集装置
JP4051648B2 (ja) 編集装置及び編集方法
JPH10290393A (ja) 編集装置
JPH10290416A (ja) 編集装置
JPH10290394A (ja) 編集装置
JPH1141517A (ja) 編集装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

ENP Entry into the national phase

Ref document number: 2257316

Country of ref document: CA

Ref country code: CA

Ref document number: 2257316

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09202232

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019980710192

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1998912780

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998912780

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980710192

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980710192

Country of ref document: KR