WO1997005561A1 - Processeur de supports et procede de traitement de supports - Google Patents

Processeur de supports et procede de traitement de supports Download PDF

Info

Publication number
WO1997005561A1
WO1997005561A1 PCT/JP1996/002150 JP9602150W WO9705561A1 WO 1997005561 A1 WO1997005561 A1 WO 1997005561A1 JP 9602150 W JP9602150 W JP 9602150W WO 9705561 A1 WO9705561 A1 WO 9705561A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
layout
data
item
Prior art date
Application number
PCT/JP1996/002150
Other languages
English (en)
French (fr)
Inventor
Shinichi Eguchi
Yutaka Katsumata
Koichi Chiba
Hideki Matsuno
Yoshihiro Nagano
Kazuhide Ushita
Hideo Kamata
Tomohiro Matsuhashi
Hideyuki Inaoka
Eiichi Watanabe
Satoshi Naoi
Shunji Sakane
Katsutoshi Kobara
Kazunori Yamamoto
Kazuhito Watanabe
Yoshiyuki Kijima
Yoshinori Yamazaki
Yasutaka Machida
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP96925139A priority Critical patent/EP0790573B1/en
Priority to DE69637073T priority patent/DE69637073T2/de
Priority to US08/809,594 priority patent/US6360011B1/en
Priority to JP09507471A priority patent/JP3088019B2/ja
Publication of WO1997005561A1 publication Critical patent/WO1997005561A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/416Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors

Definitions

  • the present invention provides a medium processing apparatus and a medium processing method suitable for use in, for example, form processing in a financial institution, particularly for processing forms having a wide variety of formats, such as private slips.
  • the present invention relates to a medium processing device and a medium processing method. Background technology
  • image data readers such as optical character readers (OCR devices) have been developed as devices that read character information as image data (images) and then recognize characters. Efforts are being made to improve the efficiency of operations through the use of this system.
  • OCR devices optical character readers
  • an operator who works at a counter in a financial institution or the like uses the above-described image data reader to efficiently process form media (forms), thereby improving work efficiency.
  • a form processing device 1000 as shown in FIG. 115, it is possible to process a plurality of types of form media using an image data reading device.
  • 1001 is an image data reading device for reading image data on a form, and this image data reading device 1001 is a computer 100. 2 so that the image data reading operation based on the control from the computer 1002 can be performed.
  • an image scanner or FAX is used as the image data reading device 1001.
  • the computer 1002 as a control device for controlling the image data reader 1001 has an input unit such as a keyboard or a mouse for inputting commands, data, etc. from the operator (FIG. 11 5, only the keyboard is shown) 1002-1, computer body 1002-2, and display 1002-3 for displaying data or control information. Character recognition processing of the image data read by the image data reader 1001 is performed by the computer main body 1002-2.
  • 1 0 0 3 is a hard disk, and this hard disk 1 0
  • 03 is connected to the computer 1002, and designates position information, character type, number of digits, etc. of character data to be recognized for each form type in advance, as shown in FIG. 116, for example. 1003A ⁇ : L003C, . . . are stored.
  • image data reading and recognizing device 1005 instead of the image data reading device 1001 described above.
  • This image reading and recognizing device 1005 can perform the same image data reading operation as the image data reading device 1001 and can also perform character recognition.
  • the definition information 10 corresponding to the form type (in this case, electricity bill payment notice (form B) 1004) is entered by the operator using the keyboard 1002-1. 0 3 B ).
  • the computer 1002 accesses the hard disk 1003 to extract the definition information 1003B of the designated form and notifies the image data reading and recognition device 1005. do.
  • the image data reading and recognition device 1005 reads image data and performs character recognition processing based on the definition information 1003B as control information from the computer 1002. be able to.
  • an ID number (in this case, ' 0 1 0 2 ') can be written in the form so that the operator does not have to instruct the form type as described above, and the form reading process is automatically performed.
  • the ID number written at the first predetermined position 1004a is recognized, and then the ID number is recognized.
  • Character recognition can be performed by using the definition form information (1003B in this case) corresponding to the identified ID number.
  • an optical reading device such as the image data reading device 1001 or the image data reading recognition device 1005 (for example, a form processing device), if the position to set the form etc. changes - for example, even if the same form as the form whose definition information is stored in advance in the hard disk 1003 is read, the character data area Since the coordinates from the reference point (physical origin) of the image such as , and the graphic area are not the same as those in the definition body information, it is determined that the layout is not the same in the form processing device.
  • the character recognition processing may not be performed normally unless the layout of the read image data and the layout in the definition form information are matched before character recognition of the image data is performed. Therefore, first, the reference point of each image is extracted, and the coordinates from the reference point of each image are compared to determine whether the layouts match.
  • the following two methods are mainly used for extracting the reference point of the image data.
  • the form to be read is a pre-printed form, and the printing position of the form on the paper is managed with high accuracy.
  • the first method is, as shown in FIG.
  • the upper left edge position P of the sheet end face 1006 is used as a reference point.
  • a transfer slip (form C) 1010 in which information is written in the horizontal direction is read in the wrong direction by the image data reader 1001 (in FIG. 119, 1010, the image data of the read transfer slip 1010 is displayed in the wrong orientation as indicated by reference numeral 1010A on the display 1002-3. be done.
  • the operator visually checks the display 1002-3 to determine whether the form is being read in the correct direction. If not, input an instruction to rotate the image data of the read form by 90 degrees or 180 degrees from the keyboard 1002-1 so that the image data of the form is displayed on the display 100. It is necessary to correct the rotation of the image data so that it is displayed in the correct direction as indicated by reference numeral 1010B in 2-3.
  • Opel Ichiya receives information such as the account number, name, and amount described in the form, which is the remittance request form, from the account processing device 100. Input is made from the 0 keyboard 1 0 0 2 - 1, etc. At this time, the operator alternately looks at the form and the display 1 0 0 2 - 3 to perform the input operation.
  • the information written on the form can be viewed directly on the display 1002-3, which reduces the movement of the line of sight and facilitates confirmation and correction of the character recognition results. Correspondence errors with image data can be reduced.
  • a client-server system can be configured by connecting a client installed at each branch (sales office) of a financial institution and a server installed at a regional center via a dedicated line or exchange line. It has been proposed to improve the efficiency of operations by collectively processing forms by a server.
  • the server can automatically identify the form type. Then, the form can be read and processed.
  • the readable form medium is only the form medium created exclusively for the form processing device, and it is not possible to use the general form that has been used conventionally. However, there is a problem that a new dedicated form must be created.
  • An object of the present invention is to provide a medium processing device and a medium processing method.
  • An object of the present invention is to provide a medium processing method that can be stably and automatically performed.
  • the present invention provides a medium processing method capable of automatically performing rotation correction processing of image data read by an image data reading device. intended to provide
  • the present invention provides a medium that enhances recognition and enables smooth confirmation and correction processing by highlighting a portion of image data based on information defined in advance.
  • An object of the present invention is to provide a processing apparatus and a medium processing method.
  • the present invention extracts a character image as a character unit from the image data of each form or item, and edits this character image, thereby reducing the movement of the line of sight and the objects to be compared, and achieving high accuracy. It is an object of the present invention to provide a medium processing device and a medium processing method capable of performing confirmation and greatly reducing the labor and time required for correctness confirmation work. Invention disclosure
  • the media processing device of the present invention is a media processing device for recognizing information based on an image read from a medium in which information is written in an arbitrary format, wherein the read image data is means for extracting features unique to a medium including the format from the medium, identifying a position where information to be recognized exists from the features; and an image recognition means for discriminating.
  • the media processing device of the present invention is a media processing device for recognizing information based on an image read from a medium on which information is written in an arbitrary format, and which recognizes the layout of the read image.
  • a layout analysis processing unit that extracts the features of the layout, analyzes the configuration of the layout, and logically expresses the layout based on the extracted features; and a candidate layout storage that stores candidate layouts. and extracted by the layout analysis processing unit a layout collation processing unit for collating whether or not there is a matching candidate layout by retrieving the candidate layout from the candidate layout storage unit using the characteristics of the layout as a constraint search condition; It is characterized by being constructed with
  • a pre-analysis processing unit may be provided that performs necessary preprocessing on the image to be recognized.
  • the layout analysis processing unit comprises a layout feature extraction unit for extracting the layout feature of the image, and analyzing the configuration of the layout based on the layout feature extracted by the layout feature extraction unit. and a layout analysis unit that performs the layout analysis.
  • the layout analysis processing unit is configured to extract features of the layout and then extract the logical origin of the layout
  • the layout matching processing unit extracts the layout Based on the logical origin extracted by the analysis processing unit, it is configured to collate whether there is a matching candidate layout.
  • the layout feature extraction unit has a fold line extraction unit for extracting the fold lines of the layout
  • a layout analysis unit has a table structure analysis unit that analyzes a table structure constituted by the lines based on the layout lines extracted by the layout feature extraction unit, and the layout has a straight line.
  • the layout feature extraction unit includes an item data extraction unit for extracting the item data of the layout, and the layout analysis unit extracts the layout feature It has a table structure analysis section for analyzing the radio table structure based on the layout item data extracted by the section.
  • the layout analysis processing unit may be configured to determine a heading area in the image, recognize heading item information in the heading area, and determine corresponding item data.
  • the candidate layout storage unit is configured to store compressed candidate layout information
  • the layout matching processing unit is configured to store the features of the layout extracted by the layout analysis processing unit. is compressed, and using the features of this compressed layout as a constraint search condition, the compressed candidate layout is searched from the candidate layout storage unit to determine whether there is a matching candidate layout. It may be configured to match.
  • the candidate layout storage unit may be configured to update the candidate layout information through learning.
  • the medium processing device of the present invention extracts, in the step of identifying the information location, from the read image data a feature unique to the medium including the format, and information to be recognized from the feature is present. reading from a medium on which information is written in any format by identifying the position and determining the information by recognizing the image at the position identified in the information presence position identifying step in the image recognition step; The information is recognized based on the image obtained.
  • the medium processing device of the present invention extracts layout features of the read image, analyzes the layout configuration, and logically analyzes the layout based on the extracted features. and searching for the candidate layouts stored in the candidate layout storage unit in the layout matching processing step using the features of the layout extracted in the layout analysis processing step as a constraint search condition. Recognition of information based on an image read from a medium on which the information is written in any format by checking whether there is a candidate layout that matches do
  • the layout analysis processing step after extracting the characteristics of the layout, the logical origin of the layout is extracted, and in the layout comparison processing step, the layer extracted in the layout analysis processing step is extracted.
  • the information may be determined with reference to a logical origin.
  • the layout analysis processing step it is determined whether or not the layout of the read image is in a predetermined direction, and based on this determination result, the read image data is converted so that the layout is in the predetermined direction.
  • processing such as rotating the layout may be performed as conversion processing of the read image data.
  • the layout analysis processing step the lines of the layout are extracted and the extracted layout Analyzing the table structure formed by the lines based on the lines of the layout, and if the layout has a free line table structure without lines, in the layout analysis processing step, the The layout item data is extracted, and the wireless S-line table structure is analyzed based on the extracted layout item data.
  • a heading area in the image may be determined, heading item information in the heading area may be recognized, and corresponding item data may be determined.
  • the layout collation processing step when the compressed candidate layout information is stored in the candidate layout storage unit, in the layout collation processing step, the layout characteristics extracted in the layout analysis processing step are compressed. Compressed candidate layouts are searched from the candidate layout storage unit using the features of the compressed layout as a constraint search condition, and it is checked whether there is a matching candidate layout based on the search results. Furthermore, in the candidate layout storage unit, the candidate layout information may be updated by learning.
  • the media processing device of the present invention by electronically and automatically analyzing various forms and forms images that occur daily, conventional entry systems (0CR entry system, data entry system, etc.) can be used. There is an advantage that the efficiency of entry work can be dramatically improved.
  • the medium processing method of the present invention is a medium processing method for recognizing information based on an image read from a medium in which information is written in an arbitrary format, wherein the logical origin of the format is a logical origin extracting step for extracting the logical origin extracted in this step, extracting features unique to the medium including the format based on the logical origin extracted in this step, and specifying a position where information to be recognized exists from the features
  • logical origin extraction step in addition to extracting the logical origin of the format, supplementary information is added to the logical origin.
  • supplementary information is added to the logical origin.
  • the logical origin auxiliary coordinate information may be extracted, and in the image recognition step, the information may be determined based on the logical origin and the logical origin auxiliary coordinate information.
  • the layout has a tabular structure composed of lines
  • one of the corners forming the tabular structure is regarded as the logical origin of the format. Extract the coordinate information associated with .
  • coordinate information related to the remaining corners may be extracted as the logical origin auxiliary coordinate information.
  • the logical origin of the format is the minimum X coordinate of the corners forming the tabular structure, Extract the coordinate information of the corner with minimum Y coordinate o
  • the corner having the maximum X coordinate and the minimum Y coordinate, the corner having the minimum X coordinate and the maximum Y coordinate, the corner having the maximum X coordinate and the maximum Y coordinate, and the corner having the maximum X coordinate and the maximum Y coordinate, respectively. may be extracted. Furthermore, when the layout has a non-linear table structure with no straight lines, one of the corners of the circumscribing rectangle of the item data in the layout is used as the logical origin of the format. Extract the coordinate information associated with one corner.
  • coordinate information related to the remaining corners of the circumscribing rectangle may be extracted as the second logical origin auxiliary coordinate information.
  • the logical origin of the format is the minimum X coordinate and the minimum X coordinate among the corners of the bounding rectangle. Extract the coordinate information of the corner with the Y coordinate. Further, at this time, as the logical origin auxiliary coordinate information, the corner having the maximum X coordinate and the minimum Y coordinate in the circumscribed rectangle, the minimum X coordinate and the maximum Y coordinate are provided. You may extract the coordinate information of the corner with the maximum X-coordinate and the maximum Y-coordinate.
  • the layout analysis of the form to be processed is performed based on the line item and the item data extracted from the image data, and the corner coordinates of the area obtained by the layout analysis are calculated.
  • predetermined coordinates among them as the logical origin coordinates and the correction coordinates, it is possible to extract the logical origin coordinates and the correction coordinates from the image data of general forms other than dedicated forms on which reference marks, etc. are printed.
  • the layout can be reliably corrected even if a positional deviation occurs during image reading. Verification processing can now be performed.
  • the medium processing method of the present invention is a medium processing method for recognizing information based on an image read from a medium in which information is written in an arbitrary format, wherein the format is recognized from the read image data. After extracting a feature peculiar to the medium including the , and compressing the feature, the reference compression information stored in the storage unit is searched using the compressed feature as a constraint search condition, and matching reference compression information is extracted. It is characterized by collating whether or not there is an image, and then recognizing the image at the specified position based on the result of this collation and discriminating the information.
  • skew correction and distortion correction processing may be performed on the read image data prior to the compression processing of the features.
  • the read image data when compressing the feature, the read image data Then, referring to the horizontal lines that make up the line item, the same Y-coordinate processing is applied to the line item whose upper line of the line item shares the same line, and the image read above For the data, refer to the vertical line that constitutes the line item, and apply the same X-coordinate processing to the line item in which the left side of the line item shares the same exposure line.
  • the feature is converted into a corresponding bit string, this bit string is compressed, and set as a matrix table.
  • the layout of the line item which is one of the components of the layout, is compressed and expressed as a matrix table.
  • the layout matching processing speed does not depend on the number of exposure line items, and is only linearly proportional to the number of layouts to be matched. There are advantages that can be done.
  • skew correction and distortion correction processing are applied to the read image data, and the same Y direction is applied to each line item.
  • the medium processing method of the present invention is a medium processing method for recognizing information based on an image read from a medium in which information is written in an arbitrary format, wherein the read image is laid out. After extracting the features of the layout and analyzing the configuration of the layout, the analyzed layout configuration is displayed on the display, and a predetermined feature data recognition area is set for the displayed layout configuration.
  • Code data corresponding to the mark information in this area is input through an external input device, and furthermore, the characteristic data recognition area
  • code data corresponding to the mark information in the area in the registration step when inputting code data corresponding to the mark information in the area in the registration step, code data having a meaning corresponding to the mark information is input.
  • an area image feature extraction mechanism and a feature matching mechanism similar to those of a character recognition device are extended and combined with a layout recognition system to enable the recognition of an arbitrary image in a specified area. It becomes possible to perform graphic image recognition processing in conjunction with layout recognition processing.
  • the area feature data to be matched is linked to the layout information and recorded, it is possible to limit the matching target for each layout. This eliminates the need for processing and enables a high recognition rate to be achieved.
  • the medium processing method of the present invention is a medium processing method for recognizing information based on an image read from a medium in which information is written in an arbitrary format, wherein the read image layout features are extracted to analyze the configuration of the layout, and the extracted features determine the appearance in the image.
  • a layout analysis processing step of determining a display area, recognizing heading item information in this heading area, determining corresponding item data, and logically expressing the layout; and extraction by the layout analysis processing step.
  • a layout collation processing step of collating whether or not there is a matching candidate layout by retrieving the candidate layouts stored in the candidate layout storage unit using the characteristics of the layout obtained as a constraint search condition; It is characterized by being composed of
  • the layout analysis processing step includes: a heading position candidate determination step of determining a heading position candidate based on the layout configuration analysis result; and a headline item matching step for matching item information.
  • the image data to be matched may be normalized and then the headline item matching process may be performed.
  • the media processing device of the present invention comprises an image data reading device for reading image data of a form as a medium in which required information is written in a format, and an image of the form read by the image data reading device.
  • an image data storage memory for storing data
  • Form identification information extraction means for extracting required form identification information described in O/051 CT/JP96/02150; and the form identification information registered in the form identification dictionary in the image data of any form read by the image data reading device and stored in the image data storage memory.
  • a form identification means for identifying whether or not the arbitrary form is the specific form based on the reference result of the reference means.
  • the media processing device of the present invention comprises an image data reading device for reading image data of a form as a medium in which required information is entered in a format, and an image data of the form read by the image data reading device.
  • a form identification dictionary for registering the form identification information extracted by the form identification information extraction means as form identification information for the specific form
  • verification means for verifying whether or not there is the form identification information registered in the form identification dictionary in the image data; and whether or not the specific form can be recognized based on the verification result of the verification means.
  • the reference means may also serve as the verification means
  • the form identification means may also serve as the determination means.
  • the media processing device of the present invention reads image data of a specific form as a medium in which required information is written in a format read by an image data reading device, and writes information on the specific form.
  • the form identification information is extracted and registered in the form identification dictionary, then the image data of an arbitrary form is read by an image data reader, and the image data of the arbitrary form is stored in the form identification dictionary.
  • it is identified whether or not the arbitrary form is the specific form.
  • the media processing device of the present invention uses the image data of a specific form as a medium in which the required information is entered in the format read by the image data reading device and described on the specific form.
  • the form identification information is extracted, the form identification information is registered in the form identification dictionary, the image data of the specific form is input again, and the form is stored in the image data of the input specific form.
  • By verifying whether or not there is the form identification information registered in the identification dictionary it is determined whether or not the specific form can be recognized, and if the specific form can be recognized, an image of an arbitrary form is obtained.
  • the arbitrary form is identified as the specific form. Identify whether
  • the image data of the specific form read by the image data reading device is displayed on the display, and this displayed Image data of the form identification information described on the specific form for the image data of the specific form
  • the form identification information may be extracted by specifying the area containing the page.
  • the specific form identification written on the specific form is obtained from the image data of the specific form read by the image data reading device. Information may be extracted automatically.
  • the image data of the specific form read at the time of registering the form identification information in the form identification dictionary is stored, and the inputted image data is stored.
  • the stored image data of the specific form is re-used as the dictionary of the specific form.
  • the specific form can be recognized by inputting it as message data and verifying whether or not there is the form identification information registered in the form identification dictionary in the image data of the input specific form. It may be determined whether
  • the type of the form whose image data has been read by the image data reader can be automatically identified. Also, the operator can process without being aware of the definition structure for each form, which has the advantage of improving work efficiency. It also has the advantage of being able to use general forms without the need for manual processing, and that it can be easily adapted to existing systems. In addition, since it is possible to verify whether or not the form identification information specified by the operator is correct, misjudgment of the form is completely eliminated, and there is an advantage that the reliability of the apparatus is improved.
  • the reference means also serves as the verification means
  • the document identification means also serves as the determination means, thereby simplifying the device configuration.
  • the media processing device of the present invention comprises: an image reading unit for reading an image of a medium having mark information; a mark recognition unit that recognizes the mark image information and converts the mark image information into code information corresponding to the mark image information; a display that displays the read image of the mark image information; If the mark image information could not be converted into the corresponding code information, the unrecognizable mark image information that could not be converted is displayed on the display together with the mark image information associated with the unrecognizable mark image information.
  • a read mark image display control unit for displaying the state of the read image, and the read mark image display control unit has highlighting means for highlighting the unrecognizable mark image information. It is characterized by
  • a data input device for inputting correct data corresponding to the unrecognizable mark image information is provided, and when the correct data is input by operating the data input device, the correct data is displayed on the display.
  • a correct data display means is provided for displaying in a correct data display area separate from the unrecognizable mark image information display area.
  • the highlighting changing means is provided to change the unrecognizable mark image information that has been highlighted until now to another highlighting indicating that it has been corrected.
  • the correct data display means displays the correct data in a correct data display area separate from the unrecognizable mark image information display area on the display
  • a highlighting change means may be provided for changing the highlighted unrecognizable mark image information to another highlighting meaning that it has been corrected. That is, the present invention reads an image of a medium having mark information, recognizes the mark image information in the read image, and converts the mark image information into a corresponding code. If the above mark image information cannot be converted into the corresponding code information, the unrecognizable mark image information that could not be converted into the unrecognizable mark image information.
  • the unrecognized mark image information is displayed in the state of the read image on the display together with the mark image information related to the image information, and the unrecognized mark image information is highlighted, and then the unrecognized mark image is displayed.
  • the correct data corresponding to the information is input by operating the data input device, the unrecognizable mark image information that has been highlighted up to now is highlighted differently, meaning that it has been corrected, and the correct data is displayed. It is characterized in that the unrecognizable mark information is corrected based on
  • the media processing device of the present invention recognizes an image reading unit that reads an image of a medium having mark information, and the mark image information in the image read by the image reading unit.
  • a mark recognition unit for converting the mark image information of the lever into code information corresponding to the mark image information; could not be converted into corresponding code information, the unrecognizable mark image information that could not be converted is displayed on the display together with the mark image information associated with the unrecognizable mark image information.
  • a reading mark image display control unit for displaying in a single state; a highlighting means for highlighting the unrecognizable mark image information; and corresponding to the unrecognizable mark image information.
  • a data input device for inputting correct data, and when the correct data is input by operating the data input device, the unrecognizable mark image information that has been highlighted until now is highlighted differently, meaning that it has been corrected.
  • the media processing device of the present invention reads an image of a medium having mark information, recognizes mark image information in the read image, and converts the mark image information into corresponding code information. In doing so--if the above-mentioned mark image information could not be converted into corresponding code information--the unrecognizable mark image information that could not be converted is associated with the unrecognizable mark image information. Along with the mark image information, the read image is displayed on the display, and the unrecognizable mark image information is highlighted.
  • the correct data When the correct data corresponding to the unrecognizable mark image information is input by operating the data input device, the correct data is displayed in a correct data display area separate from the unrecognizable mark image information display area on the display. displayed in
  • the unrecognizable mark image information when the correct data corresponding to the unrecognizable mark image information is input by operating the data input device, the unrecognizable mark image information that has been highlighted until now is highlighted differently, meaning that it has been corrected. is applied.
  • the correct data corresponding to the unrecognizable mark image information is input by operating the data input device, the correct data is displayed as a correct answer different from the unrecognizable mark image information display area on the display.
  • the unrecognizable mark image information that has been highlighted up to now is highlighted differently, meaning that it has been corrected.
  • the medium processing device of the present invention when the mark image information cannot be converted into corresponding code information, displaying the unrecognizable mark image information together with the mark image information associated with the unrecognizable mark image information in the state of the read image on the display;
  • By highlighting the information on the mark even if the information on the mark image is unrecognizable due to, for example, cursive characters, it is possible to refer to the image information of the preceding and succeeding characters such as consecutive characters.
  • it has the advantage of being able to reduce the labor and time required for correctness/incorrectness confirmation work , as well as being able to perform highly accurate confirmation work.
  • the correct data When input by operating the force device, the correct data is displayed in a correct data display area separate from the unrecognizable mark image information display area on the display, thereby inputting the mark image information. It is possible to reconfirm the correct data by visual inspection, which has the advantage of reducing the labor and time required for correctness confirmation work and enabling highly accurate confirmation work. Furthermore, the image of the unrecognizable mark When the correct data corresponding to the information is input by operating the data input device, the correct data is displayed in a correct data display area separate from the unrecognizable mark image information display area on the display. , The unrecognizable mark image information that has been highlighted so far is highlighted differently, meaning that it has been corrected, so that the mark image information and the input correct data can be visually checked.
  • the media processing device of the present invention comprises: an image reading unit for reading an image of a medium having mark information; a mark recognition unit for recognizing the mark image information in the image and converting it into code information corresponding to the mark image information; and a display for displaying the read image of the mark image information. and a minimum constituent unit mark image for extracting the minimum constituent unit mark image information to be converted into code information in the image for each minimum constituent unit mark image information. an information extraction unit; and code information obtained by converting the mark image information of the minimum constituent unit extracted by the minimum constituent unit mark image information extraction unit. It is characterized in that it is configured with a mark image display control unit that is the minimum constituent unit that is displayed in correspondence with the mark information that it means.
  • the minimum constituent unit mark image display control unit associates the mark image information of the same kind of minimum constituent unit with the mark information signified by the code information obtained by converting this mark image information, and displays a plurality of such mark image information.
  • it may also have highlighting means for highlighting only one desired mark image information.
  • associated mark image display means for displaying the one mark image information together with the mark image information associated with this mark image information in the read image state on the display.
  • associated mark image display means may include highlighting means for highlighting the one mark image information.
  • a data input device for inputting correct data corresponding to the one mark image information is provided, and when the correct data is input by operating the data input device, the correct data is input to the one mark image information.
  • Correct data display means may be provided for displaying in a correct data display area separate from the area displaying the mark image information related to this mark image information.
  • a data input device for inputting correct data corresponding to the one mark image information is provided, and when the correct data is input by operating the data input device, the one mark that has been highlighted until now is displayed.
  • a highlighting change means may be provided for performing another highlighting indicating that the image information has been corrected.
  • a data input device for inputting correct data corresponding to the one mark image information is provided, and when the correct data is input by operating the data input device, the correct data is input to the one mark image.
  • a correct data display means for displaying the mark image information and the mark image information related to the mark image information in a correct data display area separate from the area displaying the mark image information; and the data input device.
  • a highlighting change means may be provided for performing another highlighting indicating that the one mark image information that has been highlighted until now is corrected, when the correct data is input by the operation of (1).
  • the present invention reads an image of a medium having mark information, recognizes the mark image information in the read image, and converts the mark image information into code information corresponding to the mark image information.
  • mark information meaning code information obtained by converting mark image information of the same kind of minimum constituent unit to be converted into code information in said image;
  • only one desired mark image information is highlighted, and then the correct data corresponding to the one mark image information is input by operating the data input device.
  • the one mark image information that has been highlighted so far is highlighted differently, meaning that it has been corrected, and the one mark image information is changed based on the correct data. It is characterized in that the corresponding erroneous recognition information is corrected.
  • the media processing device of the present invention is an image of a medium having mark information and an image reader that recognizes the mark image information in the image read by the image reader and converts the mark image information into code information corresponding to the mark image information.
  • a chapter recognition unit a display for displaying the read image of the mark image information;
  • a minimum constituent unit mark image information extraction unit for extracting each constituent unit mark image information, and a mark of the minimum constituent unit extracted by the minimum constituent unit mark image information extraction unit.
  • a minimum configuration unit mark image display control unit for displaying several pieces of image information corresponding to mark information meaning code information obtained by converting this mark image information, and one desired mark.
  • a highlighting means for highlighting only image information a data input device for inputting correct data corresponding to the one mark image information, and inputting the correct data by operating the data input device.
  • highlighting change means for performing another highlighting indicating that the one mark image information that has been highlighted until now is corrected, and the correct answer data is displayed by operating the data input device to input the correct data. It is characterized by having a recognition information correcting means for correcting erroneous recognition information corresponding to the one mark image information based on the data.
  • the media processing device of the present invention reads the image of the medium having the mark information, recognizes the mark image information in the read image, and recognizes the mark.
  • the mark image information which is the minimum constituent unit to be converted into code information in the image, means the code information obtained by converting this mark image information Mark information displayed on the display corresponding to
  • mark image information of the same kind of minimum constituent unit are displayed in association with the mark information meaning the code information converted from this mark image information. , only one desired mark image information is highlighted.
  • the desired one mark image information is displayed in the read image state on the display together with the mark image information related to this mark image information, and the one mark image information is highlighted. .
  • the correct data corresponding to the one mark image information is input by operating the data input device, the correct data is associated with the above one mark image information and this mark image information. It is displayed in a correct data display area separate from the area displaying the mark image information to be used.
  • the correct data corresponding to the one mark image information is input by operating the data input device, another highlight indicating that the one mark image information that has been highlighted so far is corrected.
  • the correct data is combined with the above one mark image information and this mark image information. It is displayed in a correct answer display area separate from the area displaying the related mark image information, and means that the one mark image information that has been highlighted until now has been corrected. A different highlighting is applied to
  • the media processing device of the present invention it is possible to display only the same mark in the same area on the display in units that can be easily viewed, and to display a desired one mark.
  • the operator can check whether the recognition result is correct or not by simply referring to the image information without referring to the related image information. and by highlighting only the mark image information being processed to reduce the number of comparisons.
  • one desired mark image information and mark image information related to this mark image information are displayed on the display in the state of the read image, and the one mark image information is displayed.
  • the image information of preceding and following characters such as continuation characters can be displayed.
  • the correct data corresponding to the one mark image information is input by operating the data input device, the correct data is input to the mark image information and the mark associated with the mark image information. It is displayed in a correct data display area separate from the area displaying the chapter image information, and the one mark image information that has been highlighted up to now is displayed in another area indicating that it has been corrected. , the mark image information and the entered correct data can be visually reconfirmed, and highly accurate confirmation work can be performed. This makes it easier to distinguish between corrected and uncorrected chapters, improves visibility, prevents operators from making double corrections, and greatly reduces the labor and time required for correctness confirmation work. There are advantages that can be reduced.
  • the media processing device of the present invention has an image data input device for manually inputting an image data of a medium containing a plurality of item information, an image data display area, and a data input display area for each item.
  • a display having an item display area; displaying the image data obtained by the image data input device in the image data display area; a display control device for displaying a cursor in a data input display area portion for the desired item in the item display area when data corresponding to the image data portion of the desired item is input by the data input means; a desired item data input display area portion of each item data input display area portion in the item display area in a state in which image data including a plurality of item information is displayed in the image data display area of the display by the device; It is characterized by having image data part highlighting means for highlighting only the image data part of the corresponding desired item when the force one-sol display is made.
  • the display control device causes the data input display area for items other than the desired item data input display area to be displayed by the cursor movement operation means.
  • image data highlighting canceling means for canceling the highlighting of the image data portion corresponding to the item when the one-solar display is caused to transition; and data input for the other item in conjunction with the image data highlighting canceling means.
  • highlighting transition control means for controlling such that only the image data portion of the other item corresponding to the display area portion is highlighted by the image data portion highlighting means.
  • the display control device displays part of the image data on the display in addition to the image data partial highlighting means, the image data strong display canceling means, and the highlighting transition control means.
  • a display screen scrolling means may be provided for displaying the image data not displayed on the display from the state.
  • image data portion highlighting means may have changing means for changing the highlighted portion according to an external instruction.
  • the media processing device of the present invention can be displayed on the display. Therefore, when displaying image data of a medium containing information on a plurality of items, only the portion of the image data corresponding to a certain item is highlighted.
  • the image data display area When the cursor is displayed in the desired item data input display area part of each item data input display area part in the item display area set separately from the display, only the image data part of the corresponding desired item is displayed. is highlighted, and after that, when inputting data corresponding to the image data portion of another item, the cursor display is moved from the data input display area for the desired item to the data input display area for the other item. When moved, the image data portion of the corresponding desired item is de-emphasized and the image data portion of the corresponding other item is highlighted.
  • the image data part of the corresponding desired item is de-emphasized, while the image data part of the other item is released. Scrolling is performed so that the minute is displayed in the image data display area of the display to display the image data portion of the other item in the image data display area of the display, and the corresponding image of the other item. The data part is highlighted.
  • the media processing apparatus of the present invention when the cursor is displayed in the data input display area portion to which data is to be input, the image data portion of the item to be referred to is highlighted at the same time, so that the operator can Even if you look at the display again after taking your eyes off the display, it prevents you from seeing the wrong item, prevents misrecognition of the correspondence when referring to the image data, improves visibility, and improves visibility during input operations. It has the advantage of reducing labor and time and preventing erroneous input.
  • FIG. 1 is a functional block diagram showing the overall configuration of a media processing device according to one embodiment of the invention
  • FIGS. 2 to 4 are diagrams for explaining the processing in the media processing device according to one embodiment of the present invention.
  • FIG. 5 is a functional block diagram showing the configuration of the layout analysis processing unit in the media processing device according to one embodiment of the present invention.
  • FIG. 6 shows a book in the media processing device according to one embodiment of the present invention. It is a figure for demonstrating vote processing.
  • FIG. 7 is a schematic perspective view showing an image reader in the media processing device according to one embodiment of the present invention.
  • FIG. 8 and FIG. 9 are functional block diagrams focusing on image data rotation correction processing in a media processing device according to an embodiment of the present invention.
  • FIG. 10 and FIG. 11 are diagrams showing examples of forms processed by the media processing device according to one embodiment of the present invention.
  • FIGS. 12 and 13 are flowcharts for explaining image data rotation correction processing in the media processing device according to one embodiment of the present invention.
  • FIG. 14 is a process explanatory diagram showing application of the origin extraction and collation process in the media processing device according to one embodiment of the present invention.
  • FIG. 15(a), FIG. 15(b), FIG. 16, and FIG. 17 show examples of forms processed by the media processing device according to one embodiment of the present invention.
  • FIG. 4 is a diagram showing;
  • FIG. 18 is a flowchart for explaining logical origin extraction processing in the media processing device according to one embodiment of the present invention.
  • FIG. 19 is a diagram for explaining matching determination of logical origin correction coordinates in the media processing device according to one embodiment of the present invention.
  • FIG. 20(a) and FIG. 20(b) are diagrams showing examples of forms processed by the media processing device according to one embodiment of the present invention.
  • FIG. 21 is a flow chart for explaining the logical origin matching process in the media processing device according to one embodiment of the present invention.
  • FIG. 22 is a processing explanatory diagram focusing on matrix matching processing in the media processing device according to one embodiment of the present invention. /02150
  • FIG. 23 is a diagram for explaining matrix table creation processing in the media processing device according to one embodiment of the present invention.
  • FIG. 24(a) and FIG. 24(b) are for explaining normalization processing of coordinates of image data during matrix table creation processing in the media processing device according to one embodiment of the present invention. is a diagram.
  • FIGS. 25 to 27 are diagrams for explaining bit table creation processing during matrix table creation processing in the media processing device according to one embodiment of the present invention.
  • FIG. 28 is a diagram for explaining a matrix table created in the media processing device according to one embodiment of the present invention.
  • FIGS. 29 and 30 are illustrations for explaining the matrix table matching process in the media processing device according to one embodiment of the present invention.
  • FIG. 31(a) and FIG. 31(b) are diagrams showing matrix information during matrix table collation processing in the media processing device according to the embodiment of the present invention.
  • FIG. 32 is a processing explanatory diagram focusing on feature data recognition processing in the media processing device according to one embodiment of the present invention.
  • FIGS. 33 and 34 are diagrams for explaining feature data recognition processing in the media processing device according to one embodiment of the present invention.
  • FIG. 35 and FIG. 36 are diagrams for explaining a comprehensive exchange transfer form processed in the media processing device according to one embodiment of the present invention.
  • FIG. 37 is a process explanatory diagram focusing on the headline analysis process in the media processing device according to one embodiment of the present invention.
  • FIG. 38 shows a media processing device according to an embodiment of the present invention.
  • FIG. 10 is a diagram for explaining the bright line item configuration information used in headline analysis processing;
  • FIG. 39 is a diagram for explaining line attributes of the line item configuration information used in headline analysis processing in the media processing device according to one embodiment of the present invention.
  • FIG. 40, FIG. 41(a) to FIG. 41(d) are a line item configuration information table used in headline analysis processing in a media processing device according to an embodiment of the present invention. It is a figure for demonstrating about.
  • FIG. 42, FIG. 3(a), and FIG. 43(b) are for explaining heading position search rules used in heading analysis processing in the media processing device according to one embodiment of the present invention. is a diagram.
  • FIG. 44 is a flowchart for explaining headline analysis processing in the media processing device according to one embodiment of the present invention.
  • FIG. 45 is a diagram showing an example of the result of the headline analysis processing in the media processing device according to one embodiment of the present invention.
  • 46(a) to 46(c), 47(a) to 47(c), 48(a) to 48(c) ) is a diagram showing a headline example during headline analysis processing in the media processing device according to the embodiment of the present invention.
  • FIG. 49 is a diagram showing an example of normalization processing during headline analysis processing in the media processing device according to one embodiment of the present invention.
  • FIG. 50 is a diagram for explaining an item entry dictionary used in the entry analysis process in the media processing device according to one embodiment of the present invention.
  • FIG. 51(a) and FIG. 51(b) show the results of entry item data during the entry analysis process in the media processing device according to one embodiment of the present invention. It is a figure which shows an example of a collation result.
  • FIG. 52(a:) to FIG. 52(c) are for explaining the correction of the matching result by the headline correction rule during the headline analysis processing in the media processing device according to one embodiment of the present invention. It is a diagram.
  • FIG. 53 is a flowchart for explaining the headline analysis processing in the media processing device according to one embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a connection rule between heading section line items and data section line items used in analysis processing
  • FIG. 56 is a diagram showing an example of determination results of item data positions corresponding to heading items during heading analysis processing in the media processing device according to one embodiment of the present invention.
  • FIGS. 57 and 58 are diagrams for explaining the link relationship of each piece of information during headline analysis processing in the media processing device according to one embodiment of the present invention.
  • FIG. 59(a) and FIG. 59(b) are diagrams for explaining item data linked to function items during headline analysis processing in a media processing device according to an embodiment of the present invention.
  • FIG. 60('a:) to FIG. 60(f) are diagrams for explaining money item link processing during headline analysis processing in the media processing device according to one embodiment of the present invention. be.
  • FIG. 61 is a schematic diagram showing the configuration of an image data display device according to one embodiment of the present invention.
  • FIGS. 64 to 66 are flowcharts for explaining the operation of the image data display device according to one embodiment of the present invention.
  • FIG. 67 is a diagram for explaining a display example of the image data display device in one embodiment of the present invention.
  • FIG. 68 is a diagram for explaining related information created by the image data display device according to one embodiment of the present invention.
  • FIG. 69 is a diagram for explaining emphasis information created by the image data display device according to one embodiment of the present invention.
  • 70 to 78 are diagrams for explaining display examples of the image data display device according to one embodiment of the present invention.
  • FIG. 79 is a diagram for explaining emphasis information created by the image data display device according to one embodiment of the present invention.
  • FIGS. 80 to 85 are diagrams for explaining display examples of the image data display device according to one embodiment of the present invention.
  • FIG. 86 is a schematic diagram showing the configuration of a read mark display/recognition information correction device in one embodiment of the present invention.
  • FIGS. 87 to 89 are functional block diagrams of the reading mark display/recognition information correction device in one embodiment of the present invention.
  • FIGS. 90 to 97 are flowcharts for explaining the operation of the reading mark display/recognition information correcting device in one embodiment of the present invention.
  • FIG. 98 is a diagram for explaining a full-page image created by the read mark display/recognition information correction apparatus according to one embodiment of the present invention.
  • FIG. 99 is a diagram for explaining the recognized character information created by the reading mark display/recognized information correcting apparatus according to one embodiment of the present invention.
  • FIG. 100 shows a reading mark display in one embodiment of the present invention. It is a figure for demonstrating the related information produced with the recognition information correction apparatus.
  • FIG. 101 to FIG. 104 are diagrams for explaining display examples of the read mark display/recognition information correction device in one embodiment of the present invention.
  • 5 is a block diagram showing a form identification device according to a first modification of one embodiment of the present invention
  • FIG. 106 is a control block diagram focused on the registration step operation of the form identification apparatus according to the first modification of the embodiment of the present invention.
  • FIG. 107 is a flowchart for explaining the operation during the registration step operation of the form identification device according to the first modification of the embodiment of the present invention.
  • FIG. 108 is a diagram for explaining the operation during the registration step operation of the form identification device according to the first modification of the embodiment of the present invention.
  • FIG. 109 is a control block diagram focused on the verification step operation of the form identification device according to the first modification of the embodiment of the present invention.
  • FIG. 110 is a flow chart for explaining the operation during the registration step operation of the form identification device according to the first modification of the embodiment of the present invention.
  • FIG. 111 is a control block diagram focused on the operation step operation of the form identification device according to the first modification of the embodiment of the present invention.
  • FIG. 112' is a flowchart for explaining the operation of the form identifying device according to the first modification of the embodiment of the present invention during the operation step operation.
  • FIG. 113 is a control block diagram of a form identification device according to a second modification of one embodiment of the present invention.
  • FIG. 114 is a flowchart for explaining the operation of the form identification device according to the second modification of the embodiment of the present invention. 2150
  • FIG. 115 is a schematic diagram showing the configuration of a form identification device.
  • FIG. 116 is a diagram for explaining the operation of the form identification device.
  • FIG. 117 is a diagram for explaining a modification of the operation of the form identification device.
  • FIG. 118(a) and FIG. 118(b) are diagrams for explaining a method of extracting reference points of image data.
  • FIG. 119 is a diagram for explaining rotation correction processing of image data. Best Mode for Carrying Out the Invention
  • FIG. 1 is a functional block diagram showing the overall configuration of a media processing device according to one embodiment of the present invention.
  • the medium processing device 30 shown in FIG. 1 processes this information based on the image data (image) read from a form medium (form) having a wide variety of formats, such as a private slip. Recognition is performed.
  • this media processing device 30 includes, for example, a client (CL) 35 installed at each branch (business branch) of a financial institution and a client (CL) 35 installed at a district center.
  • a server (SV) 39 is connected via an exchange line 36 or the like, and the form processing in each business branch is collectively performed by the server 39 of the district center.
  • the medium processing device 30 recognizes the format of the form to be processed by analyzing the layout of the image data of the form, and performs character recognition of the form based on the recognition result of the format of the form. especially Therefore, it is possible to perform recognition processing not only for forms created exclusively for the form processing device, but also for forms in which information is entered in any format.
  • the media processing device 30 is functionally provided with a layout recognition processing block 16, a character recognition processing block 17, and an operator confirmation Z correction processing block 18, as shown in FIG. ing.
  • the layout recognition processing block 16 is a block for performing layout recognition processing on the image data 19 read by the image data reader, and includes a pre-analysis processing section 1, a layout analysis processing section 2, and a layout collation processing. It has a 3rd part and a 4th layout editing part.
  • the pre-analysis processing unit 1 converts the format of the image data 19 to be recognized, and converts the format of the recognition target image data 19 into data for analysis processing in order to reduce layout variation factors and improve analysis accuracy. In addition to creating a low-density image, it also removes dust on the image data, which causes a decrease in accuracy during analysis processing.
  • the layout analysis processing unit 2 refers to the analysis dictionary 13, extracts exposure items and item data, which are features of the layout, from the read image data, and determines the layout configuration.
  • the layout is logically expressed by the analysed, extracted line item and item data.
  • the layout analysis processing unit 2 functions as means for extracting features unique to the form medium from the read image data and specifying the position where the information to be recognized exists based on these features.
  • the layout analysis processing unit 2 analyzes the layout of the image to be recognized, and extracts various components (ascending line items and item data) that make up the layout as layout features. At the same time, the registered layout information is checked during layout matching processing in the layout matching processing unit 3 at the later stage. In order to retrieve 150 pieces of information, layout key information, which is a rough constraint condition of the layout, is created from the extracted layout features.
  • this layout analysis processing unit 2 includes a layout feature extraction unit 2A for extracting the layout feature of the image, and a layout feature extraction unit 2A for extracting the layout feature and a layout analysis unit 2B for analyzing the configuration of the layout based on the layout analysis unit 2B.
  • the layout feature extraction unit 2A has a line extraction unit 2C and an item data extraction unit 2D
  • the layout analysis unit 2B has a table structure analysis unit 2E.
  • the layout has a table structure made up of lines
  • the line item that is the minimum rectangle formed from the lines of the layout is extracted by the line extraction unit 2C.
  • the table structure analysis unit 2E analyzes the table structure composed of fog line items . If it has a structure, the item data of the layout is extracted by the item data extraction unit 2D, and the wireless table structure is determined by the table structure analysis unit 2E based on the extracted item data of the layout. It is meant to be parsed.
  • the layout analysis processing unit 2 is configured to extract the logical origin (logical origin) of the layout after extracting the line items and item data.
  • label image creation processing by labeling processing calculates connected components (image components connected to one in a binary image) from the input image data (binary image data). , is the process of creating a labeled image in which each connected component is labeled.
  • this labeling process for example, "Connected Region Extraction Apparatus and Method” (Japanese Unexamined Patent Application Publication No. 08-55219) is known.
  • the line item extraction process is a process of extracting the line part from the data such as characters and figures surrounded by the line and separating the line part and the data part. That is.
  • the process of extracting field line items for example, "Image Extraction Method" (Japanese Unexamined Patent Application Publication No. 06-309498) is known.
  • the headline analysis process (2-5) determines the headline area (headline item) in the image, recognizes the headline item information in this headline area, and determines the corresponding item data. .
  • the layout analysis processing unit 2 identifies the heading item and the item data corresponding to the heading item, and the character recognition processing of the heading item is performed in the character recognition processing block 17. Character recognition of item data can be immediately performed without
  • the layout matching processing unit 3 extracts candidate layouts from the layout database (layout DB) 14 using the layout features (recruitment line items and item data) extracted by the layout analysis processing unit 2 as constraint search conditions. to see if there is a matching candidate layout By doing so, it functions as image recognition means for recognizing the image at the position specified by the layout analysis processing unit 2 and determining the information at the specified position.
  • the layout DB 14 is a candidate layout storage unit that stores candidate layout information, and in this embodiment, stores compressed candidate layout information as candidate layout information. The layout information compression process at this time will be described later in detail . Also, the layout DB 14 stores layout correction information for correcting the layout analysis result in the layout analysis processing unit 2. is stored, and in this embodiment, the layout editing processing unit 4, which will be described later, corrects the layout analysis result using this layout correction information, so that subsequent processing can be performed with high accuracy. It has become so.
  • the content of the layout DB 14 is such that candidate layout information is learned and updated based on the processing results of the layout recognition processing block 16 and the operator confirmation correction processing block 18, as will be described later. This eliminates the need for an operator or the like to register the candidate layout information in the layout DB 14, thereby simplifying the operation.
  • the layout collation processing unit 3 is designed to collate whether or not there is a matching candidate layout with reference to the logical origin extracted by the layout analysis processing unit 2.
  • the layout matching processing unit 3 uses the layout information created by the layout analysis processing unit 2 to search and match the layout information stored in the layout DB 14, and acquires matching layout information. It is.
  • layout matching processing unit 3 when searching and matching layouts, layout information, which is a rough constraint condition, is first obtained.
  • the layout DB 14 is searched as a constraint condition, and a matching layout is determined by performing further detailed collation on the plurality of candidate layouts obtained as a result of the search.
  • the layout matching processing unit 3 during detailed matching processing for candidate layouts, (3-1) collation of line item bit matrices is performed in order from the rough constraint conditions. , (3-2) detailed matching of So-line item position and line-item attribute, (3-3) matching of item data position, (3-4) matching of heading position and heading content, and (3-5) area Feature data collation of images (unique images) is performed.
  • the collation processing of the line item bit matrix in (3-1) is compression processing of the layout features extracted by the layout analysis processing unit 2, and constraining the compressed layout features.
  • searching compressed candidate layouts from the layout DB 14 as a search condition it is checked whether there is a matching candidate layout.
  • the layout DB 14 stores the compressed candidate layout information
  • the layout collation processing unit 3 generates compressed layout information, and collates the compressed layout information with each other. By doing so, the layout matching process is speeded up.
  • Processing (3-1) is described in (a4) Matrix matching processing, and processing (3'-2) to (3-4) is described in (a6) Heading analysis processing. , and processing (3-5) will be described in detail in (b) Description of Modified Example of One Embodiment of the Present Invention.
  • the layout edit processing unit 4 if there is a layout matching the layout DB 14, the layout DB 1 as described above.
  • the layout analysis result was corrected based on the layout correction information obtained from 4. Later, the corrected layout information is output as the layout recognition result 20.
  • the contents of correction using the layout correction information are the correction of the headline position and headline content, and the correction of the item data position and item data attributes linked to the headline.
  • the layout editing processing section 3 as a result of searching and collating the layout DB 14 in the layout collation processing section 3, if there is no layout matching the layout DB 14, the layout is defined as a new layout. , the layout analysis result is directly output as layout information (layout recognition result 20).
  • the character recognition processing block 17 is a block for performing character recognition processing on the layout recognition result 20 from the layout recognition processing block 16, and includes a character recognition definition creation unit 5 and a character recognition processing unit 6. and a knowledge processing unit 7.
  • the character recognition definition creation unit 5 selects the item data positions and items to be used in the character recognition processing unit 6 for character recognition. It creates a character recognition definition body (temporary definition body) 21 that defines data attributes.
  • Layout recognition result 20 item data information is output in absolute coordinates from the upper left corner of the image to be analyzed, but the upper left corner of the image to be analyzed is always constant due to fluctuations in paper position during image reading. position.
  • the character recognition definition body processing unit 5 dynamically creates the character recognition definition body 21 in accordance with the image to be analyzed each time. Further, the character recognition processing unit 6 uses the character recognition definition body 21 created from the layout information in the character recognition definition creation processing unit 5 to create a character recognition pair. Character recognition processing is performed on the item data of the elephant, and the code data of the recognition result is obtained.
  • the knowledge processing unit 7 corrects the recognition result code data of the character recognition processing unit 6 by referring to the knowledge database (knowledge DB) 15 that records the correction information of the recognition result, and outputs it as the character recognition result 22. It is something to do.
  • the layout recognition result 20 and the character recognition result 22 are displayed on a terminal device (for example, the client 10 in FIG. 1), and the operator confirms the image data.
  • a terminal device for example, the client 10 in FIG. 1.
  • This is a block for confirming and correcting processing results, and has a layout screen display processing unit 8 and a character recognition result screen display processing unit 9.
  • In order to correct and confirm the text recognition result 20 and the character recognition result 202 analyze the image to be recognized, the position of the heading, the content of the heading, and the position of the corresponding item based on the layout information of the layout recognition result 20. The result is displayed on the client 10 display.
  • the conventional correction and confirmation processing is extended so that the code data of the recognition result and the corresponding
  • layout information can be corrected and confirmed.
  • the display processing unit 9 displays the code data of the character recognition result corresponding to the recognition item of the character recognition target image on the screen in accordance with the display of the layout screen display processing unit 8 .
  • the layout recognition result 20 and the character recognition result 22 corresponding to the image to be recognized displayed on the display are displayed. It is confirmed by the operator, and if necessary, the layout recognition result 20 and the character recognition result 22 are corrected.
  • the ⁇ ' knowledge log information creation processing unit 12 is also provided.
  • the layout log information creation processing unit 11 receives the layout recognition result
  • Layout DB learning information 25 (this is shown as learning layout information 28 in FIG. 4, which will be described later) is created by adding corrections made by the operator as correction data to layout information 20.
  • the layout correction information stored in the layout DB 14 is created.
  • the created layout correction information is learned and registered in the layout DB 14 after the content of correction is determined.
  • the layout log information creation processing unit 11 adds the content of corrections made by the operator as correction data to the layout information of the layout recognition result 20, and creates analysis dictionary learning information 24 (which will be described later in FIG. 4). is shown in the registration layout information 29), and the created analysis dictionary learning information 24 is determined by the content of correction, and then the analysis dictionary
  • the knowledge base information creation processing unit 12 adds corrections made by the operator to the code data of the character recognition results 22 as correction data to generate knowledge.
  • Knowledge learning information 23 for DB 15 is created, and the created learning data is learned and registered in knowledge DB 15.
  • the media processing device 30 when the image data 19 of a form having an arbitrary format is read, the layout of the image data 19 is changed. is parsed recognizes the format of the form to be processed, and character recognition of the form is performed based on the recognition result of the format of this form.
  • FIG. 1 The processing in the media processing device 30 at this time will be explained using FIGS. 2 to 4.
  • FIG. 1 The processing in the media processing device 30 at this time will be explained using FIGS. 2 to 4.
  • pre-analysis processing of the image data 19 of the form to be processed is performed (step A1).
  • the layout analysis processing unit 2 exposure line items and item data, which are components of the layout, are extracted from the image to be recognized, and the layout analysis dictionary 13 is referred to to determine the position of the index item in the layout and its position. The content and the corresponding item data position are output as the analysis result (step A2).
  • the layout analysis processing step of step A2 is an information existence position specifying step of extracting features unique to the form medium from the read image data and specifying the position where the information to be recognized exists based on these features. There is one that extracts the layout features of the read image, analyzes the layout configuration, and logically expresses the layout based on the extracted features.
  • this layout analysis processing step A2 includes a step of extracting the layout items and item data, and then extracting the logical origin of the layout, and also extracting the layout of the read image.
  • the conversion processing of the read image data is processing for rotating the layout, and this processing will be described in detail later in (a3) Image data rotation correction processing.
  • the layout analysis processing step A2 includes a step of extracting line items from the image data, and parsing a table structure composed of lines based on the line entries.
  • the layout analysis processing step A2 includes a step of extracting item data from the image data and a step of extracting item data from the image data. and analyzing the radio table structure based on the item data.
  • this layout analysis processing step A2 includes a step of determining a heading area in the image, recognizing heading item information in this heading area, and determining corresponding item data.
  • the layout matching processing unit 3 searches the layout DB 14 using the extracted layout constituent elements (recruitment line items and item data) as search conditions, but the form to be processed is new. Therefore, the corresponding layout does not exist in the layout DB 14, and the candidate layout information and layout correction information are not acquired (step A3).
  • the layout matching processing step of step A3 is an image recognition step of recognizing the image data at the position specified in step A2 and discriminating information at the specified position, and step A3 Using the features of the layout extracted in 2 as a constraint search condition, the candidate layouts stored in the layout DB 14 are searched to check whether there is a matching candidate layout. is. Further, this layout matching processing step A3 includes a step of discriminating information based on the logical origin extracted in step A2, and the layout of the layout extracted in step A2. a compression processing step of compressing features; a step of searching compressed candidate layouts from the layout DB 14 using the features of the layout compressed in this step as a constraint search condition; and verifying if there is a matching candidate layout.
  • Step A4 As a result of layout matching, candidate layout information and layout correction information are not acquired in step A3, so the layout recognition result 20 is in a state of no correction information.
  • a temporary definition body 21 is created based on the layout information of the layout recognition result 20 created in step A4 ( Step A14)c of FIG. 4 Subsequently, in the character recognition processing unit 6, character recognition processing is performed on the item data for character recognition using the time definition body 21 created in step A14. is performed, and the code data of the recognition result is obtained (step A15 in FIG. 4).
  • the recognition result code data acquired in step A15 is corrected with reference to the knowledge DB15 in which the correction information of the recognition result is recorded, and the character recognition result 22 is created. (Step A16 of FIG. 4).
  • the layout recognition result 20 created in step A4 is referred to, and the contents of heading items, their positions, and corresponding items
  • the data position (layout analysis information 26 shown in FIG. 4) is Along with being output to the display, the read image data (screen display image 27 shown in FIG. 4) is output to the display of the client 10 (step A5).
  • the character recognition result 22 corresponding to the recognition item of the character recognition target image (this character recognition result 22 is the step A 16) is output to the display of the client 10.
  • the operator confirms and corrects the layout recognition result 20 and character recognition result 22 displayed on the display of the client 10 (step A6).
  • layout correction information (layout log information) is created from the result of layout confirmation and correction operation by the operator (step A7).
  • the layout log information created in step A7 includes layout correction information [layout DB learning information 25 (layout information for learning 28) and analysis dictionary learning information 24 (layout information for registration 2 9)] is reflected in the layout DB 14 and the analysis dictionary 13 as a layout learning process (step A8).
  • step A8 the candidate layout information is updated to the layout DB1 by learning.
  • the processing when the layout of the form to be processed is the reappearing layout will be explained based on FIG.
  • the pre-analysis processing section 1 of the layout recognition processing block 16 performs pre-analysis processing of the image data 19 of the form to be processed (step A1). Subsequently, in the layout analysis processing unit 2, the layout is analyzed in the same manner as in step A2 described above, and the analysis result of the layout is output (step A9).
  • the layout matching processing unit 3 searches the layout DB 14 using the extracted layout constituent elements (firewood line items and item data) as search conditions, thereby obtaining detailed information and information on matching layouts.
  • the layout correction information is obtained (step A10).
  • the corresponding candidate layout information is notified, and the layout detailed information is sent to the notified candidate layout. are compared to determine the consistency of the layout.
  • the layout editing processing unit 4 When it is determined that the layouts match, the layout editing processing unit 4 performs the processing from step A11 to step A13 as the existing layout. Further, when it is determined that they do not match as a result of collation, the layout editing processing unit 4 performs the processing from step A4 to step A8 as a new layout.
  • a layout recognition result 20 is created (step A11).
  • the layout recognition result 20 created in step A11 is referred to, and the heading item contents and their positions correspond to each other.
  • the item data position (layout analysis information 26 shown in FIG. 4) is client 10
  • the read image data is output to the display of
  • the character recognition result 22 corresponding to the recognition item of the character recognition target image (this character recognition result 22 is the step A 16) is output to the display of the client 10.
  • the operator confirms the layout recognition result 20 displayed on the display of the client 10 and confirms and corrects the character recognition result 22 (step A13).
  • the process for the image to be analyzed is completed when the operation for confirming the layout in step A13 is completed.
  • Layout log information is not created in the processing unit 11.
  • an image data reader for example, FAX 31, image scanner 32, DATA-E YE 33 shown in FIG. 6, and 'FIG. 6, FIG. 7
  • the image data of the form is read by the image reader 34) shown.
  • the image data read by the image scanner 32 , DATA-EYE 33 and image reader 34 are sent to the client 35 .
  • the image data from the FAX 31 is sent to the client 3 via the exchange line (IS DNZ public network) 36 and the FAX adapter 37.
  • the image data from 5 is sent to the server 39 of the district center via the exchange line (ISDNZ public network) 36 and the communication adapter 38.
  • the server 39 is sent from each branch office. It automatically and batch-wise analyzes the image data of the forms, and stores privately-made form recognition software component 40, knowledge database (knowledge DB) 15, and layout database (layout DB). ) 14 and a centralized character recognizer 6.
  • the server 39 has functions corresponding to the layout recognition processing block 16 and character recognition processing block 17 shown in FIG. Corresponding processing is performed by installing slip recognition software component 40 in a hard disk (not shown) or other memory.
  • a client (CL) 10 is installed to confirm and correct the analysis processing result of the image data by the server 39 .
  • the client 10 has a function corresponding to the operator confirmation Z correction processing block 18 shown in FIG. Corresponding processing is performed by installing the software in a hard disk (not shown) or other memory.
  • the display of the client 10 displays the layout of the image data and the result of character recognition, and the operator can confirm and correct the analysis processing result of the image data by referring to this display. can.
  • This client 10 is connected to an image reader 34 and DATA-EYE 33 as an image data reader in order to process forms such as those brought to the district center.
  • the image data of the form read by the image data reader is sent to the server 39 .
  • the analysis result of the form analyzed by the server 39 is transmitted to the host (not shown), which is a host device, via the branch server (BS) 41.
  • the media processing device 30 by electronically and automatically analyzing various forms and form images that occur daily, conventional entry systems ( (OCR entry system, data entry system, etc.) can dramatically improve the efficiency of entry operations.
  • OCR entry system OCR entry system, data entry system, etc.
  • an entry system not only for the dedicated forms of the conventional entry system, but also for existing various arbitrary forms as they are. of.
  • the privately-made comprehensive transfer general transfer form created by the end-user
  • character recognition processing and entry processing can be performed as it is.
  • FIG. 14 is a process explanatory diagram showing application of origin extraction and collation processing in the media processing device according to one embodiment of the present invention.
  • images read using an optical reading device may be separated from individual layout elements (e.g., ascending items, items, etc.), even if the layout is the same, due to misalignment during reading.
  • layout elements e.g., ascending items, items, etc.
  • the coordinates from the physical origin of the image of the data will not be the same.
  • the relative coordinates from the logical origin are obtained for the layout components, and the relative coordinates should be used to match.
  • This logical origin must be stably extracted even when the image fluctuates due to dust or blur during image reading. must be selected as
  • a plurality of extraction methods are used together to extract the logical origin, so that a stable logical origin can always be extracted even when a form having an arbitrary layout is processed. be.
  • a logical origin extraction step M1 for extracting the logical origin of the media As shown in FIG. a logical origin extraction step M1 for extracting the logical origin of the media; An information existence position characteristic that identifies the position where information to be recognized exists. It has constant steps.
  • the layout matching processing step A3 (and A10) in the layout matching processing unit 3 includes the logical origin extraction step Ml By performing layout matching processing based on the logical origin extracted by
  • Step M2 it has an image recognition step to discriminate information in the extracted features.
  • logical origin extraction step Ml of the layout analysis processing unit 2 in addition to extracting the logical origin of the format, logical origin auxiliary coordinates are added to give auxiliary information to the logical origin.
  • Information is extracted, and in the image recognition step of the layout matching processing unit 3, layout matching processing is performed based on the logical origin and logical origin auxiliary coordinate information (step M2). , to discriminate information in the extracted features.
  • the logical origin of the format is the Coordinate information (coordinate D shown in FIG. 17) of the corner having the minimum X coordinate and minimum Y coordinate is extracted, and the logical origin is complemented.
  • Coordinate information coordinate information of corners with maximum X and minimum Y coordinates, corners with minimum X and maximum Y coordinates, and corners with maximum X and maximum Y coordinates in the bounding rectangle (FIG.
  • the coordinates D a , D b , D c ) shown in 17 are extracted.
  • This logical origin extraction processing is specifically performed in the table structure analysis section 2E of the layout analysis section 2B shown in FIG.
  • the table structure analysis unit 2E extracts the fold line items extracted by the fold line extraction unit 2C of the layout feature extraction unit 2A and the item data extraction unit 2D of the layout feature extraction unit 2A. Based on the generated item data, the bounding rectangle of the firewood line item, the maximum bounding rectangle of the table structure formed from five line items, and the bounding rectangle of the item data are analyzed, and the coordinates of the corners are extracted from these rectangles. Then, predetermined coordinates are set as the logical origin coordinates and correction coordinates.
  • the curved line extraction unit 2C of the layout feature extraction unit 2A extracts curved lines from the image data to be extracted as preprocessing for the logical origin extraction processing. (step B1), then the minimum rectangle formed by the extracted lines is extracted as a line item (step B2).
  • step B3 it is determined whether or not the line item is extracted (step B3), and if the line item is extracted, the extracted exposure is determined. If line items are located adjacent to each other or close to each other with the same width or height, these line items are regarded as a line item group that has a logical relationship and are grouped (step B4). .
  • table A structure refers to an area composed of a group of 2-row by 2-column or more line items
  • the table structure analysis unit 2E extracts the maximum rectangular area in the table structure as indicated by the shaded area I in FIG. The coordinates of the four corners are obtained (step B6).
  • the upper left coordinate A (Xo, Yo) of the rectangle is set as the logical origin, and the remaining three points, the upper right coordinate Aa, the lower left coordinate Ab, and the lower right coordinate Ac, are set as the corrected coordinates of the logical origin (step B7, B8).
  • the table structure analysis unit 2E extracts each table structure (shaded area I), the coordinates of the four corners of each rectangular area are obtained (Step B 6)
  • the coordinate B (minimum X coordinate, minimum Y coordinate) [that is, (Xo, Yo)] is the logical origin
  • the coordinate B a maximum X coordinate , minimum Y coordinate
  • coordinate Bb minimum X coordinate, maximum Y coordinate
  • coordinate Be maximum X coordinate, maximum Y coordinate
  • the table structure analysis unit 2E analyzes the outermost line item's shown as shaded area I in FIG. Rectangular areas are extracted and the coordinates of the four corners of each rectangular area are obtained (step B12).
  • the coordinate C [(minimum X coordinate, minimum Y coordinate), that is, (Xo, Yo)] when the logical origin of each rectangle is projected in the horizontal and vertical directions is the logical origin
  • the coordinate C a maximum X coordinate, minimum Y coordinate
  • coordinate Cb minimum X coordinate, maximum Y coordinate
  • coordinate Cc maximum X coordinate, maximum Y coordinate
  • the item data in the layout is extracted in the item data extraction unit 2D of the layout feature extraction unit 2A, and the item data in the layout is extracted in the table structure analysis unit 2E. 17, the outermost rectangular regions of the item data are extracted, and the coordinates of the four corners of each rectangular region are obtained (step B9).
  • the coordinate D [(minimum X coordinate, minimum Y coordinate), that is, (Xo, Yo)] when the logical origin of each rectangle is projected in the horizontal and vertical directions is the logical origin
  • the coordinate D a maximum X coordinate, minimum Y coordinate
  • coordinate D b minimum X coordinate, maximum Y coordinate
  • coordinate D c maximum X coordinate, maximum Y coordinate
  • logical origin extraction method which is information indicating whether the logical origin was extracted from a table structure, a line item, or item data, is also obtained.
  • each logical origin indicating this logical origin extraction method may be referred to as a table logical origin, a line item logical origin, and an item data logical origin.
  • the method, the logical origin coordinates and the logical origin correction coordinates are sent to the layout matching processing unit 3 as the logical origin information.
  • This logical origin collation processing is performed in the layout collation processing section 3 shown in FIG. 1, as described above.
  • the coordinates of the layout elements in each layout are converted to relative coordinates from the logical origin, and these relative coordinates are matched to obtain The logical origins extracted from the points are compared with each other.
  • the logical origin may not match even if the layout is the same due to fluctuation factors such as image blurring and dirt during reading.
  • the other logical origin is dynamically re-extracted, and then it is determined whether the logical origins match.
  • step C l, C 2 there are a plurality of methods for extracting the logical origin in the layout analysis processing unit 2. Therefore, prior to collation of the logical origin, it is necessary to determine whether the methods for extracting the logical origin match. is performed (step C l, C 2)
  • the corrected logical origin coordinates of layout L1 and layout L2 are compared to determine if the corrected logical origin coordinates match. is done (steps C3-C5) o
  • the logical origin coordinates E (minimum X coordinate, minimum Y coordinate) of layout L1 and the logical origin coordinate F (minimum X coordinate, minimum Y coordinate) of layout L2 are used.
  • the relative coordinates (Ea' to Ec' and Fa' to Fc') of the corrected coordinates Ea to Ec of the layout L1 and the corrected coordinates Fa to Fc of the layout L2 are obtained.
  • the coincidence judgment of the correction coordinates is performed by the coincidence judgment of these relative coordinates.
  • step C6 matching of the corrected coordinates with the logical origin coordinate information taken into consideration is performed to determine the matching of the logical origins, and the layout is collated (step C6).
  • the logical origin information of layout L1 (logical origin extraction method, logical origin Coordinate G, corrected coordinate G a to G c) is used to extract a new logical origin coordinate H' and corrected coordinates H'a, Hb, and He in layout 2, as shown in FIG. 20(b) (step C7 , C8).
  • the difference Ya and the difference Y'a do not match, and the difference Yb and the difference Y'b do not match. From each coordinate of the layout L 2 , a difference that matches is searched.
  • the logical origin and correction coordinates are searched for from layout L2 according to the logical origin extraction method for layout L1 (see steps C7 and C8).
  • the logical origin and the correction coordinates are searched from the layout L1 in the same manner as described above according to the logical origin extraction method of the layout L2 (step C9 , C10) . If matching coordinates cannot be detected even in this way, layout collation is not performed (step C11).
  • the layout of the form to be processed is analyzed based on the line items and item data extracted from the image data,
  • the image data of general forms other than dedicated forms on which fiducial marks and the like are printed can be used.
  • Logical origin coordinates and correction coordinates can be extracted.
  • the layout can be reliably collated even if a positional deviation occurs during image reading. like this
  • the logical origin cannot be correctly extracted due to dust, blur, etc., it can be reliably extracted by re-extracting the logical origin using corrected coordinates according to the logical origin extraction method of other layouts. It becomes possible to set another point that can be obtained as the logical origin.
  • the point at the top left corner of the layout is set as the logical origin, but it is not limited to this, and the points at the top right corner, the bottom left corner, and the bottom right corner may be set as the logical origin.
  • the reading direction of the form to be processed is If the direction is not correct, the character description direction of the image data (image) will not be correct, so character recognition processing cannot be performed.
  • the direction of the read image is determined, for example, during the above-described origin extraction process, and if the direction of the image is incorrect, the direction is correct.
  • image rotation correction processing so that the image is oriented correctly, even if the reading direction of the form to be processed is incorrect, the image layout analysis processing and character recognition processing, which will be described later, can be performed. It's summer.
  • the rotation correction processing of the image data is performed in the layout analysis processing section 2 shown in FIG. 1 and FIG.
  • the rotation correction process there are a step of determining whether the layout of the read image is in a predetermined direction, and based on the determination result in this step, the image is read so that the layout is in the predetermined direction. and rotating the layout of the image data.
  • FIG. 8 and FIG. 9 show functional block diagrams focusing on image data rotation correction processing in the media processing device 30 according to the present embodiment.
  • FIG. 8 is a functional block diagram for processing a form with a line item
  • FIG. 9 is a functional block diagram for processing a form without a line item.
  • the media processing device 30 When processing a form with exposure items, the media processing device 30 includes an image input unit 301, an image data storage memory 302, a rotated image data storage memory 302, as shown in FIG. 3 0 3, ascending line item extraction unit (ascending line extraction unit) 2 C, exposure line item information storage unit 3 0 4, line item analysis unit (table structure analysis unit) 2 E, vertical Z horizontal judgment setting unit 3 05, horizontal line item storage unit 306, image 90 degree rotation unit 307, image 180 degree rotation unit 308, and character string recognition unit (character recognition processing block) 17 function.
  • the image input unit 301 is for reading image data such as a form
  • the imager storage memory 302 is a memory for temporarily storing the read image data.
  • the rotated image data storage memory 303 is a memory for storing the image data subjected to rotation correction processing, and the image data stored in this rotated image data storage memory 303 is used. , the subsequent layout recognition processing, character recognition processing, etc. are performed.
  • the recruiting line item extraction unit (reed line extraction unit) 2C searches the read image data and automatically extracts the line item, which is the minimum rectangle formed from the line.
  • the line item information storage unit 304 is a memory for storing the line item information extracted by the line item extraction unit 2C.
  • the line item analysis unit (table structure analysis unit) 2E analyzes whether the shape of the line item stored in the line item information storage unit 304 is vertical or horizontal. , to determine whether the reading direction of the image data is vertical reading or horizontal reading.
  • the horizontal line items are often horizontally long, and the condition that the number of horizontally long line items is larger than the vertically long line item is set as a judgment condition in the vertical Z horizontal judgment setting unit 305, and the setting The reading direction of the image data is determined based on the determined determination conditions.
  • the horizontally long line item storage unit 306 stores the line item determined to be horizontally long by the line item analysis unit 2E.
  • the image 90-degree rotation unit 307 rotates the image data by 90 degrees when the ascending line item analysis unit 2E determines that the exposure line item is vertically long. It performs rotation correction.
  • the character string recognition unit 17 recognizes characters in the exposure line item.
  • the 180-degree image rotation unit 308 rotates the image data by 180 degrees to correct the rotation of the image data when the character string recognition unit 17 cannot recognize the character. be.
  • the rotation-corrected image data is stored in the image data storage memory 302 and the rotated image data storage memory 303, and in the same manner as described above, the line item extraction unit 2C and the line item analysis Processing in part 2E and character string recognition part 17 is performed.
  • the media processing device 30 has an image input unit 301, an image data storage memory 302, a rotating image Data storage memory 303, labeling section 309, labeling information storage section 310, character area integration section 311, character area integration rule section 312, integration result storage section 313, character string Vertical Z horizontal determination unit 3 1 4, image 90 degree rotation unit 3 0 7, image 1 80 degree rotation unit 3
  • character string recognition unit character recognition processing block 1 7 function.
  • the image input unit 301, image data storage memory 302 and rotated image data storage memory 303 have the same functions and configurations as those described above.
  • the labeling section 309 performs labeling processing for extracting continuous dot information from the pixel information, and the labeling information storage section 310 stores information extracted by the labeling section 309. It is a memory that stores continuous dot information.
  • the character area integration section 311 generates continuous dots based on the dot information extracted by the labeling section 309 based on the integration rule set by the character area integration rule section 312.
  • Item data is extracted by integrating characters as character strings, and the integration result storage section 313 stores the item data extracted by the character area integration section 311.
  • the item data extraction unit 2D is composed of the labeling unit 309, the labeling information storage unit 310, the character area integration unit 311, the character area integration rule unit 312, and the integration result storage unit 313. It is done.
  • the character string vertical/horizontal judging section 314 determines the reading direction of the image data by analyzing whether the shape of the item data extracted by the character area integrating section 311 is vertical or horizontal. It determines whether the text is read vertically or horizontally.
  • the image 90-degree rotation unit 307 rotates the image data by 90 degrees to resize the image data when the character string vertical/horizontal determination unit 314 determines that the item data is vertically long. Rotational correction of data is performed.
  • the character string recognition unit 17 recognizes characters in the item data, and the image 180 degree rotation unit 308, if the character string recognition unit 17 cannot recognize characters, Image data is rotated by 180 degrees to perform rotational correction of the image data.
  • the rotation-corrected image data is stored in the image data storage memory 302 and the rotated image data storage memory 303, and is stored in the labeling section 309 and the character area integrating section 31 in the same manner as described above. 1, the processing in the character string vertical/horizontal judging unit 314 and the character string recognizing unit 17 is performed.
  • the media processing device 30 when image data is input from the image input unit 301, a reed item or item data is extracted from the image data. be.
  • the line item is extracted by the line item extraction unit 2C, and the shape of the line item extracted by the line item analysis unit 2E is vertically long or horizontally long. Which is analyzed.
  • the 90-degree rotation section 307 corrects the image data by 90-degree rotation.
  • character recognition of the line item is performed by the character string recognition unit 17, and when character recognition is not possible, image 180
  • image data is rotated and corrected by 180 degrees by the degree rotation section 308 .
  • item data is extracted by the character area integrating section 311, and the shape of the item data extracted by the character area integrating section 311 is either vertical or horizontal. is parsed for presence.
  • the shape of the item data is analyzed to be vertically long, the image data is rotated 90 degrees by the image 90 degree rotation unit 307, and the shape of the item data is corrected. If it is analyzed to be horizontally long, the character string recognition unit 17 performs character recognition of the line item. 1 8
  • FIG. 12 The image data rotation correction processing in the media processing device 30 at this time will be further explained using the flow charts shown in FIGS. 12 and 13.
  • FIG. 12 The image data rotation correction processing in the media processing device 30 at this time will be further explained using the flow charts shown in FIGS. 12 and 13.
  • image data such as forms and documents to be subjected to image recognition processing are read (step G1). Paper such as forms and documents may be read from any direction.
  • the read image data is temporarily stored in the image data storage memory 302 (step G2). .
  • the same image data is also stored in the first rotation image data storage memory 303 (step G3).
  • the line item extraction unit 2C extracts the line items (eg For example, FIG. 10 shows a line item M) is extracted (step G4).
  • the line item information is stored in the line item information storage unit 304 (steps G5, G6).
  • the line item analysis unit 2E analyzes the shape of the line item based on the line item information stored in the line item information storage unit 304, and determines whether the line item is vertically long or horizontally long. Whether or not is determined and classified (steps G7, G8), and the horizontally long line item information is stored in the horizontally long line item storage unit 306 (step G9).
  • twist-line item analysis unit 2E based on the determination condition set by the vertical/horizontal determination setting unit 305, by determining whether or not there are more horizontally long twist-line items than vertically long twist-line items, , correctness or wrongness of the reading direction of the image data is determined (step G10).
  • step G10 when it is determined that there are more horizontal line items in the line item analysis unit 2E, character recognition is performed in the character string recognition unit 17 (step G10 from the YES route to step G10). G11).
  • step G12 If character recognition is possible in the character string recognition unit 17, it is determined that the reading direction of the image data is normal (YES route of step G12). Also, if character recognition is not possible in the character string recognition unit 17, there is a possibility that the image is rotated 180 degrees (upside down of the image is reversed).
  • the rotating unit 308 moves the image data in the rotated image data storage memory 303 to the image data storage memory 302, and then rotates it by 180 degrees (step G14).
  • the image data after being rotated by 0 degrees is stored in the rotated image data storage memory 303, and the same processing as described above is performed (steps G4 to G12).
  • step G13 the image stored in the image data storage memory 302 by the image 90 degree rotation unit 308
  • the data is rotated by 90 degrees (step G13)
  • the rotated image data is stored in the rotated image data storage memory 303, and the same processing as described above is performed (step G4).
  • step G12 the same processing as described above is performed.
  • the image data after the 90-degree rotation correction processing if the character string recognition unit 17 cannot recognize characters, the image may be rotated 180 degrees. After the image data in the rotated image data storage memory 303 is once moved to the image data storage memory 302 by the image 180 degree rotation unit 308, it is corrected by 180 degree rotation (Step G1 4) The image data after being rotated 180 degrees is stored in the rotated image data storage memory 303, and the same processing as described above is performed (steps G4 to G12). .
  • a form 321 without line items as shown in FIG. 11 is read. is processed as follows.
  • labeling section 309 extracts labeling information (for example, labeling information N is illustrated in FIG. 11) from the image data stored in rotated image data storage memory 303. (Step G15 of FIG. 13 from the NO route of step G5), the extracted labeling information is stored in the labeling information storage unit 310 (step G16)
  • the labeling stored in the labeling information storage section 310 Item data (for example, in FIG. 11, seven pieces of labeling information "exit”, “expense”, “trip”, “expense”, The result of character area integration (“business trip travel expense statement”; 0) is shown as item data) is extracted (step G17 ), the integration result is stored in the integration result storage unit 313 (step G18).
  • the character height and width determination unit 314 determines whether or not the horizontal item data is larger than the vertical item data, thereby determining whether the reading direction of the image data is correct or not (step G19).
  • character recognition is performed by the character string recognition unit 17 (step G20) o
  • step G21 If character recognition is possible in the character string recognition unit 17, it is determined that the reading direction of the image data is normal (step G21).
  • step G23 After the image data in the memory 303 is temporarily moved to the image data storage memory 302, it is corrected by 180 degrees rotation (step G23), and the image data after being rotated by 180 degrees is the rotated image data. It is stored in the single data storage memory 303, and the same processing as described above is performed (steps G15 to G21).
  • the character height and width determination unit 314 determines that there are more vertically long item data
  • the image stored in the image data storage memory 302 by the image 90 degree rotation unit 308 The data is rotated by 90 degrees (step G22), the rotated image data is stored in the rotated image data storage memory 303, and the same processing as described above is performed. (Step G15 to Step G21).
  • the image may be rotated 180 degrees.
  • the image data in the rotated image data storage memory 303 is once moved to the image data storage memory 302 by the image 180-degree rotation unit 308, and then corrected by 180-degree rotation (step G2). 3)
  • the image data rotated 180 degrees is stored in the rotated image data storage memory 303, and the same processing as described above is performed (steps G15 to G21). ).
  • the line item or item data is extracted from the read image data, and the shape of the extracted line item or item data is Judging whether it is horizontally long or vertically long, and if the shape of the line item or item data is vertically long, correct the image data by rotating it 90 degrees and correct the shape of the line item or item data. If characters cannot be recognized even if the image is landscape, correcting the image data by rotating it 180 degrees automatically corrects the reading direction of the image data no matter what direction the image data is read. If the reading direction of the image data is incorrect, the rotation of the image data is automatically corrected, eliminating the need for confirmation and rotation correction by the operator. It has the advantage of being able to efficiently perform
  • a form processing device when the layout of a form to be processed is collated with the layout stored in a layout DB or the like, individual layout elements (line items, items, etc.) are checked. data, etc.) to compare the coordinates and size, etc., the number of layout elements (N) increases. As a result, the number of times of collation becomes extremely large, and the collation processing of the layout of a large number of forms cannot be performed at high speed.
  • the layout of the bright line item which is one of the components of the layer k , is compressed and expressed as a matrix table, and the layout is collated.
  • the matrix tables By sometimes collating the matrix tables with each other, it is now possible to collate the layout of a large number of forms at high speed.
  • the media processing device 30 compresses the layout of the line item extracted by the layout matching processing unit 3 and the layout analysis processing unit 2, and expresses it as a matrix table. Then, using this matrix table as a constraint search condition, the reference matrix stored in the layout DB 14 is searched to check whether there is a matching matrix table. and the character recognition processing block 1 ⁇ determines the information in the image at the specified position based on the matching result.
  • FIG. 22 shows a process explanatory diagram focusing on the matrix matching process in the media processing device 30 according to the present embodiment.
  • the layout analysis processing unit 2 reads the input data. Rectangular line segments are extracted by analyzing the obtained image data, and rectangles composed of straight line segments are extracted as line items.
  • the gradient of the image is calculated from the line segments, etc., and the coordinate position of each extracted line item is corrected for skew, and the logical origin and corrected coordinates of the layout are extracted. , the coordinate position of the corrected line item, the logical origin, and the corrected coordinates are set in the layout information (step F 1) o
  • bit table corresponding to 10 DPI (Dot Per Inch) corresponding to the input image data is created, and the upper left coordinate and the maximum of each line item in the layout information are created.
  • the lower right coordinate of the lower ⁇ line entry is plotted to the corresponding position on the bit table.
  • the created bit table is compressed based on the presence or absence of data in the row, and compressed in the row direction based on the regularity of the row structure to create a matrix table. (step F2).
  • the matrix table compressed in this way is stored in the layout DB 14 together with other layout information (step F3).
  • step F1 corresponds to step A2 shown in FIG. 2
  • steps F2 and F3 correspond to step A3 shown in FIG.
  • the layout analysis processing unit 2 performs the above step F1 on the input image data. Then, the coordinate position of the line item, the logical origin and the corrected coordinates are set in the layout information (step F4).
  • step F5 the input image data is subjected to the same processing as in step F2 described above, and a matrix staple is created (step F5).
  • the matrix table to be collated is read from the layout DB 14, and the read matrix table to be collated and the matrix table created in step F5 are combined. Matching with bulls is performed by line-by-line matching of bit positions relative to the logical origin of each layout. Also, from the matching result of the bit positions in the matrix table, the matching bit number for the total matching bit number is calculated, and the matching result of 200 is output as the matching rate of the matrix table (step F6). .
  • step F4 above corresponds to step A9 shown in FIG. 2
  • step F5 and step F6 above correspond to step A10 shown in FIG.
  • FIG. 23 the matrix table creation processing in steps F2 and F5 described above will be explained using FIG. 23.
  • lines are extracted from the image for which the matrix table is to be created, and line items (minimum rectangular areas composed of lines) are extracted from the extracted lines.
  • line items minimum rectangular areas composed of lines
  • skew correction is performed for each coordinate in the extracted line item based on the skew information of the layout (step F21).
  • the distortion rate of the S-line is obtained by examining the linearity of the ⁇ -line on the layout, and the distortion correction of each coordinate in the ⁇ -line item skew-corrected in step F21 is performed (step F twenty two ) .
  • the upper left X-coordinate values are all The values are set to be the same, and the X coordinate is normalized (step F24).
  • the read image data is Then, skew correction and distortion correction processing are performed (see steps F21 and F22), and the horizontal lines that make up the fresh line item are referred to, so that the upper half line of the thin line item is aligned with the same exposure line.
  • the shared line items are subjected to the same Y-coordinate processing (see step F23), and the vertical lines that make up the line item are referred to, and the left side line of the line item is the same line.
  • the upper left coordinate of the line item is adjusted to match the specified resolution of the bit table.
  • coordinate conversion bit string conversion
  • bits are set at the corresponding positions in the table.
  • the Y-coordinate interval of the converted short line item is set in line management information J (step F25).
  • bit table converted in step F25 is sequentially compared from the first row, and rows having the same bit configuration are grouped into one row in the row direction.
  • compressed row bit information ⁇ is created, and a compressed flag Q is set as row compression information in row management information J (step F26).
  • the matrix table information S composed of the created compressed row bit information K and row management information J is set as a matrix table (step F27).
  • the layout of the line item when compressing the layout of the line item, the layout of the line item is converted into a bit string corresponding to the layout of the line item, and this bit string is compressed.
  • this bit table By setting this bit table as a matrix table, the number of matching times during layout matching does not depend on the number of layout elements (N), but the number of layouts to be matched. It is only linearly proportional, and it is possible to perform high-speed matching processing of the layout of a large number of forms.
  • FIG. 29 the matrix table collation processing in step F6 described above will be explained using the flow charts shown in FIGS. 29 and 30.
  • FIG. 29 the matrix table collation processing in step F6 described above will be explained using the flow charts shown in FIGS. 29 and 30.
  • matching source matrix information such as that shown in FIG. Information (K1) is set in the reference work area (step D1).
  • the matching matrix information as shown in FIG. 31(b) is acquired from the layout DB 14, and the compressed row bit information (K'1) of this matching matrix information is used for matching.
  • the destination work area is set (step D2).
  • the compressed row bit information (K1) and (K'1) are compared and collated in order from the leading bit, and collation for one row is performed (step D 3).
  • step D10 if the compressed row bit information (K1) and (K'1) do not match, mismatch is set as the matching result 200 (see FIG. 22) (step D4, In step D10), since the compressed row bit information (K1) and (K'1) match here, the collation source compressed row bit information is matched based on the row management information J. It is set in the original work area (step D4, step D5).
  • step D5 by referring to the line management information J (step E1), if the corresponding line of the line management information J has the compressed flag Q set, it is determined to be a compressed line. , the compressed row bit information K of the immediately preceding matching row is set in the matching source work area (step E 2, step E 4), and row If the corresponding row in management information J does not have the compressed flag Q set, it is determined to be an uncompressed row and the compressed row bit information K of the corresponding row is newly set in the collation source work area. is performed (step E2, step E3).
  • the matching destination compressed row bit information K' is also set in the matching destination work area based on the row management information: ⁇ (step D6).
  • step D6 by referring to the line management information J' (step ⁇ 1), the compressed flag Q' is set in the corresponding line of the line management information J'. If it is set, it is determined to be a compressed line, and the compressed line bit information K' of the immediately preceding matching line is set in the matching source work area (step E2, step E4), and line management is performed. If the corresponding row of information J ' does not have the compressed flag Q ' set, it is determined to be an uncompressed row and the compressed row bit information K ' of the corresponding row is newly set in the collation source work area. is performed (step E2, step E3).
  • step D7 to step D9 As a result of comparing the compressed row bit information K and K' for all rows in this way, if all rows match within a certain range, match is set as the collation result 200. (step D7 to step D9).
  • mismatch is set as the matching result 200 (step D7, step D8 , step D10).
  • the layout of the line item which is one of the constituent elements of the layout
  • the layout matching processing speed does not depend on the number of exposure line items, and is linear with the number of layouts to be matched. It is only directly proportional, and it is possible to perform high-speed matching processing of the layout of a large number of forms. At this time, it is possible to stably express the layout by expressing the layout to be collated by the line items that make up the layout.
  • skew correction and distortion correction processing are applied to the read image data, and the same Y coordinate is applied to each line item.
  • a character recognition device recognizes general characters, so it is necessary to use a dictionary created according to the recognition target in consideration of the recognition rate. Arbitrary shapes cannot be recognized.
  • the recognition target is assumed to be characters, there are restrictions on the recognition target area and restrictions on setting the recognition definition body, etc., and it is not possible to set an arbitrary area as the recognition target.
  • an area image (layout) including unrecognizable characters, figures, etc. in character recognition processing is recorded as feature data, and this area image (layout) is recorded as feature data.
  • Code data corresponding to the feature data is recorded as attribute information of the layout, the feature data of the layout is collated at the time of layout collation processing, and if there is matching feature data, a code corresponding to this feature data.
  • FIG. 32 shows a processing explanatory diagram focusing on the feature data recognition processing in the media processing device 30 according to one embodiment of the present invention.
  • the feature data recognition process includes a registration step (step H1 , step A6, step H2), and a collation step (step H3) for collating whether or not there is a match with the feature data registered in the separately read image.
  • step H1 the features of the layout of the read image are extracted, the layout configuration is analyzed (step H1), and the analyzed layout configuration is displayed on the display 403 (
  • step A6 a predetermined feature data recognition region T (shaded area in FIG. 33) is set for this displayed layout configuration, and the Enter the code data U (underlined "Fujitsu” in FIG. 33) corresponding to the mark information ("Fujitsu Ltd.” in FIG. 33) through the external input device 404, Further, area feature data is created from the above feature data recognition area T and code data U, and this area feature data is linked with the layout configuration analyzed above and registered. It performs the learning process (step H2).
  • the medium processing device 30 when registering the area feature data, normalization processing is performed on the feature data recognition area T, so that the area feature data can be reliably compared in the matching step described later. It's getting better.
  • the media processing device 30 When inputting the code data u, by inputting the code data having the meaning corresponding to the mark information, the media processing device 30 recognizes the feature data recognition region T, and recognizes the corresponding code data. The recognition result can be displayed on the screen.
  • the matching step after the registration step described above, the features of the separately read image are extracted to analyze the layout configuration, and then the area feature data registered in the registration step and the layout configuration are compared. is used as reference data to search layout DB 1-4 and check whether there is a match.
  • the medium processing device 30 when the medium processing device 30 according to the embodiment of the present invention performs the feature data recognition process, the feature data is registered in the layout DB 14 by the learning process and read separately. The registered image is collated to see if there is any matching feature data, and if there is matching feature data, the code decoding corresponding to this feature data is obtained, and the recognition result is displayed on the display 403. to be displayed.
  • the operation of the media processing device 30 at this time will be further described with reference to FIGS.
  • the layout analysis processing unit 2 analyzes the layout of the target form and creates layout information. (Step H1).
  • the form image and the analyzed layout information are displayed on the display 403, and as shown in FIG. A data recognition area T ("Fujitsu") is set, and the corresponding code data U ["fujitsu”] is input from the external input device 404 (step H6) o
  • region feature data is created from the region T designated by the operator and the input code data U, and the layout information obtained in the layout recognition processing block 16 is used. Together with this, it is learned and registered in the layout DB 14 as layout correction information (step H2).
  • the operation of the registration step is performed by the operator confirmation/correction processing block 18 and layout log information creation processing unit 11 described above.
  • the layout analysis processing unit 2 rereads the same form image 19 as the one processed above, and the target form The layout is analyzed and layout information is created.
  • the layout matching processing unit 3 searches the layout DB 14 using the analyzed layout information as a search condition, thereby obtaining the layout correction information of the relevant form learned and registered in step H2. Acquired.
  • the area feature data in the obtained layout correction information is collated to see if there is any that corresponds to the image of the form under analysis. If there is something that satisfies the matching condition, the code data U corresponding to this area feature data is set as the layout recognition result 20 (step H3).
  • the read form image and layout recognition result 20 are displayed on display 403, and normal character recognition result 2 is displayed as shown in FIG.
  • the feature data recognition region T and the corresponding code data U is displayed on the display 403 (step A13).
  • the area image feature extraction mechanism and the feature matching mechanism similar to those of the sentence recognition device are expanded to provide a layout recognition system and a layout recognition system.
  • the feature data recognition region T specified by the operator in the registration step and the corresponding code data U are dynamically learned and registered in the layout DB 14 together with the layout analysis result.
  • the area feature data is acquired from the layout DB 14 together with the layout information in the matching step, and the corresponding area of the form image to be recognized is identified. Collation is performed, and as a result of the collation, the corresponding code data U is obtained, set as the recognition result, and output. It is possible to do it by
  • the area feature data to be matched is recorded in a linked manner with the layout information, it is possible to limit the matching target for each layout. It eliminates the need for a large amount of collation processing as in , and achieves a high recognition rate. Furthermore, since it is possible to set a plurality of data in the recognition target area with a link relationship in the same form, it is possible to register the position information of the recognition target area in the layout and the data structure in correspondence. It should be noted that the feature data recognition process as described above can be applied to kana recognition process for kanji items as well as to recognition process of the client and recipient of a general exchange transfer form.
  • the area of the item written in kanji is designated as the feature area
  • the corresponding code data is entered in kana
  • the feature is recognized together with the layout information of the form. Data and code data are learned and registered.
  • kana code data can be obtained as the recognition result of the feature area of the kanji item.
  • the items of the name of the requester and the name of the recipient do not have an arbitrary combination, but have a relationship depending on the form (Fig. 35, Fig. 36). reference) .
  • an analysis target A headline analysis process is performed to search and collate the headline position from the line item configuration of the form image, and automatically analyze the headline and corresponding item information written on the form.
  • the media processing device 30 performs a layout analysis processing step A2 for logically representing the layout of the read image.
  • a layout collation processing step A3 for collating whether or not a layout matching the layout of the read image exists in the layout DB 14.
  • the layout analysis processing step A2 extracts line items of the layout of the read image, analyzes the configuration of the layout, and uses the extracted line items to determine the heading area in the image. recognizing the heading item information in the heading area, determining the corresponding item data, and logically representing the layout; 2 B is done.
  • This layout analysis processing step A2 (or A9) includes a heading position candidate determination step of determining a heading position candidate based on the layout configuration analysis result, o
  • the entry item matching process in this entry item matching step is such that the image data to be collated is normalized in this entry item matching step, as will be described later with reference to FIG. It is designed to be carried out after it has been applied.
  • the layout matching processing step A3 (or A10) searches for candidate layouts stored in the layout DB 14 using the layout boundary items extracted in the layout analysis processing step as constraint search conditions. By doing so, it is checked whether or not there is a matching candidate layout.
  • FIG. 37 shows a processing explanatory diagram focusing on the headline analysis processing in the layout analysis section 2B of the layout analysis processing section 2 of the media processing device 30 according to the present embodiment.
  • the layout analysis unit 2B performs a headline position candidate determination step K9 comprising a straight line item configuration analysis process (step K1) and an item headline position search process (step K1).
  • item headline matching processing step K3
  • multidimensional feature data extraction and matching processing step K4
  • headline matching result correction processing step K5
  • item data position search processing step K6
  • the analysis dictionary 13 stores a headline search rule 505, an item headline dictionary 507, a headline correction rule 508 and a data search rule 509.
  • the line item configuration analysis processing (step 1) refers to the line item information 502 and the table structure information (not shown) obtained by the layout analysis to determine the heading position search rule described later.
  • a line item formation information table (line item formation information TBL) 503 is created as rule key information evaluated by .
  • the configuration information shown in FIG. 38 is added to each fold line item.
  • the ascending line item information 502 will be explained using FIG. Yes, the group ID is It is an identification ID added to the same group when grouped, and the block ID is an ID for individual identification divided into units having the same line item configuration within the same group.
  • the table structure indicates whether or not there is a table structure for the line item identified by the group ID. This is done with the number of item columns.
  • the number of item rows indicates the row configuration of the line item table that exists in the table rectangle within the group
  • the number of item columns indicates the column configuration of the line item table that exists in the table rectangle within the group. It is.
  • line attributes are attribute information as layout elements for individual exposure line items, and correspondence to form layouts is shown in FIG.
  • the row information indicates the row number of the exposure line item in the exposure line item table
  • the column information indicates the column number of the line item in the line item table.
  • the hierarchical information indicates the hierarchical relationship of the line items that have a nested structure as the line item attribute, as shown in (d) of FIG. 39, for example. It indicates the position information of the line item within the group.
  • the line item configuration information TBL 503 is created by referring to the line item information 502 and the table structure information obtained by the layout analysis [FIG. 40 and FIG. 41(a) to FIG.41(d)]
  • step K2 performs each line item in the line item configuration information TBL 503 created in step K1 according to the heading position search rule [FIG. 42, FIG. 43(a) and FIG. 43(b)] to determine heading position candidates.
  • Heading position search rule 505 is specified from the upper order according to the form to be analyzed. It is shown below.
  • Line items other than the table structure include line items that are in the same group as the table structure part, including upper convex, lower convex, and footer lines, and line items that are in a different group from the table structure part and do not constitute a table. Heading position search rules for such line items are shown below. (a) If it consists of a single line item, there is an entry section within that line item (* coexistence of the data section).
  • a line item in a table structure exists in the largest rectangular part that contains a table rectangle of 2 rows x 2 columns or more in the same group, and a header part exists in the first row of the largest rectangular part, There is a body part in the continuation line part.
  • Heading position search rules for such recruiting line items are shown below. (f) Heading items with multiple data divisions exist in the header row of the table component.
  • step J1 When the layout analysis unit 2B performs the item heading position search processing in step K2, the headline position candidates to be the target of headline matching are determined, for example, based on the headline position search rule 505 as described above. , the processing at this time will be explained using the flow chart shown in FIG. First, line item information is extracted from the line item configuration information TBL 503 created in step 1 (step J1).
  • the headline position is evaluated based on the headline position search rule 505 (step J2), and the evaluation result is recorded in the exposure line item configuration information TBL 503 (step J3).
  • step J4 it is determined whether the headline position has been evaluated based on all the headline position search rules 505, and if there is a rule that is not used for the headline position evaluation, the headline position is evaluated based on that rule. (From step J4 to step J2, step J3).
  • Step J4 it is determined whether or not the headline position has been evaluated for all the S-line item information, and if there is line item information that has not been evaluated, the line item information is evaluated (from step J5 to step J1). ⁇ Step J4)
  • the headline position candidates are determined by referring to the evaluation reference values in the operation parameter information 501 (step J6).
  • the shaded line item (shaded portion V) shown in FIG. 45 is determined as the heading position candidate.
  • the headline position candidate determined based on the headline position search rule 505 is found to exist in the exposure line item by the extraction and matching process of the multi-dimensional feature data.
  • the item data is collated with the item index dictionary 507 (step K4), and based on the result, the position of the line item of the index position candidate and the function item corresponding to the index are determined. .
  • the heading item data to be collated (items in the heading item data)
  • the heading position candidate Hina line item may contain multiple heading item data.
  • the entry data to be collated at this time is determined by the following method.
  • the headline item data to be collated is the largest item data in the line item of the headline position candidate.
  • the continuous item data is integrated into an area o
  • step K4 of the entry item matching step K10 normalization processing is applied to the entry items.
  • the image of the heading item data to be matched during heading matching can be stored in the item heading dictionary 507. It's getting better.
  • the difference in printing pitch is dealt with by normalizing the space between the characters of the index item data to be collated so that it becomes a fixed amount (for example, 1 dot). do.
  • the difference in notation of item headings can be dealt with by preliminarily having a plurality of types of notations of typical heading wordings in the item heading dictionary 507.
  • Images of heading item data are stored as multidimensional feature information after normalization processing. Also, in order to absorb differences in the notation of headings, as shown in FIG. 50, all item headings that indicate the same function are classified and stored as the same category.
  • the heading matching parameters (Th1, Th2) of the operation parameter information 501 the heading content at the heading item position is determined.
  • the dissimilarity condition for the first-ranked candidate headline in the matching result is equal to or less than the matching parameter (Th 1), and the category ID is different from the first-ranked candidate in the matching result (the function item is different).
  • the dissimilarity difference with the candidate is the matching parameter.
  • the headline content of the headline item position satisfies the dissimilarity difference condition greater than or equal to (Th2).
  • the evaluation is as follows. (dissimilarity condition and dissimilarity difference condition) are satisfied.
  • case 1 the collation result is notified as it is as the headline analysis result, and in case 3, it is notified that the headline analysis result has failed and the recognition result of the form is rejected. The requester will be notified. Also, in the case of case 2, by performing the headline matching result correction process (step 5), it is possible to analyze the headline items that could not be analyzed for a certain specific case.
  • heading correction rule 508 As a result of collation of heading items, the required heading items defined in the heading line of the table structure part are corrected according to heading correction rule 508 in the following cases. Correct processing, step K5). Note that headline correction rule 508 is applied only when the result of matching is undetermined, and cannot be used to negate the result of matching.
  • FIG. 52(a) if any one of the composite heading items with a nested structure is undetermined, correction is made according to the heading correction rule 508. (In the case of the compound entry item "Financial institution name", the nested entry items must always contain "Bank name" and "Branch name”.) (because the heading of " corresponds), the heading item (shaded part W) that could not be analyzed can be analyzed.
  • heading correction rule 508 for example, if only one heading of the required items in the heading row of a general transfer form is undetermined, correction is made according to heading correction rule 508. Then, the function item that should be in the header line is uniquely determined from the function name information table, so the header item (shaded part W) that could not be analyzed can be analyzed.
  • the headline items that could not be analyzed are indicated by the shaded part W
  • the headline items analyzed by the headline matching result correction process are indicated by the shaded part W ' indicates.
  • step K6 searches for the exposure line item position of the item data corresponding to the determined entry item as a result of the entry item collation.
  • the ascending line item configuration information This is done by evaluating the individual line items of the TBL 503 according to the item data search rules 509.
  • the difference between the item data position search and the index item position search is that in the case of the item data position search, the index item has already been determined, so after the index is first evaluated and the search rule is selected, Since the rule is applied to each line item, and in the case of the index item position search, the index item matching process is performed, so the index position candidate is first determined, but in the case of the item data position search, The point is that it is necessary to determine the item data position as a result of the search process.
  • the item data position (item data ) is determined.
  • step L1 the entry information determined by the entry analysis is extracted (step L1), Item data search rule 509 is determined (step L2).
  • the line item information is extracted from the line item configuration information TBL 503 (step L 3 ) and evaluated according to the item data search rule 5 0 9 (step L 4 ) 0
  • step L5 the item data position is determined according to the evaluation result, and the line item ID of the determined item data position is set as the function name information (step L5) c Also, the evaluation of all the exposure line item information is completed. If it is not finished, evaluation of the next exposure item information is continued (step L6, step L3 to step L5).
  • step L7 step L2 to step L6
  • connection rule between the heading section line item and the data section line item is defined as follows except for the table structure.
  • the line item in the Data Division is the line item following the Identification Division [see F I G.54 (a) and F I G.54 (b)];
  • connection rule between the Heading Division line item and the Data Division S line item is defined as follows in the case of table structure.
  • FIG. 56 shows an example in which the item data position corresponding to the headline is determined.
  • the position of determining the heading item is indicated by a shaded portion X
  • the position of the item data is indicated by X'
  • the link relationship between the determining position of the heading item and the position of the item data is indicated by an arrow. ing.
  • the item data section link processing (step K7) refers to the position of the data section line item corresponding to the headline item, determines the item data position in the data section line item, and establishes the link relationship. is set.
  • the link relationships from the IDENTIFICATION DIVISION to the corresponding Item-DATA DIVISION are shown in FIGS. 57 and 58.
  • the item data linked to the function item is determined according to the operation parameter information 501. be done.
  • the operation parameter information 501 of the item data link is as shown below.
  • the operation parameter information 501 of the item data link is as shown below.
  • N is the number of item rows
  • M is the number of item digits
  • K is the number of function items.
  • step K8 if the functional item of the analyzed heading item is money amount, fee, etc., the line item structure to which the corresponding item data belongs is examined, and the structure is separated by single digits. If it is a line item, each single-digit line item is concatenated to create one item data information, and the item data is linked to the function item.
  • the item data part corresponding to the entry part is divided into three or more line items (according to the action parameter setting value), and the size of each line item is equal to the action parameter setting value If the size is below and the heading function is determined to be a monetary amount, the corresponding line item is determined to be a dew line item with single digit separators [FIG.
  • the item data within each line item is also divided, so each item data is integrated.
  • the item data are concatenated [Refer to FIG. 60 (d)] c. has been explained, but the same process is applied to straight line items separated by thousands.
  • the item data is concatenated with 3-digit separators. 60(e) and FIG. 60(f)].
  • layout analysis processing step A2 layout characteristics of the read image are is extracted, the layout is analyzed, the extracted features determine the heading area in the image, the heading item information in the heading area is recognized, the corresponding item data is determined, and the layout is logically arranged. express.
  • layout matching processing step A3 layout matching processing step A10
  • layout DB Check whether there is a matching candidate layout by searching the candidate layouts stored in 14.
  • the headline position is searched and collated from the if line item configuration of the form image to be analyzed, and the headline written on the form and the corresponding headline are matched.
  • the headline analysis processing for automatically analyzing the item information
  • the headline items and the item data corresponding to the headline items can be identified by the layout recognition processing. Character recognition of data can be performed.
  • FIG. 61 is an image data display device according to one embodiment of the present invention.
  • the image data display device 640 is a schematic diagram showing the configuration of the image data display device 640.
  • the image data display device 640 shows the account number of the person to whom the remittance is to be made (this person is identified by the name), the remittance amount, and the like.
  • the document is displayed as image data, and the operator inputs the remittance data such as the remittance number, name, and remittance amount through a keyboard, etc., and the operator performs remittance request processing, or the operator uses other equipment, etc.
  • the media processor shown in FIG. It is equivalent to 10 of 30 clients.
  • this image data display device 640 the operator can perform an input operation while viewing the image data displayed on the display.
  • the image data display device 640 shown in FIG. 61 includes an image scanner 621A as an image data input device, an optical character reader (OCR device) 621B as a data input means, A keyboard 631, a computer main body 629 as a display control device, a display 630 and a hard disk 622.
  • OCR device optical character reader
  • This image data display device 640 is connected to saino 39 shown in FIG. 6, and outputs image data (remittance data) from image scanner 621A to server 39. Then, the character recognition result of the image data character-recognized by the server 39 is input and displayed on the display 630, and the remittance data confirmed and corrected by the operator is sent to the server 3. It is designed to function as a workstation that outputs to 9.
  • the image scanner 621A reads an image data containing a plurality of items of information such as a form such as a remittance request form of a bank, and inputs the image data to the image data display device 640. is.
  • the OCR device 621B reads image data and performs character recognition of the read image data in the same manner as the image scanner 621A.
  • the display 630 has an image data display area 611 and an item display area 614, and when the image data of the input form is displayed, for example, FIG. of.
  • the image data display area 611 is an area portion for displaying the image data of the form input from the image scanner 621A or the OCR device 621B.
  • image data display area 611 image data containing multiple items of information is displayed.
  • Image data containing information is displayed in the four items 6, 1, and 2 of "Partner (Transaction)" and "Amount".
  • the item display area 614 is provided for inputting remittance data corresponding to the image data portion of the desired item 612 in the image data display area 611 using the keyboard 631. This is Elijah.
  • This item display area 614 has a plurality of data input display area portions 615 .
  • FIG. 70 has four data input display area portions 615 for "items 1 to 4", and "item 1" is for “mouth number” and “item 2" is for "name”.
  • ⁇ Item 3'' corresponds to ⁇ Transaction''
  • ⁇ Item 4J corresponds to ⁇ Amount''.
  • a cursor display 616 is displayed in the desired data input display area 615, and the remittance data displayed in the image data portion of the desired item 612 corresponding to this is displayed. It is ready for input. Data input is performed using the keyboard 631 as data input means. 96/150 Furthermore, the image data display device 640 shown in FIG. A definition that stores a body storage part.
  • the image data division information is information for dividing the image data of the form input from the image scanner 621A or the OCR device 621B into image data portions of a plurality of items 612. Say.
  • the computer main body 629 shown in FIG. 61 functions as a display control device (hereinafter the computer main body 629 may be referred to as the display control device 629), and the image data display area 611 , display the image data obtained by inputting from the image scanner 621A or the OCR device 621B, and input the data corresponding to the image data portion of the desired item 612 with the keyboard 631. In doing so, a cursor display 616 is made to be performed in the data input display area portion 615 for the desired item 612 in the item display area 614 .
  • the computer main body 629 uses the image data division information stored in the hard disk 622 to obtain the form image input from the image scanner 621A or the OCR device 621B. After recognizing the data creases and converting it into a table consisting of image data portions of a plurality of items 612, this converted image data is displayed in the image data display area 611.
  • the computer main body 629 as a display control device includes a highlighting information creation processing unit 623, and a highlighting unit 6 as image data partial highlighting means. 24, highlighting cancellation unit 625 as image data highlighting cancellation means, highlighting transition control unit 626 as highlighting transition control means, and screen scrolling as display screen scrolling means It has 6 2 7 crawl parts.
  • the emphasis information creation processing unit 623 receives image data input from the image data division device 621 as an image data input device or image data division information stored in the hard disk 622.
  • Related information P and emphasized information Q are created by referring to (definition body information).
  • Related information P as shown in FIG. 68, associates ⁇ items 1 to 4'' with ⁇ mouth number'', ⁇ name'', ⁇ transaction'', and ⁇ money''. It is information for
  • the highlighting information Q is information for highlighting in the image data display area 611, and as shown in FIG. It has highlighting attribute information consisting of highlighting types and highlighting areas corresponding to . "Titles 1 to 4" correspond to "number”, "name”, “transaction”, and “amount”, respectively.
  • highlighting includes shading, decorative lines, etc.
  • thick frame display is set to item 612 corresponding to "Title 1" and "Title 3".
  • shaded display is set to items 612 corresponding to "Title 2" and “Title 4", and as “Titles 1 to 4" are highlighted in order, different highlighting is performed. It is designed so that it can be used to improve visibility.
  • the highlighted area indicates the start and end positions of the highlighted portion 613 in each item 612 using coordinates (dot units) consisting of X and Y coordinates, and item 6
  • the size of the highlighted portion 613 can be arbitrarily set every 12.
  • the highlighting unit 624 displays items by the display control device 629 in a state in which image data including a plurality of item information is displayed in the image display area 611.
  • the cursor is displayed in the data input display area 615 for the desired item 612. Then, only the image data portion of the desired item 612 corresponding to this data input display area 615 is highlighted as indicated by reference numeral 613.
  • the highlighting portion 624 displays the data input display area portion 61 for this item 612.
  • the highlighting cancellation unit 625 cancels the highlighting 613 of the image data portion of the desired item 612 highlighted by the highlighting unit 624, and highlights this item 612. It restores the previous state. That is, the highlight display canceling unit 625 is operated to move the cursor to the data input display area 6 for the desired item 612, which is different from the data input display area 615 for the desired item 612. When the cursor display 616 is shifted to 15, the highlight display 613 of the image data portion corresponding to the item is released.
  • the highlighting transition control unit 626 functions in conjunction with the highlighting canceling unit 625, and the highlighting canceling unit 625 emphasizes the image data portion of the corresponding item 612.
  • the screen scrolling unit 627 is for displaying image data not displayed on the display 630 from a state in which part of the image data is displayed on the display 630.
  • the highlighting unit 624 has a changing unit 628 as changing means, and this changing unit 628 changes the highlighting type or area of the highlighting part 613, for example, by using a keyboard. It is used and changed according to an instruction from the outside, and has a change information acquisition unit 628A and an emphasis information change unit 628B .
  • the change information acquisition unit 628A It acquires change information R, which will be described later, and the emphasis information changing unit 628B uses this change information R to update the emphasis information Q, which will be described later, to create emphasis information Q'. .
  • the computer main body 629 is provided with the functions of the highlight display unit 624, the highlight display cancellation unit 625, the highlight display transition control unit 626, and the screen scroll unit 627.
  • the image data display device 640 is configured by installing appropriate software on the hard disk 622 or other memory.
  • the image data display device 640 operates as follows.
  • the image data of the form is input from the image data dividing device 621 (image scanner 621A or 0CR device 621B) shown in FIG. 62, and the display (FIG. 62 (not shown in the figure), the initial screen is shown in Fig. 67.
  • the image data display area 611 of the display 630 displays image data containing a plurality of items of information, that is, "mouth number”, “name”, " The image data containing four items of information, "transaction” and “amount”, is displayed. Also, when inputting remittance data, by moving the cursor display 616 to the desired data input display area 615, the remittance data corresponding to the image data portion of the desired item 612 is displayed. input. At this time, as shown in FIG. 70, the image data portion of the desired item 612 is highlighted with the highlighting portion 613 by the highlighting portion 624, and FIG. As shown in FIGS. 71 to 76, this highlighted portion 613 also moves in the image data display area 611 as the cursor display 616 moves.
  • FIG. 70 shows the display 630 when item 612, which is "Ro number (0001)", is highlighted.
  • the highlighting transition control unit 626 causes the transition from "Transaction (010:)” to "Amount of money” as shown in FIG. ( ⁇ 12,000)”, the highlighted portion 613 moves.
  • the operator uses the keyboard to input "0 1 0" and " ⁇ 12,000”.
  • the cursor display 616 moves from “item 4" to “item 1" again, and the highlight display transition control unit 626 causes the display to change as shown in FIG. , the highlighted portion 613 moves from “Amount ( ⁇ 12,000)” to "Ro number (0010)” on the second row, but after that, by repeating the above operation, the image display area Predetermined items 612 of 611 can be sequentially highlighted.
  • the item 612 corresponding to the data input display area portion 615 where the cursor display 616 exists is highlighted, and the highlighted portion 613 is also displayed as the cursor display 616 moves. It is designed to move between items 6 1 2'.
  • remittance data input is performed in a data input display area portion 615 having a cursor display 616, and the cursor display is moved to the data input display area portion 615 where data should be input.
  • a cursor display 616 is moved to the data input display area portion 615 where data should be input.
  • the display screen can be automatically scrolled.
  • the display screen is scrolled one item at a time to display the item "No. 1 4 8)” item to the top to scroll all of the items for 1 screen (7 items) and display the items for 1 screen that exist in the lower part. good too.
  • FIG. 70, FIG. 71 Item display area as shown in In 614, when the cursor display 616 is moved from "Item 1" to "Item 2", in other words, in the image data display area 611, the item 612 to be input becomes the previous If it is different from the input item 612, first, it is determined whether or not the highlighting attribute (highlighting type, highlighting area) has been changed in the previous input (step B 1') o
  • the highlighting cancellation unit 625 ⁇ Returns the highlighting attribute of the image data part of the previous item 612 to normal (attribute before change). (step B 2') and get the relevant information P for the next item 6 1 2 (step B 3')
  • step B4' it is determined whether or not the related information P related to the item 612 to be input exists (step B4'), and the input target If related information P related to item 612 exists, the emphasis information Q is obtained, and the change information acquisition unit 628A refers to the emphasis information Q to obtain the change information of the highlighting attribute. Acquire (Step B 5'.
  • Step B6' by determining whether or not the image data portion corresponding to the item 612 to be input is displayed on the display 630, it is determined whether or not automatic screen scrolling is necessary ( Step B6'), if automatic screen scrolling is not necessary, the highlighting information changing unit 628B changes the highlighting attribute of the image data part with the change information acquired in step B5', As shown in FIGS. 70 and 71, the highlighted portion 613 moves from "Ro number (0001)" to "Name (Fuji Taro)" (Step B8') .
  • step B 6' if screen auto-scroll is required, 75 and 76, the screen scrolling unit 627 performs automatic screen scrolling according to the movement of the highlighted portion 613 (step B7 '), the highlighting information changing unit 628B changes the highlighting attribute of the image data part with the change information acquired at step B5' (step B8').
  • control of highlighting movement determines whether a change in highlighting attributes has occurred, and if so, changes the highlighting of the previous item 6 1 2. is canceled, it is determined whether or not the related information P related to the input target item 612 exists, and if the related information P related to the input target item 612 exists, the highlighting attribute is changed. Get information.
  • the display type and display area of the highlighted portion 613 can be arbitrarily changed by changing the highlighted information Q.
  • the highlighted portion 613 of item 612 which is "amount ( ⁇ 4,321)" is represented by the starting position coordinates (3 20, 180) and end position coordinates (420, 200) can be uniquely determined.
  • the start position coordinates (320, 180) are the coordinates shown in “No. 7 start” corresponding to "Title 4 (amount)", and the end position coordinates (420, 2 0 0 ) is Next, as shown in FIG. 79, the starting position coordinates (3 2 0, 1 8 0) to ( 3 6 0, 1 8 0), as shown in FIG. 78, item 6 1 2 shown in FIG. 321)
  • the highlighted region 6 1 3 of ” is narrowed.
  • the size of the region of the emphasis display portion 613 can be arbitrarily set.
  • a keyboard or the like as a data input means to input the change of the highlighting attribute to the image data display device 640. 62 and FIG. 63 in the modification section 628.
  • the emphasized information change unit 628B updates the emphasized information Q to create the emphasized information Q'.
  • the operation flow at this time will be explained using FIG.
  • the change information acquisition unit 628A performs the emphasized information change start recognition process (step C1') and the emphasized information change end recognition process (step C2'). After that, by performing the change information acquisition process (step C'3'), it recognizes how the emphasis information Q has been changed.
  • the emphasized information changing section 628B performs the emphasized information update process (step C4') and the emphasized information change process (step C5'), for example, FIG.
  • the emphasis information Q is updated to create the emphasis information Q'.
  • the display type and display area of the highlighted portion 6 1 3 can be arbitrarily changed. 5 can be changed, so it can be freely highlighted depending on the application.
  • the data input display area 615 shown in FIGS. 77 and 78 does not display the character recognition result of the image data, but it is of course possible to display the character recognition result. .
  • the image data display device 640 of the present embodiment when the cursor display is moved to the data input display area portion 615 to which data is to be input, the image data of the item 612 to be referred to at the same time is displayed.
  • the image data of the item 612 to be referred to at the same time is displayed.
  • the operator can change the type and area of the highlighted portion 613, which is advantageous in that it can be used according to the application.
  • the entire predetermined item 612 is highlighted.
  • a part of the predetermined item 612 may be highlighted as shown in FIG. 80, for example.
  • Image data display area 611 of the display 630 shown in FIG. Image data containing information on five items, "recipient” and “amount”, is displayed.
  • the remittance corresponding to the image data portion of the desired item 612 can be performed. Enter data.
  • the image data portion of the desired item 612 is highlighted with a highlighted portion 613 ("Bank Name Branch Name (Fujitsu Bank)"). 81 and 82, this highlighted portion 613 also moves in the image data display area 611 as the cursor display 616 moves.
  • the image data of the form can be displayed on the display 630 for each piece of personal information.
  • Image data display area 611 of the display 630 shown in FIG. Image data containing seven item information of "recipient” and "client” is displayed.
  • the image data portion of the desired item 612' can be displayed by moving the force display 616 to the desired data input display area portion 615. Enter remittance data corresponding to At this time, as shown in FIG. 84, the image data portion of the desired item 612' is highlighted with a highlighted portion 613 ("Subject (1)" portion), As shown in FIG. 85, as the cursor display 616 moves, the highlighted portion 613 also changes to the image data display area 61. /021
  • the character recognition results of the image data are not displayed in the data input display area 615 shown in FIGS. 80 to 85, the character recognition results may of course be displayed. .
  • the image data display device 640 described in detail in (1) above since the image data is edited and displayed in units of items consisting of a plurality of characters, it is possible to check the correctness of the result of automatic character recognition. In this case, the character corresponding to the recognition character to be confirmed is visually selected from consecutive different characters in the image data. The confirmation work may require labor and time. Therefore, in such a case, a deposit request process can be performed using a read mark display/recognition information correction device 740 as shown in FIG.
  • This read mark display/recognition information correction device 740 captures as an image a form containing payment data such as the type and amount of fees to be paid, and then converts the image of this payment data by automatic character recognition. By converting it into single-digit information, the deposit request process is performed, but the correction of unrecognizable characters and misrecognized characters (characters include numbers; the same shall apply hereinafter) during conversion is as follows: Operators now use keyboards and other devices.
  • this reading mark display and recognition information correction device 740 corresponds to the client 10 of the media processing device 30 shown in FIG. 6, and is connected to the server 39 shown in FIG.
  • the character recognition result of the image by the centralized character recognition device 6 connected to the server 39 is similarly corrected for unrecognizable characters and erroneously recognized characters, and the corrected result is sent to the server 39. function as a workstation for output to
  • this reading mark display ⁇ recognition information correction device 740 is F
  • an image reader 721 as an image reading unit
  • a keyboard 722 as a data input device
  • the image reader 721 reads the full-surface image P, which is an image having mark information such as numbers and characters, such as a form on which payment data is recorded as shown in FIG. and to be input into the computer main unit 7 2 4 as mark image information, which is image information such as characters is.
  • the mark image information is composed of numbers and letters, which are the minimum constituent units, it is not limited to this, and may be composed of a set of numbers and letters. Also, the full-surface image P may be collectively held for a plurality of sheets.
  • the keyboard 722 is manually operated by the operator with proper code data as correct data in order to correct the code data corresponding to the mark image information that could not be automatically recognized and the mark image information that was erroneously recognized. is for input in .
  • the display 725 displays the read image of the mark image information input from the image reader 721, and the unrecognized mark image information display area 732A, mark image It has an information display area 733A, a related mark image information display area 733B, and a correct answer display area 733C.
  • the unrecognizable mark image information display area 732A displays the mark image information that could not be automatically recognized together with the surrounding mark image information. By highlighting the unrecognizable mark image information, it can be distinguished from the surrounding mark image information. For example, in screen A of FIG. 101, "1.”? In ⁇ '2 0 3 4'' shown in “ (reject character)", ⁇ 3'' is the unrecognized mark image information, and ⁇ 2'', ⁇ 0'', and ⁇ 4'' are the surrounding mark image information.
  • the corresponding mark image information display area 733A displays the mark image information of the minimum constituent unit to be converted into code information in the image, and the code information converted from this mark image information. It is displayed in correspondence with the mark information meant by .
  • the image is divided into the smallest constituent units of the mark image information, For example, as shown in screen A of FIG.
  • the same mark is displayed in the same area so that it is displayed in the area corresponding to "", which reduces the movement of the line of sight.
  • the related mark image information display area 733B is used when it is possible to easily confirm whether the result of automatic character recognition is correct or not and to correct it by referring to the preceding and following characters such as consecutive characters.
  • a reference key on the keyboard 722 image information around the highlighted mark image information is displayed for reference.
  • correct data display area 733C is for displaying correct code data input from the keyboard 722 as correct data. is in the state where "7" has been entered.
  • the reading mark display/recognition information correction device 740 shown in FIG. This is the definition structure information storage part that stores the reading specification information for the .
  • the reading designation information refers to information relating to division of the entire image P and recognition as code data.
  • the computer main body 724 shown in FIG. 86 functions as a mark recognition device (hereafter, the computer main body 724 may be referred to as the mark recognition device 724), and the image reader 721 Recognize the image information of the mark in the input image and convert the image information of this mark into code decoder of the mark.
  • the mark image is converted in an instant, and the image of the mark is subjected to predetermined processing and displayed on the display 725.
  • the computer main body 724 as a mark recognition device includes a character recognition unit 726 as a mark recognition unit, a read mark image display control unit 7 27, correct data display unit as correct data display means 728, character image extraction processing unit as minimum constituent unit mark image information extraction unit 729, minimum constituent unit mark image display control unit Character image display processing unit 730, related mark image display unit 731 as related mark image display means, recognition information correction unit 752 as recognition information correction unit, and related information creation unit 741. It's ready.
  • the character recognition unit 726 recognizes the mark image information in the image read by the image reader 721, and corresponds to this mark image information. It converts into code information, and has the same function as, for example, a character recognition device.
  • This character recognition unit 726 creates recognition character information S by referring to the full image P read by the image reader 721 or the reading designation information (definition form information) stored in the hard disk 723. Start with what you do.
  • the recognized character information S is code data of characters recognized by the character recognition unit 726, and as shown in FIG. , “recognition result”.
  • number of digits in item is the number of digits that the item has. It represents code information as code data recognized as characters. As can be seen from the comparison with the attached correct data, the recognition results of “SUI-2” and “SUI-4” are recognition failure and false recognition.
  • the read mark image display control unit 727 fails to convert the mark image information into the corresponding code information, the unrecognizable mark image information that could not be converted is converted into the unrecognizable mark image information.
  • the read image is displayed on the display 725 together with the mark image information associated with the image information.
  • the read mark image display control unit 727 treats the mark image information that has not been recognized and converted into corresponding code information by the character recognition unit 726 as unrecognizable mark image information. , along with related mark image information located around this unrecognized mark image information, read into the unrecognized mark image information display area 732A on the display 725. It is displayed as an image.
  • the read mark image display control unit 727 serves as highlighting means for highlighting the unrecognizable mark image information in order to facilitate identification of the unrecognizable mark image information by the operator. It has a highlight part 7 2 7 A.
  • the read mark image display control unit 727 displays the unrecognized mark image information display area 732A on the display ⁇ 25 by the correct data display unit 728.
  • highlighting as a highlighting change means for changing the unrecognized mark image information that has been highlighted until now to another highlighting that means that it has been corrected A display change section 727B is also provided.
  • the character image extraction processing unit 729 converts the mark image information, which is the minimum structural unit to be converted into code information in the image, into the minimum structural unit. It is extracted for each unit mark image information.
  • the character image extraction processing unit 729 divides the mark image information, for example, which has numerals and characters as its minimum constituent units, into image information in units of numerals and characters, and extracts them.
  • the related information R is created by referring to the read specification information (definition information) stored in the full image P or the hard disk 723.
  • the character image information and related information R are created by performing the processing of steps B1'' to B8'' of the flowchart shown in FIG.
  • Step B 1 character image information is created by dividing the full image P into units of characters (Step B 1), and the position (position on the form) information of this character image information in the full image P is acquired (Step B2 ) .
  • step B3 it is determined whether or not this character image information is designated as a predetermined item (water charge, electricity charge, etc.) (step B3).
  • step B 6 classify the line as an item for each item (step B 6) and set the position information in each item of character image information (step B 7). .
  • the related information R is created using the positional information in the item of each set character image information (step B8). Note that this related information R does not have recognized character information related to recognized characters.
  • the character image display processing unit 730 also provides mark image information (for example, numbers, letters, unit image information) is displayed in correspondence with the mark information meant by the code information converted from this mark image information, and the mark image information of the same minimum constituent unit is converted from this mark image information. It has a function to display a plurality of mark information in correspondence with the mark information meant by the code information.
  • mark image information for example, numbers, letters, unit image information
  • the character image display processing unit 730 converts the code information obtained by converting the image information of "1" extracted by the character image extraction processing unit 729 into the mark image information on the display ⁇ 25.
  • the mark "1" is displayed in the part displaying the mark.
  • the character image display processing unit 730 has a highlighting unit 730A as a highlighting means for highlighting only one desired mark image information. It is easily identifiable.
  • the highlighting changing unit 730B as a highlighting changing means changes one mark image that has been highlighted so far when the correct data is input by operating the keyboard 722, which is a data input device.
  • the information is highlighted differently to indicate that it has been corrected, making it easier to distinguish between the mark image information before correction and the mark image information after correction.
  • the related mark image display unit 731 displays one mark image information together with the mark image information related to this mark image information on the display 725 in the state of the read image. It is. That is, the related mark image display unit 731 positions one mark image information around this mark image information, and displays the related mark image information together with the display 72. In the related mark image information display area 733B on 5, it is displayed in the state of the scanned image. Display image information around the highlighted image information for reference when it is easy to check whether the result of automatic character recognition is correct or not and to correct it by referring to the preceding and succeeding characters such as characters. It is.
  • the related mark image display unit 731 has a highlighting unit ⁇ 31A as a highlighting means for highlighting one piece of mark image information. facilitates identification of
  • the correct data display unit 728 displays the mark image information display area 733A on the display 725 and the related mark image information.
  • Correct data display area 733 which is an area different from display area 733B, displays correct data.
  • the recognition information correction unit 752 registers the correct data as correct code data, It corrects unrecognized mark image information and erroneously recognized mark image information, and as shown in FIG. It has parts 7 4 3.
  • the related information creation unit 741 refers to the related information R and the recognized character information S to create related information R' having recognized character information.
  • This related information R' is, as shown in FIG. 100, "position and size on full-screen image", "corresponding character item name”, and “corresponding item image name” in a plurality of character image information. , ⁇ column position in item'', ⁇ recognized character'', ⁇ offset in recognized character information'', and ⁇ corrected flag''.
  • the "corresponding character item name” indicates the item to which the character image information belongs (such as [SUI-1 to 4]), and the "corresponding item image name” indicates the image to which the character image information belongs. It corresponds to the "corresponding character item name” (such as "I SU I—:! ⁇ 4").
  • the item [SU I-1] shown in FIG. 99 corresponds to the recognized character information "1050", but as shown in FIG. 4 information, and the image name is [ I S U I— 1].
  • the ⁇ digit position within the item'' indicates the position of the character image information in the item
  • the ⁇ recognition character'' indicates the recognition character information S
  • the recognition character ⁇ 1'' is 3 in the item.
  • "0" means the 4th digit
  • "5" means the 5th digit
  • "0" means the 6th digit.
  • the "corrected flag” is all "OFF” in FIG. ON” to indicate that the correction has been made.
  • character image information is also defined by the "offset in recognized character information" information.
  • This related information R' is produced by the process shown in FIG.
  • the recognized character information S is classified by position information represented by items and/or lines (step C1), and the classified recognized character information S is added to the corresponding related information R (step C2).
  • the character recognition section 726 the read mark image display control section 727, the character image extraction processing section 729, the character image display processing section 730, and the association
  • the hard disk 723 or other suitable software that gives the computer main body 724 the functions of the mark image display section 731, the correct data display section 728, and the related information creation section 741.
  • the reading mark display/recognition information correction device 740 is configured.
  • the reading mark display/recognition information correction device 740 operates as follows.
  • An image reading device 721 shown in FIG. 87 creates a full image P of a form to be read, and a mark recognition device 724 converts this full image P into character image information and specifies reading.
  • the information (definition: body information) is used to create related information R'.
  • the initial screen on the display 725 when these character image information is displayed on the display (not shown in FIG. 87) is as shown in screen A in FIG. 101. become.
  • the mark recognition device 724 acquires the full image P (step D1), it copies the related information R' and sorts it in the order of the recognized character information S (step D2).
  • step D3 It is determined whether or not this recognized character is an unrecognizable reject character (step D3), and if it is a rejected character, the character image information of its surroundings and items is obtained, Display in the unrecognized mark image information display area 732A (step D4). It should be noted that the operations of these steps D1" to D4" are repeated by the number of rigid characters (step D5).
  • step D6 If the recognized character is not a reject character, the character image information is displayed in the corresponding area of the mark image information display area 733A (step D6), and the same number of characters as the recognized characters are displayed in step D. The operation of 6” is repeated (step D 7”).
  • the recognized character information S and the related information R' are updated, and the corrected character image information "7" is highlighted to indicate that it has been corrected.
  • the reference image display processing as shown in FIG. 89 is performed by the reference image display processing section 731 as described above, and the operation flow at this time is shown in FIG. 7 is used for explanation.
  • step H1 it is determined whether or not the reference image is being displayed. If the reference image is not being displayed, the relevant information R ' (step H2).
  • Step H3 set the position for displaying the reference image to a position that does not block the highlighted character image information to be corrected (Step H4), and display the reference image ( Step H5 ) . If the reference key is pressed again while the reference image is displayed, the reference image is erased (step H6).
  • this correct data is input as correction information to the correction information acquisition processing unit 742, and the correction information and the related information R' and is used to create the recognized character information S in the correction result reflection processing unit 743, and the related information R' is corrected and updated.
  • the corrected character image highlighting unit 727B refers to the correction information and highlights the corrected item to that effect.
  • the correction information acquisition processing unit 742 determines whether the recognized character is a reject character that is unrecognizable. It is judged whether or not (Step E2), and if it is a reject character, the peripheral and/or item image information is highlighted with a thick frame indicating that it is an item to be corrected (Step E3). ⁇ ), and the rejected character which is the corresponding character is highlighted with diagonal lines different from the thick frame (step E 4 ⁇ ).
  • this character image Highlight the information with a bold border (Step E5).
  • step E6 when the operator presses the keyboard 722 (step E6), for example, pressing the tab key or the reverse tab key (a key that moves the force in the direction opposite to the tab key), a bold line indicating the correction target is displayed.
  • step E 7 Move the frame highlighting to target the next character image information (step E 7), and when the thick frame highlighting moves to the final character image information, this operation is performed from the beginning. (Step E 8 ⁇ ) .
  • the correction result reflection processing unit 743 searches for the relevant information R' of the character image information being highlighted (step F1), as shown in FIG. 95. Recognized characters (unrecognizable characters and erroneously recognized characters) are corrected (step F2), furthermore, the recognized characters in the related information R' are corrected (step F3), and the reference image is displayed or erased (step F Four " )
  • step G2 Furthermore, in the corrected character image highlighting section 727B shown in FIG. 88, as shown in FIG. Display (step G2).
  • the display and correction of character image information and the display of reference images in the read mark display/recognition information correction device 740 are performed by the mark recognition device 724 as shown in FIG.
  • Acquisition of image data which is the full image P (Step A 1), Extraction of character image information (Step A 2)), Acquisition of recognized character image information (Step A 3), Related information R ' creation (Step A 4 ⁇ ) , Character image information display (Step A 5 ⁇ ) , Correction information acquisition (Step A 6 ⁇ ) , Data key or reference key press (Step A 7 ⁇ ) , of the correction result associated with pressing the data key Reflection (Step A8), highlighting of corrected character image information (Step A9), and display of reference image accompanying pressing of reference key (Step A10) are performed and displayed. This process is performed for all existing character image information (step A11).
  • the mark recognition device 724 can read the image information of unrecognizable characters that could not be recognized. , along with the image information of the surrounding characters, is displayed in the state of the read image on the display 725, and the image information of this unrecognizable character is highlighted to display the image information.
  • the image information of the preceding and succeeding characters such as characters, highly accurate confirmation work can be performed, and there is an advantage that the labor and time required for correctness confirmation work can be reduced.
  • the read mark display/recognition information correction device 740 when the correct data corresponding to the image information of the unrecognizable character and the misrecognized character is input by operating the keyboard 722, The correct data is displayed on the display 725, and the image information of unrecognizable characters and misrecognized characters that have been highlighted up to now are highlighted differently to indicate that they have been corrected.
  • This makes it easy to distinguish between the input of unrecognizable characters and the correction of misrecognized characters and those that are not, improves visibility, prevents double correction by the operator, and confirms correctness.
  • the labor and time required for the work can be greatly reduced.
  • the read mark display/recognition information correction device 740 according to the present embodiment, only the same mark is displayed in the same area on the display in units that allow easy visual observation. By displaying and highlighting only one desired character image information, the operator can see the character image without referring to the associated surrounding character image information. By making it possible to check whether the recognition result is correct or incorrect just by referring to the character information, the movement of the line of sight is greatly reduced. It has the advantage of being able to significantly reduce the labor and time required for correctness confirmation work.
  • the correct data includes the one character image information and surrounding character image information associated with this character image information. is displayed in a correct data display area separate from the area where This has the advantage of being able to reduce the amount of time required and to perform highly accurate confirmation work.
  • the correct data input for the unrecognizable characters and erroneously recognized characters are displayed in the correct data display area 73 of the display 725.
  • the unrecognizable characters and misrecognized characters may be corrected without displaying the correct data for the unrecognizable characters and misrecognized characters. It is also possible to correct unrecognizable characters and misrecognized characters by displaying only the correct data for any of the characters.
  • FIG. 105 is a block diagram showing the form identification device according to the first modification of the embodiment of the present invention. 105 also corresponds to the form identification device shown in FIG. 002 and 1003), an image data reader 811, a computer 812 (this computer 812 has an input unit 812-1 and a display 812 as described later). — 2 and control unit 8 1 2 — 3) and hard disk 8 1 3.
  • the image data reading device 811 reads the image data of the form, and as this image data reading device 811, as in FIG. 115 described above, An optical character reader (OCR device), an image scanner, or the like can be used . It is processed as form data, and can be composed of functional parts as CPU and memory in the electronic computer 812.
  • OCR device optical character reader
  • an image scanner or the like
  • control unit 812-3 is equipped with a keyboard, mouse, or the like for inputting data or commands from the operator to the control unit 812-3.
  • a display for displaying image data read by the image data reader 811 (references in FIG. 106 described later) 8 1 2—See 2).
  • the hard disk (file memory) 813 stores all the image data of the form read by the image data reader.
  • control units 812-3 are functionally composed of an image data storage memory 814, an image data extraction unit 815, a form identification dictionary unit 816, Data comparison unit 8 1 7, threshold setting unit 8 1 8, form determination unit 8 1 9, definition storage unit 8 2 0, definition storage table 8 2 1, character recognition unit 8 2 2, and character recognition result storage unit 8 It has 2 3.
  • the image data storage memory 814 temporarily stores the image data of the form read by the image data reading device 811, and the image data extraction unit 815 serves as an operator input unit 812-1
  • the required form identification information described on the form is extracted from the image data of the form stored in the image data storage memory 814. It has a function as form identification information extraction means to be extracted.
  • the image data extraction unit 815 when extracting the required form identification information from the identification information, the image data of the form read by the image data reader 811 is displayed on the display 812. 812-2, and the operator can indicate identification information based on the image data displayed on this display 812-2.
  • the operator can specify all written information such as character information, marks, seals, lines, etc. written on the form as the information to be extracted by the image data extraction unit 815.
  • the coordinate position information of the indicated information, the size information of the described information, and the data information are automatically extracted as form identification information by, for example, software or firmware processing. It has become so.
  • the form identification dictionary (form identification dictionary) 816 registers the form identification information extracted by the image data extraction section 815 as the form identification information of the specific form.
  • the form identification information of the form type A with the ID number '0101' is stored in the area 816a.
  • the form identification information of form type B with 0 2 ' is stored in area 8 1 6 b.
  • the image data of the form read by the image data reading device 811 described above is temporarily stored in the image data storage memory 814 when the form identification information is registered in the form identification dictionary unit 816.
  • the image data of all forms read by the image data reader 811 are stored in the hard disk 813, and the data comparison unit 817 reads the image data of the specific form stored in the image data storage memory 814, and checks whether the image data of the specific form has the form identification information registered in the form identification dictionary section 816.
  • the form identification dictionary unit 81 is included in the image data of any form read by the image data reader 811 and stored in the image data storage memory 814. It also has a function as reference means for referring to whether or not there is form identification information registered in 6, thereby simplifying the device configuration.
  • the form determination unit 819 determines whether or not the specific form can be recognized based on the verification result by the data comparison unit 817 as verification means, thereby ensuring that all the specific forms are unique. It has a function as a judgment means for judging whether or not it has been identified by the data comparing section 817 as a reference means. It also has a function as form identification means for identifying whether or not it is, thereby simplifying the device configuration.
  • the data comparison unit 817 as a verification means causes the image data of all the forms stored in the hard disk 813 to be extracted in units of image data of one form by the image data extraction unit 815. and the corresponding form identification information from the form identification dictionary unit 816 are sequentially taken out one image at a time, and these pieces of information are collated. At 819, it is determined whether or not the form can be uniquely identified without error based on the collation result of the form identification information from the data comparing section 817.
  • the data comparison unit 817 as reference means compares the image data input from the image data reader 811 with the information extracted by the image data extraction unit 815 and the corresponding form identification dictionary. The degree of coincidence is calculated by collating with the form identification information from the section 816. In the form determination section 819 as form identification means, the form identification information from the data comparison section 817 is calculated. , and the threshold value from the threshold setting unit 818 to determine whether or not the form of the image data input from the image data reader 811 can be identified. It's becoming
  • the form identification dictionary unit 816, the data comparison unit 817, the threshold value setting unit 818, and the form determination unit 819 described above perform a verification step for determining whether or not the specific form can be recognized. Along with the operation, an operation is also performed as an operation step for identifying whether an arbitrary form is a specific form.
  • the above-described registration step includes the processing (layout analysis processing A2, operator processing A6 and /2150 Corresponds to layout learning processing A8), and the above-mentioned verification step and operation step are the same as the processing (layout analysis processing A9, layout matching processing A 10 and operator processing A13).
  • the threshold information from the threshold setting unit 818 is used by the image data reading device. It is designed to be set to the extent that errors during the reading operation of the 811 and printing errors in the form itself can be absorbed and judged.
  • the definition storage unit 820 stores image data when the form determination unit 819 identifies an arbitrary form as a specific form, that is, when the form determination unit 819 operates the system.
  • the reading device 811 can be recognized as a specific form corresponding to the registered form identification information by the form identification dictionary unit 816, the document is described in this form.
  • the definition information for recognizing the stored data is read from the definition storage table 821 and temporarily stored.
  • the definition set storage table 821 stores definition set information (for example, reading position information , character attribute information, number of reading digits, etc.).
  • the character recognition unit 822 is stored in the above-mentioned image data storage memory 814, and is related to a form that can be recognized as a specific form registered by the form identification dictionary unit 816.
  • the definition body information corresponding to the image data is input from the definition body storage unit 820, and the image data is subjected to character recognition processing according to the definition body information.
  • the storage unit 823 is recognized by the character recognition unit 822. 97/055 is used to store character information.
  • the image data reader 811 reads the image data of the bill 824 B of the electricity bill payment notice (step B of FIG. 107). 1''''), the read image data is temporarily stored in the image data storage memory 814 (Step B 2'''' of FIG. 107), and this data is also transferred to the hard disk 813.
  • Step B 2'''' of FIG. 107 By storing the image data, all the image data read by the image data reading device 811 are stored (step B3''' in FIG. 107.
  • the image data read by the page data reader 811 is displayed via the display 812-2 as shown in FIG. 108 (step B4''' of FIG. 107). .
  • the form identification information is stored in the form registration dictionary as shown below. Stored in part 816.
  • the operator operates the input unit 812-1 while referring to the display 812-2, and the image data extraction unit 815 Indicate the information to be extracted at multiple locations (step B5 '''' in FIG. 107).
  • the image data extraction unit 815 automatically extracts the position information, size information and data information of the description information on the form from the image data of the form stored in the image data storage memory 814. (Step B6 '''' of FIG. 107), it is registered in the form identification dictionary unit 816 as form identification information (Step B7 ''' of FIG. 107).
  • the operator operates the input unit 812-1 to specify the 'electricity rate' indicating the payment details of the payment notice as the first information and , 'Fuji Ichiro' indicating the name of the payer is specified as the second information.
  • the image data extraction unit 815 stores the position information, size information and data information in the first information, and extracts the position information, size information and data information in the second information. .
  • the form identification information of the extracted form 824B is stored in the area 816b of the form identification dictionary unit 816 as the form identification information of the form type B whose ID number is '0102'. Store.
  • the image data extracted by the image data extraction unit 815 is used only for identification of the form.
  • the image data can be normalized as described in the above (a5) feature data recognition processing.
  • the verification step and the operation step which will be described later, it is possible to reliably identify the form without performing the conversion process.
  • the form identification information is registered in the form identification dictionary unit 816 at the time of the registration step.
  • An operation is performed as a verification step for verifying whether the form identification information registered in the dictionary unit 816 can be reliably identified.
  • each form image is collated with the form identification information registered in the form identification dictionary unit 816 .
  • one form image from the hard disk 813 is output to the image data extraction unit 815 via the image data storage memory 814 (step C1'''' of FIG. 110).
  • the image data extraction unit 815 extracts matching data based on the position information and size information of the form identification information of the corresponding form in the form identification dictionary unit 816.
  • the data comparison unit 817 receives input of data for comparison from the image data extraction unit 815 and data information as form identification information from the form identification dictionary unit 816 (step of FIG. 110). C2''', step C3'''), perform comparison and collation by referring to the matching degree of these data (step C4'''' of FIG. 110)
  • the form determination unit 819 receives the comparison result from the data comparison unit 817 and the threshold data from the threshold setting unit 818, and determines all the form identification information. If the degree of matching is within the range of the threshold value, it is determined that the form extracted from the hard disk 813 can uniquely identify the classification, and the identified form type is determined to be identical. Record (Step C5 ''' YES routine to Step C6''').
  • step C5 '' Step C 7 ' ' ' the matching degree of the form identification information from the data comparison unit 817 is not within the range of the threshold value, it is determined that the data do not match and the form type cannot be specified (step C5 '' Step C 7 ' ' ') from the N 0 route of .
  • step C6' the process in step C6' will not be executed.
  • step C8 ''' the degree of matching of the form identification information is determined in the same manner as described above.
  • step C10''' from step C9''' YES route to step C10'''
  • step C10''' it is determined that there is a problem with the form identification information stored in the form identification dictionary unit 816.
  • the operator is notified of the problematic form and requested to re-specify the form identification information for that form (from step C9 '''NO' to step C1'').
  • the image data of the specific book is input again from the hard disk 813 and sent to the image data extraction unit 815.
  • the specific form is verified by verifying whether or not there is form identification information registered in the form identification dictionary section 816 in the input image data of the specific form. It is possible to determine whether or not the recognition of is possible.
  • the verification step it is verified whether the images of all the forms stored in the hard disk 813 can be identified using the form identification information registered in the form identification dictionary section 816.
  • an operation is performed as an operation step for specifying the form type as shown below for the image data of an arbitrary form.
  • the image data clipping unit 815 temporarily stores the image data in the image data storage memory 814.
  • Image data (identification information) at a plurality of locations are extracted and cut out from the extracted image data based on the position information and size information constituting the form identification information for a certain form type from the form identification dictionary unit 816 ( Step D 3 ''' , Step D 4 ''' ) .
  • the data comparison unit 817 the data information of all the image data extracted by the image data extraction unit 815 and the form identification A comparison judgment is made by calculating the degree of matching with the data information constituting the information (step D5 ''').
  • the form determination unit 819 compares the matching degree calculated as the comparison determination result from the data comparing unit 817 with the matching degree determination criteria set in the threshold setting unit 818. Thus, it is determined whether or not the image data read by the image data reader 811 can identify the form type by the form identification information from the form identification dictionary section 816 (step
  • the image data of the first form type A is read from the image data reader 811, while the form identification information of the second form type B is read from the form identification dictionary unit 816 to be compared. is used, it is determined that they do not match, and the degree of matching is determined again using the form identification information related to other form types from the form identification dictionary unit 816 (NO route of step D6 '' from Step D3''') via the NO route of Step D8''').
  • the form identification information from the form identification dictionary unit 816 to be compared is the first form type. If it relates to A, it is determined that the form identification information matches, and the read image data is specified as the corresponding form type. At this time, the specified form type is recorded in a memory (not shown) in the control unit 812-3 (from the YES route of step D6'' to step D7'').
  • At the time of determination by the form determination unit 819 described above at least one of the image data cut out by the image data cutout unit 815 from the form identification dictionary unit 816 If it does not match the form identification information, it is determined to be another type of form. After that, the image data read by the image data reader 811 described above is read based on the form identification information for each type of all forms stored in the form identification dictionary unit 816. The degree of matching of the identification information is determined (step D8 ''').
  • the specified form type is stored in the definition structure. While outputting to part 820 (see FIG. 105) (from step D9''' YES route to step D10'''), if one type of form type cannot be specified informs the operator that the form cannot be specified, for example, via the display 812-2 (step D9 '''NO route to step D1 1 '''').
  • definition information corresponding to the specified form type is stored from the definition storage table 821 (reading position information, character attribute information, number of digits to be read, etc.).
  • this definition information and the characters written on the form obtained by reading the image data stored in the image data storage memory 814 with the image data reading device 811 The information is recognized, and the character information as recognition nodes is stored in the character recognition result storage unit 823.
  • the image data of an arbitrary form is read by the image reading device 811, and the image of this arbitrary form is read.
  • the form identification dictionary unit 816 By referring to whether or not there is form identification information registered in the form identification dictionary unit 816 in the data, it is possible to determine whether an arbitrary form is a specific form.
  • image data reader & 811 image data storage memory 814, hard disk 813, image data With the clipping unit 815, the form identification dictionary unit 816, the data comparison unit S17, and the form determination unit 819, the image data reader 811 can be used during operation of the device. Since the type of the form read from the data can be automatically identified, even if there are multiple types of forms to be read by the image reader 811, the operator can be aware of the definition structure for each form. In addition to the advantage of being able to work efficiently, it is not necessary to enter an ID number for identification of the form itself, so a general form can be used. There are also 1 J, which can be easily adapted to existing systems.
  • the operator when registering the form identification information in the form identification dictionary unit 816, the operator only needs to specify it while looking at the image data of the form to be registered projected on the display 812-2. Since the necessary form identification information can be imported into the system, it becomes easy to create a dictionary for form identification, and work can be made more efficient.
  • the data comparison unit 817 as verification means and the form determination unit 819' as determination means, it is possible to verify whether or not the form identification information specified by the operator is correct. , there is also the advantage that misclassification of forms is completely eliminated and the reliability of the device is improved.
  • the form identification information extracted by the operator specifying the identification information can identify the form with higher accuracy than when the identification information points to multiple locations in the form. becomes.
  • FIG. 113 is a block diagram showing a form identification device according to a second modification of one embodiment of the present invention, and shows a control block diagram focusing particularly on the operation of the registration step. .
  • the form identification device shown in FIG. 113 is different from that shown in FIG. It is different in that it is composed of an item headline part automatic extraction unit 815b and a form identification information extraction unit 815c, and the rest of the configuration is basically the same.
  • the title part automatic extraction unit 815a extracts the title part (for example, the first form shown in FIG. (Refer to ' electricity charges' as identification information). It automatically extracts the position information of the item part from the image data.
  • the form identification information extraction unit 815c extracts the image data stored in the image data storage memory 814 by extracting the title portion automatically from the title portion automatic extraction portion 815a and the item header portion automatic extraction portion 815a. Based on the position information from 15b, size information and data information relating to the title portion and the item portion are cut out as form identification information.
  • the operation at the time of the registration step is as follows.
  • the image data of the form is read by the data reader 811 (step E1'''' in FIG. 114)
  • the read image data is temporarily stored in the image data storage memory 814 ( Fig G. 1 1 4 steps
  • all the image data read by the image data reader 811 is stored (FIG. 11).
  • Step E 3'''' of 4) Subsequently, the title part automatic extraction unit 815a automatically extracts the position information that can be seen in the title of the form (step of FIG. 114).
  • Step E4'''' automatically extracting the position information of the item heading described in the line item by the item heading part automatic extraction unit 815b (step E of FIG. 114) Five''' ) .
  • the form identification information extraction unit 815c extracts the size information and data information based on the position information from the title portion automatic extraction unit 815a and the item heading portion automatic extraction unit 815b. (Step E6''' of FIG. 114), the position information and the size information and data information corresponding to the position information are registered as form identification information in the form identification dictionary unit 816 (F I G. Step E 7' ' ') of 1 1 4).
  • the operation during the verification step or operation step is basically the same as in the above-described embodiment.
  • the operator extracts the form identification information by operating the input unit 812-1 while referring to the display 812-2.
  • the specific form identification information written on the specific form can be automatically extracted and specific form identification information can be registered in the form identification dictionary unit 816, which has the advantage of dramatically improving the work efficiency of the operator.
  • the title part and the item part are used as the identification information for extracting the form identification information.
  • the parts of the form (fixed information part) other than this are used.
  • the data comparison unit 817 as verification means and the form determination unit 819 as determination means after the registration step, re-examine the image data of the specific form. and verify whether or not there is form identification information registered in the form identification dictionary unit 816 in the image data of the input specific form, and whether or not the specific form can be recognized.
  • this step is omitted, at least when the device is operated, the type of form whose image data is read by the image data reader 811 can be automatically determined. Since they can be identified, even if multiple types of forms to be read by the image reader 811 are mixed, the operator can process them without being aware of the definition structure for each form, improving work efficiency.
  • the operator when registering the form identification information in the form identification dictionary unit 816, the operator only needs to specify it while looking at the image data of the form to be registered projected on the display 812-2. Since the necessary form identification information can be imported into the system, it becomes easy to create a dictionary for form identification, and work can be made more efficient. Industrial applicability
  • the medium processing device and medium processing method of the present invention it is suitable for use in, for example, form processing in financial institutions. Since it is possible to automatically process forms that have a wide variety of formats, such as slips, its usefulness is considered to be extremely high.

Description

明 細 書 媒体処理装置及び媒体処理方法 技術分野
本発明は、 例えば金融機関における帳票処理に用いて好適な、 媒体処 理装置及び媒体処理方法であって、 特に、 私製伝票等のように多種多様 なフォーマツ トを有する帳票処理を行なうための、 媒体処理装置及び媒 体処理方法に関する。 背景技術
近年、 文字情報をイメージデータ (イメージ) として読み取つてから 文字認識する装置として、 光学式文字読み取り装置 (O C R装置) 等の イメージデータ読取装置が開発され、 各種産業においてはこのイメージ データ読取装置を幅広く利用することにより、 業務の効率化等を図って いる。
例えば、 金融機関等における窓口業務を行なうオペレータは、 上述の イメージデータ読取装置を用いて、 帳票媒体 (帳票) を効率的に処理す ることを通じて、 業務の効率化を図っている。
特に、 上述のよ'うな帳票処理を行なうような業務の効率化を図るため には、 同一種類の帳票媒体 (認識処理専用媒体) の多量処理を行なうだ けでなく、 多種多様なフォーマツ トを有する帳票媒体を自動的に処理す ることが要求されている。
そこで、 例えば F I G . 1 1 5に示すような帳票処理装置 1 0 0 0を 用いることにより、 複数種類の帳票媒体について、 イメージデータ読取 装置を用いた帳票媒体の処理を行なうことができる。 即ち、 この F I G. 1 1 5において、 1 0 0 1は帳票についてのィメ —ジデータを読み取るイメージデータ読取装置であり、 このイメージデ 一夕読取装置 1 0 0 1は、 電子計算機 1 0 0 2に接続されて、 電子計算 機 1 0 0 2からの制御に基づいたイメージデータの読取動作を行なえる ようになつている。 なお、 このイメージデータ読取装置 1 0 0 1として は、 例えばイメージスキャナや F AXが用いられている。
また、 イメージデータ読取装置 1 0 0 1を制御する制御装置としての 電子計算機 1 0 0 2は、 オペレータからの命令, データ等を入力するキ 一ボードあるいはマウス等の入力部 (F I G. 1 1 5においてはキーボ 一ドのみ図示) 1 0 0 2— 1 , 計算機本体 1 0 0 2— 2及びデータある いは制御情報等を表示するディスプレイ 1 0 0 2— 3により構成されて いる。 なお、 イメージデータ読取装置 1 0 0 1により読み取られたィメ ージデータの文字認識処理は、 電子計算機本体 1 0 0 2— 2により行な われる。
さらに、 1 0 0 3はハードディスクであり、 このハー ドディスク 1 0
0 3は、 電子計算機 1 0 0 2に接続され、 例えば F I G. 1 1 6に示す ように、 予め帳票種類毎に認識すベき文字データの位置情報および文字 の種類、 桁数等を指定した情報 (以下 「定義体情報」 と称す) 1 0 0 3 A〜: L 0 0 3 C, …を格納しておく ものである。
なお、 上述のイメージデータ読取装置 1 0 0 1の代わりに、 F I G. 1 1 6, F I G. 1 1 7に示すような、 イメージデータ読取認識装置 1 0 0 5を用いることもできる。 このイメージ読取認識装置 1 0 0 5は、 イメージデータ読取装置 1 0 0 1と同様のイメージデータの読取動作を 行なうとともに文字認識をも行なうことができる
このイメージデータ読取認識装置 1 0 0 5を用いて、 例えば F I G. 1 1 6に示すように、 電気料金払込通知書 1 0 0 4上に記載された文字 データを認識する際には、 まず、 オペレータによるキーボー ド 1 0 0 2 一 1の操作により帳票種別 (この場合は電気料金払込通知書 (帳票 B ) 1 0 0 4に対応する定義体情報 1 0 0 3 B ) を指示する。
続いて、 電子計算機 1 0 0 2では、 ハードディスク 1 0 0 3のァクセ スを通じて、 指示された帳票の定義体情報 1 0 0 3 Bを引出してィメ一 ジデータ読取認識装置 1 0 0 5に通知する。
これにより、 イメージデータ読取認識装置 1 0 0 5では、 電子計算機 1 0 0 2からの制御情報としての定義体情報 1 0 0 3 Bに基づいて、 ィ メ―ジデータの読み取りと文字認識処理を行なうことができる。
しかしながら、 上述の F I G . 1 1 6に示すような帳票を処理する手 法においては、 オペレータの指示により読み取りたい帳票毎に定義体情 報を指示するので、 オペレータに負担がかるほか、 定義体が多くなると 指示を間違えたり、 数千種類もの帳票を処理することが要求される場合 にはオペレータが指示することは現実的に困難となる。
このため、 F I G . 1 1 7に示すように、 帳票 1 0 0 4の定められた 位置 1 0 0 4 aに、 予め帳票毎に異なった帳票を識別するための I D番 号 (この場合は ' 0 1 0 2 ' ) を記載しておく ことにより、 上述したよ うにオペレータが帳票種別を指示することなく、 自動的に帳票の読取処 理を行なう方法も考えられている。
この方法によれば、 イメージデータ読取認識装置 1 0 0 5にて帳票の イメージデータを読み取る際に、 最初に定められた位置 1 0 0 4 aに記 された I D番号を認識し、 続いて認識した I D番号に対応した定義体情 報 (この場合は 1 0 0 3 B ) を使用することにより、 文字認識を行なう ことができる。
ところが、 イメージデータを読み取る際に、 イメージデータ読取装置 1 0 0 1やイメージデータ読取認識装置 1 0 0 5等の光学的読取装置 (例えば帳票処理装置) において帳票等をセッ 卜する位置が変動すると- 例えばハードディスク 1 0 0 3に定義体情報が予め格納されている帳票 と同一の帳票が読み取られた場合でも、 文字データの領域や図形領域等 のイメージの基準点 (物理原点) からの座標が定義体情報におけるもの と同一にならないため、 帳票処理装置等においては、 同一のレイアウト ではないと判定される。
帳票処理装置等においては、 読み取られたイメージデータのレイァゥ トと定義体情報におけるレイァゥ卜とを一致させてからイメージデータ の文字認識を行なわないと、 文字認識処理が正常に行なわれないことが あるため、 まず各々のイメージの基準点を抽出して各々のイメージの基 準点からの座標を比較してレイァゥ卜の一致の判定を行なつている。
ここで、 イメージデータの基準点の抽出方法は、 以下の 2つの方法が 主流となっている。 なお、 前提条件として、 読み取り対象の帳票は予め 印刷された帳票であり、 用紙における帳票の印刷位置が高い精度で管理 されているものとする。
1つめの方法は、 F I G . 1 1 8 ( a ) に示すように、 読み取られる 帳票の用紙端面 1 0 0 6と読取背景 1 0 0 7とが識別できるようなィメ 一ジデータ読取装置により帳票のィメ一ジデータを読み取る場合には、 用紙端面 1 0 0 6の左上端位置 Pを基準点とするものである。
また、 2つめの方法は、 イメージスキャナや F A Xにより帳票のィメ ージデータを読み取る場合には、 F I G . 1 1 8 ( b ) に示すように、 読取背景 1 0 0 9と読み取られた用紙端面 1 0 0 8とが識別できないた め、 予め読み取り対象の帳票用紙に基準マーク Rを印刷しておき、 この 基準マーク Rをイメージデータから抽出して基準点とするものである。
この 2つめの方法においては、 予め基準点位置が基準マーク Rとして 印刷されているため、 読取装置に帳票をセッ 卜する位置が変動した場合 でも、 安定して基準点を抽出することが可能である利点がある。
ところが、 帳票処理装置等においては、 上述の方法により基準点が正 確に抽出された場合でも、 イメージデータの読取方向が正しい方向でな ければ、 イメージデータの文字記述方向が正しい方向とならないため、 文字認識処理を行なうことができない。
例えば F I G . 1 1 9に示すように、 横方向で情報が記述された振込 伝票 (帳票 C ) 1 0 1 0カ^ イメージデータ読取装置 1 0 0 1により誤 つた方向 (F I G . 1 1 9では縦方向) から読み取られた場合には、 読 み取られた振込伝票 1 0 1 0のイメージデータは、 ディスプレイ 1 0 0 2— 3に符号 1 0 1 0 Aで示すように誤った向きで表示される。
このため、 帳票処理装置等による文字認識処理の際には、 オペレータ が、 ディスプレイ 1 0 0 2— 3を目視して帳票の読み取り方向が正しい か否かを判断して、 帳票の読み取り方向が正しくない場合には、 読み取 られた帳票のイメージデータを 9 0度又は 1 8 0度回転させる指示をキ —ボー ド 1 0 0 2— 1から入力して、 帳票のィメージデータがディスプ レイ 1 0 0 2— 3に符号 1 0 1 0 Bで示すように正しい方向に表示され るように、 イメージデータの回転補正処理を行なう必要がある。
ところで、 従来より銀行での各口座への送金業務においては、 ォペレ 一夕が、 送金依頼表である帳票に記載されている口座番号, 氏名及び金 額等の情報を、 帳 処理装置 1 0 0 0のキーボ一ド 1 0 0 2— 1等から 入力しているが、 このとき、 オペレータは帳票とディスプレイ 1 0 0 2 一 3とを交互に目視して入力操作を行なっていた。
しかしながら、 このように帳票とディスプレイ 1 0 0 2— 3とを交互 に目視して入力操作を行なう場合には、 視線の移動が多くなるため、 視 認性が悪くなり、 帳票の項目と画面の項目との対応を誤るおそれがある という課題があった。 このため、 イメージデータ読取装置 1 0 0 1等で帳票を読み取って、 読み取られたイメージデータの文字認識結果とともにイメージデータそ のものをディスプレイ 1 0 0 2— 3に表示するような帳票処理装置が提 案されている。
これにより、 帳票に記載されている情報がディスプレイ 1 0 0 2— 3 上で直接見れるようになるため、 視線の移動が少なくなり、 文字認識結 果の確認及び修正の際の、 文字認識結果とイメージデータとの対応の誤 りを少なくすることができる。
一方で、 近年、 金融機関等においては、 クライアント—サーバシステ ムを用いて、 サーバで集中的且つ高速にデータ処理を行なう方式が主流 となっている。
例えば金融機関における各支店 (営業店) 毎に設置されたクライアン トと地区センタに設置されたサーバとを、 専用回線や交換回線等を介し て接続することにより、 クライアント一サーバシステムを構成して、 サ —バにより帳票処理を一括して行なうことにより、 業務の効率化を図る ことが提案されている。
このようにサーバにより帳票処理を一括して行なう際には、 サーバに 集中するデータ量が膨大になることから、 サーバでの帳票処理をォペレ 一夕が行なうことは不可能となるため、 オペレータが介在することなく、 サーバが自動的に is票処理を行なうようなシステムを設計する必要があ る
そこで、 F I G . 1 1 7を用いて説明したような、 I D番号が記載さ れた帳票を用いた帳票識別処理をこのクライアン卜—サーバシステムに 適用すれば、 サーバが自動的に帳票種別を識別して帳票の読取処理を行 なうことができる。
また、 このクライアン卜一サーバシステムでのクライアン卜において も、 前述したように、 イメージデータ読取装置により読み取られたィメ —ジデータの文字認識結果とともに、 イメージデータそのものをディス プレイに表示させることにより、 帳票に記載されている情報をディスプ レイ上で直接見れるようにして、 文字認識結果の確認及び修正の際の文 字認識結果とイメージデータとの対応の誤りを少なくすることができる c しかしながら、 上述の F I G . 1 1 7に示すような帳票を処理する手 法においては、 読み取り可能な帳票媒体は、 その帳票処理装置専用に作 成された帳票媒体のみであり、 従来から使用している一般的な帳票を使 用することができないため、 この場合は新たに専用の帳票を作成しなけ ればならないという課題がある。
また、 上述の F I G . 1 1 8 ( a ) を用いて説明したような、 1つめ の基準点抽出方法においては、 用紙における帳票の印刷位置が高い精度 で管理されている必要があるが、 例えばヮードプロセッサ等により印字 された帳票の場合には、 手動により用紙を設定すると印字する度に印字 位置が変動することが多いため、 このような場合には用紙端面 1 0 0 6 の左上端位置 Pを基準点とすることは適当ではないという課題がある。 さらに、 上述の F I G . 1 1 8 ( b ) を用いて説明したような、 2つ めの基準点抽出方法においては、 読み取り対象の帳票は基準マーク が 印字された専用帳票であり、 基準マーク Rの印刷されていない一般の幔 票については基準点を抽出することができないという課題がある。
また、 文書リーダ等の認識技術で採用されている、 帳票内の表の特定 点を基準点として使用する方式の場合にも、 認識対象帳票のレイァゥ ト がある程度特定できない場合には有効に機能しないという課題がある。 なお、 以前イメージが読み取られた帳票と同一の帳票を、 再度読み取 つた場合でも、 イメージ読み取り時のゴミゃ掠れ等により、 読み取られ たイメージが以前のものと同一のものとはならないこともあり、 このよ うな場合には同一の基準点が抽出されないこともある。
さらに、 上述の F I G . 1 1 9を用いて説明したような、 イメージデ 一夕の回転補正処理をサーバにおいて自動的に行なうためには、 実際に 読み取られたイメージデータの文字認識を行ない、 文字認識が可能であ るか否かにより帳票の読取方向の正誤の判断を行なわなければならず、 業務の効率化を著しく妨げるという課題がある。
また、 上述したようなイメージデータの文字認識結果とイメージデー 夕そのものをディスプレイに表示させて、 文字認識結果の確認及び修正 を行なう方法においては、 イメージデータと確認項目との対応は目視に よって行なわれるため、 イメージデータ中に確認すべき項目が多い場合 にはやはり誤認識は避けられないという課題がある。
さらに、 イメージデータを一度にディスプレイに表示できない場合に は、 後方のデータを参照するために、 表示画面をスクロールさせる必要 があるが、 このとき所要のキーを押下することにより、 スクロール操作 を行なわなければならず、 操作が煩雑になるという課題がある。
本発明は、 このような課題に鑑み創案されたもので、 従来から使用し ている一般的な帳票であり、 私製伝票等のように多種多様なフォーマツ 卜を有する帳票の処理を行なえるようにした、 媒体処理装置及び媒体処 理方法を提供することを目的とする。
また、 本発明は、 普通紙にワードプロセッサ等で印字したような帳票 についても、 従来のような用紙端面や基準マーク等を用いることなく、 印字された帳票のイメージデータにおける基準点の抽出処理を常に安定 且つ自動的に行なえるようにした、 媒体処理方法を提供することを目的 とする。
さらに、 本発明は、 イメージデータ読取装置で読み取られたイメージ データの回転補正処理を自動的に行なえるようにした、 媒体処理方法を 提供することを目的とする。
また、 本発明は、 イメージデータの一部分をあらかじめ定義されてい る情報をもとにして、 強調表示を行なうことにより、 認識性を高め、 ス ムーズな確認及び修正処理を行なえるようにした、 媒体処理装置及び媒 体処理方法を提供することを目的とする。
さらに、 本発明は、 帳票単位又は項目単位のイメージデータから文字 単位としての文字イメージを抽出し、 この文字イメージを編集すること により、 視線の移動及び比較する対象を少なくするとともに、 精度の高 い確認を行なえるようにして、 正誤の確認作業に要する労力及び時間を 大幅に削減できるようにした、 媒体処理装置及び媒体処理方法を提供す ることを目的とする。 発明の開示
このため、 本発明の媒体処理装置は、 任意のフォーマツ 卜で情報が記 入された媒体から読み取ったイメージに基づいて、 該情報の認識を行な う媒体処理装置であって、 読み取ったイメージデータから、 該フォーマ ッ トを含む媒体固有の特徴を抽出し、 該特徴から認識すべき情報の存在 する位置を特定する手段と、 この手段で特定された位置でのイメージを 認識して、 該情報を判別するイメージ認識手段とを備えて構成されたこ とを特徴としている。
即ち、 本発明の媒体処理装置は、 任意のフォーマツ 卜で情報が記入さ れた媒体から読み取ったイメージに基づいて、 該情報の認識を行なう媒 体処理装置であって、 読み取ったイメージのレイァゥ卜の特徴を抽出し て、 該レイァゥ卜の構成を解析し、 該抽出した特徴により、 該レイァゥ トを論理的に表現するレイァゥ卜解析処理部と、 候補レイァゥ卜を記憶 している候補レイァゥ卜記憶部と、 該レイァゥト解析処理部で抽出され た該レ ァゥ 卜の特徴を制約検索条件として、 該候補レイァゥ卜記憶部 から該候補レイァゥトを検索することにより、 一致している候補レイァ ゥ卜があるかどうかを照合するレイァゥ卜照合処理部とをそなえて構成 されたことを特徴としている。
ここで、 該レイァゥ卜解析処理部でのレイァゥ卜解析処理に先立って、 認識対象となるイメージに対して所要の前処理を施す解析前処理部が設 けられてもよい。
また、 該レイァゥト解析処理部が、 該イメージのレイァゥ卜の特徴を 抽出するレイァゥ卜特徴抽出部と、 該レイァゥト特徴抽出部で抽出され た該レイァゥ卜の特徴に基づいて該レイァゥ卜の構成を解析するレイァ ゥト解析部とを少なくとも含んで構成されている。
さらに、 該レイァゥ卜解析処理部が、 該レイァゥ卜の特徴を抽出して から、 該レイァゥ卜の論理的な原点を抽出するように構成されるととも に、 該レイァゥト照合処理部が、 該レイァゥト解析処理部で抽出された 論理的な原点を基準にして、 一致している候補レイァゥ卜があるかどう かを照合するように構成されている。
ここで、 該レイァゥ卜が羅線により構成される表構造を有している場 合には、 該レイァゥ卜特徴抽出部が、 該レイァゥトの鄞線を抽出する鄞 線抽出部をそなえるとともに、 該レイァゥト解析部が該レイァゥト特徵 抽出部で抽出された該レイァゥトの鄞線に基づいて該驛線により構成さ れる表構造を解析する表構造解析部をそなえており、 該レイァゥ卜が羅 線を持たない無 線表構造を有している場合には、 該レイァゥト特徵抽 出部が、 該レイァゥ卜の項目データを抽出する項目データ抽出部をそな えるとともに、 該レイァゥト解析部が該レイァゥト特徴抽出部で抽出さ れた該レイァゥ卜の項目データに基づいて該無^線表構造を解析する表 構造解析部をそなえている。 さらに、 該レイァゥ 卜解析処理部を、 該イメージ中の見出し領域を決 定して、 この見出し領域中の見出し項目情報を認識して、 対応する項目 データを決定するように構成してもよい。
また、 該候補レイァゥ 卜記憶部を、 圧縮した候補レイァゥ 卜情報を記 憶するように構成するとともに、 該レイァゥ ト照合処理部を、 該レイァ ゥ ト解析処理部で抽出された該レイァゥ 卜の特徴を圧縮処理し、 この圧 縮したレイァゥ 卜の特徴を制約検索条件として、 該候補レイァゥ 卜記憶 部から該圧縮した候補レイァゥ 卜を検索することにより、 一致している 候補レイアウ トがあるかどうかを照合するように構成してもよい。
さらに、 該候補レイァゥ ト記憶部が、 候補レイァゥ ト情報を学習によ り更新していくように構成されてもよい。
上述の構成により、 本発明の媒体処理装置は、 情報存在位置特定ステ ップで、 読み取ったイメージデータから該フォーマツ トを含む媒体固有 の特徴を抽出して該特徴から認識すべき情報の存在する位置を特定して、 イメージ認識ステップで、 情報存在位置特定ステップで特定された位置 でのイメージを認識して該情報を判別することにより、 任意のフォーマ ッ 卜で情報が記入された媒体から読み取ったイメージに基づいて該情報 の認識を行なう。
即ち、 本発明の媒体処理装置は、 レイアウ ト解析処理ステップで、 読 み取ったイメージのレイァゥ 卜の特徴を抽出して該レイァゥ 卜の構成を 解析し該抽出した特徴により該レイァゥ 卜を論理的に表現して、 レイァ ゥ ト照合処理ステップで、 該レイァゥ 卜解析処理ステップで抽出された 該レイァゥ 卜の特徴を制約検索条件として候補レイァゥ 卜記憶部に記憶 されている候補レイァゥ 卜を検索することにより一致している候補レイ ァゥ 卜があるかどうかを照合することにより、 任意のフォーマツ 卜で情 報が記入された媒体から読み取ったイメージに基づいて該情報の認識を 行なう。
また、 該レイァゥ卜解析処理ステップで、 該レイァゥ 卜の特徴を抽出 してから該レイァゥ卜の論理的な原点を抽出するとともに、 該レイァゥ 卜照合処理ステップで、 該レイァゥ 卜解析処理ステップで抽出された論 理的な原点を基準にして該情報を判別してもよい。
さらに、 該レイァゥト解析処理ステップで、 読み取ったイメージのレ ィアウトが所定の方向であるかどうかを判定してこの判定結果に基づき 該レイアウトが所定の方向となるように読み取つたィメージデータを変 換してもよく、 該読み取ったイメージデータの変換処理として該レイァ ゥ トを回転させるような処理を施してもよい。
ここで、 該レイァゥ卜が鄞線により構成される表構造を有している場 合には、 該レイァゥ卜解析処理ステップで、 該レイァゥ卜の^線を抽出 してこの抽出された該レイァゥ卜の^線に基づいて該鄞線により構成さ れる表構造を解析し、 該レイァゥ卜が^線を持たない無鄞線表構造を有 している場合には、 該レイァゥト解析処理ステップで、 該レイァゥ卜の 項目データを抽出してこの抽出された該レイァゥ卜の項目データに基づ いて該無 S線表構造を解析する。
さらに、 該レイァゥト解析処理ステップで、 該イメージ中の見出し領 域を決定しこの見出し領域中の見出し項目情報を認識して対応する項目 データを決定してもよい。
また、 圧縮した候補レイァゥト情報を該候補レイァゥト記憶部に記憶 するように構成されているときは、 該レイァゥト照合処理ステップで、 該レイァゥト解析処理ステップで抽出された該レイァゥ卜の特徴を圧縮 して圧縮したレイァゥ卜の特徴を制約検索条件として該候補レイァゥ卜 記憶部から圧縮した候補レイァゥ卜を検索し検索結果に基づいて一致し ている候補レイァゥ卜があるかどうかを照合する。 さらに、 該候補レイァゥ 卜記憶部において、 該候補レイァゥ 卜情報を 学習により更新してもよい。
従って、 本発明の媒体処理装置によれば、 日常発生する様々な帳票や 帳票イメージを電子的に自動解析することにより、 従来のェントリシス テム (0 C Rエントリシステムやデータエントリシステム等) を利用し たェントリ業務を飛躍的に効率化することができる利点がある。
また、 各種任意帳票のレイアウ ト認識結果に基づいて、 レイアウ ト口 グ情報を作成して候補レイァゥ 卜記憶部に学習登録することにより、 以 降は自動的に同一レイァゥ トを有する帳票の判別が可能となるため、 専 用帳票作成にかかる労力やコストを削減するとともに、 学習後はすぐに ェントリが可能となるため、 本装置によるシステムの導入期間の短縮を 図ることができる。
さらに、 帳票のイメージデータを常に解析処理しているため、 裁断誤 差や印刷誤差の少ない高価な専用 0 C R帳票以外の帳票の自動認識処理 を行なうことができる。
また、 本発明の媒体処理方法は、 任意のフォーマツ 卜で情報が記入さ れた媒体から読み取ったィメージに基づいて該情報の認識を行なう媒体 処理方法であって、 該フォーマツ 卜の論理的な原点を抽出する論理原点 抽出ステップと、 このステップで抽出された論理的な原点を基準にして 該フォーマツ 卜を含む媒体固有の特徴を抽出し該特徴から認識すべき情 報の存在する位置を特定する情報存在位置特定ステップと、 このステツ プで特定された位置でのィメ一ジを認識する際に該論理原点抽出ステツ プで抽出された論理的な原点を基準にして該情報を判別するイメージ認 識ステップとを備えて構成されたことを特徴としている。
そして、 該論理原点抽出ステップにおいて、 該フォーマツ 卜の論理的 な原点を抽出するほかに該論理的な原点に対して補助的な情報を付与す P96/02150 る論理原点補助座標情報を抽出するとともに、 該イメージ認識ステップ において、 上記の論理的な原点及び論理原点補助座標情報を基準にして 該情報を判別してもよい。
ここで、 該レイァゥ卜が蘇線により構成される表構造を有している場 合には、 該フォーマツ 卜の論理的な原点として、 該表構造を構成する角 部のうちの一つの角部に関連する座標情報を抽出する。
また、 このとき、 該論理原点補助座標情報として、 残りの角部に関連 する座標情報を抽出してもよい。
具体的には、 該レイァゥ 卜が 線により構成される表構造を有してい る場合には、 該フォーマツ 卜の論理的な原点として、 該表構造を構成す る角部のうち最小 X座標, 最小 Y座標を有する角部の座標情報を抽出す る o
また、 このとき、 該論理原点補助座標情報として、 それぞれ最大 X座 標, 最小 Y座標を有する角部、 最小 X座標, 最大 Y座標を有する角部、 最大 X座標, 最大 Y座標を有する角部の座標情報を抽出してもよい。 さらに、 該レイァゥトが羅線を持たない無鄴線表構造を有している場 合には、 該フォーマツ 卜の論理的な原点として、 該レイァゥト中の項目 データの外接矩形の角部のうちの一つの角部に関連する座標情報を抽出 する。
また、 このとき二 該論理原点補助座標情報として、 該外接矩形の残り の角部に関連する座標情報を抽出してもよい。
具体的には、 該レイァゥトが鄞線を持たない無雾線表構造を有してい る場合には、 該フォーマツ 卜の論理的な原点として、 該外接矩形の角部 のうち最小 X座標, 最小 Y座標を有する角部の座標情報を抽出する。 また、 このとき、 該論理原点補助座標情報として、 該外接矩形におけ る最大 X座標, 最小 Y座標を有する角部、 最小 X座標, 最大 Y座標を有 する角部、 最大 X座標, 最大 Y座標を有する角部の座標情報を抽出して もよい。
従って、 本発明の媒体処理方法によれば、 イメージデータから抽出さ れた鄙線項目や項目データに基づいて処理対象の帳票のレイァゥト解析 を行ない、 レイアウト解析により得られた領域の角部の座標のうちの所 定の座標を論理原点座標及び補正座標とすることにより、 基準マーク等 が印字された専用帳票以外の一般帳票のイメージデータからでも論理原 点座標及び補正座標を抽出することができる利点がある。
また、 論理原点抽出時に、 論理原点の付加情報として補正座標を同時 に抽出することにより、 レイアウト照合処理での論理原点の照合時に、 確実に一致を取ることが可能となる。
即ち、 論理原点座標が加味された補正座標の相対座標を照合すること を通じて論理原点の照合を行なつているので、 ィメ一ジ読み取り時の位 置ズレが起こった場合でも確実にレイァゥ卜の照合処理を行なえるよう になる。
さらに、 本発明の媒体処理方法は、 任意のフォーマツ 卜で情報が記入 された媒体から読み取ったイメージに基づいて該情報の認識を行なう媒 体処理方法であって、 読み取ったイメージデータから該フォーマツ トを 含む媒体固有の特徴を抽出して該特徴を圧縮処理したのち、 この圧縮処 理した特徴を制約 ¾索条件として記憶部に記憶されている参照圧縮情報 を検索し一致している参照圧縮情報があるかどうかを照合し、 その後こ の照合結果に基づき特定された位置でのイメージを認識して該情報を判 別することを特徴としている。
ここで、 該特徴の圧縮処理に先立って、 上記読み取ったイメージデー タについて斜行補正及び歪み補正処理を施してもよい。
また、 該特徴の圧縮処理に際して、 上記読み取ったイメージデータに ついて、 線項目を構成する水平鄞線を参照して該羅線項目の上側^線 が同一羅線を共有する鄞線項目に対して同一 Y座標化処理を施すととも に、 上記読み取ったイメージデータについて、 線項目を構成する垂直 線を参照して該 線項目の左側葑線が同一露線を共有する羅線項目に 対して同一 X座標化処理を施す。
さらに、 該特徴の圧縮処理に際して、 該特徴を相当するビッ 卜列に変 換しこのビッ ト列を圧縮処理してこれをマトリックステーブルとして設 . ~9 る。
従って、 本発明の媒体処理方法によれば、 レイアウトの構成要素の一 つである鄞線項目のレイァゥ トを圧縮処理してマ卜リックステーブルと して表現し、 レイァゥ卜の照合時にそのマトリックステーブル同士を照 合することにより、 レイァゥト照合処理速度が露線項目の数に依存せず、 照合対象レイァゥト数に直線的に比例するだけになり、 大量の帳票のレ ィァゥ卜の照合処理を高速に行なうことができる利点がある。
また、 鄞線項目のレイァゥ卜が反映されたビッ トテ一ブルの圧縮処理 に先立って、 読み取られたイメージデータについて、 斜行補正及び歪み 補正処理を施すとともに、 各鄞線項目に対して同一 Y座標化処理及び同 一 X座標化処理を施すことにより、 イメージデータの読み取り時に生じ るレイァゥ卜の変動を吸収することができる。
また、 本発明の媒体処理方法は、 任意のフォーマツ 卜で情報が記入さ れた媒体から読み取ったィメ一ジに基づいて該情報の認識を行なう媒体 処理方法であって、 読み取ったイメージのレイァゥ卜の特徴を抽出して 該レイァゥ卜の構成を解析したあと解析されたレイァゥ ト構成をディス プレイ上に表示して、 この表示されたレイァゥ卜構成について、 所定の 特徴データ認識領域を設定してこの領域内の標章情報に対応するコード データを外部入力装置を通じて入力し、 更に上記の特徴データ認識領域 とコードデータとから領域特徴データを作成してこの領域特徴データを 上記で解析されたレイァゥ ト構成とをリ ンクさせて登録する登録ステツ プと、 その後別に読み取ったイメージの特徴を抽出してレイァゥ 卜の構 成を解析したあと、 該登録ステップで登録された領域特徴データとレイ ァゥ 卜構成とを参照データとして検索し一致するものがあるかどうかを 照合する照合ステップとをそなえて構成されたことを特徴としている。
ここで、 該登録ステップにて上記領域内の標章情報に対応するコード データを入力する際に、 該標章情報に対応する意味付けをもったコード データを入力する。
従って、 本発明の媒体処理方法によれば、 文字認識装置と同様の領域 イメージ特徴抽出機構及び特徴照合機構を機能拡張して、 レイァゥ ト認 識システムと組み合わせることにより、 指定された領域における任意の 図形ィメ一ジの認識処理をレイァゥ ト認識処理と連動して行なうことが 可能となる。
また、 照合対象の領域特徴データがレイアウ ト情報にリ ンクして記録 されるため、 レイァゥ ト単位で照合対象を限定することが可能となり、 これにより、 通常の文字認識装置のように大量の照合処理を行なう必要 がなくなるとともに、 高い認識率を実現することが可能となる。
さらに、 ゴム印やサイン等の項目を特徴データ認識項目として指定す れば、 通常の文字認識では認識できないゴム印やサイン等の項目を認識 することができ、 ゴム印やサイン等の項目の特徴領域の認識結果として 対応するコードデータを取得することができる。
また、 本発明の媒体処理方法は、 任意のフォーマツ 卜で情報が記入さ れた媒体から読み取ったイメージに基づいて該情報の認識を行なう媒体 処理方法であって、 読み取ったイメージのレイァゥ 卜の特徴を抽出して 該レイァゥ 卜の構成を解析し、 該抽出した特徴により該イメージ中の見 /, 出し領域を決定し、 この見出し領域中の見出し項目情報を認識して対応 する項目データを決定して該レイァゥトを論理的に表現するレイアウト 解析処理ステップと、 該レイァゥ 卜解析処理ステップで抽出された該レ ィァゥ卜の特徴を制約検索条件として候補レイァゥト記憶部に記憶され ている候補レイァゥトを検索することにより一致している候補レイァゥ 卜があるかどうかを照合するレイァゥト照合処理ステップとをそなえて 構成されたことを特徴としている。
そして、 該レイァゥト解析処理ステップが、 該レイァゥ卜の構成解析 結果に基づいて見出し位置候補を決定する見出し位置候補決定ステツプ と、 このステップで決定された見出し位置候補に対し該見出し領域中の 該見出し項目情報を照合する見出し項目照合ステップとを含んでいるこ とを特徴としている。
また、 該見出し項目照合ステップでの見出し項目の照合に際し、 照合 させるべきイメージデータに正規化処理を施してから見出し項目の照合 処理を施してもよい。
従って、 本発明の媒体処理方法によれば、 解析対象の帳票イメージの 鄴線項目構成から見出し位置を探索照合して、 帳票上に記載された見出 しと対応する項目情報を自動的に解析する見出し解析処理を行なうこと により、 レイァゥト認識処理により見出し項目及び見出し項目と対応す る項目データが識別できるので、 見出し項目の文字認識処理を行なうこ となく直ちに項目デ一夕の文字認識を行なうことができる利点がある。 また、 本発明の媒体処理装置は、 フォーマツ 卜に所要の情報が記入さ れた媒体としての帳票についてそのィメージデータを読み取るイメージ データ読取装置と、 該イメージデータ読取装置によって読み取られた帳 票のイメージデータを格納するイメージデータ格納メモリと、 該ィメ一 ジデータ格納メモリに格納された該帳票のイメージデータから該帳票上 O /05 1 CT/JP96/02150 に記載されている所要の帳票識別情報を抽出する帳票識別情報抽出手段 と、 該帳票識別情報抽出手段で抽出された該帳票識別情報を特定帳票の 帳票識別情報として登録する帳票識別辞書と、 該イメージデータ読取装 置によって読み取られ該イメージデータ格納メモリに格納された任意の 帳票のイメージデータ中に該帳票識別辞書に登録されている該帳票識別 情報があるかどうかを参照する参照手段と、 該参照手段での参照結果に 基づいて該任意の帳票が該特定帳票であるかどうかを識別する帳票識別 手段とをそなえたことを特徴としている。
さらに、 本発明の媒体処理装置は、 フォーマツ 卜に所要の情報が記入 された媒体としての帳票についてそのイメージデータを読み取るィメー ジデータ読取装置と、 該イメージデータ読取装置によって読み取られた 帳票のイメージデータをそれぞれ格納するイメージデータ格納メモリ及 びファイルメモリと、 該イメージデータ格納メモリに格納された該帳票 のイメージデータから該帳票上に記載されている所要の帳票識別情報を 抽出する帳票識別情報抽出手段と、 該帳票識別情報抽出手段で抽出され た該帳票識別情報を特定帳票の帳票識別情報として登録する帳票識別辞 書と、 該ファイルメモリに格納されている該特定帳票のイメージデータ を読み出し該特定帳票のイメージデータ中に該帳票識別辞書に登録され て 、る該帳票識別情報があるかどうかを検証する検証手段と、 該検証手 段での検証結果に基づいて該特定帳票の認識ができるかどうかを判定す る判定手段と、 該イメージデータ読取装置によって読み取られ該ィメ一 ジデータ格納メモリに格納された任意の帳票のイメージデータ中に該帳 票識別辞書に登録されている該帳票識別情報があるかどうかを参照する 参照手段と、 該参照手段での参照結果に基づいて該任意の帳票が該特定 帳票であるかどうかを識別する帳票識別手段とをそなえたことを特徴と している。 ここで、 該参照手段が該検証手段を兼用するとともに、 該帳票識別手 段が該判定手段を兼用してもよい。
上述の構成により、 本発明の媒体処理装置は、 イメージデータ読取装 置によって読み取られたところのフォーマツ 卜に所要の情報が記入され た媒体としての特定帳票のイメージデータから該特定帳票上に記載され ている帳票識別情報を抽出して該帳票識別情報を帳票識別辞書に登録し、 その後任意の帳票のイメージデータをイメージデータ読取装置によって 読み取り、 この任意の帳票のイメージデータ中に該帳票識別辞書に登録 されている該帳票識別情報があるかどうかを参照することにより該任意 の帳票が該特定帳票であるかどうかを識別する。
また、 本発明の媒体処理装置は、 イメージデータ読取装置によって読 み取られたところのフォーマツ 卜に所要の情報が記入された媒体として の特定帳票のイメージデータから該特定帳票上に記載されている帳票識 別情報を抽出して該帳票識別情報を帳票識別辞書に登録し、 その後再度 該特定帳票のイメージデータを入力して、 該入力された特定帳票のィメ 一ジデ一タ中に該帳票識別辞書に登録されている該帳票識別情報がある かどうかを検証することにより該特定帳票の認識ができるかどうかを判 定して、 該特定帳票の認識ができた場合に任意の帳票のイメージデータ をィメ一ジデータ読取装置によって読み取り、 この任意の帳票のィメー ジデータ中に該帳票識別辞書に登録されている該帳票識別情報があるか どうかを参照することにより該任意の帳票が該特定帳票であるかどうか を識別する。
ここで、 該帳票識別情報を帳票識別辞書に登録する際においては、 該 ィメージデータ読取装置によつて読み取られた該特定帳票のィメ一ジデ 一夕をディスプレイ上に表示し、 この表示された該特定帳票のイメージ データについて該特定帳票上に記載されている該帳票識別情報のィメー ジを含む領域を指定することにより該帳票識別情報を抽出してもよい。 また、 該帳票識別情報を帳票識別辞書に登録する際においては、 該ィ メ―ジデータ読取装置によって読み取られた該特定帳票のイメージデー 夕から、 該特定帳票上に記載されている特定の帳票識別情報を自動的に 抽出してもよい。
さらに、 該帳票識別情報を帳票識別辞書に登録する際において、 該帳 票識別情報の該帳票識別辞書への登録時に登録時に読み取った該特定帳 票のイメージデータを記憶しておき、 該入力された特定帳票のイメージ データ中に該帳票識別辞書に登録されている該帳票識別情報があるかど うかを検証する際において、 この記憶された該特定帳票のイメージデ一 夕を再度該特定帳票のィメ一ジデータとして入力して、 該入力された特 定帳票のイメージデータ中に該帳票識別辞書に登録されている該帳票識 別情報があるかどうかを検証することにより該特定帳票の認識ができる かどうかを判定してもよい。
従って、 本発明の媒体処理装置によれば、 イメージデータ読取装置で イメージデータを読み取つた帳票の種別を自動識別することができるの で、 イメージ読取装置にて読み取るべき帳票が複数種類混在していても, オペレータは帳票毎の定義体を意識することなく処理することができ、 作業の効率化を図ることができる利点があるほか、 帳票自体の識別用の I D番号等を記載しておく必要がなく、 一般的な帳票を用いることがで き、 既存のシステムに対して容易に適応することができる利点もある。 また、 オペレータが指定した帳票識別情報が正しいか否かを検証する ことができるので、 帳票の誤判別が皆無となり、 装置の信頼性が向上す る利点がある。
さらに、 参照手段が検証手段を兼用するとともに、 帳票識別手段が判 定手段を兼用していることにより、 装置構成を簡素なものとすることが できる利点がある。
さらに、 本発明の媒体処理装置は、 標章情報を有する媒体のイメージ を読み取るィメ一ジ読み取り部と、 該ィメ一ジ読み取り部で読み取られ た該ィメ一ジ中の標章ィメ一ジ情報を認識してこの標章ィメ一ジ情報に 対応するコード情報に変換する標章認識部とをそなえるとともに、 上記 標章イメージ情報を読み取ったイメージの状態で表示するディスプレイ と、 上記標章イメージ情報を対応するコード情報に変換できなかった場 合はこの変換できなかった認識不能標章ィメ一ジ情報を該認識不能標章 イメージ情報と連関する標章イメージ情報とともに該ディスプレイ上に 読み取ったイメージの状態で表示させる読み取り標章イメージ表示制御 部をそなえ、 該読み取り標章イメージ表示制御部が、 該認識不能標章ィ メ一ジ情報については強調表示を施す強調表示手段をそなえていること を特徴としている。
ここで、 該認識不能標章ィメ一ジ情報に対応する正解データを入力す るデータ入力装置をそなえ、 該データ入力装置の操作により該正解デー 夕を入力すると該正解データを該ディスプレイ上の認識不能標章ィメー ジ情報表示ェリアとは別の正解データ表示ェリァに表示させる正解デー 夕表示手段を設けている。
また、 該データ入力装置の操作により該正解データを入力すると、 今 まで強調表示されていた該認識不能標章イメージ情報については修正済 みを意味する別の強調表示に変更する強調表示変更手段を設けてもよい さらに、 該正解データ表示手段により、 該正解データが該ディスプレ ィ上の認識不能標章ィメ一ジ情報表示ェリアとは別の正解データ表示ェ リアに表示されると、 今まで強調表示されていた該認識不能標章ィメ一 ジ情報については修正済みを意味する別の強調表示に変更する強調表示 変更手段を設けてもよい。 即ち、 本発明は、 標章情報を有する媒体のイメージを読み取りこの読 み取られたィメージ中の標章ィメ一ジ情報を認識してこの標章ィメ一ジ 情報を対応するコ一ド情報に変換するものであって、 上記標章イメージ 情報を対応するコ一ド情報に変換できなかった場合は、 この変換できな かつた認識不能標章ィメ一ジ情報を該認識不能標章ィメ一ジ情報と連関 する標章イメージ情報とともにディスプレイ上に読み取ったイメージの 状態で表示するとともに該認識不能標章ィメ一ジ情報については強調表 示を施し、 その後該認識不能標章イメージ情報に対応する正解データを データ入力装置の操作により入力すると、 今まで強調表示されていた該 認識不能標章イメージ情報については修正済みを意味する別の強調表示 が施されるとともに該正解データに基づいて認識不能標章情報が修正さ れることを特徴としている。
つまり、 本発明の媒体処理装置は、 標章情報を有する媒体のイメージ を読み取るイメージ読み取り部と、 該ィメージ読み取り部で読み取られ た該ィメ一ジ中の標章ィメ一ジ情報を認識してこの標章ィメ一ジ情報に 対応するコ一ド情報に変換する標章認識部とをそなえるとともに、 上記 標章ィメージ情報を読み取ったィメージの状態で表示するディスプレイ と、 上記標章イメージ情報を対応するコード情報に変換できなかった場 合は、 この変換できなかった認識不能標章イメージ情報を該認識不能標 章イメージ情報と連関する標章イメージ情報とともに該ディスプレイ上 に、 読み取ったィメ一ジの状態で表示させる読み取り標章ィメ一ジ表示 制御部と、 該認識不能標章イメージ情報については強調表示を施す強調 表示手段と、 該認識不能標章ィメ一ジ情報に対応する正解データを入力 するデータ入力装置と、 該データ入力装置の操作により該正解データを 入力すると、 今まで強調表示されていた該認識不能標章イメージ情報に ついては修正済みを意味する別の強調表示に変更する強調表示変更手段 と、 該データ入力装置の操作により該正解データを入力すると、 該正解 データに基づいて認識不能標章情報を修正する認識情報修正手段とをそ なえて構成されたことを特徴としているのである。
上述の構成により、 本発明の媒体処理装置は、 標章情報を有する媒体 のイメージを読み取りこの読み取られたイメージ中の標章イメージ情報 を認識してこの標章イメージ情報を対応するコード情報に変換する際に- 上記標章イメージ情報を対応するコード情報に変換できなかった場合は- この変換できなかつた認識不能標章ィメ一ジ情報を該認識不能標章ィメ ージ情報と連関する標章イメージ情報とともにディスプレイ上に読み取 つたイメージの状態で表示するとともに、 該認識不能標章イメージ情報 については強調表示を施す。
また、 該認識不能標章イメージ情報に対応する正解データをデータ入 力装置の操作により入力すると、 該正解データが該ディスプレイ上の認 識不能標章イメージ情報表示エリアとは別の正解データ表示エリァに表 示される。
さらに、 該認識不能標章イメージ情報に対応する正解データをデータ 入力装置の操作により入力すると、 今まで強調表示されていた該認識不 能標章イメージ情報については修正済みを意味する別の強調表示が施さ れる。
また、 該認識不能標章イメージ情報に対応する正解データをデータ入 力装置の操作により入力すると、 該正解データが該ディスプレイ上の認 識不能標章ィメ一ジ情報表示ェリアとは別の正解データ表示ェリアに表 示されるとともに、 今まで強調表示されていた該認識不能標章イメージ 情報については修正済みを意味する別の強調表示が施される。
従って、 本発明の媒体処理装置によれば、 上記標章イメージ情報を対 応するコード情報に変換できなかった場合は、 この変換できなかった認 識不能標章ィメ一ジ情報を該認識不能標章ィメ一ジ情報と連関する標章 イメージ情報とともに、 ディスプレイ上に、 読み取ったイメージの状態 で表示するとともに、 該認識不能標章ィメ一ジ情報については強調表示 を施すことにより、 標章ィメ一ジ情報が例えばくせ字等のため認識不能 である場合でも、 続き文字のような前後の文字のイメージ情報を参照す ることにより、 精度の高い確認作業が行なうことができるとともに、 正 誤の確認作業に要する労力及び時間を削減することができる利点がある c また、 該認識不能標章イメージ情報に対応する正解データをデータ入 力装置の操作により入力すると、 該正解データが該ディスプレイ上の認 識不能標章ィメ一ジ情報表示ェリァとは別の正解データ表示ェリアに表 示することにより、 標章イメージ情報と入力した正解データとを目視に より再確認することができ、 正誤の確認作業に要する労力及び時間を削 減するとともに、 精度の高い確認作業が行なうことができる利点がある さらに、 該認識不能標章イメージ情報に対応する正解データをデータ 入力装置の操作により入力すると、 該正解データが該ディスプレイ上の 認識不能標章ィメ一ジ情報表示ェリアとは別の正解デ一タ表示ェリァに 表示されるとともに、 今まで強調表示されていた該認識不能標章ィメ一 ジ情報については修正済みを意味する別の強調表示が施されることによ り、 標章イメージ情報と入力した正解データとを目視により再確認する ことができ、 精度'の高い確認作業が行なうことができるとともに、 認識 不能標章の入力及び誤認識標章の修正が行なわれたものと行なわれてい ないものとの識別が容易になり、 視認性を高めてオペレータの二重修正 等を防ぎ、 正誤の確認作業に要する労力及び時間を大幅に削減すること ができる利点がある。
さらに、 本発明の媒体処理装置は、 標章情報を有する媒体のイメージ を読み取るィメージ読み取り部と、 該ィメ一ジ読み取り部で読み取られ たイメージ中の標章イメージ情報を認識してこの標章イメージ情報に対 応するコード情報に変換する標章認識部とをそなえるとともに、 上記標 章ィメージ情報を読み取ったィメージの状態で表示するディスプレイと、 該イメージ中におけるコ一ド情報に変換されるべき最小構成単位の標章 ィメージ情報を該最小構成単位の標章ィメ一ジ情報毎に抽出する最小構 成単位標章ィメ一ジ情報抽出部と、 該最小構成単位標章ィメ一ジ情報抽 出部で抽出された該最小構成単位の標章ィメ一ジ情報をこの標章ィメ一 ジ情報を変換したコード情報の意味する標章情報に対応させて表示させ る最小構成単位標章イメージ表示制御部とをそなえて構成されたことを 特徴としている。
ここで、 該最小構成単位標章イメージ表示制御部が、 同種の最小構成 単位の標章ィメージ情報をこの標章ィメ一ジ情報を変換したコード情報 の意味する標章情報に対応させて複数個表示させる機能を有するととも に、 所望の 1つの標章ィメ一ジ情報についてのみ強調表示を行なう強調 表示手段をそなえていてもよい。
また、 該 1つの標章ィメ一ジ情報をこの標章ィメ一ジ情報と連関する 標章ィメージ情報とともにディスプレイ上に読み取ったィメージの状態 で表示する連関標章ィメ一ジ表示手段が設けられるとともに、 該連関標 章ィメ一ジ表示手段が、 該 1つの標章ィメ一ジ情報については強調表示 を施す強調表示手段をそなえていてもよい。
さらに、 該 1つの標章イメージ情報に対応する正解データを入力する データ入力装置をそなえ、 該データ入力装置の操作により該正解データ を入力すると該正解データを上記 1つの標章ィメ一ジ情報とこの標章ィ メージ情報と連関する標章イメージ情 を表示しているエリアとは別 の正解データ表示エリァに表示させる正解データ表示手段を設けてもよ い。 また、 該 1つの標章イメージ情報に対応する正解データを入力するデ 一夕入力装置をそなえ、 該データ入力装置の操作により該正解データを 入力すると今まで強調表示されていた該 1つの標章ィメ一ジ情報につい ては修正済みを意味する別の強調表示を施す強調表示変更手段を設けて もよい。
さらに、 該 1つの標章ィメ一ジ情報に対応する正解データを入力する データ入力装置をそなえ、 該データ入力装置の操作により該正解データ を入力すると該正解データを上記 1つの標章ィメ一ジ情報とこの標章ィ メ一ジ情報と連関する標章ィメ一ジ情報とを表示しているエリァとは別 の正解データ表示エリアに表示させる正解データ表示手段と、 該データ 入力装置の操作により該正解データを入力すると今まで強調表示されて いた該 1つの標章ィメ一ジ情報については修正済みを意味する別の強調 表示を施す強調表示変更手段とを設けてもよい。
即ち、 本発明は、 標章情報を有する媒体のイメージを読み取りこの読 み取られたイメージ中の標章イメージ情報を認識してこの標章イメージ 情報に対応するコード情報に変換するものであって、 該イメージ中にお けるコ一 ド情報に変換されるべき同種の最小構成単位の標章ィメ一ジ情 報をこの標章ィメ一ジ情報を変換したコード情報の意味する標章情報に 対応させて複数個表示するとともにこのとき所望の 1つの標章ィメ一ジ 情報についてのみ強調表示を行ない、 その後該 1つの標章イメージ情報 に対応する正解データをデータ入力装置の操作により入力すると、 今ま で強調表示されていた該 1つの標章ィメ一ジ情報については修正済みを 意味する別の強調表示が施されるとともに該正解データに基づいて該 1 つの標章イメージ情報に対応する誤認識情報が修正されることを特徴と している。
つまり、 本発明の媒体処理装置は、 標章情報を有する媒体のイメージ を読み取るイメージ読み取り部と、 該ィメージ読み取り部で読み取られ たィメ一ジ中の標章ィメ一ジ情報を認識してこの標章ィメ一ジ情報に対 応するコード情報に変換する標章認識部と、 上記標章イメージ情報を読 み取ったイメージの状態で表示するディスプレイと、 該イメージ中にお けるコ一 ド情報に変換されるべき最小構成単位の標章イメージ情報を該 最小構成単位の標章ィメ一ジ情報毎に抽出一る最小構成単位標章ィメ一 ジ情報抽出部と、 該最小構成単位標章イメージ情報抽出部で抽出された 該最小構成単位の標章ィメ一ジ情報をこの標宣ィメ一ジ情報を変換した コード情報の意味する標章情報に対応させて 数個表示させる最小構成 単位標章イメージ表示制御部と、 所望の 1つの標章イメージ情報につい てのみ強調表示を行なう強調表示手段と、 該 1つの標章ィメ一ジ情報に 対応する正解データを入力するデータ入力装置と、 該データ入力装置の 操作により該正解データを入力すると今まで強調表示されていた該 1つ の標章イメージ情報については修正済みを意味する別の強調表示を施す 強調表示変更手段と、 該データ入力装置の操作により該正解データを入 力すると該正解データに基づいて該 1つの標章イメージ情報に対応する 誤認識情報を修正する認識情報修正手段とをそなえたことを特徴として いるのである。
上述の構成により、 本発明の媒体処理装置は、 標章情報を有する媒体 のィメ一ジを読み りこの読み取られたィメ一ジ中の標章ィメ一ジ情報 を認識してこの標章イメージ情報に対応するコード情報に変換する際に、 該イメージ中におけるコード情報に変換されるべき最小構成単位の標章 イメージ情報をこの標章イメージ情報を変換したコード情報の意味する 標章情報に対応させてディスプレイ上に表示する。
また、 同種の最小構成単位の標章イメージ情報がこの標章イメージ情 報を 換したコード情報の意味する標章情報に対応させて複数個表示さ れている場合において、 所望の 1つの標章イメージ情報についてのみ強 調表示を行なう。
さらに、 所望の 1つの標章イメージ情報をこの標章イメージ情報と連 関する標章イメージ情報とともにディスプレイ上に読み取ったイメージ の状態で表示するとともに、 該 1つの標章イメージ情報については強調 表示を施す。
また、 該 1つの標章イメージ情報に対応する正解データをデータ入力 装置の操作により入力すると、 該正解デー夕が上記 1つの標章ィメ一ジ 情報とこの標章ィメ一ジ情報と連関する標章ィメ一ジ情報とを表示して いるエリアとは別の正解データ表示エリアに表示される。
さらに、 該 1つの標章イメージ情報に対応する正解データをデータ入 力装置の操作により入力すると、 今まで強調表示されていた該 1つの標 章イメージ情報については修正済みを意味する別の強調表示が施される c また、 該 1つの標章ィメ一ジ情報に対応する正解データをデータ入力 装置の操作により入力すると、 該正解データが上記 1つの標章イメージ 情報とこの標章イメージ情報と連関する標章イメージ情報とを表示して いるエリアとは別の正解デ一夕表示エリアに表示されるとともに、 今ま で強調表示されていた該 1つの標章イメージ情報については修正済みを 意味する別の強調表示が施される。
従って、 本発明の媒体処理装置によれば、 同一標章のみをディスプレ ィ上の同一のェリァに表示するような目視が容易に行なえるような単位 で表示するとともに、 所望の 1つの標章ィメ一ジ情報についてのみ強調 表示を行なうことにより、 オペレータが連関するイメージ情報を参照す ることなく、 ィメ一ジ情報を参照するだけでその認識結果の正誤を確認 できるようにして視線の移動を大幅に削減するとともに、 処理中の標章 ィメ一ジ情報についてのみ強調表示を行なつて比較対象を削減して、 正 誤の確認作業に要する労力及び時間を大幅に削減することができる利点 力くある。
また、 所望の 1つの標章ィメ一ジ情報をこの標章ィメ一ジ情報と連関 する標章イメージ情報とともに、 ディスプレイ上に、 読み取ったィメー ジの状態で表示するとともに、 該 1つの標章イメージ情報については強 調表示を施すことにより、 標章ィメ一ジ情報が例えばくせ字等のため認 識不能である場合でも、 続き文字のような前後の文字のィメ一ジ情報を 参照することにより、 精度の高い確認作業が行なうことができるととも に、 正誤の確認作業に要する労力及び時間を削減することができる利点 がある。
さらに、 該 1つの標章イメージ情報に対応する正解データをデータ入 力装置の操作により入力すると、 該正解データが、 上記 1つの標章ィメ ージ情報とこの標章イメージ情報と連関する標章イメージ情報とを表示 しているエリアとは別の正解データ表示エリァに表示されるとともに、 今まで強調表示されていた該 1つの標章ィメ一ジ情報については修正済 みを意味する別の強調表示を施すことにより、 標章イメージ情報と入力 した正解データとを目視により再確認することができ、 精度の高い確認 作業が行なうことができるとともに、 認識不能標章の入力及び誤認識標 章の修正が行なわれたものと行なわれていないものとの識別が容易にな り、 視認性を高め'てオペレータの二重修正等を防ぎ、 正誤の確認作業に 要する労力及び時間を大幅に削減することができる利点がある。
また、 本発明の媒体処理装置は、 複数の項目項目情報を含んだ媒体の ィメージテ一タ 人力するィメ―ジデ一夕入力装置と、 ィメージデー夕 表示エリアと各項目用データ入力表示エリァ部分を有する項目表示エリ ァとを有するディスプレイと、 該イメージデータ表示エリアに該ィメ一 ジデータ入力装置にて得られた該イメージデータを表示させるとともに、 データ入力手段により所望項目のィメ一ジデータ部分に対応するデータ を入力するに当たり該項目表示エリアにおける該所望項目用データ入力 表示エリァ部分にカーソル表示を行なわせる表示制御装置とをそなえ、 該表示制御装置により、 該ディスプレイにおける該イメージデータ表示 エリァに複数の項目情報を含んだイメージデータが表示されている状態 で該項目表示エリァにおける各項目用データ入力表示エリァ部分の所望 項目用データ入力表示エリァ部分に力一ソル表示がなされると対応する 所望項目のイメージデータ部分のみを強調表示させるイメージデータ部 分強調表示手段をそなえていることを特徴としている。
ここで、 該表示制御装置が、 該イメージデータ部分強調表示手段に加 えて、 カーソル移動操作手段によって該所望項目用データ入力表示エリ ァ部分とは別の他の項目用データ入力表示エリァ部分に力一ソル表示が 遷移せしめられると該項目対応のィメ一ジデータ部分の強調表示を解除 するイメージデータ強調表示解除手段と、 該イメージデータ強調表示解 除手段に連動して該他の項目用データ入力表示エリァ部分に対応する他 の項目のイメージデータ部分のみを該イメージデータ部分強調表示手段 にて強調表示させるよう制御する強調表示遷移制御手段とをそなえてい てもよい。
また、 該表示制御装置が、 上記のイメージデータ部分強調表示手段, ィメ一ジデータ強 表示解除手段及び強調表示遷移制御手段に加えて、 該イメージデータの一部を該ディスプレイ上に表示している状態から該 ディスプレイ上に表示されていない該イメージデータを表示させる表示 画面スクロール手段をそなえていてもよい。
さらに、 該イメージデータ部分強調表示手段が、 強調表示部分を外部 からの指示により変更しうる変更手段をそなえていてもよい。
上述の構成により、 本発明の媒体処理装置は、 ディスプレイ上におい て、 複数の項目情報を含んだ媒体のイメージデータを表示する際に、 あ る項目に対応するイメージデータ部分のみが強調表示される。
また、 ディスプレイ上において、 イメージデータ表示エリアに複数の 項目情報を含んだ媒体のイメージデータが表示されている状態で、 所望 項目のイメージデータ部分に対応するデータを入力するに当たり該ィメ ージデータ表示エリアとは別に該ディスプレイに設定された項目表示ェ リアにおける各項目用データ入力表示エリァ部分の所望項目用データ入 力表示エリア部分にカーソル表示がなされると、 対応する所望項目のィ メージデータ部分のみが強調表示されるとともに、 その後更に他の項目 のイメージデータ部分に対応するデータを入力するに当たりカーソル表 示を該所望項目用データ入力表示エリァ部分から該他の項目用データ入 力表示エリァ部分に移動させると、 対応する所望項目のイメージデータ 部分の強調表示が解除されるとともに対応する他の項目のィメ一ジデー 夕部分が強調表示される。
さらに、 ディスプレイ上において、 イメージデータ表示エリアに複数 の項目情報を含んだ媒体のィメージデータの一部が表示されている状態 で、 該ディスプレイに表示されている所望項目のイメージデータ部分に 対応するデータを入力するに当たり該イメージデータ表示エリアとは別 に該ディスプレイに設定された項目表示エリアにおける各項目用データ 入力表示エリァ部分の所望項目用データ入力表示エリァ部分にカーソル 表示がなされると、 対応する所望項目のイメージデータ部分のみが強調 表示されるとともに、 その後更に該ディスプレイに表示されていない他 の項目のイメージデータ部分に対応するデータを入力するに当たりカー ソル表示を該所望項目用データ入力表示エリァ部分から該他の項目用デ 一夕入力表示エリア部分に移動させると、 対応する所望項目のイメージ データ部分の強調表示が解除される一方該他の項目のイメージデータ部 分が該ディスプレイの該イメージデータ表示エリアに表示されるように スクロールを行なって該他の項目のイメージデータ部分を該ディスプレ ィの該イメージデータ表示エリアに表示させるとともに、 対応する他の 項目のイメージデータ部分が強調表示される。
従って、 本発明の媒体処理装置によれば、 データ入力すべきデータ入 力表示エリァ部分にカーソル表示を行なわせると、 同時に参照すべき項 目のイメージデータ部分が強調表示されることにより、 オペレータがデ ィスプレイから一度目を離した後に、 再度ディスプレイを見た場合でも、 誤った項目を見ることを防いで、 イメージデータを参照する際の対応の 誤認識を防いで視認性を高め、 入力操作における労力及び時間を削減す るとともに、 誤入力を防止することができる利点がある。
また、 参照すべき項目のイメージデータがディスプレイに表示されて いない場合には、 強調表示部分の移動に伴って自動的にスクロールする ことができるため、 例えばキーを押下する等の無駄な操作を削減するこ とができるという利点がある。
さらに、 オペレータが強調表示部分の種類や領域を変更することもで き、 用途に応じて使用することができる利点がある。 図面の簡単な説明
F I G . 1は、 発明の一実施形態にかかる媒体処理装置の全体構成 を示す機能プロック図である。
F I G . 2〜F I G . 4は、 本発明の一実施形態にかかる媒体処理装 置における処理を説明するための図である。
F I G . 5は、 本発明の一実施形態にかかる媒体処理装置におけるレ ィァゥ ト解析処理部の構成を示す機能プロック図である。
F I G . 6は、 本発明の一実施形態にかかる媒体処理装置における帳 票処理について説明するための図である。
F I G. 7は、 本発明の一実施形態にかかる媒体処理装置におけるィ メージリーダを示す模式的な斜視図である。
F I G. 8, F I G. 9は、 本発明の一実 ¾形態にかかる媒体処理装 置におけるイメージデータの回転補正処理に着目した機能ブロック図で のる。
F I G. 1 0, F I G. 1 1は、 本発明の一実施形態にかかる媒体処 理装置において処理される帳票の例を示す図である。
F I G. 1 2, F I G. 1 3は、 本発明の一実施形態にかかる媒体処 理装置におけるイメージデータ回転補正処理について説明するためのフ ローチヤ一トである。
F I G. 1 4は、 本発明の一実施形態にかかる媒体処理装置における 原点抽出照合処理の適用を示す処理説明図である。
F I G. 1 5 (a) , F I G. 1 5 (b) , F I G. 1 6, F I G. 1 7は、 本発明の一実施形態にかかる媒体処理装置において処理される 帳票の例を示す図である。
F I G. 1 8は、 本発明の一実施形態にかかる媒体処理装置における 論理原点抽出処理について説明するためのフローチャー トである。
F I G. 1 9は、 本発明の一実施形態にかかる媒体処理装置における 論理原点補正座標の一致判定を説明するための図である。
F I G. 2 0 (a) , F I G. 2 0 (b) は、 本発明の一実施形態に かかる媒体処理装置において処理される帳票の例を示す図である。
F I G. 2 1は、 本発明の一実施形態にかかる媒体処理装置における 論理原点照合処理について説明するためのフローチヤ一卜である。
F I G. 2 2は、 本発明の一実施形態にかかる媒体処理装置における マトリックス照合処理に着目した処理説明図である。 /02150
F I G. 23は、 本発明の一実施形態にかかる媒体処理装置における マトリックステーブル作成処理について説明するための図である。
F I G. 24 (a) , F I G. 2 4 (b) は、 本発明の一実施形態に かかる媒体処理装置におけるマトリックステーブル作成処理の際のィメ ージデータの座標の正規化処理について説明するための図である。
F I G. 2 5〜F I G. 2 7は、 本発明の一実施形態にかかる媒体処 理装置におけるマ卜リックステーブル作成処理の際のビッ 卜テーブル作 成処理について説明するための図である。
F I G. 28は、 本発明の一実施形態にかかる媒体処理装置において 作成されるマ卜リックステーブルについて説明するための図である。
F I G. 29, F I G. 30は、 本発明の一実施形態にかかる媒体処 理装置におけるマトリックステーブル照合処理について説明するための フ口一チヤ一卜である。
F I G. 3 1 (a) , F I G. 3 1 (b) は、 本発明の一実施形態に かかる媒体処理装置におけるマ卜リックステーブル照合処理の際のマト リックス情報を示す図である。
F I G. 32は、 本発明の一実施形態にかかる媒体処理装置における 特徴データ認識処理に着目した処理説明図である。
F I G. 33, F I G. 34は、 本発明の一実施形態にかかる媒体処 理装置における特徴データ認識処理について説明するための図である。
F I G. 3 5, F I G. 3 6は、 本発明の一実施形態にかかる媒体処 理装置において処理される為替総合振込帳票について説明するための図 である。
F I G. 3 7は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理に着目した処理説明図である。
F I G. 38は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理で使用される鮮線項目構成情報について説明するための 図である。
F I G. 3 9は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理で使用される鄞線項目構成情報のうちの 線属性につい て説明するための図である。
F I G. 4 0, F I G. 4 1 (a) 〜F I G. 4 1 (d) は、 本発明 の一実施形態にかかる媒体処理装置における見出し解析処理で使用され る鄞線項目構成情報テーブルについて説明するための図である。
F I G. 42, F I G. 3 (a) , F I G. 4 3 (b) は、 本発明 の一実施形態にかかる媒体処理装置における見出し解析処理で使用され る見出し位置探索ルールについて説明するための図である。
F I G. 44は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理について説明するためのフローチャートである。
F I G. 4 5は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理の結果の一例を示す図である。
F I G. 4 6 (a) 〜F I G. 4 6 (c) , F I G. 4 7 (a) 〜F I G. 47 (c) , F I G. 4 8 (a) 〜F I G. 48 (c) は、 本発 明の一実施形態にかかる媒体処理装置における見出し解析処理の際の見 出し例を示す図である。
F I G. 49は 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理の際の正規化処理の一例を示す図である。
F I G. 50は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理で使用される項目見出し辞書について説明するための図 である。
F I G. 5 1 (a) , F I G. 5 1 (b) は、 本発明の一実施形態に かかる媒体処理装置における見出し解析処理の際の見出し項目データの 照合結果の一例を示す図である。
F I G. 52 (a:) 〜 F I G. 52 ( c ) は、 本発明の一実施形態に かかる媒体処理装置における見出し解析処理の際の見出し補正ルールに よる照合結果の補正について説明するための図である。
F I G. 53は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理について説明するためのフローチヤ一卜である。
F I G. 54 (a) 〜F I G. 54 (h) , F I G. 5 5 (a) 〜F I G. 5 5 (f ) は、 本発明の一実施形態にかかる媒体処理装置におけ る見出し解析処理で使用される見出し部鄞線項目とデータ部鄞線項目と の接続ルールについて説明するための図である。
F I G. 5 6は、 本発明の一実施形態にかかる媒体処理装置における 見出し解析処理の際の見出し項目に対応する項目データ位置の決定結果 の一例を示す図である。
F I G. 57, F I G. 5 8は、 本発明の一実施形態にかかる媒体処 理装置における見出し解析処理の際の各情報のリンク関係について説明 するための図である。
F I G. 59 (a) , F I G. 59 (b) は、 本発明の一実施形態に かかる媒体処理装置における見出し解析処理の際に機能項目にリンクさ れる項目データについて説明するための図である。
F I G. 6 0 ('a:) 〜 F I G. 6 0 ( f ) は、 本発明の一実施形態に かかる媒体処理装置における見出し解析処理の際の金額項目リンク処理 について説明するための図である。
F I G. 6 1は、 本発明の一実施形態におけるイメージデータ表示装 置の構成を示す模式図である。
F I G. 62, F I G. 6 3は、 本発明の一実施形態におけるィメ一 ジデータ表示装置の機能プロック図である。 F I G. 6 4〜F I G. 6 6は、 本発明の一実施形態におけるィメ一 ジデータ表示装置の動作を説明するためのフローチヤ一トである。
F I G. 6 7は、 本発明の一実施形態におけるイメージデータ表示装 置のディスプレイ表示例を説明するための図である。
F I G. 6 8は、 本発明の一実施 態におけるイメージデータ表示装 置で作成された関連情報を説明するための図である。
F I G. 6 9は、 本発明の一実施形態におけるイメージデータ表示装 置で作成された強調情報を説明するための図である。
F I G. 7 0〜F I G. 78は、 本発明の一実施形態におけるィメー ジデータ表示装置のディスプレイ表示例を説明するための図である。
F I G. 7 9は、 本発明の一実施形態におけるイメージデータ表示装 置で作成された強調情報を説明するための図である。
F I G. 8 0〜F I G. 8 5は、 本発明の一実施形態におけるィメー ジデータ表示装置のディスプレイ表示例を説明するための図である。
F I G. 8 6は、 本発明の一実施形態における読み取り標章表示 ·認 識情報修正装置の構成を示す模式図である。
F I G. 8 7〜F I G. 8 9は、 本発明の一実施形態における読み取 り標章表示 ·.認識情報修正装置の機能プロック図である。
F I G. 9 0〜F I G. 9 7は、 本発明の一実施形態における読み取 り標章表示 ·認識 if報修正装置の動作を説明するためのフローチヤ一ト め 。
F I G. 9 8は、 本発明の一実施形態における読み取り標章表示 ·認 識情報修正装置で作成された全面ィメージを説明するための図である。
F I G. 9 9は、 本発明の一実施形態における読み取り標章表示 ·認 識情報修正装置で作成された認識文字情報を説明するための図である。
F I G. 1 00は、 本発明の一実施形態における読み取り標章表示 · 認識情報修正装置で作成された関連情報を説明するための図である。
F I G. 1 0 1〜F I G. 1 0 4は、 本発明の一実施形態における読 み取り標章表示 ·認識情報修正装置の表示例を説明するための図である £ F I G. 1 0 5は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置を示すプロック図である。
F I G. 1 0 6は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の登録ステップ動作時に着目した制御プロック図である。
F I G. 1 0 7は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の登録ステップ動作時の動作を説明するためのフローチヤ一ト である。
F I G. 1 0 8は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の登録ステップ動作時の動作を説明するための図である。
F I G. 1 09は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の検証ステップ動作時に着目した制御プロック図である。
F I G. 1 1 0は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の登録ステップ動作時の動作を説明するためのフローチャー ト である。
F I G. 1 1 1は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の運用ステップ動作時に着目した制御プロック図である。
F I G. 1 12 'は、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の運用ステップ動作時の動作を説明するためのフローチヤ一ト である。
F I G. 1 1 3は、 本発明の一実施形態の第 2の変形例にかかる帳票 識別装置の制御プロック図である。
F I G. 1 1 4は、 本発明の一実施形態の第 2の変形例にかかる帳票 識別装置の動作を説明するためのフローチヤ一トである。 2150
F I G. 1 1 5は、 帳票識別装置の構成を示す模式図である。
F I G. 1 1 6は、 帳票識別装置の動作を説明するための図である。 F I G. 1 1 7は、 帳票識別装置の動作の変形例を説明するための図 である。
F I G. 1 1 8 (a) , F I G. 1 1 8 (b) は、 イメージデータの 基準点の抽出方法を説明するための図である。
F I G. 1 1 9は、 イメージデータの回転補正処理を説明するための 図である。 発明を実施するための最良の形態
(a) 本発明の一実施形態の説明
(a 1) 媒体処理装置の説明
F I G. 1は、 本発明の一実施形態にかかる媒体処理装置の全体構成 を示す機能ブロック図である。
ここで、 F I G. 1に示す媒体処理装置 30は、 私製伝票等のように 多種多様なフォーマツ 卜を有する帳票媒体 (帳票) から読み取ったィメ —ジデータ (イメージ) に基づいて、 この情報の認識を行なうものであ る。
この媒体処理装置 3 0は、 具体的には、 F I G. 6に示すように、 例 えば金融機関の各 店 (営業店) 毎に設置されたクライアント (CL) 35と、 地区センタに設置されたサーバ (S V) 39とが、 交換回線 3 6等を介して接続されることにより構成され、 各営業店における帳票処 理を地区センタのサーバ 3 9により一括して行なうものである。
即ち、 この媒体処理装置 3 0は、 帳票のイメージデータのレイァゥト を解析することにより処理対象の帳票のフォーマッ トを認識し、 この帳 票のフォーマツ 卜の認識結果に基づいて帳票の文字認識を行なうことに より、 帳票処理装置専用に作成された帳票だけでなく、 任意のフォーマ ッ トで情報が記入された帳票の認識処理を行なうことができるものであ る
ここで、 媒体処理装置 3 0は、 機能的には F I G . 1に示すように、 レイアウ ト認識処理ブロック 1 6, 文字認識処理ブロック 1 7及びオペ レ一タ確認 Z修正処理プロック 1 8をそなえている。
レイァゥ ト認識処理プロック 1 6は、 イメージデータ読取装置により 読み取られたイメージデータ 1 9のレイァゥ ト認識処理を行なうブロッ クであり、 解析前処理部 1 , レイアウ ト解析処理部 2 , レイアウ ト照合 処理部 3及びレイァゥ ト編集処理部 4をそなえている。
ここで、 解析前処理部 1は、 レイアウ ト解析処理に先立って、 レイァ ゥ トの変動要因を少なく して解析精度を高めるために、 認識対象ィメー ジデータ 1 9の形式変換後に、 解析処理用の低密度イメージの作成を行 うとともに、 解析処理時に精度低下の要因となるイメージデータ上のゴ ミ等の除去を行うものである。
また、 レイァゥ ト解析処理部 2は、 解析用辞書 1 3を参照して、 読み 取ったイメージデータからレイァゥ 卜の特徴である露線項目及び項目デ —夕を抽出して、 レイアウ トの構成を解析し、 この抽出した鄞線項目及 び項目データによりレイァゥ トを論理的に表現するものである。
即ち、 レイァゥ'ト解析処理部 2は、 読み取ったイメージデータから、 帳票媒体固有の特徴を抽出し、 この特徴により認識すべき情報の存在す る位置を特定する手段として機能するものである。
具体的には、 レイァゥ 卜解析処理部 2は、 認識対象イメージのレイァ ゥ トを解析して、 レイァゥ トを構成している各種の構成要素 (昇線項目 及び項目データ) をレイァゥ ト特徴として抽出するとともに、 後段のレ ィァゥ ト照合処理部 3でのレイァゥ 卜照合処理時に登録済レイァゥ ト情 150 報を検索するために、 この抽出されたレイァゥト特徴からレイァゥ卜の 大まかな制約条件であるレイァゥ 卜のキー情報を作成するものである。
このレイァゥ 卜解析処理部 2は、 F I G . 5に示すように、 イメージ のレイァゥ 卜の特徴を抽出するレイァゥト特徴抽出部 2 Aと、 レイァゥ ト特徴抽出部 2 Aで抽出されたレイァゥ 卜の特徴に基づいてレイァゥ 卜 の構成を解析するレイァゥト解析部 2 Bとを少なくとも含んで構成され ている。
また、 レイァゥト特徴抽出部 2 Aは鄞線抽出部 2 C及び項目データ抽 出部 2 Dをそなえており、 レイァゥ卜解析部 2 Bは表構造解析部 2 Eを そなえている。
ここで、 レイァゥ卜が鄙線により構成される表構造を有している場合 には、 鄞線抽出部 2 Cでレイァゥ卜の鄞線から形成される最小矩形であ る鄙線項目が抽出され、 抽出された^線項目に基づいて、 表構造解析部 2 Eで霧線項目により構成される表構造が解析されるようになっている c また、 レイアウトが驛線を持たない無屏線表構造を有している場合に は、 項目データ抽出部 2 Dでレイァゥ卜の項目データが抽出され、 抽出 されたレイァゥ卜の項目データに基づいて、 表構造解析部 2 Eで無 線 表構造が解析されるようになっている。
さらに、 レイァゥト解析処理部 2力、 鄞線項目や項目データを抽出し てから、 レイァゥ '卜の論理的な原点 (論理原点) を抽出するように構成 されている。
具体的には、 レイアウト解析処理部 2においては、 (2— 1 ) ラベリ ング処理によるラベル画像の作成, (2— 2 ) レイアウト照合用の帳票 イメージの論理原点及び斜度情報の抽出, (2— 3 ) 線項目の抽出と 薪線項目により構成される表構造の解析 (前述にて説明済) , (2—
4 ) 項目データの抽出と無羅線表時の項目表構造の解析 (前述にて説明 済) 及び (2— 5 ) 見出し領域の決定と見出し項目の認識, 対応する項 目データの決定 (見出し解析処理) 、 が行なわれている。
なお、 (2— 1 ) のラベリング処理によるラベル画像の作成処理は、 入力されたイメージデータ (2値画像データ) から連結成分 (2値画像 において 1つに繋がった画像の成分) を算出して、 各連結成分毎にラベ ルを付けたラベル画像を作成する処理のことである。 なお、 このラベリ ング処理については、 例えば 「連結領域の抽出装置及び方法」 (特開平 0 8— 5 5 2 1 9号) が公知である。
また、 (2— 3 ) の^線項目の抽出処理は、 鄞線に囲まれた文字や図 形等のデータから鄞線部分を抽出して、 鄞線部分とデータ部分とを分離 する処理のことである。 なお、 この野線項目の抽出処理については、 例 えば 「画像抽出方式」 (特開平 0 6 - 3 0 9 4 9 8号) が公知である。 さらに、 (2— 5 ) の見出し解析処理は、 イメージ中の見出し領域 ( 見出し項目) を決定して、 この見出し領域中の見出し項目情報を認識し て、 対応する項目データを決定するものである。
即ち、 本実施形態においては、 レイアウト解析処理部 2において見出 し項目及び見出し項目と対応する項目データを識別することにより、 文 字認識処理ブロック 1 7において見出し項目の文字認識処理を行なうこ となく直ちに項目データの文字認識を行なえるようにしている。
また、 上述の処 ¾ ( 2 - 2 ) については (a 2 ) 原点抽出照合処理の 説明にて、 処理 (2— 5 ) については (a 6 ) 見出し解析処理の説明に て、 それぞれ詳細に説明する。
ところで、 レイアウト照合処理部 3は、 レイアウト解析処理部 2で抽 出されたレイアウトの特徴 (募線項目及び項目データ) を制約検索条件 として、 レイアウトデータベース (レイアウト D B ) 1 4から候補レイ ァゥ卜を検索して、 一致している候補レイァゥ卜があるかどうかを照合 することにより、 レイァゥ卜解析処理部 2で特定された位置でのィメー ジを認識して、 特定された位置における情報を判別するイメージ認識手 段として機能するものである。
二こで、 レイァゥト D B 1 4は、 候補レイァゥト情報を記憶している 候補レイァゥト記憶部であり、 本実施形態においては、 候補レイァゥ卜 情報として圧縮された候補レイアウト情報を記憶している。 なお、 この ときのレイァゥト情報の圧縮処理については、 後述にて詳細に説明する c また、 レイアウト D B 1 4には、 レイアウト解析処理部 2でのレイァ ゥト解析結果を補正するためのレイァゥト補正情報が格納されており、 本実施形態においては、 後述するレイアウト編集処理部 4において、 こ のレイァゥ卜補正情報を用いてレイァゥ卜解析結果を補正することによ り、 その後の処理を高い精度で行なえるようになっている。
さらに、 レイアウト D B 1 4の内容は、 後述するように、 候補レイァ ゥト情報を、 レイァゥト認識処理プロック 1 6やオペレータ確認 修正 処理ブロック 1 8での処理結果に基づいて学習, 更新されるようになつ ており、 これにより、 オペレータ等による候補レイアウト情報のレイァ ゥト D B 1 4への登録操作を不要として操作の簡素化を図っている。 また、 レイアウト照合処理部 3は、 レイアウト解析処理部 2で抽出さ れた論理原点を基準にして、 一致している候補レイァゥ卜があるかどう かを照合するよう'になっている。
即ち、 レイアウト照合処理部 3は、 レイアウト解析処理部 2で作成さ れたレイァゥトキ一情報を使用して、 レイアウト D B 1 4に格納されて いるレイァゥト情報を検索照合し、 一致するレイァゥト情報を取得する ものである。
また、 上述のレイアウト照合処理部 3において、 レイアウトの検索照 合 行なう際には、 先ず大まかな制約条件であるレイァゥトキ一情報を 制約条件としてレイァゥ卜 D B 1 4を検索し、 検索の結果得られた複数 の候補レイァゥ卜に対して、 更に詳細な照合を行うことにより一致する レイァゥトを決定するようになっている。
具体的には、 レイァゥ卜照合処理部 3においては、 候補レイァゥ卜に 対する詳細な照合処理の際に、 制約条件の大まかなものから順に、 (3 - 1 ) 鄞線項目ビッ トマ卜リクスの照合, (3— 2 ) 蘇線項目位置と鄞 線項目属性の詳細な照合, (3 - 3 ) 項目データ位置の照合, (3— 4 ) 見出し位置と見出し内容の照合及び (3— 5 ) 領域イメージ (ュニ ークイメージ) の特徴データ照合、 が行なわれている。
ここで、 ( 3— 1 ) の鄞線項目ビッ トマトリクスの照合処理とは、 レ ィァゥト解析処理部 2で抽出されたレイァゥ卜の特徴を圧縮処理し、 こ の圧縮したレイァゥ卜の特徴を制約検索条件として、 レイアウト D B 1 4から圧縮した候補レイァゥトを検索することにより、 一致している候 補レイァゥ卜があるかどうかを照合するものである。
即ち、 本実施形態においては、 レイァゥ卜 D B 1 4が圧縮した候補レ ィァゥ卜情報を記憶して、 レイァゥト照合処理部 3において圧縮処理し たレイァゥ卜情報を作成して圧縮したレイァゥト情報同士を照合するこ とにより、 レイァゥト照合処理の高速化を図っているのである。
なお、 処理 (3— 1 ) については (a 4 ) マトリックス照合処理の説 明にて、 処理 ( 3 '— 2 ) 〜 ( 3— 4 ) については ( a 6 ) 見出し解析処 理の説明にて、 処理 (3— 5 ) については (b ) 本発明の一実施形態の 変形例の説明にて、 それぞれ詳細に説明する。
さらに、 レイアウト編集処理部 4は、 レイアウト照合処理部 3でレイ アウト D B 1 4を検索照合した結果、 レイアウト D B 1 4に一致するレ ィァゥ卜が存在する場合には、 前述のごとく、 レイアウト D B 1 4から 取得したレイァゥ卜補正情報に基づいてレイァゥト解析結果を補正した 後に、 補正されたレイァゥト情報をレイァゥ卜認識結果 2 0として出力 するものである。
なお、 レイアウト補正情報を用いた補正内容は、 見出し位置と見出し 内容の補正と、 見出しにリンクする項目データ位置及び項目データ属性 の補正である。
また、 レイアウト編集処埕^ 4は、 レイアウ ト照合処理部 3でレイァ ゥ D B 1 4を検索照合した結果、 レイアウ ト D B 1 4に一致するレイ ァゥ卜が存在しない場合には、 新規レイアウトとして、 レイアウト解析 結果をそのままレイァゥト情報 (レイァゥ卜認識結果 2 0 ) として出力 するものである。
ところで、 文字認識処理プロック 1 7は、 レイァゥ卜認識処理プロッ ク 1 6からのレイァゥ卜認識結果 2 0の文字認識処理を行なうブロック であり、 文字認識用定義体作成部 5, 文字認識処理部 6及び知識処理部 7をそなえている。
ここで、 文字認識用定義体作成部 5は、 レイアウ ト認識結果 2 0とし て出力されるレイァゥ卜情報をもとに、 文字認識処理部 6で使用する文 字認識対象の項目データ位置と項目データ属性を定義した文字認識用定 義体 (一時定義体) 2 1を作成するものである。
レイァゥト認識結果 2 0の項目データ情報は、 解析対象イメージの左 上端からの絶対座 ¾で出力するが、 イメージ読み取り時の用紙位置の変 動により、 解析対象ィメ一ジの左上端が常に一定の位置になるとは限ら ない。
このため、 文字認識用定義体処理部 5では、 解析対象イメージに合わ せてその都度、 文字認識用定義体 2 1を動的に作成しているのである。 また、 文字認識処理部 6は、 文字認識定義体作成処理部 5で、 レイァ ゥト情報より作成された文字認識用定義体 2 1を使用して、 文字認識対 象の項目データについて文字認識処理を行ない、 認識結果のコードデー タを取得するものである。
さらに、 知識処理部 7は、 文字認識処理部 6の認識結果コードデータ を、 認識結果の補正情報を記録した知識データベース (知識 D B ) 1 5 を参照して補正し、 文字認識結果 2 2として出力するものである。
そして、 オペレータ確認/修正処理プロック 1 8は、 レイァゥ 卜認識 結果 2 0及び文字認識結果 2 2が、 端末装置 (例えば F I G . 1におけ るクライアント 1 0 ) に表示されて、 オペレータによりイメージデータ の処理結果の確認及び修正処理が行なわれるプロックであり、 レイァゥ 卜画面表示処理部 8及び文字認識結果画面表示処理部 9をそなえている c ここで、 レイアウ ト画面表示処理部 8は、 オペレータによるレイァゥ ト認識結果 2 0及び文字認識結果 2 2の修正及び確認のため、 レイァゥ ト認識結果 2 0のレイァゥ 卜情報をもとに、 認識対象イメージと見出し 位置や見出し内容及び対応する項目位置等の解析結果をクライアント 1 0のディスプレイに表示するものである。
本実施形態においては、 後述の (a 7 ) 認識文字の確認及び修正処理 の説明にて詳細に説明するように、 従来の修正及び確認処理を拡張して、 認識結果のコードデータと、 対応する帳票イメージ上の見出し内容や項 目データとをリ ンクしてクライアント 1 0のディスプレイに表示するこ とにより、 レイァ'ゥ ト情報の修正及び確認処理を行えるようになつてい また、 文字認識結果画面表示処理部 9は、 レイアウ ト画面表示処理部 8の表示に合わせて、 文字認識対象ィメ一ジの認識項目に対応する文字 認識結果のコードデータを画面表示するものである。
さらに、 クライアント 1 0においては、 ディスプレイ表示された認識 対象イメージと対応するレイァゥ ト認識結果 2 0や文字認識結果 2 2が オペレータにより確認され、 必要に応じてレイァゥ 卜認識結果 2 0及び 文字認識結身 2 2の修正が行なわれる。
なお、 F I G . 1に示す媒体処理装置 3 0は、 上述したレイアウト認 識処理ブロック 1 6, 文字認識処理ブロック 1 7及びオペレータ確認/ 修正処理ブロック 1 8のほかに、 レイアウトログ情報作成処理部 1 1及
Γ'知識ログ情報作成処理部 1 2もそなえている。
ここで、 レイアウトログ情報作成処理部 1 1は、 レイアウト認識結果
2 0のレイァゥト情報に、 オペレータによる修正内容を補正データとし て付加してレイアウト D B学習情報 2 5 (後述する F I G . 4では、 こ れを学習用レイァゥト情報 2 8で示している) を作成することにより、 レイアウト D B 1 4に格納されるレイァゥ卜補正情報を作成するもので ある。 なお、 作成されたレイァゥト補正情報は、 補正内容が判断された 上、 レイアウト D B 1 4に学習登録される。
また、 レイアウトログ情報作成処理部 1 1は、 レイアウト認識結果 2 0のレイァゥ 卜情報に、 オペレータによる修正内容を補正データとして 付加して解析用辞書学習情報 2 4 (後述する F I G . 4では、 これを登 録用レイァゥト情報 2 9で示している) を作成するものであり、 作成さ れた解析用辞書学習情報 2 4は、 補正内容が判断された上、 解析用辞書
1 3に学習登録される。
さらに、 知識口 "情報作成処理部 1 2は、 文字認識結果 2 2のコード データに、 オペレータによる修正内容を補正データとして付加して知識
D B 1 5用の知識学習情報 2 3を作成するものであり、 作成された学習 データは、 知識 D B 1 5に学習登録される。
上述の構成により、 本発明の一実施形態にかかる媒体処理装置 3 0に おいては、 任意のフォーマツ 卜を有する帳票のイメージデータ 1 9が読 み取られると、 このイメージデータ 1 9のレイァゥ卜が解析されること により処理対象の帳票のフォーマッ トが認識され、 この帳票のフォーマ ッ 卜の認識結果に基づいて帳票の文字認識が行なわれる。
そして、 レイァゥ ト認識結果 2 0及び文字認識結果 2 2は、 オペレー タにより確認され、 必要に応じて修正される。
このときの、 媒体処理装置 3 0における処理を、 F I G . 2〜F I G . 4を用いて説明する。
まず、 処理対象の帳票のレイァゥ 卜が、 新規出現したレイァゥ トであ る場合の処理について F I G . 2に基づいて説明する。
はじめに、 レイァゥ ト認識処理ブロック 1 6の解析前処理部 1では、 処理対象の帳票のイメージデータ 1 9の解析前処理が施される (ステツ プ A 1 ) 。
また、 レイァゥ ト解析処理部 2では、 認識対象イメージからレイァゥ 卜の構成要素である露線項目や項目データが抽出され、 レイァゥ ト解析 辞書 1 3を参照してレイァゥ 卜内の見出し項目位置及びその内容と対応 する項目データ位置が解析結果として出力される (ステップ A 2 ) 。
ここで、 ステップ A 2のレイァゥ ト解析処理ステップは、 読み取った イメージデータから、 帳票媒体固有の特徴を抽出し、 この特徴により認 識すべき情報の存在する位置を特定する情報存在位置特定ステップであ り、 読み取ったイメージのレイァゥ 卜の特徴を抽出して、 レイァゥ 卜の 構成を解析し、 抽出した特徴によりレイァゥ 卜を論理的に表現するもの 。
また、 このレイアウ ト解析処理ステップ A 2は、 レイアウ トの^線項 目や項目データを抽出してから、 レイァゥ 卜の論理原点を抽出するステ ップを含むとともに、 読み取ったイメージのレイァゥ 卜が所定の方向で あるかどうかを判定するステップと、 このステップでの判定結果に基づ きレイアウ トが所定の方向となるように読み取ったイメージデータを変 換するステップとを含んでいる。 なお、 読み取ったイメージデータの変 換処理は、 レイアウ トを回転させるような処理であり、 この処理につい ては、 後述する (a 3 ) イメージデータの回転補正処理の説明にて詳細 に説明する。
ここで、 レイアウ トが 線により構成される表構造を有している場合 には、 レイァゥ ト解析処理ステップ A 2は、 イメージデータから驛線項 目を抽出するステップと、 このステップで抽出された鄞線項目に基づい て鄞線により構成される表構造を解析するステップとを含んでいる。 また、 レイァゥ 卜が蘇線を持たない無葑線表構造を有している場合に は、 レイアウ ト解析処理ステップ A 2力 イメージデータから項目デー タを抽出するステップと、 このステップで抽出された項目データに基づ いて無 線表構造を解析するステップとを含んでいる。
さらに、 このレイアウ ト解析処理ステップ A 2は、 イメージ中の見出 し領域を決定しこの見出し領域中の見出し項目情報を認識して対応する 項目データを決定するステップを含んでいる。
続いて、 レイァゥ ト照合処理部 3では、 抽出されたレイァゥ ト構成要 素 (募線項目や項目データ) を検索条件としてレイァゥ ト D B 1 4を検 索するが、 処理対象の帳票が新規のものであるため、 該当するレイァゥ トはレイアウ ト D B 1 4に存在せず、 候補レイァゥ 卜情報及びレイァゥ 卜の補正情報は取得されない (ステップ A 3 ) 。
ここで.、 ステップ A 3のレイアウ ト照合処理ステップは、 ステップ A 2で特定された位置でのイメージデータを認識して、 特定された位置に おける情報を判別するイメージ認識ステップであり、 ステップ A 2で抽 出されたレイァゥ 卜の特徴を制約検索条件として、 レイアウ ト D B 1 4 に記憶されている候補レイァゥ 卜を検索することにより、 一致している 候補レイァゥ 卜があるかどうかを照合するものである。 また、 このレイアウ ト照合処理ステップ A 3は、 ステップ A 2で抽出 された論理的な原点を基準にして、 情報を判別するステツプを含むとと もに、 ステップ A 2で抽出されたレイァゥ 卜の特徴を圧縮処理する圧縮 処理ステップと、 このステップで圧縮したレイァゥ 卜の特徴を制約検索 条件としてレイアウ ト D B 1 4から圧縮した候補レイァゥ 卜を検索する ステップと、 このステップでの検索結果に基づいて一致している候補レ ィアウ トがあるかどうかを照合するステップとを含んでいる。
さらに、 レイアウ ト編集処理部 4では、 レイアウ ト照合の結果、 ステ ップ A 3において候補レイァゥ ト情報及びレイァゥ 卜の補正情報が取得 されないことから、 レイアウ ト認識結果 2 0が補正情報なしの状態で作 成される (ステツプ A 4 ) 。
文字認識処理ブロック 1 7の文字認識用定義体作成部 5では、 ステツ プ A 4において作成されたレイァゥ ト認識結果 2 0のレイァゥ ト情報を もとに、 一時定義体 2 1が作成される (F I G . 4のステップ A 1 4 ) c 続いて、 文字認識処理部 6では、 ステップ A 1 4において作成された —時定義体 2 1を使用して、 文字認識対象の項目データについて文字認 識処理が行われ、 認識結果のコードデータが取得される (F I G . 4の ステップ A 1 5 ) 。
さらに、 知識処理部 7では、 ステップ A 1 5において取得された認識 結果コードデータが、 認識結果の補正情報が記録された知識 D B 1 5を 参照して補正され、 文字認識結果 2 2が作成される (F I G . 4のステ ップ A 1 6 ) 。
ここで、 オペレータ確認ノ修正処理プロック 1 8のレイァゥ ト画面表 示処理部 8では、 ステップ A 4において作成されたレイァゥ ト認識結果 2 0を参照して、 見出し項目内容及びその位置と対応する項目データ位 置 (F I G . 4に示すレイァゥ 卜解析情報 2 6 ) がクライアント 1 0の ディスプレイに出力されるとともに、 読み取られたイメージデータ (F I G . 4に示す画面表示イメージ 2 7 ) がクライ ノト 1 0のディスプ レイに出力される (ステップ A 5 ) 。
また、 文字認識結果画面表示処理部 9では、 レイアウト画面表示処理 部 8による表示に合わせて、 文字認識対象イメージの認識項目に対応す る文字認識結果 2 2 (この文字認識結果 2 2はステップ A 1 6において 作成される) のコードデータがクライアント 1 0のディスプレイに出力 される。
ここで、 クライアント 1 0のディスプレイに表示されたレイァゥト認 識結果 2 0や文字認識結果 2 2の確認及び修正操作がオペレータにより 行なわれる (ステツプ A 6 ) 。
また、 レイァゥ卜ログ情報作成処理部 1 1では、 オペレータによるレ ィァゥ卜の確認及び修正操作の結果からレイァゥ卜の補正情報 (レイァ ゥトログ情報) が作成される (ステップ A 7 ) 。
なお、 ステップ A 7において作成されたレイアウトログ情報は、 レイ ァゥ 卜の補正情報 〔レイァゥト D B学習情報 2 5 (学習用レイァゥト情 報 2 8 ) 及び解析辞書学習情報 2 4 (登録用レイァゥト情報 2 9 ) 〕 と してレイアウト D B 1 4及び解析辞書 1 3に反映され、 レイアウト学習 処理が行なわれる (ステップ A 8 ) 。
即ち、 ステップ A 8においては、 候補レイァゥト情報をレイァゥト D B 1 に学習により更新していくように構成されているのである。 続いて、 処理対象の帳票のレイァゥ卜が、 再出現したレイァゥ卜であ る場合の処理について F I G . 2に基づいて説明する。
はじめに、 上述したようにレイァゥ 卜認識処理ブロック 1 6の解析前 処理部 1では、 処理対象の帳票のイメージデータ 1 9の解析前処理が施 される (ステップ A 1 ) 。 続いて、 レイァゥ ト解析処理部 2では、 前述したステップ A 2と同様 にレイアウ トが解析され、 レイアウ トの解析結果が出力される (ステツ プ A 9 ) 。
さらに、 レイァゥ ト照合処理部 3では、 抽出されたレイァゥ 卜構成要 素 (薪線項目や項目データ) を検索条件としてレイァゥ 卜 D B 1 4を検 索することにより、 一致するレイァゥ 卜の詳細情報及びレイァゥ 卜補正 情報が取得される (ステップ A 1 0 ) 。
このとき、 処理対象の帳票が再出現したものであるため、 レイァゥ 卜 D B 1 4検索の結果、 該当する候補レイァゥ ト情報が通知され、 通知さ れた候補レイァゥ 卜に対してレイァゥ 卜の詳細情報を照合してレイァゥ 卜の一致性が判定される。
なお、 レイアウ トが一致すると判定された場合には、 レイアウ ト編集 処理部 4では既存レイァゥ 卜としてステップ A 1 1〜ステップ A 1 3ま での処理が行われる。 また、 照合の結果で不一致と判定された場合には、 レイァゥ ト編集処理部 4では新規レイァゥ トとしてステップ A 4〜ステ ップ A 8までの処理が行われる。
ここで、 レイアウ ト編集処理部 4では、 レイアウ ト D B 1 4の検索の 結果、 取得されたレイァゥ ト補正情報をもとに、 レイァゥ 卜解析結果の 見出し項目内容及びその位置と対応するデータ位置が補正され、 レイァ ゥ ト認識結果 2 0 作成される (ステップ A 1 1 ) 。
また、 文字認識処理ブロック 1 7における処理は、 F I G . 4のステ ップ A 1 4〜ステップ A 1 5により説明したものと同様である。
ここで、 オペレータ確認/修正処理プロック 1 8のレイァゥ 卜画面表 示処理部 8では、 ステップ A 1 1において作成されたレイアウ ト認識結 果 2 0を参照して、 見出し項目内容及びその位置と対応する項目データ 位置 (F I G . 4に示すレイァゥ ト解析情報 2 6 ) がクライアント 1 0 のディスプレイに出力されるとともに、 読み取られたィメ一ジデータ
(F I G. 4に示す画面表示イメージ 2 7) がクライアント 1 0のディ スプレイに出力される (ステップ A 12) 。
また、 文字認識結果画面表示処理部 9では、 レイアウ ト画面表示処理 部 8による表示に合わせて、 文字認識対象イメージの認識項目に対応す る文字認識結果 22 (この文字認識結果 2 2はステップ A 1 6において 作成される) のコードデータがクライアン卜 1 0のディスプレイに出力 される。
ここで、 クライアント 1 0のディスプレイ表示されたレイアウ ト認識 結果 2 0の確認操作や文字認識結果 22の確認及び修正操作がオペレー 夕により行なわれる (ステップ A 1 3) 。
なお、 処理対象の帳票のレイァゥ 卜が既存レイァゥ トである場合には、 ステップ A 1 3のレイアウ トの確認操作が終了した時点で、 解析対象ィ メージに対する処理は完了するため、 レイァゥ トログ情報作成処理部 1 1でのレイァゥ トログ情報の作成は行なわれない。
最後に、 F I G. 6に示す媒体処理装置 30における帳票処理につい て説明する。
ここで、 各営業店においては、 まず、 イメージデータ読取装置 (例え ば F I G. 6に示す FAX 3 1, イメージスキャナ 32, DATA— E YE 33及び及び' F I G. 6, F I G. 7に示すイメージリーダ 34 ) により帳票のイメージデ一夕が読み取られる。
ここで、 イメージスキャナ 32, DATA-EYE 33及びイメージ リ一ダ 34により読み取られたイメージデータは、 クライアン卜 35に 送信される。
次いで、 F AX 3 1からのイメージデータは、 交換回線 (I S DNZ 公衆網) 3 6及び FAXアダプタ 3 7を介して、 また、 クライアント 3 5からのイメージデータは、 交換回線 ( I S D N Z公衆網) 3 6及び通 信アダプタ 3 8を介して、 それぞれ地区センタのサーバ 3 9へ送信され ここで、 サーバ 3 9は、 各営業店から送信された帳票のイメージデー 夕の解析処理を自動的に一括して行なうものであり、 私製伝票認識ソフ 卜コンポーネント 4 0を格納するとともに、 知識データベース (知識 D B ) 1 5, レイアウ トデータベース (レイアウ ト D B ) 1 4及び集中文 字認識装置 6をそなえている。
即ち、 サーバ 3 9は、 上述した F I G . 1に示すレイァゥ ト認識処理 ブロック 1 6及び文字認識処理ブロック 1 7に相当する機能を有するも のであり、 これらの機能を与えるようなソフ トウエアである私製伝票認 識ソフ トコンポ一ネント 4 0 、 図示しないハードディスク又はその他 のメモリにインストールされることにより、 相当する処理が行なわれて いる。
また、 地区センタにおいては、 サーバ 3 9によるイメージデータの解 析処理結果の確認及び修正するために、 クライアント (C L ) 1 0 も設 置されている。
即ち、 クライアント 1 0は、 上述した F I G . 1に示すオペレータ確 認 Z修正処理ブロック 1 8に相当する機能を有するものであり、 クライ アント 1 0においては、 このような機能を与えるような適宜のソフ トゥ ヱァが、 図示しないハードディスク又はその他のメモリにィンストール されることにより、 相当する処理が行なわれている。
そして、 このクライアント 1 0のディスプレイには、 イメージデータ のレイァゥ トゃ文字認識結果が表示され、 オペレータはこのディスプレ ィを参照することにより、 イメージデータの解析処理結果の確認及び修 正を行なうことができる。 なお、 このクライアント 1 0には、 地区センタへの持ち込み伝票等の 帳票の処理を行なうために、 ィメージデータ読取装置としてのイメージ リーダ 3 4及び D A T A— E Y E 3 3が接続されており、 これらのィメ ージデータ読取装置により読み取られた帳票のイメージデータを、 サー バ 3 9へ送信するようになっている。
また、 サーバ 3 9により解析された帳票の解析結果は、 ブランチサ一 バ (B S ) 4 1を介して上位装置であるホスト (図示せず) へ送信され る
このように、 本発明の一実施形態にかかる媒体処理装置 3 0によれば、 日常発生する様々な帳票や帳票ィメ一ジを電子的に自動解析することに より、 従来のェントリシステム (O C Rエントリシステムやデータェン トリシステム等) を利用したェン卜リ業務を飛躍的に効率化することが できる。
即ち、 本実施形態にかかる媒体処理装置 3 0によれば、 従来のェント リシステムの専用帳票だけでなく、 現存する各種任意の帳票をそのまま 対象としたェントリシステムを構築することが可能となるのである。 具体的には、 金融機関等のェン卜リ業務で対象とする私製総合振込 (ェンドユーザ作成の総合振込帳票) を自動的にレイァゥト解析するこ とにより、 そのまま文字認識処理及びエントリ処理が可能となり、 私製 総合振込帳票の完全な自動認識処理を行なうことができる。
また、 各種任意帳票のレイァゥト認識結果 2 0に基づいて、 レイァゥ トログ情報を作成してレイァゥト D B 1 4に学習登録することにより、 以降は自動的に同一レイァゥトを有する帳票の判別が可能となるため、 専用帳票作成にかかる労力ゃコストを削減するとともに、 学習後はすぐ にエントリが可能となるため、 本装置 3 0によるシステムの導入期間の 短縮を図ることができる。 さらに、 帳票のイメージデータを常に解析処理しているため、 裁断誤 差や印刷誤差の少ない高価な専用 0 C R帳票以外の帳票の自動認識処理 を行なうことができる。
( a 2 ) 原点抽出照合処理の説明
F I G . 1 4は、 本発明の一実施形態にかかる媒体処理装置における 原点抽出照合処理の適用を示す処理説明図である。
一般的に、 光学的読取装置 (スキャナ, F A X等) を使用して読み取 つたイメージは、 読み取り時の位置ズレにより、 同一レイァゥ卜の場合 でも、 個々のレイァゥ卜の構成要素 (昇線項目や項目データ) のィメー ジの物理原点からの座標は同一にならない。
従って、 レイァゥ卜の構成要素を比較してレイァゥ卜の一致を判定す る場合、 それぞれのレイァゥ卜から抽出した論理原点位置を突き合わせ、 レイァゥト構成要素について論理原点からの相対座標を求め、 その相対 座標を使用して照合する必要がある。
この論理原点は、 イメージ読み取り時のゴミゃ掠れ等のイメージの変 動に対しても、 安定して抽出される必要があるため、 十分な精度を持ち 安定して抽出可能な座標位置を論理原点として選定する必要がある。
このため、 本実施形態においては、 複数の抽出方法を併用して論理原 点を抽出することにより、 任意のレイァゥトを有する帳票を処理する際 にも、 常に安定した論理原点を抽出しているのである。
ここで、 本発明の一実施形態にかかる媒体処理装置 3 0は、 F I G . 1 4に示すように、 レイァゥト解析処理部 2におけるレイァゥ卜解析処 理ステップ A 2 (及び A 9 ) は、 フォーマッ トの論理的な原点を抽出す る論理原点抽出ステップ M 1と、 このステップ M lで抽出された論理的 な原点を基準にしてフォーマツ トを含む媒体固有の特徴を抽出し抽出さ れた特徴から認識すべき情報の存在する位置を特定する情報存在位置特 定ステップとをそなえている。
また、 レイァゥ 卜照合処理部 3におけるレイァゥ 卜照合処理ステップ A 3 (及び A 1 0) は、 この情報存在位置特定ステップで特定された位 置で f イメージを認識する際に、 論理原点抽出ステップ Mlで抽出され た論理的な原点を基準にしてレイァゥト照合処理を行なうことにより
(ステップ M 2) 、 抽出された特徴における情報を判別するイメージ認 識ステップをそなえている。
また、 レイアウト解析処理部 2の論理原点抽出ステップ Mlでは、 フ ォ一マツ 卜の論理的な原点を抽出するほかに、 論理的な原点に対して補 助的な情報を付与する論理原点補助座標情報を抽出するようになってお り、 レイァゥ 卜照合処理部 3のイメージ認識ステップでは、 論理的な原 点及び論理原点補助座標情報を基準にしてレイァゥ卜照合処理を行なう ことにより (ステップ M2) 、 抽出された特徴における情報を判別する ようになっている。
ここで、 本実施形態においては、 レイアウトが^線により構成される 表構造を有している場合には、 F I G. 1 5 (a) に示すように、 フォ 一マツ 卜の論理原点として、 表構造を構成する角部のうち最小 X座標, 最小 Y座標を有する角部の座標情報 〔F I G. 1 5 (a) に示す座標 A 〕 が抽出されるとともに、 論理原点補助座標情報として、 それぞれ最大 X座標, 最小 Y座標を有する角部、 最小 X座標, 最大 Y座標を有する角 部、 最大 X座標, 最大 Y座標を有する角部の座標情報 〔それぞれ F I G. 1 5 (a) に示す座標 Aa, Ab, Ac〕 が抽出される。
また、 レイァゥトが鄞線を持たない無露線表構造を有している場合に は、 例えば F I G. 1 7に示すように、 フォーマッ トの論理的原点とし て、 外接矩形の角部のうち最小 X座標, 最小 Y座標を有する角部の座標 情報 (F I G. 1 7に示す座標 D) が抽出されるとともに、 論理原点補 助座標情報として、 外接矩形における最大 X座標, 最小 Y座標を有する 角部、 最小 X座標, 最大 Y座標を有する角部、 最大 X座標, 最大 Y座標 を有する角部の座標情報 (それぞれ F I G . 1 7に示す座標 D a , D b , D c ) が抽出される。
ここで、 まず、 論理原点抽出処理について説明する。
この論理原点抽出処理は、 具体的には、 F I G . 5に示すレイアウト 解析部 2 Bの表構造解析部 2 Eにおいて行なわれる。
この表構造解析部 2 Eは、 詳細には、 レイァゥト特徴抽出部 2 Aの鄞 線抽出部 2 Cで抽出された鄞線項目及びレイァゥト特徴抽出部 2 Aの項 目データ抽出部 2 Dで抽出された項目データに基づいて、 薪線項目の外 接矩形, 5線項目から形成される表構造の最大外接矩形及び項目データ の外接矩形を解析し、 これらの矩形から角部の座標を抽出して所定の座 標を論理原点座標及び補正座標として設定するものである。
このときのレイアウト解析処理部 2における動作を、 F I G . 1 8に 示すフローチヤ一トにより説明する。
まず、 処理対象レイァゥトが羅線を有する場合は、 論理原点抽出処理 の前処理として、 レイァゥ卜特徴抽出部 2 Aの鄞線抽出部 2 Cでは、 抽 出対象であるイメージデータから鄞線が抽出され (ステップ B 1 ) 、 続 いて、 抽出された蘇線により構成される最小矩形が^線項目として抽出 される (ステップ B 2 ) 。
そして、 レイァゥト解析部 2 Bの表構造解析部 2 Eでは、 鄞線項目が 抽出されたか否かが判断され (ステップ B 3 ) 、 鄞線項目が抽出された 場合であって、 抽出された露線項目同士が隣接または近傍に同じ幅また は高さで位置する場合には、 これらの歸線項目が論理的な関係を持っ^ 線項目群とみなされてグループ化される (ステップ B 4 ) 。
さらに、 表構造解析部 2 Eでは、 このグループ中に表構造 (ここで表 構造とは 2行 x 2列以上の鄞線項目群により構成される領域を指す) が 存在するか否かが判定される (ステップ B 5) 。
ここで、 表構造が存在する場合には、 表構造解析部 2 Eでは、 F I G. 1 5 (a) に斜線部 Iとして示すような表構造内の最大矩形領域が抽出 され、 矩形領域の 4隅の座標が取得される (ステップ B 6) 。
そして、 その矩形の左上座標 A (Xo, Yo ) が論理原点として、 残 りの右上座標 A a, 左下座標 A b, 右下座標 Acの 3箇所が論理原点の 補正座標として設定される (ステップ B 7, B 8) 。
また、 F I G. 1 5 (b) に示すように、 レイァゥ卜中に複数の表構 造が存在する場合には、 表構造解析部 2 Eでは、 個々の表構造が抽出さ れ (斜線部 I参照) 、 各矩形領域の 4隅の座標が取得される (ステップ B 6)
そして、 各表構造の論理原点を水平方向及び垂直方向に投影した際の 座標 B (最小 X座標, 最小 Y座標) 〔即ち (Xo, Yo ) 〕 が論理原点 として、 座標 B a (最大 X座標, 最小 Y座標) , 座標 Bb (最小 X座標, 最大 Y座標) , 座標 B e (最大 X座標, 最大 Y座標) の 3箇所が論理原 点の補正座標として設定される (ステップ B 7, B 8) 。
さらに、 線項目のグループ中に表構造が存在しない場合には、 表構 造解析部 2 Eでは、 F I G. 1 6に斜線部 Iとして示すような最も外側 に位置する鄞線項'目の矩形領域が抽出され、 各矩形領域の 4隅の座標が 取得される (ステップ B 12) 。
そして、 各矩形の論理原点を水平方向及び垂直方向に投影した際の座 標 C 〔 (最小 X座標, 最小 Y座標) , 即ち (Xo , Yo ) 〕 が論理原点 として、 座標 C a (最大 X座標, 最小 Y座標) , 座標 Cb (最小 X座標, 最大 Y座標) , 座標 C c (最大 X座標, 最大 Y座標) の 3箇所が論理原 点の補正座標として設定される (ステップ B 1 3, B 1 4) 。 ところで、 また昇線項目が全く存在しないレイアウ トの場合には、 レ ィァゥ 卜特徴抽出部 2 Aの項目データ抽出部 2 Dでは、 レイアウト中の 項目データが抽出され、 表構造解析部 2 Eでは、 F I G . 1 7に斜線部 I として示すような最も外側に位置する項目データの矩形領域が抽出さ れ、 各矩形領域の 4隅の座標が取得される (ステップ B 9 ) 。
そして、 各矩形の論理原点を水平方向及び垂直方向に投影した際の座 標 D 〔 (最小 X座標, 最小 Y座標) , 即ち (Xo , Yo ) 〕 が論理原点 として、 座標 D a (最大 X座標, 最小 Y座標) , 座標 D b (最小 X座標, 最大 Y座標) , 座標 D c (最大 X座標, 最大 Y座標) の 3箇所が論理原 点の補正座標として設定される (ステップ B 1 0 , B l l ) 。
さらに、 表構造解析部 2 Eでは、 上述のようにして抽出された論理原 点座標及び論理原点の補正座標のほかに、 論理原点の抽出の際に採用し た方法について記録した情報 (即ち、 論理原点が表構造, 鄞線項目及び 項目データのいずれから抽出されたかを示す情報) である論理原点抽出 方法も取得される。
なお、 以下では、 この論理原点抽出方法を示した各論理原点を表論理 原点, 葑線項目論理原点及び項目データ論理原点と呼称する場合がある そして、 レイアウト解析処理部 2においては、 論理原点抽出方法, 論 理原点座標及び論理原点補正座標が論理原点情報としてレイァゥ卜照合 処理部 3へ送出される。
続いて、 論理原点照合処理について説明する。
この論理原点照合処理は、 前述のごとく、 F I G . 1に示すレイァゥ ト照合処理部 3において行なわれる。
ここで、 レイアウトの照合の際には、 それぞれのレイアウトにおける レイアウト構成要素の座標を論理原点からの相対座標に変換して、 これ らの相対座標同士を突き合わせることにより、 それぞれのレイァゥトか ら抽出された論理原点同士の突き合わせが行なわれる。
しかし、 実際にはイメージの掠れや汚れ等の読み取り時の変動要因に より、 同一レイァゥ卜の場合でも論理原点の一致が取れない場合があり ί守 O
この場合には、 一方の論理原点の情報をもとに他方の論理原点を動的 に再度抽出し、 その上で論理原点の一致を判定する。
このときのレイァゥト照合処理部 3における動作を F I G. 2 1に示 すフローチヤ一トにより説明する。
まず、 本実施形態においては、 前述のごとく、 レイアウト解析処理部 2での論理原点の抽出には複数の方法があるため、 論理原点の照合に先 立って、 論理原点の抽出方法の一致の判定が行われる (ステップ C l, C 2)
論理原点の抽出方法が一致した場合には、 F I G. 1 9に示すように、 レイアウト L 1とレイアウト L 2のそれぞれの論理原点補正座標同士が 比較されて、 論理原点補正座標の一致が判定される (ステップ C 3〜C 5 ) o
ここで、 補正座標の一致の判定の際には、 レイアウト L 1の論理原点 座標 E (最小 X座標, 最小 Y座標) 及びレイアウト L 2の論理原点座標 F (最小 X座標, 最小 Y座標) 基づいて、 レイアウト L 1の補正座標 E a〜E c及びレイァゥ卜 L 2の補正座標 F a〜F cの相対座標 (E a' 〜E c' 及び F a' 〜F c' ) がそれぞれ求められ、 これらの相対座標 の一致判定により補正座標の一致判定が行なわれる。
即ち、 論理原点座標情報が加味された補正座標の一致判定を行なうこ とにより、 論理原点の一致が判定され、 レイアウトの照合が行なわれる のである (ステップ C 6 ) 。
なお、 相対座標の算出式を、 以下に式 (1) 〜式 (6) として示す。 (相対座標 E a ' = (補正座標 E a) - (論理原点座標 E)
( 1 )
(相対座標 E b' = (補正座標 E b) - (論理原点座標 E)
(2)
(相対座標 E c' = (補正座標 E c) - (論理原点座標 E)
(3)
(相対座標 F a' = (補正座標 F a) - (論理原点座標 F)
(4 )
(相対座標 F b' = (補正座標 F b) - (論理原点座標 F)
(5)
(相対座標 F c' = (補正座標 F c) - (論理原点座標 F)
(6) また、 相対座標の一致条件を、 以下に式 (7) 〜式 (9) として示す < I (相対座標 E a' ) 一 (相対座標 F a' ) I ≤ ε
(ε :一致範囲) · · · ( 7) I (相対座標 E b' ) ― (相対座標 F b' ) I ≤ ε
( ε —致範囲) · · · (8 ) I (相対座標 E c' ) 一 (相対座標 F c' ) I ≤ ε
(£ :一致範囲) · · · (9) ところで、 論理原点の抽出方式が不一致である場合 (ステップ C 2参 照) や、 補正座標が不一致である場合 (ステップ C 4参照) には、 一方 のレイァゥ卜の論理原点情報をもとに、 他方のレイァゥ卜の論理原点の 再抽出が行なわれる。
ここで、 F I G. 2 0 (a) に示すように、 レイアウト L 1の一部分 が鄞線の掠れにより抽出できなかった場合には、 レイアウト L 1の論理 原点情報 (論理原点抽出方法, 論理原点座標 G, 補正座標 G a〜G c) を使用して、 F I G. 2 0 (b) に示すように、 レイァゥ卜 2におけ る新たな論理原点座標 H' , 補正座標 H' a, Hb, H eが抽出される (ステップ C 7 , C 8) 。
このときの論理原点情報の再抽出の際には、 まず、 レイアウト L 1及 びレイアウト L 2の'論理原点座標及び補正座標から、 F I G. 2 0 ( a) 及び F I G. 2 0 (b) において図示すように、 X座標間の差分 X a . Xb, Χ' a, Χ' b及び Y座標間の差分 Y a, Yb, Υ' a, Υ ' aがそれぞれ算出される。
なお、 差分の算出式を、 以下に式 (1 0) 〜式 (1 7) として示す。 (レイアウト L 1)
差分 Xa =
I (補正座標 G aの X座標) 一 (論理原点座標 Gの X座標) I
- … (10) 差分 Xb =
I (補正座標 Gcの X座標) 一 (補正座標 Gbの X座標) I
- … (1 1) 差分 Ya =
I (補正座標 Gbの Y座標) 一 (論理原点座標 Gの Y座標) I
• · · (1 2) 差分 Yb =
I (補正座標 Gcの Y座標) 一 (補正座標 G aの Y座標) I
• … (1 3)
(レイアウト L 2)
差分 X' a =
I (補正座標 Haの X座標) 一 (論理原点座標 Hの X座標) |
• … (1 4) 差分 X' b =
I (補正座標 H eの X座標) (補正座標 Hbの X座標)
(1 5) 差分 Y' a =
I (補正座標 Hbの Y座標) 一 (論理原点座標 Hの Y座標)
(1 6) 差分 Y' b =
I (補正座標 Heの Y座標) 一 (補正座標 Haの Y座標) I
… · (1 7) 続いて、 算出された差分が比較されて、 一致しない差分があるか否か が判定される。
ここで、 レイアウト L 1及びレイァゥト L 2においては、 差分 Yaと 差分 Y' aとが一致しないとともに、 差分 Ybと差分 Y' bとが一致し ないため、 レイアウト L 1の差分 Y a, Y bと一致する差分をレイァゥ ト L 2の各座標から探索する。
換言すれば、 レイアウト L 1の論理原点抽出方法に従って、 レイァゥ ト L 2から論理原点及び補正座標が探索されるのである (ステップ C 7, C 8参照) 。
探索の結果、 一致する座標が検出できた場合には、 F I G. 20 ( b) に示すように'、 その座標を論理原点 H' 及び補正座標 H' aとして として使用する。
また、 探索の結果、 一致する座標が検出できない場合には、 レイァゥ ト L 2の論理原点抽出方法に従って、 レイアウト L 1から論理原点及び 補正座標が上述の場合と同様に探索される (ステップ C 9, C 1 0) 。 なお、 このようにしても一致する座標が検出できない場合は、 レイァ ゥ卜の照合は行なわれない (ステップ C 1 1) 。 このように、 本発明の一実施形態にかかる媒体処理装置における原点 抽出照合処理によれば、 イメージデータから抽出された羅線項目や項目 データに基づいて処理対象の帳票のレイァゥ卜解析を行ない、 レイァゥ 卜解析により得られた領域の角部の座標のうちの所定の座標を論理原点 座標及び補正座標とすることにより、 基準マーク等が印字された専用帳 票以外の一般帳票のイメージデータからでも論理原点座標及び補正座標 を抽出することができる。
また、 複数の論理原点抽出方法の中から最適の方法を動的に選択する ことにより、 処理対象の帳票のレイァゥ卜に適した論理原点抽出を行な うことができる。
さらに、 論理原点抽出時に、 論理原点の付加情報として補正座標を同 時に抽出することにより、 レイァゥ卜照合処理での論理原点の照合時に、 確実に一致を取ることが可能となる。
即ち、 論理原点座標が加味された補正座標の相対座標を照合すること を通じて論理原点の照合を行なっているので、 イメージ読み取り時の位 置ズレが起こった場合でも確実にレイァゥ卜の照合処理を行なえるよう (こ る。
また、 ゴミや掠れ等により論理原点が正しく抽出できない場合でも、 他のレイァゥ卜の論理原点抽出方法に従い、 補正座標を使用して論理原 点の再抽出を行な'うことにより、 確実に抽出できる別の点を論理原点と することが可能となる。
なお、 本実施形態においては、 レイアウトの左上端の点を論理原点と したが、 これに限定されず、 右上端, 左下端及び右下端の点を論理原点 としてもよい。
( a 3 ) イメージデータの回転補正処理の説明
一般的に、 帳票処理装置等においては、 処理対象の帳票の読取方向が 正しい方向でなければ、 イメージデータ (イメージ) の文字記述方向が 正しい方向とならないため、 文字認識処理を行なうことができない。
このため、 本発明の一実施形態にかかる媒体処理装置 3 0においては、 例えば前述した原点抽出処理時に、 読み取られたイメージの方向を判定 して、 イメージの方向が誤っていた場合には、 正しい方向となるように ィメージの回転補正処理を行なうことにより、 処理対象の帳票の読取方 向が誤っていた場合でも、 後述するイメージのレイァゥ 卜解析処理や文 字認識処理を行なうことができるようになつている。
ここで、 このイメージデータの回転補正処理は、 前述のごとく、 F I G. 1及び F I G. 5に示すレイアウ ト解析処理部 2において行なわれ ており、 レイアウ ト解析処理部 2は、 イメージデータの回転補正処理を 実現するために、 読み取ったイメージのレイァゥ 卜が所定の方向である かどうかを判定するステップと、 このステップでの判定結果に基づきレ ィアウ トが所定の方向となるように読み取ったイメージデータのレイァ ゥ トを回転させるステップとを含んでいる。
ここで、 本実施形態にかかる媒体処理装置 3 0におけるイメージデー 夕の回転補正処理に着目した機能ブロック図を F I G. 8, F I G. 9 に示す。 F I G. 8は鄞線項目のある帳票を処理する場合の、 F I G. 9は鄞線項目のない帳票を処理する場合の機能プロック図である。
露線項目のある帳票を処理する場合には、 媒体処理装置 3 0において は、 F I G. 8に示すように、 イメージ入力部 3 0 1 , イメージデータ 格納メモリ 3 0 2, 回転イメージデータ格納メモリ 3 0 3, 昇線項目抽 出部 (昇線抽出部) 2 C, 露線項目情報格納部 3 0 4, 鄞線項目解析部 (表構造解析部) 2 E, 縦 Z横判定設定部 3 0 5, 横長薪線項目格納部 3 0 6, イメージ 9 0度回転部 3 0 7, イメージ 1 8 0度回転部 3 0 8 及び文字列認識部 (文字認識処理ブロック) 1 7が機能する。 イメージ入力部 3 0 1は、 帳票等のイメージデータを読み取るもので あり、 イメージラ ータ格納メモリ 3 0 2は、 読み取ったイメージデータ を一端格納しておくメモリである。
また、 回転イメージデータ格納メモリ 3 0 3は、 回転補正処理が施さ れたイメージデータを格納しておくメモリであり、 この回転イメージデ —タ格納メモリ 3 0 3に格納されたイメージデータを用いて、 以降のレ ィアウ ト認識処理や文字認識処理等が行なわれることになる。
さらに、 募線項目抽出部 (葑線抽出部) 2 Cは、 読み取られたィメー ジデータを探索して、 鄞線から形成される最小矩形である鄞線項目を自 動的に抽出するものであり、 ^線項目情報格納部 3 0 4は、 ^線項目抽 出部 2 Cにより抽出された羅線項目情報を格納しておくメモリである。 また、 鄞線項目解析部 (表構造解析部) 2 Eは、 鄞線項目情報格納部 3 0 4に格納される葑線項目の形状が縦長ノ横長のいずれであるかを解 析することにより、 イメージデータの読取方向が縦読み/横読みのいず れであるかを判定するものである。
ここで、 銀行や企業等で取り扱う帳票や文書類は、 通常は横方向に記 述されたものが多い。 このため、 鄞線項目も横長となることが多く、 横 長の鄞線項目が縦長の鄞線項目より多いという条件を判定条件として、 縦 Z横判定設定部 3 0 5に設定して、 設定された判定条件に基づいてィ メージデータの読取方向を判定するようになっている。
さらに、 横長葑線項目格納部 3 0 6は、 ^線項目解析部 2 Eで横長で あると判定された鄞線項目を格納するものである。
また、 イメージ 9 0度回転部 3 0 7は、 昇線項目解析部 2 Eで露線項 目が縦長であると判定された場合には、 イメージデータを 9 0度回転さ せてィメージデータの回転補正を行なうものである。
さらに、 文字列認識部 1 7は、 露線項目内の文字を認識するものであ り、 イメージ 1 8 0度回転部 3 0 8は、 文字列認識部 1 7において文字 認識ができない場合には、 イメージデ一夕を 1 8 0度回転させてィメー ジデータの回転補正を行なうものである。
なお、 回転補正されたイメージデータは、 イメージデータ格納メモリ 3 0 2及び回転イメージデータ格納メモリ 3 0 3に格納され、 上述の場 合と同様に、 ^線項目抽出部 2 C, 鄞線項目解析部 2 E及び文字列認識 部 1 7における処理が施される。
また、 羅線項目のない帳票を処理する場合には、 媒体処理装置 3 0に おいては、 F I G . 9に示すように、 イメージ入力部 3 0 1, イメージ データ格納メモリ 3 0 2 , 回転イメージデータ格納メモリ 3 0 3, ラベ リ ング部 3 0 9 , ラベリング情報格納部 3 1 0, 文字領域統合部 3 1 1 , 文字領域統合ルール部 3 1 2 , 統合結果格納部 3 1 3, 文字列縦 Z横判 定部 3 1 4, イメージ 9 0度回転部 3 0 7, イメージ 1 8 0度回転部 3
0 8及び文字列認識部 (文字認識処理ブロック) 1 7が機能する。
イメージ入力部 3 0 1, イメージデータ格納メモリ 3 0 2及び回転ィ メ一ジデータ格納メモリ 3 0 3は、 前述したものと同様の機能及び構成 を有するものである。
また、 ラベリ ング部 3 0 9は、 画素情報から連続する ドッ 卜情報を抽 出するラベリ ング処理を行なうものであり、 ラベリ ング情報格納部 3 1 0は、 ラベリ ング部 3 0 9により抽出された連続する ドッ ト情報を格納 しておくメモリである。
さらに、 文字領域統合部 3 1 1は、 文字領域統合ルール部 3 1 2によ り設定される統合ルールに基づいて、 ラベリ ング部 3 0 9により抽出さ れたドッ 卜情報に基づいて連続した文字を文字列として統合することに より項目データを抽出するものであり、 統合結果格納部 3 1 3は、 文字 領域統合部 3 1 1により抽出された項目データを格納しておく ものであ る o
即ち、 ラベリング部 3 0 9, ラベリング情報格納部 3 1 0 , 文字領域 統合部 3 1 1 , 文字領域統合ルール部 3 1 2及び統合結果格納部 3 1 3 により、 項目データ抽出部 2 Dが構成されているのである。
また、 文字列縦/横判定部 3 1 4は、 文字領域統合部 3 1 1により抽 出された項目データの形状が縦長 横長のいずれであるかを解析するこ とにより、 イメージデータの読取方向が縦読み 横読みのいずれである かを判定するものである。
さらに、 イメージ 9 0度回転部 3 0 7は、 文字列縦ノ横判定部 3 1 4 で項目データが縦長であると判定された場合には、 イメージデータを 9 0度回転させてィメ一ジデー夕の回転補正を行なうものである。
さらに、 文字列認識部 1 7は、 項目データ内の文字を認識するもので あり、 イメージ 1 8 0度回転部 3 0 8は、 文字列認識部 1 7において文 字認識ができない場合には、 イメージデータを 1 8 0度回転させてィメ —ジデータの回転補正を行なうものである。
なお、 回転補正されたイメージデータは、 イメージデータ格納メモリ 3 0 2及び回転ィメージデータ格納メモリ 3 0 3に格納され、 上述の場 合と同様に、 ラベリング部 3 0 9 , 文字領域統合部 3 1 1, 文字列縦ノ 横判定部 3 1 4及び文字列認識部 1 7における処理が施される。
上述の構成により、 本発明の一実施形態にかかる媒体処理装置 3 0に おいては、 イメージ入力部 3 0 1からイメージデータが入力されると、 イメージデータから葑線項目又は項目データが抽出される。
ここで、 イメージデータに葑線項目がある場合には、 鄞線項目抽出部 2 Cにより爵線項目が抽出され、 昇線項目解析部 2 Eにより抽出された 霽線項目の形状が縦長 横長のいずれであるかが解析される。
そして、 鄞線項目の形状が縦長であると解析された場合には、 ィメ一 ジ 9 0度回転部 3 0 7によりイメージデータが 9 0度回転補正される。 また、 ^線項目の形状が横長であると解析された場合には、 文字列認 識部 1 7により露線項目の文字認識が行なわれ、 文字認識ができない場 合には、 イメージ 1 8 0度回転部 3 0 8によりイメージデータが 1 8 0 度回転補正される。
さらに、 イメージデータに鄞線項目がない場合には、 文字領域統合部 3 1 1により項目データが抽出され、 文字領域統合部 3 1 1により抽出 された項目データの形状が縦長 Z横長のいずれであるかが解析される。 ここで、 項目データの形状が縦長であると解析された場合には、 ィメ ージ 9 0度回転部 3 0 7によりイメージデータが 9 0度回転補正される c また、 項目データの形状が横長であると解析された場合には、 文字列 認識部 1 7により爵線項目の文字認識が行なわれ、 文字認識ができない 場合には、 イメージ 1 8 0度回転部 3 0 8によりイメージデータが 1 8
0度回転捕正される。
このときの媒体処理装置 3 0におけるイメージデータ回転補正処理に ついて、 F I G . 1 2及び F I G . 1 3に示すフローチャートを用いて 更に説明する。
まず、 ィメ一ジ認識処理したい帳票や文書等のィメ一ジデータの読み 取りが行なわれる (ステップ G 1 ) 。 なお、 帳票や文書等の用紙は、 ど の方向から読み取られてもよい。
例えば F I G . 1 0に示すような鄞線項目のある帳票 3 2 0が読み取 られた場合には、 読み取られたイメージデータが、 イメージデータ格納 メモリ 3 0 2に一端格納される (ステップ G 2 ) 。 なお、 最初のみ回転 イメージデータ格納メモリ 3 0 3にも同じイメージデータが格納される (ステツプ G 3 ) 。
次に、 鄞線項目抽出部 2 Cにより、 イメージデータ中の鄞線項目 (例 えば F I G . 1 0には鄞線項目 Mが図示されている) が抽出される (ス テツプ G 4 ) 。
ここで、 露線項目が抽出できた場合には、 羅線項目情報格納部 3 0 4 に鄞線項目情報が格納される (ステップ G 5, G 6 ) 。
鄞線項目解析部 2 Eでは、 鄙線項目情報格納部 3 0 4に格納された露 線項目情報に基づいて昇線項目の形状が解析され、 ^線項目が縦長であ るか横長であるかが判定され分類され (ステップ G 7 , G 8 ) 、 横長で ある鄞線項目情報が、 横長鄞線項目格納部 3 0 6に格納される (ステツ プ G 9 ) 。
さらに、 鄞線項目解析部 2 Eでは、 縦ノ横判定設定部 3 0 5により設 定される判定条件に基づいて、 横長の鄞線項目が縦長の鄙線項目より多 いか否かの判定により、 イメージデータの読み取り方向の正誤が判定さ れる (ステップ G 1 0 ) 。
ここで、 鄞線項目解析部 2 Eで横長鄞線項目の方が多いと判定された 場合には、 文字列認識部 1 7で文字認識が行なわれる (ステップ G 1 0 の Y E Sルー卜からステップ G 1 1 ) 。
文字列認識部 1 7で文字認識が可能であれば、 イメージデータの読取 方向が正常であると判断される (ステップ G 1 2の Y E Sルート) 。 また、 文字列認識部 1 7で文字認識が不可能であれば、 イメージが 1 8 0度回転している (イメージの上下が逆転している) 可能性があるた め、 イメージ 1 8 0度回転部 3 0 8により、 回転ィメージデータ格钠メ モリ 3 0 3のイメージデータが一端イメージデータ格納メモリ 3 0 2に 移動された後 1 8 0度回転補正され (ステップ G 1 4 ) 、 1 8 0度回転 された後のイメージデータが回転イメージデータ格納メモリ 3 0 3に格 納されて、 上述した処理と同様の処理が行なわれる (ステップ G 4〜G 1 2 ) さらに、 鄞線項目解析部 2 Eで縦長葑線項目の方が多いと判定された 場合には、 イメージ 9 0度回転部 3 0 8により、 イメージデータ格納メ モリ 3 0 2に格納されるイメージデータが 9 0度回転補正され (ステツ プ G 1 3 ) 、 回転イメージデータ格納メモリ 3 0 3に回転後のイメージ データが格納されて、 上述した処理と同様の処理が行なわれる (ステツ プ G 4〜ステップ G 1 2 ) 。
そして、 9 0度回転補正処理を施した後のイメージデータについても- 文字列認識部 1 7で文字認識が不可能であれば、 イメージが 1 8 0度回 転している可能性があるため、 イメージ 1 8 0度回転部 3 0 8により、 回転イメージデータ格納メモリ 3 0 3のイメージデータが一端イメージ データ格納メモリ 3 0 2に移動された後 1 8 0度回転補正され (ステツ プ G 1 4 ) 、 1 8 0度回転された後のイメージデータが回転イメージデ 一夕格納メモリ 3 0 3に格納されて、 上述した処理と同様の処理が行な われる (ステップ G 4〜G 1 2 ) 。
また、 上述のステップ G 5において ^線項目が抽出できない場合は、 例えば F I G . 1 1に示すような鄞線項目のない帳票 3 2 1が読み取ら れた場合であるため、 項目データを抽出するために以下の処理が行なわ れる。
まず、 ラベリ ング部 3 0 9では、 回転イメージデータ格納メモリ 3 0 3に格納されているイメージデータからラベリ ング情報 (例えば F I G . 1 1にはラベリ ング情報 Nが図示されている) が抽出され (ステップ G 5の N Oルートから F I G . 1 3のステップ G 1 5 ) 、 抽出されたラベ リ ング情報はラベリ ング情報格納部 3 1 0に格納される (ステップ G 1 6 )
次に、 文字領域統合部 3 1 1では、 文字領域統合ルール部 3 1 2のル ールに基づいて、 ラベリ ング情報格納部 3 1 0に格納されるラベリ ング 情報における個々のラベリ ング情報が文字列として統合されることによ り項目データ (例えば F I G . 1 1には、 7つのラベリ ング情報 "出" , "張" , "旅" , "費" , "精" , "算" , "書" が文字列として統合 された文字領域統合結果 ( "出張旅費精算書" ; 0 ) が項目データとし て図示されている) が抽出され (ステップ G 1 7 ) 、 統合結果が統合結 果格納部 3 1 3に格納される (ステップ G 1 8 ) 。
さらに、 文字縦 Z横判定部 3 1 4では、 横長の項目データが縦長の項 目データより多いか否かの判定により、 イメージデータの読み取り方向 の正誤が判定される (ステップ G 1 9 ) 。
ここで、 文字縦/横判定部 3 1 4で横長項目データの方が多いと判定 された場合には、 文字列認識部 1 7で文字認識が行なわれる (ステップ G 2 0 ) o
文字列認識部 1 7で文字認識が可能であれば、 イメージデータの読取 方向が正常であると判断される (ステップ G 2 1 ) 。
また、 文字列認識部 1 7で文字認識が不可能であれば、 イメージが 1 8 0度回転している可能性があるため、 イメージ 1 8 0度回転部 3 0 8 により、 回転イメージデータ格納メモリ 3 0 3のイメージデータが一端 イメージデータ格納メモリ 3 0 2に移動された後 1 8 0度回転補正され (ステップ G 2 3 ) 、 1 8 0度回転された後のイメージデータが回転ィ メ一ジデータ格納メモリ 3 0 3に格納されて、 上述した処理と同様の処 理が行なわれる (ステツプ G 1 5〜G 2 1 ) 。
さらに、 文字縦 Z横判定部 3 1 4で縦長項目データの方が多いと判定 された場合には、 イメージ 9 0度回転部 3 0 8により、 イメージデータ 格納メモリ 3 0 2に格納されたイメージデータが 9 0度回転補正され (ステップ G 2 2 ) 、 回転イメージデータ格納メモリ 3 0 3に回転後の イメージデータが格納されて、 上述した処理と同様の処理が行なわれる (ステップ G 1 5〜ステップ G 2 1 ) 。
そして、 9 0度回転補正処理を施した後のイメージデータについても, 文字列認識部 1 7で文字認識が不可能であれば、 イメージが 1 8 0度回 転している可能性があるため、 イメージ 1 8 0度回転部 3 0 8により、 回転イメージデータ格納メモリ 3 0 3のイメージデータが一端イメージ データ格納メモリ 3 0 2に移動された後 1 8 0度回転補正され (ステツ プ G 2 3 ) 、 1 8 0度回転された後のイメージデータが回転イメージデ 一夕格納メモリ 3 0 3に格納されて、 上述した処理と同様の処理が行な われる (ステツプ G 1 5〜G 2 1 ) 。
このように、 本発明の一実施形態にかかる媒体処理装置 3 0によれば、 読み取られたイメージデータから鄞線項目又は項目データを抽出して、 抽出された葑線項目又は項目データの形状が横長であるか縦長であるか を判断して、 鄞線項目又は項目データの形状が縦長である場合には、 ィ メージデータの 9 0度回転補正を行ない、 鄞線項目又は項目データの形 状が横長であっても文字認識できない場合には、 イメージデータの 1 8 0度回転補正を行なうことにより、 ィメ一ジデータがどのような方向か ら読み取られてもイメージデータの読取方向を自動的に判定でき、 ィメ ージデータの読取方向が誤っている場合には自動的にィメージデータを 回転補正して、 オペレータによる確認及び回転補正操作を不要にでき、 クライアントーサーバシステムでの帳票の自動処理を効率的に行なうこ とができる利点がある。
( a 4 ) マ卜リ ックス照合処理の説明
一般的に、 帳票処理装置等においては、 処理対象の帳票のレイァゥ 卜 とレイアウ ト D B等に格納されるレイァゥ 卜との照合処理の際に、 個々 のレイアウ トの構成要素 (葑線項目や項目データ等) を順次照合して座 標ゃサイズ等の比較を行なうため、 レイアウ トの構成要素数 (N ) の增 加に伴い照合回数が非常に多くなり、 大量の帳票のレイアウ トの照合処 理を高速に行なうことができない。
このため、 本発明の一実施形態にかかる媒体処理装置 3 0においては- レイア kの構成要素の一つである鮮線項目のレイァゥトを圧縮処理し てマトリ ノクステーブルとして表現し、 レイアウ トの照合時にそのマト リックステーブル同士を照合することにより、 大量の帳票のレイァゥト の照合処理を高速に行なうことができるようになつている。
ここで、 本発明の一実施形態にかかる媒体処理装置 3 0は、 レイァゥ 卜照合処理部 3カ^ レイァゥ 卜解析処理部 2により抽出された羅線項目 のレイアウトを圧縮処理してマトリックステーブルとして表現し、 この マトリックステーブルを制約検索条件としてレイァゥト D B 1 4に記憶 されている参照用のマ卜リックス 一ブルを検索し、 一致しているマ卜 リックステーブルがあるかどうかを照合するようになっており、 文字認 識処理ブロック 1 Ίが、 この照合結果に基づき、 特定された位置でのィ メージにおける情報を判別するようになっている。
ここで、 本実施形態にかかる媒体処理装置 3 0におけるマト リ ックス 照合処理に着目した処理説明図を F I G . 2 2に示す。
媒体処理装置 3 0においては、 F I G . 2 2に示すように、 まず、 処 理対象の帳票が読み取られて解析対象のイメージデータ 1 9が入力され ると、 レイアウト解析処理部 2では、 入力されたイメージデータを解析 して羅線線分が抽出され、 鄞線線分により構成される矩形が葑線項目と して抽出される。
このとき、 鄞線線分等からイメージの斜度が算出されて、 抽出された 個々の羅線項目の座標位置の斜行補正が施されるとともに、 レイアウト の論理原点及び補正座標が抽出されて、 補正された葑線項目の座標位置 や論理原点及び補正座標がレイァゥ卜情報に設定される (ステップ F 1 ) o
続いて、 レイァゥ ト照合処理部 3では、 入力されたイメージデータに 対応する 1 0 D P I (Dot Per Inch) 相当のビッ トテーブルが作成され、 レイァゥ 卜情報における個々の爵線項目の左上座標及び最下行の ϋ線項 目の右下座標がビッ 卜テーブル上の対応する位置にプロッ 卜される。 さらに、 作成されたビッ トテ一ブルが、 行内のデータの有無に基づい て圧縮処理されるとともに、 行構成の規則性に基づいて行方向に圧縮処 理されて、 マ卜リ ツクステーブルが作成される (ステップ F 2 ) 。
このように圧縮されたマトリ ックステーブルが、 他のレイアウ ト情報 とともにレイアウ ト D B 1 4に格納される (ステップ F 3 ) 。
なお、 上述のステップ F 1は F I G . 2に示すステップ A 2に相当し、 上述のステップ F 2及びステップ F 3は F I G . 2に示すステップ A 3 に相当する。
また、 媒体処理装置 3 0においては、 照合対象の帳票が読み取られて 解析対象のイメージデータ 1 9が入力されると、 レイアウ ト解析処理部 2では、 入力されたイメージデータについて上述のステップ F 1 と同様 の処理が施され、 蘇線項目の座標位置や論理原点及び補正座標がレイァ ゥ ト情報に設定される (ステップ F 4 ) 。
続いて、 レイァゥ ト照合処理部 3では、 入力されたイメージデータに ついて上述のステップ F 2と同様の処理が施され、 マトリ ックステープ ルが作成される (ステップ F 5 ) 。
ここで、 レイアウ ト照合処理部 3では、 レイアウ ト D B 1 4から照合 対象のマトリ ックステーブルが読み出され、 読み出された照合対象のマ トリ ックステーブルと上述のステップ F 5で作成されたマトリ ックステ —ブルとの照合が、 個々のレイァゥ 卜の論理原点を基準としてビッ 卜位 置が行単位で照合されることにより行なわれる。 また、 マ卜リックステーブルのビッ ト位置の照合結果から、 全照合ビ ッ 卜数に対する一致ビッ 卜数が算出され、 マトリックステーブルの一致 率として照合結果 2 0 0が出力される (ステップ F 6 ) 。
なお、 上述のステップ F 4は F I G . 2に示すステツプ A 9に相当し- 上述のステップ F 5及びステップ F 6は F I G . 2に示すステップ A 1 0に相当する。
ここで、 上述のステップ F 2及びステップ F 5におけるマトリックス テーブル作成処理について F I G . 2 3を用いて説明する。
まず、 マトリックステーブルの作成対象であるイメージから 線が抽 出され、 抽出された 線から鄞線項目 (鄞線により構成される最小の矩 形領域) が抽出される。 このとき、 レイアウトの斜度情報に基づいて、 抽出された鄞線項目における各座標の斜行補正が行われる (ステップ F 2 1 )
続いて、 レイァゥト上の^線の直線性を調べることにより S線の歪み 率が取得され、 ステップ F 2 1で斜行補正された^線項目における各座 標の歪み補正が行なわれる (ステップ F 2 2 ) 。
さらに、 F I G . 2 4 ( a ) に示すように、 鄞線項目を構成する水平 鄞線を参照して、 鄙線項目の上側 線が同一の鄞線を共有する昇線項目 について、 左上 Y座標の値が全て同じ値となるように設定されて、 Y座 標の正規化が行な れるとともに (ステップ F 2 3 ) 、 F I G . 2 4
( b ) に示すように、 鄞線項目を構成する垂直^線を参照して、 募線項 目の左側昇線が同一の葑線を共有する鄞線項目について、 左上 X座標の 値が全て同じ値となるように設定されて、 X座標の正規化が行なわれる (ステップ F 2 4 ) 。
即ち、 本実施形態においては、 鄞線項目のレイァゥ卜が反映されたビ ッ トテーブルの圧縮処理に先立って、 読み取られたイメージデータにつ いて、 斜行補正及び歪み補正処理を施すとともに (ステップ F 2 1, F 2 2参照) 、 鮮線項目を構成する水平^線を参照して、 葑線項目の上側 鄞線が同一露線を共有する^線項目に対して、 同一 Y座標化処理を施し (ステップ F 2 3参照) 、 羅線項目を構成する垂直鮮線を参照して、 葑 線項目の左側葑線が同一葑線を共有する羅線項目に対して、 同一 X座標 化処理を施すことにより (ステップ F 2 4参照) 、 イメージデータの読 み取り時に生じるレイァゥ卜の変動を吸収するようになっている。
また、 F I G . 2 5に示すように、 レイアウト上の全ての^線項目に ついて、 同一の Y座標を持つ羅線項目単位毎に、 鄞線項目左上座標がビ ッ 卜テーブルの指定解像度に合わせて座標変換 (ビッ 卜列変換) され、 テーブルの該当位置にビッ 卜が設定される。
このとき、 F I G . 2 6に示すように、 行管理情報 Jに、 変換された 鄙線項目の Y座標の間隔が設定される (ステップ F 2 5 ) 。
ここで、 F I G . 2 7に示すように、 ステップ F 2 5で変換作成され たビッ 卜テーブルが、 先頭行より順次比較処理され、 継続して同一ビッ ト構成を持つ行が 1行に行方向に圧縮されて圧縮済行ビッ ト情報 κが作 成され、 行管理情報 Jに行圧縮情報として圧縮済フラグ Qが設定される (ステップ F 2 6 ) 。
そして、 F I G . 2 8に示すように、 作成された圧縮済行ビッ ト情報 K及び行管理情報 Jからなるマトリックステーブル情報 Sが、 マトリツ クステーブルとして設定される (ステップ F 2 7 ) 。
即ち、 本実施形態においては、 鮮線項目のレイアウトの圧縮処理に際 して、 ^線項目のレイアウトが相当するビッ ト列に変換され、 このビッ 卜列を圧縮処理して、 この圧縮処理されたビッ 卜テーブルをマ卜リック ステーブルとして設定することにより、 レイアウト照合時の照合回数が、 レイァゥ 卜の構成要素数 (N ) に依存せず、 照合対象のレイァゥト数に 直線的に比例するだけとなり、 大量の帳票のレイァゥ 卜の照合処理を高 速に行なうことができるのである。
さらに、 上述のステップ F 6におけるマ卜リ ックステーブル照合処理 について F I G. 2 9, F I G. 30に示すフローチャートを用いて説 明する。
まず、 レイァゥ 卜照合処理部 3においては、 例えば F I G. 3 1 ( a) に示すような照合元マトリクス情報が作成されて取得され、 この照 合元マ卜リ ックス情報の圧縮済行ビッ ト情報 (K 1) が照合元ワーク領 域に設定される (ステップ D 1) 。
また、 例えば F I G. 3 1 (b) に示すような照合先マトリクス情報 がレイアウ ト DB 1 4から取得され、 この照合先マトリ ックス情報の圧 縮済行ビッ ト情報 (Κ' 1) が照合先ワーク領域に設定される (ステツ プ D 2 ) 。
続いて、 レイアウ ト照合処理部 3においては、 圧縮済行ビッ ト情報 (Κ 1) , (Κ' 1) が先頭ビッ トより順に比較照合され、 1行分の照 合が行われる (ステップ D 3) 。
ここで、 圧縮済行ビッ ト情報 (Κ 1) , (Κ' 1) が不一致である場 合は、 照合結果 2 00 (F I G. 22参照) として不一致が設定される 力 (ステップ D 4, ステップ D 1 0) 、 ここでは圧縮済行ビッ ト情報 (K 1) , (Κ' 1) がー致しているため、 照合元圧縮済行ビッ ト情報 が、 行管理情報 Jに基づいて、 照合元ワーク領域に設定される (ステ ップ D 4, ステップ D 5 ) 。
このステップ D 5では、 行管理情報 Jを参照することにより (ステツ プ E 1) 、 行管理情報 Jの該当行に圧縮済フラグ Qが設定されている場 合には圧縮行であると判断されて、 直前の照合行の圧縮済行ビッ ト情報 Kが照合元ワーク領域に設定され (ステップ E 2, ステップ E 4) 、 行 管理情報 Jの該当行に圧縮済フラグ Qが設定されていない場合には非圧 縮行であると判断されて新規に該当する行の圧縮済行ビッ ト情報 Kが照 合元ワーク領域に設定される (ステップ E 2 , ステップ E 3 ) 。
また、 照合先圧縮済行ビッ ト情報 K ' も、 行管理情報: Γ に基づいて、 照合先ワーク領域に設定される (ステップ D 6 ) 。
このステップ D 6でも、 上述のステップ D 5での場合と同様に、 行管 理情報 J ' を参照することにより (ステップ Ε 1 ) 、 行管理情報 J ' の 該当行に圧縮済フラグ Q ' が設定されている場合には圧縮行であると判 断されて、 直前の照合行の圧縮済行ビッ 卜情報 K ' が照合元ワーク領域 に設定され (ステップ E 2, ステップ E 4 ) 、 行管理情報 J ' の該当行 に圧縮済フラグ Q ' が設定されていない場合には非圧縮行であると判断 されて新規に該当する行の圧縮済行ビッ ト情報 K ' が照合元ワーク領域 に設定される (ステップ E 2, ステップ E 3 ) 。
このようにして、 全行について圧縮済行ビッ ト情報 Κ, Κ ' を比較し た結果、 全ての行が一定範囲内で一致する場合には、 照合結果 2 0 0と して一致が設定される (ステップ D 7〜ステップ D 9 ) 。
また、 比較処理中に不一致となった場合や、 比較終了前に一方の行ビ ッ ト情報が終了した場合には、 照合結果 2 0 0として不一致が設定され る (ステップ D 7, ステップ D 8, ステップ D 1 0 ) 。
このように、 本発明の一実施形態にかかる媒体処理装置におけるマト リ ックス照合処理によれば、 レイァゥ 卜の構成要素の一つである葑線項 目のレイァゥ トを圧縮処理してマ卜リ ックステ一ブルとして表現し、 レ ィァゥ 卜の照合時にそのマトリ ックステーブル同士を照合することによ り、 レイアウ ト照合処理速度が露線項目の数に依存せず、 照合対象レイ ァゥ 卜数に直線的に比例するだけになり、 大量の帳票のレイァゥ 卜の照 合処理を高速に行なうことができる。 このとき、 照合対象レイァゥ 卜を、 そのレイァゥトを構成する葑線項 目により表現することにより、 レイァゥトを安定して表現することが可 能となるのである。
また、 ^線項目のレイァゥ卜が反映されたビッ 卜テーブルの圧縮処理 に先立って、 読み取られたイメージデータについて、 斜行補正及び歪み 補正処理を施すとともに、 各^線項目に対して同一 Y座標化処理及び同 —X座標化処理を施して、 間引きされたビッ 卜テーブルを作成すること により、 イメージデータの読み取り時に生じるレイァゥ卜の変動を吸収 することができる。
さらに、 1次元帳票の特性に合わせてビッ トテーブルを圧縮すること により、 帳票内のレイァゥ卜構成要素数を効率良く圧縮表現することが 可能となる。
( a 5 ) 特徴データ認識処理の説明
一般的に、 文字認識装置においては、 一般の文字を認識対象とするた め、 認識率を考慮して認識対象に合わせて作成された辞書を使用する必 要があり、 動的に指定された任意の図形を認識することはできない。 また、 認識対象は文字であることが前提であることから、 認識対象の 領域の制約や認識用定義体の設定上の制約等があり、 任意の領域を認識 対象として設定することはできない。
このため、 本発 の一実施形態にかかる媒体処理装置 3 0においては、 文字認識処理において認識不可能な文字や図形等を含む領域ィメ一ジ (レイアウト) を特徴データとして記録するとともに、 この特徴データ に対応するコードデータをレイァゥ卜の付属情報として記録して、 レイ ァゥト照合処理時にレイァゥ 卜の特徴データの照合を行い、 一致する特 徴データがある場合にはこの特徴データに対応するコードデータを取得 して認識結果としてディスプレイ表示することにより、 文字認識処理に おいて認識不可能な文字や図形等を認識することができるようになって いる。
ここで、 本発明の一実施形態にかかる媒体処理装置 3 0における特徴 データ認識処理に着目した処理説明図を F I G. 32に示す。
本実施形態にかかる媒体処理装置 3 0においては、 特徴データ認識処 理を、 F I G. 32に示すように、 特徴データを学習処理によりレイァ ゥ ト DB 1 4に登録する登録ステップ (ステップ H 1, ステップ A 6, ステップ H 2) と、 別に読み取ったイメージに登録された特徴データと 一致するものがあるか照合する照合ステップ (ステップ H 3) とにより 行なうようになっている。
ここで、 登録ステップは、 読み取ったイメージのレイァゥ 卜の特徴を 抽出してレイァゥ 卜の構成を解析し (ステップ H 1) 、 解析されたレイ ァゥ ト構成をディスプレイ 4 03上に表示して (ステップ A 6 ) 、 F I G. 3 3に示すように、 この表示されたレイアウ ト構成について所定の 特徴データ認識領域 T (F I G. 3 3の斜線部) を設定して、 この領域 T内の標章情報 (F I G. 3 3では "富士通株式会社" ) に対応するコ ードデータ U (F I G. 33では下線部に示された "フジッゥ (力" 〕 を外部入力装置 4 04を通じて入力し、 更に上記の特徴データ認識領域 Tとコ一ドデータ Uとから領域特徴データを作成して、 この領域特徴デ —夕を上記で解析'されたレイァゥ 卜構成とをリ ンクさせて登録するレイ アウ ト学習処理 (ステップ H2) を行なうものである。
本実施形態にかかる媒体処理装置 30においては、 領域特徴データの 登録の際に、 特徴データ認識領域 Tに正規化処理を施すことにより、 後 述する照合ステップにおいて確実に領域特徴データの照合を行なえるよ うになつている。
この登録ステップにおいては、 上記領域 T内の標章情報に対応するコ 一ドデータ uを入力する際に、 標章情報に対応する意味付けをもったコ 一ドデータを入力することにより、 媒体処理装置 3 0では、 特徴データ 認識領域 T 認識すれば、 対応するコードデータを認識結果として画面 表示できるようになつている。
また、 照合ステップは、 上述の登録ステップの後、 別に読み取ったィ . —ジの特徴を抽出してレイアウトの構成を解析し、 その後登録ステツ プで登録された領域特徴データとレイ ウ卜構成とを参照データとして レイアウト DB 1 4を検索し、 一致するものがあるかどうかを照合する ものである。
上述の構成により、 本発明の一実施形態にかかる媒体処理装置 30に おいて特徴データ認識処理を行なう際には、 特徴データが学習処理によ りレイアウト DB 1 4に登録されるとともに、 別に読み取ったイメージ に登録された特徴データと一致するものがあるかどうかが照合されて、 一致する特徴データがある場合にはこの特徴データに対応するコードデ 一夕が取得されて、 認識結果としてディスプレイ 4 03に表示される。 このときの媒体処理装置 30における動作を、 F I G. 32〜F I G. 34を用いて更に説明する。
即ち、 F I G. 32に示すように、 新規にレイアウト解析対象の帳票 イメージ 1 9が読み取られると、 レイァゥト解析処理部 2において、 対 象帳票のレイァゥ '卜が解析されてレイアウト情報が作成される (ステツ プ H 1) 。
ここで、 オペレータ確認/修正処理ブロック 1 8 (F I G. 1参照) では、 帳票イメージ及び解析されたレイァゥト情報がディスプレイ 4 0 3に表示され、 F I G. 3 3に示すように、 オペレータにより特徴デー 夕認識領域 T ( "富士通株式会社" ) が設定され、 対応するコードデー タ U 〔 "フジッゥ (力" 〕 が外部入力装置 4 0 4から入力される (ステ ップ H 6 ) o
さらに、 レイァゥ 卜ログ情報作成処理部 1 1では、 オペレータにより 指定された領域 Tと入力されたコードデータ Uから領域特徴データが作 成され、 レイァゥ 卜認識処理プロック 1 6にて取得したレイァゥ 卜情報 とともにレイアウ ト D B 1 4にレイァゥ 卜補正情報として学習登録され る (ステップ H 2 ) 。
従って、 上述のオペレータ確認/修正処理プロック 1 8及びレイァゥ トログ情報作成処理部 1 1により、 登録ステップの動作が行なわれるこ とになる。
このように、 レイアウ ト D B 1 4に領域特徴データが登録された後に、 レイァゥ ト解析処理部 2では、 上述において処理されたものと同一の帳 票イメージ 1 9が再度読み取られると、 対象帳票のレイァゥ 卜が解析さ れてレイァゥ ト情報が作成される。
さらに、 レイァゥ ト照合処理部 3では、 解析されたレイァゥト情報を 検索条件として用いてレイアウ ト D B 1 4を検索することにより、 ステ ップ H 2において学習登録された該当帳票のレイァゥ 卜補正情報が取得 される。
ここで、 取得されたレイァゥ ト補正情報のうちの領域特徴データにつ いて、 解析中の帳票のイメージに該当するものがあるかが照合されて、 照合の結果、 解析'中の帳票のイメージに一致条件を満たすものがある場 合には、 この領域特徴データに対応するコ一ドデータ Uがレイァゥ ト認 識結果 2 0として設定される (ステップ H 3 ) 。
そして、 オペレータ確認/修正処理プロック 1 8では、 読み取られた 帳票イメージ及びレイァゥ ト認識結果 2 0がディスプレイ 4 0 3に表示 されるとともに、 F I G . 3 4に示すように、 通常の文字認識結果 2 2 と同様に特徴データの認識結果として特徴データ認識領域 T及び対応す るコードデータ Uがディスプレイ 4 0 3に表示される (ステップ A 1 3 ) 。
このように、 本発明の一実施形態にかかる媒体処理装置における特徴 データ認識処理によれば、 文 認識装置と同様の領域イメージ特徵抽出 機構及び特徴照合機構を機能拡張して、 レイアウ ト認識システムと組み 合わせて、 登録ステップでオペレータにより指定された特徴データ認識 領域 T及び対応するコードデータ U (認識結果コード) を、 レイアウ ト 解析結果とともにレイァゥ ト D B 1 4に動的に学習登録するとともに、 学習済のレイァゥトと同一のレイァゥ トを持つ帳票の認識を行なう場合 に、 照合ステツプでレイアウ ト D B 1 4からレイアウ ト情報とともに領 域特徴データを取得して、 認識対象の帳票イメージの該当領域との照合 を行い、 照合の結果、 対応するコードデータ Uを取得して認識結果とし て設定し出力することにより、 指定された領域における任意の図形ィメ ージの認識処理をレイァゥ ト認識処理と連動して行なうことが可能とな る。
即ち、 指定された任意の領域イメージを認識対象領域として登録する ことにより、 文字に限定されずに任意の領域を認識して対応するコード データを取得することが可能となるのであり、 認識対象領域をレイァゥ ト情報とともにレイアウ ト D B 1 4に動的に学習することにより、 レイ ァゥ 卜の再出現時に認識対象領域の認識処理をレイァゥ 卜認識処理と連 動して行なうことが可能となるのである。
また、 本実施形態においては、 照合対象の領域特徴データがレイァゥ ト情報にリ ンクして記録されるため、 レイァゥ 卜単位で照合対象を限定 することが可能となり、 これにより、 通常の文字認識装置のように大量 の照合処理を行なう必要がなくなるとともに、 高い認識率を実現するこ とが可能となる。 さらに、 同一帳票内において、 認識対象領域のデータにリンク関係を 持たせて複数設定することが可能であるため、 レイァゥ卜内の認識対象 領域の位置情報とデータ構造とを対応させて登録することが可能となる なお、 上述したような特徴データ認識処理は、 漢字項目のカナ認識処 理ゃ、 為替総合振込帳票の依頼人ノ受取人の認識処理にも適用すること ができる。
即ち、 帳票上の漢字項目を特徴データとして認識する場合には、 漢字 で記入された項目の領域を特徴領域として指定し、 対応するコードデー 夕をカナで入力して、 帳票のレイァゥト情報とともに特徴データ及びコ 一ドデータを学習登録させる。
このようにすれば、 学習登録された帳票と同一レイァゥ卜の帳票のレ ィァゥト認識を行なう場合には、 漢字項目の特徴領域の認識結果として カナのコードデータを取得することができる。
また、 この漢字項目の特徴データ認識処理の場合と同様に、 ゴム印や サイン等の項目を特徴データ認識項目として指定すれば、 通常の文字認 識では認識できないゴム印やサイン等の項目を認識することができ、 ゴ ム印ゃサイン等の項目の特徴領域の認識結果として対応するコ一ドデ一 夕を取得することができる。
さらに、 為替総合振込帳票においては、 記載される依頼人姓名や受取 人姓名の項目は任意の組み合わせを持つ訳ではなく、 その帳票に依存し た関係を持つ (F I G . 3 5, F I G . 3 6参照) 。
従って、 依頼人及び受取人姓名を特徴データ認識項目として学習登録 する際に、 それぞれの関係をリンクして学習登録することにより、 特徴 データ照合時に更に精度の高い認識が可能となる。
( a 6 ) 見出し解析処理の説明
本発明の一実施形態にかかる媒体処理装置 3 0においては、 解析対象 の帳票イメージの 線項目構成から見出し位置を探索照合して、 帳票上 に記載された見出しと対応する項目情報を自動的に解析する見出し解析 処理が行なわれようになっている。
ここで、 本実施形態にかかる媒体処理装置 3 0は、 読み取ったィメー ジのレイァゥ卜を論理的に表現するレイァゥト解析処理ステップ A 2
(又は A 9 ) と、 読 取ったィメージのレイアウトと一致するレイァゥ 卜がレイァゥ卜 D B 1 4にあるかどうかを照合するレイァゥ卜照合処理 ステップ A 3 (又は A 1 0 ) とをそなえている。
レイァゥ卜解析処理ステップ A 2 (又は A 9 ) は、 読み取ったィメー ジのレイアウ トの 線項目を抽出して、 レイアウ トの構成を解析し、 抽 出した鄞線項目によりィメージ中の見出し領域を決定し、 この見出し領 域中の見出し項目情報を認識して、 対応する項目データを決定して、 レ ィァゥ卜を論理的に表現するものであり、 レイァゥ卜解析処理部 2のレ ィァゥト解析部 2 Bで行なわれている。
このレイアウト解析処理ステップ A 2 (又は A 9 ) は、 レイアウトの 構成解析結果に基づいて見出し位置候補を決定する見出し位置候補決定 ステップと、 このステップで決定された見出し位置候補に対し見出し領 域中の見出し項目情報を照合する見出し項目照合ステップとを含んでい o
なお、 この見出し項目照合ステップでの見出し項目の照合処理は、 こ の見出し項目照合ステップにおいて、 F I G . 4 9を用いて後述にて説 明するように、 照合させるべきイメージデータに正規化処理が施されて から行なわれるようになっている。
また、 レイアウト照合処理ステップ A 3 (又は A 1 0 ) は、 レイァゥ ト解析処理ステップで抽出されたレイァゥトの鄞線項目を制約検索条件 として、 レイアウト D B 1 4に記憶されている候補レイァゥトを検索す ることにより、 一致している候補レイァゥ 卜があるかどうかを照合する ものであり、 レイアウ ト照合処理部 3で行なわれている。
ここで、 本実施形態にかかる媒体処理装置 3 0のレイァゥ 卜解析処理 部 2のレイァゥ 卜解析部 2 Bにおける見出し解析処理に着目した処理説 明図を F I G. 3 7に示す。
レイァゥ 卜解析部 2 Bは、 F I G. 3 7に示すように、 羅線項目構成 解析処理 (ステップ K 1) 及び項目見出し位置探索処理 (ステップ 2 ) からなる見出し位置候補決定ステップ K 9としての処理を行なうと ともに、 項目見出し照合処理 (ステップ K 3) , 多元特徴データ抽出照 合処理 (ステップ K 4) , 見出し照合結果補正処理 (ステップ K 5) , 項目データ位置探索処理 (ステップ 6) , 項目データ部リ ンク処理 (ステップ K 7) 及び金額項目リ ンク処理 (ステップ K 8) からなる見 出し項目照合ステップ K 1 0としての処理を行なうようになっている。 なお、 解析用辞書 1 3は、 見出し探索ルール 505, 項目見出し辞書 5 0 7, 見出し補正ルール 5 08及びデータ探索ルール 509を格納す るようになっている。
ここで、 蘇線項目構成解析処理 (ステップ 1) は、 レイァゥ卜の解 析により得られた鄞線項目情報 5 02と表構造情報 (図示せず) を参照 して、 後述する見出し位置探索ルールにより評価されるルールキー情報 としての昇線項目 ½成情報テーブル (葑線項目構成情報 TBL) 503 を作成するものである。
レイァゥ ト解析部 2 Bの表構造解析部 2 Eによる表構造解析の結果、 個々の鄞線項目には F I G. 3 8に示すような構成情報が付加される。 葑線項目情報 502について、 F I G. 38を用いて説明すると、 昇 線項目 I Dは、 個々の鄙線項目を識別する I D情報であって鄙線項目抽 出時にユニークに採番されるものであり、 グループ I Dは、 鄞線項目を グループ化した場合に同一グループに対して付加する識別 I Dであり、 ブロック I Dは、 同一グループ内で同一の葑線項目構成を持つ単位に分 割した個々の識別用の I Dである。
また、 表構成は、 グループ I Dで識別される鄞線項目の表構成の有無 を示すものであり、 表構成の有無の判断を固定としないために、 表構成 の有無の判断は項目行数 Z項目列数で行なわれる。 なお、 項目行数は、 グループ内の表矩形に存在する葑線項目表の行構成を示すものであり、 項目列数は、 グループ内の表矩形に存在する羅線項目表の列構成を示す ものである。
さらに、 葑線属性は、 個々の露線項目についてのレイアウトの構成要 素としての属性情報であり、 帳票レイァゥ卜への対応を F I G. 39に 示す。
F I G. 3 9に示すように、 表構造以外の葑線項目としては、 以下に 示すものがある。
(a) 1野線項目 〔1〕
(b) 2昇線項目 〔2〕
(c) ブロック薪線項目 〔B〕
(d) 入れ子露線項目 〔 I〕
また、 F I G. 3 9に示すように、 表構造の鄞線項目としては、 以下 に示すものがある。
(e) 見出し行に属する昇線項目 〔H〕
(f ) フッタ行に属する昇線項目 〔F〕
(g) ボディ行に属する葑線項目 〔D〕
(h) 上凸部に属する葑線項目 〔U〕
(i) 下凸部に属する蘇線項目 〔L〕
なお、 F I G. 3 9に示す帳票レイアウトには、 フッタ行が存在しな いため、 (f ) フッタ行に属する鄞線項目も存在しない。
また、 (a) ~ ( i ) の 〔〕 内にそれぞれ示す 1, 2, B, I, H, F, D, U, Lは、 各羅線属性が符号化されたものである。
ところで、 行情報は、 露線項目表内の露線項目の行番号を示すもので あり、 列情報は、 鄞線項目表内の 線項目の列番号を示すものである。 また、 階層情報は、 例えば F I G. 3 9の (d) に示すように、 鄞線 項目属性として入れ子構造を持つ鄞線項目の階層関係を示すものである c さらに、 先頭/最終は、 同一グループ内での鄞線項目の位置情報を示 すものである。
そして、 レイアウトの解析により得られた上述のような歸線項目情報 5 02及び表構造情報を参照して、 羅線項目構成情報 TBL 503が作 成される 〔F I G. 4 0及び F I G. 4 1 (a) 〜F I G. 4 1 (d) 参照〕
また、 項目見出し位置探索処理 (ステップ K 2) は、 ステップ K 1に おいて作成された鄙線項目構成情報 TB L 503における各羅線項目を、 見出し位置探索ルール 〔F I G. 42, F I G. 43 (a) 及び F I G. 4 3 (b) 参照〕 により評価して、 見出し位置候補を決定するものであ 。
見出し位置探索ルール 50 5は、 解析対象の帳票に合わせて上位より 指定されるものであり、 対象帳票を為替総合振込帳票 (一次元表) とし た場合の見出し位置探索ルール 5 0 5の一例を以下に示す。
まず、 表構造以外の見出し位置探索ルールについて説明する。
表構造以外の^線項目には、 表構造部分と同一グループである上凸, 下凸, フッタ行を含む鄞線項目や、 表構造部分と別グループであり表を 構成しない^線項目が該当し、 このような 線項目についての見出し位 置探索ルールを以下に示す。 (a) 1個の鮮線項目から構成される場合、 その羅線項目内に見出し部 が存在する (※データ部共存) 。
(b) 1個の入れ子鄞線項目から構成される場合、 入れ子の左側鄞線項 目に見出し部が存在する。
(c) 1個の入れ子鄞線項目から構成される場合、 入れ子の上側募線項 目に見出し部が存在する。
(d) 2個以上の鄞線項目から構成される場合、 先頭露線項目に見出し 部が存在する。
(e) 2個以上の霧線項目から構成される場合、 先頭羅線項目および継 続する葑線項目に見出し部が存在する。
また、 表構造部分の見出し位置探索ルール 505について説明する。 表構造の^線項目は、 同一グループ内の鄞線項目内で 2行 X 2列以上 の表矩形を含む最大矩形部分に存在し、 最大矩形部分の先頭行にへッダ 部が存在し、 継続する行部分にボディ部が存在する。
このような募線項目についての見出し位置探索ルールを以下に示す。 ( f ) 表構成部分のヘッダ行に、 複数データ部を持つ見出し項目が存在 する。
(g) 表構成部分のヘッダ行に入れ子鄞線項目が存在する場合、 その鄞 線項目の上側に複合見出しが存在する。
(h) 表構成部分のヘッダ行に入れ子鄞線項目が存在する場合、 その葑 線項目の下側に子見出しが存在する。
レイァゥト解析部 2 Bが、 ステップ K2の項目見出し位置探索処理を 行なう場合においては、 例えば上述したような見出し位置探索ルール 5 0 5に基づいて、 見出し照合対象となる見出し位置候補の決定が行なわ れ、 このときの処理を F I G. 4 4に示すフローチャートを用いて説明 する。 まず、 ステップ 1において作成された露線項目構成情報 T B L 5 0 3から葑線項目情報が取り出される (ステップ J 1 ) 。
続いて、 見出し位置探索ルール 5 0 5に基づいて見出し位置の評価が 行われ (ステップ J 2 ) 、 評価結果が露線項目構成情報 T B L 5 0 3に 記録される (ステップ J 3 ) 。
ここで、 全ての見出し位置探索ルール 5 0 5に基づいて見出し位置の 評価が行なわれたか判定され、 見出し位置の評価に用いていないルール があればそのルールに基づいて見出し位置の評価が行なわれる (ステツ プ J 4からステップ J 2 , ステップ J 3 ) 。
さらに、 全ての S線項目情報について見出し位置の評価が行なわれた か判定され、 評価されていない鄞線項目情報があればその鄞線項目情報 について評価が行われる (ステップ J 5からステップ J 1〜ステップ J 4 )
そして、 全ての鄞線項目情報についての見出し位置の評価が終了した ら、 動作パラメタ情報 5 0 1内の評価基準値を参照して見出し位置候補 が決定される (ステップ J 6 ) 。
例えば F I G . 3 9に示す帳票においては、 F I G . 4 5に示す網か け表示された露線項目 (網かけ部分 V ) が見出し位置候補として決定さ れる。
さらに、 項目見出し照合処理 (ステップ K 3 ) は、 見出し位置探索ル ール 5 0 5に基づいて決定された見出し位置候補について、 多元特徴デ —夕の抽出照合処理により露線項目内に存在する項目データが項目見出 し辞書 5 0 7と照合され (ステップ K 4 ) 、 その結果により、 見出し位 置候補の鄞線項目の位置とその見出しに対応する機能項目とが決定され るものである。
ここで、 照合対象となる見出し項目データ (見出し羅線項目内の項目 データ) について説明すると、 見出し位置候補の鄙線項目には、 複数の 見出し項目データが含まれる場合がある。
このとき照合対象となる見出し項目データは、 以下の方式により決定 される。
まず、 照合対象となる見出し項目データは、 例えば F I G. 46 ( a) に示すように、 見出し位置候補の羅線項目内で最大の項目データと する。
ここで、 単一機能見出しの場合には、 照合時に有効となる見出し項目 データは 1つしかないはずであるため、 F I G. 4 6 (b) に示すよう に、 残りの項目データはゴミまたは単位等の飾り文字であると仮定し、 複合機能見出しの場合にも、 F I G. 4 6 (c) に示すように、 通常は 見出し項目データは続けて存在すると仮定する。
また、 F I G. 4 7 (a) に示すような縦書き見出しの場合や、 F I G. 4 7 (b) 及び F I G. 4 7 (c) に示すような複数行から構成さ れる見出しの場合には、 照合対象の見出し項目データは継続する項目デ 一夕を合わせた領域に存在すると仮定する。
即ち、 縦書きの項目データは、 先頭行の項目データと同一の X座標付 近から始まると仮定して、 継続する項目データを統合した領域とするの め o
しかしながら、 'F I G. 48 (a) 及び F I G. 48 (b) に示すよ うな複合見出しの場合や、 F I G. 48 (c) に示すような複数行見出 しの場合には、 見出し項目データを正しく決定することはできない。 従って、 本処理においては、 あくまでも先の条件で統合された領域を、 項目データと見なして処理される。
ところで、 見出し項目照合ステップ K 1 0の多元特徴データ抽出照合 処理 (ステップ K 4) においては、 見出し項目に正規化処理を施すよう になっており、 これにより、 各種帳票に表記の違いや印字フォント z印 字ピッチ等の相違があっても、 見出し照合時に突き合わせる見出し項目 データのイメージを、 全て項目見出し辞書 50 7に格納できるようにな つている。
印字フォントの相違については、 見出し項目の照合を重心 4分割によ る正規化処理後 (手書き文字認識手法) 、 多元特徴による照合を行うこ とにより対応する。
また、 印字ピッチの相違については、 F I G. 4 9に示すように、 照 合する見出し項目データの文字間の空白を、 一定量 (例えば 1 ドッ 卜) となるように正規化することにより対応する。
さらに、 項目見出しの表記の違いについては、 項目見出し辞書 50 7 内に代表的な見出し文言の表記を予め複数種類持つことにより対応する c この項目見出し辞書 50 7には、 予めサンプル帳票から取得した見出 し項目データのイメージを、 正規化処理した後に多元特徴情報として格 納してある。 また、 見出しの表記の違いを吸収するため、 F I G. 5 0 に示すように、 同一機能を示す項目見出しはすべて同一カテゴリとして 分類して格納されている。
そして、 ステップ 4おいて特徴照合抽出処理により見出し項目デー タを照合した場合、 その照合結果として各候補見出しのカテゴリ I D, 見出しイメージ I'D及び相違度が、 F I G. 5 1 (a) 及び F I G. 5 1 (b) に示すように、 候補順に通知される。
さらに、 動作パラメタ情報 5 0 1の見出し照合パラメタ (Th 1, T h 2) を参照して、 見出し項目位置の見出し内容が決定される。
即ち、 照合結果の第 1位の候補見出しについてその相違度が照合パラ メタ (Th 1) 以下である相違度条件と、 照合結果の第 1位候補とカテ ゴリ I Dの異なる (機能項目が異なる) 候補との相違度差が照合パラメ タ (Th 2 ) 以上である相違度差条件とを満たすものを、 見出し項目位 置の見出し内容とするのである。
例えば、 F I G. 5 1に示す例においては、 Th 1 = 1 0 0 0及び T h 2 = 2 0 0 0と仮定して評価すると以下のようになり、 照合結果は上 述の 2つの条件 (相違度条件及び相違度差条件) を満たしていることが わ力、る。
相違度条件 : (3 5 0) ≤ (Th l = 1 0 0 0) ~ OK
相違度差条件: I (2 7 0 0— 3 5 0) I≥ (Th 2 = 2 0 0 0 )
→οκ このように見出し項目データの照合を行った結果、 想定されるケース には、 全ての照合結果が ΟΚであり見出し項目の解析が 1 0 0%成功し たと思われるケース (ケース 1 ) , 一部の見出し項目の解析を失敗した ケース (ケース 2) 及びほとんどの項目見出しの解析を失敗したケース (ケース 3 ) がある。
ここで、 ケース 1の場合には、 そのまま照合結果を見出し解析結果と して通知し、 ケース 3の場合には、 見出し解析結果が失敗したとして通 知してその帳票の認識結果はリジェク 卜として依頼元に通知される。 また、 ケース 2の場合には、 見出し照合結果補正処理 (ステップ 5 ) を施すことにより、 その中である特定の場合については、 解析でき なかった見出し項'目を解析することができる。
見出し項目の照合の結果、 表構造部分の見出し行で定義される必須の 見出し項目について、 以下の場合に見出し補正ルール 5 0 8により補正 が行なわれる (見出し補正ルール 5 0 8による見出し照合結果捕正処理 , ステップ Κ 5) 。 なお、 見出し補正ルール 5 0 8は、 照合結果が未確 定の場合にのみ適用するものであり、 照合結果を否定するような使い方 はできないものとする。 ここで、 F I G. 5 2 (a) に示すように、 入れ子構造を持つ複合見 出し項目のうちのいずれか一方の見出し項目が未確定である場合に、 見 出し補正ルール 508により補正が行なわれると、 複合見出し項目の機 能項目内容から残りの機能項目が一意に決定するため (複合見出し項目 の "金融機関名" の場合、 入れ子の見出し項目には必ず "銀行名" と "支店名" の見出しが対応するため) 、 解析できなかった見出し項目 (網かけ部分 W) を解析することができる。
また、 F I G. 52 (b) に示すように、 例えば総合振込帳票におい て見出し行にある必須項目の見出しが 1つだけ未確定である場合に、 見 出し補正ルール 50 8により補正が行なわれると、 見出し行にあるべき 機能項目が機能名情報テーブルから一意に決定するため、 解析できなか つた見出し項目 (網かけ部分 W) を解析することができる。
さらに、 F I G. 52 (c) に示すように、 見出し行以外に存在する べき必須の見出し項目が 1つだけ未確定であり、 未確定の見出し候補位 置も 1つだけ存在する場合に、 見出し補正ルール 508により補正が行 なわれると、 見出し位置候補と必須の見出し項目の数が一致する場合は 確定した見出しの消去法で決定することができるため、 解析できなかつ た見出し項目 (網かけ部分 W) を解析することができる。
なお、 F I G. 52 (a:) 〜 F I G. 52 ( c ) では、 解析できなか つた見出し項目を網かけ部分 Wで示し、 見出し照合結果補正処理により 解析された見出し項目を網かけ部分 W' で示している。
また、 項目データ位置探索処理 (ステップ K 6) は、 見出し項目照合 の結果、 確定した見出し項目に対して対応する項目データの露線項目位 置を探索するものである。
まず、 見出し部に対応する項目データの^線項目位置の探索は、 見出 し項目 (見出し驛線項目) 位置探索の場合と同様に、 昇線項目構成情報 T B L 5 0 3の個々の鄞線項目について、 項目データ探索ルール 5 0 9 により評価されることにより行な れる。
ここで、 項目データ位置探索と見出し項目位置探索との相違点は、 項 目データ位置探索の場合は、 既に見出し項目が決定しているため、 最初 に見出しを評価して探索ルールを選択した後に個々の葑線項目に対して そのルールを適用する点と、 見出し項目位置探索の場合は、 見出し項目 の照合処理があるためまず見出し位置候補を決定したが、 項目データ位 置探索の場合は、 探索処理の結果として項目データ位置を決定する必要 がある点である。
そして、 項目データ位置の探索においては、 決定された見出し項目に ついて、 鄞線項目構成情報 T B L 5 0 3及び項目データ探索ルール 5 0 9に基づいて、 見出し項目に対応する項目データ位置 (項目データの昇 線項目位置) が決定される。
このときの動作を F I G . 5 3に示すフローチヤ一トを用いて説明す ると、 まず、 見出し解析により決定された見出し項目情報が取り出され (ステップ L 1 ) 、 取り出された見出し項目に対応する項目データ探索 ルール 5 0 9が決定される (ステップ L 2 ) 。
続いて、 鄞線項目構成情報 T B L 5 0 3から鄞線項目情報が取り出さ れ (ステップ L 3 ) 、 項目データ探索ルール 5 0 9による評価が行われ る (ステップ L 4 ) 0
そして、 評価結果により項目データ位置が決定され、 決定された項目 データ位置の鄞線項目 I Dが機能名情報に設定される (ステップ L 5 ) c また、 全ての露線項目情報について評価が終了したか判定され、 終了 していなければ、 次の露線項目情報についての評価が継続して行われる (ステップ L 6 , ステップ L 3〜ステップ L 5 ) 。
さらに、 全ての見出し項目情報に対応する項目データ位置が決定され たか判定され、 項目データ位置が決定されていない見出し項目があれば、 次の見出し項目情報について処理が行われる (ステップ L 7, ステップ L 2〜ステップ L 6) 。
ここで、 見出し部鄞線項目とデータ部鄞線項目との接続ルールは、 表 構造以外の場合には、 以下に示すように定義される。
(a) データ部の鄞線項目は、 見出し部に続く鄞線項目である 〔F I G. 5 4 (a) 及び F I G. 54 (b) 参照〕
(b) 見出し部に続く鄞線項目が無い場合には、 見出し部と同一の鄞線 項目にデータ部が存在する 〔F I G. 54 (c) 参照〕
(c) 見出し部に続く ^線項目が複数存在する場合、 別の独立した見出 しが出現するまでの鄴線項目に、 データ部が存在する 〔F I G. 54 (d) 及び F I G. 54 ( e ) 参照〕
(d) 見出し部が入れ子蘇線項目の親に存在する場合、 子の葑線項目に データ部が存在する 〔F I G. 54 ( f ) 及び F I G. 54 (g) 参 照〕
(e) 2鮮線項目の場合には、 見出しとデータ部が同一鮮線項目に存在 する可能性がある 〔F I G. 54 (h) 参照〕
また、 見出し部鄞線項目とデータ部 S線項目との接続ルールは、 表構 造の場合には、 以下に示すように定義される。
( f ) 縦方向の Γ次元表の場合、 見出し鮮線項目の列方向の鄴線項目に データ部が続く 〔F I G. 5 5 (a) 参照〕
(g) 縦方向の 1次元表で 2段組見出しの場合、 見出し昇線項目の列方 向の蘇線項目にデータ部が続く 〔F I G, 55 (b) 参照〕
(h) 縦方向の 1次元表で入れ子項目の見出しの場合、 親見出し葑線項 目の方向の鄞線項目にデータ部が続く 〔F I G. 55 (c) 参照〕
( i ) 縦方向の 1次元表で複合見出しの場合、 複合見出し鄞線項目の列 方向の鄞線項目にデータ部が続く 〔F I G. 5 5 (d) 参照〕
( j ) 横方向の 1次元表の場合、 見出し驟綜項目の行方向の羅線項目に データ部が続く 〔F I G. 5 5 (e) 参照〕
(k) 2次元表の場合、 見出し項目の列/行方向の鄞線項目にデータ部 が続く 〔F I G. 55 ( f ) 参照〕
ここで、 見出し 目に対応する項目データ位置が決定された例を、 F I G. 5 6に示す。 なお、 F I G. 56においては、 見出し項目決定位 置を網かけ部分 Xで示し、 項目データ位置を X' で示すとともに、 見出 し項目決定位置と項目データ位置とのリンク関係を矢印により示してい る。
さらに、 項目データ部リンク処理 (ステップ K 7) は、 見出し葑線項 目と対応するデータ部鄞線項目位置を参照して、 データ部驛線項目内の 項目データ位置を決定し、 そのリンク関係を設定するものである。 見出し部から対応する項目データ部までのリンク関係を、 F I G. 5 7及び F I G. 58に示す。
ここで、 項目データ部が存在する鄞線項目または矩形領域内に、 1個 以上の項目データが存在する場合には、 動作パラメタ情報 50 1に従つ て、 機能項目にリンクする項目データが決定される。
単一機能項目よりリンクする場合には、 動作パラメタ情報 50 1に従 つて、 指定行桁位置から指定行数, 指定桁数の項目データをリ ンクする CF I G. 59 (a) 参照〕 。
ここで、 単一機能項目よりリンクする場合には、 項目データリンクの 動作パラメタ情報 50 1は、 以下に示すようなものがある。
(a) 指定行より指定行数リンク (※デフオルト :指定行 = 1行目、 指 定行数 = 1行) , ただし、 指定行数に項目データ行数が満たない場合に は、 領域内の全ての項目デ一タ行をリンク (b) 指定列より指定列数リ ンク (※デフォルト :指定列 = 1列目、 指 定行数 =全列数) , ただし、 指定列数に項目データ列数が満たない場合 には、 領域内の全ての項目データ列をリ ンク
また、 複合機能項目より リ ンクする場合には、 動作パラメタ情報 50 1に従って、 機能項目の定義順に指定行桁位置から指定行数, 指定桁数 の項目データをリ ンクし、 継続する機能項目は、 続きの項目データを同 様にリ ンクする 〔F I G. 5 9 (b) 参照〕 。
ここで、 複合機能項目より リ ンクする場合には、 項目データリ ンクの 動作パラメタ情報 50 1は、 以下に示すようなものがある。
(c) N≥Kかつ M<Kの場合、 機能項目リ ンク順に項目データ行を割 り当てる
(d) N<Kかつ M≥Kの場合、 機能項目リ ンク順に項目データ桁を割 り当てる
(e) N≥KかっM≥Kの場合、 機能項目リ ンク順に項目データ行を割 り当てる
( f ) N≥Kかつ M≥Kの場合、 機能項目リ ンク順に項目データ列を割 り当てる
(g) N<Kかつ Mく Kの場合、 割当て不可として、 項目データをリン クしない
なお、 上述にお'いて、 Nは項目行数, Mは項目桁数及び Kは機能項目 数である。
そして、 金額項目リ ンク処理 (ステップ K8) は、 解析した見出し項 目の機能項目が金額や手数料等の場合には、 対応する項目データの属す る鄞線項目構成を調べ、 構成が 1桁区切り鄞線項目となっている場合に は、 個々の 1桁鄙線項目を連結して 1つの項目データ情報を作成し、 そ の項目データを機能項目にリ ンクするものである。 ここで、 見出し部に対応する項目データ部が、 3個以上 (動作パラメ タ指定値に従う) の葑線項目に分割されている場合であって、 個々の葑 線項目のサイズが動作パラメタ設定値以下のサイズで、 かつ見出し機能 が金額と確定した場合には、 該当の鄞線項目が 1桁区切りの露線項目で あると判定される 〔F I G. 6 0 (a) 及び F I G. 6 0 (b) 参照〕 c そして、 項目データ部の鄞線項目が、 1桁区切りの葑線項目により構 成されていると判定された場合には、 個々の藓線項目のリンクを関係を 先頭桁の鄞線項目より順に設定し、 連続した鄞線項目として扱うことに より、 昇線項目が連結される 〔F I G. 6 0 (c) 参照〕 。
さらに、 項目データ部の鄞線項目が、 1桁区切りの昇線項目により構 成されている場合には、 個々の葑線項目内の項目データも分割されてい るため、 各々の項目データを統合処理して 1つの項目データとして設定 することにより、 項目データが連結される 〔F I G. 60 (d) 参照〕 c なお、 上述においては、 鄞線項目が 1桁区切りの募線項目である場合 について説明したが、 3桁区切りの羅線項目についても同様に処理され
3桁区切りの金額欄についても、 1桁区切りの金額欄の場合と同様に、 鄞線項目及び項目データの連結が行われるが、 3桁区切りの場合には桁 幅および羅線項目数が少ないため、 1桁区切りとは別条件が設定される 〔F I G. 6 0 (e) 及び F I G. 60 ( f ) 参照〕 。
上述の構成により、 本発明の一実施形態にかかる媒体処理装置 30に おいて見出し解析処理を行なう際には、 レイァゥト解析処理ステップ A 2 (又は A 9) では、 読み取ったイメージのレイァゥ卜の特徴を抽出し てレイァゥ卜の構成を解析し、 抽出した特徴によりイメージ中の見出し 領域を決定し、 この見出し領域中の見出し項目情報を認識して対応する 項目データを決定してレイァゥトを論理的に表現する。 続いて、 レイアウ ト照合処理ステップ A 3 (又は A 1 0 ) では、 レイ ァゥ ト解析処理ステツプ A 2 (又は A 9 ) で抽出されたレイアウ トの特 徵を制約検索条件として、 レイアウ ト D B 1 4に記憶されている候補レ ィァゥ 卜を検索することにより、 一致している候補レイァゥ 卜があるか どうかを照合する。
このように、 本発明の一実施形態にかかる媒体処理装置 3 0によれば、 解析対象の帳票イメージの if線項目構成から見出し位置を探索照合して、 帳票上に記載された見出しと対応する項目情報を自動的に解析する見出 し解析処理を行なうことにより、 レイァゥ 卜認識処理により見出し項目 及び見出し項目と対応する項目データが識別できるので、 見出し項目の 文字認識処理を行なうことなく直ちに項目データの文字認識を行なうこ とができる。
( a 7 ) 認識結果の確認及び修正処理の説明
( 1 ) イメージデータ表示装置の説明
F I G . 6 1は本発明の一実施形態におけるイメージデータ表示装置
6 4 0の構成を示す模式図であり、 このイメージデータ表示装置 6 4 0 は、 送金すべき者 (この者は氏名で特定される) の口座番号 (口番) や 送金金額等が記載された帳票をイメージデータとして表示し、 このロ番, 氏名及び送金金額等の送金データをオペレータがキーボード等を介して 入力することによ'り送金依頼処理を施したり、 オペレータが他の装置等 によるイメージデータ (送金データ) の文字認識結果の正誤の確認を目 視により行なうとともに必要に応じて文字認識結果の修正を行なうこと により送金依頼処理を施すものであり、 F I G . 6に示す媒体処理装置 3 0のクライアント 1 0に相当するものである。
即ち、 このイメージデータ表示装置 6 4 0では、 オペレータが、 ディ スプレイ表示されたイメージデータを目視して入力操作を行なうことも できるが、 例えば帳票を 0 C R装置等のィメ一ジデータ入力装置で読み 取る際に自動的に文字認識を行なうようにして、 誤認識及び認識不能文 字についてのみオペレータが入力操作を行なうこともできるようになつ ている。
ここで、 F I G . 6 1に示すイメージデータ表示装置 6 4 0は、 ィメ ージデータ入力装置としてのイメージスキャナ 6 2 1 A及び光学式文字 読み取り装置 (O C R装置) 6 2 1 B , データ入力手段としてのキーボ ー ド 6 3 1, 表示制御装置としてのコンピュータ本体 6 2 9, ディスプ レイ 6 3 0及びハードディスク 6 2 2をそなえて構成されている。
なお、 このイメージデータ表示装置 6 4 0は、 F I G . 6に示すサ一 ノ 3 9と接続されており、 イメージスキャナ 6 2 1 Aからのイメージデ —夕 (送金データ) をサーバ 3 9に出力して、 サーバ 3 9で文字認識さ れたイメージデータの文字認識結果が入力されてこれをディスプレイ 6 3 0に表示するようになっているとともに、 オペレータにより確認及び 修正された送金データをサーバ 3 9に出力するワークステーションとし て機能するようになっている。
ここで、 イメージスキャナ 6 2 1 Aは、 銀行の送金依頼表等の帳票の ような複数の項目情報を含んだィメ一ジデ一夕を読み取り、 ィメージデ —夕表示装置 6 4 0に入力するものである。
また、 O C R装置 6 2 1 Bは、 イメージスキャナ 6 2 1 Aと同様にィ メ一ジデータを読み取るとともに読み取つたイメージデータの文字認識 を行なうものである。
本実施形態においては、 イメージスキャナ 6 2 1 A及び O C R装置 6 2 1 Bの両方をイメージデータ表示装置 6 4 0に設けることにより、 様 々な様式のイメージデータを扱えるようになつている。
なお、 O C R装置 6 2 1 Bによりイメージデータを読み取った場合は、 イメージデータの文字認識結果は直接イメージデータ表示装置 6 4 0の ディスプレイ 6 3 0に表示される。
また、 ディスプレイ 6 3 0は、 イメージデータ表示エリァ 6 1 1と項 目表示エリア 6 1 4とを有するものであり、 入力された帳票のイメージ データを表示すると、 例えば F I G . 7 0のようになるのである。
ここで、 イメージデータ表示エリァ 6 1 1は、 イメージスキャナ 6 2 1 A又は O C R装置 6 2 1 Bから入力された帳票のイメージデータを表 示するエリァ部分である。
イメージデータ表示エリア 6 1 1では、 複数の項目情報を含んだィメ ージデータが表示されるようになっており、 F I G . 7 0では、 「口座 番号 (口番) 」 , 「氏名」 , 「取引先 (取引) 」 及び 「金額」 の 4つの 項目 6 1 2に情報を含んだイメージデータが表示されるようになってい o
さらに、 項目表示エリァ 6 1 4は、 イメージデータ表示エリァ 6 1 1 の所望の項目 6 1 2のイメージデータ部分に対応する送金データを、 キ 一ボード 6 3 1を用いて入力するために設けられたエリァである。
この項目表示エリア 6 1 4は、 複数のデータ入力表示エリア部分 6 1 5を有している。 F I G . 7 0では、 「項目 1〜 4」 の 4つのデータ入 力表示エリア部分 6 1 5を有しており、 それぞれ 「項目 1」 は 「口番」 に、 「項目 2」 は'「氏名」 に、 「項目 3」 は 「取引」 に、 「項目 4 J は 「金額」 に対応している。
また、 所望のデータ入力表示エリア部分 6 1 5にはカーソル表示 6 1 6がなされるようになつており、 これと対応する所望の項目 6 1 2のィ メージデータ部分に表示された送金データを入力できるようになつてい る。 なお、 データ入力は、 データ入力手段としてのキーボード 6 3 1を 用いて行なうようになっている。 96/ 150 さらに、 F I G. 6 1に示すイメージデータ表示装置 6 4 0は、 前述 のごとく、 ハードディスク 6 2 2をそなえており、 このハードディスク 6 2 2は、 定義体情 としてのイメージデータ分割情報を格納する定義 体格納部である。 なお、 イメージデータ分割情報とは、 イメージスキヤ ナ 6 2 1 A又は OCR装置 6 2 1 Bから入力された帳票のイメージデー タを、 複数の項目 6 1 2のイメージデータ部分に分割するための情報を いう。
F I G. 6 1に示すコンピュータ本体 6 2 9は、 表示制御装置として 機能し (以下コンピュータ本体 6 2 9を表示制御装置 6 2 9と表記する 場合がある) 、 イメージデータ表示エリア 6 1 1に、 イメージスキャナ 6 2 1 A又は OCR装置 6 2 1 Bから入力することにより得られたィメ ージデータを表示させるとともに、 キーボード 6 3 1により所望項目 6 1 2のイメージデータ部分に対応するデータを入力するに当たり、 項目 表示エリァ 6 1 4における所望項目 6 1 2用のデータ入力表示エリァ部 分 6 1 5に、 カーソル表示 6 1 6を行なわせるものである。
ここで、 コンピュー夕本体 6 2 9は、 ハードディスク 6 2 2に格納さ れているイメージデータ分割情報を使用して、 イメージスキャナ 6 2 1 A又は OCR装置 6 2 1 Bから入力された帳票のイメージデータの鄞線 を認識し、 複数の項目 6 1 2のイメージデータ部分からなる表に変換し てから、 この変換'されたイメージデータをイメージデータ表示エリア 6 1 1に表示させるのである。
また、 F I G. 6 1, F I G. 6 2に示す表示制御装置としてのコン ピュータ本体 6 2 9は、 強調情報作成処理部 6 2 3, イメージデータ部 分強調表示手段としての強調表示部 6 2 4, イメージデータ強調表示解 除手段としての強調表示取消部 6 2 5, 強調表示遷移制御手段としての 強調表示遷移制御部 6 2 6及び表示画面スクロール手段としての画面ス クロール部 6 2 7をそなえている。
ここで、 強調情報作成処理部 6 2 3は、 イメージデータ入力装置とし てのイメージデータ分割装置 6 2 1から入力されたイメージデータある いはハー ドディスク 6 2 2に格納されたィメージデータ分割情報 (定義 体情報) を参照して、 関連情報 Pと強調情報 Qを作成するものである。 関連情報 Pは、 F I G . 6 8に示すように、 「項目 1 〜 4」 をそれぞ れ 「口番」 , 「氏名」 , 「取引」 , 「金額」 に対応させて、 これらを関 連づけるための情報である。
また、 強調情報 Qは、 イメージデータ表示エリア 6 1 1において強調 表示を行なうための情報であり、 F I G . 6 9に示すように、 項目 6 1 2のタイ トルを示す 「タイ トル 1 〜 4」 に対応した強調表示種類, 強調 表示領域からなる強調表示属性情報を有するものである。 なお、 「タイ トル 1 〜 4」 は、 それぞれ 「口番」 , 「氏名」 , 「取引」 , 「金額」 に 対応している。
さらに、 強調表示種類には、 網かけ, 飾り雾線等があり、 本実施形態 では強調表示として太枠表示を 「タイ トル 1」 , 「タイ トル 3」 に対応 する項目 6 1 2に設定するとともに、 網かけ表示を 「タイ トル 2」 , 「タイ トノレ 4」 に対応する項目 6 1 2に設定して、 「タイ トル 1 〜 4」 を順に強調表示させるのに伴って、 異なる強調表示がなされるようにし ており、 より視認性を高めるようにしている。
また、 強調表示領域は、 各項目 6 1 2における強調表示部分 6 1 3の 開始及び終了位置を、 X座標と Y座標からなる座標 (ドッ ト単位) を用 いて表示したものであり、 項目 6 1 2毎に強調表示部分 6 1 3の大きさ を任意に設定できるようになつている。
これらの関連情報 P及び強調情報 Qは、 F I G . 6 4に示すフローチ ヤー卜のステップ A 及び A 2 ' で作成されるのである。
1 0 また、 強調表示部 6 2 4は、 表示制御装置 6 2 9により、 ィメ一ジデ 一夕表示エリア 6 1 1に、 複数の項目情報を含んだイメージデータが表 示さ ている状態で、 項目表示ェリア 6 1 4における各項目 6 1 2用デ 一夕入力表示エリア 6 1 5部分のうちで、 所望項目 6 1 2用のデータ入 力表示エリア部分 6 1 5にカーソル表示 6 1 6がなされると、 このデー タ入力表示エリア 6 1 5と対応する所望項目 6 1 2のイメージデータ部 分のみを符号 6 1 3で示すように強調表示させるものである。
即ち、 強調表示部 6 2 4は、 所望項目 6 1 2用データ入力表示エリア 部分 6 1 5に、 カーソル表示 6 1 6がなされたときに、 この項目 6 1 2 用データ入力表示エリア部分 6 1 5と対応する所望項目 6 1 2のィメー ジデータ部分のみを、 網かけ又は飾り露線等で強調表示することにより、 イメージデータと入力項目との対応を目視によって行なう際の視認性を 高めて、 スムーズな入力操作を可能にするものである。
さらに、 強調表示取消部 6 2 5は、 強調表示部 6 2 4により強調され た所望項目 6 1 2のイメージデータ部分の強調表示 6 1 3を解除して、 この項目 6 1 2を強調表示する前の状態に戻すものである。 即ち、 強調 表示取消部 6 2 5は、 カーソル移動操作によって、 所望項目 6 1 2用デ 一夕入力表示エリア部分 6 1 5とは別の他の項目 6 1 2用データ入力表 示エリア部分 6 1 5に、 カーソル表示 6 1 6が遷移せしめられると、 項 目対応のイメージ'データ部分の強調表示 6 1 3を解除するものである。 また、 強調表示遷移制御部 6 2 6は、 強調表示取消部 6 2 5と連動し て機能しており、 強調表示取消部 6 2 5カ^ 対応するある項目 6 1 2の イメージデータ部分の強調表示 6 1 3を解除した後に、 別の項目 6 1 2 用データ入力表示エリア部分 6 1 5へカーソル表示 6 1 6を移動させ、 カーソル表示 6 1 6されている項目 6 1 2用データ入力表示エリア部分 6 1 5に対応する他の項目 6 1 2のイメージデータ部分のみを、 強調表 1 示部 6 2 4にて強調表示させるよう制御するものである。
さらに、 画面スクロール部 6 2 7は、 ィメージデータの一部をディス プレイ 6 3 0上に表示している状態からディスプレイ 6 3 0上に表示さ れていないイメージデータを表示させるものである。
また、 強調表示部 6 2 4は、 変更手段としての変更部 6 2 8を有して おり、 この変更部 6 2 8は、 強調表示部分 6 1 3の強調表示種類又は領 域を例えばキーボードを使用して外部からの指示により変更するもので あり、 変更情報獲得部 6 2 8 Aと強調情報変更部 6 2 8 Bを有している c ここで、 変更情報獲得部 6 2 8 Aは、 後述する変更情報 Rを獲得する ものであり、 強調情報変更部 6 2 8 Bは、 この変更情報 Rを使用して後 述する強調情報 Qを更新して強調情報 Q ' を作成するものである。
実際には、 上述した強調表示部 6 2 4 , 強調表示取消部 6 2 5, 強調 表示遷移制御部 6 2 6及び画面スクロール部 6 2 7としての機能をコン ピュータ本体 6 2 9に与えるような適宜のソフ トウエアを、 ハードディ スク 6 2 2又はその他のメモリにインストールすることにより、 ィメー ジデータ表示装置 6 4 0を構成するのである。
上述の構成により、 本実施形態にかかるイメージデータ表示装置.6 4 0は、 以下のように動作する。
帳票のイメージデータを、 F I G . 6 2に示すイメージデータ分割装 置 6 2 1 (ィメ一'ジスキャナ 6 2 1 A又は 0 C R装置 6 2 1 B ) から入 力し、 ディスプレイ (F I G . 6 2では図示せず) に表示したときの初 期画面は F I G . 6 7に示すようになる。
このとき、 F I G . 6 7に示すように、 ディスプレイ 6 3 0のィメー ジデータ表示エリア 6 1 1には、 複数の項目情報を含んだイメージデー 夕、 即ち、 「口番」 , 「氏名」 , 「取引」 , 「金額」 の 4つの項目情報 を含んだィメ一ジデータが表示されている。 また、 送金データを入力する際には、 所望のデータ入力表示エリア部 分 6 1 5にカーソル表示 6 1 6を移動させることにより、 所望の項目 6 1 2のイメージデータ部分に対応する送金データを入力する。 このとき、 F I G. 7 0に示すように、 強調表示部 6 2 4によって、 所望の項目 6 1 2のイメージデータ部分が強調表示部分 6 1 3を有して強調表示され ており、 F I G. 7 1〜F I G. 7 6に示すように、 カーソル表示 6 1 6の移動に伴って、 この強調表示部分 6 1 3もイメージデータ表示エリ ァ 6 1 1を移動する。
なお、 F I G. 6 7及び F I G. 7 0〜F I G. 7 6に示すデータ入 力表示エリア部分 6 1 5には、 イメージデータの文字認識結果が表示さ れていないが、 文字認識結果が表示されていてももちろんかまわない。 ここで、 F I G. 7 0には、 「ロ番 ( 00 0 1 ) 」 である項目 6 12 を強調表示したときのディスプレイ 6 30が示されている。
このような F I G. 7 0に示す状態で、 オペレータがキーボード 6 3 1により、 「 000 1」 と入力した後、 キーボード 6 3 1を操作して、 項目表示ェリア 6 1 4において 「項目 1」 から 「項目 2」 へカーソル表 示 6 1 6を移動させると、 強調表示遷移制御部 626によって、 F I G. 7 1に示すように、 イメージデータ表示エリア 6 1 1では、 これに対応 して、 「ロ番 (000 1) 」 から 「氏名 (フジ タロウ) 」 へ強調表示 部分 6 1 3が移動'する。 この状態で、 オペレータはキーボード 63 1を 使用して、 「フジ タロウ」 と入力する。
同様に、 キーボード 6 3 1により、 「フジ タロウ」 と入力した後、 キーボード 6 3 1を操作して、 「項目 2」 から 「項目 3」 へカーソル表 示 6 1 6を移動させると、 強調表示遷移制御部 62 6によって、 F I G. 72に示すように、 「氏名 (フジ タロウ) 」 から 「取引 ( 0 1 0 ) 」 へ強調表示部分 6 1 3が移動し、 更に 「0 1 0」 と入力した後、 「項目 7 150
3」 から 「項目 4」 へカーソル表示 6 1 6を移動させると、 強調表示遷 移制御部 6 2 6によって、 F I G . 7 3に示すように、 「取引 (0 1 0 :) 」 から 「金額 (¥ 12, 000 ) 」 へ強調表示部分 6 1 3が移動する。 も ちろん、 このときも、 オペレータはキーボードを使用して、 「0 1 0」 , 「¥ 12, 000」 を入力する。
このように、 「項目 4」 に対応する送金データである金額データ 「¥ 12, 000」 を入力した後に、 キーボード 6 3 1の例えばリターンキーを押 下すると、 「項目 1〜4」 に対応する送金データ (口座番号, 氏名, 取 弓 I, 金額の各データ) が F I G . 6に示すサーバ 3 9へ送出されるので ある。
そして、 このリターンキーの押下により、 「項目 4」 から再度 「項目 1」 へカーソル表示 6 1 6が移動し、 強調表示遷移制御部 6 2 6によつ て、 F I G . 7 4に示すように、 「金額 (¥12, 000) 」 から 2段目の 「ロ番 ( 0 0 1 0 ) 」 へ強調表示部分 6 1 3が移動するが、 以降は上記 の操作を繰り返すことにより、 イメージ表示エリア 6 1 1の所定の項目 6 1 2を順次強調表示させていく ことができるのである。
即ち、 カーソル表示 6 1 6の存在するデータ入力表示エリア部分 6 1 5に対応する項目 6 1 2が強調表示されており、 カーソル表示 6 1 6の 移動に伴って、 強調表示部分 6 1 3も項目 6 1 2間を移動するようにな つているのである'。
また、 送金データ入力は、 カーソル表示 6 1 6を有するデータ入力表 示エリア部分 6 1 5で行なわれるようになつており、 データ入力すべき データ入力表示エリア部分 6 1 5にカーソル表示を移動させると、 同時 に参照すべき項目 6 1 2のイメージデータ部分が強調表示されることに より、 データを参照する際の対応の誤認識を防いで視認性を高めること ができ、 これにより、 入力操作における労力を軽減させるとともに、 送 金データの誤入力を防止することができる。
さらに、 上述の送金データ入力処理をすすめて、 F I G. 7 5に示す ように、 ディスプレイ 6 3 0のィメージデータ表示ェリア 6 1 1の最下 部にある 「金額 (¥1,765 ) 」 が強調表示される状態になったとすると, このとき更に、 その下方部にディスプレイ 6 3 0に表示されていない項 目 6 1 2が存在する場合は、 項目表示エリァ 6 1 4において 「項目 4」 から 「項目 1」 へカーソル表示 6 1 6を移動させると、 画面スクロール 部 6 2 7によって、 自動的に表示画面をスクロールするとともに、 強調 表示遷移制御部 6 2 6によって、 F I G. 7 6に示すように、 イメージ データ表示エリア 6 1 1では、 これに対応して、 「金額 (¥1,765 ) 」 から 「ロ番 (2 1 4 8) 」 へ強調表示部分 6 1 3が移動する。
即ち、 イメージデータ表示エリァ 6 1 1の最下部にある項目 6 1 2力 < 強調表示され、 その下方部にディスプレイ 6 3 0に表示されていない項 目 6 1 2が存在する場合には、 データ入力表示エリア部分 6 1 5の間を カーソル表示 6 1 6を移動させることにより、 自動的に表示画面をスク ロールすることができる。
なお、 F I G. 7 6では、 表示画面のスクロールは 1項目ずつ行なつ て 「ロ番 (2 1 4 8) 」 の項目を表示しているが、 これに限定されず、 「ロ番 (2 1 4 8) 」 の項目を最上段へ移動することにより、 1画面分 (7項目分) の項 の全てをスクロールして、 その下方部に存在する 1 画面分の項目を表示するようにしてもよい。
ここで、 F I G. 7 0〜F I G. 7 6に示すような強調表示の移動の 制御は、 F I G. 6 2に示す強調表示部 6 2 4, 強調表示取消部 6 2 5, 強調表示遷移制御部 6 2 6及び画面スクロール部 6 2 7によって行なわ れており、 このときの動作フローを F I G. 6 5を用いて更に説明する c 例えば、 F I G. 7 0, F I G. 7 1に示すように、 項目表示エリア 6 1 4において、 「項目 1」 から 「項目 2」 へカーソル表示 6 1 6を移 動させると、 即ち、 イメージデータ表示エリア 6 1 1において、 入力対 象となる項目 6 1 2が、 前回の入力対象となった項目 6 1 2 と異なる場 合には、 まず、 前回の入力時において、 強調表示属性 (強調表示種類, 強調表示領域) の変更が行なわれたか否かを判断する (ステップ B 1 ' ) o
次に、 強調表示属性の変更が行なわれていた場合には、 強調表示取消 部 6 2 5力^ 前回の項目 6 1 2のイメージデータ部分の強調表示属性を 通常 (変更前の属性) に戻すことにより強調表示を取り消し (ステップ B 2' ) 、 次の項目 6 1 2のための関連情報 Pを取得する (ステップ B 3' )
その後は、 強調表示部 6 2 4カ^ 関連情報 Pを参照して、 入力対象と なる項目 6 1 2に関する関連情報 Pが存在するか否かを判断し (ステツ プ B 4' ) 、 入力対象となる項目 6 1 2に関する関連情報 Pが存在する 場合には、 強調情報 Qを取得するとともに、 変更情報獲得部 6 2 8 Aが、 この強調情報 Qを参照して強調表示属性の変更情報を獲得する (ステツ プ B 5' 。
さらに、 入力対象となる項目 6 1 2に対応するイメージデータ部分が ディスプレイ 6 3 0上に表示されているか否かを判断することによって、 画面自動スクロ一'ルが必要か否かを判断し (ステップ B 6' ) 、 画面自 動スクロールが必要でない場合には、 強調情報変更部 6 2 8 Bが、 ステ ップ B 5' で獲得した変更情報でイメージデータ部分の強調表示属性を 変更し、 F I G. 7 0, F I G. 7 1に示すように、 「ロ番 (0 0 0 1 ) 」 から 「氏名 (フジ タロウ) 」 へ強調表示部分 6 1 3が移動する (ステップ B 8' ) 。
また、 ステップ B 6' において、 画面自動スクロールが必要である場 合には、 画面スクロール部 6 2 7力く、 F I G. 7 5, F I G. 7 6に示 すように、 強調表示部分 6 1 3の移動に伴う画面自動スクロール処理を 行ない (ステップ B 7' ) 、 強調情報変更部 6 2 8 Bがステップ B 5' で獲得した変更情報でイメージデータ部分の強調表示属性を変更する (ステップ B 8' ) 。
このように、 強調表示の移動の制御は、 強調表示属性の変更が行なわ れたか否かを判断し、 強調表示属性の変更が行なわれていた場合には前 回の項目 6 1 2の強調表示を取り消すとともに、 入力対象となる項目 6 1 2に関する関連情報 Pが存在するか否かを判断し、 入力対象となる項 目 6 1 2に関する関連情報 Pが存在する場合には強調表示属性の変更情 報を獲得する。
さらに、 画面自動スクロールが必要か否かを判断し、 画面自動スクロ ールが必要でない場合には強調表示属性を変更し、 画面自動スクロール が必要である場合には画面自動スクロール処理を行なった後強調表示属 性を変更するのである。
ところで、 強調表示部分 6 1 3の表示種類及び表示領域は、 強調情報 Qを変更することにより、 任意に変更することができる。
例えば、 F I G. 7 7に示すディスプレイ 3 0において、 イメージデ 一夕表示エリァ 6 1 1の最下部にある項目 6 1 2である 「金額 (¥4.32 1 ) 」 が強調表示'されている場合を例にして説明する。
この場合、 「金額 (¥4,321) 」 である項目 6 1 2の強調表示部分 6 1 3は、 F I G. 6 9, F I G. 7 9の強調情報 Qに示すように、 開始 位置座標 ( 3 2 0, 1 8 0 ) と終了位置座標 ( 4 2 0, 2 0 0 ) とを規 定することにより、 一意に決められるようになつている。 なお、 開始位 置座標 ( 3 2 0, 1 8 0 ) は、 「タイ トル 4 (金額) 」 に対応した 「N o . 7開始」 に示す座標であり、 終了位置座標 ( 4 2 0, 2 0 0 ) は、 「タイ トル 4 (金額) 」 に対応した 「N o . 7終了」 に示す座標である c 次に、 F I G. 7 9に示すように、 強調表示部分 6 1 3の開始位置座 標 ( 3 2 0, 1 8 0) を、 ( 3 6 0, 1 8 0 ) に変更すると、 F I G . 7 8に示すように、 F I G. 7 7に示す項目 6 1 2である 「金額 (¥4, 321) 」 の強調表示部分 6 1 3の領域は狭くなる。
このように、 強調情報 Qにおける開始位置座標や終了位置座標を変更 することにより、 強調表示部分 6 1 3の領域の大きさを任意に設定する ことができるのである。
強調情報 Qの変更は、 F I G. 6 3に示すように、 データ入力手段と してのキーボード等を用いて、 イメージデータ表示装置 6 4 0に強調表 示属性の変更の旨を入力することにより、 F I G. 6 2, F I G. 6 3 に示す変更部 6 2 8で行なわれる。
即ち、 変更部 6 2 8では、 変更情報獲得部 6 2 8 Aが変更情報 Rを獲 得すると、 強調情報変更部 6 2 8 Bが強調情報 Qを更新して、 強調情報 Q' を作成するのであり、 このときの動作フローを F I G. 6 6を用い て説明する。
変更情報 Rが入力されると、 まず、 変更情報獲得部 6 2 8 Aが、 強調 情報変更開始認識処理 (ステップ C 1' ) 及び強調情報変更終了認識処 理 (ステップ C 2' ) を行なった後、 変更情報獲得処理を行なうことに より (ステップ C'3' ) 、 強調情報 Qがどのように変更されたかを認識 する。
次に、 この認識結果に従って、 強調情報変更部 6 2 8 Bが、 強調情報 更新処理 (ステップ C 4' ) 及び強調情報変更処理 (ステップ C 5' ) を行なうことにより、 例えば F I G. 7 9に示すように、 強調情報 Qを 更新して強調情報 Q' を作成するのである。
このように、 強調表示部分 6 1 3の表示種類及び表示領域を任意に変 5 更することができるため、 用途に応じて自由に強調表示を施すことがで きるのである。
なお、 F I G . 7 7, F I G . 7 8に示すデータ入力表示エリア部分 6 1 5には、 イメージデータの文字認識結果が表示されていないが、 文 字認識結果が表示されていてももちろんかまわない。
従って、 本実施形態にかかるイメージデータ表示装置 6 4 0によれば、 データ入力すべきデータ入力表示エリア部分 6 1 5にカーソル表示を移 動させると、 同時に参照すべき項目 6 1 2のイメージデータ部分が強調 表示されることにより、 オペレータがディスプレイ 6 3 0から一度目を 離した後に、 再度ディスプレイ 6 3 0を見た場合でも、 誤った項目 6 1 2を見ることを防いで、 イメージデータを参照する際の対応の誤認識を 防いで視認性を高め、 入力操作における労力を軽減させるとともに、 誤 入力を防止することができる利点がある。
また、 参照すべき項目 6 1 2のイメージデータがディスプレイ 6 3 0 に表示されていない場合には、 強調表示部分 6 1 3の移動に伴って自動 的にスクロールすることができるため、 例えばキーを押下する等の無駄 な操作を削減することができるという利点がある。
さらに、 オペレータが強調表示部分 6 1 3の種類や領域を変更するこ ともでき、 用途に応じて使用することができる利点がある。
なお、 本実施形態では、 例えば F I G . 7 0に示すように、 ディスプ レイに表示される帳票のイメージデータに強調表示を施す際に、 所定の 項目 6 1 2の全体を強調表示する場合について説明したが、 これに限定 されず、 例えば F I G . 8 0に示すように、 所定の項目 6 1 2の一部分 を強調表示するようにしてもよい。
ここで、 F I G . 8 0に示すディスプレイ 6 3 0のイメージデータ表 示エリア 6 1 1には、 「口座番号」 , 「科目」 , 「銀行名 Z支店名」 , 「受取人」 及び 「金額」 の 5つの項目情報を含んだイメージデータが表 示されるようになつている。
また、 送金データを入力する際には、 所望のデータ入力表示エリア部 分 6 1 5に力一ソル表示 6 1 6を移動させることにより、 所望の項目 6 1 2のイメージデータ部分に対応する送金データを入力する。 このとき、 F I G. 8 0に示すように、 所望の項目 6 12のィメージデータ部分が 強調表示部分 6 1 3を有して強調表示されており ( 「銀行名 支店名 (富士通銀行) 」 の部分) 、 F I G. 8 1, F I G. 82に示すように、 カーソル表示 6 1 6の移動に伴って、 この強調表示部分 6 1 3もィメー ジデータ表示エリア 6 1 1を移動する。
なお、 F I G. 82では、 項目 6 12の 「受取人 (山田 一郎) 」 の 文字部分が強調表示されているが、 F I G. 83に示すように、 項目 6 1 2の全体を強調表示してもよい。
さらに、 例えば F I G. 8 4に示すように、 帳票のイメージデータを、 個人情報毎にディスプレイ 6 30に表示するようにすることもできる。
ここで、 F I G. 84に示すディスプレイ 630のィメ一ジデータ表 示エリア 6 1 1には、 「銀行名」 , 「支店名」 , 「口座番号」 , 「科 目」 , 「金額」 , 「受取人」 及び 「依頼人」 の 7つの項目情報を含んだ イメージデータが表示されるようになっている。
同様に、 送金デ '一夕を入力する際には、 所望のデータ入力表示エリア 部分 6 1 5に力一ソル表示 6 1 6を移動させることにより、 所望の項目 6 1 2' のイメージデータ部分に対応する送金データを入力する。 この とき、 F I G. 84に示すように、 所望の項目 6 12' のイメージデー 夕部分が強調表示部分 6 1 3を有して強調表示されており ( 「科目 ( 1) 」 の部分) 、 F I G. 8 5に示すように、 カーソル表示 6 1 6の移 動に伴って、 この強調表示部分 6 1 3もイメージデータ表示エリア 6 1 /021
1を移動す 。
このように帳票のイメージデータを表示した場 έでも、 本実施形態と 同様の利点を得ることができる。
なお、 F I G . 8 0〜F I G . 8 5に示すデータ入力表示エリア部分 6 1 5には、 イメージデータの文字認識結果が表示されていないが、 文 字認識結果が表示されていてももちろんかまわない。
さらに、 本実施形態では、 銀行等で用いる帳票をイメージデータ入力 装置で読み取り、 イメージデータとしてディスプレイ等の画面に表示す る場合について説明したが、 これに限定されず、 その他のデータ類 (例 えば名簿等) をイメージデータ入力装置で読み取り、 イメージデータと してディスプレイ等の画面に表示することもでき、 このようにしても、 本実施形態と同様の利点を得ることができる。
また、 本実施形態では、 オペレータ力^ 読み取ったイメージデータを 目視して、 入力操作を行なう場合について説明したが、 例えば帳票をィ メージデータ入力装置で読み取る際に、 自動的に文字認識を行なうよう にすることにより、 誤認識及び認識不能文字を含んだ項目についてのみ オペレータが入力操作を行なうようにすることもできる。
このようにすれば、 本実施形態と同様の利点を得ることができるほか、 入力操作における労力及び時間を大幅に削減することができる。
( 2 ) 読み取り ½章表示 ·認識情報修正装置の説明
上述の ( 1 ) にて詳述したイメージデータ表示装置 6 4 0においては、 イメージデータの編集表示は複数の文字から構成される項目を単位とし ているため、 自動文字認識の結果の正誤の確認の際には、 イメージデ一 タ中の連続する異なった文字の中から、 目視によって確認対象の認識文 字に対応する文字の選別を行なうため、 視線の移動及び比較する対象が 多く、 正誤の確認作業に労力及び時間を要することもある。 そこで、 このような場合には、 F I G . 8 6に示すような読み取り標 章表示 ·認識情報修正装置 7 4 0を用いて入金依頼処理を施すことがで きる。
この読み取り標章表示 ·認識情報修正装置 7 4 0は、 例えば入金すベ き料金の種類や金額等の入金データが記載された帳票をイメージとして 取り込み、 この入金データのイメージを自動文字認識によりコ一ド情報 に変換することにより、 入金依頼処理を施すものであるものであるが、 変換の際の認識不能文字及び誤認識文字 (文字には数字も含む。 以下同 じ。 ) の修正は、 オペレータがキーボード等を介して行なうようになつ ている。
ここで、 この読み取り標章表示,認識情報修正装置 7 4 0は、 F I G . 6に示す媒体処理装置 3 0のクライアント 1 0に相当するものであり、 F I G . 6に示すサーバ 3 9と接続された場合には、 サーバ 3 9に接続 された集中文字認識装置 6によるイメージの文字認識結果についても、 同様に認識不能文字及び誤認識文字の修正処理を施すとともに、 この修 正結果をサーバ 3 9に出力するワークステーションとして機能するよう になる。
このために、 この読み取り標章表示 ·認識情報修正装置 7 4 0は、 F
1 G . 8 6に示すように、 ィメージ読み取り部としてのィメージリーダ 7 2 1 , データ入力装置としてのキ一ボード 7 2 2 , ハードディスク 7
2 3 , 標章認識装置としてのコンピュータ本体 7 2 4及びディスプレイ 7 2 5をそなえて構成されている。
ここで、 イメージリーダ 7 2 1は、 例えば F I G . 9 8に示す入金デ ―夕が記載された帳票のような数字, 文字等の標章情報を有するィメー ジである全面イメージ Pを読み取り、 数字及び文字等のイメージ情報で ある標章イメージ情報として、 コンピュータ本体 7 2 4に入力するもの である。
なお、 標章イメージ情報は、 その最小構成単位である数字及び文字単 位で構成されているものであるが、 これに限らず、 数字及び文字の集合 をその構成単位としてもよい。 また、 この全面イメージ Pは、 複数枚分 をまとめて保持されるようにしてもよい。
また、 キーボード 7 2 2は、 自動認識不能であった標章イメージ情報 及び誤認識された標章イメージ情報に対応するコードデータを修正する ために、 適正なコードデータを正解データとして、 オペレータが手動で 入力するためのものである。
さらに、 ディスプレイ 7 2 5は、 ィメージリーダ 7 2 1から入力され た標章イメージ情報を読み取ったイメージの状態で表示するものであり、 認識不能標章イメージ情報表示エリア 7 3 2 A , 標章イメージ情報表示 エリア 7 3 3 A , 連関標章ィメ一ジ情報表示ェリア 7 3 3 B及び正解デ 一夕表示エリァ 7 3 3 Cを有している。
ここで、 認識不能標章イメージ情報表示エリア 7 3 2 Aは、 自動認識 不能であつた標章ィメ一ジ情報を、 その周辺の標章ィメ一ジ情報ととも に表示するものであり、 認識不能標章ィメ一ジ情報には強調表示を施す ことにより、 周辺の標章イメージ情報と識別できるようになつている。 例えば、 F I G . 1 0 1の画面 Aにおいて、 「 1 . "?" (リジェク ト 文字) 」 に示す 「'2 0 3 4」 では、 「 3」 が認識不能標章イメージ情報 であり、 「2」 , 「0」 , 「 4」 が周辺の標章イメージ情報に相当する c また、 標章イメージ情報表示エリア 7 3 3 Aは、 イメージ中における コード情報に変換されるべき最小構成単位の標章イメージ情報を、 この 標章ィメ一ジ情報を変換したコード情報の意味する標章情報に対応させ て表示するものである。
即ち、 ィメージを分割して最小構成単位の標章ィメ一ジ情報として、 例えば F I G. 1 0 1の画面 Aに示すように、 数字の場合では 「 0」 〜 「 9」 に対応するエリアが設けられており、 「 1」 を表す標章イメージ 情報は、 全て 「 1」 に対応するエリアに表示されるように、 同一標章を 同一エリアに表示するようになっており、 視線の移動を削減するように なっている。
さらに、 連関標章イメージ情報表示エリア 7 3 3 Bは、 例えば続き文 字のような前後の文字を参照することにより、 自動文字認識の結果の正 誤の確認及び修正が容易に行なえる場合に、 キーボード 7 2 2の例えば 参照キーを押下することにより、 強調表示されている標章イメージ情報 の周辺のイメージ情報を参考表示させるものである。 例えば、 F I G.
1 0 3の画面 Fにおいて、 「 1 1 7 5」 では、 「7」 が強調表示されて いる標章イメージ情報であり、 「 1」 , 「 1」 , 「5」 がその周辺のィ メージ情報である。
また、 正解データ表示エリァ 7 3 3 Cは、 キーボード 7 2 2から入力 された適正なコ一ドデータを正解データとして表示するためのものであ り、 例えば、 F I G. 1 0 3の画面 Fにおいては、 「7」 が入力された 状態になっている。
さらに、 F I G. 8 6に示す読み取り標章表示 ·認識情報修正装置 7 4 0は、 前述のごとく、 ハードディスク 7 2 3をそなえており、 このハ 一ドディスク 7 2 3は、 定義体情報としての読み取り指定情報を格納す る定義体情報格納部である。 なお、 読み取り指定情報とは、 全面ィメ一 ジ Pの分割及びコ一ドデータとしての認識に関する情報をいう。
F I G. 8 6に示すコンピュータ本体 7 2 4は、 標章認識装置として 機能し (以下コンピュータ本体 7 2 4を標章認識装置 7 2 4と表記する 場合がある) 、 イメージリーダ 7 2 1により入力されたイメージの標章 のイメージ情報を認識して、 この標章のイメージ情報を標章のコードデ 一夕に変換するとともに、 標章のイメージに所定の処理を施してディス プレイ 7 2 5に表示するものである。
また、 F I G . 8 6, F I G . 8 7に示す標章認識装置としてのコン ピュー夕本体 7 2 4は、 標章認識部としての文字認識部 7 2 6 , 読み取 り標章イメージ表示制御部 7 2 7, 正解データ表示手段としての正解デ 一夕表示部 7 2 8, 最小構成単位標章イメージ情報抽出部としての文字 イメージ抽出処理部 7 2 9 , 最小構成単位標章イメージ表示制御部とし ての文字イメージ表示処理部 7 3 0 , 連関標章イメージ表示手段として の連関標章イメージ表示部 7 3 1, 認識情報修正手段としての認識情報 修正部 7 5 2及び関連情報作成部 7 4 1をそなえている。
ここで、 文字認識部 7 2 6は、 イメージリーダ 7 2 1で読み取られた ィメ一ジ中の標章ィメ一ジ情報を認識して、 この標章ィメ一ジ情報に対 応するコード情報に変換するものであり、 例えば文字認識装置等と同様 の機能を有するものである。
この文字認識部 7 2 6は、 イメージ読み取り装置 7 2 1で読み取られ た全面イメージ Pあるいはハードディスク 7 2 3に格納された読み取り 指定情報 (定義体情報) を参照して、 認識文字情報 Sを作成するもので める。
ここで、 認識文字情報 Sは、 文字認識部 7 2 6により認識された文字 のコードデータを ¾したものであり、 F I G . 9 9に示すように、 「項 目名」 , 「項目桁数」 , 「認識結果」 で表されている。
「項目名」 は、 F I G . 9 8の全面イメージ Pにおける 「水道料金」 及び 「電気料金」 に対応しており、 「S U I —:!〜 4」 及び 「D E N— 1〜 4」 の項目を有している。
また、 「項目桁数」 は、 項目の有する桁数であり、 この場合は 6桁の 文字及び数字を入力できるように設定されており、 「認識結果」 は、 文 字として認識されたコードデータとしてのコード情報を表している。 な お、 付記した正解データとの比較でわかるように、 「S U I— 2」, 「S U I - 4」 の認識結果は、 認識不能及び誤認識である。
また、 読み取り標章イメージ表示制御部 7 2 7は、 標章イメージ情報 を対応するコード情報に変換できなかった場合は、 この変換できなかつ た認識不能標章ィメ一ジ情報を認識不能標章ィメ一ジ情報と連関する標 章イメージ情報とともに、 ディスプレイ 7 2 5に、 読み取ったイメージ の状態で表示させるものである。
即ち、 この読み取り標章イメージ表示制御部 7 2 7は、 文字認識部 7 2 6で認識及び対応するコード情報への変換が行なわれなかった標章ィ メージ情報を、 認識不能標章イメージ情報として、 この認識不能標章ィ メ一ジ情報の周辺に位置する連関する標章ィメ一ジ情報とともに、 ディ スプレイ 7 2 5上の認識不能標章イメージ情報表示エリア 7 3 2 Aに、 読み取ったイメージの状態で表示させるものである。
さらに、 この読み取り標章イメージ表示制御部 7 2 7は、 オペレータ による認識不能標章イメージ情報の識別を容易にするために、 認識不能 標章ィメ一ジ情報に強調表示を施す強調表示手段としての強調表示部 7 2 7 Aをそなえている。
また、 この読み取り標章イメージ表示制御部 7 2 7は、 正解データ表 示部 7 2 8により'、 正解データがディスプレイ Ί 2 5上の認識不能標章 イメージ情報表示エリァ 7 3 2 Aとは別の正解データ表示エリァ 7 3 3 Cに表示されると、 今まで強調表示されていた認識不能標章イメージ情 報については修正済みを意味する別の強調表示に変更する強調表示変更 手段としての強調表示変更部 7 2 7 Bもそなえている。
さらに、 文字イメージ抽出処理部 7 2 9は、 イメージ中におけるコー ド情報に変換されるべき最小構成単位の標章ィメ一ジ情報を、 最小構成 単位の標章ィメ一ジ情報毎に抽出するものである。
即ち、 この文字イメージ抽出処理部 7 2 9は、 例えば数字, 文字をそ の最小構成単位としている標章イメージ情報を、 数字及び文字単位のィ メ一ジ情報に分割して抽出するものであり、 全面ィメージ Pあるいはハ 一ドディスク 7 2 3に格納された読み取り指定情報 (定義体情報) を参 照して、 関連情報 Rを作成するものである。
ここで、 文字イメージ情報及び関連情報 Rは、 F I G . 9 1に示すフ ローチャー卜のステップ B 1 " 〜ステップ B 8〃 の処理を施すことによ り作成される。
即ち、 まず、 全面イメージ Pを文字単位に分割して文字イメージ情報 を作成して (ステップ B 1〃 ) 、 この文字イメージ情報の全面イメージ Pにおける位置 (帳票上の位置) 情報を取得する (ステップ B 2〃 ) 。
次に、 この文字イメージ情報が所定の項目 (水道料金, 電気料金等) に指定されているか否かを判断し (ステップ B 3〃 ) 、 指定されている 場合には、 文字イメージ情報を所定の項目毎に分類し (ステップ B 4〃 ) 、 各文字イメージ情報の項目内の位置情報を設定する (ステップ B 5 "
文字イメージ情報が所定の項目に指定されていない場合は、 行を項目 として項目毎に分類し (ステップ B 6〃 ) 、 各文字イメージ情報の項目 内の位置情報を設 する (ステップ B 7〃 ) 。
このように、 設定された各文字ィメ一ジ情報の項目内の位置情報を用 いて、 関連情報 Rが作成されるのである (ステップ B 8〃 ) 。 なお、 こ の関連情報 Rは、 認識文字に関する認識文字情報を有していないもので あ^ )
また、 文字イメージ表示処理部 7 3 0は、 文字イメージ抽出処理部 7 2 9で抽出された最小構成単位の標章イメージ情報 (例えば数字, 文字 単位のイメージ情報) を、 この標章イメージ情報を変換したコード情報 の意味する標章情報に対応させて表示させるとともに、 同種の最小構成 単位の標章イメージ情報を、 この標章イメージ情報を変換したコード情 報の意味する標章情報に対応させて複数個表示させる機能を有するもの である。
即ち、 この文字イメージ表示処理部 7 3 0は、 例えば、 文字イメージ 抽出処理部 7 2 9で抽出された 「 1」 のイメージ情報を変換したコード 情報を、 ディスプレイ Ί 2 5上の標章イメージ情報表示エリア 7 3 3 A の 「 0」 〜 「9」 等の複数の標章を表示する部分の中の 「 1」 の標章を 表示する部分に表示させるものである。
また、 文字イメージ表示処理部 7 3 0は、 所望の 1つの標章イメージ 情報についてのみ強調表示を行なう強調表示手段としての強調表示部 7 3 O Aをそなえており、 現在処理しているイメージ情報の識別が容易に できるようになっている。
さらに、 強調表示変更手段としての強調表示変更部 7 3 0 Bは、 デー タ入力装置であるキーボード 7 2 2の操作により正解データを入力する と、 今まで強調表示されていた 1つの標章イメージ情報については修正 済みを意味する別の強調表示を施し、 修正前の標章イメージ情報と修正 済の標章ィメ一ジ情報との識別を容易にするものである。
また、 連関標章イメージ表示部 7 3 1は、 1つの標章イメージ情報を この標章イメージ情報と連関する標章イメージ情報とともに、 ディスプ レイ 7 2 5上に、 読み取ったイメージの状態で表示するものである。 即ち、 この連関標章イメージ表示部 7 3 1は、 1つの標章イメージ情 報をこの標章ィメ一ジ情報の周辺に位置し、 連関する標章ィメ一ジ情報 とともに、 ディスプレイ 7 2 5上の連関標章イメージ情報表示エリア 7 3 3 Bに、 読み取ったイメージの状態で表示するものであり、 例えば続 き文字のような前後の文字を参照することにより、 自動文字認識の結果 の正誤の確認及び修正が容易に行なえる場合に、 強調表示されているィ メージ情報の周辺のイメージ情報を参考表示させるものである。
さらに、 この連関標章イメージ表示部 7 3 1は、 1つの標章イメージ 情報については強調表示を施す強調表示手段としての強調表示部 Ί 3 1 Aをそなえており、 連関する標章イメージ情報との識別を容易にしてい る。
また、 正解データ表示部 7 2 8は、 データ入力装置 7 2 2の操作によ り正解データを入力すると、 ディスプレイ 7 2 5上の標章イメージ情報 表示エリア 7 3 3 A及び連関標章イメージ情報表示エリア 7 3 3 Bとは 異なるエリアである正解データ表示エリア 7 3 3じに、 正解データを表 示させるものである。
さらに、 認識情報修正部 7 5 2は、 認識不能標章イメージ情報及び誤 認識標章イメージ情報に対する正解データがキーボード 7 2 2から入力 されると、 正解データを正解コードデータとして登録することにより、 認識不能標章ィメ一ジ情報及び誤認識標章ィメ一ジ情報の修正を行なう ものであり、 F I G . 8 8に示すように、 修正情報取得処理部 7 4 2及 び修正結果反映処理部 7 4 3をそなえている。
また、 関連情報作成部 7 4 1は、 関連情報 R及び認識文字情報 Sを参 照して、 認識文字情報を有した関連情報 R ' を作成するものである。
この関連情報 R ' は、 F I G . 1 0 0に示すように、 複数の文字ィメ —ジ情報における 「全面イメージ上の位置及びサイズ」 , 「対応文字項 目名」 , 「対応項目イメージ名」 , 「項目内桁位置」 , 「認識文字」 , 「認識文字情報内オフセッ ト」 及び 「修正済フラグ」 を表したものであ る。
ここで、 「全面イメージ上の位置及びサイズ」 は、 文字イメージ情報 の全面イメージ P上の位置情報を表しており、 ビッ 卜単位で表現されて いる。
また、 「対応文字項目名」 は、 文字イメージ情報が属する項目 ( [S U I— 1〜4」 等) を表しており、 「対応項目イメージ名」 は、 文字ィ メージ情報が属するイメージを表しており 「対応文字項目名」 に対応し ている ( 「 I SU I—:!〜 4」 等) 。
例えば、 F I G. 9 9に示す項目 [SU I - 1」 は、 認識文字情報 「 1 0 5 0」 に対応しているが、 F I G. 1 0 0に示すように、 文字ィ メージ 1〜 4情報からなり、 イメージ名は [ I S U I— 1」 となる。 さらに、 「項目内桁位置」 は、 項目内での文字イメージ情報の位置を 表しており、 「認識文字」 は、 認識文字情報 Sを表すものであり、 認識 文字 「1」 が項目内で 3桁目に、 「0」 が 4桁目に、 「5」 力く 5桁目に、 「0」 が 6桁目に位置することを表している。
さらに、 「修正済フラグ」 は、 F I G. 1 00では全て 「OFF」 と なっているが、 認識不能文字及び誤認識文字の修正を施したときには、 その文字イメージ情報に対する修正済フラグ」 を 「ON」 に変更され、 修正が行なわれた旨を示すものである。
なお、 その他、 文字イメージ情報は 「認識文字情報内オフセッ ト」 情 報によっても規定されている。
この関連情報 R' は、 F I G. 92に示すような処理によって作成さ
4し o
まず、 認識文字情報 Sを項目及び 又は行で表現される位置情報毎に 分類し (ステップ C 1" ) 、 分類された認識文字情報 Sを対応する関連 情報 Rに追加する (ステップ C 2〃 ) 。 次に、 この認識文字情報 Sの項 目及び/又は行内文字数が、 関連情報 Rの項目又は行内文字数以内であ るかを判断し (ステップ C 3〃 ) 、 さらに、 この認識文字情報 Sの項目
1 2 及び/又は行数が、 関連情報 Rの項目又は行数以内であるかを判断し 、ステップ C 4〃 ) 、 これによ ' . 関連情報 Rを更新して関連情報 R ' を作成するのである。
実際には、 上述した文字認識部 7 2 6 , 読み取り標章イメージ表示制 御部 7 2 7 , 文字ィメ一ジ抽出処理部 7 2 9, 文字ィメ一ジ表示処理部 7 3 0 , 連関標章イメージ表示部 7 3 1, 正解データ表示部 7 2 8及び 関連情報作成部 7 4 1 としての機能をコンピュータ本体 7 2 4に与える ような適宜のソフ トゥヱァを、 ハードディスク 7 2 3又はその他のメモ リにィンストールすることにより、 読み取り標章表示 ·認識情報修正装 置 7 4 0を構成するのである。
上述の構成により、 本実施形態にかかる読み取り標章表示 ·認識情報 修正装置 7 4 0は、 以下のように動作する。
F I G . 8 7に示すイメージ読み取り装置 7 2 1で、 読み取り対象の 帳票の全面イメージ Pを作成し、 標章認識装置 7 2 4でこの全面ィメー ジ Pを文字イメージ情報に変換するとともに、 読み取り指定情報 (定義 体情報) を用いて関連情報 R ' を作成する。
この関連情報 R ' を用いて、 これら文字イメージ情報をディスプレイ ( F I G . 8 7では図示せず) に表示したときのディスプレイ 7 2 5上 の初期画面は F I G . 1 0 1の画面 Aに示すようになる。
このとき、 認識 能標章イメージ情報表示エリア 7 3 2 Aには、 リ ジ ヱク ト文字及びその周辺に位置する文字である 「 2 0 3 4」 及び 「 1 2 0 1」 が表示され、 標章イメージ情報表示エリア 7 3 3 Aには、 「 0」 〜 「 9」 のエリアに、 それぞれ 「 0」 〜 「 9」 を表す文字イメージが表 示されている。
なお、 認識不能標章イメージ情報表示エリア 7 3 2 Aに表示された
「 2 0 3 4」 は、 修正対象であることを示すため太枠で強調表示されて いるとともに、 認識不能文字であるリジェク ト文字 「3」 に斜線で強調 表示が施されている。 また、 同様に認識不能標章イメージ情報表示エリ ァ 7 3 2 Aに表示された 「 1 2 0 1」 は、 認識不能文字であるリジェク ト文字 「2」 に斜線で強調表示が施されている。
ここで、 F I G. 1 0 1〜F I G. 1 0 4に示すような文字イメージ 情報の表示は、 F I G. 8 7に示す標章認識装置 7 2 4で行なわれてお り、 このときの動作フローを F I G. 9 3を用いて説明する。
まず、 標章認識装置 7 2 4が全面イメージ Pを取得すると (ステップ D 1〃 ) 、 関連情報 R' を複写し認識文字情報 Sの順に分類を行なう (ステップ D 2〃 ) 。
この認識文字が認識不能であるリジェク 卜文字であるか否かを判断し (ステップ D 3〃 ) 、 リジヱク ト文字である場合には、 その周辺及びノ 又は項目の文字イメージ情報を取得して、 認識不能標章イメージ情報表 示エリァ 7 3 2 Aに表示する (ステップ D 4〃 ) 。 なお、 これらのステ ップ D l〃 〜D 4〃 の動作をリジヱク ト文字の数だけ繰り返すのである (ステツプ D 5〃 ) 。
また、 認識文字がリジェク ト文字でない場合には、 標章イメージ情報 表示エリア 7 3 3 Aの該当するエリアに文字イメージ情報を表示し (ス テツプ D 6〃 ) 、 認識文字の数だけこのステップ D 6〃 の動作を繰り返 すのである (ステップ D 7〃 ) 。
このような F I G. 1 0 1に示す初期画面 Aの状態で、 オペレータが キーボード 7 2 2により、 正解データとして 「3」 を入力すると、 正解 データ表示エリア 7 3 3 Cには 「3」 が表示され、 その後、 例えば確定 キーを押下すると、 画面 Bに示すように認識不能標章ィメ一ジ情報表示 エリア 7 3 2 Aに表示された 「 2 0 3 4」 のリジヱク ト文字である 「 3」 部分の強調表示が、 斜線から修正された旨を示す網かけになる。 こ れに伴って認識文字情報 Sが修正されるとともに、 関連情報 R' が更新 されるのである。
また、 画面 Bでは、 「 2 0 3 4」 におけるリジヱク 卜文字 「3」 が修 正された旨を示す網かけの強調表示に変更されたことに伴って、 自動的 に次の修正対象である 「 1 2 0 1」 に太枠の強調表示が施される。 さらに、 このような画面 Bの状態で、 オペレータがキーボ一ド 7 2 2 により、 正解データとして 「2」 を入力すると、 正解データ表示エリア 7 3 3 Cには 「2」 が表示され、 その後、 確定キーを押下すると、 F I G. 1 0 2の画面 Cに示すように、 認識不能標章イメージ情報表示エリ ァ 7 3 2 Aに表示された 「 1 2 0 1」 のリジェク ト文字である 「2」 部 分の強調表示が、 斜線から修正された旨を示す網かけになる。 これに伴 つて認識文字情報 Sが修正されるとともに、 関連情報 R' が更新される のである。
ところで、 標章イメージ情報表示エリア 7 3 3八の 「0」 〜 「9」 の エリアに表示された 「0」 〜 「9」 を表す文字イメージが異なっていた 場合、 即ち、 文字イメージ情報が誤認識されていた場合には、 オペレー 夕がキーボード 7 2 2の例えばタブキーを押下すると、 F I G. 1 0 2 に示すように、 ディスプレイ 7 2 5の 「 1. "?" (リジヱク ト文字 ;) 」 のエリアから、 「2. " 0" 」 のエリアに太枠の強調表示が移動す る。 '
さらに、 タフキーの押下を繰り返すと、 F I G. 1 0 3の画面 Eに示 すように、 「3. "1" 」 のエリアに太枠の強調表示が移動し、 これを 繰り返すことにより、 修正対象であることを示す太枠の強調表示が順次 ディスプレイ 7 2 5内を移動する。
即ち、 「 0」 〜 「 9」 の各エリア内で太枠の強調表示を移動する際に は、 タブキーを押下して所望の文字ィメージ情報を選択するようになつ ており、 F I G. 1 0 3の画面 Eでは、 「3. " 1" 」 のエリアに誤認 識 (即ち、 「 7」 のイメージが 「 1」 のコ一ド情報に変換されている) により表示された文字イメージ情報 「7」 が太枠で強調表示されている c ここで、 この文字イメージ情報 「 7」 の正誤が、 単独では識別しにく い場合には、 F I G. 8 9に示すように、 オペレータがキーボード 7 2 2の参照キ一を押下すると、 連関標章ィメ一ジ表示手段としての参照ィ メ一ジ表示処理部 7 3 1力 関連情報 R' を参照して、 F I G. 1 0 3 の画面 Fに示すように、 連関標章ィメージ情報表示エリァ 7 3 3 Bに参 照イメージを表示する。
このような画面 Fの状態で、 オペレータがキーボード 7 2 2により、 正解データとして 「7」 を入力し、 確定キーを押下すると、 正解データ 表示エリァ 7 3 3 Cには 「 7」 が表示され、 F I G. 1 0 4に示すよう に、 文字イメージ情報 「 7」 のコード情報が、 誤認識である 「 1」 から 「 7」 へと修正され、 文字イメージ情報 「7」 には、 修正が行なわれた 旨の網かけの強調表示が施される。
即ち、 認識文字情報 S及び関連情報 R' が更新されるとともに、 修正 され文字イメージ情報 「 7」 には、 修正した旨を示す強調表示が施され るのである。
ここで、 F I G. 8 9に示すような参照イメージ表示処理は、 前述の ごとく、 参照ィメ'ージ表示処理部 7 3 1で行なわれており、 このときの 動作フローを F I G. 9 7を用いて説明する。
まず、 参照イメージの表示が行なわれているか否かを判断し (ステツ プ H 1〃 ) 、 参照イメージが表示されていない場合には、 強調表示され ている修正対象の文字イメージ情報の関連情報 R' を検索する (ステツ プ H 2〃 ) 。
次に、 修正対象の文字ィメ―ジ情報の周辺及び/又は項目ィメ一ジ情
1 3 報を取得し (ステップ H 3〃 ) 、 参照イメージを表示する位置を、 強調 表示されている修正対象の文字イメージ情報を遮蔽しない位置に設定し (ステップ H 4〃 ) 、 参照イメージを表示する (ステップ H 5〃 ) 。 なお、 参照イメージが表示されている状態で、 再び参照キーを押下す ると、 参照イメージを消去する (ステップ H 6〃 ) 。
ここで、 F I G. 1 0 1〜 F I G. 1 04に示すような文字イメージ 情報の修正は、 F I G. 8 7, F I G. 88に示す文字認識部 726の 修正情報取得処理部 7 4 2, 修正結果反映処理部 743及び強調表示変 更手段としての修正文字イメージ強調表示部 72 7 Bによって行.なわれ ており、 このときの動作フローを F I G. 94〜F I G. 9 6を用いて 説明する。
F I G. 8 8に示すように、 オペレータがキーボード 722により、 正解データを入力すると、 この正解データは修正情報として修正情報取 得処理部 7 42に入力され、 この修正情報と関連情報 R' とを用いて修 正結果反映処理部 7 4 3で認識文字情報 Sを作成するとともに、 関連情 報 R' を修正して更新する。 また、 修正文字イメージ強調表示部 72 7 Bは、 修正情報を参照して、 修正が行なわれた項目にその旨の強調表示 を施す。
このとき、 修正情報取得処理部 7 42では、 F I G. 9 4に示すよう に、 入力画面が表示されると (ステップ E 1〃 ) 、 認識文字が認識不能 文字であるリジヱク ト文字であるか否かを判断し (ステップ E 2〃 ) 、 リジェク ト文字である場合には、 周辺及び/又は項目イメージ情報に修 正対象の項目であることを示す太枠の強調表示を施し (ステップ E 3〃 ) 、 該当文字であるリジェク 卜文字には太枠とは別な斜線の強調表示を 施す (ステップ E 4〃 ) 。
また、 認識文字がリジヱク 卜文字でない場合には、 この文字イメージ 情報に太枠の強調表示を施す (ステップ E 5〃 ) 。
ここで、 オペレータ一のキーボード 7 2 2操作により (ステップ E 6〃 ) 、 例えばタブキー又は逆タブキー (タブキーと反対方向へ力一ソ ルを移動させるキー) が押下されると、 修正対象を示す太枠の強調表示 を移動して、 次の文字イメージ情報を修正対象とし (ステップ E 7〃 ) 、 最終の文字ィメ一ジ情報まで太枠の強調表示が移動すると、 はじめから この動作が行なわれる (ステップ E 8〃 ) 。
なお、 その他のキーが押下されると修正情報が関連情報作成部 7 4 1 に通知される (ステップ E 9〃 ) 。
また、 F I G . 8 8に示す修正結果反映処理部 7 4 3では、 F I G . 9 5に示すように、 強調表示中の文字イメージ情報の関連情報 R ' を検 索し (ステップ F 1〃 ) 、 認識文字 (認識不能文字及び誤認識文字) を 修正し (ステップ F 2〃 ) 、 更に、 関連情報 R ' の認識文字を修正し (ステップ F 3〃 ) 、 参照イメージを表示又は消去する (ステップ F 4 " )
さらに、 F I G . 8 8に示す修正文字イメージ強調表示部 7 2 7 Bで は、 F I G . 9 6に示すように、 修正情報を取得して (ステップ G 1 ' ) 、 修正がなされた旨の強調表示を施す (ステップ G 2〃 ) 。
上述したように、 読み取り標章表示 ·認識情報修正装置 7 4 0におけ る文字イメージ情報の表示, 修正及び参照イメージの表示は、 F I G . 9 0に示すように、 標章認識装置 7 2 4での、 全面イメージ Pであるィ メージデータの取得 (ステップ A 1〃 ) , 文字イメージ情報の抽出 (ス テツプ A 2〃 ) , 認識文字イメージ情報の取得 (ステップ A 3〃 ) , 関 連情報 R ' の作成 (ステップ A 4〃 ) , 文字イメージ情報の表示 (ステ ップ A 5〃 ) , 修正情報の取得 (ステップ A 6〃 ) , データキー又は参 照キーの押下 (ステップ A 7〃 ) , データキーの押下に伴う修正結果の 反映 (ステップ A 8〃 ) 及び修正された文字イメージ情報の強調表示 (ステップ A 9〃 ) , 参照キー押下に伴う参照イメージの表示 (ステツ プ A 1 0〃 ) のように行なわれ、 表示されている文字イメージ情報全て に いてこの処理を行なうのである (ス ップ A 1 1〃 ) 。
このように本実施形態にかかる読み取:)標章表示 ·認識情報修正装置 7 4 0によれば、 標章認識装置 7 2 4により、 認識できなかった認識不 能文字のィメ一ジ情報を、 その周辺の文字のィメ一ジ情報とともにディ スプレイ 7 2 5上に読み取ったイメージの状態で表示するとともに、 こ の認識不能文字のィメ一ジ情報については強調表示を施すことにより、 続き文字のような前後の文字のイメージ情報を参照することにより、 精 度の高い確認作業が行なうことができ、 正誤の確認作業に要する労力及 び時間を削減することができる利点がある。
また、 本実施形態にかかる読み取り標章表示 ·認識情報修正装置 7 4 0によれば、 認識不能文字及び誤認識文字のイメージ情報に対応する正 解データをキーボード 7 2 2の操作により入力すると、 正解データがデ ィスプレイ 7 2 5上に表示されるとともに、 今まで強調表示されていた 認識不能文字及び誤認識文字のィメ一ジ情報については修正済みを意味 する別の強調表示が施されることにより、 認識不能文字の入力及び誤認 識文字の修正が行なわれたものと行なわれていないものとの識別が容易 になり、 視認性を高めてオペレータの二重修正等を防ぎ、 正誤の確認作 業に要する労力及び時間を大幅に削減することができる利点がある。
さらに、 本実施形態にかかる読み取り標章表示 ·認識情報修正装置 7 4 0 こよれば、 同一標章のみをディスプレイ上の同一のエリアに表示す るような目視が容易に行なえるような単位で表示するとともに、 所望の 1つの文字イメージ情報についてのみ強調表示を行なうことにより、 ォ ペレ一夕が連関する周辺の文字ィメ一ジ情報を参照することなく、 ィメ 一ジ情報を参照するだけでその認識結果の正誤を確認できるようにして 視線の移動を大幅に削減するとともに、 処理中の文字ィメ一ジ情報につ いてのみ強調表示を行なって比較対象を削減して、 正誤の確認作業に要 する労力及び時間を大幅に削減することができる利点がある。
また、 本実施形態にかかる読み取り標章表示 ·認識情報修正装置 7 4 0によれば、 正解データが、 上記 1つの文字イメージ情報とこの文字ィ メ一ジ情報と連関する周辺の文字イメージ情報とを表示しているエリァ とは別の正解データ表示ェリァに表示されることにより、 文字ィメ一ジ 情報と入力した正解データとを目視により再確認することができ、 正誤 の確認作業に要する労力及び時間を削減するとともに、 精度の高い確認 作業が行なうことができる利点がある。
なお、 本実施形態では、 認識不能文字及び誤認識文字を修正する際に、 認識不能文字及び誤認識文字に対して入力された正解データを、 ディス プレイの 7 2 5の正解データ表示ェリア 7 3 3 Cに表示するようになつ ているが、 認識不能文字及び誤認識文字に対する正解データを表示する ことなく、 認識不能文字及び誤認識文字を修正するようにしてもよく、 認識不能文字又は誤認識文字のいずれかに対する正解データのみを表示 して、 認識不能文字及び誤認識文字を修正するようにしてもよい。
また、 本実施形態では、 入金データが記載された帳票として、 F I G . 9 8に示すような'表形式の帳票を用いて説明したが、 これに限定されず、 その他の形式の帳票を用いてもよい。
( b ) 本発明の一実施形態の変形例の説明
( b 1 ) 本実施形態の第 1の変形例にかかる帳票識別装置の説明 F I G . 1 0 5は本発明の一実施形態の第 1の変形例にかかる帳票識 別装置を示すブロック図であり、 この F I G . 1 0 5に示す帳票識別装 置についても、 前述の F I G . 1 1 5におけるもの (符号 1 0 0 1, 1 0 0 2及び 1 0 0 3参照) と同様、 イメージデータ読取装置 8 1 1, 電 子計算機 8 1 2 (この電子計算機 8 1 2は後述のごとく入力部 8 1 2一 1, ディスプレイ 8 1 2— 2及び制御部 8 1 2— 3をそなえている) 及 びハードディスク 8 1 3により構成することができる。
ここで、 イメージデータ読取装置 8 1 1は、 帳票について、 そのィメ ージデータを読み取るものであり、 このイメージデータ読取装置 8 1 1 としては、 前述の F I G. 1 1 5におけるものと同様に、 光学式文字読 み取り装置 (OCR装置) やイメージスキャナ等を用いることができる c また、 制御部 8 1 2— 3は、 イメージデータ読取装置 8 1 1にて読み 取った帳票のイメージデータに基づいて、 帳票データとして処理を行な うものであり、 電子計算機 8 1 2における C PU及びメモリとしての機 能部分により構成することができる。
また、 この制御部 8 1 2— 3は、 前述の F I G. 1 1 5におけるもの と同様に、 オペレータからの制御部 8 1 2— 3へのデータあるいは命令 等を入力するキーボードあるいはマウス等の入力部 (後述の F I G. 1 0 6における符号 8 1 2― 1参照) とともに、 イメージデータ読取装置 8 1 1で読み取ったイメージデータ等を表示するディスプレイ (後述の F I G. 1 0 6における符号 8 1 2— 2参照) に接続されている。
さらに、 ハ一ドディスク (ファイルメモリ) 8 1 3は、 イメージデー タ読取装置によつて読み取られた帳票の全ィメ一ジデータを格納するも のである。
ところで、 制御部 8 1 2— 3は、 機能的には F I G. 1 0 5に示すよ うに、 イメージデータ格納メモリ 8 1 4, イメージデータ切り出し部 8 1 5, 帳票識別辞書部 8 1 6, データ比較部 8 1 7, 閾値設定部 8 1 8 , 帳票判定部 8 1 9, 定義体格納部 8 2 0, 定義体格納テーブル 8 2 1 , 文字認識部 8 2 2及び文字認識結果格納部 8 2 3をそなえている。 イメージデータ格納メモリ 8 1 4は、 ィメージデータ読取装置 8 1 1 によって読み取られた帳票のイメージデータを一旦格納するものであり、 イメージデータ切り出し部 8 1 5は、 オペレータの入力部 8 1 2— 1の 操作による抽出の対象となる情報 (識別情報) の指示を受けて、 ィメー ジデータ格納メモリ 8 1 4に格納された帳票のイメージデータから、 帳 票上に記載されている所要の帳票識別情報を抽出する帳票識別情報抽出 手段としての機能を有するものである。
ここで、 上述のイメージデータ切り出し部 8 1 5において、 識別情報 から所要の帳票識別情報を抽出する際には、 イメージデータ読取装置 8 1 1にて読み取られた帳票のィメージデータをディスプレイ 8 1 2— 2 に表示 (投影) されるようになつており、 オペレータは、 このディスプ レイ 8 1 2— 2に表示されたイメージデータに基づいて、 識別情報を指 示することができる。
なお、 オペレータは、 イメージデータ切り出し部 8 1 5にて抽出する 対象となる情報としては、 例えば帳票上に記載されている文字情報, マ ーク, 印鑑あるいは 線等のあらゆる記載情報を指示することができ、 イメージデータ切り出し部 8 1 5においては、 指示された情報の座標位 置情報, 記載情報の大きさ情報及びデータ情報を、 帳票識別情報として 例えばソフ トウヱァあるいはファームウェア処理により自動的に抽出す るようになっている。
さらに、 帳票識別辞書部 (帳票識別辞書) 8 1 6はイメージデータ切 り出し部 8 1 5で抽出された帳票識別情報を特定帳票の帳票識別情報と して登録するものである。
具体的には、 F I G . 1 0 8に示すように、 I D番号 ' 0 1 0 1 ' の 付された帳票種別 Aの帳票識別情報は領域 8 1 6 aに格納され、 I D番 号 ' 0 1 0 2 ' の付された帳票種別 Bの帳票識別情報は領域 8 1 6 bに
1 3 格納されるようになっている。
従って、 上述のイメージデータ格納メモリ 8 1 4 , イメージデータ切 り出し部 8 1 5及び帳票識別辞書部 8 1 6により、 イメージデータ読取 装置 8 1 1によって読み取られた特定帳票のイメージデータから、 特定 帳票上に記載されている帳票識別情報を抽出して、 帳票識別情報を帳票 識別辞書部 8 1 6に登録する登録ステップとしての動作が行なわれるよ うになつている。
なお、 上述のイメージデータ読取装置 8 1 1によって読み取られた帳 票のイメージデータは、 帳票識別辞書部 8 1 6に帳票識別情報を登録す る際に、 イメージデータ格納メモリ 8 1 4にて一旦格納されるが、 その 一方でイメージデータ読取装置 8 1 1にて読み取られた全帳票に関する イメージデ一夕がハードディスク 8 1 3に格納されるようになっている c また、 データ比較部 8 1 7は、 イメージデータ格納メモリ 8 1 4に格 納されている特定帳票のイメージデータを読み出し、 特定帳票のィメー ジデータ中に、 帳票識別辞書部 8 1 6に登録されている帳票識別情報が あるかどうかを検証する検証手段としての機能を有するとともに、 ィメ ージデータ読取装置 8 1 1によって読み取られイメージデータ格納メモ リ 8 1 4に格納された任意の帳票のイメージデータ中に、 帳票識別辞書 部 8 1 6に登録されている帳票識別情報があるかどうかを参照する参照 手段としての機能 も有しており、 これにより、 装置構成を簡素化して いる。
さらに、 帳票判定部 8 1 9は、 検証手段としてのデータ比較部 8 1 7 による検証結果に基づいて、 特定帳票の認識ができるかどうかを判定す ることにより、 特定帳票が全て確実に一つに特定できたかどうかを判定 する判定手段としての機能を有するとともに、 参照手段としてのデータ 比較部 8 1 7での参照結果に基づいて、 任意の帳票が特定帳票であるか どうかを識別する帳票識別手段としての機能をも有しており、 これによ り、 装置構成を簡素化している。
具体的には、 検証手段としてのデータ比較部 8 1 7は、 ハードディス ク 8 1 3にて格納されている全帳票に関するイメージデータについて、 イメージデータ切り出し部 8 1 5において 1帳票のイメージデータ単位 で抽出された情報と、 対応する帳票識別辞書部 8 1 6からの帳票識別情 報とを 1ィメージずつ順次取り出して、 これらの情報を照合するように なっており、 判定手段としての帳票判定部 8 1 9では、 データ比較部 8 1 7からの、 帳票識別情報の照合結果に基づいて、 帳票を間違いなく一 意に特定することができるか否かを判定するようになっている。
さらに、 参照手段としてのデータ比較部 8 1 7は、 イメージデータ読 取装置 8 1 1から入力されたイメージデータについて、 イメージデータ 切り出し部 8 1 5にて抽出された情報と、 対応する帳票識別辞書部 8 1 6からの帳票識別情報とを照合することにより一致度を算出するように なっており、 帳票識別手段としての帳票判定部 8 1 9では、 データ比較 部 8 1 7からの帳票識別情報の一致度と、 閾値設定部 8 1 8からの閾値 とを比較することにより、 イメージデータ読取装置 8 1 1から入力され たイメージデータの帳票を識別することができるか否かを判定するよう になっている。
従って、 上述の帳票識別辞書部 8 1 6, データ比較部 8 1 7 , 閾値設 定部 8 1 8及び帳票判定部 8 1 9により、 特定帳票の認識ができるかど うかを判定する検証ステップとしての動作が行なわれるとともに、 任意 の帳票が特定帳票であるかどうかを識別する運用ステップとしての動作 が行なわれるようになっている。
換言すれば、 上述の登録ステップは、 F I G . 3のくレイアウ トの初 回出現時 >の処理 (レイァゥ ト解析処理 A 2 , オペレータ処理 A 6及び / 2150 レイアウト学習処理 A 8 ) に相当し、 上述の検証ステップ及び運用ステ ップは、 F I G . 3のくレイァゥ卜の再出現時〉の処理 (レイアウト解 析処理 A 9 , レイァゥ 卜照合処理 A 1 0及びオペレータ処理 A 1 3 ) に 相当する。 ·
なお、 上述の帳票判定部 8 1 9による閾値設定部 8 1 8からの閾値情 報に基づいた一致度の判定の際には、 閾値設定部 8 1 8からの閾値情報 は、 イメージデータ読取装置 8 1 1における読取動作時の誤差や、 帳票 そのものの印字誤差等を吸収して判定できる程度に、 設定されるように なっている。
また、 定義体格納部 8 2 0は、 帳票判定部 8 1 9において、 任意の帳 票が特定帳票であると識別された場合、 即ち、 システム運用時に帳票判 定部 8 1 9により、 イメージデータ読取装置 8 1 1にてイメージデータ を読み取った帳票が、 帳票識別辞書部 8 1 6にて登録済の帳票識別情報 に対応する特定帳票と認識することができた場合に、 この帳票に記載さ れているデータを認識するための定義体情報を、 定義体格納テーブル 8 2 1から読み出して一旦格納しておく ものである。
定義体格納テーブル 8 2 1は、 帳票識別辞書部 8 1 6にて登録されて いる帳票識別情報に対応する特定帳票に記載されている内容を文字認識 するための定義体情報 (例えば読取位置情報, 文字属性情報, 読取桁数 等) を保持しておく ものである。
また、 文字認識部 8 2 2は、 前述のイメージデータ格納メモリ 8 1 4 にて格納されている、 帳票識別辞書部 8 1 6にて登録済の特定帳票と認 識することができた帳票に関するイメージデータについて、 定義体格納 部 8 2 0からの、 イメージデータに対応する定義体情報とを入力され、 ィメージデータを定義体情報に従つて文字認識処理を行なうものである c さらに、 文字認識結果格納部 8 2 3は、 文字認識部 8 2 2にて認識さ 97/055 れた文字情報を格納するものである。
上述の構成により、 本発明の一実施形態の第 1の変形例にかかる帳票 識別装置の動作を、 上述の登録ステップ時, 検証ステップ時及び運用ス テツプ時毎に、 以下に説明する。
·登録ステップ時の処理の説明
まず、 F I G. 1 06に示す登録ステップ動作時に着目した制御プロ ック図, F I G. 1 0 7に示す登録ステップ動作時の動作を説明するた めのフローチヤ一卜及び F I G. 1 08を用いて、 本実施形態にかかる 帳票識別装置の登録ステップ時の動作を以下に説明する。
即ち、 F I G. 1 08に示すように、 オペレータの操作により、 ィメ ージデータ読取装置 8 1 1において電気料金払込通知書の帳票 824 B のイメージデータを読み取ると (F I G. 1 07のステップ Β 1' ' ' ) 、 イメージデータ格納メモリ 8 1 4では読み取られたイメージデータ を一旦格納するとともに (F I G. 1 07のステップ B 2' ' ' ) 、 ハ —ドディスク 8 1 3へも、 このィメージデータを格納することにより、 イメージデータ読取装置 8 1 1にて読み取られた全イメージデータを格 納しておく (F I G. 1 0 7のステップ B 3' ' ' ヽ 。 なお、 このィメ ージデータ読取装置 8 1 1にて読み取られたイメージデータは、 F I G. 1 08に示すように、 ディスプレイ 8 12 - 2を介して表示される (F I G. 1 07のステップ B 4' ' ' ) 。
ここで、 イメージデータ格納メモリ 8 1 4及びハードディスク 8 1 3 に格納されたイメージデータが、 初めて読み取られた帳票に関するィメ ージデータである場合は、 以下に示すように帳票識別情報を帳票登録辞 書部 8 1 6に格納する。
即ち、 オペレータがディスプレイ 8 12— 2を参照しながら、 入力部 8 1 2 - 1を操作することにより、 イメージデータ切り出し部 8 1 5に 対して抽出する対象となる情報を複数箇所指示する (F I G . 1 0 7の ステップ B 5 ' ' ' ) 。
イメージデータ切り出し部 8 1 5においては、 イメージデータ格納メ モリ 8 1 4に格納された帳票のイメージデータから、 帳票上の記載情報 における位 清報, 大きさ情報及びデータ情報を自動的に抽出し (F I G . 1 0 7のステップ B 6 ' ' ' ) 、 帳票識別情報として帳票識別辞書 部 8 1 6に登録する (F I G . 1 0 7のステップ B 7 ' ' ' ) 。
例えば、 F I G . 1 0 8に示すように、 オペレータが入力部 8 1 2 一 1を操作することにより、 第 1の情報として払込通知書の払込金の内容 を示す '電気料金' を指定するとともに、 第 2の情報として払込人の名 称を示す '富士一郎' を指定する。 すると、 イメージデータ切り出し部 8 1 5では、 上述の第 1の情報における位置情報, 大きさ情報及びデー タ情報を格納するとともに、 第 2の情報における位置情報, 大きさ情報 及びデータ情報を抽出する。
これにより、 抽出された帳票 8 2 4 Bの帳票識別情報を、 I D番号が ' 0 1 0 2 ' の帳票種別 Bの帳票識別情報として、 帳票識別辞書部 8 1 6の領域 8 1 6 bに格納する。
なお、 本変形例にかかる帳票識別装置においては、 イメージデータ切 り出し部 8 1 5で切り出されたイメージデータは、 帳票の識別のために のみ用いられている。
また、 本変形例にかかる帳票識別装置においては、 1つの帳票につい て複数の帳票識別情報を登録することにより、 前述の (a 5 ) 特徴デ一 夕認識処理において説明したようなイメージデータの正規化処理を施す ことなく、 後述する検証ステツプ及び運用ステツプにおいて確実に帳票 を識別できるようになつている。
•検証ステップ時の処理の説明 次に、 F I G. 1 09に示す検証ステップ動作時に着目した制御プロ ック図と、 F I G. 1 1 0に示す検証ステップ時の動作を説明するため のフローチヤ一卜とを用いて、 本実施形態にかかる帳票識別装置の検証 ステップ時の動作を以下に説明する。
上述したように、 登録ステップ時においては、 帳票識別情報を帳票識 別辞書部 8 1 6に登録しているが、 その後、 ハードディスク 8 1 3に格 納されている全帳票のイメージについて、 帳票識別辞書部 8 1 6にて登 録された帳票識別情報を用いて確実に識別できるかを検証する検証ステ ップとしての動作が行なわれる。
即ち、 ハードディスク 8 1 3において登録ステップとしての動作時に 予め格納されている、 帳票識別辞書部 8 1 6にて登録された帳票の全ィ メージ (帳票全体のイメージ) を用いて、 1帳票イメージ毎に、 帳票識 別辞書部 8 1 6において登録された帳票識別情報との照合を行なう。 具体的には、 ハードディスク 8 1 3からの 1帳票ィメージがイメージ データ格納メモリ 8 1 4を介してイメージデータ切り出し部 8 15に出 力され (F I G. 1 1 0のステップ C 1' ' ' ) 、 イメージデータ切り 出し部 8 1 5では、 帳票識別辞書部 8 1 6にて該当する帳票における帳 票識別情報の位置情報及び大きさ情報に基づいて、 照合用データを抽出 する。
データ比較部 8 1 7では、 イメージデータ切り出し部 8 1 5からの照 合用データと帳票識別辞書部 8 1 6からの帳票識別情報としてのデータ 情報とを入力され (F I G. 1 1 0のステップ C 2' ' ' , ステップ C 3' ' ' ) 、 これらのデーター致度を参照することにより比較照合を行 なう (F I G. 1 1 0のステップ C 4' ' ' )
帳票判定部 8 1 9では、 データ比較部 8 1 7からの比較照合結果と閾 値設定部 8 1 8からの閾値データとを入力され、 全ての帳票識別情報の 一致度が閾値の範囲内にある場合は、 一夕が一致しているので、 ハー ドディスク 8 1 3から取り出した帳票 f重別を一意に特定できると判定さ れ、 特定された帳票種別を記録する (ステップ C 5 ' ' ' の Y E Sルー 卜からステップ C 6 ' ' ' ) 。
また、 データ比較部 8 1 7からの帳票識別情報の一致度が閾値の範囲 内にない場合は、 データが一致しておらず、 帳票種別を特定できないと 判定される (ステップ C 5 ' ' ' の N 0ルートからステップ C 7 ' ' ' ) 。 次に、 帳票識別辞書部 8 1 6の帳票種別が全て終了していない場合 は、 帳票識別辞書部 8 1 6に登録されている次の帳票種別の帳票識別情 報により同様に処理される (ステップ C 7 ' ' ' の N Oルートからステ ップ C 2 ' ' ' ) 従って、 全ての帳票種別について帳票が特定できな かった場合はステップ C 6 ' における処理は実行されないことにな る。
その後、 ハードディスク 8 1 3に格納されている全種類の帳票ィメー ジについて、 上述の場合と同様に、 帳票識別情報の一致度の判定を行な う (ステップ C 8 ' ' ' ) 。
さらに、 ハードディスク 8 1 3に格納されている全種類の帳票ィメ一 ジの各々について、 全て異なった一つの帳票に特定することができた場 合は、 検証 O Kとし、 検証ステップとしての動作が完了するが (ステツ プ C 9 ' ' ' の Y E Sルートからステップ C 1 0 ' ' ' ) 、 そうでない 場合は、 帳票識別辞書部 8 1 6に格納されている帳票識別情報に問題あ りと判定され、 問題のあった帳票をオペレータに通知し、 その帳票につ いての帳票識別情報の再指定を要求する (ステップ C 9 ' ' ' の N Oル 一卜からステップ C 1 ' ' ) 。
従って、 登録ステップの後で、 再度、 ハー ドディスク 8 1 3から特定 帳^のイメージデータを入力して、 イメージデータ切り出し部 8 1 5に おいて、 データ比較部 8 1 7において、 入力された特定帳票のイメージ データ中に、 帳票識別辞書部 8 1 6に登録されている帳票識別情報があ るかどうかを検証することにより、 特定帳票の認識ができるかどうかを 判定することができる。
·運用ステップ時の動作の説明
次に、 F I G. 1 1 1に示す運用ステップ動作時に着目した制御プロ ック図と、 F I G. 1 1 2に示す運用ステップ時の動作を説明するため のフローチヤ一卜とを用いて、 本実施形態にかかる帳票識別装置の運用 ステップ時の動作を以下に説明する。
上述したように、 検証ステップ時においては、 ハードディスク 8 1 3 に格納されている全帳票のイメージについて、 帳票識別辞書部 8 1 6に て登録された帳票識別情報を用いて特定できるかを検証しているが、 検 証が完了すると、 実際の装置運用時においては、 任意の帳票のイメージ データについて、 以下に示すような帳票種別を特定する運用ステップと しての動作が行なわれる。
即ち、 オペレータによるイメージデータ読取装置 8 1 1の操作により、 ある帳票のイメージデータが読み取られると (F I G. 1 1 2のステツ プ D 1' ' ' ) 、 読み取られたイメージデータはイメージデ一夕格納メ モリ 8 1 4に一旦格納される (F I G. 1 12のステップ D 2' ' ' ) c 次に、 イメージデータ切り出し部 8 1 5では、 イメージデータ格納メ モリ 8 1 4に一旦格納されたイメージデータについて、 帳票識別辞書部 8 1 6からの、 ある帳票種別における帳票識別情報を構成する位置情報 及び大きさ情報に基づいて、 複数箇所のイメージデータ (識別情報) を 抽出し切り出す (ステップ D 3' ' ' , ステップ D 4' ' ' ) 。
続いて、 データ比較部 8 1 7では、 イメージデータ切り出し部 8 1 5 にて切り出された全てのイメージデータのデータ情報と、 当該帳票識別 情報を構成するデータ情報との一致度を算出することにより比較判定を 行なう (ステップ D 5 ' ' ' ) 。
さらに、 帳票判定部 8 1 9では、 データ比較部 8 1 7からの比較判定 結果として算出された一致度と閾値設定部 8 1 8にて設定されている一 致度の判定基準とを比較することにより、 イメージデータ読取装置 8 1 1にて読み取ったイメージデータが帳票識別辞書部 8 1 6からの帳票識 別情報により帳票種別を特定できるか否かを判定する (ステツプ
D 6 ' ' 7 ) o
具体的には、 イメージデータ読取装置 8 1 1から第 1の帳票種別 Aの イメージデータを読み込む一方、 比較対象となる帳票識別辞書部 8 1 6 からの帳票識別情報として第 2の帳票種別 Bに関するものを用いた場合 は、 一致しないと判定され、 再び帳票識別辞書部 8 1 6から他の帳票種 別に関する帳票識別情報を用いて一致度の判定を行なう (ステップ D 6 ' ' ' の N Oルートからステップ D 8 ' ' ' の N Oルートを経由し てステツプ D 3 ' ' ' ) 。
また、 例えば、 イメージデータ読取装置 8 1 1から第 1の帳票種別 A のイメージデータを読み込んだ場合に、 比較対象となる帳票識別辞書部 8 1 6からの帳票識別情報が、 第 1の帳票種別 Aに関するものである場 合は、 帳票識別情報について一致すると判定され、 読み込んだイメージ データが該当する帳票種別と特定される。 この時、 特定された帳票種別 を制御部 8 1 2 一 3内の図示しないメモリに記録しておく (ステップ D 6 ' ' ' の Y E Sルートからステップ D 7 ' ' ' ) 。
なお、 上述の帳票判定部 8 1 9における判定の際には、 イメージデー タ切り出し部 8 1 5にて切り出された複数箇所のイメージデータの内で、 一つでも帳票識別辞書部 8 1 6からの帳票識別情報に一致しない場合は、 他の種別の帳票と判定する。 その後、 上述のイメージデータ読取装置 8 1 1にて読み取ったィメー ジデータについて、 帳票識別辞書部 8 1 6に格納されている全帳票種別 毎の帳票識別情報に基づき、 上述の場合と同様の、 帳票識別情報の一致 度の判定を行なう (ステップ D 8 ' ' ' ) 。
ここで、 上述の一致度の判定によって、 イメージデータ読取装置 8 1 1にて読み取ったィメ一ジデータについて 1種類の帳票種別に特定する ことができた場合は、 特定した帳票種別を定義体格納部 8 2 0 ( F I G . 1 0 5参照) に出力する一方 (ステップ D 9 ' ' ' の Y E Sルートから ステップ D 1 0 ' ' ' ) 、 1種類の帳票種別に特定することができなか つた場合は、 オペレータに対して、 例えばディスプレイ 8 1 2— 2を介 することにより帳票特定不可を通知する (ステップ D 9 ' ' ' の N Oル ートからステップ D 1 1 ' ' ' ) 。
なお、 定義体格納部 8 2 0では、 1種類に特定された帳票種別を入力 されると、 定義体格納テーブル 8 2 1から、 特定された帳票種別に対応 する定義体情報 (読取位置情報, 文字属性情報, 読取桁数等) を読み出 す。
これにより、 文字認識部 8 2 2においては、 この定義体情報とィメー ジデータ格納メモリ 8 1 4に格納されているイメージデータ読取装置 8 1 1にてイメージデータを読み取った帳票に記載されている文字情報を 認識して、 認識結巣としての文字情報を文字認識結果格納部 8 2 3に格 納しておく。
従って、 検証ステップ時において、 特定帳票の認識ができた場合に、 運用ステツプ時においては、 任意の帳票のィメージデータをィメ一ジデ 一夕読取装置 8 1 1によって読み取り、 この任意の帳票のイメージデー 夕中に、 帳票識別辞書部 8 1 6に登録されている帳票識別情報があるか どうかを参照することにより、 任意の帳票が特定帳票であるかどうかを
4 7 識別して、 文字認 を行なうことが' る。
このように、 本 の一実施形憨 ¾ 1の変形例にかかる帳票識別装 置によれば、 イメージデータ読取装 & 8 1 1, イメージデータ格納メモ リ 8 1 4 , ハードディスク 8 1 3 , イメージデータ切り出し部 8 1 5 , 帳票識別辞書部 8 1 6, データ比較部 S 1 7及び帳票判定部 8 1 9をそ なえたことにより、 装置運用時においては、 イメージデータ読取装置 8 1 1でィメ一ジデータを読み取った帳票の種別を自動識別することがで きるので、 イメージ読取装置 8 1 1にて読み取るべき帳票が複数種類混 在していても、 オペレータは帳票毎の定義体を意識することなく処理す ることができ、 作業の効率化を図ることができる利点があるほか、 帳票 自体の識別用の I D番号等を記載しておく必要がなく、 一般的な帳票を 用いることができ、 既存のシステムに対して容易に適応することができ る禾1 J 、もある。
また、 帳票識別辞書部 8 1 6への帳票識別情報の登録時においては、 オペレータがディスプレイ 8 1 2— 2に投影された登録対象帳票のィメ —ジデータを見ながら指定するだけで、 自動的に必要な帳票識別情報を 取り込むことができるので、 帳票識別用の辞書作成が容易となり、 作業 の効率化を図ることができる。
さらに、 検証手段としてのデータ比較部 8 1 7及び判定手段としての 帳票判定部 8 1 9 'とをそなえたことにより、 オペレータが指定した帳票 識別情報が正しいか否かを検証することができるので、 帳票の誤判別が 皆無となり、 装置の信頼性が向上する利点もある。
また、 オペレータが識別情報を指定することにより抽出される帳票識 別情報は、 識別情報が帳票中の複数箇所を指示することにより、 1箇所 の場合に比して高精度で帳票の特定が可能となる。
( b 2 ) 本実施形態の第 2の変形例にかかる帳票識別装置の説明 F I G. 1 1 3は本発明の一実施形態の第 2の変形例にかかる帳票識 別装置を示すブロック図であって、 特に、 登録ステップ動作時に着目し た制御プロック図を示すものである。
ここで、 この F I G. 1 1 3に示す帳票識別装置は、 前述の F I G. 1 0 5におけるものに比して、 帳票識別情報抽出手段が、 タイ トル部分 自動抽出部 8 1 5 a, 項目見出し部分自動抽出部 8 1 5 b及び帳票識別 情報切り出し部 8 1 5 cにより構成されている点が異なり、 その他の構 成については基本的に同様である。
タイ トル部分自動抽出部 8 1 5 aは、 イメージデータ格納メモリ 8 1 4にて格納されている帳票に関するイメージデータについて、 タイ トノレ 部分 (例えば前述の F I G. 1 0 8に示す第 1の帳票識別情報としての '電気料金' 参照) とみられる位置情報を自動的に抽出するものである c 項目見出し部自動抽出部 8 1 5 bは、 イメージデータ格納メモリ 8 1 にて格納されている帳票に関するィメージデータについて、 項目部分 の位置情報を自動的に抽出するものである。
ここで、 帳票識別情報切り出し部 8 1 5 cは、 イメージデータ格納メ モリ 8 1 4にて格納されているイメージデータについて、 タイ トル部分 自動抽出部 8 1 5 a及び項目見出し部自動抽出部 8 1 5 bからの位置情 報に基づいて、 タイ トル部分及び項目部分に関する大きさ情報及びデー タ情報を帳票識別愴報として切り出すものである。
上述の構成により、 本発明の一実施形態の第 2の変形例にかかる帳票 識別装置では、 登録ステップ時の動作としては、 まず、 前述の実施形態 の場合と同様に、 オペレータの操作により、 イメージデータ読取装置 8 1 1において帳票のイメージデータを読み取ると (F I G. 1 1 4のス テツプ E 1' ' ' ) 、 イメージデータ格納メモリ 8 1 4では読み取られ たイメージデータを一旦格納するとともに (F I G. 1 1 4のステップ E 2' ' ' ) 、 ハードディスク 8 1 3へも、 このイメージデータを格納 することにより、 イメージデータ読取装置 8 1 1にて読み取られた全ィ メージデータを格納しておく (F I G. 1 1 4のステップ E 3' ' ' ) ( 続いて、 タイ トル部分自動抽出部 8 1 5 aにより、 帳票のタイ トノレ みられる位置情報を自動的に抽出するとともに (F I G. 1 1 4のステ ップ E 4' ' ' ) 、 項目見出し部分自動抽出部 8 1 5 bにより、 葑線項 目内に記述された項目見出しの位置情報を自動的に抽出する (F I G. 1 1 4のステップ E 5' ' ' ) 。
帳票識別情報切り出し部 8 1 5 cでは、 上述のタイ トル部分自動抽出 部 8 1 5 a及び項目見出し部分自動抽出部 8 1 5 bからの位置情報に基 づく大きさ情報及びデータ情報を抽出して (F I G. 1 1 4のステップ E 6' ' ' ) 、 これらの位置情報及び位置情報に対応する大きさ情報, データ情報を帳票識別情報として帳票識別辞書部 8 1 6に登録する (F I G. 1 1 4のステップ E 7' ' ' ) 。
なお、 検証ステップ時あるいは運用ステップ時の動作としては基本的 に前述の一実施形態におけるものと同様である。
従って、 前述の F I G. 1 0 5に示す帳票識別装置では、 オペレータ が、 ディスプレイ 8 1 2— 2を参照しながら、 入力部 8 1 2一 1を操作 することにより、 帳票識別情報を抽出するための識別情報を指定してい る力 本実施形態によれば、 イメージデータ読取装置 8 1 1によって読 み取られた特定帳票のイメージデータから、 特定帳票上に記載されてい る特定の帳票識別情報を自動的に抽出して、 特定の帳票識別情報を帳票 識別辞書部 8 1 6に登録することができ、 オペレータの作業効率が飛躍 的に向上する利点がある。
なお、 上述の F I G. 1 1 3に示す実施形態においては、 帳票識別情 報を抽出するための識別情報として、 タイ トル部分及び項目部分を用い ているが、 これ以外の帳票の部分 (固定情報部分) を用いても差し支え ない。
( b 3 ) その他
上述の本発明の一実施形態の変形例では、 検証手段としてのデータ比 較部 8 1 7及び判定手段としての帳票判定部 8 1 9により、 登録ステツ プの後、 再度、 特定帳票のイメージデータを入力して、 入力された特定 帳票のイメージデータ中に、 帳票識別辞書部 8 1 6に登録されている帳 票識別情報があるかどうかを検証することにより、 特定帳票の認識がで きるかどうかを判定する検証ステップとしての動作を行なっているが、 これを省略しても、 少なく とも、 装置運用時においては、 イメージデー 夕読取装置 8 1 1でイメージデータを読み取った帳票の種別を自動識別 することができるので、 イメージ読取装置 8 1 1にて読み取るべき帳票 が複数種類混在していても、 オペレータは帳票毎の定義体を意識するこ となく処理することができ、 作業の効率化を図ることができる利点があ るほか、 帳票自体の識別用の I D番号等を記載しておく必要がなく、 一 般的な帳票を用いることができ、 既存のシステムに対して容易に適応す ることができる利点もある。
また、 帳票識別辞書部 8 1 6への帳票識別情報の登録時においては、 オペレータがディスプレイ 8 1 2— 2に投影された登録対象帳票のィメ —ジデータを見ながら指定するだけで、 自動的に必要な帳票識別情報を 取り込むことができるので、 帳票識別用の辞書作成が容易となり、 作業 の効率化を図ることができる。 産業上の利用可能性
以上のように、 本発明にかかる媒体処理装置及び媒体処理方法によれ ば、 例えば金融機関における帳票処理に用いて好適であり、 特に、 私製 伝票等のように多種多様なフォーマツ トを有する帳票処理を自動的に行 なうことができるため、 その有用性は極めて高いものと考えられる。

Claims

請 求 の 範 囲
1. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメー ジ ( 1 9 ) に基づいて、 該情報の認識を行なう媒体処理装置 (3 0) で あって、
読み取ったイメージデータ ( 1 9) から、 該フォーマツ トを含む媒体 固有の特徴を抽出し、 該特徴から認識すべき情報の存在する位置を特定 する手段 (2) と、
この手段 (2) で特定された位置でのイメージ ( 1 9) を認識して、 該情報を判別するイメージ認識手段 (3) とを備えて構成されたことを 特徴とする、 媒体処理装置。
2. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメー ジ ( 1 9 ) に基づいて、 該情報の認識を行なう媒体処理装置 (3 0) で あって、
読み取ったイメージ ( 1 9) のレイァゥ卜の特徴を抽出して、 該レイ ァゥ卜の構成を解析し、 該抽出した特徴により、 該レイァゥトを論理的 に表現するレイアウト解析処理部 (2) と、
候補レイァゥトを記憶している候補レイァゥ卜記憶部 ( 1 4) と、 該レイァゥ 卜解析処理部 (2) で抽出された該レイァゥ卜の特徴を制 約検索条件として、 該候補レイァゥ 卜記憶部 ( 1 4) から該候補レイァ ゥ トを検索することにより、 一致している候補レイァゥ卜があるかどう かを照合するレイアウト照合処理部 (3) とをそなえて構成されたこと を特徴とする、 媒体処理装置。
3. 該レイァゥト解析処理部 (2) でのレイァゥト解析処理に先立って、 認識対象となるイメージ ( 1 9) に対して所要の前処理を施す解析前処 理部 ( 1 ) が設けられていることを特徴とする、 請求の範囲第 2項記載
5 3 の媒体処理装置。
4. 該レイァゥト解析処理部 (2 ) が、 該イメージ ( 1 9) のレイァゥ 卜の特徴を抽出するレイァゥ卜特徴抽出部 (2 A) と、 該レイアウ ト特 徵抽出部 (2 A) で抽出された該レイアウトの特徴に基づいて該レイァ
' ゥ 卜の構成を解析するレイァゥ 卜解析部 (2 B) とを少なくとも含んで 構成されていることを特徴とする、 請求の範囲第 2項記載の媒体処理装
5. 該レイァゥト解析処理部 (2) が、 該レイァゥ卜の特徴を抽出して から、 該レイァゥ卜の論理的な原点を抽出するように構成されるととも に、
該レイァゥト照合処理部 (3) が、 該レイァゥト解析処理部 (2 ) で 抽出された論理的な原点を基準にして、 一致している候補レイァゥ卜が あるかどうかを照合するように構成されたことを特徴とする、 請求の範 囲第 4項記載の媒体処理装置。
6. 該レイァゥ卜が鄞線により構成される表構造を有している場合には、 該レイァゥ卜特徴抽出部 (2 A) が、 該レイァゥトの鄞線を抽出する 鄞線抽出部 (2 C) をそなえるとともに、 該レイァゥト解析部 (2 B) が該レイァゥ卜特徴抽出部 (2 A) で抽出された該レイァゥ卜の^線に 基づいて該鄞線により構成される表構造を解析する表構造解析部 (2 E) をそなえてい'ることを特徴とする、 請求の範囲第 4項記載の媒体処
7. 該レイァゥトが鄞線を持たない無葑線表構造を有している場合には、 該レイァゥト特徴抽出部 (2 A) が、 該レイァゥ卜の項目データを抽 出する項目データ抽出部 (2 D) をそなえるとともに、 該レイアウト解 析部 (2 B) が該レイァゥト特徴抽出部 (2 A) で抽出された該レイァ ゥ卜の項目データに基づいて該無驛線表構造を解析する表構造解析部 ( 2 E) をそなえていることを特徴とする、 請求の範囲第 4項記載の媒体 処理装置。
8. 該レイァゥ卜解析処理部 (2) 、 該イメージ中の見出し領域を決 定して、 この見出し領域中の見出し項目情報を認識して、 対応する項目 データを決定するように構成されていることを特徴とする、 請求の範囲 第 2項記載の媒体処理装置。
9. 該候補レイァゥ卜記憶部 ( 1 4) が、 圧縮した候補レイァゥト情報 を記憶するように構成されるとともに、
該レイァゥト照合処理部 (3) が、 該レイァゥト解析処理部 (2) で 抽出された該レイアウトの特徴を圧縮処理し、 この圧縮したレイアウト の特徴を制約検索条件として、 該候補レイァゥ卜記憶部 ( 1 4) から該 圧縮した候補レイァゥトを検索することにより、 一致している候補レイ ァゥ卜があるかどうかを照合するように構成されたことを特徴とする、 請求の範囲第 2項記載の媒体処理装置。
1 0. 該候補レイァゥト記憶部 ( 1 4) が、 候補レイァゥト情報を学習 により更新していくように構成されていることを特徴とする、 請求の範 囲第 2項記載の媒体処理装置。
1 1. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメ ージ ( 1 9) に基づいて、 該情報の認識を行なう媒体処理方法であって、 読み取ったィメニジデータ ( 1 9) から、 該フォ一マツ トを含む媒体 固有の特徴を抽出して、 該特徴から認識すべき情報の存在する位置を特 定する情報存在位置特定ステップ (A 2, A 9) と、
このステップ (A 2, A 9 ) で特定された位置でのイメージを認識し て、 該情報を判別するイメージ認識ステップ (A 3, A 1 0) とを備え て構成されたことを特徴とする、 媒体処理方法。
1 2. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメ ージ ( 1 9) に基づいて、 該情報の認識を行なう媒体処理方法であって、 読み取ったイメージ ( 1 9) のレイァゥ 卜の特徴を抽出して、 該レイ ァゥ卜の構成を解析し、 該抽出した特徴により、 該レイァゥトを論理的 に表現するレイァゥ卜解析処理ステップ (A 2, A 9) と、
該レイァゥト解析処理ステップで抽出された該レイァゥ卜の特徴を制 約検索条件として、 候補レイァゥ 卜記憶部 ( 1 4) に記憶されている候 補レイァゥトを検索することにより、 一致している候補レイァゥ卜があ るかどうかを照合するレイアウ ト照合処理ステップ (A 3, A 1 0) と をそなえて構成されたことを特徴とする、 媒体処理方法。
1 3. 該レイァゥ卜解析処理ステップ (A 2, A 9 ) 力、 該レイアウ ト の特徴を抽出してから、 該レイァゥ卜の論理的な原点を抽出するステツ プ (M l ) を含むとともに、
該レイァゥト照合処理ステップ (A 3, A 1 0) 力、 該レイアウト解 析処理ステップ (A 2, A 9) で抽出された論理的な原点を基準にして、 該情報を判別するステップ (M2) を含んで構成されたことを特徴とす る、 請求の範囲第 1 2項記載の媒体処理方法。
1 4. 該レイァゥト解析処理ステツプ (A 2, A 9 ) 力 読み取ったィ メージ ( 1 9) のレイアウトが所定の方向であるかどうかを判定するス テツプ (G 1 0, G 1 2 , G 1 9 , G 2 1) と、 このステップ (G 1 0, G 1 2 , G 1 9 , 'G 2 1 ) での判定結果に基づき該レイアウトが所定の 方向となるように読み取ったイメージデータ ( 1 9) を変換するステツ プ (G 1 3, G 1 , G 2 2, G 2 3 ) とを含んでいることを特徴とす る、 請求の範囲第 1 2項記載の媒体処理方法。
1 5. 該読み取ったイメージデータ ( 1 9) の変換処理が、 該レイァゥ 卜を回転させるような処理であることを特徴とする、 請求の範囲第 1 4 項記載の媒体処理方法。
1 6. 該レイァゥ 卜が^線により構成される表構造を有している場合に は、
該レイァゥ ト解析処理ステップ (A 2, A 9 ) 力く、 該レイアウ トの葑 線を抽出するステップ (B l, B 2 , G 4, K 1) と、 このステップ (B l, B 2 , G 4, K 1 ) で抽出された該レイアウ トの鄞線に基づい て該鄞線により構成される表構造を解析するステップ (B 3〜B 8, B 1 2〜B 1 4, G 5〜G 1 0, G 1 3, G 1 4 , K 2〜K 8) とを含ん でいることを特徴とする、 請求の範囲第 1 2項記載の媒体処理方法。
1 7. 該レイアウ トが鄞線を持たない無^線表構造を有している場合に は、
該レイァゥ ト解析処理ステップ (Α 2, A 9) 力く、 該レイアウ トの項 目データを抽出するステップ (B 9, G 1 5〜G 1 8) と、 このステツ プ (B 9, G 1 5〜G 1 8) で抽出された該レイァゥ 卜の項目データに 基づいて該無露線表構造を解析するステップ (B 9〜B 1 1, G 1 9, G 2 2, G 2 3) とを含んでいることを特徴とする、 請求の範囲第 1 2 項記載の媒体処理方法。
1 8. 該レイァゥ ト解析処理ステップ (A 2, A 9 ) が、 該イメージ中 の見出し領域を決定し、 この見出し領域中の見出し項目情報を認識して、 対応する項目データを決定するステップ (K 9, K 1 0 ) を含んで構成 されていることを特徴とする、 請求の範囲第 1 2項記載の媒体処理方法 c
1 9. 圧縮した候補レイァゥ ト情報を該候補レイァゥ ト記憶部 ( 1 4) に記憶するように構成されるとともに、
該レイアウ ト照合処理ステップ (A 3, A 1 0) カ^
該レイァゥ 卜解析処理ステップ (A 2, A 9) で抽出された該レイァ ゥ トの特徴を圧縮処理する圧縮処理ステップ (F 2 , F 5) と、
このステップ (F 2, F 5) で圧縮したレイァゥ 卜の特徴を制約検索
1 5 条件として、 該候補レイ"ゥ卜記憶部 (1 4) から圧縮した候補レイァ ゥトを検索するステップ (F 6) と、
このステップ (F 6) での検索結果に基づいて、 一致している候補レ ィァゥ卜があるかどうかを照合するステップ (F 6) とを含んで構成さ れたことをことを特徴とする、 請求の範囲第 12項記載の媒体処理方法 c
2 0. 該候補レイァゥト情報を該候補レイァゥ卜記憶部 (1 4) に学習 により更新していくように構成されていることを特徴とする、 請求の範 囲第 1 2項記載の媒体処理方法。
2 1. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメ ージ (1 9) に基づいて、 該情報の認識を行なう媒体処理方法であって, 該フォーマツ 卜の論理的な原点を抽出する論理原点抽出ステップ (M 1) と、
このステップ (Ml) で抽出された論理的な原点を基準にして、 該フ ォーマツ トを含む媒体固有の特徴を抽出し、 該特徴から認識すべき情報 の存在する位置を特定する情報存在位置特定ステップ (A 2, A 9) と、 このステップ (A2, A 9) で特定された位置でのイメージを認識す る際に、 該論理原点抽出ステップ (Ml) で抽出された論理的な原点を 基準にして、 該情報を判別するイメージ認識ステップ (A 3, A 1 0) とを備えて構成されたことを特徴とする、 媒体処理方法。
2 2. 該論理原点抽出ステップ (Ml) において、 該フォーマツ 卜の論 理的な原点を抽出するほかに、 該論理的な原点に対して補助的な情報を 付与する論理原点補助座標情報を抽出するとともに、
該イメージ認識ステップ (A 3, A 1 0 ) において、 上記の論理的な 原点及び論理原点補助座標情報を基準にして、 該情報を判別するように 構成されたことを特徴とする、 請求の範囲第 2 1項記載の媒体処理方法 c
2 3. 該レイァゥ 卜が驟線により構成される表構造を有している場合に は、 該フォーマツ 卜の論理的な原点として、 該表構造を構成する角部の うちの一つの角部に関連する座標情報が抽出されることを特徴とする、 請求の範囲第 2 1項記載の媒体処理方法。
2 4 . 該レイァゥ 卜が羅線により構成される表構造を有している場合に は、 該フォーマツ 卜の論理的な原点として、 該表構造を構成する角部の うちの一つの角部に関連する座標情報が抽出されるとともに、 該論理原 点補助座標情報として、 残りの角部に関連する座標情報が抽出されるこ とを特徴とする、 請求の範囲第 2 2項記載の媒体処理方法。
2 5 . 該レイァゥトが葑線により構成される表構造を有している場合に は、 該フォーマツ 卜の論理的な原点として、 該表構造を構成する角部の うち最小 X座標, 最小 Y座標を有する角部の座標情報が抽出されること を特徴とする、 請求の範囲第 2 3項記載の媒体処理方法。
2 6 . 該レイァゥトが鄞線により構成される表構造を有している場合に は、 該フォ一マツ 卜の論理的な原点として、 該表構造を構成する角部の うち最小 X座標, 最小 Y座標を有する角部の座標情報が抽出されるとと もに、 該論理原点補助座標情報として、 それぞれ最大 X座標, 最小 Y座 標を有する角部、 最小 X座標, 最大 Y座標を有する角部、 最大 X座標, 最大 Y座標を有する角部の座標情報が抽出されることを特徴とする、 請 求の範囲第 2 4項記載の媒体処理方法。
2 7 . 該レイァゥ'トが驛線を持たない無羅線表構造を有している場合に は、
該フォーマツ 卜の論理的な原点として、 該レイァゥト中の項目データ の外接矩形の角部のうちの一つの角部に関連する座標情報が抽出される ことを特徴とする、 請求の範囲第 2 1項記載の媒体処理方法。
2 8 . 該レイアウトが葑線を持たない無昇線表構造を有している場合に は、 該フォーマツ 卜の論理的な原点として、 該レイァゥト中の項目データ の外接矩形の角部のうちの一つの角部に関連する座標情報が抽出される とともに、
該論理原点補助座標情報として、 該外接矩形の残りの角部に関連する 座標情報が抽出されることを特徴とする、 請求の範囲第 2 2項記載の媒 体処理方法。
2 9 . 該レイアウトが鄙線を持たない無驛線表構造を有している場合に は、
該フォーマツ 卜の論理的な原点として、 該外接矩形の角部のうち最小 X座標, 最小 Y座標を有する角部の座標情報が抽出されることを特徴と する、 請求の範囲第 2 7項記載の媒体処理方法。
3 0 . 該レイァゥトが鄞線を持たない無 線表構造を有している場合に は、
該フォーマツ 卜の論理的な原点として、 該外接矩形の角部のうち最小 X座標, 最小 Y座標を有する角部の座標情報が抽出されるとともに、
' 該論理原点補助座標情報として、 該外接矩形における最大 X座標, 最 小 Y座標を有する角部、 最小 X座標, 最大 Y座標を有する角部、 最大 X 座標, 最大 Y座標を有する角部の座標情報が抽出されることを特徴とす る、 請求の範囲第 2 8項記載の媒体処理方法。
3 1 . 任意のフォーマッ トで情報が記入された媒体から読み取ったィメ ージ ( 1 9 ) に基づいて、 該情報の認識を行なう媒体処理方法であって、 読み取ったイメージデータ ( 1 9 ) から、 該フォーマツ 卜を含む媒体 固有の特徴を抽出して、 該特徴を圧縮処理したのち、
この圧縮処理した特徴を制約検索条件として、 記憶部 ( 1 4 ) に記憶 されている参照圧縮情報を検索し、 一致している参照圧縮情報があるか どうかを照合し、 その後、 この照合結果に基づき、 特定された位置でのイメージを認識 して、 該情報を判別することを特徴とする、 媒体処理方法。
3 2 . 該特徴の圧縮処理に先立って、 上記読み取ったイメージデータ ( 1 9 ) について、 斜行補正及び歪み補正処理を施すことを特徴とする, 請求の範囲第 3 1項記載の媒体処理方法。
3 3 . 該特徴の圧縮処理に際して、 上記読み取ったイメージデータ ( 1 9 ) について、 鮮線項目を構成する水平鄞線を参照して、 該歸線項目の 上側鄞線が同一鄞線を共有する鄞線項目に対して、 同一 Y座標化処理を 施すとともに、 上記読み取ったイメージデータ ( 1 9 ) について、 鄞線 項目を構成する垂直^線を参照して、 該鄞線項目の左側薪線が同一鮮線 を共有する鄞線項目に対して、 同一 X座標化処理を施すことを特徴とす る、 請求の範囲第 3 1項記載の媒体処理方法。
3 4 . 該特徴の圧縮処理に際して、 該特徴を相当するビッ ト列に変換し、 このビッ 卜列を圧縮処理して、 これをマ卜リックステーブルとして設定 することを特徴とする、 請求の範囲第 3 1項記載の媒体処理方法。
3 5 . 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメ ージ ( 1 9 ) に基づいて、 該情報の認識を行なう媒体処理方法であって, 読み取ったイメージ ( 1 9 ) のレイァゥ卜の特徴を抽出して、 該レイ ァゥ卜の構成を解析したあと、 解析されたレイァゥ卜構成をディスプレ ィ (4 0 3 ) 上に ¾示して、 この表示されたレイァゥ卜構成について、 所定の特徴データ認識領域を設定して、 この領域内の標章情報に対応す るコ一ドデータを外部入力装置 ( 4 0 4 ) を通じて入力し、 更に上記の 特徴データ認識領域とコードデータとから領域特徴データを作成して、 この領域特徴データを上記で解析されたレイァゥ卜構成とをリンクさせ て登録する登録ステップ (H l, A 6 , Η 2 ) と、
その後、 別に読み取ったイメージの特徴を抽出して、 レイアウトの構
6 1 成を解析したあと、 該登録ステップ (H 1, A 6, H 2 ) で登録された 領域特徴データとレイァゥ 卜構成とを参照データとして検索し、 一致す るものがあるかどうかを照合する照合ステップ (H 3) とをそなえて構 成されたことを特徴とする、 媒体処理方法。
3 6. 該登録ステップ (H I , A 6, H 2 ) にて、 上記領域内の標章情 報に対応するコードデータを入力する際に、 該標章情報に対応する意味 付けをもったコードデータを入力することを特徴とする、 請求の範囲第 3 5項記載の媒体処理方法。
3 7. 任意のフォーマツ 卜で情報が記入された媒体から読み取ったィメ ージ ( 1 9) に基づいて、 該情報の認識を行なう媒体処理方法であって、 読み取ったイメージ ( 1 9) のレイァゥ卜の特徴を抽出して、 該レイ ァゥ卜の構成を解析し、 該抽出した特徴により、 該イメージ中の見出し 領域を決定し、 この見出し領域中の見出し項目情報を認識して、 対応す る項目データを決定して、 該レイァゥトを論理的に表現するレイアウト 解析処理ステップ (A 2, A 9) と、
該レイァゥ卜解析処理ステツプ (A 2 , A 9 ) で抽出された該レイァ ゥ卜の特徴を制約検索条件として、 候補レイァゥ卜記憶部 ( 1 4) に記 憶されている候補レイァゥ 卜を検索することにより、 一致している候補 レイァゥ卜があるかどうかを照合するレイァゥ卜照合処理ステップ (A 3, A 1 0) とを^ "なえて構成されたことを特徴とする、 媒体処理方法 c
3 8. 該レイァゥト解析処理ステップ (A 2, A 9) 力、 該レイアウト の構成解析結果に基づいて見出し位置候補を決定する見出し位置候補決 定ステップ (K 9) と、 このステップ (K 9) で決定された見出し位置 候補に対し該見出し領域中の該見出し項目情報を照合する見出し項目照 合ステップ (K 1 0) とを含んでいることを特徴とする、 請求の範囲第 3 7項記載の媒体処理方法。
3 9. 該見出し項目照合ステップ (K 1 0) での見出し項目の照合に際 し、 照合させるべきイメージデータ ( 1 9) に正規化処理を施してから, 見出し項目の照合処理を施すことを特徴とする、 請求の範囲第 3 8項記 載の媒体処理方法。
4 0. イメージデータ読取装置 ( 8 1 1 ) によって読み取られたところ のフォーマツ 卜に所要の情報が記入された媒体としての特定帳票 (8 2
4 B) のイメージデータから、 該特定帳票上に記載されている帳票識別 情報を抽出して、 該帳票識別情報を帳票識別辞書 (8 1 6 ) に登録する 登録ステツプ (Β Ι' ' ' 〜Β 7' ' ' ) と、
該登録ステップ (Β 1' ' ' 〜Β 7' ' ' ) の後、 任意の帳票のィメ ージデータをイメージデータ読取装置 (8 1 1 ) によって読み取り、 こ の任意の帳票のイメージデータ中に、 該帳票識別辞書 (8 1 6) に登録 されている該帳票識別情報があるかどうかを参照することにより、 該任 意の帳票が該特定帳票 (8 2 4 Β) であるかどうかを識別する運用ステ ップ (D 1' ' ' 〜D 1 1' ' ' ) とをそなえて構成されたことを特徴 とする、 媒体処理方法。
4 1. イメージデータ読取装置 (8 1 1 ) によって読み取られたところ のフォーマツ 卜に所要の情報が記入された媒体としての特定帳票 (8 2
4 B) のイメージデータから、 該特定帳票 ( 8 2 4 B) 上に記載されて いる帳票識別情報を抽出して、 該帳票識別情報を帳票識別辞書 (8 1
6) に登録する登録ステップ (Β 1' ' ' 〜Β 7' ' ' ) と、
該登録ステップ (Β 1' ' ' 〜Β 7' ' ' ) の後、 再度、 該特定帳票
(8 2 4 Β) のイメージデータを入力して、 該入力された特定帳票 (8
2 4 Β) のイメージデータ中に、 該帳票識別辞書 (8 1 6) に登録され ている該帳票識別情報があるかどうかを検証することにより、 該特定帳 票 ( 8 2 4 Β) の認識ができるかどうかを判定する検証ステップ
6 3 (C I ' ' ' 〜C 1 ' ' ) と、
該検証ステップ (C 1' ' ' 〜C 1 1' ' ' ) において、 該特定帳票 ( 8 2 4 B) の認識ができた場合に、 任意の帳票のイメージデータをィ メ一ジデータ読取装置 (8 1 1 ) によって読み取り、 この任意の帳票の イメージデータ中に、 該帳票識別辞書 (8 1 6) に登録されている該帳 票識別情報があるかどうかを参照することにより、 該任意の帳票が該特 定帳票 (8 2 4 B) であるかどうかを識別する運用ステップ
(D 1' ' ' 〜D 1 1' ' ' ) とをそなえて構成されたことを特徴とす る、 媒体処理方法。
4 2. 該登録ステップ (B 1 ' ' ' 〜B 7 ' ' ' ) において、 該ィメ一 ジデータ読取装置 (8 1 1 ) によって読み取られた該特定帳票 (8 2 4 B) のイメージデータをディスプレイ ( 8 1 2— 2) 上に表示し、 この 表示された該特定帳票 (8 2 4 B) のイメージデータについて、 該特定 帳票 (8 2 4 B) 上に記載されている該帳票識別情報のイメージを含む 領域を指定することにより、 該帳票識別情報を抽出して、 該帳票識別情 報を該帳票識別辞書 (8 1 6) に登録することを特徴とする、 請求の範 囲第 4 0項または請求の範囲第 4 1項に記載の媒体処理方法。
4 3. 該登録ステップ (B 1 ' ' ' 〜B 7 ' ' ' ) において、 該ィメ一 ジデータ読取装置 (8 1 1 ) によって読み取られた該特定帳票 (8 2 4 B) のイメージデ '一夕から、 該特定帳票 (8 2 4 B) 上に記載されてい る特定の帳票識別情報を自動的に抽出して、 該特定の帳票識別情報を該 帳票識別辞書 (8 1 6) に登録することを特徴とする、 請求の範囲第 4 0項または請求の範囲第 4 1項に記載の媒体処理方法。
4 4. 該登録ステップ (Β 1' ' ' 〜Β 7' ' ' ) において、 該帳票識 別情報の該帳票識別辞書 (8 1 6) への登録時に、 登録時に読み取った 該特定帳票 ( 8 2 4 Β) のイメージデータを記憶しておき、 該検証ステップ (C 1 ' ' ' 〜(: 1 1' ' ' ) 時に、 この記憶された 該特定帳票 (8 2 4 B) のイメージデータを再度該特定帳票 (8 2 4 B) のイメージデータとして入力して、 該入力された特定帳票 (8 2 4 B) のイメージデータ中に、 該帳票識別辞書 (8 1 6) に登録されてい る該帳票識別情報があるかどうかを検証することにより、 該特定帳票
(8 2 4 B) の認識ができるかどうかを判定することを特徴とする、 請 求の範囲第 4 1項記載の媒体処理方法。
4 5. フォーマツ 卜に所要の情報が記入された媒体としての帳票につい て、 そのイメージデータを読み取るイメージデータ読取装置 (8 1 1) と、
該イメージデータ読取装置 (8 1 1 ) によって読み取られた帳票のィ メージデータを格納するイメージデータ格納メモリ (8 1 4 ) と、 該イメージデータ格納メモリ (8 1 4) に格納された該帳票のィメー ジデータから、 該帳票上に記載されている所要の帳票識別情報を抽出す る帳票識別情報抽出手段 (8 1 5) と、
該帳票識別情報抽出手段 (8 1 5) で抽出された該帳票識別情報を特 定帳票 (8 2 4 B) の帳票識別情報として登録する帳票識別辞書 (8 1 6) と、
該イメージデータ読取装置 (8 1 1) によって読み取られ該イメージ データ格納メモリ'( 8 1 4 ) に格納された任意の帳票のイメージデータ 中に、 該帳票識別辞書 (8 1 6) に登録されている該帳票識別情報があ るかどうかを参照する参照手段 (8 1 7) と、
該参照手段 (8 1 7) での参照結果に基づいて、 該任意の帳票が該特 定帳票 (8 2 4 B) であるかどうかを識別する帳票識別手段 (8 1 9) とをそなえたことを特徴とする、 媒体処理装置。
4 6. フォーマツ 卜に所要の情報が記入された媒体としての帳票につい て、 そのイメージデータを読み取るイメージデータ読取装置 (8 1 1) と、
該イメージデータ読取装置 (8 1 1 ) によって読み取られた帳票のィ メージデータをそれぞれ格納するイメージデータ格納メモリ (8 1 4 ) 及びファイルメモリ (8 1 3) と、
該イメージデータ格納メモリ (8 1 4) に格納された該帳票のィメー ジデータから、 該帳票上に記載されている所要の帳票識別情報を抽出す る帳票識別情報抽出手段 (8 1 5) と、
該帳票識別情報抽出手段 (8 1 5) で抽出された該帳票識別情報を特 定帳票 ( 8 2 4 B) の帳票識別情報として登録する帳票識別辞書 (8 1 6 ) と、
該ファイルメモリ (8 1 3) に格納されている該特定帳票 (8 2 4 B) のイメージデータを読み出し、 該特定帳票 (8 2 4 B) のイメージ データ中に、 該帳票識別辞書 (8 1 6) に登録されている該帳票識別情 報があるかどうかを検証する検証手段 (8 1 7) と、
該検証手段 ( 8 1 7) での検証結果に基づいて、 該特定帳票 (8 2 4 B) の認識ができるかどうかを判定する判定手段 (8 1 9) と、 該イメージデータ読取装置 ( 8 1 1 ) によって読み取られ該イメージ データ格納メモリ (8 1 4) に格納された任意の帳票のイメージデータ 中に、 該帳票識別辞書 (8 1 6 ) に登録されている該帳票識別情報があ るかどうかを参照する参照手段 (8 1 7) と、
該参照手段 (8 1 7) での参照結果に基づいて、 該任意の帳票が該特 定帳票 (8 2 4 B) であるかどうかを識別する帳票識別手段 (8 1 9) とをそなえたことを特徴とする、 媒体処理装置。
4 7. 該参照手段 (8 1 7) が該検証手段 (8 1 7) を兼用するととも に、 該帳票識別手段 (8 1 9 ) が該判定手段 ( 8 1 9) を兼用している ことを特徴とする、 請求の範囲第 4 6項記載の媒体処理装置。
4 8 . 標章情報を有する媒体のイメージを読み取り、 この読み取られた ィメージ中の標章ィメ一ジ情報を認識して、 この標章ィメ一ジ情報を対 応するコ一 ド情報に変換する媒体処理方法において、
上記標章イメージ情報を対応するコード情報に変換できなかった場合 は、 この変換できなかった認識不能標章イメージ情報を該認識不能標章 イメージ情報と連関する標章イメージ情報とともに、 ディスプレイ ( 7 2 5 ) 上に、 読み取ったイメージの状態で表示するとともに、 該認識不 能標章イメージ情報については強調表示を施すことを特徴とする、 媒体 処理方法。
4 9 . 該認識不能標章イメージ情報に対応する正解データをデータ入力 装置 ( 7 2 2 ) の操作により入力すると、 該正解データが該ディスプレ ィ ( 7 2 5 ) 上の認識不能標章イメージ情報表示エリア ( 7 3 2 A ) と は別の正解データ表示エリア ( 7 3 3 C ) に表示されることを特徴とす る、 請求の範囲第 4 8項記載の媒体処理方法。
5 0 . 該認識不能標章イメージ情報に対応する正解データをデータ入力 装置 ( 7 2 2 ) の操作により入力すると、 今まで強調表示されていた該 認識不能標章ィメ一ジ情報については修正済みを意味する別の強調表示 が施されることを特徴とする、 請求の範囲第 4 8項記載の媒体処理方法 c
5 1 . 該認識不能標章イメージ情報に対応する正解データをデータ入力 装置 ( 7 2 2 ) の操作により入力すると、 該正解データが該ディスプレ ィ ( 7 2 5 ) 上の認識不能標章イメージ情報表示エリア ( 7 3 2 A ) と は別の正解データ表示エリア ( 7 3 3 C ) に表示されるとともに、 今ま で強調表示されていた該認識不能標章イメージ情報については修正済み を意味する別の強調表示が施されることを特徴とする、 請求の範囲第 4 8項記載の媒体処理方法。
1 6
5 2 . 情報を有する媒体のイメージを読み取り、 この読み取られた ィメージ中の標章ィメ一ジ情報を認識して、 r :)標章ィメ一ジ情報に対 応するコー ド情報に変換する媒体処理方法において、
該イメージ中におけるコード情報に変換されるべき最小構成単位の標 5 章イメージ情報を、 この標章イメージ情報を変換したコード情報の意味 する標章情報に対応させて、 ディスプレイ ( 7 2 5 ) 上に表示すること を特徴とする、 媒体処理方法。
5 3 . 同種の最小構成単位の標章イメージ情報が、 この標章イメージ情 報を変換したコ一ド情報の意味する標章情報に対応させて複数個表示さ 10 れている場合において、 所望の 1つの標章イメージ情報についてのみ強 調表示を行なうことを特徴とする、 請求の範囲第 5 2項記載の媒体処理 方法。
5 4 . 所望の 1つの標章イメージ情報をこの標章イメージ情報と連関す る標章イメージ情報とともに、 ディスプレイ ( 7 2 5 ) 上に、 読み取つ 15 たイメージの状態で表示するとともに、 該 1つの標章イメージ情報につ いては強調表示を施すことを特徴とする、 請求の範囲第 5 2項記載の媒 体処理方法。
5 5 . 該 1つの標章イメージ情報に対応する正解データをデータ入力装 置 ( 7 2 2 ) の操作により入力すると、 該正解データが、 上記 1つの標 ; 3 章イメージ情報とこの標章イメージ情報と連関する標章イメージ情報と を表示しているエリア ( 7 3 3 A ) とは別の正解データ表示エリア ( 7
3 3 C ) に表示されることを特徴とする、 請求の範囲第 5 4項記載の媒 体処理方法。
5 6 . 該 1つの標章イメージ情報に対応する正解データをデータ入力装 25 置 ( 7 2 2 ) の操作により入力すると、 今まで強調表示されていた該 1 つの標宣ィメ一ジ情報については修正済みを意味する別の強調表示が施 されることを特徴とする、 請求の範囲第 5 4項記載の媒体処理方法。
5 7 . 該 1つの標章イメージ情報に対応する正解データをデータ入力装 置 ( 7 2 2 ) の操作により入力すると、 該正解データが、 上記 1つの標 章イメージ情報とこの標章イメージ情報と連関する標章イメージ情報と を表示しているエリア ( 7 3 3 A ) とは別の正解データ表示エリア ( 7 3 3 C ) に表示されるとともに、 今まで強調表示されていた該 1つの標 章イメージ情報については修正済みを意味する別の強調表示が施される ことを特徴とする、 請求の範囲第 5 5項記載の媒体処理方法。
5 8 . 標章情報を有する媒体のイメージを読み取るイメージ読み取り部 ( 7 2 1 ) と、
該イメージ読み取り部 ( 7 2 1 ) で読み取られた該イメージ中の標章 イメージ情報を認識して、 この標章イメージ情報に対応するコード情報 に変換する標章認識部 ( 7 2 6 ) とをそなえるとともに、
上記標章ィメ一ジ情報を読み取つたィメージの状態で表示するディス プレイ ( 7 2 5 ) と、
上記標章ィメ一ジ情報を対応するコー ド情報に変換できなかつた場合 は、 この変換できなかった認識不能標章イメージ情報を該認識不能標章 イメージ情報と連関する標章イメージ情報とともに、 該ディスプレイ ( 7 2 5 ) 上に、 読み取ったイメージの状態で表示させる読み取り標章ィ メージ表示制御部'(7 2 7 ) とをそなえ、
該読み取り標章イメージ表示制御部 ( 7 2 7 ) カ^ 該認識不能標章ィ メージ情報については強調表示を施す強調表示手段 ( 7 2 7 A ) をそな えていることを特徴とする、 媒体処理装置。
5 9 . 該認識不能標章イメージ情報に対応する正解データを入力するデ 一夕入力装置 ( 7 2 2 ) をそなえ、
該データ入力装置 ( 7 2 2 ) の操作により該正解データを入力すると- 該正解データを該ディスプレイ上の認識不能標章イメージ情報表示エリ ァ ( 7 3 2 A) とは別の正解データ表示エリァ ( 73 3 C) に表示させ る正解データ表示手段 (7 2 8 ) が設けられていることを特徴とする、 請求の範囲第 58項記載の媒体処理装置。
6 0. 該データ入力装置 (722 ) の操作により該正解データを入力す ると、 今まで強調表示されていた該認識不能標章イメージ情報について は修正済みを意味する別の強調表示に変更する強調表示変更手段 (72
7 B) が設けられていることを特徴とする、 請求の範囲第 5 9項記載の 媒体処理装置。
6 1. 該正解データ表示手段 (7 2 8 ) により、 該正解データが該ディ スプレイ ( 72 5 ) 上の認識不能標章イメージ情報表示エリア (732 A) とは別の正解データ表示エリア (7 3 3 C) に表示されると、 今ま で強調表示されていた該認識不能標章イメージ情報については修正済み を意味する別の強調表示に変更する強調表示変更手段 (72 7 B) が設 けられていることを特徴とする、 請求の範囲第 5 9項記載の媒体処理装
62. 標章情報を有する媒体のイメージを読み取るイメージ読み取り部 (7 2 1) と、
該イメージ読み取り部 (72 1) で読み取られたイメージ中の標章ィ メージ情報を認識'して、 この標章イメージ情報に対応するコード情報に 変換する標章認識部 ( 72 6 ) とをそなえるとともに、
上記標章ィメ一ジ情報を読み取ったィメ一ジの状態で表示するディス プレイ ( 7 2 5 ) と、
該イメージ中におけるコード情報に変換されるべき最小構成単位の標 f ノメージ情報を該最小構成単位の標章ィメ一ジ情報毎に抽出する最小 構成単位標章イメージ情報抽出部 ( 7 2 9 ) と、 該最小構成単位標章イメージ情報抽出部 ( 7 2 9 ) で抽出された該最 小構成単位の標章ィメ一ジ情報を、 この標章ィメージ情報を変換したコ 一ド情報の意味する標章情報に対応させて表示させる最小構成単位標章 イメージ表示制御部 ( 7 3 0 ) とをそなえて構成されたことを特徴とす る、 媒体処理装置。
6 3. 該最小構成単位標章イメージ表示制御部 (7 3 0 ) カ^
同種の最小構成単位の標章ィメ一ジ情報を、 この標章ィメ一ジ情報を 変換したコ一ド情報の意味する標章情報に対応させて複数個表示させる 機能を有するとともに、
所望の 1つの標章イメージ情報についてのみ強調表示を行なう強調表 示手段 (7 3 O A) をそなえていることを特徴とする、 請求の範囲第 6 2項記載の媒体処理装置。
6 4. 該 1つの標章イメージ情報をこの標章イメージ情報と連関する標 章イメージ情報とともに、 ディスプレイ ( 7 2 5 ) 上に、 読み取ったィ メージの状態で表示する連関標章イメージ表示手段 (7 3 1 ) が設けら れるとともに、
該連関標章イメージ表示手段 ( 7 3 1 ) カ^ 該 1つの標章イメージ情 報については強調表示を施す強調表示手段 (7 3 1 A) をそなえている ことを特徴とする、 請求の範囲第 6 2項記載の媒体処理装置。
6 5. 該 1つの標章イメージ情報に対応する正解データを入力するデー 夕入力装置 ( 7 2 2 ) をそなえ、
該データ入力装置 ( 7 2 2 ) の操作により該正解データを入力すると、 該正解データを、 上記 1つの標章ィメ一ジ情報とこの標章ィメ一ジ情報 と連関する標章イメージ情報とを表示しているエリ了 ( 7 3 3 A) とは 別の正解データ表示エリア ( 7 3 3 C) に表示させる正解データ表示手 段 ( 7 2 8 ) が設けられていることを特徴とする、 請求の範囲第 6 2項 記載の媒体処理装置。
6 6 . 該 1つの標章イメージ情報に対応する正解データを入力するデー タ入力装置 ( 7 2 2 ) をそなえ、
該データ入力装置 (7 2 2 ) の操作により該正解データを入力すると、 今まで強調表示されていた該 1つの標章ィメ一ジ情報については修正済 みを意味する別の強調表示を施す強調表示変更手段 ( 7 3 0 B ) が設け られたことを特徴とする、 請求の範囲第 6 2項記載の媒体処理装置。
6 7 . 該 1つの標章イメージ情報に対応する正解データを入力するデー タ入力装置 ( 7 2 2 ) をそなえ、
該データ入力装置 ( 7 2 2 ) の操作により該正解データを入力すると、 該正解デー夕を、 上記 1つの標章ィメージ情報とこの標章ィメ一ジ情報 と連関する標章イメージ情報とを表示しているエリア ( 7 3 3 A ) とは 別の正解データ表示エリア ( 7 3 3 C ) に表示させる正解データ表示手 段 ( 7 2 8 ) と、
該データ入力装置 (7 2 2 ) の操作により該正解データを入力すると、 今まで強調表示されていた該 1つの標章ィメ一ジ情報については修正済 みを意味する別の強調表示を施す強調表示変更手段 ( 7 3 0 B ) とが設 けられたことを特徴とする、 請求の範囲第 6 2項記載の媒体処理装置。
6 8 . 標章情報を有する媒体のイメージを読み取り、 この読み取られた イメージ中の標章イメージ情報を認識して、 この標章イメージ情報を対 応するコード情報に変換する媒体処理方法において、
上記標章イメージ情報を対応するコ一ド情報に変換できなかった場合 は、 この変換できなかった認識不能標章イメージ情報を該認識不能標章 イメージ情報と連関する標章イメージ情報とともに、 ディスプレイ ( 7 2 5 ) 上に、 読み取ったイメージの状態で表示するとともに、 該認識不 能標章イメージ情報については強調表示を施し、 その後、 該認識不能標章イメージ情報に対応する正解データをデータ 入力装置 ( 7 2 2 ) の操作により入力すると、 今まで強調表示されてい た該認識不能標章イメージ情報については修正済みを意味する別の強調 表示が施されるとともに、 該正解データに基づいて認識不能標章情報が 修正されることを特徴とする、 媒体処理方法。
6 9 . 標章情報を有する媒体のイメージを読み取り、 この読み取られた ィメージ中の標章ィメ一ジ情報を認識して、 この標章ィメ一ジ情報に対 応するコ一ド情報に変換する媒体処理方法において、
該イメージ中におけるコ一ド情報に変換されるべき同種の最小構成単 位の標章イメージ情報を、 この標章イメージ情報を変換したコード情報 の意味する標章情報に対応させて複数個表示するとともに、 このとき所 望の 1つの標章ィメ一ジ情報についてのみ強調表示を行ない、
その後、 該 1つの標章イメージ情報に対応する正解データをデータ入 力装置 ( 7 2 2 ) の操作により入力すると、 今まで強調表示されていた 該 1つの標章イメージ情報については修正済みを意味する別の強調表示 が施されるとともに、 該正解データに基づいて、 該 1つの標章イメージ 情報に対応する誤認識情報が修正されることを特徴とする、 媒体処理方 法 o
7 0 . 標章情報を有する媒体のイメージを読み取るイメージ読み取り部 ( 7 2 1 ) と、 ·
該イメージ読み取り部 ( 7 2 1 ) で読み取られた該イメージ中の標章 イメージ情報を認識して、 この標章イメージ情報に対応するコード情報 に変換する標章認識部 ( 7 2 6 ) とをそなえるとともに、
上記標章ィメ一ジ情報を読み取ったィメ一ジの状態で表示するディス プレイ ( 7 2 5 ) と、
上記標章イメージ情報を対応するコード情報に変換できなかった場合 は、 この変換できなかった認識不能標章イメージ情報を該認識不能標章 イメージ情報と連関する樣章イメージ情報とともに、 該ディスプレイ (
7 2 5 ) 上に、 読み取ったイメージの状態で表示させる読み取り標章ィ メージ表示制御部 ( 7 2 7 ,. と、
該認識不能標章ィメ一ジ情報については強調表示を施す強調表示手段 ( 7 2 7 A ) と、
該認識不能標章イメージ情報に対応する正解データを入力するデータ 入力装置 ( 7 2 2 ) と、
該データ入力装置 ( 7 2 2 ) の操作により該正解データを入力すると、 今まで強調表示されていた該認識不能標章イメージ情報については修正 済みを意味する別の強調表示に変更する強調表示変更手段 ( 7 2 7 B ) と、
該データ入力装置 (7 2 2 ) の操作により該正解データを入力すると、 該正解データに基づいて認識不能標章情報を修正する認識情報修正手段 ( 7 5 2 ) とをそなえて構成されたことを特徴とする、 媒体処理装置。
7 1 . 標章情報を有する媒体のイメージを読み取るイメージ読み取り部 ( 7 2 1 ) と、
該イメージ読み取り部 ( 7 2 1 ) で読み取られたイメージ中の標章ィ メージ情報を認識して、 この標章イメージ情報に対応するコ一ド情報に 変換する標章認識部 ( 7 2 6 ) と、
上記標章ィメージ情報を読み取ったイメージの状態で表示するディス プレイ ( 7 2 5 ) と、
該イメージ中におけるコード情報に変換されるべき最小構成単位の標 章ィメージ情報を該最小構成単位の標章ィメ一ジ情報毎に抽出する最小 構成単位標章イメージ情報抽出部 ( 7 2 9 ) と、
該最小構成単位標章イメージ情報抽出部 ( 7 2 9 ) で抽出された該最 小構成単位の標章イメージ情報を、 この標章イメージ情報を変換したコ 一ド情報の意味する標章情報に対応させて複数個表示させる最小構成単 位標章イメージ表示制御部 ( 73 0 ) と、
所望の 1つの標章ィメ一ジ情報についてのみ強調表示を行なう強調表 示手段 ( 7 3 0 A) と、
該 1つの標章イメージ情報に対応する正解データを入力するデータ入 力装置 ( 7 2 2 ) と、
該データ入力装置 (722 ) の操作により該正解データを入力すると、 今まで強調表示されていた該 1つの標章イメージ情報については修正済 みを意味する別の強調表示を施す強調表示変更手段 (7 3 0 B) と、 該データ入力装置 ( 72 2 ) の操作により該正解データを入力すると、 該正解データに基づいて、 該 1つの標章イメージ情報に対応する誤認識 情報を修正する認識情報修正手段 ( 7 52 ) とをそなえたことを特徴と する、 媒体処理装置。
7 2. ディスプレイ (63 0 ) 上において、 複数の項目情報を含んだ媒 体のイメージデータを表示する際に、 ある項目に対応するイメージデー 夕部分のみが強調表示されることを特徴とする、 媒体処理方法。
7 3. ディスプレイ ( 6 30 ) 上において、 ィメージデータ表示ェリァ (6 1 1) に、 複数の項目情報を含んだ媒体のイメージデータが表示さ れている状態で、 所望項目 (6 1 2) のイメージデータ部分に対応する データを入力するに当たり、 該イメージデータ表示エリア (6 1 1) と は別に該ディスプレイ ( 63 0 ) に設定された項目表示エリア (6 1 4) における各項目用データ入力表示エリア部分 (6 1 5) の所望項目 用データ入力表示エリア部分 (6 1 5) に、 カーソル表示 (6 1 6) が なされると、 対応する所望項目 (6 1 2) のイメージデータ部分のみが 強調表示されることを特徴とする、 媒体処理方法。
7 4. ディスプレイ ( 6 3 0 ) 上において、 ィメージデータ表示ェリァ ( 6 1 1 ) に、 複数の項目情報を含んだ媒体のイメージデータが表示さ れている状態で、 所望項目 (6 1 2 ) のイメージデータ部分に対応する データを入力するに当たり、 該イメージデータ表示エリア (6 1 1) と は別に該ディスプレイ ( 6 3 0 ) に設定された項目表示エリア (6 1 4) における各項目用データ入力表示エリア部分 ( 6 1 5) の所望項目 用データ入力表示エリア部分 ( 6 1 5) に、 カーソル表示 (6 1 6) が なされると、 対応する所望項目 (6 1 2) のイメージデータ部分のみが 強調表示されるとともに、
その後、 更に他の項目 (6 1 2 ) のイメージデータ部分に対応するデ 一夕を入力するに当たり、 カーソル表示 ( 6 1 6) を該所望項目用デー タ入力表示エリア部分 (6 1 5) から該他の項目用データ入力表示エリ ァ部分 (6 1 5) に移動させると、 対応する所望項目 (6 1 2) のィメ ージデータ部分の強調表示が解除されるとともに、 対応する他の項目 (6 1 2) のイメージデータ部分が強調表示されることを特徴とする、 媒体処理方法。
7 5. ディスプレイ ( 6 3 0 ) 上において、 ィメージデータ表示ェリァ (6 1 1 ) に、 複数の項目情報を含んだ媒体のイメージデータの一部が 表示されている状態で、 該ディスプレイ ( 6 3 0 ) に表示されている所 望項目 (6 1 2) のイメージデータ部分に対応するデータを入力するに 当たり、 該イメージデータ表示エリア (6 1 1) とは別に該デイスプレ ィ ( 6 3 0 ) に設定された項目表示エリア (6 1 4) における各項目用 データ入力表示エリア部分 (6 1 5) の所望項目用データ入力表示エリ ァ部分 (6 1 5) に、 カーソル表示 (6 1 6) がなされると、 対応する 所望項目 (6 1 2) のイメージデータ部分のみが強調表示されるととも に、 その後、 更に該ディスプレイ ( 6 3 0 ) に表示されていない他の項目 (6 1 2) のイメージデータ部分に対応するデータを入力するに当たり- 力一ソル表示 (6 1 6 ) を該所望項目用データ入力表示エリア部分 (6 1 5) から該他の項目用データ入力表示エリア部分 (6 1 5) に移動さ せると、 対応する所望項目 (6 1 2) のイメージデータ部分の強調表示 が解除される一方、 該他の項目 ( 6 1 2) のイメージデータ部分が該デ イスプレイ ( 6 3 0 ) の該イメージデータ表示エリア (6 1 1) に表示 されるようにスクロールを行なって、 該他の項目 (6 1 2 ) のイメージ データ部分を該ディスプレイ ( 6 3 0 ) の該イメージデータ表示エリア ( 6 1 1 ) に表示させるとともに、 対応する他の項目 (6 1 2) のィメ 一ジデータ部分が強調表示されることを特徴とする、 媒体処理方法。
7 6. 複数の項目項目情報を含んだ媒体のイメージデータを入力するィ メージデータ入力装置 ( 6 2 1 , 6 2 1 A, 6 2 1 B) と、
イメージデータ表示エリア (6 1 1 ) と各項目用データ入力表示エリ ァ部分 (6 1 5) を有する項目表示エリア (6 1 4) とを有するディス プレイ ( 6 3 0 ) と、
該イメージデータ表示エリア ( 6 1 1 ) に該イメージデータ入力装置 ( 6 2 1, 6 2 1 A, 6 2 1 B) にて得られた該イメージデータを表示 させるとともに、 データ入力手段 (6 3 1 ) により所望項目 (6 1 2) のイメージデータ部分に対応するデータを入力するに当たり、 該項目表 示エリア ( 6 1 4) における該所望項目用データ入力表示エリア部分 ( 6 1 5) にカーソル表示 (6 1 6) を行なわせる表示制御装置 (6 2 9 ) とをそなえ、
該表示制御装置 ( 6 2 9 ) により、 該ディスプレイ ( 6 3 0 ) におけ る該イメージデータ表示エリア (6 1 1 ) に、 複数の項目情報を含んだ イメージデータが表示されている状態で、 該項目表示エリア (6 1 4 ) における各項目用データ入力表示エリア部分 (6 1 5) の所望項 ,用デ
—夕入力表示エリア部分 (6 1 5) に、 カーソル表示 (6 1 6) がなさ れると、 対応する所望項目 (6 1 2 ) のイメージデータ部分のみ ¾調 表示させるイメージデータ部分強調表示手段 (6 2 4 ) をそなえている ことを特徴とする、 媒体処理装置。
7 7. 該表示制御装置 (6 2 9 ) カ^ 該イメージデータ部分強調表示手 段 ( 6 2 4 ) に加えて、
カーソル移動操作手段 (6 3 1) によって、 該所望項目用データ入力 表示エリア部分 (6 1 5) とは別の他の項目用データ入力表示エリア部 分 (6 1 5) に、 カーソル表示 (6 1 6) が遷移せしめられると、 該項 目 6 1 2) 対応のイメージデータ部分の強調表示を解除するイメージ データ強調表示解除手段 ( 62 5 ) と、
該イメージデータ強調表示解除手段 ( 62 5 ) に連動して、 該他の項 目用データ入力表示エリア部分 (6 1 5) に対応する他の項目 (6 1 2 ) のイメージデータ部分のみを該イメージデータ部分強調表示手段 (
6 24 ) にて強調表示させるよう制御する強調表示遷移制御手段 (6 2 6) とをそなえていることを特徴とする、 請求の範囲第 76項記載の媒 体処理装置。
7 8. 該表示制御装置 ( 62 9 ) が、 上記のイメージデータ部分強調表 示手段 ( 6 2 4 ) , イメージデータ強調表示解除手段 ( 625 ) 及び強 調表示遷移制御手段 ( 62 6 ) に加えて、
該イメージデータの一部を該ディスプレイ ( 6 30 ) 上に表示してい る状態から該ディスプレイ ( 6 30 ) 上に表示されていない該イメージ データを表示させる表示画面スクロール手段 (62 7 ) をそなえている ことを特徴とする、 請求の範囲第 7 6項記載の媒体処理装置。
7 9. 該イメージデータ部分強調表示手段 (62 4 ) 力 強調表示部分 を外部からの指示により変更しうる変更手段 ( 6 2 8 ) をそなえている ことを特徴とする、 請求の範囲第 7 6〜 7 8項のいずれかに記載の媒体 処理装置。
PCT/JP1996/002150 1995-07-31 1996-07-30 Processeur de supports et procede de traitement de supports WO1997005561A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP96925139A EP0790573B1 (en) 1995-07-31 1996-07-30 Document processor and document processing method
DE69637073T DE69637073T2 (de) 1995-07-31 1996-07-30 Prozessor und verarbeitungsverfahren für dokumente
US08/809,594 US6360011B1 (en) 1995-07-31 1996-07-30 Data medium handling apparatus and data medium handling method
JP09507471A JP3088019B2 (ja) 1995-07-31 1996-07-30 媒体処理装置及び媒体処理方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP7/195626 1995-07-31
JP19562695 1995-07-31
JP7/194851 1995-07-31
JP7/194852 1995-07-31
JP19485295 1995-07-31
JP19485195 1995-07-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/240,006 Division US6501864B1 (en) 1995-07-31 1999-01-29 Data medium handling apparatus and data medium handling method

Publications (1)

Publication Number Publication Date
WO1997005561A1 true WO1997005561A1 (fr) 1997-02-13

Family

ID=27327008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/002150 WO1997005561A1 (fr) 1995-07-31 1996-07-30 Processeur de supports et procede de traitement de supports

Country Status (6)

Country Link
US (3) US6360011B1 (ja)
EP (3) EP0790573B1 (ja)
JP (1) JP3088019B2 (ja)
CN (2) CN1287322C (ja)
DE (2) DE69638207D1 (ja)
WO (1) WO1997005561A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102416A (ja) * 1997-09-26 1999-04-13 Fujitsu Ltd 帳票読取方向判定装置および帳票読取方向判定方法
JP2002259882A (ja) * 2001-03-02 2002-09-13 Fujitsu Ltd カード情報入力方法、プログラム、および、カード情報処理装置
US6778712B1 (en) 1999-12-20 2004-08-17 Fujitsu Limited Data sheet identification device
US6801658B2 (en) 1999-03-01 2004-10-05 Hitachi, Ltd. Business form handling method and system for carrying out the same
KR100742582B1 (ko) * 2005-12-28 2007-08-02 후지쯔 가부시끼가이샤 매체 처리 장치, 매체 처리 방법, 매체 처리 시스템 및매체 처리 프로그램을 기록한 컴퓨터 판독 가능한 기록매체
JP2010061693A (ja) * 2009-12-15 2010-03-18 Fujitsu Ltd 帳票認識方法及び帳票認識装置

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07151143A (ja) * 1993-11-30 1995-06-13 Nec Corp 転がり軸受
DE10034629A1 (de) * 1999-08-11 2001-03-22 Ibm Verfahren und System zum Verzahnen von OCR und ABL zur automatischen Postsortierung
JP4377494B2 (ja) * 1999-10-22 2009-12-02 東芝テック株式会社 情報入力装置
EP1286207A4 (en) * 2000-05-31 2004-09-22 Seiko Epson Corp PROJECTOR, PROJECTION DISPLAY SYSTEM AND METHOD, AND INFORMATION RECORDING SYSTEM
US6883168B1 (en) 2000-06-21 2005-04-19 Microsoft Corporation Methods, systems, architectures and data structures for delivering software via a network
US7000230B1 (en) 2000-06-21 2006-02-14 Microsoft Corporation Network-based software extensions
US7624356B1 (en) 2000-06-21 2009-11-24 Microsoft Corporation Task-sensitive methods and systems for displaying command sets
US6948135B1 (en) 2000-06-21 2005-09-20 Microsoft Corporation Method and systems of providing information to computer users
US7191394B1 (en) 2000-06-21 2007-03-13 Microsoft Corporation Authoring arbitrary XML documents using DHTML and XSLT
US7346848B1 (en) 2000-06-21 2008-03-18 Microsoft Corporation Single window navigation methods and systems
US7155667B1 (en) 2000-06-21 2006-12-26 Microsoft Corporation User interface for integrated spreadsheets and word processing tables
US7099508B2 (en) * 2001-11-29 2006-08-29 Kabushiki Kaisha Toshiba Document identification device, document definition method and document identification method
EP1324236A1 (de) * 2001-12-27 2003-07-02 Sap Ag Bestimmen einer Kennfunktion aus Matrix mit Anreichern und Verdichten
US20040030780A1 (en) * 2002-08-08 2004-02-12 International Business Machines Corporation Automatic search responsive to an invalid request
JP4366916B2 (ja) * 2002-10-29 2009-11-18 富士ゼロックス株式会社 書類確認システム、書類確認方法、及び書類確認プログラム
WO2004070657A1 (ja) * 2003-02-05 2004-08-19 Seiko Epson Corporation 画像処理装置
US7275216B2 (en) 2003-03-24 2007-09-25 Microsoft Corporation System and method for designing electronic forms and hierarchical schemas
US7415672B1 (en) 2003-03-24 2008-08-19 Microsoft Corporation System and method for designing electronic forms
US7370066B1 (en) 2003-03-24 2008-05-06 Microsoft Corporation System and method for offline editing of data files
US20040194009A1 (en) * 2003-03-27 2004-09-30 Lacomb Christina Automated understanding, extraction and structured reformatting of information in electronic files
US7913159B2 (en) 2003-03-28 2011-03-22 Microsoft Corporation System and method for real-time validation of structured data files
US7296017B2 (en) 2003-03-28 2007-11-13 Microsoft Corporation Validation of XML data files
US7451392B1 (en) 2003-06-30 2008-11-11 Microsoft Corporation Rendering an HTML electronic form by applying XSLT to XML using a solution
US7406660B1 (en) 2003-08-01 2008-07-29 Microsoft Corporation Mapping between structured data and a visual surface
US7334187B1 (en) 2003-08-06 2008-02-19 Microsoft Corporation Electronic form aggregation
JP4227500B2 (ja) * 2003-11-21 2009-02-18 キヤノン株式会社 履歴管理システム、履歴管理方法、プログラム及び記録媒体
US7039394B2 (en) * 2003-11-25 2006-05-02 Good Technology, Inc. Communication system and method for compressing information sent by a communication device to a target portable communication device
US8819072B1 (en) 2004-02-02 2014-08-26 Microsoft Corporation Promoting data from structured data files
JP4603807B2 (ja) * 2004-03-10 2010-12-22 富士通株式会社 文字認識装置,文字認識方法,媒体処理方法,文字認識プログラムおよび文字認識プログラムを記録したコンピュータ読取可能な記録媒体
US7496837B1 (en) 2004-04-29 2009-02-24 Microsoft Corporation Structural editing with schema awareness
US7774620B1 (en) 2004-05-27 2010-08-10 Microsoft Corporation Executing applications at appropriate trust levels
US8127229B2 (en) * 2004-08-31 2012-02-28 Access Co., Ltd. Controlling focus, and movement of the focus, between focus items in a multi-frame document
JP2006074337A (ja) * 2004-09-01 2006-03-16 Fuji Xerox Co Ltd 符号化装置、復号化装置、符号化方法、復号化方法、及びこれらのプログラム
US7712022B2 (en) 2004-11-15 2010-05-04 Microsoft Corporation Mutually exclusive options in electronic forms
US7721190B2 (en) 2004-11-16 2010-05-18 Microsoft Corporation Methods and systems for server side form processing
US7904801B2 (en) 2004-12-15 2011-03-08 Microsoft Corporation Recursive sections in electronic forms
US7937651B2 (en) 2005-01-14 2011-05-03 Microsoft Corporation Structural editing operations for network forms
US7725834B2 (en) 2005-03-04 2010-05-25 Microsoft Corporation Designer-created aspect for an electronic form template
JP2006268372A (ja) * 2005-03-23 2006-10-05 Fuji Xerox Co Ltd 翻訳装置、画像処理装置、画像形成装置、翻訳方法及びプログラム
US8200975B2 (en) 2005-06-29 2012-06-12 Microsoft Corporation Digital signatures for network forms
US8001459B2 (en) 2005-12-05 2011-08-16 Microsoft Corporation Enabling electronic documents for limited-capability computing devices
GB2448275A (en) * 2006-01-03 2008-10-08 Kyos Systems Inc Document analysis system for integration of paper records into a searchable electronic database
JP5060053B2 (ja) * 2006-01-20 2012-10-31 富士通株式会社 媒体判別情報データベース作成装置及び媒体判別情報データベース管理装置
JP4539613B2 (ja) * 2006-06-28 2010-09-08 富士ゼロックス株式会社 画像形成装置、画像生成方法およびプログラム
JP2008052709A (ja) * 2006-07-26 2008-03-06 Canon Inc 画像処理装置、画像処理装置の制御方法およびプログラム
US8280734B2 (en) * 2006-08-16 2012-10-02 Nuance Communications, Inc. Systems and arrangements for titling audio recordings comprising a lingual translation of the title
US8707167B2 (en) * 2006-11-15 2014-04-22 Ebay Inc. High precision data extraction
US8144989B2 (en) * 2007-06-21 2012-03-27 Sharp Laboratories Of America, Inc. Methods and systems for identifying text orientation in a digital image
US8208725B2 (en) * 2007-06-21 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for identifying text orientation in a digital image
US8340430B2 (en) * 2007-07-10 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US20090110281A1 (en) * 2007-10-29 2009-04-30 Kabushiki Kaisha Toshiba Image forming apparatus, image processing apparatus, and image processing method
JP5338063B2 (ja) * 2007-10-31 2013-11-13 富士通株式会社 画像認識プログラム、画像認識装置および画像認識方法
JP4998220B2 (ja) * 2007-11-09 2012-08-15 富士通株式会社 帳票データ抽出プログラム、帳票データ抽出装置および帳票データ抽出方法
RU2436156C1 (ru) 2007-11-20 2011-12-10 Люмэкс Ас Способ разрешения противоречивых выходных данных из системы оптического распознавания символов (ocr), где выходные данные включают в себя более одной альтернативы распознавания изображения символа
CN101464951B (zh) * 2007-12-21 2012-05-30 北大方正集团有限公司 图像识别方法及系统
US8023770B2 (en) * 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for identifying the orientation of a digital image
US8023741B2 (en) 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for detecting numerals in a digital image
JP4825243B2 (ja) * 2008-06-20 2011-11-30 富士通フロンテック株式会社 帳票認識装置、方法、データベース作成装置、方法、及びプログラム
US8160365B2 (en) * 2008-06-30 2012-04-17 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US8608481B2 (en) 2009-05-13 2013-12-17 Medtronic Navigation, Inc. Method and apparatus for identifying an instrument location based on measuring a characteristic
US8706727B2 (en) * 2009-06-19 2014-04-22 Sybase, Inc. Data compression for reducing storage requirements in a database system
JP5267364B2 (ja) * 2009-07-10 2013-08-21 富士ゼロックス株式会社 画像処理装置およびプログラム
CN102750541B (zh) * 2011-04-22 2015-07-08 北京文通科技有限公司 一种文档图像分类识别方法及装置
WO2013110289A1 (en) 2012-01-23 2013-08-01 Microsoft Corporation Borderless table detection engine
CN104067293B (zh) 2012-01-23 2017-07-25 微软技术许可有限责任公司 矢量图分类引擎
US20130191732A1 (en) * 2012-01-23 2013-07-25 Microsoft Corporation Fixed Format Document Conversion Engine
US9430456B2 (en) 2012-08-10 2016-08-30 Transaxy Inc. System for entering data into a data processing system
US9953008B2 (en) 2013-01-18 2018-04-24 Microsoft Technology Licensing, Llc Grouping fixed format document elements to preserve graphical data semantics after reflow by manipulating a bounding box vertically and horizontally
US9076058B2 (en) 2013-01-29 2015-07-07 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for determining orientation in a document image
JP6295519B2 (ja) * 2013-05-21 2018-03-20 富士通株式会社 表示処理装置、システム及び表示処理プログラム
JP6123597B2 (ja) * 2013-09-12 2017-05-10 ブラザー工業株式会社 筆記データ処理装置
CN103971134B (zh) * 2014-04-25 2017-07-07 华为技术有限公司 图像分类、检索和校正方法,以及相应装置
CN105893337B (zh) * 2015-01-04 2020-07-10 伊姆西Ip控股有限责任公司 用于文本压缩和解压缩的方法和设备
US10740372B2 (en) * 2015-04-02 2020-08-11 Canon Information And Imaging Solutions, Inc. System and method for extracting data from a non-structured document
JP6531738B2 (ja) * 2016-08-08 2019-06-19 京セラドキュメントソリューションズ株式会社 画像処理装置
JP6953957B2 (ja) * 2017-09-27 2021-10-27 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
JP7259468B2 (ja) * 2019-03-25 2023-04-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7439435B2 (ja) * 2019-09-30 2024-02-28 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6238984A (ja) * 1985-08-14 1987-02-19 Hitachi Ltd 光学文字読取方式
JPS6337488A (ja) * 1986-08-01 1988-02-18 Matsushita Electric Ind Co Ltd 文字認識方法
JPS63265374A (ja) * 1987-04-22 1988-11-01 Mitsubishi Electric Corp 文字読み取り装置
JPS63316285A (ja) * 1987-06-19 1988-12-23 Oki Electric Ind Co Ltd 文字認識装置
JPH0228785A (ja) * 1988-07-18 1990-01-30 Toshiba Corp 光学的文字読取装置
JPH02126245U (ja) * 1989-03-24 1990-10-17
JPH04343190A (ja) * 1991-05-21 1992-11-30 Hitachi Ltd 文字データ入力方式
JPH07182459A (ja) * 1993-12-22 1995-07-21 Matsushita Electric Ind Co Ltd 表構造抽出装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60239884A (ja) * 1984-05-15 1985-11-28 Fujitsu Ltd 認識装置
JPS61182459A (ja) * 1985-02-07 1986-08-15 Nippon Denso Co Ltd 燃料噴射弁
US5022081A (en) 1987-10-01 1991-06-04 Sharp Kabushiki Kaisha Information recognition system
JPH01142074A (ja) 1987-11-30 1989-06-02 Nkk Corp イオンプレーテイングの前処理法
JPH07111729B2 (ja) 1988-01-27 1995-11-29 株式会社東芝 読取装置
JPH02126245A (ja) 1988-11-05 1990-05-15 Minolta Camera Co Ltd カメラの自動露出演算装置
WO1990015398A1 (en) * 1989-06-02 1990-12-13 Eastman Kodak Company Method and apparatus for identifying unrecognizable characters in optical character recognition machines
DE69033312D1 (de) * 1989-07-10 1999-11-11 Hitachi Ltd Dokumentdatenverarbeitungsgerät unter Anwendung von Bilddaten
JPH03263282A (ja) 1990-03-14 1991-11-22 Fujitsu Ltd 文字読取装置の文字切出し方法
JP2740335B2 (ja) 1990-05-18 1998-04-15 富士ファコム制御株式会社 自動セル属性判定機能を有する表読取装置
US5315667A (en) 1991-10-31 1994-05-24 International Business Machines Corporation On-line handwriting recognition using a prototype confusability dialog
JP3388829B2 (ja) * 1993-03-23 2003-03-24 株式会社東芝 文字読取装置
JPH07152856A (ja) * 1993-11-29 1995-06-16 Toshiba Corp 光学的文字読取装置
CN1045679C (zh) 1993-12-01 1999-10-13 摩托罗拉公司 以字典为基础与可能的字符串结合的手写物识别方法
US6181837B1 (en) * 1994-11-18 2001-01-30 The Chase Manhattan Bank, N.A. Electronic check image storage and retrieval system
JP3263282B2 (ja) 1995-07-11 2002-03-04 株式会社東芝 ミリ波・赤外撮像装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6238984A (ja) * 1985-08-14 1987-02-19 Hitachi Ltd 光学文字読取方式
JPS6337488A (ja) * 1986-08-01 1988-02-18 Matsushita Electric Ind Co Ltd 文字認識方法
JPS63265374A (ja) * 1987-04-22 1988-11-01 Mitsubishi Electric Corp 文字読み取り装置
JPS63316285A (ja) * 1987-06-19 1988-12-23 Oki Electric Ind Co Ltd 文字認識装置
JPH0228785A (ja) * 1988-07-18 1990-01-30 Toshiba Corp 光学的文字読取装置
JPH02126245U (ja) * 1989-03-24 1990-10-17
JPH04343190A (ja) * 1991-05-21 1992-11-30 Hitachi Ltd 文字データ入力方式
JPH07182459A (ja) * 1993-12-22 1995-07-21 Matsushita Electric Ind Co Ltd 表構造抽出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0790573A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102416A (ja) * 1997-09-26 1999-04-13 Fujitsu Ltd 帳票読取方向判定装置および帳票読取方向判定方法
US6801658B2 (en) 1999-03-01 2004-10-05 Hitachi, Ltd. Business form handling method and system for carrying out the same
US6778712B1 (en) 1999-12-20 2004-08-17 Fujitsu Limited Data sheet identification device
JP2002259882A (ja) * 2001-03-02 2002-09-13 Fujitsu Ltd カード情報入力方法、プログラム、および、カード情報処理装置
KR100742582B1 (ko) * 2005-12-28 2007-08-02 후지쯔 가부시끼가이샤 매체 처리 장치, 매체 처리 방법, 매체 처리 시스템 및매체 처리 프로그램을 기록한 컴퓨터 판독 가능한 기록매체
US7715633B2 (en) 2005-12-28 2010-05-11 Fujitsu Limited Medium processing apparatus, medium processing method, medium processing system and computer readable recording medium with medium processing program recorded thereon
JP2010061693A (ja) * 2009-12-15 2010-03-18 Fujitsu Ltd 帳票認識方法及び帳票認識装置

Also Published As

Publication number Publication date
EP1818857A2 (en) 2007-08-15
CN1164902A (zh) 1997-11-12
EP0790573B1 (en) 2007-05-09
US6360011B1 (en) 2002-03-19
EP1818857A3 (en) 2007-11-21
US6501864B1 (en) 2002-12-31
DE69638207D1 (de) 2010-08-05
EP0790573A1 (en) 1997-08-20
JP3088019B2 (ja) 2000-09-18
DE69637073D1 (de) 2007-06-21
DE69637073T2 (de) 2007-08-30
CN1287322C (zh) 2006-11-29
EP0790573A4 (en) 1998-03-25
CN1540578A (zh) 2004-10-27
CN1282937C (zh) 2006-11-01
EP1818857B1 (en) 2010-06-23
EP1814062A1 (en) 2007-08-01
US6567546B1 (en) 2003-05-20

Similar Documents

Publication Publication Date Title
WO1997005561A1 (fr) Processeur de supports et procede de traitement de supports
US6885769B2 (en) Business form handling method and system for carrying out the same
US20020141660A1 (en) Document scanner, system and method
US20020103834A1 (en) Method and apparatus for analyzing documents in electronic form
JPH06149970A (ja) 文書データのイメージ処理方法及び装置
JP3422924B2 (ja) 文字認識装置、文字認識方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
CN1175699A (zh) 光学扫描表单识别及更正方法
JPS5947641A (ja) 名刺デ−タベ−ス作成装置
JP3463008B2 (ja) 媒体処理方法及び媒体処理装置
JP3463009B2 (ja) 媒体処理方法及び媒体処理装置
JP4356908B2 (ja) 財務諸表自動入力装置
JPH08263587A (ja) 文書入力方法および文書入力装置
JP4347675B2 (ja) 帳票ocrプログラム、方法及び装置
CN1426017A (zh) 一种校对多个电子文件的方法及其系统
JP2007280413A (ja) 財務諸表自動入力装置
JP3946043B2 (ja) 帳票識別装置及び識別方法
JP3487523B2 (ja) 文書処理装置
CN100367288C (zh) 数据媒体处理装置及数据媒体处理方法
JPH0327471A (ja) 画像登録方式
JP2006252575A (ja) 財務諸表自動入力装置及び財務諸表自動入力方法
KR102561878B1 (ko) 머신러닝 기반의 ai 블루 ocr 판독 시스템 및 판독 방법
JPH11102416A (ja) 帳票読取方向判定装置および帳票読取方向判定方法
JPS6154569A (ja) 文書画像処理方式
JPH117492A (ja) キー入力編集方法及び編集装置
EP0538812A2 (en) Multiple editing and non-edit approaches for image font processing of records

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96191000.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 08809594

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1996925139

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1996925139

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1996925139

Country of ref document: EP