[go: up one dir, main page]

JP2007082021A - Image processing apparatus, program, and image data processing method - Google Patents

Image processing apparatus, program, and image data processing method Download PDF

Info

Publication number
JP2007082021A
JP2007082021A JP2005269307A JP2005269307A JP2007082021A JP 2007082021 A JP2007082021 A JP 2007082021A JP 2005269307 A JP2005269307 A JP 2005269307A JP 2005269307 A JP2005269307 A JP 2005269307A JP 2007082021 A JP2007082021 A JP 2007082021A
Authority
JP
Japan
Prior art keywords
image data
component
display
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005269307A
Other languages
Japanese (ja)
Inventor
Iwao Saeki
巌 佐伯
Tetsuya Sakayori
哲也 酒寄
Junichi Takami
淳一 鷹見
Yoshinaga Kato
喜永 加藤
Akira Ro
彬 呂
Yoshibumi Sakuramata
義文 櫻又
Takashi Yano
隆志 矢野
Hiroko Mano
博子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005269307A priority Critical patent/JP2007082021A/en
Publication of JP2007082021A publication Critical patent/JP2007082021A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】表示装置に表示された画像データに対する処理についての処理領域指定の簡便化を図る。
【解決手段】指定された抽出レベルに応じて画像データを解析して構成要素を抽出し(S104)、抽出した構成要素を画像データに重ねて表示装置に表示し(S105)、画像データに重ねて表示された構成要素が情報入力装置を介して指示部材によって指定された場合(S108のYes)、指定された構成要素に対応付けられた処理を、当該構成要素に係る画像データに対して実行する(S109)。これにより、あらかじめ所望のレベルの構成要素を指定しておき、情報入力装置上で表示装置に表示された画像データに対する処理を実行する場合には、その構成要素を指定するようにすれば良いことから、画像データに対する処理についての処理領域指定の簡便化を図ることができる。
【選択図】 図6
To simplify processing area designation for processing of image data displayed on a display device.
Image data is analyzed according to a specified extraction level to extract constituent elements (S104), the extracted constituent elements are superimposed on the image data and displayed on a display device (S105), and superimposed on the image data. When the displayed component is designated by the pointing member via the information input device (Yes in S108), the process associated with the designated component is executed on the image data related to the component (S109). Thereby, a component of a desired level is designated in advance, and when executing processing for image data displayed on the display device on the information input device, the component may be designated. Therefore, it is possible to simplify the process area designation for the process for the image data.
[Selection] Figure 6

Description

本発明は、画像処理装置、プログラムおよび画像データ処理方法に関する。   The present invention relates to an image processing apparatus, a program, and an image data processing method.

従来、原稿画像を読み取るスキャナ、スキャナで読み取った原稿画像を印刷する複写機、外部から入力された画像データを印刷するプリンタやファクシミリ装置、あるいは、これらの機能を兼ね備えた複合機などの画像処理装置が用いられている。   Conventionally, an image processing apparatus such as a scanner for reading an original image, a copying machine for printing an original image read by the scanner, a printer or a facsimile apparatus for printing image data input from the outside, or a multifunction machine having these functions Is used.

近年、この種の画像処理装置にあっては、原稿画像中の各種画像領域の中から自由に画像領域を選択することができ、かつ、選択された画像領域毎に画像特性の調整内容を指定することができるようにしたものが提案されている(例えば、特許文献1参照)。   In recent years, in this type of image processing apparatus, it is possible to freely select an image area from various image areas in a document image, and to specify adjustment contents of image characteristics for each selected image area The thing which made it possible to do is proposed (for example, refer patent document 1).

また、スキャナで読み取った原稿画像を画像処理装置の操作パネルの表示部に表示し、表示された原稿画像中の画像領域について、領域削除、領域移動、領域反転等の編集作業を行うことも考えられている。   It is also possible to display the original image read by the scanner on the display unit of the operation panel of the image processing apparatus, and to perform editing operations such as area deletion, area movement, and area inversion on the image area in the displayed original image. It has been.

特開2002−112022号公報JP 2002-112022 A

ところで、上述したような画像処理(濃度/色の調整など)や編集作業(領域削除、領域移動、領域反転等)においては、PC(Personal Computer)のように表示部が広く、多くの情報を表示することができ、ポインティングデバイスとしてマウスのように位置を細かく指定できるものを持っている場合に、領域指定を容易に行うことができる。   By the way, in the above-described image processing (density / color adjustment, etc.) and editing work (area deletion, area movement, area inversion, etc.), a display unit is wide like a PC (Personal Computer), and a large amount of information is stored. When there is a pointing device that can be finely designated like a mouse as a pointing device, the area can be designated easily.

しかしながら、複合機などの画像処理装置の操作パネルのように、表示部が狭くそれほど多くの情報が表示できず、表示部上のタッチパネルを指で指定するために細かい位置指定が困難な装置では、領域指定の作業が難しいという問題がある。   However, like an operation panel of an image processing apparatus such as a multi-function device, the display unit is narrow and cannot display so much information, and a device on which a detailed position specification is difficult to specify with a finger on the touch panel on the display unit, There is a problem that it is difficult to specify an area.

本発明は、上記に鑑みてなされたものであって、表示装置に表示された画像データに対する処理についての処理領域指定の簡便化を図ることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to simplify the designation of a processing area for processing on image data displayed on a display device.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明の画像処理装置は、画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理を行う画像処理装置において、前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定手段と、この抽出レベル指定手段により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出手段と、この構成要素抽出手段により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示手段と、この構成要素表示手段により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行手段と、を備える。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to a first aspect of the present invention provides the display according to an operation by an instruction member for an information input device disposed in a display device that displays image data. In an image processing apparatus that performs processing on the image data displayed on the apparatus, an extraction level designating unit that designates an extraction level for a component constituting the image data, and an extraction level designated by the extraction level designating unit A component extracting unit that analyzes the image data and extracts the component, and a component that displays the component extracted by the component extracting unit on the display device so as to overlap the image data Display means, and the constituent element displayed on the display device by the constituent element display means so as to overlap the image data. If specified by the pointing member through a device provided with a associated with the specified the component processing, a process execution means for executing on the image data relating to the component, the.

また、請求項2にかかる発明は、請求項1記載の画像処理装置において、前記構成要素表示手段は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the constituent element display means displays a frame indicating the constituent element in a superimposed manner on the image data.

また、請求項3にかかる発明は、請求項1記載の画像処理装置において、前記構成要素表示手段は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する。   According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the component display means changes the color in the component and displays the image data in a superimposed manner.

また、請求項4にかかる発明は、請求項1ないし3のいずれか一記載の画像処理装置において、前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる。   According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, when there are a plurality of processes associated with the component, the component is associated with the component. A list of processes is displayed on the display device, and a process associated with the desired component is selected by an instruction from the instruction member via the information input apparatus.

また、請求項5にかかる発明は、請求項4記載の画像処理装置において、前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示される。   According to a fifth aspect of the present invention, in the image processing apparatus according to the fourth aspect, the processes associated with the constituent elements are displayed as a list on the display device in a balloon display.

また、請求項6にかかる発明は、請求項1ないし5のいずれか一記載の画像処理装置において、前記抽出レベル指定手段は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   According to a sixth aspect of the present invention, in the image processing device according to any one of the first to fifth aspects, the extraction level designating unit configures the image data based on a display size in the display device. Specifies the extraction level for the element.

また、請求項7にかかる発明は、請求項1ないし5のいずれか一記載の画像処理装置において、前記抽出レベル指定手段は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects, the extraction level designating unit extracts the constituent elements constituting the image data according to an editing function. Specify the level.

また、請求項8にかかる発明のプログラムは、画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理をコンピュータに実行させるプログラムであって、前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定機能と、この抽出レベル指定機能により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出機能と、この構成要素抽出機能により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示機能と、この構成要素表示機能により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行機能と、を前記コンピュータに実行させる。   According to an eighth aspect of the present invention, there is provided a program for performing processing on the image data displayed on the display device in response to an operation by an instruction member for an information input device disposed on the display device for displaying the image data. A program to be executed, an extraction level designating function for designating an extraction level for a component constituting the image data, and analyzing the image data according to the extraction level designated by the extraction level designating function, A component extraction function for extracting a component, a component display function for displaying the component extracted by the component extraction function on the display device so as to overlap the image data, and the component display function The component displayed on the display device so as to overlap the image data is transmitted through the information input device. If specified by the wood, it was associated with the specified the component processing to execute a process execution function to be executed for the image data relating to the components, to the computer.

また、請求項9にかかる発明は、請求項8記載のプログラムにおいて、前記構成要素表示機能は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する。   According to a ninth aspect of the present invention, in the program according to the eighth aspect, the component display function displays a frame indicating the component superimposed on the image data.

また、請求項10にかかる発明は、請求項8記載のプログラムにおいて、前記構成要素表示機能は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する。   According to a tenth aspect of the present invention, in the program according to the eighth aspect, the component display function changes the color in the component and displays the image data in a superimposed manner.

また、請求項11にかかる発明は、請求項8ないし10のいずれか一記載のプログラムにおいて、前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる。   Further, in the invention according to claim 11, in the program according to any one of claims 8 to 10, when there are a plurality of processes associated with the component, the process associated with the component is performed. A list is displayed on the display device, and a process associated with the desired component is selected by an instruction from the instruction member via the information input device.

また、請求項12にかかる発明は、請求項11記載のプログラムにおいて、前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示させる。   According to a twelfth aspect of the present invention, in the program according to the eleventh aspect, the process associated with the component is displayed as a list on the display device in a balloon display.

また、請求項13にかかる発明は、請求項8ないし12のいずれか一記載のプログラムにおいて、前記抽出レベル指定機能は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   According to a thirteenth aspect of the present invention, in the program according to any one of the eighth to twelfth aspects, the extraction level designating function is for the constituent elements constituting the image data based on a display size in the display device. Specify the extraction level.

また、請求項14にかかる発明は、請求項8ないし12のいずれか一記載のプログラムにおいて、前記抽出レベル指定機能は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   According to a fourteenth aspect of the present invention, in the program according to any one of the eighth to twelfth aspects, the extraction level designation function sets an extraction level for the constituent elements constituting the image data in accordance with an editing function. specify.

また、請求項15にかかる発明の画像データ処理方法は、画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理を行う画像処理装置における画像データ処理方法であって、前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定工程と、この抽出レベル指定工程により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出工程と、この構成要素抽出工程により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示工程と、この構成要素表示工程により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行工程と、を含む。   According to a fifteenth aspect of the present invention, there is provided an image data processing method for processing the image data displayed on the display device in response to an operation by an instruction member for an information input device disposed on the display device for displaying the image data. An image data processing method in an image processing apparatus for performing an extraction level designating process for designating an extraction level for a component constituting the image data, and according to the extraction level designated by the extraction level designating process A component extraction step of analyzing the image data to extract the component, and a component display step of displaying the component extracted by the component extraction step on the display device so as to overlap the image data; The component displayed on the display device in an overlapping manner with the image data by the component display step is the information input device. If specified by the pointing member through, including associated with the specified the component processing, a processing execution step to be executed for the image data relating to the component, the.

また、請求項16にかかる発明は、請求項15記載の画像データ処理方法において、前記構成要素表示工程は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する。   According to a sixteenth aspect of the present invention, in the image data processing method according to the fifteenth aspect, the component element display step displays a frame indicating the component element so as to overlap the image data.

また、請求項17にかかる発明は、請求項15記載の画像データ処理方法において、前記構成要素表示工程は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する。   According to a seventeenth aspect of the present invention, in the image data processing method according to the fifteenth aspect, the component display step changes the color in the component and superimposes it on the image data.

また、請求項18にかかる発明は、請求項15ないし17のいずれか一記載の画像データ処理方法において、前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる。   In the image data processing method according to any one of claims 15 to 17, when there are a plurality of processes associated with the component, the invention according to claim 18 is associated with the component. The processing is displayed as a list on the display device, and the processing associated with the desired component is selected by an instruction from the instruction member via the information input device.

また、請求項19にかかる発明は、請求項18記載の画像データ処理方法において、前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示される。   According to a nineteenth aspect of the present invention, in the image data processing method according to the eighteenth aspect, the processes associated with the constituent elements are displayed as a list on the display device in a balloon display.

また、請求項20にかかる発明は、請求項15ないし19のいずれか一記載の画像データ処理方法において、前記抽出レベル指定工程は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   The invention according to claim 20 is the image data processing method according to any one of claims 15 to 19, wherein the extraction level designation step configures the image data based on a display size in the display device. Specify the extraction level for the component.

また、請求項21にかかる発明は、請求項15ないし19のいずれか一記載の画像データ処理方法において、前記抽出レベル指定工程は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する。   The invention according to claim 21 is the image data processing method according to any one of claims 15 to 19, wherein the extraction level designating step is performed on the constituent elements constituting the image data according to an editing function. Specify the extraction level.

請求項1にかかる発明によれば、指定された抽出レベルに応じて画像データを解析して構成要素を抽出し、抽出した構成要素を画像データに重ねて表示装置に表示し、画像データに重ねて表示された構成要素が情報入力装置を介して指示部材によって指定された場合、指定された構成要素に対応付けられた処理を、当該構成要素に係る画像データに対して実行することにより、あらかじめ所望のレベルの構成要素を指定しておき、情報入力装置上で表示装置に表示された画像データに対する処理を実行する場合には、その構成要素を指定するようにすれば良いことから、画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the first aspect of the present invention, image data is analyzed in accordance with a specified extraction level to extract a component, the extracted component is superimposed on the image data and displayed on the display device, and is superimposed on the image data. When the component displayed in this manner is designated by the pointing member via the information input device, the process associated with the designated component is executed on the image data related to the component in advance. When a component of a desired level is specified and processing is performed on image data displayed on the display device on the information input device, the component may be specified. There is an effect that it is possible to simplify the designation of the processing area for the processing for the above.

また、請求項2にかかる発明によれば、構成要素を示す枠を画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   In addition, according to the second aspect of the present invention, there is an effect that it is possible to intuitively specify a region by displaying a frame indicating a constituent element superimposed on the image data.

また、請求項3にかかる発明によれば、構成要素内の色を変更して画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   Further, according to the invention of claim 3, there is an effect that the area can be specified intuitively by changing the color in the component and displaying it by superimposing it on the image data.

また、請求項4にかかる発明によれば、構成要素に対応付けられた処理が複数ある場合には、構成要素に対応付けられた処理を表示装置に一覧表示させ、情報入力装置を介した指示部材による指示によって所望の構成要素に対応付けられた処理を選択させることにより、所望の構成要素にかかる画像データに対して所望の処理を実行することができるという効果を奏する。   According to the invention of claim 4, when there are a plurality of processes associated with the component, the process associated with the component is displayed in a list on the display device, and an instruction is sent via the information input device. By selecting a process associated with a desired component by an instruction from a member, there is an effect that the desired process can be executed on the image data relating to the desired component.

また、請求項5にかかる発明によれば、構成要素に対応付けられた処理は、バルーン表示にて表示装置に一覧表示されることにより、処理選択を容易に行わせることができるという効果を奏する。   According to the invention of claim 5, the process associated with the constituent element is displayed in a list on the display device in a balloon display, so that the process can be easily selected. .

また、請求項6にかかる発明によれば、表示装置における表示サイズに基づいて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the sixth aspect of the present invention, by specifying the extraction level for the constituent elements constituting the image data based on the display size in the display device, it is possible to further simplify the processing area designation for the processing for the image data. There is an effect that can be achieved.

また、請求項7にかかる発明によれば、編集機能に応じて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the seventh aspect of the present invention, it is possible to further simplify the process area designation for the processing on the image data by designating the extraction level for the constituent elements constituting the image data in accordance with the editing function. There is an effect that can be.

また、請求項8にかかる発明によれば、指定された抽出レベルに応じて画像データを解析して構成要素を抽出し、抽出した構成要素を画像データに重ねて表示装置に表示し、画像データに重ねて表示された構成要素が情報入力装置を介して指示部材によって指定された場合、指定された構成要素に対応付けられた処理を、当該構成要素に係る画像データに対して実行することにより、あらかじめ所望のレベルの構成要素を指定しておき、情報入力装置上で表示装置に表示された画像データに対する処理を実行する場合には、その構成要素を指定するようにすれば良いことから、画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the invention of claim 8, the image data is analyzed according to the designated extraction level to extract the constituent elements, and the extracted constituent elements are displayed on the display device so as to overlap the image data. When the component displayed in a superimposed manner is designated by the instruction member via the information input device, the processing associated with the designated component is executed on the image data related to the component Since a component of a desired level is designated in advance and processing is performed on image data displayed on the display device on the information input device, the component may be designated. There is an effect that it is possible to simplify the designation of a processing area for processing on image data.

また、請求項9にかかる発明によれば、構成要素を示す枠を画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   In addition, according to the ninth aspect of the invention, there is an effect that it is possible to intuitively specify a region by displaying a frame indicating a constituent element so as to be superimposed on the image data.

また、請求項10にかかる発明によれば、構成要素内の色を変更して画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   According to the tenth aspect of the present invention, there is an effect that it is possible to intuitively specify a region by changing the color in the component and displaying the image superimposed on the image data.

また、請求項11にかかる発明によれば、構成要素に対応付けられた処理が複数ある場合には、構成要素に対応付けられた処理を表示装置に一覧表示させ、情報入力装置を介した指示部材による指示によって所望の構成要素に対応付けられた処理を選択させることにより、所望の構成要素にかかる画像データに対して所望の処理を実行することができるという効果を奏する。   According to the invention of claim 11, when there are a plurality of processes associated with the constituent element, the processes associated with the constituent element are displayed in a list on the display device, and an instruction via the information input device is provided. By selecting a process associated with a desired component by an instruction from a member, there is an effect that the desired process can be executed on the image data relating to the desired component.

また、請求項12にかかる発明によれば、構成要素に対応付けられた処理は、バルーン表示にて表示装置に一覧表示されることにより、処理選択を容易に行わせることができるという効果を奏する。   According to the twelfth aspect of the present invention, the processes associated with the constituent elements are displayed as a list on the display device in a balloon display, thereby providing an effect that the process can be easily selected. .

また、請求項13にかかる発明によれば、表示装置における表示サイズに基づいて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the thirteenth aspect of the present invention, by specifying the extraction level for the components constituting the image data on the basis of the display size in the display device, it is possible to further simplify the processing area designation for the processing on the image data. There is an effect that can be achieved.

また、請求項14にかかる発明によれば、編集機能に応じて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the fourteenth aspect of the present invention, it is possible to further simplify the designation of the processing area for the processing on the image data by designating the extraction level for the components constituting the image data in accordance with the editing function. There is an effect that can be.

また、請求項15にかかる発明によれば、指定された抽出レベルに応じて画像データを解析して構成要素を抽出し、抽出した構成要素を画像データに重ねて表示装置に表示し、画像データに重ねて表示された構成要素が情報入力装置を介して指示部材によって指定された場合、指定された構成要素に対応付けられた処理を、当該構成要素に係る画像データに対して実行することにより、あらかじめ所望のレベルの構成要素を指定しておき、情報入力装置上で表示装置に表示された画像データに対する処理を実行する場合には、その構成要素を指定するようにすれば良いことから、画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the fifteenth aspect of the present invention, the image data is analyzed according to the specified extraction level to extract the component, and the extracted component is superimposed on the image data and displayed on the display device. When the component displayed in a superimposed manner is designated by the instruction member via the information input device, the processing associated with the designated component is executed on the image data related to the component Since a component of a desired level is designated in advance and processing is performed on image data displayed on the display device on the information input device, the component may be designated. There is an effect that it is possible to simplify the designation of a processing area for processing on image data.

また、請求項16にかかる発明によれば、構成要素を示す枠を画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   According to the sixteenth aspect of the present invention, there is an effect that it is possible to intuitively specify a region by displaying a frame indicating a constituent element so as to be superimposed on the image data.

また、請求項17にかかる発明によれば、構成要素内の色を変更して画像データに重ね合わせて表示することにより、領域指定を直感的に行うことができるという効果を奏する。   According to the seventeenth aspect of the present invention, there is an effect that it is possible to intuitively specify a region by changing the color in the component and displaying it superimposed on the image data.

また、請求項18にかかる発明によれば、構成要素に対応付けられた処理が複数ある場合には、構成要素に対応付けられた処理を表示装置に一覧表示させ、情報入力装置を介した指示部材による指示によって所望の構成要素に対応付けられた処理を選択させることにより、所望の構成要素にかかる画像データに対して所望の処理を実行することができるという効果を奏する。   According to the invention of claim 18, when there are a plurality of processes associated with a component, the processes associated with the component are displayed in a list on the display device, and an instruction is sent via the information input device. By selecting a process associated with a desired component by an instruction from a member, there is an effect that the desired process can be executed on the image data relating to the desired component.

また、請求項19にかかる発明によれば、構成要素に対応付けられた処理は、バルーン表示にて表示装置に一覧表示されることにより、処理選択を容易に行わせることができるという効果を奏する。   According to the nineteenth aspect of the invention, the process associated with the component is displayed as a list on the display device in a balloon display, so that the process can be easily selected. .

また、請求項20にかかる発明によれば、表示装置における表示サイズに基づいて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the twentieth aspect of the present invention, by specifying the extraction level for the constituent elements constituting the image data based on the display size in the display device, it is possible to further simplify the processing area designation for the processing on the image data. There is an effect that can be achieved.

また、請求項21にかかる発明によれば、編集機能に応じて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができるという効果を奏する。   According to the twenty-first aspect of the present invention, it is possible to further simplify the designation of the processing area for the processing on the image data by designating the extraction level for the constituent elements constituting the image data in accordance with the editing function. There is an effect that can be.

以下に添付図面を参照して、この発明にかかる画像処理装置、プログラムおよび画像データ処理方法の最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, a program, and an image data processing method according to the present invention will be explained below in detail with reference to the accompanying drawings.

[第1の実施の形態]
本発明の第1の実施の形態を図1ないし図7に基づいて説明する。本実施の形態は画像処理装置として、コピー機能、ファクシミリ(FAX)機能、プリント機能、スキャナ機能及び入力画像(スキャナ機能による読み取り原稿画像やプリンタあるいはFAX機能により入力された画像)を配信する機能等を複合したいわゆるMFP(Multi Function Peripheral)と称される複合機を適用した例である。
[First Embodiment]
A first embodiment of the present invention will be described with reference to FIGS. In this embodiment, as an image processing apparatus, a copy function, a facsimile (FAX) function, a print function, a scanner function, an input image (a document image read by a scanner function, an image input by a printer or a FAX function), etc. This is an example to which a so-called MFP (Multi Function Peripheral) that combines the above is applied.

図1は、本発明の第1の実施の形態にかかる複合機10の機能ブロック図である。図1に示す複合機10は、スキャナ11、ADF(オート・ドキュメント・フィーダ)111、スキャナコントローラ112、画像記憶部12、画像処理部13、プリンタ14、プリンタコントローラ142、仕上げ処理部141、情報入出力装置である操作表示部15、操作表示制御部151、システム制御部16、および通信制御部17を備える。また、複合機10は、通信制御部17を介してネットワーク18と接続されている。そして、複合機10は、原稿19の画像を読み取って画像処理を施した後、印刷物20として出力する。さらに、複合機10は、画像解析部21と特定領域抽出部22とを備えている。   FIG. 1 is a functional block diagram of a multifunction machine 10 according to the first embodiment of the present invention. 1 includes a scanner 11, an ADF (Auto Document Feeder) 111, a scanner controller 112, an image storage unit 12, an image processing unit 13, a printer 14, a printer controller 142, a finishing processing unit 141, an information input unit. An operation display unit 15, an operation display control unit 151, a system control unit 16, and a communication control unit 17 that are output devices are provided. The multifunction machine 10 is connected to the network 18 via the communication control unit 17. Then, the multifunction machine 10 reads the image of the document 19 and performs image processing, and then outputs it as a printed matter 20. Further, the multifunction machine 10 includes an image analysis unit 21 and a specific area extraction unit 22.

システム制御部16は、各構成部と接続されていて、複合機10全体の制御を行うものである。このシステム制御部16は、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成されており、CPUがROMに格納されたプログラムに基づいてRAMのワーク領域を利用しながら動作することにより、各種処理が実行される。   The system control unit 16 is connected to each component unit and controls the entire multifunction machine 10. The system control unit 16 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like (not shown), and the CPU is based on a program stored in the ROM. Various processes are executed by operating while using the work area.

なお、複合機10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。この場合、システム制御部16のCPUが上記記憶媒体からプログラムを読み出して主記憶装置(図示せず)上にロードすることで、複合機10に各種の機能を実現させる。また、プログラムを、インターネット等のネットワーク18に接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしても良い。または、プログラムをインターネット等のネットワーク経由で提供若しくは配布するようにしても良い。   The program executed in the multifunction machine 10 is an installable or executable file and can be read by a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (digital Versatile Disk). The program may be recorded on a recording medium. In this case, the CPU of the system control unit 16 reads the program from the storage medium and loads it on a main storage device (not shown), thereby causing the multifunction peripheral 10 to realize various functions. Further, the program may be provided by being stored on a computer connected to the network 18 such as the Internet and downloaded via the network. Alternatively, the program may be provided or distributed via a network such as the Internet.

通信制御部17は、LAN(ローカル・エリア・ネットワーク)やインターネットなどのネットワーク18と接続され、通信プロトコルに従ってネットワークに接続された他の機器との間で画像データや制御データ等のやり取りを行うものである。   The communication control unit 17 is connected to a network 18 such as a LAN (local area network) or the Internet, and exchanges image data, control data, and the like with other devices connected to the network according to a communication protocol. It is.

スキャナコントローラ112は、システム制御部16の命令を受け、スキャナ11を制御する。   The scanner controller 112 receives a command from the system control unit 16 and controls the scanner 11.

スキャナ11は、スキャナコントローラ112に制御され、原稿19のイメージをデジタル画像データに変換する。なお、ADF111は、セットされた複数ページの原稿をスキャナ11の読取位置に1枚ずつ順に繰り出すことができるので、このADF111を用いることにより、スキャナ11は複数ページの原稿を連続して自動的に読み込みを行うことができる。また、ADF111は、用紙の片面に印刷された片面原稿だけでなく、両面に印刷された両面原稿を反転させてスキャナ11に送り出すことができるので、スキャナ11に両面原稿を読み込ませることが可能である。   The scanner 11 is controlled by the scanner controller 112 and converts the image of the document 19 into digital image data. The ADF 111 can sequentially feed a set of multiple pages of documents to the reading position of the scanner 11 one by one. By using this ADF 111, the scanner 11 automatically and continuously prints multiple pages of documents. Can read. In addition, since the ADF 111 can invert not only a single-sided original printed on one side of a sheet but also a double-sided original printed on both sides and send it to the scanner 11, the scanner 11 can read a double-sided original. is there.

画像記憶部12は、システム制御部16の命令を受け、スキャナ11で読み取った画像データや、ネットワーク18を介して外部から入力された画像データ等を一時的に保存しておくバッファメモリである。本実施の形態の複合機10は、自身の備えるスキャナ11から読み取った画像データ及び、ネットワーク18を介するなどして外部から入力された画像データのいずれをも処理して画像形成することができる。   The image storage unit 12 is a buffer memory that temporarily stores image data read by the scanner 11 in response to an instruction from the system control unit 16, image data input from the outside via the network 18, and the like. The multifunction machine 10 of this embodiment can form an image by processing both image data read from the scanner 11 provided therein and image data input from the outside via the network 18 or the like.

画像処理部13は、スキャナ11から送られて画像記憶部12に一時的に保存された多値データに対して、システム制御部16の命令を受け、γ補正やMTF補正処理等を施した後、スライス処理やディザ処理のような階調処理を施して2値(または多値)化処理を施す。また、画像処理部13は、ユーザが設定した機能に対応した各種の画像処理(拡大/縮小、濃度/色の調整など)、画像領域編集処理(領域削除、領域移動、領域反転など)やレイアウト加工処理(両面印刷/片面印刷、集約印刷、余白サイズの調整など)を行う。   The image processing unit 13 receives a command from the system control unit 16 on the multi-value data sent from the scanner 11 and temporarily stored in the image storage unit 12 and performs γ correction, MTF correction processing, and the like. Then, gradation processing such as slice processing or dither processing is performed to perform binarization (or multi-value processing). The image processing unit 13 also performs various image processing (enlargement / reduction, density / color adjustment, etc.) corresponding to the function set by the user, image area editing processing (area deletion, area movement, area inversion, etc.) and layout. Processing (double-sided / single-sided printing, aggregate printing, margin size adjustment, etc.) is performed.

画像処理部13は、座標情報取得部131と画面情報生成部132とを備える。座標情報取得部131は、画像記憶部12に格納された入力画像に関する座標情報を取得する。画面情報生成部132は、入力した画像データに従って、後述する表示パネル15bに表示する仕上がり予想画像である仕上がり予想画像情報を生成する。ここで、画面情報生成部132が生成する情報を仕上がり予想画像情報と称するのは、以下に述べるように、印刷する仕上がり予想画像および仕上がり予想画像に関連する処理項目の入力画面のための情報を生成するので、その2つをまとめて仕上がり予想画像情報と称する。   The image processing unit 13 includes a coordinate information acquisition unit 131 and a screen information generation unit 132. The coordinate information acquisition unit 131 acquires coordinate information related to the input image stored in the image storage unit 12. The screen information generation unit 132 generates predicted finished image information, which is a predicted finished image displayed on the display panel 15b described later, according to the input image data. Here, the information generated by the screen information generation unit 132 is referred to as a predicted finished image information. As will be described below, information for an input screen for a predicted finished image to be printed and a processing item related to the predicted finished image is used. Since they are generated, the two are collectively referred to as predicted finished image information.

プリンタコントローラ142は、システム制御部16の命令を受けてプリンタ14を制御する。   The printer controller 142 receives a command from the system control unit 16 and controls the printer 14.

プリンタ14は、プリンタコントローラ142に制御され、画像処理部13で処理された画像データに基づいて光ビームを偏向走査させ、感光体上に形成した静電潜像にトナーを使って現像し、生成されたトナー画像を転写紙に転写して、定着処理を行う電子写真技術を用いたプリンタである。なお、プリンタ14の印刷方式は、電子写真方式のほか、インクジェット方式、昇華型熱転写方式、銀塩写真方式、直接感熱記録方式、溶融型熱転写方式など、様々な方式を用いることができる。   The printer 14 is controlled by the printer controller 142, deflects and scans the light beam based on the image data processed by the image processing unit 13, develops the electrostatic latent image formed on the photoreceptor using toner, and generates it. This is a printer using an electrophotographic technique in which a toner image is transferred onto a transfer sheet and a fixing process is performed. In addition to the electrophotographic method, various methods such as an inkjet method, a sublimation type thermal transfer method, a silver salt photography method, a direct thermal recording method, and a fusion type thermal transfer method can be used as the printing method of the printer 14.

このプリンタ14は、仕上げ処理部141を搭載している。仕上げ処理部141は、自動設定あるいはユーザによる設定を受け付けて、印刷処理が施された印刷物20を部数やページ単位で仕分けを行うソート処理、複数枚の印刷媒体を揃えてステープルで綴じるステープル処理、あるいは、複数枚の印刷媒体をバインダーやファイルに綴じるためのパンチ穴を空けるパンチ穴処理といった仕上げ処理を行う。   The printer 14 includes a finishing processing unit 141. The finishing processing unit 141 accepts automatic setting or setting by the user, sort processing for sorting the printed matter 20 that has been subjected to printing processing by the number of copies or page units, stapling processing for aligning a plurality of print media and binding them with staples, Alternatively, finishing processing such as punching processing for punching holes for binding a plurality of print media into a binder or file is performed.

操作表示制御部151は、システム制御部16の命令を受けて操作表示部15の入出力を制御する。例えば、操作表示制御部151は、画像処理部13によって処理されたデータを、操作表示部15が備えている情報入力装置であるタッチパネル15aおよび表示装置である表示パネル15bに出力制御する。より具体的には、操作表示制御部151は、生成された仕上がり予想画像情報に従って、表示パネル15bに仕上がり予想画像を表示させる。また、操作表示制御部151は、タッチパネル15aからの入力制御を行う。   The operation display control unit 151 receives input from the system control unit 16 and controls input / output of the operation display unit 15. For example, the operation display control unit 151 controls the output of the data processed by the image processing unit 13 to the touch panel 15a that is an information input device provided in the operation display unit 15 and the display panel 15b that is a display device. More specifically, the operation display control unit 151 displays a predicted finished image on the display panel 15b according to the generated predicted finished image information. Further, the operation display control unit 151 performs input control from the touch panel 15a.

操作表示部15は、操作表示制御部151に制御され、タッチパネル15aを介して設定内容の入力を受け付け、仕上がり予想画像や画面の仕上げを設定する設定内容のメニュー項目を表示パネル15bに表示する。   The operation display unit 15 is controlled by the operation display control unit 151, receives input of setting content via the touch panel 15a, and displays a menu item of setting content for setting a predicted finished image and screen finishing on the display panel 15b.

また、操作表示部15は、複合機10で実行したい機能を設定画面のメニュー項目として表示し、表示されたメニュー項目の中からユーザによる設定入力を受け付けるためのものである。例えば、操作表示部15は、原稿の状態に応じたスキャナ11における読み取り条件の設定、読み取った画像データを加工する画像処理部13における設定、プリンタ14における印刷条件の設定、あるいは、印刷後の印刷物に対してソート、ステープル、パンチ穴などの仕上げ処理を行う仕上げ処理部141などの設定を受け付けるものである。   The operation display unit 15 displays functions to be executed by the multifunction machine 10 as menu items on the setting screen, and accepts setting input by the user from the displayed menu items. For example, the operation display unit 15 sets a reading condition in the scanner 11 according to the state of the document, a setting in the image processing unit 13 that processes the read image data, a setting of a printing condition in the printer 14, or a printed matter after printing. The finishing processing unit 141 that performs finishing processing such as sorting, stapling, and punching is received.

表示パネル15bとタッチパネル15aは図面上別々に記載されているが、ここでは一体的に構成する。表示パネル15bが指示部材である操作者の指やスタイラスペンなど(以下ポインタと記す)によって接触される場合、同時にタッチパネル15aは接触入力を受け付ける。操作者の指やスタイラスペンなどによる接触によって、タッチ入力が受け付けられる。ここで、タッチパネル15aは、パネル上に、電気的あるいは磁気的にポインタの接触する位置を検出する。なお、表示パネル15bは、複合機10が備える専有の表示装置を用いても良い。   Although the display panel 15b and the touch panel 15a are illustrated separately in the drawing, they are integrally configured here. When the display panel 15b is touched by an operator's finger, stylus pen, or the like (hereinafter referred to as a pointer) that is an instruction member, the touch panel 15a simultaneously receives a touch input. Touch input is accepted by contact with an operator's finger or stylus pen. Here, the touch panel 15a detects a position where the pointer contacts the panel electrically or magnetically. The display panel 15b may be a dedicated display device provided in the multifunction machine 10.

図2は、複合機10が画像データを入力して生成した仕上がり予想画像の一例を示す模式図である。タッチパネル15aの表示領域401の内部に、仕上がりイメージ402が表示される。   FIG. 2 is a schematic diagram illustrating an example of a predicted finished image generated by inputting image data by the multifunction machine 10. A finished image 402 is displayed in the display area 401 of the touch panel 15a.

ここで、図2に示すように、操作者はポインタを用いて位置403の部分に接触したものとする。操作者が、表示パネル15bに表示された仕上がり予想画像を見ながらポインタで接触することによって、タッチパネル15aは、表示された仕上がり予想画像上の印刷物の仕上がり状態における空間的位置である位置情報の入力を受け付ける。このような場合において、座標情報取得部131は、タッチパネル15aによって受け付けられた位置情報を解析し、ポインタの接触する画像上での座標情報を取得する。   Here, as shown in FIG. 2, it is assumed that the operator uses the pointer to touch the position 403. When the operator touches with a pointer while looking at the predicted finished image displayed on the display panel 15b, the touch panel 15a inputs position information which is a spatial position in the finished state of the printed matter on the displayed predicted finished image. Accept. In such a case, the coordinate information acquisition unit 131 analyzes the position information received by the touch panel 15a, and acquires the coordinate information on the image touched by the pointer.

画像解析部21は、画像記憶部12内に記憶された画像データに対して光学式文字認識を行うOCR(オプティカル・キャラクタ・レコグニッション)処理を実行し、原稿画像の画像属性を表す様々な画像特性値を算出するものである。この画像特性値は、画像関係、レイアウト関係、ADF(自動原稿搬送)関係の3つに大きく分けることが可能である。例えば、画像関係では、画像種類(文字領域、写真領域、イラストあるいはそれらの混合)、使用色(原稿で使用している色情報であり、モノクロ/カラーの区別)、原稿濃度、エッジ量、画素密度(原稿全体における有画素部分の面積比率)、使用文字サイズなどを数値化したものである。   The image analysis unit 21 performs OCR (Optical Character Recognition) processing that performs optical character recognition on the image data stored in the image storage unit 12, and displays various image attributes of the document image. An image characteristic value is calculated. The image characteristic values can be broadly divided into three types: image relationship, layout relationship, and ADF (automatic document conveyance) relationship. For example, in the image relationship, the image type (character area, photographic area, illustration, or a mixture thereof), the color used (color information used in the document, monochrome / color distinction), document density, edge amount, pixel The density (area ratio of the pixel portion in the entire document), the character size used, etc. are quantified.

例えば、画像種類の判定には、特開平5−233873号公報、特開平6−4704号公報などで提案されている方法も用いることができる。また、文字でない部分である非文字要素(罫線・写真・図など)の抽出手法としては、例えば特開平6−20092号公報に記載されている公知技術を用いることができる。概略的には、黒画素連結成分を、その大きさ、形状(縦横比等)等によって文字候補、縦横セパレータ(本来の黒画素からなる領域分割線)、写真または図等に分類判別する。表の枠線の抽出手法としては、例えば特開2001−266068号公報に記載されている公知技術を用いることができる。概略的には、黒画素の連結成分から外接矩形を抽出し、抽出した外接矩形について文字候補の矩形か枠候補の矩形かの分類を行う。そして、文字候補に分類された矩形に対して、その矩形の位置を元画像上で白で埋め、枠候補として残った矩形の枠を抽出し、抽出した枠から表の枠線を抽出する。   For example, the method proposed in Japanese Patent Laid-Open Nos. 5-233873, 6-4704, and the like can be used for determining the image type. As a method for extracting non-character elements (ruled lines, photographs, drawings, etc.) that are non-character parts, a known technique described in, for example, Japanese Patent Laid-Open No. 6-20092 can be used. Schematically, the black pixel connected component is classified and discriminated into character candidates, vertical / horizontal separators (region dividing lines made up of original black pixels), photographs, drawings, and the like according to their sizes, shapes (aspect ratio, etc.). As a method for extracting the frame of the table, for example, a known technique described in JP-A-2001-266068 can be used. Schematically, circumscribed rectangles are extracted from the connected components of black pixels, and the extracted circumscribed rectangles are classified as character candidate rectangles or frame candidate rectangles. Then, for the rectangle classified as the character candidate, the position of the rectangle is filled with white on the original image, the rectangular frame remaining as the frame candidate is extracted, and the table frame line is extracted from the extracted frame.

また、レイアウト関係では、原稿方向(原稿の上下左右の位置関係情報)、原稿サイズ、上下左右の余白寸法、レイアウト情報(段組み原稿か否か)などを数値化したものである。さらに、ADF関係では、原稿のページ数、原稿面(両面原稿/片面原稿の区別)などを数値化したものである。なお、これらの特性値のうち、定量的な値に関しては、平均値や最大値、最小値といった統計的な値も併せて算出して、利用することが可能である。   In addition, the layout relationship is a numerical value of the document direction (positional relationship information on the top, bottom, left, and right of the document), document size, top, bottom, left and right margin dimensions, layout information (whether it is a columnar document) or the like. Further, in the ADF relation, the number of pages of a document, the document surface (a distinction between double-sided documents / single-sided documents), and the like are quantified. Of these characteristic values, as for quantitative values, statistical values such as an average value, a maximum value, and a minimum value can also be calculated and used.

特定領域抽出部22は、画像解析部21で算出された各種の画像特性値に基づいて各種特定領域の抽出を行う。特定領域抽出部22によって抽出された画像データを構成する構成要素である特定領域は、仕上がり予想画像とともに表示パネル15bに表示され、操作者に提示される。操作者への提示は、図3に示すように仕上がり予想画像上に特定領域を示す枠を重ね合わせて表示する、または特定領域内の色を変更して仕上がり予想画像上に重ね合わせて表示することにより行われる。これにより、領域指定を直感的に行うことができる。より詳細には、文字領域は赤色の枠、写真領域は緑色の枠など色を変えて表示したり、特定領域内の画像のRGB値を変更することにより異なる特定領域であることを表示する。なお、特定領域の表示は、操作者が特定領域抽出部22で選択を行う前に表示しても構わないし、ユーザが仕上がり予想画像上の座標を指示したときに、その座標に相当する特定領域を特定領域抽出部22で抽出して表示しても構わない。   The specific area extraction unit 22 extracts various specific areas based on various image characteristic values calculated by the image analysis unit 21. The specific area, which is a constituent element of the image data extracted by the specific area extracting unit 22, is displayed on the display panel 15b together with the predicted finished image and presented to the operator. As shown in FIG. 3, the operator is presented with a frame indicating the specific area superimposed on the predicted finished image as shown in FIG. 3, or displayed on the predicted finished image by changing the color in the specific area. Is done. Thereby, area specification can be performed intuitively. More specifically, the character area is displayed with a different color such as a red frame, and the photograph area is displayed with a green frame, or a different specific area is displayed by changing the RGB value of the image in the specific area. The specific area may be displayed before the operator selects the specific area using the specific area extracting unit 22, and when the user designates coordinates on the predicted finished image, the specific area corresponding to the coordinates is displayed. May be extracted and displayed by the specific area extraction unit 22.

ところで、本実施の形態においては、特定領域をレベル分けしており、特定領域抽出部22は、指定されたレベル(抽出レベル)に応じて特定領域を抽出するようにしている。すなわち、操作表示部15は、特定領域抽出部22での特定領域の抽出の際のレベル指定を受け付け、指定された抽出レベルが操作表示制御部151及びシステム制御部16を介して特定領域抽出部22に出力されるものである。   By the way, in the present embodiment, the specific area is divided into levels, and the specific area extraction unit 22 extracts the specific area according to the designated level (extraction level). In other words, the operation display unit 15 receives a level specification at the time of extraction of the specific region by the specific region extraction unit 22, and the specified extraction level is determined by the specific region extraction unit via the operation display control unit 151 and the system control unit 16. 22 is output.

ここで、指定されたレベルに応じた特定領域の抽出例について説明する。例えば、「レベル1」が指定されている場合には、図4に示すように、文字領域と写真領域とがそれぞれ抽出される。一方、「レベル2」が指定されている場合には、図5に示すように、文字領域中の段落領域と写真領域とがそれぞれ抽出される。文字領域中の段落領域は、例えば、読点“。”で区別可能である。なお、例示した領域以外にも、単語、文字、絵、表、仕切り線などの各種領域の抽出も適宜設定可能である。このように構成要素の区切り方により領域が変化することになる。   Here, an example of extracting a specific area corresponding to the specified level will be described. For example, when “level 1” is designated, a character area and a photograph area are extracted as shown in FIG. On the other hand, when “level 2” is designated, as shown in FIG. 5, the paragraph area and the photographic area in the character area are respectively extracted. The paragraph area in the character area can be distinguished by a punctuation mark “.”, For example. In addition to the exemplified areas, extraction of various areas such as words, characters, pictures, tables, and partition lines can be set as appropriate. In this way, the area changes depending on how the components are separated.

次に、システム制御部16のCPUがROMに格納されたプログラムに基づいて動作することにより実現される画像形成処理について説明する。   Next, an image forming process realized by the CPU of the system control unit 16 operating based on a program stored in the ROM will be described.

図6は、本実施の形態に係る画像形成処理の流れを示すフローチャートである。図6に示すように、画像形成処理は、入力された画像データを画像記憶部12に記憶させ(ステップS101)、表示パネル15bに表示する予想画像情報(画像データ)を画面情報生成部132に生成させ(ステップS102)、予想画像情報に基づく仕上がり予想画像を表示パネル15bに表示させるとともに(ステップS103)、特定領域抽出部22によって特定領域を抽出させ(ステップS104)、抽出された特定領域を仕上がり予想画像とともに表示パネル15bに表示させる(ステップS105)。ここに、構成要素抽出手段及び構成要素表示手段の機能が実行される。   FIG. 6 is a flowchart showing a flow of image forming processing according to the present embodiment. As shown in FIG. 6, in the image forming process, the input image data is stored in the image storage unit 12 (step S101), and the predicted image information (image data) to be displayed on the display panel 15b is stored in the screen information generation unit 132. The generated predicted image based on the predicted image information is displayed on the display panel 15b (step S103), and the specific area is extracted by the specific area extracting unit 22 (step S104). It is displayed on the display panel 15b together with the predicted finished image (step S105). Here, the functions of the component extraction means and the component display means are executed.

ここで、ステップS104において抽出される特定領域は、操作表示部15におい既にて受け付けられているレベル指定に応じた特定領域が指定されている。例えば、表示パネル15bに表示されている仕上がり予想画像の文字色を変更する場合について説明する。原稿が文書画像であった場合には、“文字”、“単語”、“文字行”、“段落領域”、“文字領域”というような各種の画像属性を表す特定領域のいずれかが、指定されたレベルに応じて指定される。   Here, as the specific area extracted in step S104, a specific area corresponding to the level designation already accepted in the operation display unit 15 is designated. For example, a case where the character color of the predicted finished image displayed on the display panel 15b is changed will be described. When the document is a document image, one of the specific areas representing various image attributes such as “character”, “word”, “character line”, “paragraph area”, and “character area” is designated. Specified according to the specified level.

ここで、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS106のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS110)。   Here, when it is determined that the print command is received by pressing the execution button on the touch panel 15a when the operator determines to execute printing (Yes in step S106), the printer 14 executes printing. The finishing processing unit 141 is subjected to finishing processing (step S110).

一方、印刷命令を受け付けたと判断しない場合に(ステップS106のNo)、操作者がタッチパネル15aに触れて接触入力を行い、座標情報取得部131が座標情報を取得した場合には(ステップS107のYes)、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域であるか否かを判断する(ステップS108)。   On the other hand, when it is not determined that the print command has been received (No in step S106), when the operator touches the touch panel 15a to make a contact input and the coordinate information acquisition unit 131 acquires the coordinate information (Yes in step S107). It is determined whether or not the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (step S108).

取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域でない場合には(ステップS108のNo)、ステップS106に戻る。   If the acquired coordinate information is not the specific area displayed on the display panel 15b together with the predicted finished image (No in step S108), the process returns to step S106.

一方、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域である場合には(ステップS108のYes)、特定領域に対応付けられた処理を実行し(ステップS109:処理実行手段)、ステップS106に戻る。特定領域に対応付けられた処理とは、例えば仕上がり予想画像の文字色を変更する処理や特定領域の削除、拡大/縮小などの処理である。   On the other hand, when the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (Yes in step S108), a process associated with the specific area is executed (step S109: process execution). Means), the process returns to step S106. The process associated with the specific area is, for example, a process of changing the character color of the predicted finished image, a process of deleting the specific area, enlargement / reduction, or the like.

なお、特定領域に対応付けられた処理が複数ある場合には、図7に示すように、特定領域に対応付けられた処理を一覧表示したバルーン表示Xを表示パネル15bに表示させ、操作者に所望の特定領域に対応付けられた処理を選択させるようにすれば良い。これにより、所望の構成要素にかかる画像データに対して所望の処理を実行することができる。また、構成要素に対応付けられた処理は、バルーン表示にて表示パネル15bに一覧表示されることにより、処理選択を容易に行わせることができる。   If there are a plurality of processes associated with the specific area, as shown in FIG. 7, a balloon display X displaying a list of processes associated with the specific area is displayed on the display panel 15b, and the operator What is necessary is just to make it select the process matched with the desired specific area | region. Thereby, a desired process can be executed on the image data relating to the desired component. In addition, the processes associated with the constituent elements can be easily selected by being displayed as a list on the display panel 15b in a balloon display.

その後、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS106のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS110)。   Thereafter, when it is determined that the print command is received by pressing the execution button on the touch panel 15a when the operator determines to execute printing (Yes in step S106), the printer 14 executes the printing and finishes. A finishing process is performed on the processing unit 141 (step S110).

このように本実施の形態によれば、指定された抽出レベルに応じて画像データを解析して構成要素を抽出し、抽出した構成要素を画像データに重ねて表示パネル15bに表示し、画像データに重ねて表示された構成要素がタッチパネル15aを介してポインタによって指定された場合、指定された構成要素に対応付けられた処理を、当該構成要素に係る画像データに対して実行することにより、あらかじめ所望のレベルの構成要素を指定しておき、タッチパネル15a上で表示パネル15bに表示された画像データに対する処理を実行する場合には、その構成要素を指定するようにすれば良いことから、画像データに対する処理についての処理領域指定の簡便化を図ることができる。   As described above, according to the present embodiment, the image data is analyzed according to the designated extraction level to extract the constituent elements, and the extracted constituent elements are displayed on the display panel 15b so as to overlap the image data. When the component displayed in an overlapping manner is designated by the pointer via the touch panel 15a, by executing the processing associated with the designated component on the image data related to the component, When a component of a desired level is designated and processing is performed on the image data displayed on the display panel 15b on the touch panel 15a, the component may be designated. Therefore, it is possible to simplify the process area designation for the process for.

[第2の実施の形態]
次に、本発明の第2の実施の形態を図8および図9に基づいて説明する。なお、前述した第1の実施の形態と同じ部分は同じ符号で示し説明も省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. The same parts as those in the first embodiment described above are denoted by the same reference numerals, and description thereof is also omitted.

本実施の形態は、特定領域抽出部22で抽出する特定領域の指定(すなわち、レベルの指定)を、表示パネル15bにおける表示サイズで切り替えるようにしたものである。   In the present embodiment, the designation of the specific area (that is, the designation of the level) extracted by the specific area extraction unit 22 is switched according to the display size on the display panel 15b.

図8は、本実施の形態に係る画像形成処理の流れを示すフローチャートである。図8に示すように、画像形成処理は、入力された画像データを画像記憶部12に記憶させ(ステップS201)、表示パネル15bに表示する予想画像情報を画面情報生成部132に生成させ(ステップS202)、予想画像情報に基づく仕上がり予想画像を表示パネル15bに表示させるとともに(ステップS203)、表示パネル15bにおける表示サイズに基づいて特定領域抽出部22で抽出する特定領域の指定(すなわち、レベルの指定)を行った後(ステップS204)、特定領域抽出部22によって特定領域を抽出させ(ステップS205)、抽出された特定領域を仕上がり予想画像とともに表示パネル15bに表示させる(ステップS206)。ここに、構成要素抽出手段及び構成要素表示手段の機能が実行される。   FIG. 8 is a flowchart showing a flow of image forming processing according to the present embodiment. As shown in FIG. 8, the image forming process stores the input image data in the image storage unit 12 (step S201), and causes the screen information generation unit 132 to generate predicted image information to be displayed on the display panel 15b (step S201). (S202) The final predicted image based on the predicted image information is displayed on the display panel 15b (step S203), and the specific area extraction unit 22 specifies the specific area to be extracted based on the display size on the display panel 15b (that is, the level After specifying (step S204), the specific area extraction unit 22 extracts the specific area (step S205), and the extracted specific area is displayed on the display panel 15b together with the predicted finished image (step S206). Here, the functions of the component extraction means and the component display means are executed.

ここで、ステップS204における特定領域抽出部22で抽出する特定領域の指定(すなわち、レベルの指定)方法について説明する。本実施の形態においては、表示サイズとその時に表示される特定領域の対応を、図9に示すようなテーブルT1に従って決定する。テーブルT1によれば、表示サイズが100%の場合には特定領域として“段落”、“表”、“絵”、“写真”、“仕切り線”が指定され、表示サイズが125%の場合には特定領域として“文章”のみが指定され、表示サイズが150%の場合には特定領域として“単語”のみが指定され、表示サイズが175%の場合には特定領域として“文字”のみが指定されている。すなわち、図9に示すようなテーブルT1によれば、表示サイズが拡大されればされる程、特定領域として細かな領域が指定されることになる。なお、操作開始時には、表示サイズの初期値として、100%が設定されている。   Here, a method for specifying a specific area (that is, specifying a level) to be extracted by the specific area extracting unit 22 in step S204 will be described. In the present embodiment, the correspondence between the display size and the specific area displayed at that time is determined according to a table T1 as shown in FIG. According to the table T1, when the display size is 100%, “paragraph”, “table”, “picture”, “photo”, “partition line” are designated as specific areas, and when the display size is 125%. Only "text" is specified as the specific area, only "word" is specified as the specific area when the display size is 150%, and only "character" is specified as the specific area when the display size is 175% Has been. That is, according to the table T1 as shown in FIG. 9, as the display size is enlarged, a finer region is designated as the specific region. At the start of operation, 100% is set as the initial display size.

ここで、操作者が表示パネル15bにおける抽出された特定領域及び仕上がり予想画像が小さいと判断した場合に、画面上に用意されている変倍ボタンやテンキー(いずれも図示せず)からの数値入力により、変倍命令を受け付けたと判断した場合には(ステップS207のYes)、入力に従って倍率を決定し(ステップS208)、その倍率で表示パネル15bに表示する予想画像情報を画面情報生成部132に生成させる(ステップS202)。   Here, when the operator determines that the extracted specific area and the predicted finished image on the display panel 15b are small, numerical input from a scaling button or a numeric keypad (both not shown) prepared on the screen Therefore, if it is determined that the scaling command has been received (Yes in step S207), the magnification is determined according to the input (step S208), and the predicted image information to be displayed on the display panel 15b with the magnification is displayed in the screen information generation unit 132. Generate (step S202).

また、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS209のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS213)。   If the operator determines that printing is to be executed and presses the execution button on the touch panel 15a to determine that a print command has been received (Yes in step S209), the printer 14 executes printing and finishes. The processing unit 141 is subjected to a finishing process (step S213).

一方、印刷命令を受け付けたと判断しない場合に(ステップS209のNo)、操作者がタッチパネル15aに触れて接触入力を行い、座標情報取得部131が座標情報を取得した場合には(ステップS210のYes)、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域であるか否かを判断する(ステップS211)。   On the other hand, when it is not determined that the print command has been received (No in step S209), when the operator touches the touch panel 15a to perform contact input and the coordinate information acquisition unit 131 acquires the coordinate information (Yes in step S210). It is determined whether or not the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (step S211).

取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域でない場合には(ステップS211のNo)、ステップS207に戻る。   When the acquired coordinate information is not the specific area displayed on the display panel 15b together with the predicted finished image (No in step S211), the process returns to step S207.

一方、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域である場合には(ステップS211のYes)、特定領域に対応付けられた処理を実行し(ステップS212:処理実行手段)、ステップS207に戻る。特定領域に対応付けられた処理とは、例えば仕上がり予想画像の文字色を変更する処理や特定領域の削除、拡大/縮小などの処理である。   On the other hand, if the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (Yes in step S211), a process associated with the specific area is executed (step S212: process execution). Means), the process returns to step S207. The process associated with the specific area is, for example, a process of changing the character color of the predicted finished image, a process of deleting the specific area, enlargement / reduction, or the like.

その後、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS209のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS213)。   Thereafter, when it is determined that the print command is received by pressing the execution button on the touch panel 15a when the operator determines to execute printing (Yes in step S209), the printer 14 executes printing and finishes. The processing unit 141 is subjected to a finishing process (step S213).

このように本実施の形態によれば、表示パネル15bにおける表示サイズに基づいて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができる。   As described above, according to the present embodiment, by specifying the extraction level for the constituent elements constituting the image data based on the display size on the display panel 15b, it is possible to further simplify the processing area designation for the processing on the image data. Can be achieved.

[第3の実施の形態]
次に、本発明の第3の実施の形態を図10および図11に基づいて説明する。なお、前述した第1の実施の形態または第2の実施の形態と同じ部分は同じ符号で示し説明も省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS. In addition, the same part as 1st Embodiment mentioned above or 2nd Embodiment is shown with the same code | symbol, and description is also abbreviate | omitted.

本実施の形態は、特定領域抽出部22で抽出する特定領域の指定(すなわち、レベルの指定)を、編集機能(例えば、領域削除、領域移動、領域反転など)に応じて切り替えるようにしたものである。   In the present embodiment, designation of a specific area (that is, designation of a level) extracted by the specific area extraction unit 22 is switched according to an editing function (for example, area deletion, area movement, area inversion, etc.). It is.

図10は、本実施の形態に係る画像形成処理の流れを示すフローチャートである。図10に示すように、画像形成処理は、入力された画像データを画像記憶部12に記憶させた後(ステップS301)、倍率を決定する(ステップS302)。   FIG. 10 is a flowchart showing a flow of image forming processing according to the present embodiment. As shown in FIG. 10, in the image forming process, input image data is stored in the image storage unit 12 (step S301), and then a magnification is determined (step S302).

ここで、ステップS302における倍率決定方法について説明する。本実施の形態においては、特定領域抽出部22で抽出する特定領域に対応する編集機能に応じて倍率(表示サイズ)を決定する。具体的には、編集機能(例えば、特定領域の削除など)とその時の表示サイズとの対応を、図11に示すようなテーブルT2に従って決定する。テーブルT1によれば、“段落削除”、“表削除”、“絵削除”、“写真削除”、“仕切り線削除”が指定されている場合には表示サイズとして100%が指定され、“文章削除”が指定されている場合には表示サイズとして125%が指定され、“単語削除”が指定されている場合には表示サイズとして150%が指定され、“文字削除”が指定されている場合には表示サイズとして175%が指定されている。すなわち、図11に示すようなテーブルT2によれば、編集機能(例えば、特定領域の削除など)の対象となる特定領域として細かな領域が指定される程、表示サイズが拡大されることになる。なお、操作開始時には、編集機能(例えば、特定領域の削除など)の対象となる特定領域は、“段落”が設定されている。この倍率に基づいて図9に示したようなテーブルT1を検索することにより、画像データを構成する特定領域(構成要素)についての抽出レベルを指定することができる。   Here, the magnification determination method in step S302 will be described. In the present embodiment, the magnification (display size) is determined according to the editing function corresponding to the specific area extracted by the specific area extraction unit 22. Specifically, the correspondence between the editing function (for example, deletion of a specific area) and the display size at that time is determined according to a table T2 as shown in FIG. According to the table T1, when “deletion of paragraph”, “deletion of table”, “deletion of picture”, “deletion of photo”, “deletion of dividing line” is designated, 100% is designated as the display size, and “text” When "Delete" is specified, 125% is specified as the display size, when "Delete word" is specified, 150% is specified as the display size, and "Delete character" is specified 175% is designated as the display size. That is, according to the table T2 as shown in FIG. 11, the display size is increased as the specific area as the target of the editing function (for example, deletion of the specific area) is specified. . At the start of the operation, “paragraph” is set in the specific area targeted for the editing function (for example, deletion of the specific area). By searching the table T1 as shown in FIG. 9 based on this magnification, it is possible to specify the extraction level for a specific area (component) constituting the image data.

その後、ステップS302で決定した倍率で表示パネル15bに表示する予想画像情報を画面情報生成部132に生成させ(ステップS303)、予想画像情報に基づく仕上がり予想画像を表示パネル15bに表示させるとともに(ステップS304)、編集機能に基づいて特定領域抽出部22で抽出する特定領域の指定を行った後(ステップS305)、特定領域抽出部22によって特定領域を抽出させ(ステップS306)、抽出された特定領域を仕上がり予想画像とともに表示パネル15bに表示させる(ステップS307)。ここに、構成要素抽出手段及び構成要素表示手段の機能が実行される。   Thereafter, the screen information generation unit 132 generates predicted image information to be displayed on the display panel 15b at the magnification determined in step S302 (step S303), and displays a predicted finished image based on the predicted image information on the display panel 15b (step S303). S304) After specifying the specific area to be extracted by the specific area extraction unit 22 based on the editing function (step S305), the specific area extraction unit 22 extracts the specific area (step S306), and the extracted specific area Is displayed on the display panel 15b together with the predicted finished image (step S307). Here, the functions of the component extraction means and the component display means are executed.

ここで、操作者が編集機能を変更したいと判断した場合に、画面上に用意されている機能変更ボタン(図示せず)の入力により、機能変更命令を受け付けたと判断した場合には(ステップS308のYes)、入力に従って倍率を決定し(ステップS302)、その倍率で表示パネル15bに表示する予想画像情報を画面情報生成部132に生成させる(ステップS303)。   Here, when it is determined that the operator wants to change the editing function, when it is determined that a function change command has been received by inputting a function change button (not shown) prepared on the screen (step S308). Yes), the magnification is determined according to the input (step S302), and the screen information generation unit 132 is caused to generate the predicted image information to be displayed on the display panel 15b with the magnification (step S303).

また、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS309のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS313)。   If it is determined that the print command has been received by pressing the execution button on the touch panel 15a when the operator determines that the print is to be executed (Yes in step S309), the printer 14 executes the print and finishes the process. A finishing process is performed on the processing unit 141 (step S313).

一方、印刷命令を受け付けたと判断しない場合に(ステップS309のNo)、操作者がタッチパネル15aに触れて接触入力を行い、座標情報取得部131が座標情報を取得した場合には(ステップS310のYes)、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域であるか否かを判断する(ステップS311)。   On the other hand, when it is not determined that the print command has been received (No in step S309), when the operator touches the touch panel 15a to make a contact input and the coordinate information acquisition unit 131 acquires the coordinate information (Yes in step S310). ), It is determined whether or not the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (step S311).

取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域でない場合には(ステップS311のNo)、ステップS308に戻る。   If the acquired coordinate information is not the specific area displayed on the display panel 15b together with the predicted finished image (No in step S311), the process returns to step S308.

一方、取得した座標情報が仕上がり予想画像とともに表示パネル15bに表示されている特定領域である場合には(ステップS311のYes)、特定領域に対応付けられた処理を実行し(ステップS312:処理実行手段)、ステップS207に戻る。特定領域に対応付けられた処理とは、例えば仕上がり予想画像の文字色を変更する処理や特定領域の削除、拡大/縮小などの処理である。   On the other hand, when the acquired coordinate information is a specific area displayed on the display panel 15b together with the predicted finished image (Yes in step S311), a process associated with the specific area is executed (step S312: process execution). Means), the process returns to step S207. The process associated with the specific area is, for example, a process of changing the character color of the predicted finished image, a process of deleting the specific area, enlargement / reduction, or the like.

その後、操作者が印刷を実行すると判断した場合にタッチパネル15aの実行ボタンを押下するなどにより、印刷命令を受け付けたと判断した場合には(ステップS309のYes)、プリンタ14に印刷を実行させ、仕上げ処理部141に仕上げ処理を施させる(ステップS313)。   Thereafter, when it is determined that the print command is received by pressing the execution button of the touch panel 15a when the operator determines to execute printing (Yes in step S309), the printer 14 executes printing and finishes. A finishing process is performed on the processing unit 141 (step S313).

このように本実施の形態によれば、編集機能(例えば、特定領域の削除など)に応じて画像データを構成する構成要素についての抽出レベルを指定することにより、さらに画像データに対する処理についての処理領域指定の簡便化を図ることができる。   As described above, according to the present embodiment, by specifying the extraction level for the components constituting the image data in accordance with the editing function (for example, deletion of the specific area), the processing for the processing on the image data is further performed. It is possible to simplify the area designation.

本発明の第1の実施の形態にかかる複合機の機能ブロック図である。1 is a functional block diagram of a multifunction machine according to a first embodiment of the present invention. 複合機が画像データを入力して生成した仕上がり予想画像の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a predicted finished image generated by inputting image data by a multifunction machine. 仕上がり予想画像上に特定領域を示す枠を重ね合わせて表示した一例を示す模式図である。It is a schematic diagram which shows an example which displayed the frame which shows a specific area on the predicted finishing image. 文字領域と写真領域とがそれぞれ抽出された一例を示す模式図である。It is a schematic diagram which shows an example from which the character area | region and the photography area | region were each extracted. 段落領域と写真領域とがそれぞれ抽出された一例を示す模式図である。It is a schematic diagram which shows an example from which the paragraph area | region and the photography area | region were each extracted. 画像形成処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of image forming processing. 特定領域に対応付けられた処理を一覧表示したバルーン表示を示す模式図である。It is a schematic diagram which shows the balloon display which displayed as a list the process matched with the specific area | region. 本発明の第2の実施の形態に係る画像形成処理の流れを示すフローチャートである。10 is a flowchart showing a flow of image forming processing according to the second embodiment of the present invention. 表示サイズとその時に表示される特定領域とを対応付けるテーブルを示す模式図である。It is a schematic diagram which shows the table which matches display size and the specific area | region displayed at that time. 本発明の第3の実施の形態に係る画像形成処理の流れを示すフローチャートである。10 is a flowchart showing a flow of image forming processing according to a third embodiment of the present invention. 編集機能とその時の表示サイズとを対応付けるテーブルを示す模式図である。It is a schematic diagram which shows the table which matches an edit function and the display size at that time.

符号の説明Explanation of symbols

10 画像処理装置
15 情報入出力装置
15a 情報入力装置
15b 表示装置
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 15 Information input / output apparatus 15a Information input apparatus 15b Display apparatus

Claims (21)

画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理を行う画像処理装置において、
前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定手段と、
この抽出レベル指定手段により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出手段と、
この構成要素抽出手段により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示手段と、
この構成要素表示手段により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that performs processing on the image data displayed on the display device in response to an operation by an instruction member on an information input device disposed on the display device that displays image data.
Extraction level designating means for designating an extraction level for a component constituting the image data;
Component extraction means for analyzing the image data according to the extraction level designated by the extraction level designation means and extracting the component;
Component display means for displaying the component extracted by the component extraction means on the display device so as to overlap the image data;
When the constituent element displayed on the display device by the constituent element display unit so as to overlap the image data is designated by the instruction member via the information input device, the constituent element is associated with the designated constituent element. Processing execution means for executing processing on the image data related to the component;
An image processing apparatus comprising:
前記構成要素表示手段は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する、
ことを特徴とする請求項1記載の画像処理装置。
The component display means displays a frame indicating the component superimposed on the image data;
The image processing apparatus according to claim 1.
前記構成要素表示手段は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する、
ことを特徴とする請求項1記載の画像処理装置。
The component display means changes the color in the component and displays it superimposed on the image data.
The image processing apparatus according to claim 1.
前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる、
ことを特徴とする請求項1ないし3のいずれか一記載の画像処理装置。
In the case where there are a plurality of processes associated with the constituent element, the processes associated with the constituent element are displayed in a list on the display device, and the desired member is instructed by an instruction from the instruction member via the information input device Select the process associated with the component,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示される、
ことを特徴とする請求項4記載の画像処理装置。
The process associated with the component is displayed in a list on the display device in a balloon display.
The image processing apparatus according to claim 4.
前記抽出レベル指定手段は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項1ないし5のいずれか一記載の画像処理装置。
The extraction level designation means designates an extraction level for the component constituting the image data based on a display size in the display device;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記抽出レベル指定手段は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項1ないし5のいずれか一記載の画像処理装置。
The extraction level designation means designates an extraction level for the component constituting the image data according to an editing function;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理をコンピュータに実行させるプログラムであって、
前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定機能と、
この抽出レベル指定機能により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出機能と、
この構成要素抽出機能により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示機能と、
この構成要素表示機能により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行機能と、
を前記コンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute a process on the image data displayed on the display device in response to an operation by an instruction member on an information input device arranged on the display device for displaying image data,
An extraction level designating function for designating an extraction level for components constituting the image data;
A component extraction function that analyzes the image data according to the extraction level specified by the extraction level specification function and extracts the component;
A component display function for displaying the component extracted by the component extraction function on the display device so as to overlap the image data;
When the component element displayed on the display device by the component element display function is displayed by being superposed on the image data by the instruction member via the information input device, the component element is associated with the designated component element. A process execution function for executing a process on the image data related to the component;
That causes the computer to execute the program.
前記構成要素表示機能は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する、
ことを特徴とする請求項8記載のプログラム。
The component display function displays a frame indicating the component superimposed on the image data.
The program according to claim 8, wherein:
前記構成要素表示機能は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する、
ことを特徴とする請求項8記載のプログラム。
The component display function changes the color in the component and displays it superimposed on the image data.
The program according to claim 8, wherein:
前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる、
ことを特徴とする請求項8ないし10のいずれか一記載のプログラム。
In the case where there are a plurality of processes associated with the constituent element, the processes associated with the constituent element are displayed in a list on the display device, and the desired member is instructed by an instruction from the instruction member via the information input device Select the process associated with the component,
The program according to any one of claims 8 to 10, wherein:
前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示させる、
ことを特徴とする請求項11記載のプログラム。
The process associated with the component is displayed as a list on the display device in a balloon display.
12. The program according to claim 11, wherein:
前記抽出レベル指定機能は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項8ないし12のいずれか一記載のプログラム。
The extraction level designation function designates an extraction level for the constituent elements constituting the image data based on a display size in the display device.
The program according to any one of claims 8 to 12, wherein:
前記抽出レベル指定機能は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項8ないし12のいずれか一記載のプログラム。
The extraction level designation function designates an extraction level for the component constituting the image data according to an editing function.
The program according to any one of claims 8 to 12, wherein:
画像データを表示する表示装置に配設した情報入力装置に対する指示部材による操作に応じて前記表示装置に表示されている前記画像データに対する処理を行う画像処理装置における画像データ処理方法であって、
前記画像データを構成する構成要素についての抽出レベルを指定する抽出レベル指定工程と、
この抽出レベル指定工程により指定された抽出レベルに応じて前記画像データを解析して前記構成要素を抽出する構成要素抽出工程と、
この構成要素抽出工程により抽出された前記構成要素を、前記画像データに重ねて前記表示装置に表示する構成要素表示工程と、
この構成要素表示工程により前記表示装置に前記画像データに重ねて表示された前記構成要素が前記情報入力装置を介して前記指示部材によって指定された場合、指定された前記構成要素に対応付けられた処理を、当該構成要素に係る前記画像データに対して実行する処理実行工程と、
を含むことを特徴とする画像データ処理方法。
An image data processing method in an image processing apparatus that performs processing on the image data displayed on the display device in response to an operation by an instruction member on an information input device disposed on a display device that displays image data,
An extraction level designating step of designating an extraction level for a component constituting the image data;
A component extraction step of extracting the component by analyzing the image data according to the extraction level specified by the extraction level specifying step;
A component display step of displaying the component extracted by the component extraction step on the display device in an overlapping manner with the image data;
In the case where the constituent element displayed on the display device so as to overlap the image data by the constituent element display step is designated by the instruction member via the information input device, the constituent element is associated with the designated constituent element. A process execution step of executing a process on the image data related to the component;
An image data processing method comprising:
前記構成要素表示工程は、前記構成要素を示す枠を前記画像データに重ね合わせて表示する、
ことを特徴とする請求項15記載の画像データ処理方法。
The component display step displays a frame indicating the component superimposed on the image data,
The image data processing method according to claim 15.
前記構成要素表示工程は、前記構成要素内の色を変更して前記画像データに重ね合わせて表示する、
ことを特徴とする請求項15記載の画像データ処理方法。
In the component display step, the color in the component is changed and displayed superimposed on the image data.
The image data processing method according to claim 15.
前記構成要素に対応付けられた処理が複数ある場合には、前記構成要素に対応付けられた処理を前記表示装置に一覧表示させ、前記情報入力装置を介した前記指示部材による指示によって所望の前記構成要素に対応付けられた処理を選択させる、
ことを特徴とする請求項15ないし17のいずれか一記載の画像データ処理方法。
In the case where there are a plurality of processes associated with the constituent element, the processes associated with the constituent element are displayed in a list on the display device, and the desired member is instructed by an instruction from the instruction member via the information input device Select the process associated with the component,
The image data processing method according to any one of claims 15 to 17, wherein
前記構成要素に対応付けられた処理は、バルーン表示にて前記表示装置に一覧表示される、
ことを特徴とする請求項18記載の画像データ処理方法。
The process associated with the component is displayed in a list on the display device in a balloon display.
The image data processing method according to claim 18.
前記抽出レベル指定工程は、前記表示装置における表示サイズに基づいて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項15ないし19のいずれか一記載の画像データ処理方法。
The extraction level designation step designates an extraction level for the component constituting the image data based on a display size in the display device.
20. The image data processing method according to claim 15, wherein the image data processing method is performed.
前記抽出レベル指定工程は、編集機能に応じて前記画像データを構成する前記構成要素についての抽出レベルを指定する、
ことを特徴とする請求項15ないし19のいずれか一記載の画像データ処理方法。
The extraction level designation step designates an extraction level for the component constituting the image data according to an editing function.
20. The image data processing method according to claim 15, wherein the image data processing method is performed.
JP2005269307A 2005-09-16 2005-09-16 Image processing apparatus, program, and image data processing method Pending JP2007082021A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005269307A JP2007082021A (en) 2005-09-16 2005-09-16 Image processing apparatus, program, and image data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005269307A JP2007082021A (en) 2005-09-16 2005-09-16 Image processing apparatus, program, and image data processing method

Publications (1)

Publication Number Publication Date
JP2007082021A true JP2007082021A (en) 2007-03-29

Family

ID=37941820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005269307A Pending JP2007082021A (en) 2005-09-16 2005-09-16 Image processing apparatus, program, and image data processing method

Country Status (1)

Country Link
JP (1) JP2007082021A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224612A (en) * 2009-03-19 2010-10-07 Fuji Xerox Co Ltd Image processing device, image reading device, image forming device and program
JP2011029710A (en) * 2009-07-21 2011-02-10 Nikon Corp Image processor, image processing program, and imaging apparatus
JP2011054061A (en) * 2009-09-03 2011-03-17 Canon Inc Image processing apparatus and method of controlling the same
JP2011139315A (en) * 2009-12-28 2011-07-14 Kyocera Mita Corp Image display apparatus, and image forming apparatus
US8665347B2 (en) 2009-07-21 2014-03-04 Nikon Corporation Image processing device, image processing program, and imaging device computing brightness value and color phase value

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0259880A (en) * 1988-08-25 1990-02-28 Nec Corp Document reader
JPH0991450A (en) * 1995-07-17 1997-04-04 Toshiba Corp Document processing apparatus and document processing method
JPH11187248A (en) * 1997-12-18 1999-07-09 Toshiba Corp Area specifying method, image processing apparatus, and image forming apparatus
JP2003330700A (en) * 2002-05-14 2003-11-21 Sharp Corp Method, apparatus, program, and program medium for scroll bar display control
JP2005110020A (en) * 2003-09-30 2005-04-21 Canon Inc Image input / output device, memory management method, program, and image forming apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0259880A (en) * 1988-08-25 1990-02-28 Nec Corp Document reader
JPH0991450A (en) * 1995-07-17 1997-04-04 Toshiba Corp Document processing apparatus and document processing method
JPH11187248A (en) * 1997-12-18 1999-07-09 Toshiba Corp Area specifying method, image processing apparatus, and image forming apparatus
JP2003330700A (en) * 2002-05-14 2003-11-21 Sharp Corp Method, apparatus, program, and program medium for scroll bar display control
JP2005110020A (en) * 2003-09-30 2005-04-21 Canon Inc Image input / output device, memory management method, program, and image forming apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224612A (en) * 2009-03-19 2010-10-07 Fuji Xerox Co Ltd Image processing device, image reading device, image forming device and program
JP2011029710A (en) * 2009-07-21 2011-02-10 Nikon Corp Image processor, image processing program, and imaging apparatus
US8665347B2 (en) 2009-07-21 2014-03-04 Nikon Corporation Image processing device, image processing program, and imaging device computing brightness value and color phase value
JP2011054061A (en) * 2009-09-03 2011-03-17 Canon Inc Image processing apparatus and method of controlling the same
JP2011139315A (en) * 2009-12-28 2011-07-14 Kyocera Mita Corp Image display apparatus, and image forming apparatus

Similar Documents

Publication Publication Date Title
JP4671885B2 (en) Image processing apparatus, program, and image processing method
US8115968B2 (en) Image processing apparatus, computer program product, and preview image displaying method
US7889405B2 (en) Image processing apparatus and computer program product for overlaying and displaying images in a stack
US8243319B2 (en) Image processing apparatus and computer program product generates and displayed processed image in a stack
JP4922021B2 (en) Image processing apparatus, program, and preview image display method
US7809300B2 (en) Image forming apparatus showing preview of finishing as applied to sample image
JP4817851B2 (en) Image forming apparatus, image forming system, image forming method, and program for causing computer to execute the method
US8516363B2 (en) Image processing apparatus, computer program product, and preview image displaying method
US20070139707A1 (en) User interface device, image displaying method, and computer program product
JP2006003568A (en) Image forming apparatus, image forming method, program for causing computer to execute the method, image processing system, and image processing apparatus
JP2008203439A (en) Image processing apparatus, preview image display method, and preview image display program
JP2006041947A (en) Image forming apparatus, image forming method, and program causing computer to execute the method
US10789022B2 (en) Image processing apparatus in which a process repeatedly arranges a target image on a sheet
JP2009048096A (en) Image processing apparatus, image forming apparatus, processing condition setting method, and processing condition setting program
JP2006093917A (en) Image reading apparatus and image processor, and image forming apparatus
JP4690157B2 (en) Information input / output device, information processing device, program, and drag operation control method
JP2007082021A (en) Image processing apparatus, program, and image data processing method
JP2009124295A (en) Image processing apparatus and control method thereof
JP5739295B2 (en) Image forming apparatus and printer driver program
JP2008236168A (en) Image processing apparatus, processing condition setting method, and processing condition setting program
JP5304546B2 (en) Image forming apparatus, image composition method, and program
JP4387275B2 (en) Image forming apparatus and image forming method
JP4768274B2 (en) Image forming apparatus, image forming method, and program for causing computer to execute the method
JP2007194713A (en) Image processing apparatus, system, and method, and program
CN107817957A (en) Image processing apparatus and the image processing system with the image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100713