[go: up one dir, main page]

JP2019048464A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2019048464A
JP2019048464A JP2018204257A JP2018204257A JP2019048464A JP 2019048464 A JP2019048464 A JP 2019048464A JP 2018204257 A JP2018204257 A JP 2018204257A JP 2018204257 A JP2018204257 A JP 2018204257A JP 2019048464 A JP2019048464 A JP 2019048464A
Authority
JP
Japan
Prior art keywords
image
unit
sheet
editing
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018204257A
Other languages
Japanese (ja)
Other versions
JP6581709B2 (en
Inventor
松本 雅則
Masanori Matsumoto
雅則 松本
健 谷
Ken Tani
健 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018204257A priority Critical patent/JP6581709B2/en
Publication of JP2019048464A publication Critical patent/JP2019048464A/en
Application granted granted Critical
Publication of JP6581709B2 publication Critical patent/JP6581709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示部に表示された表示画像に含まれる、画像形成に係るオブジェクトを表すオブジェクト画像と、記録媒体を表す媒体画像との何れかに対して編集を行なうことができ、利用者の手間を減らすことが出来る画像処理方法を提供する。【解決手段】画像形成に係るオブジェクト及び記録媒体を夫々表すオブジェクト画像及び媒体画像を含んで表示部の表示画面に表示される表示画像に対し、前記表示画面上の2点のタッチ位置に基づき、前記媒体画像に対する前記オブジェクト画像の倍率を変更する編集を行い、前記媒体画像において変更されたオブジェクト画像が占める領域を表示する。【選択図】図2PROBLEM TO BE SOLVED: To edit any of an object image representing an object relating to image formation and a medium image representing a recording medium, which are included in a display image displayed on a display unit, and a user's labor An image processing method capable of reducing the number of times is provided. SOLUTION: Based on a touch position of two points on the display screen with respect to a display image displayed on a display screen of a display unit including an object image and a medium image respectively representing an object and a recording medium related to image formation, Editing is performed to change the magnification of the object image with respect to the medium image, and the area occupied by the changed object image in the medium image is displayed. [Selection diagram] Figure 2

Description

本発明は、表示部に表示された表示画像に基づき、シート状の記録媒体に画像形成を行なう画像処理方法に関する。   The present invention relates to an image processing method for forming an image on a sheet-like recording medium based on a display image displayed on a display unit.

近年、表示部に例えば透明のタッチパネルを重ねて、該表示部に表示された表示画像に対するタッチ操作を検出して所定の指示を受け付ける電子機器が広く普及されている。   2. Description of the Related Art In recent years, electronic devices that receive, for example, a transparent touch panel on a display unit and receive a predetermined instruction by detecting a touch operation on a display image displayed on the display unit are widely spread.

例えば、特許文献1には、地図のような表示画像を表示部に表示し、利用者が該表示画像に対して透明タッチパネルを介して2本の指をタッチして、該2本の指の間隔を変化させるいわゆるピンチイン又はピンチアウトの操作を行なうことにより、前記表示画像を拡大・縮小できる携帯情報機器が開示されている。   For example, in Patent Document 1, a display image such as a map is displayed on the display unit, and the user touches two fingers on the display image via the transparent touch panel, and the two fingers are There is disclosed a portable information device capable of enlarging or reducing the displayed image by performing so-called pinch-in or pinch-out operation to change the interval.

特開2000−163031号公報Japanese Patent Laid-Open No. 2000-163031

一方、表示部に表示されている表示画像の編集においては、該表示画像の一部に対して編集を行なう部分的編集の要望が存在する。しかし、このような部分的編集のためには、斯かる編集の度に、対象となる部分を選択すると言う煩雑な操作が必要とされる。上述した特許文献1の携帯情報機器においては、このような問題に対する解決方法に関して何ら工夫も開示もされていない。   On the other hand, in the editing of the display image displayed on the display unit, there is a demand for partial editing in which a part of the display image is edited. However, for such partial editing, a complicated operation of selecting a target part is required for each such editing. In the portable information device of Patent Document 1 mentioned above, no idea or disclosure has been made regarding a solution to such a problem.

本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、表示部の表示画面への2点の接触位置を検出し、検出された2点の位置に基づき、前記表示画像に含まれる、画像形成に係るオブジェクトを表すオブジェクト画像、及び、記録媒体を表す媒体画像の何れか一方に対して編集を行なうことができ、利用者の手間を減らすことが出来る画像処理方法を提供することにある。   The present invention has been made in view of such circumstances, and the object of the present invention is to detect contact positions of two points on a display screen of a display unit, and based on the detected positions of the two points, An image processing method capable of performing editing on any one of an object image representing an object relating to image formation and a medium image representing a recording medium included in a display image, thereby reducing the time and effort of the user To provide.

本発明に係る画像形成装置は、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、シート状の記録媒体に画像形成を行なう画像形成装置において、大きさが異なる複数種の記録媒体を有しており、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定する媒体決定手段を備えることを特徴とする。   An image forming apparatus according to the present invention includes a display unit, and a position detection unit for detecting a contact position of the display unit with a display screen, and a sheet-like recording medium based on the display image displayed on the display unit. In the image forming apparatus for forming an image, there are provided a plurality of types of recording media having different sizes, and based on the expansion and contraction of the distance between two points detected by the position detection unit, It is characterized by comprising a medium determining means for determining.

本発明にあっては、前記位置検出部によって前記表示画面上の2点が検出された場合、該2点間の距離の伸縮に基づき、前記表示部に表示された表示画像を画像形成すべき対象たる記録媒体を決定し、決定された記録媒体に画像形成が行なわれる。   In the present invention, when two points on the display screen are detected by the position detection unit, the display image displayed on the display unit should be formed based on the expansion and contraction of the distance between the two points. The target recording medium is determined, and image formation is performed on the determined recording medium.

本発明に係る画像形成装置は、前記媒体決定手段によって決定された記録媒体に係る情報を前記表示部に表示する手段を備えることを特徴とする。   The image forming apparatus according to the present invention is characterized by comprising means for displaying information on the recording medium determined by the medium determining means on the display unit.

本発明にあっては、前記媒体決定手段によって所定の記録媒体が決定された場合、決定された記録媒体に係る情報が前記表示部に表示される。   In the present invention, when the predetermined recording medium is determined by the medium determining means, information on the determined recording medium is displayed on the display unit.

本発明に係る記録媒体決定方法は、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、大きさが異なる複数種のシート状の記録媒体に画像形成を行なう画像形成装置にて、前記記録媒体の決定を行なう記録媒体決定方法において、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定するステップを含むことを特徴とする。   A recording medium determination method according to the present invention includes a display unit and a position detection unit that detects a touch position on a display screen of the display unit, and the sizes are different based on the display image displayed on the display unit. In a recording medium determination method for determining a recording medium in an image forming apparatus for forming an image on a plurality of types of sheet-like recording media, based on expansion and contraction of the distance between two points detected by the position detection unit, It is characterized by including a step of determining a recording medium related to image formation.

本発明に係るコンピュータプログラムは、表示部と、該表示部の表示画面への接触位置を検出する位置検出部とを備え、前記表示部に表示された表示画像に基づき、大きさが異なる複数種のシート状の記録媒体に画像形成を行なう画像形成装置を構成するコンピュータに、前記表示画像の編集を行なわせるコンピュータプログラムにおいて、コンピュータに、前記位置検出部によって検出された2点間の距離の伸縮に基づき、画像形成に係る記録媒体を決定させるステップを実行させることを特徴とする。   A computer program according to the present invention includes a display unit, and a position detection unit that detects a contact position of the display unit on a display screen, and a plurality of types having different sizes based on a display image displayed on the display unit. Computer program for causing the computer constituting the image forming apparatus for forming an image on the sheet-like recording medium to edit the display image, wherein the computer causes the distance between the two points detected by the position detection unit to And the step of determining the recording medium related to the image formation.

本発明にあっては、前記位置検出部によって前記表示画面上の2点が検出された場合、該2間の距離の伸縮に基づき、前記表示部に表示された表示画像を画像形成すべき対象たる記録媒体が決定され、決定された記録媒体に画像形成が行なわれる。   In the present invention, when two points on the display screen are detected by the position detection unit, an object on which the display image displayed on the display unit should be formed based on the expansion and contraction of the distance between the two. A recording medium is determined and image formation is performed on the determined recording medium.

本発明に係る記録媒体は、前述の発明のコンピュータプログラムを記録してあることを特徴とする。   A recording medium according to the present invention is characterized in that the computer program of the above-mentioned invention is recorded.

本発明にあっては、前記記録媒体に前述のコンピュータプログラムを記録する。コンピュータが前記記録媒体からコンピュータプログラムを読み出して、前述の画像形成装置及び記録媒体決定方法がコンピュータにより実現される。
また、本発明に係る画像処理方法は、表示部と、前記表示部の表示画面との接触位置を検出する位置検出部とを備え、前記表示部に表示される表示画像に基づき、記録媒体に画像形成を行う画像形成装置を用いて前記表示画像を処理する画像処理方法であって、前記画像形成のための対象を示すオブジェクト画像、及び、前記記録媒体を示す媒体画像を有する表示画像を表示するステップと、前記位置検出部により2点の接触が検出された場合、編集モードに遷移し、検出された2点の接触位置に基づいて前記媒体画像に対する前記オブジェクト画像の倍率を変更するステップと、前記媒体画像において変更されたオブジェクト画像が占める領域を表示するステップと、検出された2点の接触位置に基づいて、複数の選択可能な記録媒体から1つの記録媒体を決定するステップと、前記位置検出部による検出結果に基づいて前記編集モードを終了するステップとを含むことを特徴とする。
また、本発明に係る画像処理方法は、表示部と、前記表示部の表示画面との接触位置を検出する位置検出部とを備える画像形成装置を用いて画像を処理する画像処理方法であって、前記画像形成のための対象を示すオブジェクト画像、及び、前記オブジェクト画像を記録する記録媒体を示す媒体画像を有する画像を表示するステップと、前記位置検出部により2点の接触が検出された場合、編集モードに遷移し、検出された前記2点の接触位置に基づいて前記媒体画像に対する前記オブジェクト画像の倍率を変更するステップと、前記媒体画像において変更されたオブジェクト画像が占める領域を表示するステップと、検出された前記2点の接触位置に基づいて、前記記録媒体を決定するステップと、前記位置検出部による検出結果に基づいて前記編集モードを終了するステップとを含むことを特徴とする。
また、本発明に係る画像処理方法は、前記位置検出部により検出された前記2点間の距離変化に基づいて、前記倍率の変更が行われることを特徴とする。
In the present invention, the computer program described above is recorded on the recording medium. The computer reads the computer program from the recording medium, and the above-described image forming apparatus and recording medium determination method are realized by the computer.
The image processing method according to the present invention further includes a display unit and a position detection unit that detects a contact position with the display screen of the display unit, and a recording medium is displayed based on the display image displayed on the display unit. An image processing method for processing a display image using an image forming apparatus for forming an image, the method displaying an object image indicating a target for the image formation and a display image having a medium image indicating the recording medium Changing the magnification of the object image with respect to the medium image based on the detected two-point touch position, transitioning to the editing mode when two-point touch is detected by the position detection unit; Displaying an area occupied by the changed object image in the medium image, and from the plurality of selectable recording media based on the detected two touch positions. The method may further comprise the steps of: determining one recording medium; and ending the editing mode based on the detection result of the position detection unit.
In addition, an image processing method according to the present invention is an image processing method for processing an image using an image forming apparatus including a display unit and a position detection unit that detects a contact position with a display screen of the display unit. Displaying an image having an object image indicating an object for forming the image and a medium image indicating a recording medium for recording the object image, and a case where the contact of two points is detected by the position detection unit Transitioning to an editing mode, changing the magnification of the object image with respect to the medium image based on the detected contact positions of the two points, and displaying an area occupied by the changed object image in the medium image And determining the recording medium based on the detected two contact positions, and based on the detection result by the position detection unit. Characterized in that it comprises the step of terminating the editing mode.
The image processing method according to the present invention is characterized in that the magnification is changed based on a change in distance between the two points detected by the position detection unit.

本発明によれば、前記位置検出部によって検出された2点の位置に基づき、前記表示画像に含まれる、画像形成に係るオブジェクトを表すオブジェクト画像、及び、前記記録媒体を表す媒体画像の何れか一方に対して編集を行なうことができ、利用者の手間を減らすことが出来る。   According to the present invention, any one of an object image representing an object related to image formation and a medium image representing the recording medium, which are included in the display image, based on the positions of the two points detected by the position detection unit. Editing can be performed on one side, and the time and effort of the user can be reduced.

本発明の実施の形態1の複合機の要部構成を示すブロック図である。FIG. 1 is a block diagram showing a main part configuration of a multifunction peripheral according to a first embodiment of the present invention. 本発明の実施の形態1の複合機における、制御部の要部構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing a main configuration of a control unit in the multifunction machine of the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、画像編集処理を説明するフローチャートである。5 is a flowchart illustrating an image editing process in the multifunction peripheral according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、画像編集処理を説明するフローチャートである。5 is a flowchart illustrating an image editing process in the multifunction peripheral according to the first embodiment of the present invention. 本発明の実施の形態1に係る複合機における、プレビュー画像の回転処理を説明する説明図である。FIG. 8 is an explanatory view for explaining rotation processing of a preview image in the multifunction peripheral according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る複合機における、オブジェクト画像の編集を説明する説明図である。FIG. 6 is an explanatory diagram for explaining editing of an object image in the multifunction peripheral according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る複合機における、用紙画像の編集を説明する説明図である。FIG. 6 is an explanatory diagram for explaining editing of a sheet image in the multifunction peripheral according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る複合機における、用紙画像の編集を説明する説明図である。FIG. 6 is an explanatory diagram for explaining editing of a sheet image in the multifunction peripheral according to Embodiment 1 of the present invention. 本発明の実施の形態2に係る複合機において、記憶部に記憶されている対応テーブルの一例を示す例示図である。FIG. 13 is an exemplary view showing an example of a correspondence table stored in a storage unit in the multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。FIG. 10 is a flowchart illustrating image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. FIG. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。FIG. 10 is a flowchart illustrating image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. FIG. 本発明の実施の形態2に係る複合機における、画像編集処理を説明するフローチャートである。FIG. 10 is a flowchart illustrating image editing processing in a multifunction peripheral according to Embodiment 2 of the present invention. FIG. 本発明の実施の形態2に係る複合機における、オブジェクト画像の編集を説明する説明図である。FIG. 14 is an explanatory diagram for explaining editing of an object image in the multifunction peripheral according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る複合機における、用紙画像の拡大の編集を説明する説明図である。FIG. 11 is an explanatory diagram for explaining editing of enlargement of a sheet image in a multifunction peripheral according to a second embodiment of the present invention. 本発明の実施の形態2に係る複合機において、用紙画像及びオブジェクト画像を共に編集する場合を説明する説明図である。FIG. 13 is an explanatory view illustrating a case where a sheet image and an object image are both edited in the multifunction peripheral according to the second embodiment of the present invention. 本発明の実施の形態2に係る複合機において、用紙画像及びオブジェクト画像を共に編集する場合を説明する説明図である。FIG. 13 is an explanatory view illustrating a case where a sheet image and an object image are both edited in the multifunction peripheral according to the second embodiment of the present invention. 本発明の実施の形態3の複合機の要部構成を示すブロック図である。FIG. 13 is a block diagram showing the main configuration of a multifunction peripheral according to a third embodiment of the present invention.

以下に、本発明の実施の形態に係る画像形成装置及び画像処理方法を、いわゆるタッチパネルの機能を有する複合機100に適用した場合を例として、図面に基づいて詳述する。   Hereinafter, an image forming apparatus and an image processing method according to an embodiment of the present invention will be described in detail based on the drawings by taking as an example a case where the image forming apparatus and the image processing method are applied to a multifunction device 100 having a so-called touch panel function.

(実施の形態1)
図1は本発明の実施の形態1の複合機100の要部構成を示すブロック図である。複合機100は、制御部1と、CPU2と、ROM3と、RAM4と、記憶部5と、表示部6と、表示制御部7と、位置検出部8と、画像入力部9と、画像出力部10と、画像処理部11と、操作パネル12と、トレイ部13とを備えている。
Embodiment 1
FIG. 1 is a block diagram showing the main configuration of a multifunction device 100 according to a first embodiment of the present invention. The MFP 100 includes a control unit 1, a CPU 2, a ROM 3, a RAM 4, a storage unit 5, a display unit 6, a display control unit 7, a position detection unit 8, an image input unit 9, and an image output unit 10, an image processing unit 11, an operation panel 12, and a tray unit 13.

ROM3には各種の制御プログラム、演算用のパラメータのうちの基本的に固定のデータ等が予め格納されており、RAM4はデータを一時的に記憶し、記憶順、記憶位置等に関係なく読み出すことが可能である。また、RAM4は、例えば、ROM3から読み出されたプログラム、該プログラムを実行することにより発生する各種データ、該実行の際適宜変化するパラメータ等を記憶する。   The ROM 3 stores various control programs and basically fixed data among the calculation parameters beforehand, and the RAM 4 temporarily stores the data and reads it regardless of the storage order, storage position, etc. Is possible. In addition, the RAM 4 stores, for example, a program read from the ROM 3, various data generated by executing the program, parameters which are appropriately changed in the execution, and the like.

CPU2は、ROM3に予め格納されている制御プログラムをRAM4上にロードして実行することによって、上述した各種ハードウェアの制御を行ない、装置全体を本発明の複合機100として動作させる。また、CPU2は、位置検出部8を介して、利用者から所定処理の指示を受け付ける。   The CPU 2 loads the control program stored in advance in the ROM 3 onto the RAM 4 and executes the control program to control the various hardware described above, and causes the entire apparatus to operate as the multifunction peripheral 100 of the present invention. In addition, the CPU 2 receives an instruction of a predetermined process from the user via the position detection unit 8.

記憶部5は、例えば、フラッシュメモリ、EEPROM、HDD、MRAM(磁気抵抗メモリ)、FeRAM(強誘電体メモリ)、又は、OUM等の不揮発性の記憶媒体により構成されている。   The storage unit 5 is configured of, for example, a non-volatile storage medium such as a flash memory, an EEPROM, an HDD, an MRAM (magnetic resistance memory), an FeRAM (ferroelectric memory), or an OUM.

表示部6は、例えば、LCD又はEL(Electroluminescence)パネル等からなり、画像出力部10を介して、所定の記録用紙へ出力(印刷)すべき画像(表示画像)が表示される。また、表示部6は、複合機100の状態、ジョブ処理の状況、画像入力部9が読み取った原稿の画像及び操作パネル12の操作内容の確認等、利用者に対して報知すべき情報を表示する。また、表示部6の表示画面は位置検出部8によって覆われている。   The display unit 6 is formed of, for example, an LCD or an EL (Electroluminescence) panel, and an image (display image) to be output (printed) on a predetermined recording sheet is displayed through the image output unit 10. In addition, the display unit 6 displays information to be notified to the user, such as the status of the MFP 100, the status of job processing, the image of the document read by the image input unit 9, and the operation content of the operation panel 12. Do. Further, the display screen of the display unit 6 is covered by the position detection unit 8.

表示制御部7は、DSP(Digital Signal Processor)のようなプロセッサにより構成され、表示部6への画像表示を制御する。例えば、CPU2の指示に応じて表示部6に表示すべき画像の画像データを生成する。   The display control unit 7 is configured by a processor such as a DSP (Digital Signal Processor), and controls image display on the display unit 6. For example, image data of an image to be displayed on the display unit 6 is generated according to an instruction of the CPU 2.

位置検出部8は、タッチパネル81を有しており、タッチパネル81は表示部6の表示画面を覆うように設けられている。従って、位置検出部8は利用者のタッチ操作により表示部6の表示画面上における所定位置を検出することができる。位置検出部8は利用者の指先のタッチ操作による圧力の変化を検知し、又は静電気による電気信号を検知して、利用者の指先の接触位置に対応する表示部6の表示画面上の座標を検出し、該座標を特定する信号を発生する。また、位置検出部8は、これに限るものでなく、ポインティングデバイス(例えば、スタイラスペン)等を用いる構成であっても良い。   The position detection unit 8 has a touch panel 81, and the touch panel 81 is provided to cover the display screen of the display unit 6. Therefore, the position detection unit 8 can detect a predetermined position on the display screen of the display unit 6 by the touch operation of the user. The position detection unit 8 detects a change in pressure due to the touch operation of the user's fingertip or detects an electrical signal due to static electricity, and coordinates on the display screen of the display unit 6 corresponding to the contact position of the user's fingertip. A signal is generated which detects and identifies the coordinates. Further, the position detection unit 8 is not limited to this, and may be configured to use a pointing device (for example, a stylus pen) or the like.

画像入力部9は、読み取り用の原稿に光を照射する光源、CCD(Charge Coupled Device)のようなイメージセンサ等を有し、該原稿の画像データの光学的読み取りを行なう。また、画像入力部9では、所定の読取り位置に載置された原稿からの反射光像を当該イメージセンサに結像させ、RGB(R : Red, G : Green, B : Blue)のアナログデータを出力する。   The image input unit 9 includes a light source for irradiating light to a document for reading, an image sensor such as a CCD (Charge Coupled Device), and the like, and optically reads image data of the document. Further, the image input unit 9 forms a reflected light image from a document placed at a predetermined reading position on the image sensor, and converts analog data of RGB (R: Red, G: Green, B: Blue). Output.

画像出力部10は、画像処理部11から出力される画像データに基づく画像を記録用紙、OHPフィルム等の記録媒体上に印刷する。画像出力部10は、感光体ドラム、該感光体ドラムを所定の電位に帯電させる帯電器、外部から受付けた画像データに応じてレーザ光を発して感光体ドラム上に静電潜像を生成させるレーザ書込装置、感光体ドラム表面に形成された静電潜像にトナーを供給して現像化する現像器、感光体ドラム表面に形成されたトナー像を記録媒体上に転写する転写器等を備えており、例えば、電子写真方式にて画像を記録媒体上に出力する。   The image output unit 10 prints an image based on the image data output from the image processing unit 11 on a recording medium such as a recording sheet or an OHP film. The image output unit 10 generates a electrostatic latent image on the photosensitive drum by emitting a laser beam according to the photosensitive drum, a charger for charging the photosensitive drum to a predetermined potential, and image data received from the outside. Laser writing device, a developing unit that supplies toner to the electrostatic latent image formed on the surface of the photosensitive drum to develop it, a transfer unit that transfers the toner image formed on the surface of the photosensitive drum onto the recording medium, etc. For example, an image is output on a recording medium by an electrophotographic method.

画像処理部11は、例えば、画像入力部9から入力されるアナログデータを基にディジタル形式の画像データを生成し、又は記憶部5に記憶されている画像データを読み出し、夫々の画像の種類に応じた処理を施した後、出力(印刷)すべき画像データを生成する。画像処理部11によって生成された出力用画像データは、画像出力部10に出力される。   The image processing unit 11 generates image data in digital format based on, for example, analog data input from the image input unit 9 or reads out image data stored in the storage unit 5 and sets the type of each image. After processing according to the request, image data to be output (printed) is generated. The output image data generated by the image processing unit 11 is output to the image output unit 10.

また、操作パネル12は、複合機100における「ファックス」、「複写」、「印刷」、「メール」等の機能を切り替える機能ボタン、テンキー、スタートキー、キャンセルキー、受け付けた指示を確定するためのエンターキー、画像入力部9を介して読み取った原稿の画像をシート状の記録媒体上に画像形成するための「出力」キー又は「コピー」キー等を備えている。   The operation panel 12 also has function buttons for switching functions such as “fax”, “copy”, “print”, and “mail” in the multifunction device 100, a ten key, a start key, a cancel key, and a command for confirming the received instruction. An enter key, an "output" key or a "copy" key for forming an image of a document read through the image input unit 9 on a sheet-like recording medium are provided.

トレイ部13は、複数のトレイ(図示せず)を有しており、各々トレイには複数種の記録用紙が収納されている。詳しくは、A4、A3、B4、B5等の定形の大きさを有する複数種の定形用紙が対応するトレイに収納されている。また、夫々のトレイにはトレイセンサ(図示せず)が設けられている。該トレイセンサは当該トレイに用紙が収納されているか否かを検出する公知のものである。   The tray unit 13 has a plurality of trays (not shown), and each tray stores a plurality of types of recording sheets. Specifically, a plurality of types of fixed-sized sheets having fixed sizes such as A4, A3, B4 and B5 are stored in corresponding trays. Also, each tray is provided with a tray sensor (not shown). The tray sensor is a known sensor that detects whether a sheet is stored in the tray.

以上の構成を用いて、本発明の実施の形態1に係る複合機100は、利用者から表示部6へのタッチ操作を受け付け、表示部6に表示されている画像の編集を行なう。   Using the above configuration, the multifunction peripheral 100 according to Embodiment 1 of the present invention receives a touch operation on the display unit 6 from the user, and edits the image displayed on the display unit 6.

例えば、利用者が表示部6の表示画面(位置検出部8)に指先を触れることにより、位置検出部8はタッチ操作を受け付ける。この場合、位置検出部8は、タッチされた点の位置を検出し、この点の座標を特定する信号をCPU2に送出する。   For example, when the user touches the display screen (position detection unit 8) of the display unit 6 with a fingertip, the position detection unit 8 receives a touch operation. In this case, the position detection unit 8 detects the position of the touched point, and sends a signal specifying the coordinates of the point to the CPU 2.

CPU2は、位置検出部8から前記信号(座標)を取得して、表示部6に表示されているソフトキーの内、該座標に対応する位置のソフトキーが操作されたものと認識する。   The CPU 2 acquires the signal (coordinates) from the position detection unit 8 and recognizes that among the soft keys displayed on the display unit 6, the soft key at the position corresponding to the coordinates is operated.

一方、例えば、利用者が親指及び食指を使って、表示部6の表示画面(位置検出部8)に両指を共に触れた場合、位置検出部8は2点のタッチ操作を受け付ける。この場合、位置検出部8は、親指でタッチされた第1点と、食指でタッチされた第2点との位置を検出し、これらの2点の座標を特定する信号を制御部1及びCPU2に送出する。   On the other hand, for example, when the user touches the display screen (position detection unit 8) of the display unit 6 with both fingers using the thumb and the finger, the position detection unit 8 receives two touch operations. In this case, the position detection unit 8 detects the positions of the first point touched by the thumb and the second point touched by the finger and a signal for specifying the coordinates of these two points is the control unit 1 and the CPU 2 Send to

続いて、利用者がいわゆるピンチイン又はピンチアウトとの操作を行なった場合は、更に、該操作に従って、斯かる2点の座標を特定する信号が位置検出部8から制御部1及びCPU2に送出される。この際、制御部1及びCPU2は、前記2点の位置関係、及び斯かる操作による位置変更、すなわち、第1点及び第2点の間の距離変化に基づき、表示部6に表示された画像の編集指示を受け付ける。   Subsequently, when the user performs a so-called pinch-in or pinch-out operation, further, according to the operation, a signal specifying the coordinates of such two points is transmitted from the position detection unit 8 to the control unit 1 and the CPU 2 Ru. At this time, the control unit 1 and the CPU 2 display the image displayed on the display unit 6 based on the positional relationship between the two points and the position change by such operation, that is, the distance change between the first point and the second point. Accept the editing instruction of.

例えば、制御部1及びCPU2は、位置検出部8からの前記信号に基づき、位置検出部8が検出した2つの点を結ぶ直線の方向に応じて、前記画像の編集指示に係る編集の対象の選択を受け付ける。また、制御部1及びCPU2は、第1点及び第2点の間の距離変化に基づき、斯かる画像の拡大又は縮小の編集指示を受け付ける。   For example, based on the signal from the position detection unit 8, the control unit 1 and the CPU 2 select the target of editing related to the editing instruction of the image according to the direction of the straight line connecting the two points detected by the position detection unit 8. Accept the selection. Further, the control unit 1 and the CPU 2 receive an editing instruction of enlargement or reduction of the image based on a change in distance between the first point and the second point.

図2は本発明の実施の形態1の複合機100における、制御部1の要部構成を示す機能ブロック図である。制御部1は、選択受付部14と、用紙決定部15(媒体決定手段)と、情報表示部16と、編集部17とを備えている。   FIG. 2 is a functional block diagram showing the main configuration of the control unit 1 in the MFP 100 according to the first embodiment of the present invention. The control unit 1 includes a selection receiving unit 14, a sheet determination unit 15 (medium determination unit), an information display unit 16, and an editing unit 17.

選択受付部14は、利用者から2点のタッチ操作を受け付けた場合、位置検出部8が発する信号に基づき、該2つの点を結ぶ直線の方向に応じて、その際、表示部6に表示されている画像(表示画像)に対する編集の対象の選択を受け付ける。例えば、選択受付部14は、前記直線の方向が、表示部6に表示されている画像の中心部で交差する2つの方向の中、どの方向に沿うものであるかに応じて、編集の対象の選択を受け付ける。   When the selection receiving unit 14 receives two touch operations from the user, the selection receiving unit 14 displays it on the display unit 6 according to the direction of the straight line connecting the two points based on the signal emitted by the position detection unit 8. Accept the selection of the editing target for the image being displayed (display image). For example, the selection receiving unit 14 selects an object to be edited according to which of the two directions intersecting at the center of the image displayed on the display unit 6 is the direction of the straight line. Accept the selection of

例えば、表示部6には、画像出力部10を介して出力すべきである、絵、図、文字等のオブジェクト画像と、該オブジェクト画像が書き込まれており、該オブジェクト画像の出力の際に用いられる記録用紙を表す用紙画像(媒体画像)とからなる画像(表示画像)が表示される。   For example, an object image such as a picture, a figure, or a character and the object image to be output through the image output unit 10 and the object image are written in the display unit 6 and used when outputting the object image An image (display image) composed of a sheet image (medium image) representing the recording sheet to be printed is displayed.

この際、利用者から2点のタッチ操作があった場合、選択受付部14は、斯かる2つの点を結ぶ直線の方向に基づいて、表示部6に表示されている画像(表示画像)に対する編集の対象として、前記オブジェクト画像及び/又は用紙画像の選択を受け付ける。   At this time, when there is a touch operation of two points from the user, the selection reception unit 14 applies an image (display image) displayed on the display unit 6 based on the direction of a straight line connecting such two points. The selection of the object image and / or the paper image is accepted as an object of editing.

用紙決定部15は、選択受付部14が編集の対象として用紙画像の選択を受け付けた場合、前記オブジェクト画像が画像出力部10を介した実際に出力されるときに用いられる記録用紙を決定する。   The sheet determination unit 15 determines a recording sheet to be used when the object image is actually output through the image output unit 10 when the selection receiving unit 14 receives selection of a sheet image as an object of editing.

詳しくは、本発明の実施の形態1に係る複合機100においては、上述したように、A4、A3、B4、B5等の定形の大きさを有する複数種の定形用紙が対応するトレイに各々収納されており、用紙決定部15は、斯かる2つの点の間の距離変化に基づき、前記トレイの何れかに収納されている定形用紙を選択する。以下の説明においては、A4、A3、B4、B5の大きさを有する定形用紙を、各々A4用紙、A3用紙、B4用紙、B5用紙と言う。   More specifically, in the MFP 100 according to the first embodiment of the present invention, as described above, a plurality of types of fixed-sized sheets having fixed sizes such as A4, A3, B4 and B5 are respectively stored in corresponding trays The sheet determination unit 15 selects the fixed sheet stored in any of the trays based on the change in the distance between the two points. In the following description, fixed-size sheets having the sizes of A4, A3, B4 and B5 are respectively referred to as A4 sheet, A3 sheet, B4 sheet and B5 sheet.

例えば、斯かる2つの点の間の距離が増加又は減少し、後述するように、編集部17が用紙画像の大きさを編集する際、用紙決定部15は、前記距離の1cm毎に、A3用紙、B4用紙、A4用紙、B5用紙の順に、用紙の決定を行なう。例えば、前記2つの点の間の距離が増加する場合は、その増加値が1cmである場合、2cmである場合、3cmである場合、4cm以上である場合、用紙決定部15は、夫々B5用紙、A4用紙、B4用紙、A3用紙の順に沿って記録用紙を選択する。一方、前記2つの点の間の距離が減少する場合は、その減少値が1cmである場合、2cmである場合、3cmである場合、4cm以上である場合、用紙決定部15は、A3用紙、B4用紙、A4用紙、B5用紙の順に沿って記録用紙を選択する。   For example, when the distance between the two points increases or decreases, and the editing unit 17 edits the size of the paper image, as described later, the paper determination unit 15 performs A3 every 1 cm of the distance. The sheets are determined in the order of the sheet, the B4 sheet, the A4 sheet, and the B5 sheet. For example, when the distance between the two points increases, the increase value is 1 cm, 2 cm, 3 cm, and 4 cm or more, the sheet determination unit 15 respectively generates B5 sheets. , A4 paper, B4 paper, A3 paper, and select the recording paper in this order. On the other hand, when the distance between the two points decreases, when the reduction value is 1 cm, 2 cm, 3 cm, 4 cm or more, the sheet determination unit 15 sets the A3 sheet, Select the recording paper in the order of B4 paper, A4 paper, and B5 paper.

情報表示部16は、表示制御部7を介して、用紙決定部15によって決定された用紙に対する情報を表示部6に表示する。情報表示部16は、例えば、「A3用紙」、「B4用紙」、「A4用紙」等のテキストを表示部6に表示し、又は夫々の記録用紙の大きさを表す「297mm×420mm」、「257mm×364mm」、「210mm×297mm」等のテキストを表示部6に表示する。   The information display unit 16 displays information on the sheet determined by the sheet determination unit 15 on the display unit 6 via the display control unit 7. The information display unit 16 displays, for example, texts such as "A3 sheet", "B4 sheet", "A4 sheet", etc. on the display section 6, or "297 mm × 420 mm" representing the size of each recording sheet. The text such as 257 mm × 364 mm, “210 mm × 297 mm”, etc. is displayed on the display unit 6.

また、情報表示部16は、編集部17によってオブジェクト画像を拡大/縮小する編集が行なわれる場合においても、該オブジェクト画像の拡大/縮小の倍率を表示部6に表示する。   The information display unit 16 also displays the magnification of the object image on the display unit 6 even when the editing unit 17 edits the object image.

編集部17は、前記2つの点を結ぶ直線の方向、及び該2つの点の間の距離変化に基づき、表示部6に表示されている画像を部分的に又は全体的に編集する。詳しくは、上述したように、オブジェクト画像及び用紙画像からなる画像において、編集部17は、オブジェクト画像及び用紙画像の何れか一方を編集する部分的編集、又はこれら両方を共に編集する全体的編集を行なう。   The editing unit 17 partially or entirely edits the image displayed on the display unit 6 based on the direction of the straight line connecting the two points and the change in distance between the two points. Specifically, as described above, in the image consisting of the object image and the paper image, the editing unit 17 performs the partial editing to edit either the object image or the paper image, or the general editing to edit both of them. Do.

例えば、編集部17は、前記2つの点を結ぶ直線の方向に基づいて選択受付部14が受け付けた選択に係る編集の対象に対し、該2つの点の間の距離変化に基づいて拡張/縮小の部分的編集を行なう。   For example, the editing unit 17 expands / contracts the target of editing related to the selection received by the selection receiving unit 14 based on the change in the distance between the two points based on the direction of the straight line connecting the two points. Make partial edits of

例えば、前記2つの点の間の距離が増加する場合は、1mm増加毎に、オブジェクト画像又は用紙画像を1%拡大し、前記2つの点の間の距離が減少する場合は、1mm減少毎にオブジェクト画像又は用紙画像を1%縮小する編集を、編集部17が行なう。   For example, if the distance between the two points increases, the object image or paper image is enlarged by 1% for each 1 mm increase, and if the distance between the two points decreases, for every 1 mm reduction The editing unit 17 performs editing to reduce the object image or the sheet image by 1%.

また、利用者が、前記2つの点の中、何れか一方、又は両方の移動することにつれて、これらを結ぶ直線の方向が回転する変更があった場合、CPU2は、表示部6に表示されている画像の向きを回転させる回転指示として受け付ける。また、編集部17は、該変更に基づき、表示部6に表示されている画像の向きを回転させる編集を行なう(全体的編集)。例えば、前記直線の方向が時計回り方向に回転した場合、斯かる画像を時計回り方向に回転させる編集が行なわれる。   In addition, when there is a change in which the direction of the straight line connecting the user moves as one or both of the two points rotate, the CPU 2 is displayed on the display unit 6 It accepts as a rotation instruction to rotate the direction of the existing image. Further, the editing unit 17 performs editing to rotate the direction of the image displayed on the display unit 6 based on the change (overall editing). For example, when the direction of the straight line is rotated clockwise, editing is performed to rotate the image clockwise.

このように、編集部17による編集が施された画像に係るデータに基づき、表示制御部7は表示部6に編集後のオブジェクト画像又は用紙画像を表示させる。   As described above, the display control unit 7 causes the display unit 6 to display the edited object image or sheet image based on the data related to the image edited by the editing unit 17.

なお、以上の選択受付部14、用紙決定部15、情報表示部16及び編集部17は、ハードウェアロジックによって構成してもよいし、CPUを用いてソフトウェアによって実現してもよい。   The above-described selection receiving unit 14, the sheet determining unit 15, the information display unit 16, and the editing unit 17 may be configured by hardware logic, or may be realized by software using a CPU.

以下、本発明の実施の形態1に係る複合機100における、画像編集処理について説明する。図3及び図4は本発明の実施の形態1に係る複合機100における、画像編集処理を説明するフローチャートである。説明の便宜上、利用者が親指及び食指を使って前記ピンチイン又はピンチアウト操作を行なう場合を例として説明する。また、以下の説明においては、トレイ部13の各トレイにはA4用紙、A3用紙、B4用紙、B5用紙が収納されており、表示部6に表示される画像は矩形であって、該画像の対角線の方向に沿うピンチイン又はピンチアウト操作によって、選択受付部14がオブジェクト画像又は用紙画像の選択を受け付けるものとする。   Hereinafter, the image editing process in the MFP 100 according to the first embodiment of the present invention will be described. FIG. 3 and FIG. 4 are flowcharts for explaining the image editing process in the MFP 100 according to the first embodiment of the present invention. For convenience of explanation, the case where the user performs the pinch in or pinch out operation using a thumb and a finger will be described as an example. Further, in the following description, A4 sheet, A3 sheet, B4 sheet, and B5 sheet are stored in each tray of the tray unit 13, and the image displayed on the display unit 6 is a rectangle, and It is assumed that the selection receiving unit 14 receives a selection of an object image or a sheet image by a pinch in or pinch out operation along the direction of the diagonal.

CPU2は、画像入力部9の前記読取り位置に原稿が載置されたか否かを判定する(ステップS101)。斯かる判定は、例えば、前記読取り位置をプリスキャンして取得される画像に基づき、行なわれる。   The CPU 2 determines whether a document has been placed at the reading position of the image input unit 9 (step S101). Such determination is performed, for example, based on an image acquired by prescanning the reading position.

CPU2は、原稿が載置されていないと判定した場合(ステップS101:NO)、原稿が載置されるまで斯かる判定を繰り返して行なう。   When it is determined that the document is not placed (step S101: NO), the CPU 2 repeatedly performs such determination until the document is placed.

一方、CPU2は、原稿が載置されたと判定した場合(ステップS101:YES)、載置された原稿のサイズを検出する(ステップS102)。斯かる検出は、例えば、原稿のサイズを検出するいわゆる反射型サイズ検出センサを用いる構成であってもよく、原稿サイズ検出用の画像を取得するべくプリスキャンを行なうように構成しても良い。   On the other hand, when the CPU 2 determines that the document has been placed (step S101: YES), the CPU 2 detects the size of the placed document (step S102). Such detection may use, for example, a configuration using a so-called reflective size detection sensor that detects the size of a document, and may be configured to perform pre-scan to obtain an image for document size detection.

次いで、CPU2は用紙状況の確認を行なう(ステップS103)。すなわち、CPU2はトレイ部13の各トレイに設けられた前記トレイセンサの検出結果に基づき、夫々のトレイにA4用紙、A3用紙、B4用紙、B5用紙が収納されているか否かを確認する。   Next, the CPU 2 confirms the sheet condition (step S103). That is, based on the detection results of the tray sensor provided in each tray of the tray unit 13, the CPU 2 confirms whether or not the A4 sheet, the A3 sheet, the B4 sheet, and the B5 sheet are stored in the respective trays.

CPU2は、ステップS102で検出された原稿のサイズ、及び前記用紙状況の確認の結果に基づき、適正サイズの記録用紙があるか否かを判定する(ステップS104)。CPU2は適正サイズの記録用紙がないと判定した場合(ステップS104:NO)、適正なサイズの記録用紙を要求する(ステップS108)。例えば、CPU2は、表示制御部7に指示することにより、トレイに記録用紙を充填すること又は、適正なサイズの紙を手差しトレイに供給することを促す旨のテキストを表示部6に表示する。以降、処理はステップS104に戻る。   The CPU 2 determines whether or not there is a recording sheet of an appropriate size based on the size of the document detected in step S102 and the result of the confirmation of the sheet condition (step S104). When the CPU 2 determines that there is no recording sheet of the proper size (step S104: NO), the CPU 2 requests the recording sheet of the proper size (step S108). For example, the CPU 2 instructs the display control unit 7 to display on the display unit 6 a text that prompts the user to fill the tray with the recording paper or to supply the paper of the appropriate size to the manual feed tray. Thereafter, the process returns to step S104.

CPU2は適正サイズの記録用紙があると判定した場合(ステップS104:YES)、斯かる記録用紙を適正用紙として選択し(ステップS105)、該選択の結果をRAM4に記憶しておく。現実施の形態においては、適正用紙としてA4用紙が選択されたものとする。   When the CPU 2 determines that there is a recording sheet of the proper size (step S104: YES), the recording sheet is selected as the proper sheet (step S105), and the result of the selection is stored in the RAM 4. In the present embodiment, it is assumed that the A4 sheet is selected as the appropriate sheet.

次いで、CPU2は、操作パネル12を監視することにより、複写指示を受け付けたか否かを判定する(ステップS106)。   Next, the CPU 2 monitors the operation panel 12 to determine whether a copy instruction has been received (step S106).

例えば、利用者が操作パネル12の「コピー」キーを操作した場合、CPU2は複写指示を受け付けたと判定し(ステップS106:YES)、画像入力部9及び画像出力部10に複写に係る指示を行なう。すなわち、画像入力部9の前記読取り位置に載置された原稿の画像データが画像入力部9によって読み取られ、該原稿の画像データに基づき、画像出力部10が記録用紙上への印刷を行なう(ステップS107)。   For example, when the user operates the "copy" key of the operation panel 12, the CPU 2 determines that a copy instruction has been received (step S106: YES), and instructs the image input unit 9 and the image output unit 10 to copy. . That is, the image data of the document placed at the reading position of the image input unit 9 is read by the image input unit 9, and the image output unit 10 performs printing on the recording paper based on the image data of the document ( Step S107).

一方、CPU2は複写指示を受け付けていないと判定した場合(ステップS106:NO)、スキャン指示を受け付けたか否かを判定する(ステップS109)。CPU2はスキャン指示を受け付けていないと判定した場合(ステップS109:NO)、処理をステップS106に戻す。   On the other hand, when the CPU 2 determines that the copy instruction has not been received (step S106: NO), it determines whether a scan instruction has been received (step S109). If the CPU 2 determines that the scan instruction has not been received (step S109: NO), the process returns to step S106.

CPU2はスキャン指示を受け付けたと判定した場合(ステップS109:YES)、画像入力部9の前記読取り位置に載置された原稿の読取を画像入力部9に指示する。CPU2の指示に応じて画像入力部9は斯かる原稿の読取を行なう(ステップS110)。画像入力部9によって読み取られた原稿の画像データはRAM4に記憶される。   When the CPU 2 determines that the scan instruction has been received (step S109: YES), the CPU 2 instructs the image input unit 9 to read the document placed at the reading position of the image input unit 9. The image input unit 9 reads such a document in response to an instruction from the CPU 2 (step S110). The image data of the document read by the image input unit 9 is stored in the RAM 4.

表示制御部7はRAM4に記憶されている原稿の画像データに基づき、表示部6にプレビュー画像を表示する(ステップS111)。該プレビュー画像は矩形の画像である。   The display control unit 7 displays the preview image on the display unit 6 based on the image data of the document stored in the RAM 4 (step S111). The preview image is a rectangular image.

表示部6に表示されたプレビュー画像は、絵、図、文字等の原稿のコンテンツを表すオブジェクト画像と、該オブジェクト画像の出力の際に用いられる記録用紙を表す用紙画像とからなる。該プレビュー画像に基づく印刷を希望する利用者は、操作パネル12の前記スタートキーを操作することにより、印刷を指示する。   The preview image displayed on the display unit 6 is composed of an object image representing the contents of a document such as a picture, a figure, a character, etc., and a sheet image representing a recording sheet used when outputting the object image. A user who desires printing based on the preview image instructs printing by operating the start key of the operation panel 12.

一方、該プレビュー画像の編集を希望する利用者は、上述したように、2点をタッチすることにより、前記オブジェクト画像又は用紙画像に対して編集を行なう。   On the other hand, a user desiring to edit the preview image edits the object image or the sheet image by touching two points as described above.

CPU2は、位置検出部8からの信号に基づき、表示部6の表示画面に2点のタッチがあったか否かを判定する(ステップS112)。   The CPU 2 determines, based on the signal from the position detection unit 8, whether or not there is a touch at two points on the display screen of the display unit 6 (step S112).

CPU2は、2点のタッチがなかったと判定した場合(ステップS112:NO)、印刷をスタートする指示を受け付けたか否かを判定する(ステップS119)。斯かる判定は、CPU2が操作パネル12の前記スタートキーの操作を監視することにより行われる。   If the CPU 2 determines that there is no touch at two points (step S112: NO), the CPU 2 determines whether an instruction to start printing has been received (step S119). Such determination is performed by the CPU 2 monitoring the operation of the start key of the operation panel 12.

CPU2は、印刷をスタートする指示を受け付けたと判定した場合(ステップS119:YES)、処理をステップS107に移動させ、画像出力部10による印刷が行なわれる。   If the CPU 2 determines that an instruction to start printing has been received (step S119: YES), the process moves to step S107, and printing by the image output unit 10 is performed.

一方、CPU2は、印刷をスタートする指示を受け付けていないと判定した場合(ステップS119:NO)、斯かる原稿の処理をキャンセルする旨の指示を受け付けたか否かを判定する(ステップS120)。斯かる判定は、CPU2が操作パネル12の前記キャンセルキーの操作を監視することにより行われる。   On the other hand, when determining that the instruction to start printing has not been received (step S119: NO), the CPU 2 determines whether an instruction to cancel the processing of the document has been received (step S120). Such determination is performed by the CPU 2 monitoring the operation of the cancel key on the operation panel 12.

CPU2は、原稿の処理をキャンセルする旨の指示を受け付けたと判定した場合(ステップS120:YES)、処理を終了する。   If the CPU 2 determines that the instruction to cancel the process of the document is received (step S120: YES), the process ends.

また、CPU2は、原稿の処理をキャンセルする旨の指示を受け付けていないと判定した場合(ステップS120:NO)、処理をステップS112に戻す。   When the CPU 2 determines that the instruction to cancel the document processing is not received (step S120: NO), the process returns to step S112.

一方、ステップS112にて、CPU2が表示部6の表示画面に2点のタッチがあったと判定した場合(ステップS112:YES)、CPU2は、斯かるプレビュー画像を回転する旨の指示を受け付けたか否かを更に判定する(ステップS113)。   On the other hand, if the CPU 2 determines in step S112 that there are two touches on the display screen of the display unit 6 (step S112: YES), the CPU 2 receives an instruction to rotate the preview image. Further, it is determined (step S113).

詳しくは、位置検出部8からの信号に基づき、CPU2は、前記2点の中、何れか一方、又は両方が移動し、これらを結ぶ直線の方向が回転する変更があったか否かを監視し、該変更があった場合、プレビュー画像を回転する旨の指示を受け付けたと判定する。   Specifically, based on the signal from the position detection unit 8, the CPU 2 monitors whether or not there is a change in which one or both of the two points move and the direction of the straight line connecting these points rotates. When the change is made, it is determined that an instruction to rotate the preview image is received.

図5は本発明の実施の形態1に係る複合機100における、プレビュー画像の回転処理を説明する説明図である。図5では、オブジェクト画像にfの参照番号が、用紙画像にはpの参照符号が付されている。以下においては、編集部17による編集が行なわれる前のオブジェクト画像f及び用紙画像pは点線にて表示し、編集部17による編集が行なわれた後のオブジェクト画像f及び用紙画像pは実線にて表示する。   FIG. 5 is an explanatory view for explaining rotation processing of the preview image in the multifunction peripheral 100 according to the first embodiment of the present invention. In FIG. 5, the reference numeral f is attached to the object image, and the reference sign p is attached to the paper image. In the following, the object image f and the paper image p before being edited by the editing unit 17 are displayed by dotted lines, and the object image f and the paper image p after being edited by the editing unit 17 are indicated by solid lines. indicate.

例えば、利用者が左手の親指及び食指を使って、表示部6の表示画面61をタッチした状態で、図5に示すように、反時計回り方向に(図中、矢印方向)左手をねじって、親指及び食指の2点の両方が移動した場合、これらを結ぶ直線の方向が回転する変更が生じる。この際、CPU2は、表示部6に表示されているプレビュー画像の向きを回転させる回転指示として受け付け、該反時計回り方向への回転量に応じて、編集部17は表示部6に表示されているプレビュー画像の向きを反時計回り方向に回転させる編集を行なう。   For example, in a state where the user touches the display screen 61 of the display unit 6 with the thumb and the finger of the left hand, as shown in FIG. 5, the left hand is twisted in the counterclockwise direction (arrow direction in the figure). When both the thumb and the finger move, a change occurs in which the direction of the straight line connecting them rotates. At this time, the CPU 2 receives as a rotation instruction to rotate the direction of the preview image displayed on the display unit 6, and the editing unit 17 is displayed on the display unit 6 according to the amount of rotation in the counterclockwise direction. Edit the image to rotate the direction of the preview image counterclockwise.

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けたと判定した場合(ステップS113:YES)、編集部17に該プレビュー画像を回転させる編集を指示する。CPU2の指示に応じて、編集部17は、図5に示すように、該プレビュー画像の向きを回転させる編集処理を行なう(ステップS121)。以降、処理はステップS111に戻る。   When the CPU 2 determines that the instruction to rotate the preview image is received (step S113: YES), the CPU 2 instructs the editing unit 17 to edit the image so as to rotate the preview image. In response to an instruction from the CPU 2, the editing unit 17 performs editing processing to rotate the direction of the preview image as shown in FIG. 5 (step S121). Thereafter, the process returns to step S111.

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けていないと判定した場合(ステップS113:NO)、位置検出部8からの信号、及び該プレビュー画像(座標)に基づき、斯かる2点を結ぶ直線の方向が、該プレビュー画像の対角線の中一方(以下、第1方向と言う。)に沿う方向であるか否かを判定する(ステップS114)。   If the CPU 2 determines that the instruction to rotate the preview image has not been received (step S113: NO), such two points are determined based on the signal from the position detection unit 8 and the preview image (coordinates). It is determined whether the direction of the connecting straight line is a direction along one of the diagonal lines of the preview image (hereinafter referred to as the first direction) (step S114).

図6は本発明の実施の形態1に係る複合機100における、オブジェクト画像fの編集を説明する説明図である。図6においては、表示部6に表示された矩形のプレビュー画像の対角線の中、一方(第1方向)には参照番号L1が付され、他方(第2方向)には参照番号L2が付されている。本実施の形態においては、当該2点を結ぶ直線の方向が、第1方向に沿う場合、オブジェクト画像fに対する編集が行なわれる。また、該直線の方向が第2方向に沿う場合は、用紙画像pに対する編集が行なわれる。   FIG. 6 is an explanatory diagram for explaining the editing of the object image f in the MFP 100 according to the first embodiment of the present invention. In FIG. 6, among the diagonals of the rectangular preview image displayed on the display unit 6, one (first direction) is given the reference number L1 and the other (second direction) is given the reference number L2. ing. In the present embodiment, when the direction of the straight line connecting the two points is along the first direction, editing of the object image f is performed. Further, when the direction of the straight line is along the second direction, the paper image p is edited.

CPU2は、前記2点を結ぶ直線の方向が、前記第1方向に沿う方向であると判定した場合(ステップS114:YES)、選択受付部14は、オブジェクト画像fの選択として受け付ける(ステップS115)。この際、斯かる旨を利用者に視認させるために、オブジェクト画像fに所定の色を付け、又は点滅させるように構成しても良い。   If the CPU 2 determines that the direction of the straight line connecting the two points is the direction along the first direction (step S114: YES), the selection receiving unit 14 receives it as the selection of the object image f (step S115) . Under the present circumstances, in order to make a user visually recognize such a thing, you may comprise so that a predetermined color may be attached to the object image f, or it may be made to blink.

以降、利用者はピンチイン又はピンチアウト操作を行ない、オブジェクト画像fの縮小又は拡大を指示する。   Thereafter, the user performs pinch-in or pinch-out operation to instruct reduction or enlargement of the object image f.

CPU2は、位置検出部8からの信号に基づき、オブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS116)。換言すれば、CPU2は、位置検出部8からの信号に基づき、ピンチアウトの操作があったか否かを判定する。   The CPU 2 determines whether or not an instruction to expand the object image f has been received based on the signal from the position detection unit 8 (step S116). In other words, based on the signal from the position detection unit 8, the CPU 2 determines whether or not the pinch out operation has been performed.

CPU2がオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS116:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、オブジェクト画像fを拡大する編集処理を行なう(ステップS117)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   If it is determined that the CPU 2 receives an instruction to magnify the object image f (step S116: YES), that is, if a pinch out operation is performed by the user, the editing unit 17 determines between two points in the pinch out operation. An editing process is performed to magnify the object image f in accordance with the change in distance (step S117). Since the editing of the enlargement by the editing unit 17 has already been described, the detailed description will be omitted.

CPU2が、オブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS116:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、オブジェクト画像fを縮小する編集処理を行なう(ステップS127)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   If the CPU 2 determines that the instruction to expand the object image f has not been received (step S116: NO), that is, if the user performs a pinch-in operation, the editing unit 17 determines between two points in the pinch-in operation. In response to the change in distance, the editing process is performed to reduce the object image f (step S127). Since the editing of the reduction by the editing unit 17 has already been described, the detailed description will be omitted.

例えば、図6に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pの大きさは変わらず、オブジェクト画像fの大きさのみが縮小される。   For example, as shown in FIG. 6, when the user moves the thumb and the finger in the direction of the arrow in the figure and performs pinch-in operation, the size of the paper image p does not change, and only the size of the object image f. It is reduced.

なお、この際、情報表示部16は、図6に示すように、当該ピンチイン操作によるオブジェクト画像fの大きさの倍率変化を表示する。   At this time, the information display unit 16 displays a change in magnification of the size of the object image f due to the pinch-in operation, as shown in FIG.

以降、プレビュー画像を編集するための操作を完了した利用者は指を表示部6の表示画面61から離す。一方、オブジェクト画像fを編集するための操作を続ける利用者は、再び、指の回転、ピンチイン又はピンチアウトの操作を行なう。   Thereafter, the user who has completed the operation for editing the preview image releases his finger from the display screen 61 of the display unit 6. On the other hand, the user who continues the operation for editing the object image f again performs an operation of finger rotation, pinch in or pinch out.

CPU2は、位置検出部8からの信号に基づき、利用者の指が表示部6の表示画面61から離れたか否かを判定する(ステップS118)。   The CPU 2 determines whether the user's finger has left the display screen 61 of the display unit 6 based on the signal from the position detection unit 8 (step S118).

CPU2は、利用者の指が表示部6の表示画面61から離れたと判定した場合(ステップS118:YES)、処理を終了する。また、CPU2は、利用者の指が表示部6の表示画面61から離れていないと判定した場合(ステップS118:NO)、処理を再びステップS113に戻す。   If the CPU 2 determines that the user's finger has left the display screen 61 of the display unit 6 (step S118: YES), the process ends. When the CPU 2 determines that the user's finger is not separated from the display screen 61 of the display unit 6 (step S118: NO), the process returns to step S113.

一方、ステップS114にて、CPU2は、前記2点を結ぶ直線の方向が前記第1方向に沿う方向でないと判定した場合(ステップS114:NO)、すなわち、前記2点を結ぶ直線の方向が前記第2方向(図6中、L2)である場合、選択受付部14は、用紙画像pの選択として受け付ける(ステップS122)。この際、斯かる旨を利用者に視認させるために、用紙画像pに所定の色を付け、又は点滅させるように構成しても良い。   On the other hand, when the CPU 2 determines in step S114 that the direction of the straight line connecting the two points is not the direction along the first direction (step S114: NO), that is, the direction of the straight line connecting the two points is the above In the case of the second direction (L2 in FIG. 6), the selection receiving unit 14 receives the selection as the paper image p (step S122). At this time, the sheet image p may be configured to have a predetermined color or blink in order to allow the user to visually recognize such a fact.

以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像pの縮小又は拡大を指示する。   Thereafter, the user performs pinch-in or pinch-out operation to instruct reduction or enlargement of the sheet image p.

CPU2は、位置検出部8からの信号に基づき、用紙画像pを拡大する指示を受け付けたか否かを判定する(ステップS123)。換言すれば、CPU2は、位置検出部8からの信号に基づき、ピンチアウトの操作があったか否かを判定する。   The CPU 2 determines whether an instruction to enlarge the sheet image p has been received based on the signal from the position detection unit 8 (step S123). In other words, based on the signal from the position detection unit 8, the CPU 2 determines whether or not the pinch out operation has been performed.

CPU2が用紙画像pを拡大する指示を受け付けたと判定した場合(ステップS123:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS124)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   If it is determined that the CPU 2 receives an instruction to magnify the sheet image p (step S123: YES), that is, if the user performs a pinch out operation, the editing unit 17 determines between two points in the pinch out operation. An editing process is performed to magnify the sheet image p according to the change in distance (step S124). Since the editing of the enlargement by the editing unit 17 has already been described, the detailed description will be omitted.

CPU2が、用紙画像pを拡大する指示を受け付けていないと判定した場合(ステップS123:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS125)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   If the CPU 2 determines that the instruction to enlarge the sheet image p has not been received (step S123: NO), that is, if the user performs a pinch-in operation, the editing unit 17 determines between two points in the pinch-in operation. In response to the change in distance, the editing process is performed to reduce the sheet image p (step S125). Since the editing of the reduction by the editing unit 17 has already been described, the detailed description will be omitted.

ステップS124にて用紙画像pを拡大する編集が行なわれる際、又はステップS125にて用紙画像pを縮小する編集が行なわれる際、情報表示部16は、斯かる編集によって変更される記録用紙に対する情報を表示部6に表示する(ステップS126)。すなわち、編集部17が用紙画像pの大きさを編集する際、用紙決定部15は出力すべき記録用紙を決定し、決定された記録用紙に関する情報が情報表示部16によって表示される。   When editing is performed to magnify the paper image p in step S124, or when editing to reduce the paper image p is performed in step S125, the information display unit 16 displays information on the recording paper to be changed by such editing. Is displayed on the display unit 6 (step S126). That is, when the editing unit 17 edits the size of the sheet image p, the sheet determination unit 15 determines the recording sheet to be output, and the information display unit 16 displays information on the determined recording sheet.

図7及び図8は本発明の実施の形態1に係る複合機100における、用紙画像pの編集を説明する説明図である。   FIGS. 7 and 8 are explanatory diagrams for explaining the editing of the sheet image p in the MFP 100 according to the first embodiment of the present invention.

例えば、図7に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが縮小される。この際、情報表示部16は、図7に示すように、当該ピンチイン操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図7では、ステップS105にて選択されたA4用紙の代わりに、より小さなサイズの記録用紙である「B5用紙」のテキストが前記情報として表示された例を示している。   For example, as shown in FIG. 7, when the user moves the thumb and the finger in the direction of the arrow in the figure and performs a pinch-in operation, the size of the object image f does not change, but only the size of the paper image p. It is reduced. At this time, as shown in FIG. 7, the information display unit 16 displays on the display unit 6 information on the recording sheet which has been changed by the pinch-in operation, that is, determined by the sheet determination unit 15. FIG. 7 shows an example in which the text of “B5 sheet”, which is a recording sheet of a smaller size, is displayed as the information instead of the A4 sheet selected in step S105.

また、図8に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが拡大される。この際、情報表示部16は、図8に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図8では、ステップS105にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示された例を示している。   Also, as shown in FIG. 8, when the user moves the thumb and the finger in the direction of the arrow in the figure and performs a pinch out operation, the size of the object image f does not change, but only the size of the paper image p. Is expanded. At this time, as shown in FIG. 8, the information display unit 16 displays on the display unit 6 information on the recording sheet which has been changed by the pinch out operation, that is, determined by the sheet determination unit 15. FIG. 8 shows an example in which the text of “B4 sheet”, which is a recording sheet of a larger size, is displayed as the information instead of the A4 sheet selected in step S105.

以降、編集部17によって編集されたオブジェクト画像fが、用紙決定部15によって決定された記録用紙に印刷される。   Thereafter, the object image f edited by the editing unit 17 is printed on the recording sheet determined by the sheet determining unit 15.

本発明に係る複合機100においては、以上に記載したように、編集部17によって部分的編集が行なわれる場合、部分的編集の対象の選択指示及び編集指示を共に受け付けることができ、利用者の手間を減らすことが出来る。   In the multifunction machine 100 according to the present invention, as described above, when partial editing is performed by the editing unit 17, both selection instruction and editing instruction of a target of partial editing can be received, and the user's It is possible to reduce the time and effort.

また、以上の説明においては、表示部6に表示された画像が、オブジェクト画像及び用紙画像というコンテンツを有し、部分的編集が該コンテンツ別に行われる場合を例として説明したが、これに限るものでない。例えば、前記部分的編集が、写真、文字等のコンテンツの種類別に行われてもよく、色別に行われるように構成しても良い。   In the above description, the image displayed on the display unit 6 includes the contents of the object image and the sheet image, and the partial editing is performed separately for the contents, but the present invention is limited thereto. Not For example, the partial editing may be performed according to the type of content such as a photo or text, or may be performed according to color.

換言すれば、位置検出部8が検出した2つの点を結ぶ直線の方向に基づいて、異なる種類のコンテンツが選択され、異なる色のコンテンツが選択されるように構成しても良い。   In other words, different types of content may be selected based on the direction of the straight line connecting the two points detected by the position detection unit 8, and content of different colors may be selected.

例えば、表示部6に表示されたオブジェクト画像に対して拡大・縮小する等の編集が行なわれた場合、斯かる編集による前記オブジェクト画像の大きさ変化に伴い、印刷すべき記録用紙を適宜変える必要が生じる。従って、利用者は記録用紙を選択するために他の画面を立ち上げて適切な大きさの記録用紙を選択する煩雑な操作を強いられることとなる。しかし、本発明に係る複合機100においては、以上に記載したように、画像の編集及び記録用紙の選択が同一の画面上にて行われるので、煩雑な操作を省くことが出来る。   For example, when editing such as enlarging or reducing an object image displayed on the display unit 6 is performed, it is necessary to appropriately change the recording paper to be printed in accordance with the size change of the object image due to such editing. Will occur. Therefore, the user is forced to perform a complicated operation of setting up another screen to select a recording sheet and selecting a recording sheet of an appropriate size. However, in the MFP 100 according to the present invention, as described above, editing of an image and selection of a recording sheet are performed on the same screen, so that complicated operations can be omitted.

(実施の形態2)
本発明の実施の形態2に係る複合機100は、実施の形態1に係る複合機100と略同様の構成を有していが、記憶部5及び制御部1の構成及び作用において異なる。
Second Embodiment
The MFP 100 according to the second embodiment of the present invention has substantially the same configuration as the MFP 100 according to the first embodiment, but differs in the configuration and operation of the storage unit 5 and the control unit 1.

記憶部5は、例えば、フラッシュメモリ、EEPROM、HDD、MRAM、FeRAM、又は、OUM等の不揮発性の記憶媒体により構成されている。また、記憶部5は、出力すべき記録用紙の変更と、オブジェクト画像fの大きさの倍率とを対応付けた対応テーブルを記憶している。   The storage unit 5 is configured of, for example, a non-volatile storage medium such as a flash memory, an EEPROM, an HDD, an MRAM, an FeRAM, or an OUM. Further, the storage unit 5 stores a correspondence table in which the change of the recording sheet to be output and the magnification of the size of the object image f are associated.

図9は本発明の実施の形態2に係る複合機100において、記憶部5に記憶されている対応テーブルの一例を示す例示図である。該対応テーブルにおいては、例えば、出力に係るオブジェクト及び記録用紙の大きさが共に拡大・縮小される場合、換言すれば、オブジェクト画像f及び用紙画像pの大きさが共に編集される場合の対応関係が示されている。詳しくは、用紙画像pが「A4用紙」に係る大きさから「A3用紙」に係る大きさに拡大される場合、これに対応するオブジェクト画像fの倍率は「141%」であり、用紙画像pが「A4用紙」に係る大きさから「B5用紙」に係る大きさに縮小される場合、これに対応するオブジェクト画像fの倍率は「86%」である旨等か、前記対応テーブルに示されている。   FIG. 9 is an exemplary view showing an example of the correspondence table stored in the storage unit 5 in the MFP 100 according to the second embodiment of the present invention. In the correspondence table, for example, when the sizes of the object and the recording paper related to the output are both enlarged or reduced, in other words, the correspondence relationship when the sizes of the object image f and the paper image p are both edited. It is shown. Specifically, when the paper image p is enlarged from the size for "A4 paper" to the size for "A3 paper", the magnification of the object image f corresponding to this is "141%" and the paper image p is When the size is reduced from the size for "A4 sheet" to the size for "B5 sheet", the corresponding table indicates that the magnification of the object image f corresponding to this is "86%", etc. ing.

制御部1の選択受付部14は、利用者から2点のタッチ操作を受け付けた場合、位置検出部8が発する信号に基づき、該2つの点を結ぶ直線の方向に応じて、表示部6に表示されている画像に対する編集の対象として、オブジェクト画像f又は用紙画像pの選択を受け付ける。   When the selection reception unit 14 of the control unit 1 receives a touch operation of two points from the user, the display unit 6 is selected based on the signal emitted by the position detection unit 8 according to the direction of the straight line connecting the two points. The selection of the object image f or the paper image p is accepted as a target of editing the displayed image.

例えば、選択受付部14は、前記直線の方向が、表示部6に表示されている画像の中心部で交差する2つの方向の中、どの方向に沿うものであるかに応じて、オブジェクト画像f又は用紙画像pの選択を受け付ける。   For example, the selection receiving unit 14 may select an object image f depending on which of the two directions intersecting at the center of the image displayed on the display unit 6 follows the direction of the straight line. Or accepts the selection of the paper image p.

一方、前記直線の方向が、前記2つの方向の何れにも沿っていない場合、選択受付部14は、オブジェクト画像f及び用紙画像pの選択を受け付ける。すなわち、オブジェクト画像f及び用紙画像pが共に選択される。   On the other hand, when the direction of the straight line is not along either of the two directions, the selection receiving unit 14 receives the selection of the object image f and the sheet image p. That is, both the object image f and the paper image p are selected.

また、このように、選択受付部14がオブジェクト画像f及び用紙画像pの選択を受け付けた場合においては、編集部17による前記画像の編集は前記対応テーブルに基づいて行われる。   Further, when the selection receiving unit 14 receives the selection of the object image f and the paper image p as described above, the editing of the image by the editing unit 17 is performed based on the correspondence table.

すなわち、選択受付部14がオブジェクト画像f及び用紙画像pの選択を受け付けており、利用者によりピンチイン又はピンチアウトの操作が行なわれた場合において、該操作によるオブジェクト画像fの倍率が122%に該当する場合、編集部17は「A4用紙」であった用紙画像pを「B4用紙」の用紙画像pに拡大する編集を共に行なう。また、利用者によりピンチイン又はピンチアウトの操作が行なわれ、該操作によるオブジェクト画像fの倍率が81%に該当する場合、編集部17は「B4用紙」であった用紙画像pを「A4用紙」の用紙画像pに縮小する編集を共に行なう。   That is, when the selection receiving unit 14 receives the selection of the object image f and the sheet image p, and the user performs the pinch in or pinch out operation, the magnification of the object image f by the operation corresponds to 122%. In this case, the editing unit 17 edits the sheet image p, which has been the “A4 sheet”, to enlarge the sheet image p of the “B4 sheet”. When the user performs a pinch-in or pinch-out operation, and the magnification of the object image f by this operation corresponds to 81%, the editing unit 17 selects the sheet image p that was the "B4 sheet" as the "A4 sheet". The editing is performed to reduce the sheet image p.

以下、本発明の実施の形態2に係る複合機100における、画像編集処理について説明する。図10から図12は本発明の実施の形態2に係る複合機100における、画像編集処理を説明するフローチャートである。説明の便宜上、利用者が親指及び食指を使って前記ピンチイン又はピンチアウト操作を行なう場合を例として説明する。また、以下の説明においては、トレイ部13の各トレイにはA4用紙、A3用紙、B4用紙、B5用紙が収納されており、表示部6に表示される画像は矩形であって、該画像の縦横の方向に沿うピンチイン又はピンチアウト操作によって、選択受付部14がオブジェクト画像f又は用紙画像pの選択を受け付けるものとする。   Hereinafter, the image editing process in the MFP 100 according to the second embodiment of the present invention will be described. FIGS. 10 to 12 are flowcharts for explaining the image editing process in the MFP 100 according to the second embodiment of the present invention. For convenience of explanation, the case where the user performs the pinch in or pinch out operation using a thumb and a finger will be described as an example. Further, in the following description, A4 sheet, A3 sheet, B4 sheet, and B5 sheet are stored in each tray of the tray unit 13, and the image displayed on the display unit 6 is a rectangle, and It is assumed that the selection receiving unit 14 receives the selection of the object image f or the paper image p by a pinch in or pinch out operation along the vertical and horizontal directions.

CPU2は、画像入力部9の前記読取り位置に原稿が載置されたか否かを判定する(ステップS201)。CPU2は、原稿が載置されていないと判定した場合(ステップS201:NO)、原稿が載置されるまで斯かる判定を繰り返して行なう。   The CPU 2 determines whether a document has been placed at the reading position of the image input unit 9 (step S201). When it is determined that the document is not placed (step S201: NO), the CPU 2 repeatedly performs such determination until the document is placed.

一方、CPU2は、原稿が載置されたと判定した場合(ステップS201:YES)、載置された原稿のサイズを検出する(ステップS202)。   On the other hand, when it is determined that the document has been placed (step S201: YES), the CPU 2 detects the size of the placed document (step S202).

次いで、CPU2は用紙状況の確認を行なう(ステップS203)。すなわち、CPU2はトレイ部13の各トレイに設けられた前記トレイセンサの検出結果に基づき、夫々のトレイにA4用紙、A3用紙、B4用紙、B5用紙が収納されているか否かを確認する。   Next, the CPU 2 confirms the sheet condition (step S203). That is, based on the detection results of the tray sensor provided in each tray of the tray unit 13, the CPU 2 confirms whether or not the A4 sheet, the A3 sheet, the B4 sheet, and the B5 sheet are stored in the respective trays.

CPU2は、ステップS202で検出された原稿のサイズ、及び前記用紙状況の確認の結果に基づき、適正サイズの記録用紙があるか否かを判定する(ステップS204)。CPU2は適正サイズの記録用紙がないと判定した場合(ステップS204:NO)、適正なサイズの記録用紙を要求する(ステップS208)。以降、処理はステップS204に戻る。   The CPU 2 determines whether or not there is a recording sheet of the proper size based on the size of the document detected in step S202 and the result of the confirmation of the sheet condition (step S204). When the CPU 2 determines that there is no recording sheet of the proper size (step S204: NO), the CPU 2 requests the recording sheet of the proper size (step S208). Thereafter, the process returns to step S204.

CPU2は適正サイズの記録用紙があると判定した場合(ステップS204:YES)、斯かる記録用紙を適正用紙として選択し(ステップS205)、該選択の結果をRAM4に記憶しておく。現実施の形態においては、適正用紙としてA4用紙が選択されたものとする。   If the CPU 2 determines that there is a recording sheet of the proper size (step S 204: YES), the recording sheet is selected as the proper sheet (step S 205), and the result of the selection is stored in the RAM 4. In the present embodiment, it is assumed that the A4 sheet is selected as the appropriate sheet.

次いで、CPU2は、操作パネル12を監視することにより、複写指示を受け付けたか否かを判定する(ステップS206)。   Next, the CPU 2 monitors the operation panel 12 to determine whether a copy instruction has been received (step S206).

例えば、利用者が操作パネル12の「コピー」キーを操作した場合、CPU2は複写指示を受け付けたと判定し(ステップS206:YES)、画像入力部9によって画像入力部9の前記読取り位置に載置された原稿の画像データが読み取られ、該原稿の画像データに基づき、画像出力部10が記録用紙上への印刷を行なう(ステップS207)。   For example, when the user operates the "copy" key of the operation panel 12, the CPU 2 determines that a copy instruction has been received (step S206: YES), and the image input unit 9 places the image input unit 9 at the reading position. The image data of the original document is read, and the image output unit 10 performs printing on the recording paper based on the image data of the original (step S207).

一方、CPU2は複写指示を受け付けていないと判定した場合(ステップS206:NO)、スキャン指示を受け付けたか否かを判定する(ステップS209)。CPU2はスキャン指示を受け付けていないと判定した場合(ステップS209:NO)、処理をステップS206に戻す。   On the other hand, when the CPU 2 determines that the copy instruction has not been received (step S206: NO), it determines whether a scan instruction has been received (step S209). If the CPU 2 determines that the scan instruction has not been received (step S209: NO), the process returns to step S206.

CPU2はスキャン指示を受け付けたと判定した場合(ステップS209:YES)、画像入力部9の前記読取り位置に載置された原稿の読取を画像入力部9に指示し、画像入力部9は斯かる原稿の読取を行なう(ステップS210)。画像入力部9によって読み取られた原稿の画像データはRAM4に記憶される。   When it is determined that the CPU 2 receives a scan instruction (step S209: YES), the CPU 2 instructs the image input unit 9 to read the document placed at the reading position of the image input unit 9, and the image input unit 9 performs such document Are read (step S210). The image data of the document read by the image input unit 9 is stored in the RAM 4.

表示制御部7はRAM4に記憶されている原稿の画像データに基づき、表示部6にプレビュー画像を表示する(ステップS211)。該プレビュー画像は矩形の画像であり、実施の形態1と同様、オブジェクト画像f及び用紙画像pからなる。   The display control unit 7 displays the preview image on the display unit 6 based on the image data of the document stored in the RAM 4 (step S211). The preview image is a rectangular image, and comprises an object image f and a paper image p as in the first embodiment.

該プレビュー画像に基づく印刷を希望する利用者は、操作パネル12の前記スタートキーを操作することにより、印刷を指示する。一方、該プレビュー画像の編集を希望する利用者は、上述したように、2点をタッチすることにより、オブジェクト画像f又は用紙画像pに対して編集を行なう。   A user who desires printing based on the preview image instructs printing by operating the start key of the operation panel 12. On the other hand, the user who wants to edit the preview image edits the object image f or the paper image p by touching two points as described above.

CPU2は、位置検出部8からの信号に基づき、表示部6の表示画面に2点のタッチがあったか否かを判定する(ステップS212)。CPU2は、2点のタッチがなかったと判定した場合(ステップS212:NO)、印刷をスタートする指示を受け付けたか否かを判定する(ステップS219)。   Based on the signal from the position detection unit 8, the CPU 2 determines whether or not the display screen of the display unit 6 has been touched by two points (step S212). When the CPU 2 determines that there is no touch at two points (step S212: NO), it determines whether an instruction to start printing has been received (step S219).

CPU2は、印刷をスタートする指示を受け付けたと判定した場合(ステップS219:YES)、処理をステップS207に移動させ、画像出力部10による印刷が行なわれる。   If the CPU 2 determines that an instruction to start printing has been received (step S219: YES), the process moves to step S207, and printing by the image output unit 10 is performed.

一方、CPU2は、印刷をスタートする指示を受け付けていないと判定した場合(ステップS219:NO)、斯かる原稿の処理をキャンセルする旨の指示を受け付けたか否かを判定する(ステップS220)。   On the other hand, when determining that the instruction to start printing has not been received (step S219: NO), the CPU 2 determines whether an instruction to cancel the processing of the document has been received (step S220).

CPU2は、原稿の処理をキャンセルする旨の指示を受け付けたと判定した場合(ステップS220:YES)、処理を終了する。また、CPU2は、原稿の処理をキャンセルする旨の指示を受け付けていないと判定した場合(ステップS220:NO)、処理をステップS212に戻す。   If the CPU 2 determines that the instruction to cancel the process of the document is received (step S220: YES), the process ends. When the CPU 2 determines that the instruction to cancel the process of the document is not received (step S220: NO), the process returns to step S212.

一方、ステップS212にて、CPU2が表示部6の表示画面に2点のタッチがあったと判定した場合(ステップS212:YES)、CPU2は、斯かるプレビュー画像を回転する旨の指示を受け付けたか否かを更に判定する(ステップS213)。   On the other hand, when the CPU 2 determines that there are two touches on the display screen of the display unit 6 in step S212 (step S212: YES), the CPU 2 receives an instruction to rotate the preview image. Further, it is determined (step S213).

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けたと判定した場合(ステップS213:YES)、編集部17に該プレビュー画像を回転させる編集を指示し、編集部17は該プレビュー画像の向きを回転させる編集処理を行なう(ステップS221)。   If the CPU 2 determines that the instruction to rotate the preview image has been received (step S 213: YES), the editing unit 17 instructs the editing unit 17 to rotate the preview image, and the editing unit 17 sets the direction of the preview image An editing process to rotate is performed (step S221).

CPU2は、前記プレビュー画像を回転する旨の指示を受け付けていないと判定した場合(ステップS213:NO)、位置検出部8からの信号、及び該プレビュー画像(座標)に基づき、斯かる2点を結ぶ直線の方向が、該プレビュー画像の中心部で交差する縦横線の中、縦線方向(以下、第1方向と言う。)に沿う方向であるか否かを判定する(ステップS214)。   When the CPU 2 determines that the instruction to rotate the preview image is not received (step S213: NO), the CPU 2 determines two such points based on the signal from the position detection unit 8 and the preview image (coordinates). It is determined whether or not the direction of the connecting straight line is a direction along the vertical line direction (hereinafter referred to as the first direction) among the vertical and horizontal lines intersecting at the center of the preview image (step S214).

図13は本発明の実施の形態2に係る複合機100における、オブジェクト画像fの編集を説明する説明図である。図13においては、表示部6に表示された矩形のプレビュー画像の縦線方向(第1方向)には参照番号L1が付され、横線方向(第2方向)には参照番号L2が付されている。本実施の形態においては、当該2点を結ぶ直線の方向が、第1方向に沿う場合、オブジェクト画像fに対する編集が行なわれる。また、該直線の方向が第2方向に沿う場合は、用紙画像pに対する編集が行なわれる。   FIG. 13 is an explanatory diagram for explaining the editing of the object image f in the MFP 100 according to the second embodiment of the present invention. In FIG. 13, reference numeral L1 is given to the vertical line direction (first direction) of the rectangular preview image displayed on the display unit 6, and reference numeral L2 is given to the horizontal line direction (second direction). There is. In the present embodiment, when the direction of the straight line connecting the two points is along the first direction, editing of the object image f is performed. Further, when the direction of the straight line is along the second direction, the paper image p is edited.

CPU2は、前記2点を結ぶ直線の方向が、前記第1方向に沿う方向であると判定した場合(ステップS214:YES)、選択受付部14は、オブジェクト画像fの選択として受け付ける(ステップS215)。この際、斯かる旨を利用者に視認させるために、オブジェクト画像fに所定の色を付け、又は点滅させるように構成しても良い。以降、利用者はピンチイン又はピンチアウト操作を行ない、オブジェクト画像fの縮小又は拡大を指示する。   When the CPU 2 determines that the direction of the straight line connecting the two points is the direction along the first direction (step S 214: YES), the selection receiving unit 14 receives it as the selection of the object image f (step S 215) . Under the present circumstances, in order to make a user visually recognize such a thing, you may comprise so that a predetermined color may be attached to the object image f, or it may be made to blink. Thereafter, the user performs pinch-in or pinch-out operation to instruct reduction or enlargement of the object image f.

CPU2は、位置検出部8からの信号に基づき、オブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS216)。CPU2がオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS216:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、オブジェクト画像fを拡大する編集処理を行なう(ステップS217)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   The CPU 2 determines whether an instruction to expand the object image f has been received based on the signal from the position detection unit 8 (step S216). If it is determined that the CPU 2 receives an instruction to magnify the object image f (step S216: YES), that is, if a pinch out operation is performed by the user, the editing unit 17 determines between two points in the pinch out operation. An editing process for enlarging the object image f is performed according to the change in distance (step S217). Since the editing of the enlargement by the editing unit 17 has already been described, the detailed description will be omitted.

CPU2が、オブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS216:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、オブジェクト画像fを縮小する編集処理を行なう(ステップS228)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   If the CPU 2 determines that the instruction to expand the object image f has not been received (step S216: NO), that is, if the user performs a pinch-in operation, the editing unit 17 determines between two points in the pinch-in operation. In response to the change in distance, the editing process is performed to reduce the object image f (step S228). Since the editing of the reduction by the editing unit 17 has already been described, the detailed description will be omitted.

例えば、図13に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pの大きさは変わらず、オブジェクト画像fの大きさのみが縮小される。この際、情報表示部16は、図13に示すように、当該ピンチイン操作によるオブジェクト画像fの大きさの倍率変化を表示する。   For example, as shown in FIG. 13, when the user moves the thumb and the finger in the direction of the arrow in the figure and performs pinch-in operation, the size of the paper image p does not change, only the size of the object image f. It is reduced. At this time, the information display unit 16 displays a change in magnification of the size of the object image f due to the pinch-in operation, as shown in FIG.

以降、プレビュー画像を編集するための操作を完了した利用者は指を表示部6の表示画面61から離す。一方、オブジェクト画像fを編集するための操作を続ける利用者は、再び、指の回転、ピンチイン又はピンチアウトの操作を行なう。   Thereafter, the user who has completed the operation for editing the preview image releases his finger from the display screen 61 of the display unit 6. On the other hand, the user who continues the operation for editing the object image f again performs an operation of finger rotation, pinch in or pinch out.

CPU2は、位置検出部8からの信号に基づき、利用者の指が表示部6の表示画面61から離れたか否かを判定する(ステップS218)。CPU2は、利用者の指が表示部6の表示画面61から離れたと判定した場合(ステップS218:YES)、処理を終了する。また、CPU2は、利用者の指が表示部6の表示画面61から離れていないと判定した場合(ステップS218:NO)、処理を再びステップS213に戻す。   The CPU 2 determines whether the user's finger has left the display screen 61 of the display unit 6 based on the signal from the position detection unit 8 (step S218). If the CPU 2 determines that the user's finger has left the display screen 61 of the display unit 6 (step S218: YES), the process ends. When the CPU 2 determines that the user's finger is not separated from the display screen 61 of the display unit 6 (step S218: NO), the process returns to step S213.

一方、ステップS214にて、CPU2は、前記2点を結ぶ直線の方向が前記第1方向に沿う方向でないと判定した場合(ステップS214:NO)、位置検出部8からの信号に基づき、該直線の方向が前記第2方向(図13中、L2)に沿う方向であるか否かを判定する(ステップS222)。   On the other hand, when the CPU 2 determines in step S214 that the direction of the straight line connecting the two points is not the direction along the first direction (step S214: NO), the straight line is determined based on the signal from the position detection unit 8. It is determined whether or not the direction of (1) is a direction along the second direction (L2 in FIG. 13) (step S222).

CPU2が前記直線の方向を前記第2方向に沿う方向であると判定した場合(ステップS222:YES)、選択受付部14は、用紙画像pの選択として受け付ける(ステップS223)。この際、斯かる旨を利用者に視認させるために、用紙画像pに所定の色を付け、又は点滅させるように構成しても良い。以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像pの縮小又は拡大を指示する。   When the CPU 2 determines that the direction of the straight line is the direction along the second direction (step S222: YES), the selection receiving unit 14 receives the selection as the paper image p (step S223). At this time, the sheet image p may be configured to have a predetermined color or blink in order to allow the user to visually recognize such a fact. Thereafter, the user performs pinch-in or pinch-out operation to instruct reduction or enlargement of the sheet image p.

CPU2は、位置検出部8からの信号に基づき、用紙画像pを拡大する指示を受け付けたか否かを判定する(ステップS224)。CPU2が用紙画像pを拡大する指示を受け付けたと判定した場合(ステップS224:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS225)。編集部17による拡大の編集については既に説明しているので、詳しい説明を省略する。   The CPU 2 determines whether or not an instruction to expand the sheet image p has been received based on the signal from the position detection unit 8 (step S224). If it is determined that the CPU 2 receives an instruction to magnify the sheet image p (step S224: YES), that is, if the user performs a pinch out operation, the editing unit 17 determines between two points in the pinch out operation. An editing process is performed to magnify the sheet image p in accordance with the change in distance (step S225). Since the editing of the enlargement by the editing unit 17 has already been described, the detailed description will be omitted.

CPU2が、用紙画像pを拡大する指示を受け付けていないと判定した場合(ステップS224:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS226)。編集部17による縮小の編集については既に説明しているので、詳しい説明を省略する。   If it is determined that the CPU 2 has not received an instruction to enlarge the sheet image p (step S224: NO), that is, if the user performs a pinch-in operation, the editing unit 17 determines between two points in the pinch-in operation. In response to the change in the distance, the editing process is performed to reduce the sheet image p (step S226). Since the editing of the reduction by the editing unit 17 has already been described, the detailed description will be omitted.

ステップS225にて用紙画像pを拡大する編集が行なわれる際、又はステップS226にて用紙画像pを縮小する編集が行なわれる際、情報表示部16は、斯かる編集によって変更される記録用紙に対する情報を表示部6に表示する(ステップS227)。   When editing is performed to enlarge the sheet image p in step S225, or when editing to reduce the sheet image p is performed in step S226, the information display unit 16 displays information on the recording sheet to be changed by such editing. Is displayed on the display unit 6 (step S227).

図14は本発明の実施の形態2に係る複合機100における、用紙画像pの拡大の編集を説明する説明図である。   FIG. 14 is an explanatory diagram for explaining the editing of the enlargement of the sheet image p in the MFP 100 according to the second embodiment of the present invention.

例えば、図14に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、オブジェクト画像fの大きさは変わらず、用紙画像pの大きさのみが拡大される。この際、情報表示部16は、図14に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報を表示部6に表示する。図14では、ステップS205にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示された例を示している。   For example, as shown in FIG. 14, when the user moves the thumb and the finger in the direction of the arrow in the figure and performs a pinch out operation, the size of the object image f does not change, but only the size of the paper image p. Is expanded. At this time, as shown in FIG. 14, the information display unit 16 displays on the display unit 6 information on the recording sheet which has been changed by the pinch out operation, that is, determined by the sheet determination unit 15. FIG. 14 shows an example in which the text of "B4 sheet", which is a recording sheet of a larger size, is displayed as the information, instead of the A4 sheet selected in step S205.

一方、ステップS222にて、CPU2が前記直線の方向を前記第2方向に沿う方向でないと判定した場合(ステップS222:NO)、換言すれば、前記2点を結ぶ直線の方向が前記第1方向でもなく、前記第2方向でもない場合、選択受付部14は、用紙画像p及びオブジェクト画像fの選択として受け付ける(ステップS229)。   On the other hand, if the CPU 2 determines in step S222 that the direction of the straight line is not along the second direction (step S222: NO), in other words, the direction of the straight line connecting the two points is the first direction. If the direction is not the second direction, the selection receiving unit 14 receives the selection as the paper image p and the object image f (step S229).

本実施の形態においては、利用者の親指及び食指に係る2点を結ぶ直線の方向は、表示部6に表示された矩形の画像の対角線方向であるとし、以降、利用者はピンチイン又はピンチアウト操作を行ない、用紙画像p及びオブジェクト画像fの縮小又は拡大を指示するものとする。   In the present embodiment, it is assumed that the direction of the straight line connecting two points related to the thumb and the finger of the user is the diagonal direction of the rectangular image displayed on the display unit 6, and thereafter the user pinches or pinches out. An operation is performed to instruct reduction or enlargement of the paper image p and the object image f.

CPU2は、位置検出部8からの信号に基づき、用紙画像p及びオブジェクト画像fを拡大する指示を受け付けたか否かを判定する(ステップS230)。CPU2が用紙画像p及びオブジェクト画像fを拡大する指示を受け付けたと判定した場合(ステップS230:YES)、すなわち、利用者によってピンチアウト操作が行なわれた場合、編集部17は、該ピンチアウト操作における2点間の距離変化に応じて、用紙画像pを拡大する編集処理を行なう(ステップS231)。   The CPU 2 determines whether or not an instruction to expand the sheet image p and the object image f has been received based on the signal from the position detection unit 8 (step S230). When it is determined that the CPU 2 receives an instruction to enlarge the sheet image p and the object image f (step S230: YES), that is, when the user performs a pinch out operation, the editing unit 17 performs the pinch out operation. An editing process is performed to magnify the sheet image p according to the change in distance between the two points (step S231).

また、編集部17は、記憶部5に記憶されている対応テーブルに基づき、上述した用紙画像pの拡大の編集に対応するオブジェクト画像fの倍率だけ、オブジェクト画像fを拡大する編集処理を行なう(ステップS232)。   Further, the editing unit 17 performs an editing process of enlarging the object image f by the magnification of the object image f corresponding to the editing of the enlargement of the sheet image p described above based on the correspondence table stored in the storage unit 5 Step S232).

続いて、用紙決定部15は上述した方法によって用紙を決定し、用紙決定部15によって決定された用紙に対する情報を、情報表示部16が表示部6に表示する(ステップS235)。   Subsequently, the sheet determination unit 15 determines the sheet by the above-described method, and the information display unit 16 displays information on the sheet determined by the sheet determination unit 15 on the display unit 6 (step S235).

一方、CPU2が用紙画像p及びオブジェクト画像fを拡大する指示を受け付けていないと判定した場合(ステップS230:NO)、すなわち、利用者によってピンチイン操作が行なわれた場合、編集部17は、該ピンチイン操作における2点間の距離変化に応じて、用紙画像pを縮小する編集処理を行なう(ステップS233)。   On the other hand, when the CPU 2 determines that the instruction to enlarge the sheet image p and the object image f is not received (step S230: NO), that is, when the user performs a pinch-in operation, the editing unit 17 performs the pinch-in operation. An editing process is performed to reduce the sheet image p in accordance with the change in distance between two points in the operation (step S233).

また、編集部17は、記憶部5に記憶されている対応テーブルに基づき、上述した用紙画像pの縮小の編集に対応するオブジェクト画像fの倍率だけ、オブジェクト画像fを縮小する編集処理を行なう(ステップS234)。   Further, the editing unit 17 performs editing processing to reduce the object image f by the magnification of the object image f corresponding to the above-described editing of reduction of the sheet image p based on the correspondence table stored in the storage unit 5 Step S234).

続いて、用紙決定部15は上述した方法によって用紙を決定し、用紙決定部15によって決定された用紙に対する情報を、情報表示部16が表示部6に表示する(ステップS235)。この際、情報表示部16がオブジェクト画像fの編集に係る倍率も共に表示するように構成しても良い。   Subsequently, the sheet determination unit 15 determines the sheet by the above-described method, and the information display unit 16 displays information on the sheet determined by the sheet determination unit 15 on the display unit 6 (step S235). At this time, the information display unit 16 may be configured to also display the magnification associated with the editing of the object image f.

図15及び図16は本発明の実施の形態2に係る複合機100において、用紙画像p及びオブジェクト画像fを共に編集する場合を説明する説明図である。   FIGS. 15 and 16 are explanatory diagrams for explaining the case where the paper image p and the object image f are edited together in the multifunction peripheral 100 according to the second embodiment of the present invention.

例えば、図15に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチイン操作を行なった場合、用紙画像pと共にオブジェクト画像fの大きさが縮小される。この際、情報表示部16は、図15に示すように、当該ピンチイン操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報、及びオブジェクト画像fの編集に係る倍率を表示部6に表示する。図15では、ステップS205にて選択されたA4用紙の代わりに、より小さなサイズの記録用紙である「B5用紙」のテキストが前記情報として表示されている。また、用紙画像pが「A4用紙」に係る大きさから「B5用紙」に係る大きさに縮小される場合に対応するオブジェクト画像fの倍率である「86%」が共に表示されている(図9参照)。   For example, as shown in FIG. 15, when the user moves the thumb and the finger in the direction of the arrow in the drawing to perform a pinch-in operation, the size of the object image f is reduced together with the paper image p. At this time, as shown in FIG. 15, the information display unit 16 displays the information on the recording sheet changed by the pinch-in operation, ie, determined by the sheet determination unit 15, and the magnification rate for editing the object image f. Display on Part 6. In FIG. 15, instead of the A4 sheet selected in step S205, the text of "B5 sheet", which is a recording sheet of a smaller size, is displayed as the information. Further, “86%” which is the magnification of the object image f corresponding to the case where the size of the sheet image p is reduced from the size of “A4 sheet” to the size of “B5 sheet” is displayed (see FIG. 9).

また、図16に示すように、利用者が親指及び食指を図中の矢印方向に移動させてピンチアウト操作を行なった場合、用紙画像pと共にオブジェクト画像fの大きさが拡大される。この際、情報表示部16は、図16に示すように、当該ピンチアウト操作によって変更された、すなわち、用紙決定部15によって決定された記録用紙に対する情報、及びオブジェクト画像fの編集に係る倍率を表示部6に表示する。図16では、ステップS205にて選択されたA4用紙の代わりに、より大きなサイズの記録用紙である「B4用紙」のテキストが前記情報として表示されている。また、用紙画像pが「A4用紙」に係る大きさから「B4用紙」に係る大きさに拡大される場合に対応するオブジェクト画像fの倍率である「122%」が共に表示されている(図9参照)。   Further, as shown in FIG. 16, when the user moves the thumb and the finger in the direction of the arrow in the drawing to perform a pinch out operation, the size of the object image f is enlarged together with the paper image p. At this time, as shown in FIG. 16, the information display unit 16 changes the information on the recording sheet changed by the pinch-out operation, that is, determined by the sheet determination unit 15, and the magnification for editing the object image f. Displayed on the display unit 6. In FIG. 16, instead of the A4 sheet selected in step S205, the text of “B4 sheet”, which is a recording sheet of a larger size, is displayed as the information. In addition, “122%”, which is the magnification of the object image f corresponding to the case where the sheet image p is enlarged from the size of “A4 sheet” to the size of “B4 sheet” (FIG. 9).

以上の実施の形態2の記載においては、用紙画像pの拡大・縮小の編集の後に、該編集にあわせてオブジェクト画像fの編集が行なわれる場合を例にあげて説明したが、これに限るものでない。先ず、オブジェクト画像fの拡大・縮小の編集が行なわれ、この後に該編集にあわせて用紙画像pの編集が行なわれるように構成しても良い。   In the description of the second embodiment above, although the case where editing of the object image f is performed along with the editing after enlargement / reduction editing of the paper image p has been described as an example, the present invention is limited thereto Not First, editing of enlargement / reduction of the object image f may be performed, and then editing of the paper image p may be performed according to the editing.

なお、本発明に係る複合機100の構成は以上の記載に限るものでない。以上の記載においては、選択受付部14がオブジェクト画像fの選択を受け付け、利用者のピンチイン又はピンチアウトの操作に基づいてオブジェクト画像fの編集が行なわれる際、利用者の2本の指に係る2点間の距離変化に応じて順にオブジェクト画像fの倍率が変更される場合を例として説明したがこれに限るものでない。例えば、斯かるオブジェクト画像fの倍率の変更は、図9の対応テーブルにて示すように、141%、122%、…、81%、70%の順(又は逆順)に変更されるように構成しても良い。   The configuration of the multifunction peripheral 100 according to the present invention is not limited to the above description. In the above description, when the selection receiving unit 14 receives the selection of the object image f and editing of the object image f is performed based on the user's pinch-in or pinch-out operation, the user's two fingers are involved. Although the case where the magnification of the object image f is sequentially changed according to the change in distance between two points has been described as an example, the present invention is not limited to this. For example, as shown in the correspondence table of FIG. 9, the change of the magnification of the object image f is configured to be changed in the order (or the reverse order) of 141%, 122%, ..., 81%, 70%. You may.

実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。   About the part similar to Embodiment 1, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

(実施の形態3)
図17は本発明の実施の形態3の複合機100の要部構成を示すブロック図である。実施の形態3の複合機100は、動作を行なうためのコンピュータプログラムが、I/F20を介してCD−ROM等の可搬型記録媒体Aで提供することも可能であるように構成されている。さらに、実施の形態3の複合機100は、前記コンピュータプログラムを、図示しない外部装置から通信部30を介してダウンロードすることも可能であるように構成されている。以下に、その内容を説明する。
Third Embodiment
FIG. 17 is a block diagram showing the main configuration of the multifunction device 100 according to the third embodiment of the present invention. The MFP 100 according to the third embodiment is configured such that a computer program for performing an operation can be provided by a portable recording medium A such as a CD-ROM via the I / F 20. Further, the multifunction peripheral 100 according to the third embodiment is configured to be able to download the computer program from an external device (not shown) via the communication unit 30. The contents are described below.

実施の形態3の複合機100は外装(又は内装)の記録媒体読み取り装置(図示せず)を備えており、該記録媒体読み取り装置に、位置検出部8によって検出された2点を結ぶ直線の方向に基づき、表示部6に表示された画像(表示画像)を編集させるプログラム等が記録された可搬型記録媒体Aを挿入して、例えば、CPU2がROM3にこのプログラムをインストールする。かかるプログラムはRAM4にロードして実行される。これにより、実施の形態3の本発明の複合機100として機能する。   The multi-function device 100 according to the third embodiment is provided with an exterior (or interior) recording medium reading device (not shown), and the recording medium reading device has a straight line connecting two points detected by the position detection unit 8. Based on the direction, a portable recording medium A in which a program for editing an image (display image) displayed on the display unit 6 is recorded is inserted, and for example, the CPU 2 installs the program in the ROM 3. The program is loaded to the RAM 4 and executed. Thereby, it functions as the multifunction peripheral 100 of the present invention of the third embodiment.

前記記録媒体としては、いわゆるプログラムメディアであっても良く、磁気テープ及びカセットテープ等のテープ系、フレキシブルディスク及びハードディスク等の磁気ディスク並びにCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM、EEPROM、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。   The recording medium may be a so-called program medium, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a flexible disk and a hard disk, and a disk system of an optical disk such as a CD-ROM / MO / MD / DVD. The medium may be a card system such as an IC card (including a memory card) / optical card, or a medium carrying a fixed program code including a semiconductor memory such as a mask ROM, EPROM, EEPROM, flash ROM or the like.

通信部30を介してネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   It may be a medium that fluidly carries the program code so as to download the program code from the network via the communication unit 30. When the program is downloaded from the communication network as described above, the program for download may be stored in advance in the main device or may be installed from another recording medium. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。   About the part similar to Embodiment 1, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

以上の記載においては、1つの原稿画像に対して、用紙サイズの変換指示、画像サイズの変換指示、又は画像の回転指示等の編集指示を2本の指で操作する場合を例として説明したが、本発明はこれに限るものでない。
例えば、原稿束の複数ページの原稿に係る原稿画像が読み取られた場合には、所定の原稿画像に対する編集指示に係る編集結果が、全ての原稿画像においても反映されるように構成しても良く、選択された特定ページの原稿画像に対してのみ反映されるように構成しても良い。また、これらの何れかをユーザが選択できるように構成しても良い。
In the above description, the case of operating an editing instruction such as a sheet size conversion instruction, an image size conversion instruction, or an image rotation instruction with one finger with respect to one document image has been described as an example. The present invention is not limited to this.
For example, when a document image relating to a plurality of pages of documents in a bundle of documents is read, the editing result relating to the editing instruction for a predetermined document image may be configured to be reflected on all the document images. Alternatively, it may be configured to be reflected only on the original image of the selected specific page. Further, any of these may be configured to be selectable by the user.

この場合は、選択された特定ページの原稿画像に対する編集指示を他の原稿画像にも反映する指示をユーザから受け付けるためのキーを、本発明に係る複合機に設けることにより実現できる。   In this case, the multifunction device according to the present invention can be realized by providing a key for receiving from the user an instruction to reflect an editing instruction for a document image of a selected specific page on another document image.

また、本発明に係る複合機は以上の記載に限るものでなく、従来の拡大、縮小、用紙サイズ選択、回転等の操作キーとの併用、また他の編集機能との組み合わせ指示も可能である。   Further, the multi-functional peripheral according to the present invention is not limited to the above description, and conventional combination with an operation key such as enlargement, reduction, sheet size selection, rotation, etc., or combination instruction with other editing functions is also possible. .

1 制御部
2 CPU
5 記憶部
6 表示部
61 表示画面
8 位置検出部
14 選択受付部
15 用紙決定部
16 情報表示部
17 編集部
100 複合機
A 記録媒体
p 用紙画像
f オブジェクト画像
1 Controller 2 CPU
5 storage unit 6 display unit 61 display screen 8 position detection unit 14 selection reception unit 15 paper determination unit 16 information display unit 17 editing unit 100 multifunction machine A recording medium p paper image f object image

Claims (3)

表示部と、前記表示部の表示画面との接触位置を検出する位置検出部とを備え、前記表示部に表示される表示画像に基づき、記録媒体に画像形成を行う画像形成装置を用いて前記表示画像を処理する画像処理方法であって、
前記画像形成のための対象を示すオブジェクト画像、及び、前記記録媒体を示す媒体画像を有する表示画像を表示するステップと、
前記位置検出部により2点の接触が検出された場合、編集モードに遷移し、検出された2点の接触位置に基づいて前記媒体画像に対する前記オブジェクト画像の倍率を変更するステップと、
前記媒体画像において変更されたオブジェクト画像が占める領域を表示するステップと、
検出された2点の接触位置に基づいて、複数の選択可能な記録媒体から1つの記録媒体を決定するステップと、
前記位置検出部による検出結果に基づいて前記編集モードを終了するステップと
を含むことを特徴とする画像処理方法。
And an image forming apparatus for forming an image on a recording medium based on a display image displayed on the display unit. An image processing method for processing a display image, comprising
Displaying a display image having an object image indicating an object for the image formation and a medium image indicating the recording medium;
Changing the magnification of the object image with respect to the medium image based on the detected two touch positions when transitioning to an edit mode when two touch points are detected by the position detection unit;
Displaying an area occupied by the modified object image in the medium image;
Determining one recording medium from a plurality of selectable recording media based on the detected two touch positions;
And D. ending the editing mode based on the detection result by the position detection unit.
表示部と、前記表示部の表示画面との接触位置を検出する位置検出部とを備える画像形成装置を用いて画像を処理する画像処理方法であって、
画像形成のための対象を示すオブジェクト画像、及び、前記オブジェクト画像を記録する記録媒体を示す媒体画像を有する画像を表示するステップと、
前記位置検出部により2点の接触が検出された場合、編集モードに遷移し、検出された2点の接触位置に基づいて前記媒体画像に対する前記オブジェクト画像の倍率を変更するステップと、
前記媒体画像において変更されたオブジェクト画像が占める領域を表示するステップと、
検出された2点の接触位置に基づいて、前記記録媒体を決定するステップと、
前記位置検出部による検出結果に基づいて前記編集モードを終了するステップと
を含むことを特徴とする画像処理方法。
An image processing method for processing an image using an image forming apparatus comprising: a display unit; and a position detection unit that detects a contact position between a display screen of the display unit and the display unit.
Displaying an image having an object image indicating an object for image formation and a medium image indicating a recording medium on which the object image is recorded;
Changing the magnification of the object image with respect to the medium image based on the detected two touch positions when transitioning to an edit mode when two touch points are detected by the position detection unit;
Displaying an area occupied by the modified object image in the medium image;
Determining the recording medium based on the detected two contact positions;
And D. ending the editing mode based on the detection result by the position detection unit.
前記位置検出部により検出された前記2点間の距離変化に基づいて、前記倍率の変更が行われることを特徴とする請求項1又は2に記載の画像処理方法。   The image processing method according to claim 1, wherein the magnification change is performed based on a change in distance between the two points detected by the position detection unit.
JP2018204257A 2018-10-30 2018-10-30 Image processing method Active JP6581709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018204257A JP6581709B2 (en) 2018-10-30 2018-10-30 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018204257A JP6581709B2 (en) 2018-10-30 2018-10-30 Image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017135215A Division JP2017185821A (en) 2017-07-11 2017-07-11 Image formation device and image processing method

Publications (2)

Publication Number Publication Date
JP2019048464A true JP2019048464A (en) 2019-03-28
JP6581709B2 JP6581709B2 (en) 2019-09-25

Family

ID=65904905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018204257A Active JP6581709B2 (en) 2018-10-30 2018-10-30 Image processing method

Country Status (1)

Country Link
JP (1) JP6581709B2 (en)

Also Published As

Publication number Publication date
JP6581709B2 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
JP5518009B2 (en) Image forming apparatus, image editing method, computer program, and recording medium
US9197785B2 (en) Operation device, operation method, and image forming apparatus including the operation device
US8462378B2 (en) Image forming apparatus for producing plural images on a single sheet with a user selected integration pattern
US20080201378A1 (en) Image processor, preview image display method, and computer program product
CN102447809B (en) Operation device, image forming apparatus, and operation method
JP5795465B2 (en) Display device
JP4673037B2 (en) Image display apparatus, image display apparatus control method, and program
JP6581709B2 (en) Image processing method
EP3865944B1 (en) Image forming apparatus, image forming method, and image forming system
JP6200528B2 (en) Image forming apparatus and image processing method
JP5876451B2 (en) Image forming apparatus, recording medium determination method, computer program, and recording medium
JP2017185821A (en) Image formation device and image processing method
JP5364665B2 (en) Image forming apparatus
JP4644225B2 (en) Image forming apparatus
JP6322272B2 (en) Display device, setting method, computer program, and recording medium recording the same
JP2011023818A (en) Image editing device and computer program
JP6504238B2 (en) Display control device and program
JP6068562B2 (en) Display device, computer program, and recording medium recording the same
JP3656468B2 (en) Copy control apparatus, copy method, and computer-readable medium
JPH06202417A (en) Image editing device for electrophotographic copying machine
JP2014010764A (en) Display device, deletion method, computer program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190830

R150 Certificate of patent or registration of utility model

Ref document number: 6581709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150