[go: up one dir, main page]

JP2012138673A - Mobile electronic device - Google Patents

Mobile electronic device Download PDF

Info

Publication number
JP2012138673A
JP2012138673A JP2010288278A JP2010288278A JP2012138673A JP 2012138673 A JP2012138673 A JP 2012138673A JP 2010288278 A JP2010288278 A JP 2010288278A JP 2010288278 A JP2010288278 A JP 2010288278A JP 2012138673 A JP2012138673 A JP 2012138673A
Authority
JP
Japan
Prior art keywords
image
electronic device
unit
portable electronic
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010288278A
Other languages
Japanese (ja)
Other versions
JP5606901B2 (en
Inventor
Yasuhiro Ueno
泰弘 上野
Shigeteru Tanabe
茂輝 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010288278A priority Critical patent/JP5606901B2/en
Publication of JP2012138673A publication Critical patent/JP2012138673A/en
Application granted granted Critical
Publication of JP5606901B2 publication Critical patent/JP5606901B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily edit data.SOLUTION: A mobile electronic device 1 comprises: a projector 34 to project an image; a display 32 which displays the image; an operation part 13 which receives operation; and a processing part 22. The processing part 22 causes the projector 34 to project a first image and causes the display 32 to display at least a part of the first image as a second image. Then, the processing part 22 receives, from the operation part 13, editing operation for editing a portion displayed as the second image, from in data corresponding to the first image.

Description

本発明は、スクリーンや壁面に画像を投影する画像投影部を有する携帯電子機器に関する。   The present invention relates to a portable electronic device having an image projection unit that projects an image onto a screen or a wall surface.

近年、携帯電話機等の携帯電子機器の高機能化と高性能化が進み、従来はパソコン等の据え置き型の電子機器でなければ実行できなかった処理を携帯電子機器で実行することが可能になってきている。例えば、ワープロや表計算等のデータを携帯電子機器へ送信し、携帯電子機器でデータを編集することも可能になっている(例えば、特許文献1)。   2. Description of the Related Art In recent years, mobile electronic devices such as mobile phones have become highly functional and high-performance, and it has become possible to execute processes that could only be performed by a stationary electronic device such as a personal computer using a mobile electronic device. It is coming. For example, it is also possible to transmit data such as word processors and spreadsheets to a portable electronic device and edit the data with the portable electronic device (for example, Patent Document 1).

特開2006−81213号公報JP 2006-81213 A

ところで、携帯電子機器は、据え置き型の電子機器と比較して、データを表示するための表示部の面積が狭いことが多い。このため、携帯電子機器でデータを編集する場合、編集箇所以外の部分を参照しながら情報の変更や追加を行うことができないため、利用者が編集を行い難いことがあった。   Meanwhile, portable electronic devices often have a smaller display area for displaying data than stationary electronic devices. For this reason, when editing data with a portable electronic device, it is difficult for a user to edit because information cannot be changed or added while referring to portions other than the edited portion.

本発明は、利用者がデータの編集を容易に行うことができる携帯電子機器を提供することを目的とする。   An object of the present invention is to provide a portable electronic device that allows a user to easily edit data.

上述した課題を解決し、目的を達成するために、本発明に係る携帯電子機器は、画像を投影する投影部と、画像を表示する表示部と、操作を受け付ける操作部と、前記投影部に第1の画像を投影させるとともに、前記表示部に前記第1の画像の少なくとも一部を第2の画像として表示させ、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分を編集するための編集操作を前記操作部から受け付ける処理部とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, a portable electronic device according to the present invention includes a projection unit that projects an image, a display unit that displays an image, an operation unit that receives an operation, and the projection unit. Projecting the first image, causing the display unit to display at least a part of the first image as a second image, and displaying the second image among the data corresponding to the first image And a processing unit that receives an editing operation for editing the portion that is being processed from the operation unit.

ここで、前記携帯電子機器は、当該携帯電子機器の姿勢又は位置の少なくとも一方の変化を検出する検出部をさらに備え、前記処理部は、前記検出部の検出結果に基づいて、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置又は範囲の少なくとも一方を変化させることが好ましい。   Here, the portable electronic device further includes a detection unit that detects a change in at least one of a posture or a position of the portable electronic device, and the processing unit is configured to detect the first based on a detection result of the detection unit. It is preferable to change at least one of a position or a range of a portion displayed on the display unit as the second image in the image.

例えば、前記処理部は、当該携帯電子機器の位置が前記投影部によって画像が投影される投影面に近づいたことが前記検出部によって検出された場合に、前記表示部に表示される前記第2の画像が拡大されるように、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を狭めることとしてもよい。   For example, the processing unit is configured to display the second information displayed on the display unit when the detection unit detects that the position of the mobile electronic device has approached a projection surface on which an image is projected by the projection unit. It is good also as narrowing the range of the part currently displayed as a said 2nd image among the data corresponding to a said 1st image so that an image of this may be expanded.

また、例えば、前記処理部は、当該携帯電子機器の位置が前記投影面から遠ざかったことが前記検出部によって検出された場合に、前記表示部に表示される前記第2の画像が縮小されるように、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を拡げることとしてもよい。   For example, the processing unit reduces the second image displayed on the display unit when the detection unit detects that the position of the portable electronic device has moved away from the projection plane. Thus, the range of the portion displayed as the second image in the data corresponding to the first image may be expanded.

また、例えば、前記処理部は、当該携帯電子機器の位置が前記投影面と平行方向に移動したことが前記検出部によって検出された場合に、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を、当該携帯電子機器の移動方向に応じて移動させることとしてもよい。   In addition, for example, when the detection unit detects that the position of the mobile electronic device has moved in a direction parallel to the projection plane, the processing unit includes the data corresponding to the first image. The range of the portion displayed as the second image may be moved according to the moving direction of the portable electronic device.

また、前記処理部は、前記検出部の検出結果に基づいて、前記第1の画像が投影対象の一定の範囲に一定の大きさで投影されるように前記投影部を制御することが好ましい。   Further, it is preferable that the processing unit controls the projection unit based on a detection result of the detection unit so that the first image is projected in a certain size on a certain range of the projection target.

また、前記処理部は、前記操作部で受け付けられた操作に基づいて、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置又は範囲の少なくとも一方を変化させることが好ましい。   In addition, the processing unit changes at least one of a position or a range of a portion displayed on the display unit as the second image of the first image based on an operation received by the operation unit. It is preferable.

また、前記処理部は、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置及び範囲を前記第1の画像中に示すことが好ましい。   Moreover, it is preferable that the said process part shows the position and range of the part displayed on the said display part as said 2nd image among the said 1st images in the said 1st image.

また、前記処理部は、前記操作部で前記編集操作が受け付けられた場合に、当該編集操作に基づく変更を前記第1の画像に反映させることなく前記第2の画像に反映させ、前記操作部で所定の保存操作が受け付けられた後に、前記編集操作に基づく変更を前記第1の画像に反映させることが好ましい。   In addition, when the editing operation is accepted by the operation unit, the processing unit reflects the change based on the editing operation on the second image without reflecting the change on the first image, and the operation unit Preferably, after a predetermined saving operation is accepted, a change based on the editing operation is reflected in the first image.

また、前記処理部は、前記データが他の装置と共有されている場合に、前記他の装置から送信された編集内容に基づく変更を前記第1の画像及び前記第2の画像に反映させることが好ましい。   In addition, when the data is shared with another device, the processing unit reflects the change based on the editing content transmitted from the other device on the first image and the second image. Is preferred.

本発明は、利用者がデータの編集を容易に行うことができるという効果を奏する。   The present invention has an effect that a user can easily edit data.

図1は、実施形態に係る携帯電子機器の一実施形態の概略構成を示す正面図である。FIG. 1 is a front view illustrating a schematic configuration of an embodiment of a portable electronic device according to the embodiment. 図2は、図1に示す携帯電子機器の側面図である。FIG. 2 is a side view of the portable electronic device shown in FIG. 図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 1 and 2. 図4は、図1に示す携帯電子機器のプロジェクタが画像を投影している状態を示す説明図である。FIG. 4 is an explanatory diagram showing a state in which the projector of the portable electronic device shown in FIG. 1 is projecting an image. 図5は、携帯電子機器の画像出力動作の一例を示すフロー図である。FIG. 5 is a flowchart illustrating an example of an image output operation of the portable electronic device. 図6は、携帯電子機器のデータ編集動作の一例を示すフロー図である。FIG. 6 is a flowchart showing an example of the data editing operation of the portable electronic device. 図7は、携帯電子機器の動作を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining the operation of the portable electronic device. 図8は、携帯電子機器の動作を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining the operation of the portable electronic device. 図9は、携帯電子機器の動作を説明するための説明図である。FIG. 9 is an explanatory diagram for explaining the operation of the portable electronic device.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯電子機器の一例として携帯電話機を取り上げるが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone is taken up as an example of a portable electronic device, but the application target of the present invention is not limited to a mobile phone. The present invention can also be applied to game machines and the like.

図1は、実施形態に係る携帯電子機器の一実施形態の概略構成を示す正面図であり、図2は、図1に示す携帯電子機器の側面図である。図1、図2に示す携帯電子機器1は、無線通信機能と、出力手段と、音声取得手段と、撮像手段とを有する携帯電話機である。携帯電子機器1は、筐体1Cが複数の筐体で構成される。具体的には、筐体1Cは、第1筐体1CAと第2筐体1CBとで開閉可能に構成される。すなわち、携帯電子機器1は、折り畳み式の筐体を有する。なお、携帯電子機器1の筐体は、このような構造に限定されるものではない。例えば、携帯電子機器1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して両方の筐体を連結したものでもよい。   FIG. 1 is a front view showing a schematic configuration of an embodiment of a portable electronic device according to the embodiment, and FIG. 2 is a side view of the portable electronic device shown in FIG. A portable electronic device 1 shown in FIGS. 1 and 2 is a mobile phone having a wireless communication function, an output unit, a voice acquisition unit, and an imaging unit. In the portable electronic device 1, the housing 1C is composed of a plurality of housings. Specifically, the housing 1C is configured to be openable and closable by a first housing 1CA and a second housing 1CB. That is, the portable electronic device 1 has a foldable housing. In addition, the housing | casing of the portable electronic device 1 is not limited to such a structure. For example, the casing of the portable electronic device 1 may be a sliding casing that allows one casing and the other casing to slide from each other in a state where both casings are overlapped, It may be a rotary type in which one casing is rotated around an axis along the overlapping direction, or both casings are connected via a biaxial hinge.

第1筐体1CAと第2筐体1CBとは、連結部であるヒンジ機構8で連結されている。ヒンジ機構8で第1筐体1CAと第2筐体1CBとを連結することにより、第1筐体1CA及び第2筐体1CBは、ヒンジ機構8を中心としてともに回動して、互いに遠ざかる方向及び互いに接近する方向(図2の矢印Rで示す方向)に回動できるように構成される。第1筐体1CAと第2筐体1CBとが互いに遠ざかる方向に回動すると携帯電子機器1が開き、第1筐体1CAと第2筐体1CBとが互いに接近する方向に回動すると携帯電子機器1が閉じて、折り畳まれた状態となる(図2の点線で示す状態)。   1st housing | casing 1CA and 2nd housing | casing 1CB are connected by the hinge mechanism 8 which is a connection part. By connecting the first casing 1CA and the second casing 1CB with the hinge mechanism 8, the first casing 1CA and the second casing 1CB rotate together around the hinge mechanism 8 and move away from each other. And it is comprised so that it can rotate in the direction (direction shown by arrow R of FIG. 2) which mutually approaches. When the first casing 1CA and the second casing 1CB rotate in a direction away from each other, the portable electronic device 1 opens, and when the first casing 1CA and the second casing 1CB rotate in a direction approaching each other, the portable electronic device 1 opens. The device 1 is closed and folded (a state indicated by a dotted line in FIG. 2).

第1筐体1CAには、表示部として、図1に示すディスプレイ2が設けられる。ディスプレイ2は、携帯電子機器1が受信を待機している状態のときに待ち受け画像を表示したり、携帯電子機器1の操作を補助するために用いられるメニュー画像を表示したりする。また、第1筐体1CAには、携帯電子機器1の通話時に音声を出力する出力手段であるレシーバ16が設けられる。   The first housing 1CA is provided with a display 2 shown in FIG. 1 as a display unit. The display 2 displays a standby image when the portable electronic device 1 is waiting for reception, or displays a menu image used for assisting the operation of the portable electronic device 1. In addition, the first housing 1CA is provided with a receiver 16 that is an output unit that outputs sound when the mobile electronic device 1 is in a call.

第1筐体1CAのディスプレイ2と反対側には、画像投影部であるプロジェクタ34、プロジェクタ34の光出射部(対物レンズ)から画像投影対象までの距離を測定する距離測定手段である距離センサ36、及び、画像が投影される面の画像を撮影(取得)するカメラ40が設けられる。このような構成により、プロジェクタ34によって画像を投影対象物に投影したり、プロジェクタ34の出射面と投影対象物との距離を距離センサ36で測定して、プロジェクタ34が投影する画像の焦点を自動的に合わせたりすることができる。なお、プロジェクタ34の光出射部、カメラ40の撮影窓は、第1筐体1CAの外部に露出している。   On the side opposite to the display 2 of the first housing 1CA, a projector 34 that is an image projection unit, and a distance sensor 36 that is a distance measurement unit that measures the distance from the light emitting unit (objective lens) of the projector 34 to the image projection target. And a camera 40 that captures (acquires) an image of the surface on which the image is projected. With such a configuration, the projector 34 projects an image onto the projection target, or the distance between the exit surface of the projector 34 and the projection target is measured by the distance sensor 36, and the focus of the image projected by the projector 34 is automatically set. Can be adjusted. In addition, the light emission part of the projector 34 and the imaging | photography window of the camera 40 are exposed outside the 1st housing | casing 1CA.

第2筐体1CBには、通話相手の電話番号や、メール作成時等に文字を入力するための操作キー13Aが複数設けられ、また、ディスプレイ2に表示されるメニューの選択及び決定や画面のスクロール等を容易に実行するための方向及び決定キー13Bが設けられる。操作キー13A及び方向及び決定キー13Bは、携帯電子機器1の操作部13を構成する。また、第2筐体1CBには、携帯電子機器1の通話時に音声を受け取る音声取得手段であるマイク15が設けられる。操作部13は、図2に示す、第2筐体1CBの操作面1PCに設けられる。操作面1PCとは反対側の面が、携帯電子機器1の背面1PBである。なお、操作部13は、上述のキー構成に代えて、表示部上に配置されたタッチセンサであってもよい。   The second casing 1CB is provided with a plurality of operation keys 13A for inputting a telephone number of a call partner, a mail, etc., and selection and determination of a menu displayed on the display 2 and a screen. A direction and determination key 13B for easily executing scrolling and the like are provided. The operation key 13 </ b> A and the direction / decision key 13 </ b> B constitute the operation unit 13 of the mobile electronic device 1. In addition, the second casing 1CB is provided with a microphone 15 that is a voice acquisition unit that receives voice when the mobile electronic device 1 is in a call. The operation unit 13 is provided on the operation surface 1PC of the second housing 1CB shown in FIG. The surface opposite to the operation surface 1PC is the back surface 1PB of the portable electronic device 1. Note that the operation unit 13 may be a touch sensor disposed on the display unit instead of the key configuration described above.

図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。図3に示すように、携帯電子機器1は、処理部22と、記憶部24と、送受信部26と、操作部13と、音声処理部30と、表示部32と、プロジェクタ34と、距離センサ36と、動き検出手段である加速度センサ38と、カメラ40と、を有する。処理部22は、携帯電子機器1の全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、携帯電子機器1の各種の処理が、操作部13の操作や携帯電子機器1の記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26や、音声処理部30や、表示部32等の動作を制御する。   FIG. 3 is a block diagram illustrating a schematic configuration of functions of the portable electronic device illustrated in FIGS. 1 and 2. As shown in FIG. 3, the portable electronic device 1 includes a processing unit 22, a storage unit 24, a transmission / reception unit 26, an operation unit 13, an audio processing unit 30, a display unit 32, a projector 34, and a distance sensor. 36, an acceleration sensor 38 which is a motion detection means, and a camera 40. The processing unit 22 has a function of comprehensively controlling the overall operation of the mobile electronic device 1. In other words, the processing unit 22 transmits and receives various processes of the mobile electronic device 1 so as to be executed in an appropriate procedure according to the operation of the operation unit 13 and the software stored in the storage unit 24 of the mobile electronic device 1. The operations of the unit 26, the voice processing unit 30, the display unit 32, and the like are controlled.

携帯電子機器1の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、音声処理部30、表示部32等の動作としては、例えば、送受信部26による信号の送受信、音声処理部30による音声の入出力、表示部32による画像の表示等がある。   Various processes of the portable electronic device 1 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an electronic mail, browsing of a Web (World Wide Web) site on the Internet, and the like. Examples of operations of the transmission / reception unit 26, the audio processing unit 30, and the display unit 32 include transmission / reception of signals by the transmission / reception unit 26, input / output of audio by the audio processing unit 30, display of images by the display unit 32, and the like. .

処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、前記ソフトウェアで指示された手順にしたがって上述した携帯電子機器1の各種の処理を実行する。すなわち、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The processing unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The processing unit 22 is constituted by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the portable electronic device 1 described above in accordance with procedures instructed by the software. That is, the processing unit 22 sequentially reads instruction codes from an operating system program, application program, or the like stored in the storage unit 24 and executes processing.

処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、プロジェクタ34や距離センサ36の駆動を制御するアプリケーションプログラムや、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム、及びデコードして得られる画像を表示部32に表示させたりプロジェクタ34に投影させたりするアプリケーションプログラム等の複数のアプリケーションプログラムがある。   The processing unit 22 has a function of executing a plurality of application programs. Examples of application programs executed by the processing unit 22 include an application program that controls driving of the projector 34 and the distance sensor 36, an application program that reads various image files (image information) from the storage unit 24, and decodes them. There are a plurality of application programs such as an application program for displaying an image obtained in this manner on the display unit 32 or projecting it on the projector 34.

本実施形態において、処理部22は、プロジェクタ制御部22a、画像処理部22b、条件判定部22c、姿勢・位置演算部22d、投影補正部22e、連係出力制御部22f、データ編集部22gを有する。   In the present embodiment, the processing unit 22 includes a projector control unit 22a, an image processing unit 22b, a condition determination unit 22c, an attitude / position calculation unit 22d, a projection correction unit 22e, a linkage output control unit 22f, and a data editing unit 22g.

プロジェクタ制御部22aは、プロジェクタ34を制御して画像を画像投影対象に投影させる。画像処理部22bは、記憶部24に記憶されているデータや送受信部26によって受信されたデータをデコードして、プロジェクタ34によって投影される画像や表示部32に表示される画像を生成する。また、画像処理部22bは、利用者に情報を提供したり、利用者から情報の入力を受け付けたりするための各種画面として表示又は投影される画像を生成する。画像処理部22bは、画像に対して拡大、縮小、変形等の加工を施す処理も実行する。   The projector control unit 22a controls the projector 34 to project an image onto an image projection target. The image processing unit 22b decodes the data stored in the storage unit 24 and the data received by the transmission / reception unit 26, and generates an image projected by the projector 34 and an image displayed on the display unit 32. Further, the image processing unit 22b generates an image to be displayed or projected as various screens for providing information to the user or receiving input of information from the user. The image processing unit 22b also executes processing for performing processing such as enlargement, reduction, and deformation on the image.

条件判定部22cは、プロジェクタ制御部22aによる画像の投影に影響する条件が変化したか否かを判定する。ここで、プロジェクタ制御部22aによる画像の投影に影響する条件とは、例えば、携帯電子機器1の姿勢の変化や画像投影対象との距離の変化である。姿勢・位置演算部22dは、距離センサ36や加速度センサ38の検出結果等に基づいて、携帯電子機器1の姿勢及び位置を算出する。   The condition determination unit 22c determines whether or not a condition affecting the image projection by the projector control unit 22a has changed. Here, the condition affecting the projection of the image by the projector control unit 22a is, for example, a change in the attitude of the mobile electronic device 1 or a change in the distance to the image projection target. The posture / position calculation unit 22d calculates the posture and position of the portable electronic device 1 based on the detection results of the distance sensor 36 and the acceleration sensor 38 and the like.

投影補正部22eは、画像投影対象の一定の位置に一定の大きさで画像が投影されるように補正処理を行う。具体的には、投影補正部22eは、姿勢・位置演算部22dによって算出される携帯電子機器1の姿勢及び位置の変化に応じて、プロジェクタ制御部22aによるプロジェクタ34の制御内容や、画像処理部22bによる画像処理の内容を変化させることにより、投影画像の位置と大きさとを一定に保たせる。   The projection correction unit 22e performs correction processing so that an image is projected at a certain size on a certain position of the image projection target. Specifically, the projection correction unit 22e determines the control contents of the projector 34 by the projector control unit 22a and the image processing unit according to the change in the posture and position of the portable electronic device 1 calculated by the posture / position calculation unit 22d. By changing the content of the image processing by 22b, the position and size of the projection image are kept constant.

連係出力制御部22fは、第1の画像をプロジェクタ34から投影させるとともに、第1の画像の少なくとも一部を第2の画像として表示部32に表示させる。そして、連係出力制御部22fは、第1の画像を変化させずに投影させつつ、姿勢・位置演算部22dによって算出される携帯電子機器1の姿勢及び位置の変化に応じて、表示部32に表示される第2の画像の内容を変化させる。   The linkage output control unit 22f causes the projector 34 to project the first image and causes the display unit 32 to display at least a part of the first image as the second image. Then, the linkage output control unit 22f projects the first image without changing, and changes the posture and position of the portable electronic device 1 calculated by the posture / position calculation unit 22d according to the change in the posture and position of the portable electronic device 1. The content of the second image to be displayed is changed.

例えば、連係出力制御部22fは、初期状態において、あるデータに基づく画像全体を第1の画像としてプロジェクタ34から投影させ、その画像の中央部分の所定の範囲を第2の画像として表示部32に表示させる。そして、連係出力制御部22fは、携帯電子機器1が画像投影対象上の投影面との距離を保ったままで投影面と平行方向に上下左右へ移動した場合、第1の画像のうち第2の画像として表示部32に表示される部分を移動方向と移動距離とに応じて上下左右へスクロールさせる。また、連係出力制御部22fは、携帯電子機器1の姿勢が変化した場合、第1の画像のうち第2の画像として表示部32に表示される部分を姿勢の変化方向と変化量とに応じて上下左右へスクロールさせる。   For example, in the initial state, the linkage output control unit 22f projects the entire image based on certain data from the projector 34 as a first image, and a predetermined range in the central portion of the image is displayed on the display unit 32 as a second image. Display. When the mobile electronic device 1 moves up and down, left and right in a direction parallel to the projection plane while maintaining the distance from the projection plane on the image projection target, the linkage output control unit 22f outputs the second of the first images. The part displayed on the display unit 32 as an image is scrolled up and down and left and right according to the moving direction and the moving distance. In addition, when the attitude of the mobile electronic device 1 changes, the linkage output control unit 22f determines a portion of the first image displayed on the display unit 32 as the second image according to the change direction and the change amount of the attitude. Scroll up / down / left / right.

また、連係出力制御部22fは、携帯電子機器1が画像投影対象に近づいた場合、第2の画像として表示部32に表示される部分が拡大されるように、第1の画像のうち第2の画像として表示部32に表示される部分の範囲を移動距離に応じて狭める。また、連係出力制御部22fは、携帯電子機器1が画像投影対象から遠ざかった場合、第2の画像として表示部32に表示される部分が縮小されるように、第1の画像のうち第2の画像として表示部32に表示される部分の範囲を移動距離に応じて拡げる。   In addition, the linkage output control unit 22f includes a second output of the first image so that a portion displayed on the display unit 32 as the second image is enlarged when the portable electronic device 1 approaches the image projection target. The range of the portion displayed on the display unit 32 as an image of the image is narrowed according to the movement distance. In addition, the linkage output control unit 22f includes a second output of the first image so that the portion displayed on the display unit 32 as the second image is reduced when the portable electronic device 1 moves away from the image projection target. The range of the portion displayed on the display unit 32 as the image of is expanded according to the movement distance.

データ編集部22gは、第1の画像に対応するデータのうち、第2の画像として表示部32に表示されている部分を編集するための編集操作を操作部13等から受け付け、受け付けた編集操作に応じた編集処理を実行する。また、データ編集部22gは、第1の画像に対応するデータのうち、第2の画像として表示部32に表示されている部分を編集するためのメニューやポップアップ画面等を必要に応じて表示部32に表示させる。すなわち、データ編集部22gは、第1の画像に対応するデータのうち、第2の画像として表示部32に表示されている部分を編集する機能を利用者に提供する。ここでいう編集とは、データへの情報の追加、データに含まれる情報の変更、データに含まれる情報の削除等を意味する。   The data editing unit 22g receives an editing operation for editing a portion of the data corresponding to the first image displayed on the display unit 32 as the second image from the operation unit 13 or the like. The editing process corresponding to is executed. In addition, the data editing unit 22g displays a menu or a pop-up screen for editing a part displayed on the display unit 32 as the second image of the data corresponding to the first image as necessary. 32. That is, the data editing unit 22g provides the user with a function of editing a portion of the data corresponding to the first image that is displayed on the display unit 32 as the second image. Editing here means addition of information to data, change of information included in data, deletion of information included in data, and the like.

プロジェクタ制御部22a、画像処理部22b、条件判定部22c、姿勢・位置演算部22d、投影補正部22e、連係出力制御部22f、データ編集部22gがそれぞれ有する機能は、処理部22及び記憶部24で構成されるハードウェア資源が、処理部22の制御部が割り当てるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体、又は同じアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。   The functions of the projector control unit 22a, the image processing unit 22b, the condition determination unit 22c, the posture / position calculation unit 22d, the projection correction unit 22e, the linkage output control unit 22f, and the data editing unit 22g are the processing unit 22 and the storage unit 24, respectively. Is implemented by executing a task assigned by the control unit of the processing unit 22. Here, a task is a processing unit that cannot be executed at the same time among the entire processing performed by the application software or the processing performed by the same application software.

記憶部24には、処理部22での処理に利用されるソフトウェアやデータが記憶されており、上述した、プロジェクタ34や距離センサ36の駆動を制御するアプリケーションプログラムを作動させるタスクや、画像処理用プログラムを作動させるタスクが記憶されている。また、記憶部24には、これらのタスク以外にも、例えば、通信、ダウンロードされた音声データ、あるいは記憶部24に対する制御に処理部22が用いるソフトウェア、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。   The storage unit 24 stores software and data used for processing in the processing unit 22. The above-described task for operating the application program for controlling the driving of the projector 34 and the distance sensor 36, and image processing A task for operating the program is stored. In addition to these tasks, for example, communication, downloaded voice data, software used by the processing unit 22 to control the storage unit 24, the telephone number or mail address of the communication partner, etc. are described in the storage unit 24. The address book to be managed, voice files such as dial tone and ring tone, temporary data used in the process of software, and the like are stored.

なお、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータは、処理部22によって記憶部24に割り当てられた作業領域へ一時的に記憶される。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。   Note that computer programs and temporary data used in the software processing process are temporarily stored in the work area assigned to the storage unit 24 by the processing unit 22. The storage unit 24 includes, for example, a nonvolatile storage device (nonvolatile semiconductor memory such as ROM: Read Only Memory, a hard disk device, etc.), and a readable / writable storage device (for example, SRAM: Static Random Access Memory, DRAM: Dynamic Random Access Memory).

送受信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。操作部13は、例えば、電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等、各種の機能が割り当てられた操作キー13Aと、方向及び決定キー13Bとで構成される。そして、これらのキーがユーザの操作により入力されると、その操作内容に対応する信号を発生させる。発生した信号は、ユーザの指示として処理部22へ入力される。   The transmission / reception unit 26 has an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with the base station via a channel assigned by the base station, and makes a telephone call with the base station. Perform communication and information communication. The operation unit 13 includes, for example, an operation key 13A to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a determination key, and a call key are assigned, and a direction and determination key 13B. The When these keys are input by a user operation, a signal corresponding to the operation content is generated. The generated signal is input to the processing unit 22 as a user instruction.

音声処理部30は、マイク15に入力される音声信号やレシーバ16やスピーカ17から出力される音声信号の処理を実行する。すなわち、音声処理部30は、マイク15から入力される音声を増幅し、AD変換(Analog Digital変換)を実行した後、さらに符号化等の信号処理を施して、ディジタルの音声データに変換して処理部22へ出力する。また、処理部22から送られる音声データに対して復号化、DA変換(Digital Analog変換)、増幅等の処理を施してアナログの音声信号に変換してから、レシーバ16やスピーカ17へ出力する。ここで、スピーカ17は、携帯電子機器1の筐体1C内に配置されており、着信音やメールの送信音等を出力する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16 and the speaker 17. That is, the sound processing unit 30 amplifies the sound input from the microphone 15 and executes AD conversion (Analog Digital conversion), and then performs signal processing such as encoding to convert the sound into digital sound data. Output to the processing unit 22. Further, the audio data sent from the processing unit 22 is subjected to processing such as decoding, DA conversion (Digital Analog conversion), and amplification to convert it into an analog audio signal, which is then output to the receiver 16 and the speaker 17. Here, the speaker 17 is disposed in the housing 1C of the portable electronic device 1, and outputs a ringtone, a mail transmission sound, and the like.

加速度センサ38は、携帯電子機器1に印加される加速度の方向及び大きさを検出する。加速度センサ38の検出結果は、携帯電子機器1の姿勢変化や移動の有無を判定したり、姿勢の変化量や移動距離を算出したりするために用いられる。なお、携帯電子機器1の姿勢変化の有無を判定したり、姿勢の変化量を算出したりするために、携帯電子機器1に方位センサを設けることとしてもよい。   The acceleration sensor 38 detects the direction and magnitude of acceleration applied to the mobile electronic device 1. The detection result of the acceleration sensor 38 is used to determine whether or not the mobile electronic device 1 has a posture change or movement, or to calculate a posture change amount or a movement distance. Note that an orientation sensor may be provided in the portable electronic device 1 in order to determine whether or not the posture of the portable electronic device 1 has changed, or to calculate the amount of change in posture.

表示部32は、上述したディスプレイ2を有しており、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネルに表示させる。ディスプレイ2は、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成された表示パネルで構成される。なお、表示部32は、ディスプレイ2に加え、サブディスプレイを有していてもよい。   The display unit 32 includes the display 2 described above, and displays a video corresponding to the video data supplied from the processing unit 22 and an image corresponding to the image data on the display panel. The display 2 is configured by a display panel configured by, for example, a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel. The display unit 32 may include a sub display in addition to the display 2.

プロジェクタ34は、光源と、画像データに基づいて前記光源から射出された光を投影するか否かを切り換える光学系とで構成されている。本実施形態において、プロジェクタ34は、光源である可視光照射装置(可視光照射手段)31と、光学系である描画装置35と、焦点調整装置39とを含んで構成される。可視光照射装置31は、可視光のレーザー光を照射する。可視光領域の光は、短波長側が360nmから400nm以上、長波長側が760nmから830nm以下の光であり、本実施形態において、可視光照射装置31は、R(Red)、G(Green)、B(Blue)の3色の光を照射する。   The projector 34 includes a light source and an optical system that switches whether to project the light emitted from the light source based on image data. In the present embodiment, the projector 34 includes a visible light irradiation device (visible light irradiation means) 31 that is a light source, a drawing device 35 that is an optical system, and a focus adjustment device 39. The visible light irradiation device 31 emits visible laser light. The light in the visible light region is light with a short wavelength side of 360 nm to 400 nm or more and a long wavelength side of 760 nm to 830 nm or less. In the present embodiment, the visible light irradiation device 31 includes R (Red), G (Green), B Irradiate light of three colors (Blue).

描画装置35は、可視光照射装置31から照射される3色の光を合成するとともに、画像投影対象に照射する。描画装置35は、光源から射出された光を透過させるか否かを切り換える切り換え素子、及び当該切り換え素子を通過した光をラスター走査させるミラーを含んで構成される。そして、描画装置35は、ミラーによって可視光照射装置31から射出されたレーザー光の角度を変えて、画像投影対象にレーザー光を走査させることで、画像投影対象に画像を投影させる。   The drawing device 35 combines the three colors of light emitted from the visible light irradiation device 31 and irradiates the image projection target. The drawing device 35 includes a switching element that switches whether to transmit light emitted from the light source, and a mirror that performs raster scanning of the light that has passed through the switching element. The drawing device 35 changes the angle of the laser light emitted from the visible light irradiation device 31 by the mirror and causes the image projection target to scan the laser light, thereby projecting the image onto the image projection target.

前記ミラーとしては、例えば、MEMS(Micro Electro Mechanical System)ミラーが用いられる。MEMSミラーは、圧電素子を利用してミラーを駆動して、可視光照射装置31から照射される可視光を走査し、可視画像や不可視画像を生成する。この場合は、ミラーによって光源から照射された光の角度を変えて、画像投影対象の全面に光源から照射された光を走査させることで、画像投影対象に可視画像や不可視画像を投影させることができる。このように、プロジェクタ34は、スキャン方式のプロジェクタである。なお、プロジェクタ34の構成は、上述したレーザーを光源とするものに限定されるものではない。例えば、プロジェクタ34は、ハロゲンライトや、LED光源、LD光源を光源とし、LCDや、DMD(Digital Micro-mirror Device)を光学系に備える構成のプロジェクタを用いてもよい。   As the mirror, for example, a MEMS (Micro Electro Mechanical System) mirror is used. A MEMS mirror drives a mirror using a piezoelectric element, scans the visible light irradiated from the visible light irradiation apparatus 31, and produces | generates a visible image and an invisible image. In this case, by changing the angle of the light emitted from the light source by the mirror and scanning the light emitted from the light source over the entire surface of the image projection target, a visible image or an invisible image can be projected onto the image projection target. it can. Thus, the projector 34 is a scan-type projector. Note that the configuration of the projector 34 is not limited to that using the laser described above as a light source. For example, the projector 34 may be a projector having a configuration in which a halogen light, an LED light source, or an LD light source is used as a light source, and an LCD or a DMD (Digital Micro-mirror Device) is provided in an optical system.

焦点調整装置39は、プロジェクタ制御部22aからの指令により、描画装置35から投影される可視画像が画像投影対象上で結像させる機能(焦点調整機能)を有する。焦点調整装置39は、例えば、可動するレンズ等で構成される焦点調整機構を備えており、レンズを動かすことで前記焦点調整機能を実現する。また、焦点調整装置39は、プロジェクタ34が投影する画像のデータに対して画像処理部22bによって所定の画像処理を施すことにより、前記焦点調整機能を実現するものであってもよい。さらに、焦点調整装置39は、焦点調整機能及び画像処理によって前記焦点調整機能を実現するものであってもよい。距離センサ36は、プロジェクタ34の光出射部と画像投影対象との距離を計測する。なお、距離センサ36の代わりに、焦点調整装置39の、プロジェクタ34から投影された画像の焦点を調整する機能を利用して、プロジェクタ34の光出射部と画像投影対象との距離を計測してもよい。   The focus adjustment device 39 has a function (focus adjustment function) for forming a visible image projected from the drawing device 35 on an image projection target in accordance with a command from the projector control unit 22a. The focus adjustment device 39 includes a focus adjustment mechanism including, for example, a movable lens, and realizes the focus adjustment function by moving the lens. Further, the focus adjustment device 39 may realize the focus adjustment function by performing predetermined image processing on the image data projected by the projector 34 by the image processing unit 22b. Further, the focus adjustment device 39 may realize the focus adjustment function by a focus adjustment function and image processing. The distance sensor 36 measures the distance between the light emitting unit of the projector 34 and the image projection target. Instead of the distance sensor 36, the function of adjusting the focus of the image projected from the projector 34 of the focus adjusting device 39 is used to measure the distance between the light emitting portion of the projector 34 and the image projection target. Also good.

図4は、図1に示す携帯電子機器のプロジェクタが画像を投影している状態を示す説明図である。上述したように、プロジェクタ34は、画像を投影する画像投影部であり、画像投影面が携帯電子機器1の筐体1Cの外部に露出している。携帯電子機器1は、プロジェクタ34から画像を投影することで、図4に示すように、プロジェクタ34の画像投影面と対向する位置の画像投影対象(例えば、壁面やスクリーン等)のうち、所定の領域(投影領域)PAに画像Pを投影させることができる。なお、プロジェクタ34は、処理部22により動作が制御され、処理部22から送られる種々の映像、例えば動画やプレゼンテーション資料等を投影し、投影領域PAに表示させる。   FIG. 4 is an explanatory diagram showing a state in which the projector of the portable electronic device shown in FIG. 1 is projecting an image. As described above, the projector 34 is an image projection unit that projects an image, and the image projection surface is exposed to the outside of the housing 1 </ b> C of the portable electronic device 1. As shown in FIG. 4, the portable electronic device 1 projects an image from the projector 34, and, as shown in FIG. 4, a predetermined number of image projection targets (for example, a wall surface or a screen) at a position facing the image projection surface of the projector 34. The image P can be projected onto the area (projection area) PA. The operation of the projector 34 is controlled by the processing unit 22, and various images sent from the processing unit 22, such as moving images and presentation materials, are projected and displayed on the projection area PA.

カメラ40は、上述したようにプロジェクタ34の光射出部の近くに設けられ、投影領域を含む領域の画像を取得する撮像機構である。つまり、カメラ40は、プロジェクタ34が光を射出する方向の画像を取得する。なお、カメラ40は、プロジェクタ34により投射される画像の投射画角よりも広い画角で画像を撮影する撮影機構であり、プロジェクタ34により画像が投影される投影領域よりも広い領域の画像を撮影することができる。   As described above, the camera 40 is an imaging mechanism that is provided near the light emitting unit of the projector 34 and acquires an image of an area including a projection area. That is, the camera 40 acquires an image in the direction in which the projector 34 emits light. The camera 40 is a shooting mechanism that takes an image with a wider angle of view than the projection angle of the image projected by the projector 34, and takes an image of an area wider than the projection area onto which the image is projected by the projector 34. can do.

処理部22は、こうしてカメラ40によって撮影される画像等に基づいて、携帯電子機器1の姿勢や位置が所定の許容範囲内で変化しても、画像Pが投影領域PAに一定の大きさで投影されるようにプロジェクタ34等を制御する。例えば、携帯電子機器1が許容範囲内で右方向へ移動した場合でも、処理部22は、プロジェクタ34の投影方向を変更させる等して、画像Pを投影領域PAに投影させる。   Based on the image captured by the camera 40 in this manner, the processing unit 22 causes the image P to have a constant size in the projection area PA even if the posture or position of the mobile electronic device 1 changes within a predetermined allowable range. The projector 34 and the like are controlled so as to be projected. For example, even when the mobile electronic device 1 moves to the right within the allowable range, the processing unit 22 projects the image P on the projection area PA by changing the projection direction of the projector 34 or the like.

このように、処理部22は、携帯電子機器1の姿勢や位置が変化しても画像Pを投影領域PAに一定の大きさで投影させる一方で、表示部32に表示させる内容を、携帯電子機器1の姿勢や位置の変化に応じて変更する。例えば、処理部22は、携帯電子機器1が投影領域PAのほぼ正面に位置している場合には、投影領域PAに投影されている画像Pの中央に描画されている「E」の文字を表示部32に表示させる。また、処理部22は、携帯電子機器1が右方向に移動した場合には、画像Pの右横に描画されている「F」の文字を表示部32に表示させる。   In this way, the processing unit 22 projects the image P onto the projection area PA with a certain size even when the attitude or position of the portable electronic device 1 changes, while the content displayed on the display unit 32 is displayed on the portable electronic device. It changes according to the change of the posture and position of the device 1. For example, when the mobile electronic device 1 is positioned substantially in front of the projection area PA, the processing unit 22 displays the letter “E” drawn in the center of the image P projected on the projection area PA. It is displayed on the display unit 32. Further, when the portable electronic device 1 moves in the right direction, the processing unit 22 causes the display unit 32 to display the letter “F” drawn on the right side of the image P.

次に、図5を用いて携帯電子機器のプロジェクタの画像出力動作を説明する。ここで、図5は、携帯電子機器の画像出力動作の一例を示すフロー図である。まず、携帯電子機器1の処理部22は、ステップS101として、条件判定部22cにより、携帯電子機器1が搭載するプロジェクタ34が使用中であるか否かを判定する。処理部22は、ステップS101でプロジェクタ動作中ではない(No)、すなわち、条件判定部22cでプロジェクタ34は使用中でないと判定したら、本制御を終了する。   Next, the image output operation of the projector of the portable electronic device will be described with reference to FIG. Here, FIG. 5 is a flowchart showing an example of the image output operation of the portable electronic device. First, in step S101, the processing unit 22 of the mobile electronic device 1 determines whether the projector 34 mounted on the mobile electronic device 1 is in use by the condition determination unit 22c. If the processing unit 22 determines in step S101 that the projector is not operating (No), that is, if the condition determination unit 22c determines that the projector 34 is not in use, the processing ends.

また、処理部22は、ステップS101でプロジェクタが動作中である(Yes)、すなわち、条件判定部22cがプロジェクタ34は使用中であると判定したら、ステップS102として姿勢変化又は移動があったかを判定する。つまり、処理部22は、ステップS102として、条件判定部22cにより、携帯電子機器1が搭載するプロジェクタ34に動きがあったか、すなわち、プロジェクタ34(携帯電子機器1)の姿勢変化又は移動があったか否かを判定する。ここで、条件判定部22cは、カメラ40で撮影した画像、及び、オートフォーカス機能で算出した焦点距離に基づいて、プロジェクタ34の姿勢変化又は移動があったかを判定することができる。また、条件判定部22cは、距離センサ36や加速度センサ38の検出結果を用いることでも、プロジェクタ34の姿勢変化又は移動があったかを判定することができる。なお、本実施形態では、投影面とプロジェクタ34との相対的な移動も、プロジェクタ34の移動と判定する。つまり、条件判定部22cは、投影面とプロジェクタ34との間の距離が変化したら、移動したと判定する。あるいは、投影方向(つまり、投影方向に沿って投影面)に向かって進む動きや、退く動きを検出したら、移動したと判定してもよい。処理部22は、ステップS102で変化及び移動なし(No)、すなわち、条件判定部22cでプロジェクタ34に動きはなかったと判定したら、本制御は終了する。   Further, when the processing unit 22 determines in step S101 that the projector is operating (Yes), that is, the condition determination unit 22c determines that the projector 34 is in use, the processing unit 22 determines whether there has been a change in posture or movement in step S102. . That is, in step S102, the processing unit 22 determines whether the projector 34 mounted on the portable electronic device 1 has moved by the condition determining unit 22c, that is, whether the projector 34 (the portable electronic device 1) has changed or moved. Determine. Here, the condition determination unit 22c can determine whether or not the orientation of the projector 34 has changed or moved based on the image captured by the camera 40 and the focal length calculated by the autofocus function. The condition determination unit 22c can also determine whether the projector 34 has changed or moved by using the detection results of the distance sensor 36 and the acceleration sensor 38. In the present embodiment, the relative movement between the projection plane and the projector 34 is also determined as the movement of the projector 34. In other words, the condition determination unit 22c determines that it has moved when the distance between the projection surface and the projector 34 changes. Alternatively, it may be determined that the object has moved when a movement toward or away from the projection direction (that is, the projection plane along the projection direction) is detected. If the processing unit 22 determines that there is no change and no movement (No) in step S102, that is, if the condition determination unit 22c determines that the projector 34 has not moved, the control ends.

また、処理部22は、ステップS102で、プロジェクタ34の姿勢変化又は移動があった(Yes)、つまり、条件判定部22cがプロジェクタ34に動きがあったと判定したら、ステップS103として、姿勢・位置演算部22dにより、プロジェクタ34(携帯電子機器1)の動きに基づいて、姿勢の変化量及び移動距離を算出する。つまり、プロジェクタ34と画像が投影される投影面との角度及び距離の変化を算出する。具体的には、処理部22は、カメラ40又は加速度センサ38の検出結果に基づいて、プロジェクタ34の姿勢を検出し、基準姿勢又は前回の姿勢と比較することで、姿勢の変化量を算出する。また、処理部22は、カメラ40又は距離センサ36及び加速度センサ38の検出結果に基づいて、投影面とプロジェクタ34との間の距離を検出し、基準距離又は前回の距離と比較することで、移動距離、移動方向を算出する。   Further, when the processing unit 22 determines in step S102 that the projector 34 has changed or moved (Yes), that is, the condition determining unit 22c has moved the projector 34, in step S103, the attitude / position calculation is performed. Based on the movement of the projector 34 (mobile electronic device 1), the posture change amount and the movement distance are calculated by the unit 22d. That is, changes in the angle and distance between the projector 34 and the projection surface on which the image is projected are calculated. Specifically, the processing unit 22 detects the posture of the projector 34 based on the detection result of the camera 40 or the acceleration sensor 38, and compares the reference posture or the previous posture to calculate the amount of change in posture. . In addition, the processing unit 22 detects the distance between the projection surface and the projector 34 based on the detection results of the camera 40 or the distance sensor 36 and the acceleration sensor 38, and compares it with the reference distance or the previous distance. The moving distance and moving direction are calculated.

処理部22は、ステップS103で姿勢の変化量及び移動距離を算出したら、ステップS104として、投影補正部22eにより、ステップS103で算出された姿勢の変化量及び移動距離に応じてプロジェクタ34の投影方向及び投影角度を変更させて、姿勢変化又は移動の前と同じ位置に同じ大きさで画像を投影させる。さらに、処理部22は、ステップS105として、算出された姿勢の変化量及び移動距離に応じて、プロジェクタ34から投影されている画像のうち、表示部32に表示される部分を変更させる。処理部22は、ステップS105の処理を終了したら、本制御を終了する。処理部22は、プロジェクタ34による画像の投影中は、上記処理を繰り返す。   After calculating the posture change amount and the movement distance in step S103, the processing unit 22 calculates the projection direction of the projector 34 in step S104 according to the posture change amount and the movement distance calculated in step S103 by the projection correction unit 22e. Then, the projection angle is changed, and the image is projected at the same size at the same position as before the posture change or movement. Further, in step S105, the processing unit 22 changes a portion displayed on the display unit 32 in the image projected from the projector 34 in accordance with the calculated change amount and movement distance of the posture. When the processing of step S105 ends, the processing unit 22 ends this control. The processing unit 22 repeats the above processing while the projector 34 projects an image.

なお、プロジェクタ34の投影方向の変更(投影画像の位置の調整)は、例えば、プロジェクタ34を可動式にしてプロジェクタ34自体の方向を変更することで実現してもよいし、描画装置35を構成するミラーの走査範囲(回動する範囲)を変更することで実現してもよい。また、プロジェクタ34の光射出部に可動式のレンズを配置し、そのレンズの方向を変化させることによって実現してもよい。また、画像処理部22bが透明なレイヤの上に投影対象の画像を合成した画像を生成することとし、透明なレイヤ上での投影対象の画像の位置を変更することによって実現してもよい。また、これらの方式を組み合わせてもよい。   Note that the change in the projection direction of the projector 34 (adjustment of the position of the projection image) may be realized, for example, by changing the direction of the projector 34 itself by making the projector 34 movable, or configuring the drawing device 35. You may implement | achieve by changing the scanning range (rotating range) of the mirror to perform. Alternatively, a movable lens may be disposed in the light emitting portion of the projector 34 and the direction of the lens may be changed. Alternatively, the image processing unit 22b may generate the image by combining the projection target image on the transparent layer, and change the position of the projection target image on the transparent layer. Moreover, you may combine these systems.

また、プロジェクタ34の投影角度の変更(投影画像の大きさの調整)は、例えば、描画装置35を構成するミラーの振り角(回動する角度)の大きさを変更することで実現してもよい。また、プロジェクタ34の光射出部に可動式のレンズを配置し、そのレンズと光源との距離を変化させることによって実現してもよい。また、画像処理部22bが透明なレイヤの上に投影対象の画像を合成した画像を生成することとし、透明なレイヤ上での投影対象の画像の大きさを変更することによって実現してもよい。また、これらの方式を組み合わせてもよい。   Further, the change of the projection angle of the projector 34 (adjustment of the size of the projection image) may be realized by changing the size of the swing angle (rotation angle) of the mirror that constitutes the drawing device 35, for example. Good. Further, it may be realized by arranging a movable lens in the light emitting portion of the projector 34 and changing the distance between the lens and the light source. Alternatively, the image processing unit 22b may generate the image by combining the projection target image on the transparent layer, and change the size of the projection target image on the transparent layer. . Moreover, you may combine these systems.

次に、図6を用いて携帯電子機器が投影されている画像に対応するデータを編集する動作について説明する。ここで、図6は、携帯電子機器のデータ編集動作の一例を示すフロー図である。なお、図6に示すデータ編集動作は、図5に示した画像出力動作と並行して繰り返し実行される。まず、処理部22のデータ編集部22gは、ステップS201として、操作部13において編集操作が検出されたかを判定する。編集操作とは、投影されている画像に対応するデータを編集するために利用者が行う操作である。   Next, an operation of editing data corresponding to an image projected by the mobile electronic device will be described with reference to FIG. Here, FIG. 6 is a flowchart showing an example of the data editing operation of the portable electronic device. The data editing operation shown in FIG. 6 is repeatedly executed in parallel with the image output operation shown in FIG. First, the data editing unit 22g of the processing unit 22 determines whether an editing operation has been detected in the operation unit 13 in step S201. The editing operation is an operation performed by the user to edit data corresponding to the projected image.

データ編集部22gは、ステップS201で編集操作が検出された(Yes)と判定したら、ステップS202として、検出された編集操作に応じて表示部32の表示内容を更新する。例えば、検出された編集操作がデータに情報を追加するものであった場合、データ編集部22gは、表示部32の表示内容を、データにその情報が追加された状態に更新する。また、検出された編集操作がデータ内の情報を変更するものであった場合、データ編集部22gは、表示部32の表示内容を、データ内のその情報が変更された状態に更新する。また、検出された編集操作がデータ内の情報を削除するものであった場合、データ編集部22gは、表示部32の表示内容を、データ内のその情報が削除された状態に更新する。   If it is determined in step S201 that an editing operation has been detected (Yes), the data editing unit 22g updates the display content of the display unit 32 in accordance with the detected editing operation in step S202. For example, when the detected editing operation is to add information to the data, the data editing unit 22g updates the display content of the display unit 32 to a state in which the information is added to the data. If the detected editing operation is to change the information in the data, the data editing unit 22g updates the display content of the display unit 32 to a state in which the information in the data has been changed. When the detected editing operation is to delete information in the data, the data editing unit 22g updates the display content of the display unit 32 to a state in which the information in the data is deleted.

表示部32の表示内容を更新した後、データ編集部22gは、ステップS203として、処理部22が有するメモリ等の記憶領域に編集内容を保持させる。そして、データ編集部22gは、本制御を終了する。   After updating the display content of the display unit 32, the data editing unit 22g holds the edited content in a storage area such as a memory included in the processing unit 22 in step S203. Then, the data editing unit 22g ends this control.

データ編集部22gは、ステップS201で編集操作が検出されていない(No)と判定したら、ステップS204として、操作部13において保存操作が検出されたかを判定する。保存操作とは、それまでに行った編集操作の結果をデータに反映させて、データを保存するために利用者が行う操作である。データ編集部22gは、ステップS204で保存操作が検出さていない(No)と判定したら、本制御を終了する。   If it is determined in step S201 that no editing operation has been detected (No), the data editing unit 22g determines whether a storage operation has been detected in the operation unit 13 in step S204. The save operation is an operation performed by the user in order to save the data by reflecting the result of the editing operation performed so far in the data. If the data editing unit 22g determines in step S204 that a save operation has not been detected (No), the data editing unit 22g ends this control.

データ編集部22gは、ステップS204で保存操作が検出された(Yes)と判定したら、ステップS205として、メモリ等に保持しておいた編集内容を、投影されている画像に対応するデータに反映される。ここでは、編集内容に応じて、情報の追加、変更、削除を行うことによってデータそのものが書き換えられる。そして、データ編集部22gは、ステップS206として、更新後のデータの内容が反映されるように、プロジェクタ34から投影される画像を更新させる。そして、データ編集部22gは、本制御を終了する。   If it is determined in step S204 that the save operation has been detected (Yes), the data editing unit 22g reflects the edited content stored in the memory or the like in the data corresponding to the projected image in step S205. The Here, the data itself is rewritten by adding, changing, or deleting information according to the editing content. Then, in step S206, the data editing unit 22g updates the image projected from the projector 34 so that the updated data content is reflected. Then, the data editing unit 22g ends this control.

なお、図6では、保存操作が検出された後に編集内容をデータに反映することとしたが、編集操作が行われた場合に、編集内容を直ちにデータに反映することとしてもよい。編集内容を直ちにデータに反映するか否かは、編集対象のデータの種類によって決めてもよいし、利用者が予め設定した設定情報に基づいて決めてもよい。   In FIG. 6, the editing content is reflected in the data after the save operation is detected. However, when the editing operation is performed, the editing content may be immediately reflected in the data. Whether the edited contents are immediately reflected in the data may be determined according to the type of data to be edited, or may be determined based on setting information preset by the user.

次に、具体例を用いて、携帯電子機器1についてより詳細に説明する。ここで、図7から図9は、それぞれ、携帯電子機器の動作を説明するための説明図である。なお、図7から図9は、携帯電子機器1の形状を模式的に図示している。   Next, the portable electronic device 1 will be described in more detail using a specific example. Here, FIGS. 7 to 9 are explanatory diagrams for explaining the operation of the portable electronic device. 7 to 9 schematically illustrate the shape of the mobile electronic device 1.

図7に示すステップS11では、携帯電子機器1は、第1の画像P1として、複数の人物が描かれた画像データをプロジェクタ34から投影させている。また、携帯電子機器1は、第1の画像P1に含まれる人物の1人を第2の画像P2としてディスプレイ2に表示させている。そして、携帯電子機器1は、第1の画像P1における第2の画像P2の位置及び範囲を表すために、フレームFを第1の画像P1中に示している。   In step S11 illustrated in FIG. 7, the mobile electronic device 1 projects image data depicting a plurality of persons from the projector 34 as the first image P1. In addition, the mobile electronic device 1 displays one person included in the first image P1 on the display 2 as the second image P2. And the portable electronic device 1 has shown the flame | frame F in the 1st image P1, in order to represent the position and range of the 2nd image P2 in the 1st image P1.

この状態から、利用者が携帯電子機器1の姿勢又は位置を変更すると、携帯電子機器1は、それを検出し、検出結果に応じて第2の画像P2としてディスプレイ2に表示させる内容を変更する。例えば、携帯電子機器1は、画像投影対象に対して位置が左方向に移動したことを検出すると、検出した移動量に応じて、第2の画像P2としてディスプレイ2に表示させる部分を左方向にスクロールさせる。また、携帯電子機器1は、姿勢が下向きに変化したことを検出すると、検出した角度の変化量に応じて、第2の画像P2としてディスプレイ2に表示させる部分を下方向にスクロールさせる。   When the user changes the posture or position of the mobile electronic device 1 from this state, the mobile electronic device 1 detects it and changes the content to be displayed on the display 2 as the second image P2 according to the detection result. . For example, when the mobile electronic device 1 detects that the position has moved to the left with respect to the image projection target, the portion to be displayed on the display 2 as the second image P2 in the left direction according to the detected movement amount. Scroll. Further, when the portable electronic device 1 detects that the posture has changed downward, the portable electronic device 1 scrolls a portion to be displayed on the display 2 as the second image P2 in accordance with the detected amount of change in angle.

また、携帯電子機器1は、位置が画像投影対象に近づいたことを検出すると、検出した移動量に応じて、第2の画像P2を拡大させる。また、携帯電子機器1は、位置が画像投影対象から遠ざかったことを検出すると、検出した移動量に応じて、第2の画像P2を縮小させる。携帯電子機器1は、第2の画像P2としてディスプレイ2に表示させる部分を変化させた場合、変化後の第2の画像P2の位置及び範囲に対応するように、フレームFを第1の画像P1上で移動させる。   Further, when the portable electronic device 1 detects that the position is close to the image projection target, the portable electronic device 1 enlarges the second image P2 according to the detected movement amount. In addition, when the mobile electronic device 1 detects that the position has moved away from the image projection target, the mobile electronic device 1 reduces the second image P2 according to the detected movement amount. When the portable electronic device 1 changes the portion to be displayed on the display 2 as the second image P2, the frame F is converted into the first image P1 so as to correspond to the position and range of the second image P2 after the change. Move up.

また、この状態において、携帯電子機器1は、第2の画像P2としてディスプレイ2に表示されている部分を利用者が編集することを可能にする。例えば、利用者は、操作部13等に対して編集操作を行って、ステップS12のように、ディスプレイ2に表示されている人物を帽子をかぶった人物へ変更することができる。この段階では、編集内容はメモリ等に保持され、第2の画像P2には反映されるが、画像データに反映されない。このため、利用者は編集内容を破棄して、変更が画像データに反映されないようにすることができる。   In this state, the mobile electronic device 1 allows the user to edit the portion displayed on the display 2 as the second image P2. For example, the user can perform an editing operation on the operation unit 13 or the like to change the person displayed on the display 2 to a person wearing a hat as in step S12. At this stage, the edited content is held in a memory or the like and reflected in the second image P2, but not reflected in the image data. Therefore, the user can discard the edited contents so that the change is not reflected in the image data.

利用者が、編集操作を行った後に、さらに操作部13等に対して保存操作を行うと、携帯電子機器1は、保持していた編集内容を画像データに反映させ、さらに、ステップS13のように、画像データの変更を第1の画像P1にも反映させる。   When the user performs a save operation on the operation unit 13 or the like after performing an edit operation, the portable electronic device 1 reflects the held edit content in the image data, and further, as in step S13. In addition, the change in the image data is also reflected in the first image P1.

また、ステップS11の状態において、利用者が携帯電子機器1を右方向へ移動させると、携帯電子機器1は、第2の画像P2としてディスプレイ2に表示させる部分を右方向にスクロールさせるとともに、フレームFを右方向に移動させる。そして、スクロールして無地部分が第2の画像P2としてディスプレイ2に表示されている状態で、利用者は、操作部13等に対して編集操作を行って、ステップS14のように、新たな人物を書き足すことができる。この段階では、編集内容はメモリ上に保持され、第2の画像P2には反映されるが、画像データに反映されない。その後、利用者が保存操作を行うと、携帯電子機器1は、保持していた編集内容を画像データに反映させ、さらに、ステップS15のように、画像データへの人物の追加を第1の画像P1にも反映させる。   In addition, when the user moves the mobile electronic device 1 to the right in the state of step S11, the mobile electronic device 1 scrolls the portion to be displayed on the display 2 as the second image P2 to the right, Move F to the right. Then, in a state where the plain portion is scrolled and displayed on the display 2 as the second image P2, the user performs an editing operation on the operation unit 13 or the like, and a new person is obtained as in step S14. Can be added. At this stage, the edited content is held in the memory and reflected in the second image P2, but not reflected in the image data. Thereafter, when the user performs a save operation, the portable electronic device 1 reflects the retained editing contents in the image data, and further adds a person to the image data in the first image as in step S15. Also reflected in P1.

このように、携帯電子機器1は、データに対応する画像をプロジェクタ34から投影させつつ、その画像の少なくとも一部をディスプレイ2に表示させ、ディスプレイ2に表示されている部分の編集を利用者に行わせる。すなわち、携帯電子機器1は、データに対応する画像を大きく投影させて全体像を確認しつつ、ディスプレイ2を参照しながら詳細部分を編集することを可能にする。   As described above, the mobile electronic device 1 projects an image corresponding to the data from the projector 34, displays at least a part of the image on the display 2, and allows the user to edit the portion displayed on the display 2. Let it be done. That is, the portable electronic device 1 can edit a detailed portion while referring to the display 2 while confirming the entire image by projecting a large image corresponding to the data.

プロジェクタ34は、画像を大きく投影することができるが、詳細部分を編集するのに十分な解像度がない場合がある。一方、ディスプレイ2は、解像度が比較的高いため、詳細部分を編集するのに適しているが、面積が狭いため、全体像と詳細部分とを同時に表示することが難しい。プロジェクタ34とディスプレイ2とを組み合わせて利用することにより、両者の長所を活かすことができる。   The projector 34 can project a large image, but may not have sufficient resolution to edit the details. On the other hand, the display 2 has a relatively high resolution and is suitable for editing detailed portions. However, since the area is small, it is difficult to display the whole image and the detailed portions simultaneously. By using the projector 34 and the display 2 in combination, the advantages of both can be utilized.

また、ディスプレイ2に表示されている部分を対象として編集操作を受け付けることとすれば、編集内容が操作部13の近くに表示されるため、プロジェクタ34によって離れた位置に投影されている画像を編集対象とする場合よりも、利用者が編集操作を行い易い。   Further, if an editing operation is accepted for the portion displayed on the display 2, the edited content is displayed near the operation unit 13, so that an image projected at a distant position by the projector 34 is edited. It is easier for the user to perform the editing operation than in the case of the target.

図7に示したように、プロジェクタ34とディスプレイ2とを組み合わせてデータを編集する方式は、例えば、ポスター等の大きな画像を作成する場合に有用である。この方式によれば、利用者は、編集中の画像全体を実際のサイズで投影して仕上がりイメージを確認しつつ、詳細部分をディスプレイ2上で編集していくことができる。   As shown in FIG. 7, the method of editing data by combining the projector 34 and the display 2 is useful when creating a large image such as a poster, for example. According to this method, the user can edit the detailed portion on the display 2 while projecting the entire image being edited at the actual size to check the finished image.

続いて、図8について説明する。図7では、画像データを編集する例を示したが、図8では、文書データを編集する例を示す。また、図9では、編集内容を直ちにデータに反映する例を示す。   Next, FIG. 8 will be described. Although FIG. 7 shows an example of editing image data, FIG. 8 shows an example of editing document data. FIG. 9 shows an example in which the edited contents are immediately reflected in the data.

図8に示すステップS21では、携帯電子機器1は、第1の画像P1として、表計算プログラムの文書データをプロジェクタ34から投影させている。また、携帯電子機器1は、第1の画像P1の全体を第2の画像P2としてディスプレイ2に表示させている。   In step S21 shown in FIG. 8, the portable electronic device 1 projects document data of the spreadsheet program from the projector 34 as the first image P1. Further, the mobile electronic device 1 displays the entire first image P1 on the display 2 as the second image P2.

この状態から、利用者が携帯電子機器1を画像投影対象に近づけつつ、左上方向に移動させると、携帯電子機器1は、ステップS22のように、第1の画像P1の左上寄りの部分を拡大して、第2の画像P2としてディスプレイ2に表示させる。また、携帯電子機器1は、拡大後の第2の画像P2の位置及び範囲に対応するように、フレームFを第1の画像P1上に表示させる。   When the user moves the mobile electronic device 1 in the upper left direction while approaching the image projection target from this state, the mobile electronic device 1 enlarges the upper left portion of the first image P1 as in step S22. Then, it is displayed on the display 2 as the second image P2. In addition, the mobile electronic device 1 displays the frame F on the first image P1 so as to correspond to the position and range of the second image P2 after enlargement.

また、この状態において、携帯電子機器1は、第2の画像P2としてディスプレイ2に表示されている部分を利用者が編集することを可能にする。例えば、利用者は、操作部13等に対して編集操作を行って、ステップS23のように、あるセルの内容を書き換えることができる。編集操作が行われると、携帯電子機器1は、編集内容を第2の画像P2に反映するとともに、第1の画像P1に対応する文書データに反映させる。その結果、第1の画像P1にも、セルの内容の変更が反映される。   In this state, the mobile electronic device 1 allows the user to edit the portion displayed on the display 2 as the second image P2. For example, the user can rewrite the contents of a certain cell as in step S23 by performing an editing operation on the operation unit 13 or the like. When the editing operation is performed, the mobile electronic device 1 reflects the edited contents in the second image P2 and also in the document data corresponding to the first image P1. As a result, the change in the cell contents is also reflected in the first image P1.

図8に示すように、プロジェクタ34とディスプレイ2とを組み合わせてデータを編集する方式は、文書データの編集にも有用である。この方式によれば、利用者は、文書データを大きく投影して編集部分以外を参照しつつ、編集部分をディスプレイ2上で編集することができる。   As shown in FIG. 8, the method of editing data by combining the projector 34 and the display 2 is also useful for editing document data. According to this method, the user can edit the edited portion on the display 2 while projecting the document data largely and referring to the portion other than the edited portion.

続いて、図9について説明する。図8では、1人の利用者がデータを編集する例を示したが、図9では、複数の利用者がデータを編集する例を示す。なお、図9に示す携帯電子機器1a及び1bは、携帯電子機器1と同様の構成を有する装置であり、同一のデータを共有するように設定されているものとする。   Next, FIG. 9 will be described. Although FIG. 8 shows an example in which one user edits data, FIG. 9 shows an example in which a plurality of users edit data. Note that the portable electronic devices 1a and 1b shown in FIG. 9 are devices having the same configuration as the portable electronic device 1, and are set to share the same data.

図9に示すステップS31では、携帯電子機器1aは、第1の画像P1aとして、表計算プログラムの文書データをプロジェクタ34から投影させている。また、携帯電子機器1aは、第1の画像P1aの全体を第2の画像P2aとしてディスプレイ2に表示させている。   In step S31 shown in FIG. 9, the portable electronic device 1a projects the document data of the spreadsheet program from the projector 34 as the first image P1a. Further, the portable electronic device 1a displays the entire first image P1a on the display 2 as the second image P2a.

また、ステップS41のように、同時に他の場所において、携帯電子機器1bは、第1の画像P1bとして、携帯電子機器1aと共有されている文書データをプロジェクタ34から投影させている。また、携帯電子機器1bは、第1の画像P1bの全体を第2の画像P2bとしてディスプレイ2に表示させている。   In step S41, the portable electronic device 1b simultaneously projects document data shared with the portable electronic device 1a from the projector 34 as the first image P1b in another place. Further, the portable electronic device 1b displays the entire first image P1b on the display 2 as the second image P2b.

この状態から、携帯電子機器1aの利用者が携帯電子機器1aを画像投影対象に近づけつつ、左上方向に移動させると、携帯電子機器1aは、ステップS32のように、第1の画像P1aの左上寄りの部分を拡大して、第2の画像P2aとしてディスプレイ2に表示させる。また、携帯電子機器1aは、拡大後の第2の画像P2aの位置及び範囲に対応するように、フレームFを第1の画像P1a上に表示させる。この段階において、携帯電子機器1bは、ステップS42のように、ステップS41と同様の状態を保っている。   From this state, when the user of the portable electronic device 1a moves the portable electronic device 1a in the upper left direction while approaching the image projection target, the portable electronic device 1a moves the upper left of the first image P1a as in step S32. The close portion is enlarged and displayed on the display 2 as the second image P2a. Moreover, the portable electronic device 1a displays the frame F on the first image P1a so as to correspond to the position and range of the second image P2a after enlargement. At this stage, the portable electronic device 1b maintains the same state as step S41 as in step S42.

また、この状態において、携帯電子機器1aは、第2の画像P2aとしてディスプレイ2に表示されている部分を利用者が編集することを可能にする。例えば、携帯電子機器1aの利用者は、操作部13等に対して編集操作を行って、ステップS33のように、あるセルの内容を書き換えることができる。編集操作が行われると、携帯電子機器1aは、編集内容を第2の画像P2aに反映するとともに、第1の画像P1aに対応する文書データに反映させる。その結果、第1の画像P1aにも、セルの内容の変更が反映される。   In this state, the portable electronic device 1a enables the user to edit the portion displayed on the display 2 as the second image P2a. For example, the user of the portable electronic device 1a can edit the contents of a certain cell as in step S33 by performing an editing operation on the operation unit 13 or the like. When the editing operation is performed, the mobile electronic device 1a reflects the edited contents in the second image P2a and also in the document data corresponding to the first image P1a. As a result, the change in the cell contents is also reflected in the first image P1a.

また、携帯電子機器1aは、編集内容を第1の画像P1aに対応する文書データに反映させると、その文書データを共有している携帯電子機器1bへ更新後の文書データを送信して、携帯電子機器1bが保持している文書データと置き換えさせる。その結果、携帯電子機器1bは、ステップS43のように、置き換えられた文書データの内容を、プロジェクタ34から投影される第1の画像P1bと、ディスプレイ2に表示される第2の画像P2bとに反映させる。   Further, when the mobile electronic device 1a reflects the edited contents in the document data corresponding to the first image P1a, the mobile electronic device 1a transmits the updated document data to the mobile electronic device 1b sharing the document data, and The document data held in the electronic device 1b is replaced. As a result, the portable electronic device 1b converts the contents of the replaced document data into the first image P1b projected from the projector 34 and the second image P2b displayed on the display 2 as in step S43. To reflect.

なお、ここでは、携帯電子機器1aでの編集内容を携帯電子機器1bの出力に反映させる例を示したが、同様にして、携帯電子機器1bでの編集内容を携帯電子機器1aの出力に反映させることもできる。また、ここでは、データそのものを送信することで遠隔の電子機器に編集内容を反映させることとしたが、編集内容又は差分データを送信することで遠隔の電子機器に編集内容を反映させてもよい。   Here, an example is shown in which the edited content in the portable electronic device 1a is reflected in the output of the portable electronic device 1b. Similarly, the edited content in the portable electronic device 1b is reflected in the output of the portable electronic device 1a. It can also be made. Here, the editing content is reflected on the remote electronic device by transmitting the data itself. However, the editing content may be reflected on the remote electronic device by transmitting the editing content or difference data. .

また、共有されるデータをサーバ装置等の第3の装置に保持させることとしてもよい。この場合、例えば、携帯電子機器1a及び1bは、受け付けた編集内容を第3の装置へ送信し、第3の装置は、受信した編集内容をデータに反映させる。そして、携帯電子機器1a及び1bは、第3の装置から最新のデータを定期的に取得し、取得したデータの内容をプロジェクタ34から投影する画像と、表示部32に表示する画像とに反映させる。   Further, the shared data may be held in a third device such as a server device. In this case, for example, the mobile electronic devices 1a and 1b transmit the received edited content to the third device, and the third device reflects the received edited content in the data. Then, the portable electronic devices 1a and 1b periodically acquire the latest data from the third device, and reflect the contents of the acquired data on the image projected from the projector 34 and the image displayed on the display unit 32. .

図9に示すように、プロジェクタ34とディスプレイ2とを組み合わせてデータを編集する方式は、共有されたデータの編集にも有用である。この方式によれば、例えば、電話会議のように異なるサイト間で会議を行う場合に、共有されているデータに対応する画像をそれぞれのサイトで投影して閲覧しつつ、一方のサイトでの編集内容を他方のサイトの投影内容に反映させることができる。   As shown in FIG. 9, the method of editing data by combining the projector 34 and the display 2 is also useful for editing shared data. According to this method, for example, when a conference is held between different sites such as a telephone conference, an image corresponding to the shared data is projected and viewed on each site, and editing on one site is performed. The content can be reflected in the projection content of the other site.

なお、上記の実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、プロジェクタ34が、ディスプレイ2の反対側以外の面から画像を投影することとしてもよい。   In addition, the aspect of this invention shown by said embodiment can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, the projector 34 may project an image from a surface other than the opposite side of the display 2.

また、上記の実施形態では、編集対象のデータの例として、画像データ及び文書データを示したが、本発明の編集対象のデータはこれに限定されない。本発明は、例えば、動画データ、音声データ、拡張現実(Augmented Reality)空間のタグデータ等の多様なデータを編集対象とすることができる。拡張現実空間とは、現実の世界に重畳して電子的に構築された空間である。   In the above embodiment, image data and document data are shown as examples of data to be edited. However, data to be edited according to the present invention is not limited to this. In the present invention, for example, various data such as moving image data, audio data, and tag data in augmented reality space can be edited. Augmented reality space is a space that is constructed electronically by superimposing it on the real world.

また、上記の実施形態では、操作部13が、操作キー13A及び方向及び決定キー13Bによって構成される例を示したが、操作部13は、ディスプレイ2に重畳されたタッチパネルを含んでもよい。すなわち、表示部32が操作部13の機能を兼ねることとし、利用者が、ディスプレイ2に表示される画像を参照しつつ、ディスプレイ2に重畳されたタッチパネルに指等で触れることで編集操作を行うことができるようにしてもよい。   In the above-described embodiment, the operation unit 13 includes the operation key 13A and the direction and determination key 13B. However, the operation unit 13 may include a touch panel superimposed on the display 2. That is, the display unit 32 also functions as the operation unit 13, and the user performs an editing operation by touching the touch panel superimposed on the display 2 with a finger or the like while referring to the image displayed on the display 2. You may be able to do that.

また、上記の実施形態では、携帯電子機器1が、姿勢や位置の変化に応じてディスプレイ2に表示する第2の画像をスクロールさせたり、拡大/縮小させたりする例を示したが、携帯電子機器1が、操作部13において検出された操作に応じて第2の画像のスクロール等を行うこととしてもよい。   In the above-described embodiment, an example in which the mobile electronic device 1 scrolls or enlarges / reduces the second image displayed on the display 2 in accordance with a change in posture or position has been described. The device 1 may perform scrolling of the second image or the like according to the operation detected by the operation unit 13.

1 携帯電子機器
1C 筐体
2 ディスプレイ
13 操作部
13A 操作キー
13B 方向及び決定キー
22 処理部
22a プロジェクタ制御部
22b 画像処理部
22c 条件判定部
22d 姿勢・位置演算部
22e 投影補正部
22f 連係出力制御部
22g データ編集部
24 記憶部
30 音声処理部
31 可視光照射装置
32 表示部
34 プロジェクタ
35 描画装置
36 距離センサ
38 加速度センサ
39 焦点調整装置
40 カメラ
DESCRIPTION OF SYMBOLS 1 Portable electronic device 1C Case 2 Display 13 Operation part 13A Operation key 13B Direction and determination key 22 Processing part 22a Projector control part 22b Image processing part 22c Condition determination part 22d Posture / position calculation part 22e Projection correction part 22f Linkage output control part 22 g Data editing unit 24 Storage unit 30 Audio processing unit 31 Visible light irradiation device 32 Display unit 34 Projector 35 Drawing device 36 Distance sensor 38 Acceleration sensor 39 Focus adjustment device 40 Camera

Claims (10)

画像を投影する投影部と、
画像を表示する表示部と、
操作を受け付ける操作部と、
前記投影部に第1の画像を投影させるとともに、前記表示部に前記第1の画像の少なくとも一部を第2の画像として表示させ、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分を編集するための編集操作を前記操作部から受け付ける処理部と
を備えることを特徴とする携帯電子機器。
A projection unit for projecting an image;
A display for displaying an image;
An operation unit for receiving an operation;
The projection unit projects the first image, the display unit displays at least a part of the first image as a second image, and the second of the data corresponding to the first image. And a processing unit that receives from the operation unit an editing operation for editing a portion displayed as an image of the portable electronic device.
当該携帯電子機器の姿勢又は位置の少なくとも一方の変化を検出する検出部をさらに備え、
前記処理部は、前記検出部の検出結果に基づいて、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置又は範囲の少なくとも一方を変化させることを特徴とする請求項1に記載の携帯電子機器。
A detection unit that detects a change in at least one of the posture or position of the portable electronic device;
The processing unit changes at least one of a position or a range of a portion displayed on the display unit as the second image of the first image based on a detection result of the detection unit. The portable electronic device according to claim 1.
前記処理部は、当該携帯電子機器の位置が前記投影部によって画像が投影される投影面に近づいたことが前記検出部によって検出された場合に、前記表示部に表示される前記第2の画像が拡大されるように、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を狭めることを特徴とする請求項2に記載の携帯電子機器。   The processing unit is configured to display the second image displayed on the display unit when the detection unit detects that the position of the portable electronic device has approached a projection surface on which an image is projected by the projection unit. 3. The portable electronic device according to claim 2, wherein a range of a portion displayed as the second image in the data corresponding to the first image is narrowed so as to be enlarged. 前記処理部は、当該携帯電子機器の位置が前記投影面から遠ざかったことが前記検出部によって検出された場合に、前記表示部に表示される前記第2の画像が縮小されるように、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を拡げることを特徴とする請求項3に記載の携帯電子機器。   The processing unit is configured to reduce the second image displayed on the display unit when the detection unit detects that the position of the mobile electronic device has moved away from the projection plane. The portable electronic device according to claim 3, wherein a range of a portion displayed as the second image in the data corresponding to the first image is expanded. 前記処理部は、当該携帯電子機器の位置が前記投影面と平行方向に移動したことが前記検出部によって検出された場合に、前記第1の画像に対応するデータのうち、前記第2の画像として表示されている部分の範囲を、当該携帯電子機器の移動方向に応じて移動させることを特徴とする請求項3又は4に記載の携帯電子機器。   When the detection unit detects that the position of the portable electronic device has moved in a direction parallel to the projection plane, the processing unit includes the second image among the data corresponding to the first image. 5. The portable electronic device according to claim 3, wherein a range of a portion displayed as is moved according to a moving direction of the portable electronic device. 前記処理部は、前記検出部の検出結果に基づいて、前記第1の画像が投影対象の一定の範囲に一定の大きさで投影されるように前記投影部を制御することを特徴とする請求項2から5のいずれか1項に記載の携帯電子機器。   The processing unit controls the projection unit based on a detection result of the detection unit so that the first image is projected in a certain size on a certain range of a projection target. Item 6. The portable electronic device according to any one of Items 2 to 5. 前記処理部は、前記操作部で受け付けられた操作に基づいて、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置又は範囲の少なくとも一方を変化させることを特徴とする請求項1から6のいずれか1項に記載の携帯電子機器。   The processing unit changes at least one of a position or a range of a portion displayed on the display unit as the second image of the first image based on an operation received by the operation unit. The portable electronic device according to any one of claims 1 to 6, characterized in that 前記処理部は、前記第1の画像のうち前記第2の画像として前記表示部に表示される部分の位置及び範囲を前記第1の画像中に示すことを特徴とする請求項1から7のいずれか1項に記載の携帯電子機器。   The said processing part shows the position and range of the part displayed on the said display part as said 2nd image among said 1st images in said 1st image, The said 1st image is characterized by the above-mentioned. The portable electronic device according to any one of the above. 前記処理部は、前記操作部で前記編集操作が受け付けられた場合に、当該編集操作に基づく変更を前記第1の画像に反映させることなく前記第2の画像に反映させ、前記操作部で所定の保存操作が受け付けられた後に、前記編集操作に基づく変更を前記第1の画像に反映させることを特徴とする請求項1から8のいずれか1項に記載の携帯電子機器。   When the editing operation is received by the operation unit, the processing unit reflects the change based on the editing operation on the second image without reflecting the change on the first image, and the operation unit 9. The portable electronic device according to claim 1, wherein a change based on the editing operation is reflected in the first image after a storage operation is received. 前記処理部は、前記データが他の装置と共有されている場合に、前記他の装置から送信された編集内容に基づく変更を前記第1の画像及び前記第2の画像に反映させることを特徴とする請求項1から9のいずれか1項に記載の携帯電子機器。   When the data is shared with another device, the processing unit reflects a change based on the editing content transmitted from the other device on the first image and the second image. The portable electronic device according to any one of claims 1 to 9.
JP2010288278A 2010-12-24 2010-12-24 Portable electronic devices Expired - Fee Related JP5606901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010288278A JP5606901B2 (en) 2010-12-24 2010-12-24 Portable electronic devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010288278A JP5606901B2 (en) 2010-12-24 2010-12-24 Portable electronic devices

Publications (2)

Publication Number Publication Date
JP2012138673A true JP2012138673A (en) 2012-07-19
JP5606901B2 JP5606901B2 (en) 2014-10-15

Family

ID=46675785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010288278A Expired - Fee Related JP5606901B2 (en) 2010-12-24 2010-12-24 Portable electronic devices

Country Status (1)

Country Link
JP (1) JP5606901B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04304567A (en) * 1991-04-01 1992-10-27 Canon Inc System processing picture
JPH064208A (en) * 1992-06-19 1994-01-14 Sharp Corp Information processor
JPH09330199A (en) * 1996-06-11 1997-12-22 Hitachi Ltd Personal computer
JPH10254614A (en) * 1997-03-06 1998-09-25 Hitachi Ltd Portable electronic processing device and operation method thereof
WO2006033245A1 (en) * 2004-09-21 2006-03-30 Nikon Corporation Electronic device
JP2008098828A (en) * 2006-10-10 2008-04-24 Toshiba Corp Mobile terminal device
WO2010110391A1 (en) * 2009-03-26 2010-09-30 京セラ株式会社 Portable electronic device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04304567A (en) * 1991-04-01 1992-10-27 Canon Inc System processing picture
JPH064208A (en) * 1992-06-19 1994-01-14 Sharp Corp Information processor
JPH09330199A (en) * 1996-06-11 1997-12-22 Hitachi Ltd Personal computer
JPH10254614A (en) * 1997-03-06 1998-09-25 Hitachi Ltd Portable electronic processing device and operation method thereof
WO2006033245A1 (en) * 2004-09-21 2006-03-30 Nikon Corporation Electronic device
JP2008098828A (en) * 2006-10-10 2008-04-24 Toshiba Corp Mobile terminal device
WO2010110391A1 (en) * 2009-03-26 2010-09-30 京セラ株式会社 Portable electronic device

Also Published As

Publication number Publication date
JP5606901B2 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
JP5679803B2 (en) Portable electronic devices
JP5259010B2 (en) Portable electronic device and projection system
US8807757B2 (en) Mobile electronic device having a partial image projector
US9097966B2 (en) Mobile electronic device for projecting an image
US9170472B2 (en) Portable photographing device
JP5615651B2 (en) Electronic equipment and projection system
JP5420365B2 (en) Projection device
WO2012026406A1 (en) Handheld electronic device and method for using handheld electronic device
US20120019441A1 (en) Mobile electronic device
KR20160029390A (en) Portable terminal and control method for the same
JP5665570B2 (en) Electronics
JP5606888B2 (en) Portable electronic devices
JP5774294B2 (en) Portable electronic devices
JP2012156901A (en) Portable electronic device, control program, and data editing system
JP5606901B2 (en) Portable electronic devices
JP5623238B2 (en) Electronic device, display control method, and display control program
JP2008098828A (en) Mobile terminal device
JP5554683B2 (en) Portable electronic devices
JP5583479B2 (en) Portable electronic device and image projection unit
JP5595834B2 (en) Portable electronic device and method of using portable electronic device
JP5650468B2 (en) Portable electronic device and method of using portable electronic device
JP5646918B2 (en) Portable electronic device and method of using portable electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140827

R150 Certificate of patent or registration of utility model

Ref document number: 5606901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees