[go: up one dir, main page]

JP2010028282A - Camera and coordinate calculation program - Google Patents

Camera and coordinate calculation program Download PDF

Info

Publication number
JP2010028282A
JP2010028282A JP2008184805A JP2008184805A JP2010028282A JP 2010028282 A JP2010028282 A JP 2010028282A JP 2008184805 A JP2008184805 A JP 2008184805A JP 2008184805 A JP2008184805 A JP 2008184805A JP 2010028282 A JP2010028282 A JP 2010028282A
Authority
JP
Japan
Prior art keywords
shooting
position information
points
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008184805A
Other languages
Japanese (ja)
Inventor
Shuichi Isogawa
秀一 五十川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008184805A priority Critical patent/JP2010028282A/en
Publication of JP2010028282A publication Critical patent/JP2010028282A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera for obtaining the position information of an object regardless of the reflectance of the object. <P>SOLUTION: The camera includes: a position information acquisition means for acquiring the photographing position information of two different spots A and B at which a common object is photographed respectively; a direction information acquisition means for acquiring photographing direction information θA and θB at the two spots A and B, respectively; and a position information calculation means for calculating position information indicated by the intersection O of straight lines extended from the two spots A and B to the photographing direction on a plane including the two spots A and B. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体の座標を取得するカメラ、および座標算出プログラムに関する。   The present invention relates to a camera that acquires coordinates of a subject and a coordinate calculation program.

地図上における被写体の座標を算出する技術が知られている(特許文献1参照)。   A technique for calculating the coordinates of a subject on a map is known (see Patent Document 1).

特許第3875817号公報Japanese Patent No. 3875817

従来技術では、被写体の反射率が低い場合に適用できないという問題があった。   The prior art has a problem that it cannot be applied when the reflectance of the subject is low.

(1)本発明によるカメラは、共通の被写体を撮影した異なる2地点の撮影位置情報をそれぞれ取得する位置情報取得手段と、2地点における撮影方位情報をそれぞれ取得する方位情報取得手段と、2地点を含む平面上で2地点から撮影方位へそれぞれ延ばした直線の交点が示す位置情報を算出する位置情報算出手段とを備えることを特徴とする。
(2)本発明による座標算出プログラムは、異なる2地点で共通の被写体を撮影した2つの画像ファイルから2地点の撮影位置情報をそれぞれ読み出す位置情報読み出し処理と、2つの画像ファイルから2地点における撮影方位情報をそれぞれ読み出す方位情報読み出し手段と、2地点を含む平面上で2地点から撮影方位へそれぞれ延ばした直線の交点が示す位置情報を算出する位置情報算出処理とをコンピュータ装置に実行させることを特徴とする。
(1) A camera according to the present invention includes a position information acquisition unit that acquires shooting position information at two different points where a common subject is shot, a direction information acquisition unit that acquires shooting direction information at two points, and two points, respectively. Position information calculating means for calculating position information indicated by intersections of straight lines respectively extending from two points to a shooting direction on a plane including
(2) The coordinate calculation program according to the present invention includes a position information reading process for reading out shooting position information at two points from two image files obtained by shooting a common subject at two different points, and shooting at two points from the two image files. A computer device is caused to execute azimuth information reading means for reading azimuth information and position information calculation processing for calculating position information indicated by intersections of straight lines respectively extending from two points to a shooting azimuth on a plane including two points. Features.

本発明によれば、被写体の反射率によらず、該被写体の位置情報を求めることができる。   According to the present invention, position information of a subject can be obtained regardless of the reflectance of the subject.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態による電子カメラ10を含めて構成した地図座標取得システムを説明する図である。図1において地図座標取得システムは、地図上で主要被写体を異なる2つの地点Aおよび地点Bからそれぞれ撮影する。そして、当該主要被写体が位置する座標Oを、地点Aならびに地点Bの位置情報(座標)、および地点A,地点Bにおけるそれぞれの撮影方位θA、θBを示す情報とに基づいて算出する。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a diagram for explaining a map coordinate acquisition system configured including an electronic camera 10 according to an embodiment of the present invention. In FIG. 1, the map coordinate acquisition system images the main subject from two different points A and B on the map. Then, the coordinates O where the main subject is located are calculated based on the position information (coordinates) of the points A and B and the information indicating the respective shooting directions θA and θB at the points A and B.

地図情報は、地図情報提供者からネットワーク経由で取得したり、あらかじめ不揮発性メモリに記録したりして電子カメラ10内に格納しておく。図2は、地図情報をネットワーク経由で電子カメラ10へ取り込む構成を例示する図である。図2において、ネットワークに管理サーバ11、端末(PC)12、アクセスポイント13がそれぞれ接続されている。   The map information is acquired from the map information provider via the network or recorded in advance in a non-volatile memory and stored in the electronic camera 10. FIG. 2 is a diagram illustrating a configuration for taking map information into the electronic camera 10 via a network. In FIG. 2, a management server 11, a terminal (PC) 12, and an access point 13 are connected to the network.

管理サーバ11は、地図情報提供者によってデータセンターなどに配置される。管理サーバ11は、提供する地図情報などを管理する。端末(PC)12は電子カメラ10のユーザーが自宅などに保有するインターネットアクセス端末(たとえば、パーソナルコンピュータ)であり、インターネットを介して管理サーバ11へアクセス可能に構成される。   The management server 11 is arranged in a data center or the like by a map information provider. The management server 11 manages the map information to be provided. A terminal (PC) 12 is an Internet access terminal (for example, a personal computer) held by a user of the electronic camera 10 at home or the like, and is configured to be accessible to the management server 11 via the Internet.

アクセスポイント13は、通信事業者などによって駅や店舗等に設けられた無線アクセス端末である。電子カメラ10が通信機能を有する場合、ユーザーは電子カメラ10からアクセスポイント13を介して管理サーバ11へアクセス可能である。   The access point 13 is a wireless access terminal provided in a station or store by a communication carrier or the like. When the electronic camera 10 has a communication function, the user can access the management server 11 from the electronic camera 10 via the access point 13.

上記地図座標取得システムにおいて、電子カメラ10のユーザーは以下のいずれかの態様によって管理サーバ11へアクセスし、地図情報を取得する。
(1)ユーザーは、端末12からインターネットに接続して地図情報を取得する。電子カメラ10および端末12間をUSBケーブルなどで接続し、電子カメラ10内へ地図情報を記録する。
In the map coordinate acquisition system, the user of the electronic camera 10 accesses the management server 11 by any one of the following modes and acquires map information.
(1) A user connects to the Internet from the terminal 12 and acquires map information. The electronic camera 10 and the terminal 12 are connected with a USB cable or the like, and map information is recorded in the electronic camera 10.

(2)ユーザーは、端末12からインターネットに接続して地図情報を取得する。電子カメラ10に装着されている記録媒体10Aを、電子カメラ10から取り出して端末12のカードスロット(不図示)へ実装し、記録媒体10A内へ地図情報を記録する。この場合、電子カメラ10および端末12間の接続は不要である。 (2) A user connects to the Internet from the terminal 12 and acquires map information. The recording medium 10A attached to the electronic camera 10 is taken out from the electronic camera 10 and mounted in a card slot (not shown) of the terminal 12, and map information is recorded in the recording medium 10A. In this case, connection between the electronic camera 10 and the terminal 12 is unnecessary.

(3)ユーザーは、電子カメラ10をアクセスポイント13経由でインターネットに接続し、地図情報を取得する。アクセスポイント13との間で通信が成立した電子カメラ10は、電子カメラ10内へ地図情報を記録する。 (3) The user connects the electronic camera 10 to the Internet via the access point 13 and acquires map information. The electronic camera 10 that has established communication with the access point 13 records map information in the electronic camera 10.

図3は、電子カメラ10の要部構成を例示するブロック図である。図3において、タイミングジェネレータ(TG)105は、メインCPU108から送出される指示に応じて、タイミング信号をドライバ104、AFE(Analog Front End)回路102、A/D変換回路103および画像処理回路106へ供給する。ドライバ104は、撮像素子101で必要とされる駆動信号を供給する。   FIG. 3 is a block diagram illustrating the main configuration of the electronic camera 10. In FIG. 3, a timing generator (TG) 105 sends timing signals to a driver 104, an AFE (Analog Front End) circuit 102, an A / D conversion circuit 103, and an image processing circuit 106 in accordance with an instruction sent from the main CPU 108. Supply. The driver 104 supplies a drive signal required by the image sensor 101.

撮影レンズLは、撮像素子101の撮像面に被写体像を結像させる。撮像素子101は、画素に対応する複数の光電変換素子を備えたCCDイメージセンサなどによって構成され、撮像面上に結像されている被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。   The photographing lens L forms a subject image on the imaging surface of the image sensor 101. The image sensor 101 is configured by a CCD image sensor or the like including a plurality of photoelectric conversion elements corresponding to pixels, captures a subject image formed on the imaging surface, and performs photoelectric conversion according to the brightness of the subject image. Output a signal.

AFE回路102は、撮像素子101から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う。A/D変換回路103は、アナログ処理後の撮像信号をディジタル信号に変換する。   The AFE circuit 102 performs analog processing (such as gain control) on the photoelectric conversion signal output from the image sensor 101. The A / D conversion circuit 103 converts the image pickup signal after analog processing into a digital signal.

メインCPU108は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路106は、たとえばASICとして構成され、A/D変換回路103から入力されるディジタル画像信号に対する画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 108 receives a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 106 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the A / D conversion circuit 103. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路107は、画像処理回路106による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路110は、撮像画像を液晶モニタ111に表示させるための表示データを作成する。液晶モニタ111は、表示画像作成回路110から入力される表示データによる再生画像を表示する。表示画像作成回路110は画像表示用データの他、メッセージやメニュー、マークなどを表示するためのデータの作成も行う。これにより、液晶モニタ111に画像以外の情報も表示される。   The image compression circuit 107 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 106 by the JPEG method. The display image creation circuit 110 creates display data for displaying the captured image on the liquid crystal monitor 111. The liquid crystal monitor 111 displays a reproduced image based on the display data input from the display image creation circuit 110. The display image creation circuit 110 creates data for displaying messages, menus, marks, etc., in addition to image display data. Thereby, information other than an image is also displayed on the liquid crystal monitor 111.

記録媒体10Aは、電子カメラ10に対して着脱可能なメモリカードなどで構成される。記録媒体10Aには、メインCPU108からの指示によって撮影画像のデータ、およびその撮影情報を含む画像ファイルが記録される。記録媒体10Aに記録された画像ファイルは、メインCPU108からの指示によって読み出しが可能である。   The recording medium 10 </ b> A includes a memory card that can be attached to and detached from the electronic camera 10. The recording medium 10A records captured image data and an image file including the captured information according to an instruction from the main CPU. The image file recorded on the recording medium 10A can be read by an instruction from the main CPU.

バッファメモリ109は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体10Aへ記録する前の画像ファイルを格納したり、記録媒体10Aから読み出した画像ファイルを格納したりするワークメモリとして使用される。   The buffer memory 109 temporarily stores data before and after image processing and in the middle of image processing, stores an image file before recording on the recording medium 10A, and stores an image file read from the recording medium 10A. Used as work memory.

操作部材113は、電子カメラ10の操作ボタン類に対応し、各ボタンの押下操作に対応する操作信号をメインCPU108へ出力する。無線インターフェイス116は、メインCPU108からの指示により外部機器(アクセスポイント13に備えられる端末等)との間で無線LAN通信、赤外線通信、および光通信などのいずれかの通信方式によってデータを送受信する。外部インターフェイス112は、メインCPU108からの指示により外部機器(パーソナルコンピュータやクレードル等)との間で不図示のケーブルを介してデータを送受信する。   The operation member 113 corresponds to the operation buttons of the electronic camera 10 and outputs an operation signal corresponding to the pressing operation of each button to the main CPU 108. The wireless interface 116 transmits / receives data to / from an external device (such as a terminal provided in the access point 13) according to an instruction from the main CPU 108 by any one of communication methods such as wireless LAN communication, infrared communication, and optical communication. The external interface 112 transmits / receives data to / from an external device (such as a personal computer or a cradle) according to an instruction from the main CPU 108 via a cable (not shown).

GPS装置114は、メインCPU108からの指示に応じてGPS衛星からの電波を受信し、受信信号をメインCPU108へ出力する。メインCPU108は、GPS装置114からの受信信号に基づいて所定の演算を行い、電子カメラ10の測位情報(緯度、経度、高度)を検出する。   The GPS device 114 receives radio waves from GPS satellites according to instructions from the main CPU 108 and outputs received signals to the main CPU 108. The main CPU 108 performs a predetermined calculation based on the received signal from the GPS device 114 and detects the positioning information (latitude, longitude, altitude) of the electronic camera 10.

方位センサ115は、メインCPU108からの指示に応じて地磁気を検出し、検出した地磁気に基づいて電子カメラ10が向いている方向、すなわち、撮影レンズLの光軸が向いている方位を求め、求めた方位を示す信号をメインCPU108へ出力する。方位センサ115によって検出される方位は、電子カメラ10による撮影方位に対応する。   The direction sensor 115 detects the geomagnetism in accordance with an instruction from the main CPU 108, and obtains and obtains the direction in which the electronic camera 10 faces, that is, the direction in which the optical axis of the photographing lens L faces based on the detected geomagnetism. A signal indicating the azimuth is output to the main CPU. The azimuth detected by the azimuth sensor 115 corresponds to the shooting azimuth taken by the electronic camera 10.

上記電子カメラ10は、撮影時に取得した画像データに、測位情報、方位情報、および当該撮影画像に関する情報などを含む付加情報を付加した画像ファイルを生成するように構成されている。具体的には、JPEG形式の画像データを画像データ部に格納し、付加情報を付加情報部に格納したExif形式の画像ファイルを生成する。   The electronic camera 10 is configured to generate an image file in which additional information including positioning information, azimuth information, information on the captured image, and the like is added to the image data acquired at the time of shooting. Specifically, an image file in Exif format is generated in which image data in JPEG format is stored in the image data portion and additional information is stored in the additional information portion.

<電子カメラによる表示>
電子カメラ10が液晶モニタ111に画像ファイル内の情報を表示する再生動作について、液晶モニタ111の表示を例に説明する。図4は、電子カメラ10を液晶モニタ111(背面)側から見た図である。図4において、電子カメラ10の背面に液晶モニタ111が配設され、液晶モニタ111の横にズームスイッチ113b、メニュースイッチ113c、その他操作スイッチ113d、113e、113gおよびダイヤル113fが設けられている。リング状に構成されたダイヤル113fは、回転操作に応じた回転操作信号と、押下操作に応じた押下位置信号とを発生する。決定スイッチ113gの配設位置はダイヤル113fの中央部である。また、電子カメラ10の上面にはレリーズボタン113aが配設される。
<Display with electronic camera>
A playback operation in which the electronic camera 10 displays information in the image file on the liquid crystal monitor 111 will be described with reference to the display on the liquid crystal monitor 111 as an example. FIG. 4 is a diagram of the electronic camera 10 as viewed from the liquid crystal monitor 111 (rear surface) side. In FIG. 4, a liquid crystal monitor 111 is provided on the back of the electronic camera 10, and a zoom switch 113b, a menu switch 113c, other operation switches 113d, 113e, 113g, and a dial 113f are provided beside the liquid crystal monitor 111. The dial 113f configured in a ring shape generates a rotation operation signal corresponding to the rotation operation and a pressed position signal corresponding to the pressing operation. The determination switch 113g is disposed at the center of the dial 113f. A release button 113a is disposed on the upper surface of the electronic camera 10.

液晶モニタ111には地図画像が表示されている。電子カメラ10のメインCPU108は、たとえば、次の5項目のうち、メニュー設定によって指示されている項目に対応するエリアの地図を液晶モニタ111に表示させる。
1.電子カメラ10の現在地(GPS装置114からの受信信号に基づいて演算した位置)を含む地図
2.最後に(前回)液晶モニタ111に表示したエリアの地図
3.最後の(前回)撮影時に測位した(GPS装置114からの受信信号に基づいて演算した)位置を含む地図
4.あらかじめ定められているエリアの地図
5.操作部材113からの操作信号によって指示されるエリアの地図
A map image is displayed on the liquid crystal monitor 111. For example, the main CPU 108 of the electronic camera 10 causes the liquid crystal monitor 111 to display a map of an area corresponding to an item designated by the menu setting among the following five items.
1. 1. Map including the current location of electronic camera 10 (position calculated based on received signal from GPS device 114) 2. Last (previous) area map displayed on the LCD monitor 111 3. Map including the position (calculated based on the received signal from the GPS device 114) measured at the time of the last (previous) shooting Map of predetermined area 5. Map of area indicated by operation signal from operation member 113

地図画像表示に必要な地図情報は、無線インターフェイス116または外部インターフェイス112を介して外部機器から受信可能に構成されている。受信した地図のデータは、記録媒体10Aに記録することも可能である。   Map information necessary for displaying a map image is configured to be received from an external device via the wireless interface 116 or the external interface 112. The received map data can also be recorded on the recording medium 10A.

図4に例示した液晶モニタ111の表示画像には、地図画像に重ねてマーク21〜マーク24がそれぞれ表示されている。マーク21〜マーク24は、各マークに対応する位置で撮影された画像が電子カメラ10内に存在することを示す。具体的には、マーク21〜マーク24の表示位置に対応する測位情報を関連づけて保存された画像ファイルが記録媒体10A内に記録されている場合に、メインCPU108が測位情報で示される位置(撮影位置)にマークを表示させる。   In the display image of the liquid crystal monitor 111 illustrated in FIG. 4, marks 21 to 24 are displayed so as to overlap the map image. The marks 21 to 24 indicate that an image photographed at a position corresponding to each mark exists in the electronic camera 10. Specifically, when the image file stored in association with the positioning information corresponding to the display positions of the marks 21 to 24 is recorded in the recording medium 10A, the position indicated by the positioning information (shooting) Mark is displayed at (Position).

液晶モニタ111に表示する地図画像の表示範囲(すなわち、地図の縮尺)は、ズームスイッチ113bからの操作信号に応じて変化する。メインCPU108は、ズームスイッチ113bがテレ側(T)に操作されると縮尺率を下げ(拡大表示)、ワイド側(W)に操作されると縮尺率を高める(縮小表示)ように表示制御する。   The display range of the map image displayed on the liquid crystal monitor 111 (that is, the scale of the map) changes according to the operation signal from the zoom switch 113b. The main CPU 108 performs display control so that the zoom ratio is reduced (enlarged display) when the zoom switch 113b is operated to the telephoto side (T) and is increased (reduced display) when the zoom switch 113b is operated to the wide side (W). .

ポインタ31は、液晶モニタ111の表示画面内を移動自在に表示制御される。メインCPU108は、ダイヤル113fからの押下位置信号に応じて、ポインタ31を押下位置方向へなめらかに移動させる。たとえば、ダイヤル113fの右側が押下される場合、ポインタ31を現表示位置より右方向へ移動させる。ダイヤル113fの右側が押下され続ける場合はポインタ31をさらに右側へ移動させ、ポインタ31が表示画面の右側へ到達した状態でダイヤル113fの右側がさらに押下される場合、表示する地図画像を左方向へスクロールさせる。これにより、地図画像の表示されていなかった右側部分が新たに液晶モニタ111に表示される。   The pointer 31 is display-controlled so as to be movable within the display screen of the liquid crystal monitor 111. The main CPU 108 moves the pointer 31 smoothly in the direction of the pressed position in response to the pressed position signal from the dial 113f. For example, when the right side of the dial 113f is pressed, the pointer 31 is moved rightward from the current display position. When the right side of the dial 113f continues to be pressed, the pointer 31 is moved further to the right side. When the pointer 31 reaches the right side of the display screen and the right side of the dial 113f is further pressed, the map image to be displayed is moved to the left. Scroll. As a result, the right side portion on which the map image is not displayed is newly displayed on the liquid crystal monitor 111.

メインCPU108は、ダイヤル113fの上側、左側、下側が押下される場合もそれぞれ同様に表示制御を行う。なお、ダイヤル113fの斜め上側、斜め下側が押下される場合には、それぞれの方向に地図画像がスクロールするように表示制御を行う。   The main CPU 108 similarly performs display control when the upper side, the left side, and the lower side of the dial 113f are pressed. In addition, when the diagonally upper side and the diagonally lower side of the dial 113f are pressed, display control is performed so that the map image scrolls in each direction.

なお、上述したように地図画像を液晶モニタ111に表示させる他、記録媒体10Aに記録された画像ファイル内のデータによる画像を液晶モニタ111に表示させる通常の再生表示も可能である。   In addition to displaying a map image on the liquid crystal monitor 111 as described above, normal reproduction display in which an image based on data in an image file recorded on the recording medium 10A is displayed on the liquid crystal monitor 111 is also possible.

<電子カメラによる地図座標取得>
電子カメラ10に地図座標を算出させる地図座標算出モードの設定処理と、地図座標算出処理の流れについて、図7および図8に例示するフローチャートを参照して説明する。メインCPU108は、メニュースイッチ113cが押下操作されると、図7の処理を行うためのプログラムを起動する。図7のステップS101において、メインCPU108は、図5に例示する「操作メニュー」画面を液晶モニタ111に表示させる。
<Obtain map coordinates with electronic camera>
A map coordinate calculation mode setting process for causing the electronic camera 10 to calculate map coordinates and a flow of the map coordinate calculation process will be described with reference to flowcharts illustrated in FIGS. 7 and 8. When the menu switch 113c is pressed, the main CPU 108 activates a program for performing the processing of FIG. In step S <b> 101 of FIG. 7, the main CPU 108 displays an “operation menu” screen illustrated in FIG. 5 on the liquid crystal monitor 111.

「操作メニュー」には、「地図座標算出モードオン」項目171と、「画像選択」項目172とが含まれる。メインCPU108は、「操作メニュー」画面を表示中に十字スイッチ22gが上下方向に押下操作されると、操作信号に応じて選択項目を上下に変更する。   The “operation menu” includes a “map coordinate calculation mode on” item 171 and an “image selection” item 172. When the cross switch 22g is pressed down in the vertical direction while the “operation menu” screen is displayed, the main CPU 108 changes the selection item up or down according to the operation signal.

ステップS102において、メインCPU108は、メニュー終了操作が行われたか否かを判定する。メインCPU108は、メニュースイッチ113cが押下操作された場合にステップS102を肯定判定してステップS109へ進む。ステップS109において、メインCPU108は、メニュー表示を終了して図7による処理を終了する。   In step S102, the main CPU 108 determines whether or not a menu end operation has been performed. When the menu switch 113c is pressed, the main CPU 108 makes a positive determination in step S102 and proceeds to step S109. In step S109, the main CPU 108 ends the menu display and ends the process shown in FIG.

一方、メインCPU108は、メニュースイッチ113cが押下操作されない場合にはステップS102を否定判定し、ステップS103へ進む。ステップS103において、メインCPU108は、地図座標算出モードオン操作が行われたか否かを判定する。メインCPU108は、たとえば、「地図座標算出モードオン」項目171を選択した状態でダイヤル113fの右側が押下されると、ステップS103を肯定判定してステップS104へ進む。なお、既に地図座標算出モードに設定している状態であって、地図座標算出モードオフ操作が行われない場合にもステップS104へ進む。ステップS104において、メインCPU108は、地図座標算出モードに設定してステップS105へ進む。   On the other hand, if the menu switch 113c is not pressed, the main CPU 108 makes a negative determination in step S102 and proceeds to step S103. In step S103, the main CPU 108 determines whether or not a map coordinate calculation mode ON operation has been performed. For example, when the right side of the dial 113f is pressed while the “map coordinate calculation mode on” item 171 is selected, the main CPU 108 makes a positive determination in step S103 and proceeds to step S104. Note that the process also proceeds to step S104 when the map coordinate calculation mode is already set and the map coordinate calculation mode off operation is not performed. In step S104, the main CPU 108 sets the map coordinate calculation mode, and proceeds to step S105.

メインCPU108は、「地図座標算出モードオン」項目171を選択した状態で地図座標算出モードオフ操作が行われた場合には、ステップS103を否定判定してステップS108へ進む。この場合のメインCPU108は、ステップS108において地図座標算出モードを解除してステップS102へ戻る。   When the map coordinate calculation mode off operation is performed with the “map coordinate calculation mode on” item 171 selected, the main CPU 108 makes a negative determination in step S103 and proceeds to step S108. In this case, the main CPU 108 cancels the map coordinate calculation mode in step S108 and returns to step S102.

ステップS105において、メインCPU108は、図6に例示する「画像選択」画面を液晶モニタ111に表示させる。表示対象は、記録媒体10Aに記録(登録)されている全ての画像ファイルである。図6によれば、12のサムネイル画像が表示されている。サムネイル表示は、各画像ファイルに含まれているサムネイル画像を並べて表示したものである。メインCPU108は、サムネイル画像の1つを囲むカーソル174を表示させる。メインCPU108はさらに、各サムネイル画像に対応させてチェックボックス173をそれぞれ表示させる。   In step S <b> 105, the main CPU 108 displays an “image selection” screen illustrated in FIG. 6 on the liquid crystal monitor 111. The display objects are all image files recorded (registered) in the recording medium 10A. According to FIG. 6, twelve thumbnail images are displayed. In the thumbnail display, thumbnail images included in each image file are displayed side by side. The main CPU 108 displays a cursor 174 surrounding one of the thumbnail images. The main CPU 108 further displays check boxes 173 corresponding to the respective thumbnail images.

メインCPU108は、「画像選択」画面を表示中にダイヤル113fが上下方向に押下操作されると、操作信号に応じてカーソル174の表示位置を上下に移動させる。また、メインCPU108は、「画像選択」画面を表示中にダイヤル113fが左右方向に押下操作されると、操作信号に応じてカーソル174の表示位置を左右に移動させる。   The main CPU 108 moves the display position of the cursor 174 up and down according to the operation signal when the dial 113 f is pressed down in the up and down direction while the “image selection” screen is displayed. Further, when the dial 113f is pressed down in the left-right direction while the “image selection” screen is displayed, the main CPU 108 moves the display position of the cursor 174 to the left or right in accordance with the operation signal.

ステップS106において、メインCPU108は、画像選択操作が行われたか否かを判定する。メインCPU108は、カーソル174が囲むチェックボックス内にチェックマークが表示されていない状態で決定スイッチ113gが押下操作されると、当該チェックボックス内にチェックマークを表示させる。チェックマークの表示は、当該サムネイル画像に対応する画像ファイルを選択したことを表す。メインCPU108は、2つの画像ファイルを選択した場合にステップS106を肯定判定してステップS107へ進む。本実施形態の場合、画像ファイルの選択は2つである。   In step S106, the main CPU 108 determines whether or not an image selection operation has been performed. When the determination switch 113g is pressed while the check mark is not displayed in the check box surrounded by the cursor 174, the main CPU 108 displays the check mark in the check box. The display of the check mark indicates that the image file corresponding to the thumbnail image has been selected. When the main CPU 108 selects two image files, the main CPU 108 makes a positive determination in step S106 and proceeds to step S107. In the present embodiment, there are two image file selections.

本実施形態ではサムネイル画像181および182に対応する2つの画像ファイルが選択される。選択される画像ファイルは、異なる地点から同一の主要被写体を撮影したものであり、かつ、当該主要被写体がそれぞれの画面中央で撮影されているものとする。なお、各撮影地点から主要被写体までの距離、および各撮影時のズーム倍率は異なっていても構わない。   In the present embodiment, two image files corresponding to the thumbnail images 181 and 182 are selected. The selected image file is obtained by photographing the same main subject from different points, and the main subject is taken at the center of each screen. Note that the distance from each shooting point to the main subject and the zoom magnification at the time of each shooting may be different.

メインCPU108は、カーソル174が囲むチェックボックス内にチェックマークが表示されている状態で決定スイッチ113gが押下操作されると、当該チェックボックスのチェックマークを消す。チェックマークの消去は、当該サムネイル画像に対応する画像ファイルの非選択を表す。   When the determination switch 113g is pressed while the check mark is displayed in the check box surrounded by the cursor 174, the main CPU 108 removes the check mark from the check box. Deletion of the check mark represents non-selection of the image file corresponding to the thumbnail image.

一方、メインCPU108は、画像ファイルを選択しない場合にはステップS106を否定判定してステップS110へ進む。ステップS106を肯定判定した場合に進むステップS107において、メインCPU108は、選択画像ファイルを示す情報をメインCPU108内のメモリに格納してステップS112へ進む。   On the other hand, if the image file is not selected, the main CPU 108 makes a negative determination in step S106 and proceeds to step S110. In step S107, which proceeds when an affirmative determination is made in step S106, the main CPU 108 stores information indicating the selected image file in the memory in the main CPU 108, and proceeds to step S112.

ステップS112において、メインCPU11は主要被写体の地図座標、すなわち、主要被写体が位置する地図上の座標を算出してステップS113へ進む。地図座標算出処理の詳細については後述する。ステップS113において、メインCPU108は、選択されている2つの画像ファイルのそれぞれに対し、算出した主要被写体の地図座標を示す情報を追加させる。具体的には、画像ファイルの付加情報内に算出した地図座標情報を追加記録する。メインCPU108は、算出した地図座標情報を画像ファイルへ追加するとステップS102へ戻る。   In step S112, the main CPU 11 calculates the map coordinates of the main subject, that is, the coordinates on the map where the main subject is located, and proceeds to step S113. Details of the map coordinate calculation process will be described later. In step S113, the main CPU 108 adds information indicating the calculated map coordinates of the main subject to each of the two selected image files. Specifically, the calculated map coordinate information is additionally recorded in the additional information of the image file. After adding the calculated map coordinate information to the image file, the main CPU 108 returns to step S102.

ステップS106を否定判定した場合に進むステップS110において、メインCPU108は、終了操作が行われたか否かを判定する。メインCPU108は、メニュースイッチ113cが押下操作された場合にステップS110を肯定判定してステップS109へ進む。メインCPU108は、メニュースイッチ113cが押下操作されない場合にはステップS110を否定判定し、ステップS111へ進む。   In step S110 which proceeds when a negative determination is made in step S106, the main CPU 108 determines whether or not an end operation has been performed. When the menu switch 113c is pressed, the main CPU 108 makes a positive determination in step S110 and proceeds to step S109. If the menu switch 113c is not pressed down, the main CPU 108 makes a negative determination in step S110 and proceeds to step S111.

ステップS111において、メインCPU108は、操作部材113が何も操作されない状態で所定時間(たとえば、10秒)が経過するとステップS106へ戻る。   In step S111, the main CPU 108 returns to step S106 when a predetermined time (for example, 10 seconds) elapses with no operation of the operation member 113.

上述した画像選択は、地図座標算出モードがオンされていなくても行えるように構成される。たとえば、メインCPU108は、図5に例示したメニュー画面において「画像選択」項目172を選択した状態でダイヤル113fの右側が押下されると、図6に例示した「画像選択」画面を液晶モニタ111に表示させ、上記ステップS306、S307、S310、およびS311と同様の処理を行う。この場合のメインCPU108は、選択処理後は液晶モニタ111の表示内容を図5に例示する「操作メニュー」画面に戻す。   The image selection described above is configured to be performed even if the map coordinate calculation mode is not turned on. For example, when the right side of the dial 113f is pressed with the “Select Image” item 172 selected on the menu screen illustrated in FIG. 5, the main CPU 108 displays the “Select Image” screen illustrated in FIG. The same processing as in steps S306, S307, S310, and S311 is performed. In this case, the main CPU 108 returns the display content of the liquid crystal monitor 111 to the “operation menu” screen illustrated in FIG. 5 after the selection process.

地図座標算出処理の詳細について、図8のフローチャートを参照して説明する。図8のステップS201において、メインCPU108は、選択されている2つの画像ファイルから各画像の撮影地点を示す測位情報、および撮影方向を示す方位情報をそれぞれ読み出してステップS202へ進む。   Details of the map coordinate calculation processing will be described with reference to the flowchart of FIG. In step S201 in FIG. 8, the main CPU 108 reads out positioning information indicating the shooting point of each image and azimuth information indicating the shooting direction from the two selected image files, and proceeds to step S202.

ステップS202において、メインCPU108は、2つの撮影地点を含む地図情報を記録媒体10Aから読み出してステップS203へ進む。ステップS203において、メインCPU108は、測位情報に基づいて上記2画像の撮影地点を地図上にプロットしてステップS204へ進む。プロットされた撮影地点は、図1における地点A、地点Bに対応する。なお、ここでは演算に必要な座標をメモリ空間に仮想的にセットすればよく、実際の地図データに重ね合わせなくてもよい。   In step S202, the main CPU 108 reads map information including two shooting points from the recording medium 10A, and proceeds to step S203. In step S203, the main CPU 108 plots the shooting positions of the two images on the map based on the positioning information, and proceeds to step S204. The plotted imaging points correspond to the points A and B in FIG. Here, the coordinates necessary for the calculation may be virtually set in the memory space, and may not be superimposed on the actual map data.

ステップS204において、メインCPU108は、方位情報に基づいて地図上の撮影地点A、Bから撮影方向へそれぞれ直線を引き、ステップS205へ進む。図1において、撮影地点を通る経線から所定角(経線と撮影方向を示す線との挟角θA、θB)をなす直線が撮影方向を示す。ステップS205において、地図上における2本の直線の交点を算出して図8による処理を終了する。2本の直線の交点は、主要被写体の座標(たとえば、緯度、経度)に対応する。   In step S204, the main CPU 108 draws straight lines from the shooting points A and B on the map in the shooting direction based on the direction information, and proceeds to step S205. In FIG. 1, a straight line that forms a predetermined angle (a sandwich angle θA, θB between a meridian and a line indicating a shooting direction) from a meridian passing through the shooting point indicates a shooting direction. In step S205, the intersection of the two straight lines on the map is calculated, and the process shown in FIG. 8 ends. The intersection of two straight lines corresponds to the coordinates (for example, latitude and longitude) of the main subject.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラ10は、異なる2地点から共通の被写体を撮影した際に該2地点における測位情報、方位情報をそれぞれ取得し、該2地点を含む平面上で該2地点から撮影方位へそれぞれ直線を引き、2本の直線の交点を算出するようにした。2本の直線の交点は、主要被写体の座標に対応する。これにより、従来技術と異なり、主要被写体の反射率が低い場合でも主要被写体の座標を算出することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) When the electronic camera 10 captures a common subject from two different points, the electronic camera 10 acquires positioning information and direction information at the two points, respectively, and moves from the two points to the shooting direction on a plane including the two points. A straight line was drawn and the intersection of two straight lines was calculated. The intersection of the two straight lines corresponds to the coordinates of the main subject. Thereby, unlike the prior art, the coordinates of the main subject can be calculated even when the reflectance of the main subject is low.

(2)2地点を含む地図上において直線の交点を算出するようにしたので(マッピング)、地図上における主要被写体の位置(たとえば、緯度、経度)を算出できる。 (2) Since the intersection of straight lines is calculated on a map including two points (mapping), the position of the main subject (for example, latitude and longitude) on the map can be calculated.

(3)測位情報、方位情報が含まれる画像ファイルから測位情報および方位情報を取得するようにしたので、測位情報を得るためのGPS装置や方位情報を得るための方位センサを具備しないカメラでも主要被写体の座標を算出できる。 (3) Since positioning information and azimuth information are acquired from an image file including positioning information and azimuth information, it is mainly used in cameras that do not include a GPS device for obtaining positioning information or an azimuth sensor for obtaining azimuth information. The coordinates of the subject can be calculated.

(変形例1)
以上の説明は、既に撮影済みの画像ファイルに基づいて主要被写体の座標を算出する例を説明した。この代わりに、地図座標算出のための撮影をアシストするように構成してもよい。この場合の電子カメラ10のメインCPU108は、地図座標算出モードが設定されると1枚目の撮影を促すメッセージを液晶モニタ111に表示させる。
(Modification 1)
In the above description, the example in which the coordinates of the main subject are calculated based on the already captured image file has been described. Instead, it may be configured to assist shooting for calculating map coordinates. In this case, when the map coordinate calculation mode is set, the main CPU 108 of the electronic camera 10 causes the liquid crystal monitor 111 to display a message for prompting the first image.

ユーザーがレリーズ操作を行うと、メインCPU108は、取得した画像データ、測位情報、方位情報を含む画像ファイルを生成し、記録媒体10Aに記録する。メインCPU108はさらに、2枚目の撮影を促すメッセージを液晶モニタ111に表示させる。   When the user performs a release operation, the main CPU 108 generates an image file including the acquired image data, positioning information, and orientation information, and records the image file on the recording medium 10A. Further, the main CPU 108 causes the liquid crystal monitor 111 to display a message for prompting the second image.

ユーザーが2枚目のレリーズ操作を行うと、メインCPU108は、取得した画像データ、測位情報、方位情報を含む画像ファイルを生成し、記録媒体10Aに記録する。メインCPU108はさらに、2枚の画像ファイルに基づいて主要被写体の座標を算出し、算出した地図座標情報を2枚の画像ファイルへそれぞれ追加する。変形例1によれば、同じ主要被写体を2枚撮影する毎に自動的に地図座標情報を算出できる。   When the user performs the second release operation, the main CPU 108 generates an image file including the acquired image data, positioning information, and orientation information, and records the image file on the recording medium 10A. The main CPU 108 further calculates the coordinates of the main subject based on the two image files, and adds the calculated map coordinate information to the two image files. According to the first modification, map coordinate information can be automatically calculated each time two identical main subjects are photographed.

(変形例2)
以上の説明は、1台の電子カメラ10で撮影地点を変えて撮影した画像ファイルに基づいて、主要被写体の座標を算出する例を説明した。この代わりに、2台の電子カメラ10によって異なる撮影地点から共通の主要被写体をそれぞれ撮影し、一方の電子カメラ10で記録された記録媒体10Aの画像ファイルを他方の電子カメラ10で読み出すことにより、2枚の画像ファイルに基づいて主要被写体の座標を算出するように構成してもよい。2台のカメラ10で撮影を分担することにより、1台のカメラ10で2地点を巡回する場合よりも所要時間を短縮できる。
(Modification 2)
In the above description, an example has been described in which the coordinates of the main subject are calculated based on an image file captured by changing the shooting point with one electronic camera 10. Instead, a common main subject is photographed from different photographing points by the two electronic cameras 10, and an image file of the recording medium 10 </ b> A recorded by one electronic camera 10 is read by the other electronic camera 10. The coordinates of the main subject may be calculated based on the two image files. By sharing the shooting with the two cameras 10, the required time can be shortened compared with the case where the two cameras 10 travel around two locations.

(変形例3)
2台の電子カメラ10によって異なる撮影地点から共通の主要被写体をそれぞれ撮影し、一方の電子カメラ10で取得、生成された画像ファイルを他方の電子カメラ10へ送信することにより、2枚の画像ファイルに基づいて主要被写体の座標を算出するように構成してもよい。この場合の電子カメラ10間の通信は、電子カメラ10相互が無線インターフェイス116を介して行ってもよいし、ネットワーク経由(図2)で行ってもよい。2台のカメラ10間で即時画像ファイルを転送できるので、同じ主要被写体を2枚撮影した時点でリアルタイムに地図座標情報を算出できる。
(Modification 3)
Two image files are obtained by photographing a common main subject from different photographing points by two electronic cameras 10 and transmitting an image file acquired and generated by one electronic camera 10 to the other electronic camera 10. The coordinates of the main subject may be calculated based on the above. Communication between the electronic cameras 10 in this case may be performed between the electronic cameras 10 via the wireless interface 116 or via a network (FIG. 2). Since an immediate image file can be transferred between the two cameras 10, map coordinate information can be calculated in real time when two identical main subjects are photographed.

(変形例4)
地図情報を参照して座標に対応する地名または名称を取得し、再生画像とともに地名、名称などを液晶モニタ111に表示させてもよい。図9は、液晶モニタ111に表示される再生画像を例示する図である。再生画像とともに主要被写体名が表示されている。なお、緯度、経度情報を合わせて表示させてもよい。
(Modification 4)
The place name or name corresponding to the coordinates may be acquired by referring to the map information, and the place name, name, etc. may be displayed on the liquid crystal monitor 111 together with the reproduced image. FIG. 9 is a diagram illustrating a reproduced image displayed on the liquid crystal monitor 111. The main subject name is displayed along with the reproduced image. Note that latitude and longitude information may be displayed together.

メインCPU108はさらに、たとえばスイッチ113dが押下操作された場合に、図9の再生画像に代えて、図1に例示した2つの撮影地点A,Bおよび主要被写体の座標Oを含む地図画像を液晶モニタ111に表示させる。再びスイッチ113dが操作された場合には、図1の地図画像に代えて、図9の再生画像を再び表示させる。メインCPU108はさらに、図1の地図画像を表示中にポインタ31(図2)を表示させ、このポインタ31を用いたドラッグ操作によって座標Oの位置を修正する。メインCPU108は、修正後の座標情報を2枚の画像ファイルへそれぞれ更新記録する。   For example, when the switch 113d is pressed, the main CPU 108 displays a map image including the two shooting points A and B illustrated in FIG. 1 and the coordinates O of the main subject in place of the reproduced image in FIG. 111 is displayed. When the switch 113d is operated again, the reproduced image of FIG. 9 is displayed again instead of the map image of FIG. Further, the main CPU 108 displays the pointer 31 (FIG. 2) while displaying the map image of FIG. 1, and corrects the position of the coordinate O by a drag operation using the pointer 31. The main CPU 108 updates and records the corrected coordinate information in two image files.

(変形例5)
以上の説明では、水平面内の座標を算出する例を説明したが、垂直面内の座標(すなわち高度)を算出するように構成することもできる。この場合には、電子カメラ10に仰角(俯角)センサを設け、撮影時の仰角(または俯角)を検出し、仰角(または俯角)情報を画像ファイルの付加情報内に記録しておく。メインCPU108は、画像ファイルの付加情報に記録されている高度情報に基づいて上記2画像の撮影地点の高度を垂直平面上にプロットする。なお、演算に必要な座標をメモリ空間に仮想的にセットすればよい点は水平面内における座標演算の場合と同様である。
(Modification 5)
In the above description, the example in which the coordinates in the horizontal plane are calculated has been described, but the coordinates in the vertical plane (that is, the altitude) may be calculated. In this case, an elevation angle (or depression angle) sensor is provided in the electronic camera 10, the elevation angle (or depression angle) at the time of photographing is detected, and elevation angle (or depression angle) information is recorded in the additional information of the image file. The main CPU 108 plots the altitudes at the shooting locations of the two images on the vertical plane based on the altitude information recorded in the additional information of the image file. In addition, the point which should just virtually set the coordinate required for a calculation to memory space is the same as that of the case of the coordinate calculation in a horizontal surface.

メインCPU108はさらに、仰角(俯角)情報に基づいて垂直平面上で撮影地点から撮影方向へ直線を引く。撮影地点を通る水平線から所定角(水平線と撮影方向を示す線との挟角θC、θD)をなす直線が仰角(俯角)方向を示す。メインCPU108は、垂直平面における2本の直線の交点を算出する。2本の直線の交点は、主要被写体の高度を表す。   Further, the main CPU 108 draws a straight line from the photographing point to the photographing direction on the vertical plane based on the elevation angle (decline) information. A straight line that forms a predetermined angle (a sandwich angle θC, θD between the horizontal line and a line indicating the shooting direction) from the horizontal line passing through the shooting point indicates the elevation (decline) direction. The main CPU 108 calculates the intersection of two straight lines in the vertical plane. The intersection of the two straight lines represents the altitude of the main subject.

(変形例6)
電子カメラ10によって地図座標を算出する例を説明したが、図8による処理を行う地図座標算出プログラムを図10に示すコンピュータ装置200に実行させることにより、地図座標算出装置を構成してもよい。地図座標算出プログラムをパーソナルコンピュータ200に取込んで使用する場合には、パーソナルコンピュータ200のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって地図座標算出装置として使用する。
(Modification 6)
Although the example which calculates a map coordinate with the electronic camera 10 was demonstrated, you may comprise a map coordinate calculation apparatus by making the computer apparatus 200 shown in FIG. 10 perform the map coordinate calculation program which performs the process by FIG. When the map coordinate calculation program is taken into the personal computer 200 and used, the program is loaded on the data storage device of the personal computer 200 and then used as the map coordinate calculation device.

パーソナルコンピュータ200に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体204をパーソナルコンピュータ200にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ200へローディングしてもよい。通信回線201を経由する場合は、通信回線201に接続されたサーバー(コンピュータ)202のハードディスク装置203などにプログラムを格納しておく。地図座標算出プログラムは、記録媒体204や通信回線201を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 200 may be performed by setting a recording medium 204 such as a CD-ROM storing the program in the personal computer 200, or to the personal computer 200 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the hard disk device 203 of the server (computer) 202 connected to the communication line 201. The map coordinate calculation program can be supplied as various forms of computer program products such as provision via the recording medium 204 or the communication line 201.

電子カメラ10を例に説明したが、携帯電話機などの電子機器によって本発明を実施しても構わない。   Although the electronic camera 10 has been described as an example, the present invention may be implemented by an electronic device such as a mobile phone.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態による電子カメラを含めて構成した地図座標取得システムを説明する図である。It is a figure explaining the map coordinate acquisition system comprised including the electronic camera by one embodiment of this invention. 地図情報をネットワーク経由で電子カメラへ取り込む構成を例示する図である。It is a figure which illustrates the structure which takes in map information to an electronic camera via a network. 電子カメラの要部構成を例示するブロック図である。It is a block diagram which illustrates the principal part composition of an electronic camera. 電子カメラを液晶モニタ(背面)側から見た図である。It is the figure which looked at the electronic camera from the liquid crystal monitor (back) side. 「操作メニュー」画面を例示する図である。It is a figure which illustrates an "operation menu" screen. 「画像選択」画面を例示する図である。It is a figure which illustrates an "image selection" screen. 地図座標算出モードの設定処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the setting process of map coordinate calculation mode. 地図座標算出処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of a map coordinate calculation process. 再生画像を例示する図である。It is a figure which illustrates a reproduction picture. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

符号の説明Explanation of symbols

10…電子カメラ
10A、204…記録媒体
108…メインCPU
111…液晶モニタ
113…操作部材
114…GPS装置
115…方位センサ
116…無線インターフェイス
200…パーソナルコンピュータ
10. Electronic camera 10A, 204 ... Recording medium 108 ... Main CPU
111 ... Liquid crystal monitor 113 ... Operation member 114 ... GPS device 115 ... Direction sensor 116 ... Wireless interface 200 ... Personal computer

Claims (7)

共通の被写体を撮影した異なる2地点の撮影位置情報をそれぞれ取得する位置情報取得手段と、
前記2地点における撮影方位情報をそれぞれ取得する方位情報取得手段と、
前記2地点を含む平面上で前記2地点から前記撮影方位へそれぞれ延ばした直線の交点が示す位置情報を算出する位置情報算出手段とを備えることを特徴とするカメラ。
Position information acquisition means for respectively acquiring shooting position information of two different points where a common subject is shot;
Direction information acquisition means for acquiring the shooting direction information at the two points,
A camera comprising: position information calculating means for calculating position information indicated by intersections of straight lines respectively extending from the two points to the shooting direction on a plane including the two points.
請求項1に記載のカメラにおいて、
前記2地点を含む地図情報を取得する地図情報取得手段をさらに備え、
前記位置情報算出手段は、前記地図上で前記2地点から前記撮影方位へそれぞれ延ばした直線の交点が示す位置情報を算出することを特徴とするカメラ。
The camera of claim 1,
Map information acquisition means for acquiring map information including the two points,
The position information calculation means calculates position information indicated by intersections of straight lines respectively extending from the two points to the shooting direction on the map.
請求項1に記載のカメラにおいて、
前記2地点で撮影された2つの画像ファイルは前記撮影位置情報および前記撮影方位情報をそれぞれ含み、
前記位置情報取得手段は、前記2つの画像ファイルから前記撮影位置情報をそれぞれ取得し、
前記方位情報取得手段は、前記2つの画像ファイルから前記撮影方位情報をそれぞれ取得することを特徴とするカメラ。
The camera of claim 1,
The two image files photographed at the two points include the photographing position information and the photographing direction information, respectively.
The position information acquisition unit acquires the shooting position information from the two image files,
The camera is characterized in that the azimuth information acquisition means acquires the photographing azimuth information from the two image files.
請求項3に記載のカメラにおいて、
外部機器との間で通信する通信手段をさらに備え、
前記2つの画像ファイルの一方を前記通信手段を介して取得することを特徴とするカメラ。
The camera according to claim 3.
A communication means for communicating with an external device;
One of the two image files is obtained via the communication means.
請求項1に記載のカメラにおいて、
前記位置情報取得手段は、前記2地点における撮影時に外部機器からの電波に基づいて前記撮影位置情報をそれぞれ取得し、
前記方位情報取得手段は、前記2地点における撮影時に地磁気に基づいて前記撮影方位情報をそれぞれ取得することを特徴とするカメラ。
The camera of claim 1,
The position information acquisition means acquires the shooting position information based on radio waves from an external device at the time of shooting at the two points,
The camera is characterized in that the azimuth information acquisition means acquires the shooting direction information based on geomagnetism at the time of shooting at the two points.
請求項5に記載のカメラにおいて、
前記撮影位置情報、前記撮影方位情報および撮影した画像データを含む画像ファイルを前記撮影時に生成するファイル生成手段をさらに備えることを特徴とするカメラ。
The camera according to claim 5, wherein
A camera, further comprising: a file generation unit configured to generate an image file including the shooting position information, the shooting direction information, and shot image data at the time of shooting.
異なる2地点で共通の被写体を撮影した2つの画像ファイルから前記2地点の撮影位置情報をそれぞれ読み出す位置情報読み出し処理と、
前記2つの画像ファイルから前記2地点における撮影方位情報をそれぞれ読み出す方位情報読み出し手段と、
前記2地点を含む平面上で前記2地点から前記撮影方位へそれぞれ延ばした直線の交点が示す位置情報を算出する位置情報算出処理とをコンピュータ装置に実行させることを特徴とする座標算出プログラム。
Position information read processing for reading out the shooting position information of the two points from two image files obtained by shooting a common subject at two different points;
Azimuth information reading means for reading the shooting azimuth information at the two points from the two image files,
A coordinate calculation program for causing a computer device to execute position information calculation processing for calculating position information indicated by intersections of straight lines respectively extending from the two points to the shooting direction on a plane including the two points.
JP2008184805A 2008-07-16 2008-07-16 Camera and coordinate calculation program Pending JP2010028282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008184805A JP2010028282A (en) 2008-07-16 2008-07-16 Camera and coordinate calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008184805A JP2010028282A (en) 2008-07-16 2008-07-16 Camera and coordinate calculation program

Publications (1)

Publication Number Publication Date
JP2010028282A true JP2010028282A (en) 2010-02-04

Family

ID=41733723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008184805A Pending JP2010028282A (en) 2008-07-16 2008-07-16 Camera and coordinate calculation program

Country Status (1)

Country Link
JP (1) JP2010028282A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6040336B1 (en) * 2016-07-25 2016-12-07 株式会社オーエムアイ Shooting target position specifying device, shooting target position specifying method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344789A (en) * 2001-05-16 2002-11-29 Fuji Photo Film Co Ltd Imaging device and position information detection system
JP2004048139A (en) * 2002-07-09 2004-02-12 Nikon Corp Image transmission system, image relay device, and electronic image equipment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344789A (en) * 2001-05-16 2002-11-29 Fuji Photo Film Co Ltd Imaging device and position information detection system
JP2004048139A (en) * 2002-07-09 2004-02-12 Nikon Corp Image transmission system, image relay device, and electronic image equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6040336B1 (en) * 2016-07-25 2016-12-07 株式会社オーエムアイ Shooting target position specifying device, shooting target position specifying method, and program

Similar Documents

Publication Publication Date Title
CN113542601B (en) Image pickup apparatus, display apparatus, and image pickup display system
JP5550989B2 (en) Imaging apparatus, control method thereof, and program
US8170411B2 (en) System and method for inputting position information in captured image
KR102314594B1 (en) Image display method and electronic device
US20130040700A1 (en) Image capture device and image capture method
JP5851766B2 (en) Portable device
JP2005122100A (en) Image displaying system, image displaying apparatus, and program
JP4264099B2 (en) Mobile device with camera
WO2017118353A1 (en) Device and method for displaying video file
JP6741498B2 (en) Imaging device, display device, and imaging display system
KR20200028298A (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
KR20200101235A (en) Method of providing augmented reality contents and elecronic device therefor
JP5007631B2 (en) Electronic camera
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP5003358B2 (en) Display device, electronic camera, and control program
JP2010028282A (en) Camera and coordinate calculation program
JP2011234257A (en) Imaging apparatus, captured image display system, control method, captured image display method and program
CN110996115B (en) Live video playing method, device, equipment, storage medium and program product
JP2022060315A (en) Imaging display method
JP5088051B2 (en) Electronic camera and program
JP2010021885A (en) Imaging device, and imaging support method
JP2012227717A (en) Display device, display program, and display method
US20250278173A1 (en) Display terminal, display method, and non-transitory recording medium
JP2013143717A (en) Image display device
US20250322581A1 (en) Information processing apparatus, screen generation method, non-transitory recording medium, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731