JP2010004480A - Imaging apparatus, control method thereof and program - Google Patents
Imaging apparatus, control method thereof and program Download PDFInfo
- Publication number
- JP2010004480A JP2010004480A JP2008163664A JP2008163664A JP2010004480A JP 2010004480 A JP2010004480 A JP 2010004480A JP 2008163664 A JP2008163664 A JP 2008163664A JP 2008163664 A JP2008163664 A JP 2008163664A JP 2010004480 A JP2010004480 A JP 2010004480A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- subject
- unit
- image
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Accessories Of Cameras (AREA)
- Studio Devices (AREA)
Abstract
【課題】所定の被写体を自動的に撮影できるようにする。
【解決手段】撮影を行う撮像部を備え、前記撮像部の撮影方向を可変とした撮像装置であって、前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理手段と、前記第1の撮影処理手段により撮影された画像から被写体を識別する被写体識別手段と、前記被写体識別手段により識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定手段と、前記被写体特定手段により特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理手段と、前記第1の撮影処理手段により撮影された画像及び前記第2の撮影処理手段により撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理手段とを有する。
【選択図】図5To automatically photograph a predetermined subject.
An imaging apparatus including an imaging unit that performs imaging, wherein the imaging direction of the imaging unit is variable, the first imaging processing unit performing imaging while changing the imaging direction of the imaging unit, and the first Subject identifying means for identifying a subject from an image photographed by one photographing processing means; subject identifying means for identifying a subject based on information from outside among the subjects identified by the subject identifying means; A second imaging processing unit that performs imaging by changing the imaging direction of the imaging unit so as to image the subject specified by the specifying unit; an image captured by the first imaging processing unit; and the second imaging Transmission processing means for transmitting image information of at least one of images taken by the processing means.
[Selection] Figure 5
Description
本発明は、撮像部の撮影方向を可変とした撮像装置、ネットワークシステム、制御方法及びプログラムに関する。 The present invention relates to an imaging apparatus, a network system, a control method, and a program in which the imaging direction of an imaging unit is variable.
近年、専用回線、ISDN等の電話回線、インターネット回線等を用いたテレビ会議システムと称されるネットワークシステムにより、複数の遠隔地間でテレビ会議を行うことが盛んになってきている(例えば、特許文献1参照)。 In recent years, video conferences have been actively conducted between a plurality of remote locations by a network system called a video conference system using a dedicated line, a telephone line such as ISDN, and an Internet line (for example, patents). Reference 1).
ここで、一般的なテレビ会議システムについて図8を参照して説明する。図8は、テレビ会議が行われている状態を示す俯瞰図である。会議テーブル201が中央に配置され、会議の出席者205〜209が会議テーブル201を囲むように着席している。会議テーブル201上には、会議用の集音マイク210が配置されている。会議テーブル201の前方には、全ての出席者205〜209が見られるように大型スクリーンのモニタ202が配置されている。モニタ202にはスピーカが内蔵されている。また、モニタ202の上部やモニタ202の側方等には、カメラ203、204が配置されている。カメラ203、204は、一点差線で示すように全ての出席者205〜209を撮影できるように配置されている。
Here, a general video conference system will be described with reference to FIG. FIG. 8 is an overhead view showing a state in which a video conference is being held. A conference table 201 is arranged in the center, and
上述したカメラ203、204は、レンズ部をパン方向に回動させるパンニング駆動機構及びチルト方向に回動させるチルティング駆動機構を有する、いわゆるパンチルトカメラである。さらに、カメラ203、204は、ズーム機構を有する。上述したパンニング駆動機構、チルティング駆動機構及びズーム機構は、会議の出席者(例えば出席者207)がリモートコントローラ(リモコン211)を用いて遠隔操作できるように構成されている。したがって、必要に応じてリモコン211を操作することで、例えば出席者205〜209の一人をズームアップ等することができる。
The
ここで、図8に示すシステムは、同様に構成された一又は複数の遠隔地のシステムと接続されている。すなわち、モニタ202等に内蔵されている回路や回線212を介して、インターネット213に接続され、遠隔地に設置されたシステムと通信することができる。より具体的に説明すると、カメラ203、204により撮影された映像は、カメラ203、204又はモニタ202内に内蔵されたコーデック回路に入力される。また、集音マイク210により集音された音声は、音声ミキシングされて、コーデック回路に入力される。コーデック回路に入力された映像と音声とは、符号化や多重化等の処理が行われた後、回線212を介して遠隔地に設置されたシステムに送信される。遠隔地に設置されたシステムでは、符号化等の処理が行われた映像と音声とを、コーデック回路により復号化する。復号化された映像はモニタに出力される。また、復号化された音声は、モニタの内蔵スピーカにより出力される。
Here, the system shown in FIG. 8 is connected to one or more remote systems configured in the same manner. That is, it is possible to communicate with a system installed in a remote place connected to the Internet 213 via a circuit or
このように構成されたテレビ会議システムでは、モニタ202に、遠隔地に設置されたカメラにより撮影された映像と、現地のカメラ203、204により撮影された映像とが、ピクチャー・イン・ピクチャー形式等で表示される。したがって、複数の遠隔地間でリアルタイムでの会議を行うことができる。
In the video conferencing system configured as described above, a picture taken by a camera installed at a remote place on the
しかしながら、上述したテレビ会議システムでは、カメラ203、204は、全ての出席者205〜209を撮影できるように配置されているため、モニタ202では、出席者が小さく表示されてしまう。例えば、発言者等をモニタ202上で確認することが困難になるという問題が生じ、この問題は出席者が多くなるほど顕著になってしまう。
However, in the video conference system described above, the
ここで、出席者207がリモコン211を介して、カメラ203、204に設けられたパンニング駆動機構、チルティング駆動機構及びズーム機構を操作して、発言者等をズームアップして、モニタ202上に表示することが考えられる。
しかしながら、この場合、出席者207が発言者等を探し出し、リモコン211を介して、パンニング駆動機構、チルティング駆動機構及びズーム機構を操作することは容易ではない。また、出席者207がリモコン211を介して操作した場合、操作情報が送信された後、カメラの姿勢動作、カメラのズーム動作、画像のコーデック処理、画像の伝送及びデコード等を経て、モニタ202に表示されるため、表示までの時間を要してしまう。
Here, the
However, in this case, it is not easy for the
本発明は上述したような問題点に鑑みてなされたものであり、所定の被写体を自動的に撮影できるようにすることを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to automatically photograph a predetermined subject.
本発明は、撮影を行う撮像部を備え、前記撮像部の撮影方向を可変とした撮像装置であって、前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理手段と、前記第1の撮影処理手段により撮影された画像から被写体を識別する被写体識別手段と、前記被写体識別手段により識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定手段と、前記被写体特定手段により特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理手段と、前記第1の撮影処理手段により撮影された画像及び前記第2の撮影処理手段により撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理手段とを有することを特徴とする。
本発明は、撮影を行う撮像部を備え、前記撮像部の撮影方向を可変とした撮像装置と、少なくとも表示部を備えた外部機器とがネットワークを介して接続されるネットワークシステムであって、前記撮像装置は、前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理手段と、前記第1の撮影処理手段により撮影された画像から被写体を識別する被写体識別手段と、前記被写体識別手段により識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定手段と、前記被写体特定手段により特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理手段と、前記第1の撮影処理手段により撮影された画像及び前記第2の撮影処理手段により撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理手段とを有し、前記外部機器は、前記撮像装置から受信した画像情報を前記表示部に表示する表示制御手段を有することを特徴とする。
本発明は、撮影を行う撮像部を備え、前記撮像部の撮影方向を可変とした撮像装置の制御方法であって、前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理ステップと、前記第1の撮影処理ステップにより撮影された画像から被写体を識別する被写体識別ステップと、前記被写体識別ステップにより識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定ステップと、前記被写体特定ステップにより特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理ステップと、前記第1の撮影処理ステップにより撮影された画像及び前記第2の撮影処理ステップにより撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理ステップとを有することを特徴とする。
本発明は、撮影を行う撮像部を備え、前記撮像部の撮影方向を可変とした撮像装置を制御するためのプログラムであって、撮像部の撮影方向を変えながら撮影を行う第1の撮影処理ステップと、前記第1の撮影処理ステップにより撮影された画像から被写体を識別する被写体識別ステップと、前記被写体識別ステップにより識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定ステップと、前記被写体特定ステップにより特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理ステップと、前記第1の撮影処理ステップにより撮影された画像及び前記第2の撮影処理ステップにより撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理ステップとをコンピュータに実行させるためのプログラムである。
The present invention is an imaging apparatus that includes an imaging unit that performs imaging, the imaging direction of the imaging unit being variable, and a first imaging processing unit that performs imaging while changing the imaging direction of the imaging unit; Subject identifying means for identifying a subject from an image photographed by one photographing processing means; subject identifying means for identifying a subject based on information from outside among the subjects identified by the subject identifying means; A second imaging processing unit that performs imaging by changing the imaging direction of the imaging unit so that the subject specified by the specifying unit is imaged; an image captured by the first imaging processing unit; and the second imaging Transmission processing means for transmitting image information of at least one of images taken by the processing means.
The present invention is a network system in which an imaging device that performs imaging, an imaging device in which the imaging direction of the imaging unit is variable, and an external device that includes at least a display unit are connected via a network, The imaging apparatus includes: a first imaging processing unit that performs imaging while changing a shooting direction of the imaging unit; a subject identification unit that identifies a subject from an image captured by the first imaging processing unit; and the subject identification unit Shooting is performed by changing the shooting direction of the imaging unit so as to shoot the subject specified by the subject specifying means and the subject specified by the subject specifying means. At least one of a second imaging processing unit, an image captured by the first imaging processing unit, and an image captured by the second imaging processing unit And a transmission processing means for transmitting a square image information, the external device is characterized by comprising a display control means for displaying the image information received from the imaging device to the display unit.
The present invention is a method of controlling an imaging apparatus including an imaging unit that performs imaging, wherein the imaging direction of the imaging unit is variable, and a first imaging process step that performs imaging while changing the imaging direction of the imaging unit; A subject identifying step for identifying a subject from the image photographed in the first photographing processing step, and a subject identifying step for identifying a subject based on information from the outside among the subjects identified by the subject identifying step; , A second shooting process step of shooting by changing the shooting direction of the imaging unit so as to shoot the subject specified by the subject specifying step, the image shot by the first shooting process step, and the first And a transmission processing step of transmitting image information of at least one of the images captured by the two imaging processing steps. To.
The present invention is a program for controlling an imaging apparatus that includes an imaging unit that performs imaging, and in which the imaging direction of the imaging unit is variable, and is a first imaging process that performs imaging while changing the imaging direction of the imaging unit A subject identifying step for identifying the subject from the image photographed in the first photographing processing step; and subject identification for identifying the subject based on information from outside among the subjects identified by the subject identifying step A step, a second photographing process step of photographing by changing a photographing direction of the image pickup unit so as to photograph the subject specified by the subject specifying step, an image photographed by the first photographing processing step, and A transmission processing step of transmitting image information of at least one of the images captured in the second imaging processing step. Is a program for executing the Yuta.
本発明によれば、外部からの情報に基づいて被写体を特定し、所定の被写体(例えば発言者)を自動的に撮影することができる。したがって、本発明の撮像装置をテレビ会議システムに用いた場合、会議の臨場感を損なわず、円滑な会議が可能となる。 According to the present invention, a subject can be specified based on information from the outside, and a predetermined subject (for example, a speaker) can be automatically photographed. Therefore, when the imaging device of the present invention is used in a video conference system, a smooth conference is possible without impairing the sense of reality of the conference.
以下、本発明の実施形態について図面を参照して説明する。
図1は、本実施形態に係る撮像装置であるテレビ会議用モニタリングカメラ(以下、カメラ100という)の一例を示す外観斜視図である。図2は、カメラ100を図1に示す矢印A方向からみた背面図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is an external perspective view showing an example of a video conference monitoring camera (hereinafter referred to as a camera 100) which is an imaging apparatus according to the present embodiment. 2 is a rear view of the
図1に示すように、カメラ100は、下方から順に本体部6、ディスプレイ5を具備する液晶パン部4、カメラヘッド部2を搭載したパン部3を備え、全体が略円錐台形状を呈する卓上型のカメラである。
As shown in FIG. 1, the
パン部3には、水平方向に配置された撮像部であるカメラヘッド部2が搭載されている。カメラヘッド部2は略円柱状をなし、その長手方向における中央にはレンズ部1が設けられている。カメラ100には、図1及び図2に示すX軸を中心としてカメラヘッド部2を回動させるチルティング駆動機構が設けられている。また、カメラ100には、図1及び図2に示すZ軸を中心としてパン部3を回動させるパンニング駆動機構が設けられている。パンニング駆動機構としては、例えば差動ギアを用い、さらにスリップリング機構を付加することにより360度エンドレスにパンニング可能に構成されている。
The
また、パン部3の外周部には、後述するリモートコントローラ(以下、リモコンという)からの指示を受光するリモコン受光部7、8が左右2箇所に設けられている。また、パン部3の外周部には、音声を入力する音声入力装置としてパン側マイク9が設けられている。
In addition, remote control
液晶パン部4の外周面には、表示部として液晶ディスプレイ等のディスプレイ5が設けられている。また、液晶パン部4の外周部には、音声を出力する音声出力装置としてスピーカ10が左右2箇所に設けられている。カメラ100には、図1及び図2に示すZ軸を中心として液晶パン部4を回動させるパンニング駆動機構が設けられている。
A
本体部6の外周部には、音声を入力する音声入力装置として本体側マイク部11が設けられている。また、図2に示すように、本体部6の外周部には、インターネット接続用の外部インターネット端子12、メモリ取り付け用のスロット13、外部マイク端子14、オーディオ出力端子15及びビデオ出力端子16が設けられている。
A main body side microphone unit 11 is provided on the outer periphery of the
なお、上述したパン部3及び液晶パン部4は、それぞれが互いに独立してパン方向に回動できるように構成する場合について説明したが、この場合に限られずパン部3及び液晶パン部4を一体で構成してもよい。
Although the above-described
次に、カメラ100の機能構成について図3を参照して説明する。図3はカメラ100の機能構成を示すブロック図である。
コントローラ21は、CPU、ROM、RAM、I/Oインターフェース等を内蔵したマイクロコンピュータである。このコントローラ21の制御に基づいて、カメラ100の各構成要素が動作する。
Next, the functional configuration of the
The
例えば、カメラユニット22により撮影された画像情報は、カメラユニット22の内部のCCD等で電気信号に変換され、カメラ回路23に出力される。その後、画像情報は、液晶表示回路24に出力され、コントローラ21の指示によりディスプレイ5に表示される。
また、カメラユニット22により撮影された画像情報は、同時にカメラ回路23を介して画像処理回路26に出力される。そして、画像処理回路26により画像処理された後、人物認識回路27により画像に含まれる人物の認識(識別)、確認が行われる。人物の識別情報は、コントローラ21に出力される。
For example, image information captured by the
Further, image information photographed by the
第1マイク部28、第2マイク部29に入力された音声情報は、音声電気信号に変換され、音声回路30に出力される。音声電気信号は、音声回路30により増幅、A/D変換され、コントローラ21の指示により音量等が適切に調整された後、音声方向検出回路31に出力される。ここで、例えば第1マイク部28は、図1に示すパン側マイク9である。また、第2マイク部29は、図1に示す本体側マイク部11である。さらに、外部マイク用を接続することができる外部マイク端子14も設けられている。
The audio information input to the
音声方向検出回路31は、第1マイク部28、第2マイク部29等、複数のマイク部に入力された音声信号情報から、音声が発生する方向を検出し、方向情報としてコントローラ21に出力する。
The sound
カメラ駆動回路/駆動機構33は、コントローラ21の指示により、対応するモータを駆動して、フォーカス、ズーム及びアイリスの制御、調整を行う。
また、パンチルト駆動回路/駆動機構34は、パンニング駆動機構、チルティング駆動機構を駆動する。パンチルト駆動回路/駆動機構34は、コントローラ21の指示により、パン/チルト駆動モータを駆動して、カメラユニット22(図1に示すカメラヘッド部2)の姿勢の駆動動作を制御、位置制御を行う。
The camera drive circuit /
The pan / tilt drive circuit /
上述した人物認識回路27では、人物の認識等を行い、識別情報をコントローラ21に出力したとき、その時点でのレンズの位置情報をコントローラ21に出力する。通常、パン方向及びチルト方向に回動できるカメラは、電源投入時又はリセット時にホームポジションを確認するためにイニシャライズ動作を行う必要がある。したがって、イニシャライズ動作されたホームポジション位置からカメラユニット22がパン方向及びチルト方向に移動した位置までに発生した信号等をカウントすることで、位置情報を検出する。位置情報の検出方法としては、例えばパンニング駆動機構及びチルティング駆動機構を駆動するモータがパルスモータであれば、パルス駆動をカウントすることにより検出する。また、パンニング駆動機構及びチルティング駆動機構を駆動するモータにエンコーダを内蔵されていれば、エンコーダ情報より検出する。さらに、パンニング駆動機構のパン軸及びチルティング駆動機構のチルト軸に外部エンコーダを設けることにより位置情報を検出してもよく、位置情報の検出方法はどのようなものであってもよい。
In the
次に、カメラ回路23からの映像信号は、ビデオエンコード回路35に出力され、デジタル信号に符号化される。また、音声回路30からの音声信号は、オーディオエンコード回路36に出力され、デジタル信号に符号化される。符号化された映像信号、符号された音声信号及び位置情報等は、多重化回路37に出力される。多重化回路37では、映像信号、音声信号及び位置情報等が多重化されて、通信制御回路38に出力される。その後、これらの信号は、インターネット回路39を介して、コントローラ21の指示により図2に示す外部インターネット端子12から外部に送信される。
Next, the video signal from the
一方、インターネットを介して外部から入力された信号は、インターネット回路39及び通信制御回路38に入力された後、分離回路40に出力される。分離回路40では、多重化された映像信号、音声信号及び位置情報等を分離する。
分離された映像信号は、ビデオデコード回路41に出力され復号化される。復号化された映像信号は、液晶表示回路24に出力されて、ディスプレイ5に表示される。また、ビデオ出力端子16にモニタ等が接続されている場合、復号化された映像信号は、映像表示回路43に出力されて、モニタにも表示される。
分離された音声信号は、オーディオデコード回路42に出力され復号化される。復号化された音声信号は、スピーカ駆動回路45に出力された後、スピーカ10により音声出力される。また、オーディオ出力端子15に外部スピーカが接続されている場合、復号化された音声信号は、外部スピーカにより音声出力することができる。
分離回路40で分離された、遠隔地にある相手側のカメラの位置情報は、コントローラ21に出力される。
On the other hand, a signal input from the outside via the Internet is input to the
The separated video signal is output to the
The separated audio signal is output to the audio decoding circuit 42 and decoded. The decoded audio signal is output to the
The position information of the remote camera at the remote location separated by the
カメラ100には、記憶装置であるメモリ48が設けられている。メモリ48は、カメラ100に対して着脱可能なメモリ及び内蔵されたメモリ等が含まれる。着脱可能なメモリとして、例えばCFカードやSDカード等のようなリムーバブル記憶媒体及びリムーバブル型のHD(ハードディスク)等がある。また、内蔵されたメモリとして、例えば内蔵されたHD(ハードディスク)やメモリ等がある。メモリ48には、インターネットから取得した情報、ユーザが作成又は準備した画像やテキストデータ等を記憶することができる。メモリ48に記憶されたデータは、コントローラ21の指示により、例えば液晶表示回路24を介してディスプレイ5に表示することができる。
The
また、リモコン受光部7、8では、リモコンからの指示を受信する。なお、リモコン受光部7、8では、赤外線通信やブルートゥース通信等の無線通信を受信することができる。リモコン受光部7、8で受信された信号は、受信回路50を介して、コントローラ21に指示信号として出力される。
The remote control
また、ディスプレイ5の表面にはタッチパネル51が設けられている。タッチパネル51には、ユーザのタッチパネル51に対するタッチパネル操作を検出したり、タッチパネル51を駆動、制御及び動作させたりするタッチパネル駆動回路52が接続されている。
A touch panel 51 is provided on the surface of the
また、パン駆動回路/駆動機構53は、液晶パン部4のパンニング駆動機構を駆動する回路及び駆動機構である。
The pan driving circuit /
次に、上述したカメラ100を用いたテレビ会議システムについて、図4を参照して説明する。ここでは、P地点とQ地点との間で行うテレビ会議システムについて説明する。図4は、P地点及びQ地点で会議が行われている状態を示す俯瞰図である。
Next, a video conference system using the above-described
図4に示すように、P地点では、会議テーブル72が中央に配置され、会議の出席者77〜81が会議テーブル72を囲むように着席している。会議テーブル72上には、カメラ100が配置されている。会議テーブル72の前方には、全ての出席者77〜81が見られるように大型スクリーンのモニタ73が配置されている。モニタ73にはスピーカが内蔵されている。カメラ100とモニタ73とは、映像接続ケーブル74及び音声接続ケーブル75により接続されている。また、カメラ100はインターネット接続用ケーブル76により、インターネットに接続、通信できるように構成されている。なお、Q地点のシステムも同様な構成であり、カメラ100やモニタ73と同様のカメラ100´やモニタ73´等が設けられている。ここで、カメラ100´は、表示部を備えた外部機器に対応する。
As shown in FIG. 4, at the point P, the conference table 72 is arranged in the center, and
会議の出席者77〜81のうち出席者79は、カメラ100に対して操作を行うことができるリモコン82を所持している。出席者79は、リモコン82を用いてカメラ100のパン部3や液晶パン部4のパン方向又はチルト方向への回動、ズームアップ、スピーカ10の音量調整等のカメラ操作を行うことができる。出席者79は、リモコン82を用いて、切り替え操作を行うことで、Q地点に設置されたカメラ100´を操作することもできる。
Among the
次に、上述したように構成されたカメラ100の処理動作について図5のフローチャートを参照して説明する。図5に示すフローチャートの処理は、カメラ100の電源がオンにされてから開始される。なお、ここでは、P地点に設置されたカメラ100の処理を中心に説明するが、Q地点に設置されたカメラ100´においても同様な処理を行う。
Next, the processing operation of the
まず、ステップS10において、カメラ100のコントローラ21は、イニシャライズ動作を行い、カメラユニット22のホームポジションを確認する。ここで、本実施形態のホームポジション位置は、カメラユニット22における撮影方向が図4に示す矢印B方向の位置とする。
次に、ステップS11において、コントローラ21は、パンチルト駆動回路/駆動機構34を介して、カメラユニット22をホームポジション位置から、360度、パンニングさせる。ここでは、カメラユニット22は時計方向に回動するものとする。
このとき、コントローラ21は、パンニングしているカメラユニット22により所定間隔で静止画の撮影を行う。具体的には、カメラユニット22が360度回動している間、撮影した静止画を並べたときに少なくとも静止画間で隙間ができないような間隔で撮影を行う。カメラ100は、出席者77〜81の中央に設置されていることから、撮影された画像には被写体として、出席者77〜81が洩れなく写っていることになる。なお、カメラユニット22は、静止画の代わりに動画を撮影してもよい。上述した処理は、第1の撮影処理手段の一例に対応する。
First, in step S <b> 10, the
Next, in step S <b> 11, the
At this time, the
次に、ステップS12において、コントローラ21は、人物認識回路27を介して、撮影した画像の画像情報から人物の識別を行う。ここで、人物認識回路27に用いられる人物認識のアルゴリズムとしては、例えば、時間的に近接した2枚の映像を比較し、全く動かないものと僅かに動くものとを識別し、僅かに動くものを人物として特定し、その輪郭を切り抜く方法等がある。上述した処理は、被写体識別手段の一例に対応する。
また、人物の識別を行うとき、コントローラ21は、識別した人物の位置情報を取得する。具体的には、上述したように、ホームポジション位置からのパンニング機構のパルスモータのパルス駆動をカウントしたり、エンコーダ情報を取得したりすることにより位置情報を取得する。上述した処理は、位置情報取得手段の一例に対応する。
Next, in step S <b> 12, the
Further, when identifying a person, the
ここで、コントローラ21は、識別した人物とその人物に対応する位置情報とを関連付けてメモリ48に記憶する。なお、ステップS12の処理は、ステップS11において、カメラユニット22が360度パンニングし、撮影している処理と並行して行ってもよく、カメラユニット22が360度パンニングし、撮影が終了した後に行ってもよい。また、人物の識別の精度を向上させるために、カメラユニット22は、再度360度パンニングして、人物を確認する処理を行ってもよい。
Here, the
次に、ステップS13において、撮影した画像をP地点又はQ地点に設置されたモニタ73、73´等に表示するために、コントローラ21は、画像処理回路26を介してパノラマ画像を生成する。具体的には、ステップS11にて撮影した複数の画像を合成することによりパノラマ画像を生成する。上述した処理は、パノラマ画像生成手段の一例に対応する。
ここで、P地点において生成されたパノラマ画像の一例を図6(a)に示す。図6(a)には、カメラユニット22がパン方向に回動した1周分の画像がパノラマ画像として表示されている。図6(a)では、図4に対応する出席者79、78、77、81、80が左側から順番に並んで表示されている。また、出席者77と出席者81との間には、モニタ73が表示されている。
ここで、図6(a)に示す画像では、人物と人物との間に余分な画像があるため、画像を視聴し難い。そこで、コントローラ21は、画像処理回路26を介して、人物と人物との間に生じる空間を間引いて合成した画像を生成する。具体的には、コントローラ21は、図6(a)に示す空間部分h1〜h4を間引いた、人物のサムネイル画像を生成し、合成する。ここで、空間を間引いて生成されたパノラマ画像の一例を図6(b)に示す。図6(b)に示す画像では、人物のみが表示されて、画像が簡略化されるので画像を視聴し易くなる。
Next, in step S <b> 13, the
Here, an example of the panoramic image generated at the point P is shown in FIG. In FIG. 6A, an image for one round in which the
Here, in the image shown in FIG. 6A, since there is an extra image between persons, it is difficult to view the image. Therefore, the
次に、ステップS14において、コントローラ21は、通信制御回路38及びインターネット回路39を介して、生成したパノラマ画像情報をQ地点のカメラ100´に送信する。上述した処理は送信処理手段の一例に対応する。
また、後述するように、パノラマ画像情報を受信したQ地点のカメラ100´は、受信したパノラマ画像をカメラ100´に設けられたディスプレイに表示する。上述した処理は、表示制御手段の一例に対応する。また、パノラマ画像の画像情報を受信したQ地点のカメラ100´は、受信したパノラマ画像をカメラ100´に接続されたモニタ73´にも表示する。
Next, in step S14, the
Further, as will be described later, the
次に、ステップS15において、カメラ100のコントローラ21は、外部からの情報を検出したか否か、すなわち音声方向検出回路31を介して方向情報を取得したか否かを判定する。例えば、会議中に出席者77〜81の何れかの者が発言した場合、第1マイク部28、第2マイク部29及び外部用マイク等により音声が入力される。入力された音声は、音声回路30により適正な出力に変更される。音声方向検出回路31では、第1マイク部28、第2マイク部29及び外部用マイクの位置関係から、音声回路30により変更された音声が、どの方向から入力(発声)されたかを判断し、コントローラ21に方向情報として出力する。コントローラ21は、方向情報を取得した場合、ステップS16に処理を進め、方向情報を取得していない場合、ステップS17に処理を進める。
Next, in step S <b> 15, the
ステップS16において、コントローラ21は、取得した方向情報とステップS12において記憶した位置情報とを比較して、取得した方向情報と合致する又は略合致する位置情報を検出する。次に、コントローラ21は、検出した位置情報から、位置情報に関連付けて記憶した人物を特定する。上述した処理は被写体特定手段の一例に対応する。
次に、コントローラ21は、カメラユニット22の撮影方向が、特定した人物を撮影する方向になるように、パンチルト駆動回路/駆動機構34を介して、カメラユニット22をパンニングさせる。なお、このとき、コントローラ21は、カメラユニット22の撮影方向が特定した人物になるように、カメラユニット22をチルティングさせてもよい。また、コントローラ21は、カメラ駆動回路/駆動機構33を介して特定した人物をズームアップしてもよい。続いて、コントローラ21は、カメラユニット22を介して特定した人物の動画を撮影する。上述した処理は、第2の撮影処理手段の一例に対応する。
In step S16, the
Next, the
また、コントローラ21は、通信制御回路38及びインターネット回路39を介して、撮影した人物の動画情報を逐次、Q地点のカメラ100´に送信する。上述した処理は送信処理手段の一例に対応する。
なお、コントローラ21は、撮影した人物の動画情報をQ地点のカメラ100´に最初に送信するとき、特定した人物を識別する特定情報も送信するものとする。
Further, the
Note that when the moving image information of the photographed person is first transmitted to the
次に、動画情報を受信したQ地点のカメラ100´は、受信した動画をカメラ100´に設けられたディスプレイに逐次表示する。上述した処理は、表示制御手段の一例に対応する。また、Q地点のカメラ100´は、受信した動画をカメラ100´に接続されたモニタ73´にも表示する。
Next, the
ここで、Q地点のカメラ100´のディスプレイに表示される画面の画像の一例を図7に示す。なお、Q地点のカメラ100´に接続されたモニタ73´にも同様な画像が表示される。図7に示す画面では、表示領域K1、表示領域K2及び表示領域K3に区分けされている。表示領域K1には、Q地点のカメラ100´のコントローラが、受信したパノラマ画像を表示する。したがって、表示領域K1には、P地点にいる会議の出席者79、78、77、81、80のサムネイル画像からなるパノラマ画像が表示される。表示領域K2には、Q地点のカメラ100´のコントローラが、受信した動画情報を表示する。ここで、例えばP地点において、出席者77が発言している場合、表示領域K2には、出席者77の動画がリアルタイムで表示される。表示領域K3には、Q地点のカメラ100´が撮影している画像、すなわちP地点のカメラ100のディスプレイ5に表示されている画像がサブ画面として表示される。
Here, an example of the image of the screen displayed on the display of the
また、表示領域K1には、Q地点のカメラ100´のコントローラがステップS16で受信した特定情報に基づいて、識別表示を表示している。上述した処理は、識別情報表示制御手段の一例に対応する。具体的には、表示領域K2において、動画が表示されている出席者77、すなわち発言者に対応する人物に識別表示が表示されている。ここで、識別表示は、例えば図7に示すように人物の背景の色を変更したり、人物の背景や人物自体を点滅させたりする表示である。なお、識別表示は上述したものに限られず、例えば、図7に示す出席者79に付加されているようなマーク79b及びマーク79bを点滅させるようにしてもよく、他の人物と識別できるものであればどのようなものであってもよい。
In the display area K1, an identification display is displayed based on the specific information received by the controller of the camera 100 'at the point Q in step S16. The above-described processing corresponds to an example of identification information display control means. Specifically, in the display area K2, the identification display is displayed on the
また、図7に示す画面の表示領域K2の端部には、表示領域83〜86が区分けされて表示されている。ここで、Q地点のカメラ100´はP地点のカメラ100と同様、ディスプレイの表面にタッチパネルが設けられている。したがって、表示領域83〜86にディスプレイ操作に関する操作ボタンを割り当てておくことで、Q地点のカメラ100´は表示領域83〜86に応じた処理を行うことができる。例えば、表示領域83には、表示領域K2と表示領域K3とを切り替える表示ボタンaを割り当てる。また、表示領域84には、カメラ操作に関するコマンドボタンbを割り当てる。また、表示領域85には、カメラの起動の終了コマンドを含むメニューボタンcを割り当てる。また、表示領域86には、カメラのメモリに記憶されている会議のアジェンダ、原稿及びデータ等を表示したり、選択したりするコマンドボタンdを割り当てる。また、発言者の順番を決めることにより、タッチパネル上のボタンa〜d、又はリモコンの操作により、次に発言する予定の人物に液晶パン部をあらかじめ回転させておき、その人物に原稿やデータ等を予め表示しておくことができる。
In addition,
次に、図5に示すフローチャートに戻り、ステップS15において、P地点のカメラ100が音声を検出せず、ステップS17の処理に進んで場合について説明する。
ステップS17において、カメラ100のコントローラ21は、外部からの情報を検出したか否か、すなわち通信制御回路38及びインターネット回路39を介して、人物の選択情報を受信したか否かを判定する。より具体的に説明すると、Q地点にいるユーザが、図7に示す表示領域K1に表示されている出席者77〜81のうち任意の人物を直接、押下して、選択するタッチパネル操作を行う場合について想定する。その場合、Q地点のカメラ100´のコントローラは、タッチパネル駆動回路を介して、タッチパネル操作において選択された人物の選択情報を検出する。上述した処理は選択情報検出手段の一例に対応する。
次に、Q地点のカメラ100´のコントローラは、検出した選択情報を通信制御回路及びインターネット回路を介してP地点のカメラ100に送信する。上述した処理は選択情報送信処理手段の一例に対応する。
P地点のカメラ100のコントローラ21は、通信制御回路38及びインターネット回路39を介して人物の選択情報を受信した場合、ステップS18に処理を進める。上述した処理は選択情報受信処理手段の一例に対応する。人物の選択情報を受信しない場合、ステップS19に処理を進める。
Next, returning to the flowchart shown in FIG. 5, a case will be described in which, in step S15, the
In step S <b> 17, the
Next, the controller of the camera 100 'at the Q point transmits the detected selection information to the
When the
ステップS18では、コントローラ21は取得した選択情報に基づいて人物を特定する。上述した処理は被写体特定手段の一例に対応する。
その後、ステップS16の処理と同様に、コントローラ21は、カメラユニット22の撮影方向が、特定した人物を撮影する方向になるように、パンチルト駆動回路/駆動機構34を介して、カメラユニット22をパンニングさせる。また、コントローラ21は、カメラユニット22を介して特定した人物の動画を撮影する。さらに、コントローラ21は、通信制御回路38及びインターネット回路39を介して、撮影した人物の動画の動画情報を逐次、Q地点のカメラ100´に送信する。Q地点のカメラ100´のディスプレイでは、タッチパネル操作において選択された人物が動画で表示される。
その後、ステップS15に戻り、カメラ100のコントローラ21は、音声方向検出回路31を介して方向情報を取得したか否かを判定する。
In step S18, the
Thereafter, similarly to the process of step S16, the
Thereafter, the process returns to step S <b> 15, and the
ステップS17において、コントローラ21が、人物の選択情報を取得せず、ステップS19の処理に進んだ場合について説明する。
ステップS19では、コントローラ21が、タッチパネル駆動回路52を介して、ユーザによるタッチパネル操作を検出したか否かを判定する。コントローラ21は、タッチパネル操作を検出した場合、ステップS20に処理を進め、タッチパネル操作を検出しない場合、ステップS15に処理を進める。
A case will be described in which the
In step S <b> 19, the
ステップS20において、コントローラ21は、タッチパネル駆動回路52を介して、タッチパネル操作が撮影を終了する指示であるか否かを判定する。コントローラ21は、撮影を終了する指示のタッチパネル操作である場合、図5に示すフローチャートを終了し、その他の指示のタッチパネル操作である場合、ステップS21に処理を進める。
ステップS21では、コントローラ21は、タッチパネル操作に応じた処理を行う。例えば、タッチパネル操作がメモリ48に記憶されている会議のアジェンダ、原稿及びデータ等をディスプレイ5に表示する指示の場合、コントローラ21はこの指示に応じた処理を行う。
In step S <b> 20, the
In step S21, the
また、会議中には出席者が退席したり、新たな出席者が参加したりする場合がある。そこで、上述したステップS16又はステップS18において、カメラユニット22をパンニングさせるときに、コントローラ21は、パンニングしているカメラユニット22により再度、所定間隔で静止画の撮影を行ってもよい。静止画の撮影を行った後、上述したステップS12〜ステップS14のように、再度、人物を認識する等の処理を行うことにより、コントローラ21は、動画を撮影するための人物特定の精度を向上させることができる。また、Q地点において、ディスプレイ及びモニタにより、現在P地点の会議に参加している出席者を確認することができる。
Also, attendees may leave the meeting or new attendees may join during the meeting. Therefore, when panning the
このように、本実施形態によれば所定の被写体、すなわち発言者や他地点のユーザによって選択された人物の動画を自動的にリアルタイムで撮影することができる。したがって、例えばユーザがリモコンにより発言者や選択された人物を撮影する操作等を行う必要がないので、撮影を円滑に行うことができる。
また、他地点のディスプレイ又はモニタには、表示された複数の人物のうち、発言者には識別表示が表示されるため、視聴者は容易に発言者を特定することができる。
As described above, according to the present embodiment, a moving image of a predetermined subject, that is, a person selected by a speaker or a user at another point can be automatically captured in real time. Therefore, for example, since it is not necessary for the user to perform an operation of photographing a speaker or a selected person using the remote controller, photographing can be performed smoothly.
Moreover, since the identification display is displayed on the speaker among the plurality of displayed persons on the display or monitor at another point, the viewer can easily identify the speaker.
また、テレビ会議システムに用いるときに、カメラ100を会議テーブル72の中央に配置することにより、カメラ100から会議の出席者77〜81までの距離が略同じ距離であり、全ての出席者77〜81を撮影することができる。
また、カメラ100にはディスプレイ5とスピーカ10とが設けられている。ディスプレイ5には他の地点の発言者の動画が表示されると共に、スピーカ10では発言者の音声が出力される。このように映像の出力方向と音声の出力方向とが同一であるために、視聴者は違和感なく視聴することができる。
When the
The
また、カメラ100にはカメラユニット22とパン側マイク9とが設けられている。カメラユニット22では発言者の動画を撮影すると共にパン側マイク9では音声を入力する。このように、撮影の入力方向と音声の入力方向とが同一であるため、発言者の撮影及び発言者の音声の何れも良好に入力することができる。
また、パン部3と液晶パン部4とが同期して回動する場合、発言者はディスプレイ5を見ながら発言するため、発言者の顔正面とカメラユニット22のレンズ部1とが対面する。したがって、他の地点のディスプレイには、発言者の顔正面の動画が表示されるために、顔の表情の変化等が分かり、会議の臨場感を向上させることができる。
The
Further, when the
なお、本実施形態ではP地点のカメラ100とQ地点のカメラ100´とを接続してテレビ会議システムを構成したが、他の複数の地点のカメラと接続してテレビ会議システムを構成してもよい。
また、本実施形態ではテレビ会議モニタリングカメラをテレビ会議システムに用いる場合について説明したが、この場合に限られない。例えば家庭でのコミュニケーションカメラやネットワークカメラ等を用いてシステムを構成してもよい。また、管理カメラやセキュリティカメラ等を用いてセキュリティシステムを構成してもよい。
また、本実施形態では、カメラユニット22が撮影する被写体を人物とする場合についてのみ説明したが、この場合に限られない。例えば、被写体は動物や物品であってもよい。
In this embodiment, the video conference system is configured by connecting the
Moreover, although this embodiment demonstrated the case where a video conference monitoring camera was used for a video conference system, it is not restricted to this case. For example, the system may be configured using a home communication camera, a network camera, or the like. In addition, a security system may be configured using a management camera, a security camera, or the like.
In the present embodiment, the case where the subject to be photographed by the
上述した本発明の実施形態における撮像装置及びネットワークシステムを構成する各手段、並びに撮像装置の制御方法の各ステップは、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。 Each unit constituting the imaging apparatus and the network system and the steps of the imaging apparatus control method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM, a ROM, or the like of the computer. This program and a computer-readable recording medium recording the program are included in the present invention.
また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、一つの機器からなる装置に適用してもよい。 Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or recording medium, and may be applied to an apparatus composed of a single device.
なお、本発明は、上述した実施形態の機能を実現するソフトウェアのプログラムを、システム又は装置に直接、又は遠隔から供給する。そして、そのシステム又は装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 The present invention supplies a software program for realizing the functions of the above-described embodiments directly or remotely to a system or apparatus. In addition, this includes a case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention. In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。更に、そのプログラムの指示に基づき、コンピュータ上で稼動しているOS等が、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.
更に、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 As another method, a program read from a recording medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.
100 カメラ
1 レンズ部
2 カメラヘッド部
3 パン部
4 液晶パン部
5 ディスプレイ
6 本体部
7 リモコン受光部
8 リモコン受光部
9 パン側マイク
10 スピーカ
11 本体側マイク部
12 外部インターネット端子
13 メモリスロット
14 外部マイク端子
15 オーディオ出力端子
16 ビデオ出力端子
21 コントローラ
22 カメラユニット
23 カメラ回路
24 液晶表示回路
26 画像処理回路
27 人物認識回路
28 第1マイク部
29 第2マイク部
30 音声回路
31 音声方向検出回路
32 外部マイク端子
33 カメラ駆動回路/駆動機構
34 パンチルト駆動回路/駆動機構
35 ビデオエンコード回路
36 オーディオエンコード回路
37 多重化回路
38 通信制御回路
39 インターネット回路
40 分離回路
41 ビデオデコード回路
42 オーディオデコード回路
43 映像表示回路
45 スピーカ駆動回路
48 メモリ
50 受信回路
51 タッチパネル
52 タッチパネル駆動回路/駆動機構
53 パン駆動回路/駆動機構
72 会議テーブル
73 モニタ
DESCRIPTION OF
Claims (14)
前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理手段と、
前記第1の撮影処理手段により撮影された画像から被写体を識別する被写体識別手段と、
前記被写体識別手段により識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定手段と、
前記被写体特定手段により特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理手段と、
前記第1の撮影処理手段により撮影された画像及び前記第2の撮影処理手段により撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理手段とを有することを特徴とする撮像装置。 An imaging apparatus comprising an imaging unit that performs imaging, wherein the imaging direction of the imaging unit is variable,
First imaging processing means for imaging while changing the imaging direction of the imaging unit;
Subject identifying means for identifying a subject from an image photographed by the first photographing processing means;
Subject identifying means for identifying a subject based on information from outside among the subjects identified by the subject identifying means;
Second imaging processing means for performing imaging by changing the imaging direction of the imaging unit so as to image the subject specified by the subject specifying means;
An image pickup apparatus comprising: transmission processing means for transmitting image information of at least one of the image photographed by the first photographing processing means and the image photographed by the second photographing processing means. .
前記被写体特定手段は、前記音声入力手段により入力された音声の方向情報に基づいて被写体を特定することを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。 It further has voice input means for inputting voice,
The imaging apparatus according to claim 1, wherein the subject specifying unit specifies a subject based on direction information of a voice input by the voice input unit.
前記被写体特定手段は、前記選択情報受信処理手段により受信された被写体の選択情報に基づいて被写体を特定することを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。 A selection information reception processing means for receiving selection information of a subject selected from the subjects identified by the subject identification means;
The imaging apparatus according to claim 1, wherein the subject specifying unit specifies a subject based on the subject selection information received by the selection information reception processing unit.
前記第2の撮影処理手段は、前記位置情報取得手段により取得された位置情報に基づいて、前記撮像部の撮影方向を変えることを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。 Further comprising position information acquisition means for acquiring position information of the subject identified by the subject identification means;
The said 2nd imaging | photography process means changes the imaging | photography direction of the said imaging part based on the positional information acquired by the said positional information acquisition means, The any one of Claim 1 thru | or 5 characterized by the above-mentioned. Imaging device.
前記送信処理手段は、前記第1の撮影処理手段により撮影された画像として、前記パノラマ画像生成手段により生成されたパノラマ画像を送信することを特徴とする請求項1乃至6の何れか1項に記載の撮像装置。 Panoramic image generation means for generating a panoramic image from the image captured by the first imaging processing means;
The transmission processing unit transmits a panoramic image generated by the panoramic image generation unit as an image captured by the first imaging processing unit. The imaging device described.
前記撮像装置は、
前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理手段と、
前記第1の撮影処理手段により撮影された画像から被写体を識別する被写体識別手段と、
前記被写体識別手段により識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定手段と、
前記被写体特定手段により特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理手段と、
前記第1の撮影処理手段により撮影された画像及び前記第2の撮影処理手段により撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理手段とを有し、
前記外部機器は、
前記撮像装置から受信した画像情報を前記表示部に表示する表示制御手段を有することを特徴とするネットワークシステム。 A network system including an imaging unit that performs imaging, an imaging device in which the imaging direction of the imaging unit is variable, and an external device including at least a display unit are connected via a network,
The imaging device
First imaging processing means for imaging while changing the imaging direction of the imaging unit;
Subject identifying means for identifying a subject from an image photographed by the first photographing processing means;
Subject identifying means for identifying a subject based on information from outside among the subjects identified by the subject identifying means;
Second imaging processing means for performing imaging by changing the imaging direction of the imaging unit so as to image the subject specified by the subject specifying means;
Transmission processing means for transmitting image information of at least one of the image photographed by the first photographing processing means and the image photographed by the second photographing processing means,
The external device is
A network system comprising display control means for displaying image information received from the imaging device on the display unit.
前記撮像部の撮影方向を変えながら撮影を行う第1の撮影処理ステップと、
前記第1の撮影処理ステップにより撮影された画像から被写体を識別する被写体識別ステップと、
前記被写体識別ステップにより識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定ステップと、
前記被写体特定ステップにより特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理ステップと、
前記第1の撮影処理ステップにより撮影された画像及び前記第2の撮影処理ステップにより撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理ステップとを有することを特徴とする撮像装置の制御方法。 An imaging apparatus control method comprising an imaging section for performing imaging, wherein the imaging direction of the imaging section is variable,
A first shooting process step of shooting while changing the shooting direction of the imaging unit;
A subject identifying step for identifying a subject from the image photographed in the first photographing processing step;
A subject identifying step for identifying a subject based on information from the outside among the subjects identified in the subject identifying step;
A second shooting process step of shooting by changing the shooting direction of the imaging unit so as to shoot the subject specified in the subject specifying step;
An imaging apparatus comprising: a transmission processing step for transmitting image information of at least one of the image captured by the first imaging processing step and the image captured by the second imaging processing step. Control method.
撮像部の撮影方向を変えながら撮影を行う第1の撮影処理ステップと、
前記第1の撮影処理ステップにより撮影された画像から被写体を識別する被写体識別ステップと、
前記被写体識別ステップにより識別された被写体のうち、外部からの情報に基づいて被写体を特定する被写体特定ステップと、
前記被写体特定ステップにより特定された被写体を撮影するように前記撮像部の撮影方向を変えて撮影を行う第2の撮影処理ステップと、
前記第1の撮影処理ステップにより撮影された画像及び前記第2の撮影処理ステップにより撮影された画像のうち少なくとも何れか一方の画像情報を送信する送信処理ステップとをコンピュータに実行させるためのプログラム。 A program for controlling an image pickup apparatus that includes an image pickup unit that performs shooting, and in which the shooting direction of the image pickup unit is variable,
A first shooting process step of shooting while changing the shooting direction of the imaging unit;
A subject identifying step for identifying a subject from the image photographed in the first photographing processing step;
A subject identifying step for identifying a subject based on information from the outside among the subjects identified in the subject identifying step;
A second shooting process step of shooting by changing the shooting direction of the imaging unit so as to shoot the subject specified in the subject specifying step;
A program for causing a computer to execute a transmission processing step of transmitting image information of at least one of an image photographed in the first photographing processing step and an image photographed in the second photographing processing step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008163664A JP2010004480A (en) | 2008-06-23 | 2008-06-23 | Imaging apparatus, control method thereof and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008163664A JP2010004480A (en) | 2008-06-23 | 2008-06-23 | Imaging apparatus, control method thereof and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010004480A true JP2010004480A (en) | 2010-01-07 |
Family
ID=41585767
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008163664A Pending JP2010004480A (en) | 2008-06-23 | 2008-06-23 | Imaging apparatus, control method thereof and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010004480A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011155362A (en) * | 2010-01-26 | 2011-08-11 | Sony Corp | Imaging control unit, imaging control method, and program |
| KR101211656B1 (en) * | 2012-08-23 | 2012-12-12 | (주)하이텍알앤디 | An endless camera device for track race events and system for determining a video using the same |
| JP2016197858A (en) * | 2015-04-02 | 2016-11-24 | 艾創科技股▲ふん▼有限公司 | Real time image stitch device and real time image stitch method |
| JP2022059375A (en) * | 2020-10-01 | 2022-04-13 | 株式会社東芝 | Wireless system, wireless terminal |
-
2008
- 2008-06-23 JP JP2008163664A patent/JP2010004480A/en active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011155362A (en) * | 2010-01-26 | 2011-08-11 | Sony Corp | Imaging control unit, imaging control method, and program |
| KR101211656B1 (en) * | 2012-08-23 | 2012-12-12 | (주)하이텍알앤디 | An endless camera device for track race events and system for determining a video using the same |
| WO2014030932A1 (en) * | 2012-08-23 | 2014-02-27 | (주)하이텍알앤디 | Endless camera device for track events and image reading system using same |
| JP2016197858A (en) * | 2015-04-02 | 2016-11-24 | 艾創科技股▲ふん▼有限公司 | Real time image stitch device and real time image stitch method |
| JP2022059375A (en) * | 2020-10-01 | 2022-04-13 | 株式会社東芝 | Wireless system, wireless terminal |
| JP7451372B2 (en) | 2020-10-01 | 2024-03-18 | 株式会社東芝 | Wireless systems, wireless terminals |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4770178B2 (en) | Camera control apparatus, camera system, electronic conference system, and camera control method | |
| US9860486B2 (en) | Communication apparatus, communication method, and communication system | |
| CN103595953B (en) | A kind of method and apparatus for controlling video capture | |
| JP4356663B2 (en) | Camera control device and electronic conference system | |
| US7697024B2 (en) | Method and system of tracking and stabilizing an image transmitted using video telephony | |
| US11076127B1 (en) | System and method for automatically framing conversations in a meeting or a video conference | |
| US20100118112A1 (en) | Group table top videoconferencing device | |
| JP4636139B2 (en) | Video conference terminal device and image transmission method | |
| CN114827517A (en) | Projection video conference system and video projection method | |
| JP2011152593A (en) | Robot operation device | |
| JP2013123171A (en) | Image processing device, image processing method, image processing system, and program | |
| JP2010004480A (en) | Imaging apparatus, control method thereof and program | |
| US20030052962A1 (en) | Video communications device and associated method | |
| KR101393147B1 (en) | Mobile Terminal and Shooting method thereof | |
| CN104349112B (en) | Video conference device and its method | |
| WO2018074262A1 (en) | Communication device, communication method, and program | |
| JP3759216B2 (en) | Television camera communication device and multipoint connection device | |
| JP2009065490A (en) | Video conferencing equipment | |
| JP2010074456A (en) | Imaging direction controller, remote conference device, imaging direction control method, and imaging direction control program | |
| JP2000244885A (en) | Image capturing apparatus, image capturing method, storage medium, video conference system | |
| TWI866802B (en) | Intelligent assisting system for video equipment | |
| JP2013251617A (en) | Camera | |
| JP4223922B2 (en) | TV camera communication device | |
| JP2002262138A (en) | Imaging system, video conference system, monitoring system, and information terminal device having imaging function | |
| TWI785511B (en) | Target tracking method applied to video transmission |