[go: up one dir, main page]

JPH06205260A - Camera - Google Patents

Camera

Info

Publication number
JPH06205260A
JPH06205260A JP5001369A JP136993A JPH06205260A JP H06205260 A JPH06205260 A JP H06205260A JP 5001369 A JP5001369 A JP 5001369A JP 136993 A JP136993 A JP 136993A JP H06205260 A JPH06205260 A JP H06205260A
Authority
JP
Japan
Prior art keywords
tracking
zoom
lens
curve
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5001369A
Other languages
Japanese (ja)
Inventor
Hitoshi Hashimoto
仁史 橋本
Akio Terane
明夫 寺根
Naoki Fujii
尚樹 藤井
Atsujirou Ishii
敦次郎 石井
Masao Sato
政雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP5001369A priority Critical patent/JPH06205260A/en
Publication of JPH06205260A publication Critical patent/JPH06205260A/en
Pending legal-status Critical Current

Links

Landscapes

  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To provide the camera by which object distance information closer to an actual value with high accuracy is obtained through zoom tracking calculation. CONSTITUTION:Zoom tracking control is executed by a zoom tracking control block 7 in the zooming operation in this camera. Furthermore, when distance information is required, the zoom tracking control block 7 reads data relating to a tracking curve stored in a memory 15 and obtains a difference between a best focal position in an actual value of the focus lens 4 and a designed best focal position based on the tracking data and calculates a distance corresponding to the actual value of the focus lens 4 based on the difference data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カメラ、詳しくは、ズ
ームトラッキング制御を行うカメラにおいて、高精度の
被写体距離情報を得ることの可能なカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly, to a camera which performs zoom tracking control and which can obtain highly accurate subject distance information.

【0002】[0002]

【従来の技術】従来、ビデオカメラ等においては、ズー
ム式レンズのズーミング時にはピント位置補正のための
ズームトラッキング制御動作が行われるものが多い。図
25は、例えば、該ズームトラッキング動作におけるズ
ームレンズ中のバリエータレンズの位置(以下、ズーム
レンズ位置と記載する)に対するフォーカスレンズ補正
位置の変化を示したズームトラッキングカーブであっ
て、該トラッキング動作時には、各ズームレンズ位置に
対し、フォーカスレンズを上記図25のカーブに沿っ
て、移動させる。
2. Description of the Related Art Conventionally, in many video cameras and the like, a zoom tracking control operation for correcting a focus position is performed during zooming of a zoom lens. FIG. 25 is, for example, a zoom tracking curve showing changes in the focus lens correction position with respect to the position of the variator lens in the zoom lens in the zoom tracking operation (hereinafter referred to as the zoom lens position). For each zoom lens position, the focus lens is moved along the curve shown in FIG.

【0003】上記図25のズームトラッキングカーブを
利用したズームトラッキング制御方式として、従来、各
種の方式が提案されている。例えば、「NATIONAL TECHN
ICAL REPORT 」(VOL. 37 NO.3 JUN. 1991、P338〜344
) に記載されているビデオカメラのズームレンズの
ズームトラッキング方式は、メモリに記憶されたズーム
トラッキングカーブのテーブルデータを読み出し、テー
ブル補間することにより、フォーカスレンズの適正移動
量を演算し、トラッキングを行うものである。
Conventionally, various types of methods have been proposed as zoom tracking control methods using the zoom tracking curve of FIG. For example, "NATIONAL TECHN
ICAL REPORT "(VOL. 37 NO.3 JUN. 1991, P338-344)
The zoom tracking method of the zoom lens of the video camera described in () reads the table data of the zoom tracking curve stored in the memory and interpolates the table to calculate the appropriate amount of movement of the focus lens and perform tracking. It is a thing.

【0004】上記テーブル補間によるズームトラッキン
グ方式について詳細に説明すると、図26は、前記図2
5のズームトラッキングカーブのうち、基準被写体距離
L1(=∞)と被写体距離L2 、更に、距離L1 とL2
の間で補間される被写体距離L3 に対するトラッキング
カーブを抜き出して示した線図である。ズーミング位置
Zaにおける被写体距離L1 ,L2 に対するフォーカス
レンズ位置を示す点A1 ,A2 とし、ズーミング位置Z
bにおける被写体距離L1 ,L2 に対するフォーカスレ
ンズ位置を示す点B1 ,B2 とする。なお、これらのデ
ータは、当該カメラに適用されたメモリに格納されてい
るものとする。そして、該位置A1 ,B1 とA2 ,B2
間の繰り出し量を図示のように値Db,Ddとする。
The zoom tracking method based on the table interpolation will be described in detail with reference to FIG.
Of the 5 zoom tracking curves, the reference subject distance L1 (= ∞) and the subject distance L2, and further the distances L1 and L2
It is the diagram which extracted and showed the tracking curve with respect to the to-be-photographed object distance L3 interpolated between. The points A1 and A2 indicating the focus lens positions with respect to the object distances L1 and L2 at the zooming position Za are set as
Points B1 and B2 indicating the position of the focus lens with respect to the object distances L1 and L2 in b. Note that these data are assumed to be stored in the memory applied to the camera. Then, the positions A1, B1 and A2, B2
The amount of extension is set to values Db and Dd as shown in the figure.

【0005】いま、ズームレンズが位置Zaにあり、被
写体距離L3 のトラッキングカーブ上の位置A3 にフォ
ーカスレンズが位置しているとする。該位置A3 は、そ
のズーム位置Zaに対するフォーカスレンズ位置A1 ,
A2 の繰り出し量Dbとフォーカスレンズ位置A1 ,A
3 の繰り出し量Daから相対的に定義することができ
る。そこで、ズームレンズ位置がZbに変化したとす
る。被写体距離L3 のトラッキングカーブが、上記フォ
ーカスレンズ位置A1 ,A2 による上記繰り出し量の比
率である繰り出し比Da/Dbを一定値に保持するよう
に推移してゆくとすれば、位置B1 からの繰り出し量D
cが求められ、その結果、位置B3 が求められる。な
お、上記一定値とする繰り出し比Da/Dbが、後述の
実施例に適用されるトラッキング補間演算の基準値の1
つに対応する。
Now, it is assumed that the zoom lens is at the position Za and the focus lens is located at the position A3 on the tracking curve of the object distance L3. The position A3 is the focus lens position A1 with respect to the zoom position Za.
A2 extension amount Db and focus lens positions A1, A
It can be relatively defined from the delivery amount Da of 3. Therefore, it is assumed that the zoom lens position changes to Zb. Assuming that the tracking curve of the object distance L3 changes so as to keep the delivery ratio Da / Db, which is the ratio of the delivery amount by the focus lens positions A1 and A2, at a constant value, the delivery amount from the position B1. D
c is obtained, and as a result, the position B3 is obtained. The feed ratio Da / Db, which is the constant value, is 1 which is the reference value of the tracking interpolation calculation applied to the embodiment described later.
Correspond to one.

【0006】しかしながら、実際の製品として製造され
るものは、レンズおよび鏡枠の製造上のバラツキを含ん
でいる。即ち、図27に示すような設計により求められ
た適正位置を与える設計値トラッキングカーブLT0.5
(被写体距離0.5 mに対するカーブ)〜LT∞(無限遠
の被写体距離に対するカーブ)に対して、実際の製品で
の適正位置を与えるトラッキングカーブは、例えば、図
28に示すように設計値トラッキングカーブLTからず
れた実際値トラッキングカーブLP0.5 〜LP∞とな
る。そして、トラッキング制御を行う場合、特に被写体
距離を考慮することなく、実際値トラッキングカーブL
Pがそれぞれ該当するライン間の領域R1,R2 ,R3
内を一定比で内挿されるものとしてトラッキング駆動カ
ーブを求め、トラッキングを実行する。従って、設計値
カーブLTと実際値カーブLPのカーブ形状が一致して
さえすれば、正しいトラッキング制御を行うことができ
る。
However, what is actually manufactured includes variations in manufacturing of the lens and the lens frame. That is, a design value tracking curve LT0.5 that gives an appropriate position determined by the design shown in FIG.
A tracking curve that gives a proper position in an actual product with respect to (curve for subject distance of 0.5 m) to LT∞ (curve for subject distance at infinity) is, for example, a design value tracking curve LT as shown in FIG. The actual value tracking curve deviates from LP0.5 to LP∞. When tracking control is performed, the actual value tracking curve L
Areas R1, R2, R3 between lines to which P corresponds respectively
The tracking drive curve is obtained by interpolating the inside with a constant ratio, and tracking is executed. Therefore, correct tracking control can be performed as long as the curve shapes of the design value curve LT and the actual value curve LP match.

【0007】また、トラッキング制御における設計値カ
ーブLTと実際値カーブLPのカーブ形状が一致しない
ようなカメラに対しては、本出願人が先に提案した特願
平4―288921号のカメラのズームトラッキング制
御方式が有効である。本トラッキング制御は、設計上の
設計値であるズームトラッキングカーブと実際のトラッ
キングカーブとの差の変化を2次曲線で近似し、その2
次曲線に沿ってトラッキング制御を行うものである。
For a camera in which the curve shapes of the design value curve LT and the actual value curve LP in tracking control do not match, the zoom of the camera of Japanese Patent Application No. 4-288921 previously proposed by the present applicant is proposed. The tracking control method is effective. In this tracking control, the change in the difference between the zoom tracking curve, which is the designed value in design, and the actual tracking curve is approximated by a quadratic curve.
Tracking control is performed along the next curve.

【0008】そして、図29のトラッキングカーブに示
すように、実際値のトラッキングカーブLPと理論上の
設計値のトラッキングカーブLTとは、ズーム位置のワ
イド端(以下、W端と記載する)とテレ端(以下、T端
と記載する)で実際のトラッキングカーブLPを理論上
のトラッキングカーブLTに一致するように調節されて
いるものとする。
As shown by the tracking curve in FIG. 29, the actual value tracking curve LP and the theoretical design value tracking curve LT are the zoom position at the wide end (hereinafter referred to as the W end) and the telephoto end. It is assumed that the actual tracking curve LP is adjusted at the end (hereinafter referred to as the T end) so as to match the theoretical tracking curve LT.

【0009】図30のズームレンズ位置X1 にて、フォ
ーカスレンズが合焦位置であるP1位置にあり、その
後、ズームレンズ位置X2 までズーミングする場合の動
作について説明すると、まず、実際値カーブLP上の位
置であるフォーカスレンズ位置P1 に対してW,T端が
一致する設計値カーブLT上のフォーカス位置P2 を求
める。なお、この動作は、上記特願平4―288921
号に「WT間補正演算」として説明されている。
At the zoom lens position X1 in FIG. 30, the operation when the focus lens is at the position P1 which is the in-focus position and then zooming to the zoom lens position X2 will be described. First, on the actual value curve LP. The focus position P2 on the design value curve LT where the W and T ends coincide with the focus lens position P1 which is the position is obtained. This operation is the same as the above-mentioned Japanese Patent Application No. 4-288921.
No. WT inter-WT correction calculation.

【0010】次に、この設計値ズームトラッキングカー
ブLTに沿ってズーム位置X2 に対するフォーカスレン
ズ位置P3 を求める。そこで、再度、ズームレンズ位置
X2での「WT間補正演算」を行う。即ち、設計値カー
ブLT上のフォーカス位置P3 に対する実際値カーブ上
のフォーカスレンズの補正位置P4 を求める。この位置
P4 は、ズームレンズ位置X2 において、現実に合焦が
得られる点である。最終的に、該ズームトラッキング補
正位置P4 へ前記位置P1 からフォーカスレンズの駆動
を行い、1つのズームトラッキング動作を終了すること
になる。
Next, the focus lens position P3 with respect to the zoom position X2 is obtained along the design value zoom tracking curve LT. Therefore, the "WT correction calculation" at the zoom lens position X2 is performed again. That is, the correction position P4 of the focus lens on the actual value curve with respect to the focus position P3 on the design value curve LT is obtained. This position P4 is a point at which focusing can be actually obtained at the zoom lens position X2. Finally, the focus lens is driven from the position P1 to the zoom tracking correction position P4, and one zoom tracking operation is completed.

【0011】なお、図29に示す実際のトラッキングカ
ーブLPをあたえる被写体距離と、そのカーブLPに対
応し、W端,T端が一致する設計値のトラッキングカー
ブLTを与える被写体距離とは、必ずしも一致するもの
ではない。例えば、図29に示すように、被写体距離2
mに対する実際のトラッキングカーブLP2 とW端,T
端が一致する設計値トラッキングカーブLT1 〜2 は、
被写体距離1mと2mに対応する設計値トラッキングカ
ーブLT1 とLT2 間に存在し、距離2mに対応するカ
ーブLT2 と異なるカーブとなっている。
It should be noted that the subject distance giving the actual tracking curve LP shown in FIG. 29 and the subject distance giving the tracking curve LT of the design value corresponding to the curve LP and having the W end and the T end coincident with each other are not necessarily the same. Not something to do. For example, as shown in FIG. 29, the subject distance 2
Actual tracking curve LP2 for m and W end, T
The design value tracking curves LT1 and LT2 whose ends match are
The curve exists between the design value tracking curves LT1 and LT2 corresponding to the subject distances of 1 m and 2 m, and is different from the curve LT2 corresponding to the distance of 2 m.

【0012】[0012]

【発明が解決しようとする課題】ところが、上記従来の
テーブル補間方式、または、上記特願平4―28892
1号のカメラの「WT間補正演算」によるズームトラッ
キング動作においては、フォーカスレンズの予測される
合焦位置への補正駆動は行われるものの、それぞれのト
ラッキング制御に用いられる設計値トラッキングカーブ
LTは、必ずしも実際の被写体距離に対応しているもの
ではない。
However, the above conventional table interpolation method or the above-mentioned Japanese Patent Application No. 4-28892.
In the zoom tracking operation by the “WT correction calculation” of the first camera, although the correction drive to the predicted focus position of the focus lens is performed, the design value tracking curve LT used for each tracking control is It does not necessarily correspond to the actual subject distance.

【0013】従って、ストロボ発光における適正発光制
御やファインダ内に被写体距離の表示を行う場合、上記
設計値トラッキングカーブLTによるトラッキング演算
では正確な被写体距離情報が得られないという不具合が
あった。とりわけ、撮像素子の映像信号に含まれるコン
トラスト情報に基づいてフォーカシング制御を行うカメ
ラにあっては、被写体距離情報そのものは得られず、特
に具合が悪い。しかし、数多くの実際値対応のズームト
ラッキングカーブに被写体距離情報を対応させてメモリ
に記憶させたのではメモリ容量が大きくなりすぎて、実
用上の問題が生じる。
Therefore, when the proper light emission control in the strobe light emission and the display of the object distance in the viewfinder are performed, there is a problem that accurate object distance information cannot be obtained by the tracking calculation using the design value tracking curve LT. In particular, in a camera that performs focusing control based on the contrast information included in the image signal of the image sensor, the subject distance information itself cannot be obtained, which is particularly unsatisfactory. However, if a large number of zoom tracking curves corresponding to actual values are associated with subject distance information and stored in the memory, the memory capacity becomes too large, which causes a practical problem.

【0014】本発明は、上述の不具合を解決するために
なされたものであって、フォーカスレンズ適正位置の実
際値に対応する距離情報をズームトラッキング演算によ
り求め、必要に応じて、正確な被写体距離情報を得るこ
とが可能なカメラを提供することを目的とする。
The present invention has been made in order to solve the above-mentioned inconvenience, and obtains distance information corresponding to the actual value of the focus lens proper position by zoom tracking calculation, and if necessary, accurate object distance. It is intended to provide a camera capable of obtaining information.

【0015】[0015]

【課題を解決するための手段】本発明のカメラは、被写
体距離一定の下に当該ズームレンズの倍率が変化すると
き合焦状態を維持するための当該フォーカシングレンズ
の適正位置の設計値としてのズームトラッキングデータ
を保有するズームトラッキングデータ保有手段と、被写
体距離一定の下に上記ズームレンズの倍率が変化すると
き合焦状態を維持するための上記フォーカシングレンズ
の適正位置の実際値を上記ズームトラッキングデータ保
有手段で保有されるズームトラッキングデータを基礎と
する所定の補正演算により算出する補正手段と、上記補
正手段により算出されたフォーカシングレンズの適正位
置の実際値に対応する被写体距離を算出する演算手段を
備えたことを特徴とする。
The camera of the present invention has a zoom function as a design value of an appropriate position of the focusing lens for maintaining a focused state when the magnification of the zoom lens changes under a constant object distance. The zoom tracking data holding means for holding tracking data, and the zoom tracking data holding means for holding the actual value of the proper position of the focusing lens for maintaining the in-focus state when the magnification of the zoom lens changes under a constant object distance. And a calculating unit for calculating a subject distance corresponding to an actual value of the proper position of the focusing lens calculated by the correcting unit. It is characterized by that.

【0016】[0016]

【作用】被写体距離情報を求める場合、上記補正手段に
より算出されたフォーカシングレンズの適正位置に基づ
いて、実際値に対応する被写体距離を算出する。
When obtaining the subject distance information, the subject distance corresponding to the actual value is calculated based on the proper position of the focusing lens calculated by the correction means.

【0017】[0017]

【実施例】以下、本発明の実施例を図に基づいて説明す
る。図1は、本発明のビデオカメラの主要構成を示す図
であって、本実施例のカメラは、ズームトラッキング制
御を行うことが可能なカメラである。そして、該ズーム
トラッキング制御は、前記従来の「テーブル補間演
算」,「WT間補正演算」等による行われるものとす
る。そして、本カメラのフォーカシング制御は、映像信
号中に含まれる高周波成分の高低に関して合焦判定を実
行する方式のものする。この方式では直接被写体の距離
情報そのものが得られない。そこで、本カメラでは、ス
トロボ撮影時、あるいは、ファインダに距離情報を表示
する場合等で被写体距離情報が必要になったときに、ズ
ームトラッキング制御に用いられるトラッキングカーブ
を用いて被写体距離情報を得ることが可能とする。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a main configuration of a video camera of the present invention, and the camera of the present embodiment is a camera capable of performing zoom tracking control. The zoom tracking control is performed by the conventional "table interpolation calculation", "WT correction calculation", and the like. Then, the focusing control of the present camera is of a type in which the focus determination is executed regarding the level of the high frequency component included in the video signal. In this method, the distance information itself of the subject cannot be directly obtained. Therefore, this camera obtains subject distance information using the tracking curve used for zoom tracking control when subject distance information is needed during flash photography or when distance information is displayed in the viewfinder. Is possible.

【0018】また、本実施例のカメラは、そのフォーカ
シング動作としては、マニュアルフォーカス(以下、M
Fと記載する)動作を優先する第1の優先モードである
MFモードとオートフォーカス(以下、AFと記載す
る)動作を優先する第2の優先モードであるFモードの
2モードを有し、更に、Fモード動作時にも一時的にM
F処理に切り換えることを可能とする。また、MFモー
ドで指定した合焦対象領域を、そのまま、Fモード動作
時のAF処理の合焦対象領域とすることを可能とするカ
メラである。
In the focusing operation of the camera of this embodiment, a manual focus (hereinafter referred to as M
And a second mode F, which is a second priority mode that prioritizes an autofocus (hereinafter, referred to as AF) operation, and an MF mode that is a first priority mode that prioritizes an operation. , M temporarily during F mode operation
It is possible to switch to F processing. Further, it is a camera that enables the focusing target area designated in the MF mode to be the focusing target area of the AF processing during the F mode operation as it is.

【0019】そこで、上記カメラは、被写体像を取り込
み、映像信号を出力するカメラ部101と、カメラ部1
01より出力された映像信号を所定の記録媒体に記録す
る記録部102と、上記カメラ部101と記録部102
の動作をコントロールするカメラ制御部103と、記録
動作と記録スタンバイ動作の指示を行う記録/スタンバ
イ(以下、REC/STANDBYと記載する)スイッ
チ104とで構成される。
Therefore, the camera described above captures a subject image and outputs a video signal, and a camera unit 101 and a camera unit 1.
01, a recording unit 102 for recording the video signal output from the recording medium 101 on a predetermined recording medium, the camera unit 101, and the recording unit 102.
And a recording / standby (hereinafter referred to as REC / STANDBY) switch 104 for instructing a recording operation and a recording standby operation.

【0020】上記カメラ部101の主要な構成は、図2
のブロック図に示すように4群構成のズームレンズであ
る固定レンズ群である第1群レンズ1,変倍用第2群レ
ンズのズームレンズ2,固定レンズ群で成る第3レンズ
群3,第4群レンズのフォーカスレンズ4と、被写体2
0の像を電気信号に変換するCCD5と、CCD5の撮
像信号を映像信号に変換し、図示しない記録回路等に出
力する映像回路6と、テレ、および、ワイド方向のズー
ム動作を指示するズームスイッチ12,13と、該ズー
ムスイッチ12,13の出力信号によりズームスイッチ
が押されたこととズームの方向を認識するズームスイッ
チ検出ブロック14と、EEPROM等で構成され、設
計値のズームトラッキングデータ保持手段であるメモリ
15と、上記ズームスイッチ12,13の信号に基づい
て、ズームトラッキング制御を行う上記ズームトラッキ
ング制御ブロック7と、上記ズームスイッチの信号に基
づいてズームレンズ2を駆動する上記ズームレンズ駆動
ブロック8と、ズームレンズ2の移動量を検出し、その
信号をズームトラッキング制御ブロック7に入力するズ
ームエンコ−ダ9と、上記ズームトラッキング制御ブロ
ック7、および、AF制御ブロック10の出力に基づい
てフォーカスレンズ4を駆動する駆動ブロックであっ
て、ステッピングモータ等を含んで構成されるフォーカ
スレンズ駆動ブロック11と、後述するAF制御ブロッ
ク10等により構成されている。
The main structure of the camera section 101 is shown in FIG.
As shown in the block diagram of FIG. 3, the first lens group 1 is a fixed lens group which is a zoom lens having a four lens group, the zoom lens is a second lens group for zooming 2, the third lens group 3 is a fixed lens group, and the third lens group is a third lens group. Focus lens 4 of the fourth group lens and subject 2
A CCD 5 for converting an image of 0 into an electric signal, a video circuit 6 for converting an image pickup signal of the CCD 5 into a video signal and outputting the video signal to a recording circuit (not shown), and a zoom switch for instructing a zoom operation in the tele and wide directions. 12, 13 and a zoom switch detection block 14 for recognizing that the zoom switch has been pressed by the output signals of the zoom switches 12 and 13 and the zoom direction, and an EEPROM or the like, which is a zoom tracking data holding means of a designed value. And the memory 15, which is a zoom tracking control block 7 for performing zoom tracking control based on signals from the zoom switches 12 and 13, and the zoom lens drive block for driving the zoom lens 2 based on signals from the zoom switch. 8 and the amount of movement of the zoom lens 2 are detected and the signal is A zoom encoder 9 that is input to the king control block 7, a drive block that drives the focus lens 4 based on the outputs of the zoom tracking control block 7 and the AF control block 10, and includes a stepping motor and the like. The focus lens drive block 11 and the AF control block 10 described later are included.

【0021】なお、本実施例のものでは前記第3群レン
ズ3は固定であるが、ズームレンズ2の働きに合わせて
フォーカスレンズ4を補助するように移動するようにし
てもよい。また、上記フォーカスレンズ4の移動位置に
ついては、駆動ブロック11がステッピングモータで構
成されることから検出の必要はないので、フォーカスレ
ンズ用のエンコ−ダは不要である。上記ズームトラッキ
ング制御ブロック7には、メモリ15に保有されるズー
ムトラッキングデータを基礎とする補正演算を行う補正
手段と上記補正手段により算出されたフォーカスレンズ
の適正位置の実際値に対応する距離を算出する演算手段
も内蔵している。
Although the third lens group 3 is fixed in this embodiment, it may be moved to assist the focus lens 4 in accordance with the function of the zoom lens 2. Further, the moving position of the focus lens 4 does not need to be detected because the drive block 11 is composed of the stepping motor, so that the encoder for the focus lens is unnecessary. The zoom tracking control block 7 calculates a distance corresponding to the actual value of the correct position of the focus lens calculated by the correction means for performing a correction calculation based on the zoom tracking data stored in the memory 15. It also has a built-in calculation means.

【0022】上記AF制御ブロック10は、映像回路ブ
ロック6より、映像信号に含まれている合焦の度合いを
示すAF評価情報、この場合、山登り合焦方式における
コントラスト情報を抽出し、フォーカスレンズ駆動ブロ
ック11に対してフォーカスレンズのAF制御信号を出
力するブロックであって、後述するMFモードでの合焦
調節の対象に関する情報を保持する合焦対象情報保持手
段と、該合焦対象情報保持手段での保持情報に対応する
合焦調節の対象についてAFによる合焦調節動作を開始
するため合焦対象認識手段をも内蔵している。
The AF control block 10 extracts from the video circuit block 6 AF evaluation information indicating the degree of focusing included in the video signal, in this case, contrast information in the hill climbing focusing method, and drives the focus lens. A block for outputting an AF control signal of the focus lens to the block 11, a focusing target information holding unit that holds information regarding a target of focusing adjustment in an MF mode described later, and the focusing target information holding unit. A focus object recognition unit is also built in for starting the focus adjustment operation by AF for the focus adjustment target corresponding to the held information in (3).

【0023】該AF制御ブロック10の詳細な構成は、
図3に示されるように映像信号を取り込むBPF(バン
ドパス フィルタ)21と、BPF21で抽出された高
周波信号をA/D変換するA/D変換回路22と、該A
/D変換出力を撮影画面40上、例えば、分割エリアA
〜Iに9分割する(図4参照)エリア分割回路23と、
各エリアに対応する抽出信号を積分し、該積分値をAF
演算回路25に出力する積分回路24と、被写体の輝度
情報,色情報,画角情報を取り込み、対応する動体であ
る被写体の追尾エリアを検出する追尾回路28と、上記
積分回路24からの積分値より求められるAF評価値の
高いエリアをAF目標エリアとするか、あるいは、追尾
回路28からの追尾エリアを合焦対象領域であるAF目
標エリアとし、上記AF目標エリアに対してレンズ制御
系の合焦制御を行うAF演算回路25と、MF動作とA
F動作のモード切り換え指示を行うモード切り換え手段
であるMF/AFスイッチ32と、MFモードにおい
て、近距離方向へのフォーカシングを指示する近距離方
向操作手段の近距離フォーカス用のMFスイッチ30
と、同じくMFモードにおいて、遠距離方向へのフォー
カシングを指示する遠距離方向操作手段の遠距離フォー
カス用のMFスイッチ31と、該MF/AFスイッチ3
2,MFスイッチ30,31からの出力を制御信号に変
換して上記AF演算回路25へ出力するスイッチ検出回
路29と、AF演算回路25により実行されるAF動作
モードやAFエリア等の情報の表示データを電子ビュー
ファインダ(以下、EVFと記載する)27に出力する
表示回路26と、上記EVF27とで構成されている。
The detailed structure of the AF control block 10 is as follows.
As shown in FIG. 3, a BPF (bandpass filter) 21 for taking in a video signal, an A / D conversion circuit 22 for A / D converting the high frequency signal extracted by the BPF 21, and the A
The D / D conversion output is displayed on the shooting screen 40, for example, in the divided area A.
An area division circuit 23 that divides the image into 9 to I (see FIG. 4),
The extracted signal corresponding to each area is integrated, and the integrated value is AF-converted.
An integration circuit 24 for outputting to the arithmetic circuit 25, a tracking circuit 28 for detecting the tracking area of the corresponding moving subject by taking in the brightness information, color information, and angle of view information of the object, and the integrated value from the integration circuit 24. An area having a higher AF evaluation value obtained more is set as an AF target area, or a tracking area from the tracking circuit 28 is set as an AF target area which is a focusing target area, and a lens control system is combined with the AF target area. AF calculation circuit 25 for performing focus control, MF operation and A
An MF / AF switch 32 which is a mode switching means for instructing a mode switching of the F operation, and an MF switch 30 for short-distance focusing of a short-distance direction operation means for instructing focusing in the short-distance direction in the MF mode.
Similarly, in the MF mode, the MF switch 31 for long-distance focusing of the long-distance direction operation means for instructing focusing in the long-distance direction, and the MF / AF switch 3
2, a switch detection circuit 29 that converts the output from the MF switches 30 and 31 into a control signal and outputs the control signal to the AF operation circuit 25, and a display of information such as the AF operation mode and AF area executed by the AF operation circuit 25. The display circuit 26 outputs data to an electronic viewfinder (hereinafter referred to as EVF) 27, and the EVF 27.

【0024】なお、上記MFスイッチ30と、MFスイ
ッチ31とは、共に2段動作式スイッチであって、これ
らのスイッチの操作部に指が接触したとき、まず、第1
段階の操作信号を出力する静電容量型の第1段スイッチ
30a,31aと、更に押圧したとき、第2段階の操作
信号を出力する第2段スイッチ30b,31bとで構成
されている。なお、上記スイッチ30a,30bは、静
電容量型でなく、2段押し動作スイッチの一段目スイッ
チを適用してもよい。また、上記MFスイッチ30,3
1を回動リングに連動するスイッチ構造としてもよい。
この場合は、スイッチ30a,31aを該リングに指が
接触したことを検出する静電容量型のスイッチとし、ス
イッチ30b,31bをリングの回動に伴いパルス信号
を出力する構成のスイッチとする。
The MF switch 30 and the MF switch 31 are both two-stage operation type switches, and when a finger touches the operating portion of these switches, first, the first
It is composed of capacitance-type first-stage switches 30a and 31a that output a stepwise operation signal, and second-stage switches 30b and 31b that output a second-step operation signal when further pressed. The switches 30a and 30b may be first-stage switches of the two-stage push operation switch instead of the capacitance type. In addition, the MF switches 30, 3
1 may be a switch structure that interlocks with the rotating ring.
In this case, the switches 30a and 31a are capacitance-type switches that detect that a finger touches the ring, and the switches 30b and 31b are switches that output a pulse signal as the ring rotates.

【0025】以上のように構成された本実施例のカメラ
の被写体距離情報の演算処理動作について説明する。な
お、この演算処理では、ズームトラッキング演算等を実
施するが、そのとき直接、ズームレンズ2やフォーカス
レンズ4を駆動するわけではなく、ただズームトラッキ
ング演算等を行って該当する被写体距離情報を求める演
算を行うのみである。
The calculation processing operation of the object distance information of the camera of the present embodiment having the above-mentioned configuration will be described. In this calculation process, zoom tracking calculation or the like is performed, but at that time, the zoom lens 2 and the focus lens 4 are not directly driven, but only the zoom tracking calculation or the like is performed to calculate the corresponding object distance information. Only do.

【0026】図5は、本カメラのズームトラッキングカ
ーブの一例を示した図であって、横軸は、ズームレンズ
2の位置であってW端位置をZW とし、T端位置をZT
とする。更に、現在のズームレンズ位置をZS とする。
縦軸は、フォーカスレンズ4の位置を示す。そして、ト
ラッキングカーブLT∞,LTb,LTaは、それぞれ
被写体距離∞(無限遠),2m,1mに対する設計値ト
ラッキングカーブとする。トラッキングカーブLTaの
W、および、T端をトラッキング点PE ,PCとする。
また、設計値カーブLTb,LT∞のT端のトラッキン
グ点PD 、P∞とする。そして、トラッキング点PC ,
PD に対するフォーカスレンズ位置をFT1,FT2とす
る。更に、上記トラッキング点P∞とトラッキング点P
C ,PD 間のフォーカスレンズ位置差をXT1,XT2とす
る。一方、W端におけるLTa,LT∞のトラッキング
点のフォーカスレンズ位置の差の値をXW1とする。
FIG. 5 is a diagram showing an example of the zoom tracking curve of this camera. The horizontal axis is the position of the zoom lens 2, the W end position is ZW, and the T end position is ZT.
And Further, the current zoom lens position is ZS.
The vertical axis represents the position of the focus lens 4. The tracking curves LT ∞, LTb, and LTa are design value tracking curves for the subject distances ∞ (infinity), 2 m, and 1 m, respectively. The W and T ends of the tracking curve LTa are set as tracking points PE and PC.
Further, the tracking points PD and P∞ at the T end of the design value curves LTb and LT∞ are set. Then, the tracking point PC,
The focus lens positions with respect to PD are FT1 and FT2. Furthermore, the tracking point P ∞ and the tracking point P
The focus lens position difference between C and PD is XT1 and XT2. On the other hand, the value of the difference between the focus lens positions of the tracking points LTa and LT∞ at the W end is XW1.

【0027】また、現在のズームレンズ位置ZS におけ
る実際に合焦位置にあるとするフォーカスレンズ位置を
FS0とし、そのトラッキング点PA を通る実際値トラッ
キングカーブをLPbとする。このカーブのW、およ
び、T端のトラッキング点は、予め調整されており、そ
のカーブに近い設計値カーブLTa上の点PE ,PC と
一致している。そして、現在、フォーカスレンズ4が合
焦状態にある被写体の距離に対して設計上合焦するトラ
ッキングカーブが上記設計カーブLTbとする。なお、
ズームレンズ位置ZS のトラッキングカーブLPb,L
Ta,LT∞上のトラッキング点をPA ,PB ,PS と
する。そして、トラッキング点PA とPBに対するフォー
カスレンズ位置をFS0,FS1とする。更に、トラッキン
グ点PB とPS のフォーカスレンズ位置の差の値をXS1
とする。
Further, the focus lens position which is actually in focus at the current zoom lens position ZS is FS0, and the actual value tracking curve passing through the tracking point PA is LPb. The tracking points at the W and T ends of this curve are adjusted in advance and coincide with the points PE and PC on the design value curve LTa close to the curve. Then, the tracking curve designed by the focus lens 4 to focus on the distance of the object in focus is the design curve LTb. In addition,
Tracking curves LPb, L for zoom lens position ZS
The tracking points on Ta and LT ∞ are PA, PB and PS. Then, the focus lens positions with respect to the tracking points PA and PB are set to FS0 and FS1. Further, the value of the difference between the focus lens positions of the tracking points PB and PS is XS1.
And

【0028】上記図5のトラッキングカーブ上の値を適
用して、図6に示す距離情報演算処理のフローについて
説明すると、まず、ステップS1,2にて現在のフォー
カスレンズ位置FS0とズームレンズ位置ZS を読み取
る。ステップS3にて「WT間補正演算」処理を行い、
W端,T端が一致する設計値カーブLTaを選択して、
そのカーブのズームレンズ位置ZS 上でのフォーカスレ
ンズ位置FS1を算出する。なお、この「WT間補正演
算」の処理は、前記特願平4―288921号のカメラ
のズームトラッキング制御方式で説明した処理と同一で
ある。
The flow of the distance information calculation process shown in FIG. 6 will be described by applying the values on the tracking curve of FIG. 5 above. First, in steps S1 and S2, the current focus lens position FS0 and zoom lens position ZS are shown. To read. In step S3, the "WT correction calculation" process is performed,
Select the design value curve LTa where the W and T ends match,
The focus lens position FS1 on the zoom lens position ZS of the curve is calculated. The "WT correction calculation" process is the same as the process described in the zoom tracking control system of the camera of Japanese Patent Application No. 4-288921.

【0029】ついで、ステップS4にて、演算基準値の
演算を行う。この演算基準値の演算方式としては、後述
するように3通りの方式があって、テーブル補間演算に
よる基準繰り出し比Da/Db、あるいは、W端(ズー
ムレンズ位置ZW )でのカーブLTa,LT∞上のフォ
ーカスレンズ位置の差XW1を求める。そして、ステップ
S5にて、T端のズームレンズ位置ZT を取り込む。ス
テップS6で設計値カーブLTaに沿ったズームトラッ
キング演算を行って、ズームレンズ位置ZT でのフォー
カスレンズ位置FT1を求めるが、この演算方式にも後述
するように上記ステップS4の処理に対応して、3通り
の方式がある。ついで、ステップS7において、上記フ
ォーカスレンズ位置FT1 に基づいて、現合焦被写体距
離に対応した設計値カーブLTb上のT端のフォーカス
レンズ位置FT2 との繰り出し量のずれを求め、その値
から該フォーカスレンズ位置FT2 を求める。なお、上
記繰り出し量のずれを求める演算式は、 繰り出し量のずれ=FT1 ーFT2 =P×XT1+Q …
…………(1) で示される。但し、上記値P,Qはそれぞれレンズ固有
の値であって、組立調節時に測定され、EEPROM等
に格納されている。
Then, in step S4, the calculation reference value is calculated. As the calculation method of the calculation reference value, there are three kinds of methods as will be described later, and the reference extension ratio Da / Db by the table interpolation calculation or the curves LTa and LT∞ at the W end (zoom lens position ZW). The difference XW1 between the upper focus lens positions is obtained. Then, in step S5, the zoom lens position ZT at the T end is fetched. In step S6, zoom tracking calculation along the design value curve LTa is performed to obtain the focus lens position FT1 at the zoom lens position ZT. This calculation method also corresponds to the process of step S4 described above, as will be described later. There are three methods. Then, in step S7, based on the focus lens position FT1, a deviation of the amount of extension from the focus lens position FT2 at the T end on the design value curve LTb corresponding to the currently focused object distance is obtained, and the focus is calculated from the value. Find the lens position FT2. The calculation formula for obtaining the deviation of the feeding amount is: deviation of the feeding amount = FT1−FT2 = P × XT1 + Q ...
………… Indicated by (1). However, the above values P and Q are values unique to each lens, are measured at the time of assembly adjustment, and are stored in the EEPROM or the like.

【0030】次に、ステップS8で上記フォーカスレン
ズ位置FT2より該当する被写体距離L2 を求める。その
演算式は、 L2 =ー(f2 /XT2) …………………………………(2) とする。ステップS9にて上記被写体距離L2 のデータ
を図示しないストロボ制御系、または、表示回路26に
出力する。その後、本処理を終了する。
Then, in step S8, a corresponding object distance L2 is obtained from the focus lens position FT2. Its calculation formula, L2 = over (f 2 / XT2) ....................................... and (2). In step S9, the data of the subject distance L2 is output to the strobe control system (not shown) or the display circuit 26. After that, this processing ends.

【0031】ここで、上記ステップS4、および、ステ
ップS6でコールされるサブルーチン処理の3通りの方
式について説明する。まず、第1の方式のものは、テー
ブル補間によりズームトラッキング演算のための演算基
準値となる基準繰り出し比を求め、ズームトラッキング
演算を行う演算方式のものである。図7,8は、それぞ
れステップS4,6でコールされるサブルーチン「演算
基準値の演算」,「ズームトラッキング演算」のフロー
チャートである。なお、本方式を採用する場合は、RO
M等のメモリ中にテーブル補間のために、8〜10本の
トラッキングカーブデータを記憶させておく必要があ
る。
Now, three methods of the subroutine processing called in the above step S4 and step S6 will be described. First, the first method is an operation method of performing zoom tracking calculation by obtaining a reference extension ratio which is an operation reference value for zoom tracking calculation by table interpolation. 7 and 8 are flowcharts of subroutines "calculation of calculation reference value" and "zoom tracking calculation" which are called in steps S4 and S6, respectively. In addition, when adopting this method, RO
It is necessary to store 8 to 10 tracking curve data in the memory such as M for table interpolation.

【0032】図7のサブルーチン「演算基準値の演算」
においては、まず、ステップS11にて、該当する設計
値トラッキングカーブ、例えば、図5でカーブLTaが
トラッキングカーブ群間のどのエリア、例えば、図27
で示す領域(エリア)R3 ,R2 ,R1 の何れにあるか
をチェックする。ステップS12で該当するエリアの上
下のフォーカスレンズ位置を読み込む。例えば、該エリ
アが図26で示すカーブL2 ,L1 間のエリアであれ
ば、トラッキング点A2 ,A1 のフォーカスレンズ位置
FA2,FA1の値を読み込む。ステップS13にて上記レ
ンズ位置FA2,FA1の値の差を演算し、繰り出し量Da
を求める。更に、ステップS14でズームレンズ位置Z
S 上の上記カーブLTa上のフォーカスレンズ位置FS
1、即ち、該カーブが図26のカーブL3 上では、レン
ズ位置FA3に対する前記フォーカスレンズ位置FA1との
差を演算し、繰り出し量Dbを求める。続いて、ステッ
プS15でトラッキング演算のための演算基準値、ここ
では、基準繰り出し比Da/Dbを演算する。
Subroutine "calculation of calculation reference value" in FIG.
In step S11, first, in step S11, a corresponding design value tracking curve, for example, the curve LTa in FIG.
It is checked which of the areas (areas) R3, R2 and R1 indicated by. In step S12, the focus lens positions above and below the corresponding area are read. For example, if the area is the area between the curves L2 and L1 shown in FIG. 26, the values of the focus lens positions FA2 and FA1 at the tracking points A2 and A1 are read. In step S13, the difference between the values of the lens positions FA2 and FA1 is calculated, and the feeding amount Da is calculated.
Ask for. Further, in step S14, the zoom lens position Z
Focus lens position FS on curve LTa above S
1, that is, when the curve is on the curve L3 in FIG. 26, the difference between the lens position FA3 and the focus lens position FA1 is calculated to obtain the extension amount Db. Subsequently, in step S15, a calculation reference value for tracking calculation, here, a reference payout ratio Da / Db is calculated.

【0033】次に、サブルーチン「ズームトラッキング
演算」の処理について説明する。まず、ステップS21
において、ズームレンズ位置Zb上でのトラッキングカ
ーブL2 ,L1 のトラッキング点B2 ,B1 のフォーカ
スレンズ位置FB2,FB1を求める(図26参照)。な
お、上記ズームレンズ位置Zbは、本実施例の場合、図
5のT端でのズームレンズ位置ZT を対応させる。ステ
ップS22において、レンズ位置FB2,FB1の差を演算
して、繰り出し量Ddを求める。更に、ステップS23
で繰り出し量Ddと、前記図7のサブルーチン「演算基
準値の演算」で求めた標準繰り出し比Da/Dbとか
ら、図26のズームレンズ位置Zbでの繰り出し量Dc
を演算する。ステップS24で図26上での目標とする
フォーカスレンズ位置FB3を上記レンズ位置FB1と繰り
出し量Dcとから求める。このレンズ位置FB3は、図5
上では、ズームレンズ位置のT端でのトラッキング点P
cに対するフォーカスレンズ位置FT1に相当する。
Next, the processing of the subroutine "zoom tracking calculation" will be described. First, step S21
At, the focus lens positions FB2 and FB1 of the tracking points B2 and B1 of the tracking curves L2 and L1 on the zoom lens position Zb are obtained (see FIG. 26). In the case of the present embodiment, the zoom lens position Zb corresponds to the zoom lens position ZT at the T end in FIG. In step S22, the difference between the lens positions FB2 and FB1 is calculated to obtain the extension amount Dd. Further, step S23
26 and the standard extension ratio Da / Db obtained by the "calculation of the calculation reference value" subroutine in FIG. 7, the extension amount Dc at the zoom lens position Zb in FIG.
Is calculated. In step S24, the target focus lens position FB3 on FIG. 26 is obtained from the lens position FB1 and the extension amount Dc. This lens position FB3 is shown in FIG.
Above, the tracking point P at the T end of the zoom lens position
This corresponds to the focus lens position FT1 with respect to c.

【0034】次に、前記ステップS4、および、ステッ
プS6の処理の3通りの方式のうちの第2の方式は、被
写体距離∞でのトラッキングカーブデータと、各ズーム
位置に対応する繰り出し比とから演算基準値となるW端
繰り出し量を求め、ズームトラッキング演算を行う演算
方式である。図9,10は、それぞれステップS4,6
でコールされるサブルーチン「演算基準値の演算」,
「ズームトラッキング演算」のフローチャートである。
なお、本方式を採用する場合は、ROM等のメモリ中に
被写体距離∞でのトラッキングカーブデータと、W端繰
り出し量に対する繰り出し量の比率である繰り出し比デ
ータ(比DATA)を記憶させておく必要がある。な
お、この繰り出し比データ等の詳細については、特願平
4ー268877号に記載されている。
Next, the second method of the three methods of the processing of steps S4 and S6 is based on the tracking curve data at the object distance ∞ and the extension ratio corresponding to each zoom position. This is a calculation method in which the amount of W edge extension, which is a calculation reference value, is obtained and zoom tracking calculation is performed. 9 and 10 show steps S4 and S6, respectively.
Sub-routine called "Calculation of calculation reference value",
It is a flowchart of "zoom tracking calculation."
When this method is adopted, it is necessary to store the tracking curve data at the object distance ∞ and the feed ratio data (ratio DATA) which is the ratio of the feed amount to the W end feed amount in a memory such as a ROM. There is. The details of the feeding ratio data and the like are described in Japanese Patent Application No. 4-268877.

【0035】図9のサブルーチン「演算基準値の演算」
においては、まず、ステップS31にて、現実のフォー
カスレンズ位置FS0に対応する設計上のフォーカスレン
ズ位置FS1と、ROMに記憶されているデータであっ
て、ズームレンズ位置ZS での被写体距離∞対応の繰り
出し量∞DATA(ZS )とから繰り出し量XS1(図5
参照)を求める。ステップS32にてズームレンズ位置
ZS 対応値であって、ROMに記憶されている繰り出し
比DATA(ZS )と、上記繰り出し量XS1とから演算
基準値となるW端繰り出し量XW1を求め、本サブルーチ
ンの処理を終了する。
Subroutine "calculation of calculation reference value" in FIG.
In step S31, first, in step S31, the designed focus lens position FS1 corresponding to the actual focus lens position FS0 and the data stored in the ROM that correspond to the object distance ∞ at the zoom lens position ZS. Feed amount ∞DATA (ZS) and feed amount XS1 (Fig. 5
See). In step S32, the W-end feed-out amount XW1, which is a value corresponding to the zoom lens position ZS, and which is the calculation reference value, is obtained from the feed-out ratio DATA (ZS) stored in the ROM and the feed-out amount XS1. The process ends.

【0036】次に、図10に示されるサブルーチン「ズ
ームトラッキング演算」の処理について説明する。ま
ず、ステップS35において、図5におけるT端での繰
り出し量XT1を上記W端に対応する繰り出し量XW1と比
DATA(ZT )とから求める。ステップS36におい
て、上記T端での繰り出し量XT1とROMに記憶されて
いる被写体距離∞での繰り出し量∞DATA(ZT )と
から目標フォーカスレンズ位置FT1を演算し、本サブル
ーチンの処理を終了する。
Next, the processing of the subroutine "zoom tracking calculation" shown in FIG. 10 will be described. First, in step S35, the feed amount XT1 at the T end in FIG. 5 is obtained from the feed amount XW1 corresponding to the W end and the ratio DATA (ZT). In step S36, the target focus lens position FT1 is calculated from the amount of extension XT1 at the T end and the amount of extension ∞DATA (ZT) stored in the ROM at the subject distance ∞, and the processing of this subroutine ends.

【0037】続いて、前記ステップS4、および、ステ
ップS6の処理の3通りの方式のうち、第3の方式のも
のは、被写体距離∞でのトラッキングカーブデータと、
各ズームレンズ位置に対応する係数α,βから演算され
る繰り出し比とから演算基準値となるW端繰り出し量を
求め、ズームトラッキング演算を行う演算方式である。
図11,12は、それぞれステップS4,6でコールさ
れるサブルーチン「演算基準値の演算」,「ズームトラ
ッキング演算」のフローチャートである。なお、本方式
を採用する場合、ROM等のメモリ中には、被写体距離
∞でのトラッキングカーブデータと、各ズームレンズ位
置に対応した繰り出し比を求めるための係数α,βと、
T端でのW端繰り出し量に対する1つのデータである繰
り出し比データ(比DATA(ZT ))を記憶させて置
く必要がある。なお、この繰り出し比データ等の詳細に
ついては、特願平4ー268877号に記載されてい
る。
Subsequently, of the three methods of the processing of steps S4 and S6, the third method is the tracking curve data at the object distance ∞,
This is a calculation method in which the zoom tracking calculation is performed by obtaining the W-end extension amount that is the calculation reference value from the extension ratio calculated from the coefficients α and β corresponding to each zoom lens position.
11 and 12 are flowcharts of subroutines "calculation of calculation reference value" and "zoom tracking calculation" which are called in steps S4 and S6, respectively. When this method is adopted, the tracking curve data at the subject distance ∞ and the coefficients α and β for obtaining the extension ratio corresponding to each zoom lens position are stored in the memory such as the ROM.
It is necessary to store and store the feed-out ratio data (ratio DATA (ZT)) which is one data for the W-end feed-out amount at the T-end. The details of the feeding ratio data and the like are described in Japanese Patent Application No. 4-268877.

【0038】図11のサブルーチン「演算基準値の演
算」においては、まず、ステップS41にて、現実のフ
ォーカスレンズ位置FS0に対応する設計上のフォーカス
レンズ位置FS1と、ROMに記憶されているデータであ
って、ズームレンズ位置ZS での被写体距離∞対応の繰
り出し量∞DATA(ZS )とから繰り出し量XS1(図
5参照)を求める。ステップS42にてズームレンズ位
置ZS 対応値であって、比DATA(ZS )を求めるた
めの係数α(ZS ),係数β(ZS )と、上記繰り出し
量XS1から繰り出し比である比DATA(ZS )を求め
る。更に、ステップS43で上記繰り出し量XS1と、上
記繰り出し比(比DATA(ZS ))とから演算基準値
となるW端繰り出し量XW1を求め、本サブルーチンの処
理を終了する。
In the subroutine "calculation of calculation reference value" of FIG. 11, first, in step S41, the designed focus lens position FS1 corresponding to the actual focus lens position FS0 and the data stored in the ROM are used. Therefore, the extension amount XS1 (see FIG. 5) is obtained from the extension amount ∞DATA (ZS) corresponding to the object distance ∞ at the zoom lens position ZS. In step S42, the zoom lens position ZS corresponding value, the coefficient .alpha. (ZS) and the coefficient .beta. (ZS) for obtaining the ratio DATA (ZS), and the ratio DATA (ZS) which is the feed ratio from the feed amount XS1. Ask for. Further, in step S43, the W-end feed-out amount XW1, which is a calculation reference value, is obtained from the feed-out amount XS1 and the feed-out ratio (ratio DATA (ZS)), and the processing of this subroutine ends.

【0039】次に、図12に示されるサブルーチン「ズ
ームトラッキング演算」の処理について説明する。ま
ず、ステップS45において、T端での繰り出し比(比
DATA(ZT ))をROMから読み出す。ステップS
46において、図5におけるT端での繰り出し量XT1を
上記W端に対応する繰り出し量XW1と上記比DATA
(ZT )とから求める。ステップS47において、上記
T端での繰り出し量XT1とROMに記憶されている被写
体距離∞での繰り出し量∞DATA(ZT )とから目標
フォーカスレンズ位置FT1を演算し、本サブルーチンの
処理を終了する。
Next, the processing of the subroutine "zoom tracking calculation" shown in FIG. 12 will be described. First, in step S45, the feed ratio (ratio DATA (ZT)) at the T end is read from the ROM. Step S
46, the feed amount XT1 at the T end in FIG. 5 is set to the feed amount XW1 corresponding to the W end and the ratio DATA.
(ZT) and In step S47, the target focus lens position FT1 is calculated from the extension amount XT1 at the T end and the extension amount ∞DATA (ZT) at the subject distance ∞ stored in the ROM, and the processing of this subroutine ends.

【0040】以上述べたように本実施例のカメラの被写
体距離情報演算処理においては、ストロボ撮影,被写体
距離の表示等で距離情報が必要になった場合、仮想的
に、即ち、実際にレンズ駆動することなく演算上のみで
T端までズームトラッキングを行う。この際、製造上の
バラツキ補正を行う。そして、T端での繰り出し量ずれ
補正式(前記式(1))をもとに補正し、正確な距離情
報を得ることができる。本演算処理の特徴は、既存の電
気的ズームトラッキング制御処理をそのまま利用し、T
端における上記繰り出し量ずれ補正式で正確な距離が求
められる点にある。
As described above, in the subject distance information calculation processing of the camera of the present embodiment, when distance information is needed for stroboscopic photography, display of the subject distance, etc., the lens is driven virtually, that is, the lens is actually driven. Without performing, zoom tracking is performed to the T end only by calculation. At this time, manufacturing variation correction is performed. Then, it is possible to obtain accurate distance information by performing correction based on the feed amount deviation correction formula at the T end (the above formula (1)). The characteristic of this calculation processing is that the existing electric zoom tracking control processing is used as it is,
The point is that an accurate distance can be obtained by the above-mentioned formula for correcting the deviation of the delivery amount at the end.

【0041】なお、本実施例のものでは、被写体距離を
求めるためのトラッキング演算をズームレンズ位置のT
端で行うようにしたが、これに限らず、他のズームレン
ズ位置、あるいは、複数のズームレンズ位置でトラッキ
ング演算を行うようにしてもよい。要は、トラッキング
演算により上記繰り出し量のずれを求めて、正確な当該
被写体距離を求めるようにすればよい。
In the present embodiment, the tracking calculation for obtaining the object distance is performed at the zoom lens position T.
Although it is performed at the end, the present invention is not limited to this, and the tracking calculation may be performed at another zoom lens position or a plurality of zoom lens positions. In short, it suffices to find the shift in the amount of extension by tracking calculation and find the correct subject distance.

【0042】また、本実施例のようにトラッキング演算
点をW端ではなくT端上に選択した理由は、一般に各被
写体距離に対するW端側でのトラッキングカーブの間隔
は狭く、T端側でのトラッキングカーブの間隔は広くな
っており、選択性がよいことから、該演算をT端側で行
った方が精度がよくなるためである。
Further, the reason why the tracking calculation point is selected not on the W end but on the T end as in this embodiment is that the tracking curve interval is generally narrow on the W end side with respect to each object distance, and on the T end side. This is because the interval of the tracking curve is wide and the selectivity is good, so that the precision is better when the calculation is performed on the T end side.

【0043】次に、本実施例のビデオカメラのフォーカ
シング動作について前記図1〜図3のブロック構成図、
また、図13〜図18のフローチャート等を用いて説明
する。従来、ビデオカメラにおけるフォーカシング制御
においては、中央領域重点式のAF(オートフォーカ
ス)動作で、中抜け合焦動作、あるいは、主要被写体の
前を移動物が通過したときAF動作が不自然になる横切
り時の不安定合焦動作等が発生すると予想されたとき、
これを防止するため、その度毎にMF(マニュアルフォ
ーカス)動作に切り換えて撮影していた。従って、動作
が煩雑化するばかりでなく、撮影のタイミングがずれる
ことも避けられなかった。
Next, the focusing operation of the video camera of the present embodiment will be described with reference to the block diagrams of FIGS.
Further, description will be made with reference to the flowcharts of FIGS. Conventionally, in focusing control in a video camera, a central area-focusing AF (autofocus) operation is used to perform a hollow focus operation, or a horizontal crossing that makes the AF operation unnatural when a moving object passes in front of the main subject. When it is predicted that unstable focusing operation at the time will occur,
In order to prevent this, the photographer switches to the MF (manual focus) operation each time. Therefore, not only the operation becomes complicated, but also the timing of shooting is inevitable.

【0044】また、従来のものではAFモードとMF
(マニュアルフォーカス)モードとは独立した処理が行
われており、互いの情報を渡し合う等の処理はなされて
いなかった。即ち、システム的にはMFモードでもAF
のための評価値、例えば、コントラスト情報が得られる
のに、特に利用されることなく、回路に無駄な電力を消
費するだけであった。また、MFモードからAFモード
に切り換えられた場合、合焦対象領域は画面中央にセッ
トされ、撮影者の意志は反映されにくかった。そのよう
な場合、撮影者がどこを見ているかを検出する視線検知
センサを組み込み、そのセンサの出力により合焦対象領
域を決定するカメラも提案されている。しかし、その制
御部は大型化し、高価な製品になってしまう。
Further, in the conventional one, the AF mode and the MF are
Processing independent of the (manual focus) mode is performed, and processing such as mutual information exchange is not performed. In other words, systematic AF is possible even in MF mode.
The evaluation value for, for example, the contrast information is obtained, but it is not particularly used, and the circuit consumes unnecessary power. Further, when the MF mode is switched to the AF mode, the focusing target area is set in the center of the screen, and it is difficult to reflect the intention of the photographer. In such a case, there is also proposed a camera that incorporates a line-of-sight detection sensor that detects where the photographer is looking, and determines the focusing target area based on the output of the sensor. However, the control unit becomes large and becomes an expensive product.

【0045】更にまた、従来のカメラでは、AF,AE
(自動露出制御)におけるターゲットとなる被写体の自
動追尾機能を内蔵するものも製品化されているが、撮影
の最初に対象被写体を捕捉し、ロックする操作が煩雑で
あった。即ち、画面中央に被写体を入れ、被写体をロッ
クするスイッチを押圧する等煩雑な作業を必要とした。
更に、画面任意の位置に対象被写体を位置させることが
できず、不自然な撮影画面になっていた。また、他に被
写体を捕捉する方法として、画面上の任意の位置情報を
トラックボール,ジョイスティック等により入力し、そ
の後、被写体ロックスイッチを操作する方法も考えられ
るが、やはり操作が煩雑でコスト上も不利となり、更
に、トラックボール,ジョイスティック等の操作が手ブ
レ撮影につながっていた。
Furthermore, in the conventional camera, AF, AE
A product having a built-in automatic tracking function of a target subject in (automatic exposure control) has also been commercialized, but the operation of capturing and locking the target subject at the beginning of shooting was complicated. That is, a complicated work such as putting a subject in the center of the screen and pressing a switch for locking the subject is required.
Furthermore, the target subject cannot be positioned at any position on the screen, resulting in an unnatural shooting screen. As another method of capturing the subject, a method of inputting arbitrary position information on the screen with a trackball, a joystick, etc. and then operating the subject lock switch is also conceivable, but the operation is also complicated and costly. It was a disadvantage, and the operation of the trackball, joystick, etc. also led to camera shake photography.

【0046】本カメラは、上述の各不具合点を解決する
フォーカシング制御を可能とするものであり、自動追尾
によるAF制御を行うカメラであって、そのフォーカシ
ング制御は、前記図2,3に示したAF制御ブロック1
0等によって行われる。
This camera enables focusing control that solves the above-mentioned problems, and is a camera that performs AF control by automatic tracking. The focusing control is shown in FIGS. AF control block 1
0 etc.

【0047】その制御動作の詳細を説明すると、まず、
カメラのパワースイッチがオン状態になると、図13に
示す撮影メインルーチンの処理が開始される。そして、
ステップS51にて、図1に示すカメラ部101,記録
部102等の初期設定を行う。そのとき、AF処理にお
ける合焦対象エリアを中央に設定する。ステップS52
において、REC/STANDBYスイッチ104のオ
ンオフをチェックする。STANDBY側がオンの場
合、ステップS53へ進み、REC側がオンの場合、ス
テップS55にジャンプする。
Explaining the details of the control operation, first,
When the power switch of the camera is turned on, the processing of the shooting main routine shown in FIG. 13 is started. And
In step S51, the camera unit 101, the recording unit 102, etc. shown in FIG. 1 are initialized. At that time, the focusing target area in the AF process is set to the center. Step S52
At, the on / off of the REC / STANDBY switch 104 is checked. If the STANDBY side is on, the process proceeds to step S53, and if the REC side is on, the process jumps to step S55.

【0048】上記ステップS53では、カメラ部10
1,記録部102を記録動作のためスタンバイ処理を行
う。そして、ステップS54に進み、後述するマニュア
ルフォーカスが優先適用されるサブルーチン「MF処
理」がコールされる。一方、ステップS55では、カメ
ラ部101から出力される映像信号を記録部102にて
記録する記録動作処理を行う。そして、ステップS56
に進み、後述するAF動作優先であるがMF動作も容易
に選択可能なサブルーチン「Fモード処理」がコールさ
れる。
In step S53, the camera unit 10
1. The recording unit 102 performs a standby process for recording operation. Then, the process proceeds to step S54, and a subroutine "MF processing" to which manual focus described later is preferentially applied is called. On the other hand, in step S55, a recording operation process of recording the video signal output from the camera unit 101 in the recording unit 102 is performed. Then, step S56
Then, the subroutine "F-mode processing", which has priority to AF operation but can easily select MF operation, which will be described later, is called.

【0049】この図13のルーチンによる通常の撮影で
は、スタンバイ処理が終了した後、MF/AFスイッチ
を操作して、AF側をオンとし、REC/STANDB
Yスイッチ104を操作して記録動作に移ると、スタン
バイ時に撮影者が意図的に選択し、MF動作で合焦した
被写体にロックした状態でAF優先の「Fモード処理」
に移ることができる。なお、従来のものでは、このとき
AFを行う被写体としては、画面中央の被写体が指定さ
れてしまい、撮影者の意志は反映されていなかった。更
に、後述するように該Fモード処理では容易に1時的な
MFモードに移すことができる。
In the normal photographing according to the routine shown in FIG. 13, after the standby process is completed, the MF / AF switch is operated to turn on the AF side, and REC / STANDB is set.
When the Y switch 104 is operated to shift to the recording operation, the "F mode processing" in which AF is preferentially selected in the standby mode by the photographer intentionally and locked in the subject focused by the MF operation.
You can move to. In the conventional art, the subject at the center of the screen is designated as the subject to be subjected to AF at this time, and the intention of the photographer is not reflected. Further, as will be described later, in the F mode processing, it is possible to easily shift to the temporary MF mode.

【0050】なお、変形例として、上記ステップS54
にてサブルーチン「Fモード処理」を、ステップS56
にてMF動作を行うサブルーチン「MF処理」をコール
するようなルーチンとすることも可能である。この変形
例では、スタンバイ処理時に、AF動作優先の処理とな
る。
As a modification, the above step S54
In the subroutine "F mode processing" in step S56
It is also possible to have a routine that calls a subroutine "MF processing" for performing the MF operation at. In this modification, the AF operation is prioritized during the standby processing.

【0051】上記メインルーチンでコールされるサブル
ーチン「Fモード処理」について、図14のフローチャ
ートによって説明する。まず、ステップS60におい
て、MF/AFスイッチ32のオンオフ状態をチェック
し、MF側がオンの場合、ステップS62にジャンプ
し、AF側がオンの場合、ステップS61に進む。該ス
テップS61では、近遠フォーカス用のMFスイッチ3
0,31の第1段階スイッチ30a、または、31aに
撮影者の指が接触しているかどうか、即ち、該スイッチ
のオンオフ状態をチェックする。そして、オンとなった
場合は、撮影者が現在AF動作中であるが、前記中抜
け,横切りによる合焦不安定等の状態が発生する可能性
があるとして一時的にMFモードとし、AFロックを行
うためにステップS62に進む。また、該スイッチ30
a、または、31aがオフである場合は、特に、MF動
作の必要はないとして、ステップS64に進む。
The subroutine "F mode processing" called in the main routine will be described with reference to the flowchart of FIG. First, in step S60, the on / off state of the MF / AF switch 32 is checked. If the MF side is on, the process jumps to step S62, and if the AF side is on, the process proceeds to step S61. In step S61, the MF switch 3 for near focus is used.
It is checked whether the photographer's finger is in contact with the 0, 31 first stage switch 30a or 31a, that is, the on / off state of the switch. If it is turned on, the photographer is currently performing the AF operation, but the MF mode is temporarily set because there is a possibility that the incomplete focusing, unstable focusing due to crossing, etc. may occur, and the AF lock is performed. To perform step S62. Also, the switch 30
If a or 31a is off, it is determined that the MF operation is not necessary, and the process proceeds to step S64.

【0052】上記ステップS62においては、後述する
サブルーチン「MF処理」がコールされ、MF動作が実
行される。また、上記ステップS64では、後述するサ
ブルーチン「AF処理」がコールされ、AF動作が実行
される。その後、ステップS63において、現在の処理
がMF処理であるかAF処理であるかをEVF27に表
示して、本ルーチンを終了する。
In step S62, the subroutine "MF processing", which will be described later, is called and the MF operation is executed. Further, in step S64, a subroutine "AF process" described later is called and the AF operation is executed. After that, in step S63, the EVF 27 displays whether the current process is the MF process or the AF process, and the present routine ends.

【0053】上記メインルーチンのステップS54、ま
たは、サブルーチン「Fモード処理」のステップS62
でコールされるサブルーチン「MF処理」について、図
15のフローチャートによって説明する。まず、ステッ
プS70,71において、近,遠フォーカス用MFスイ
ッチの2段目スイッチ30b,31bのオンオフ状態を
チェックし、オンの場合は、それぞれステップS73、
または、74にジャンプし、フォーカスモータを近、ま
たは、遠合焦距離側に駆動する。その後、ステップS7
5に進む。また、該スイッチ30b,31bがオフの場
合は、ステップS72に進み、フォーカスモータを停止
してステップS75に進む。なお、従来のMF動作で
は、ステップS70から上記動作の範囲での動作が行わ
れていたが、本実施例のものでは、更に、引き続きステ
ップS75以下の処理が実行される。
Step S54 of the main routine or step S62 of the subroutine "F mode processing".
The subroutine "MF processing" called in step 1 will be described with reference to the flowchart of FIG. First, in steps S70 and 71, the on / off states of the second-stage switches 30b and 31b of the near and far focus MF switches are checked. If they are on, steps S73 and
Alternatively, it jumps to 74 and drives the focus motor to the near or far focus distance side. Then, step S7
Go to 5. If the switches 30b and 31b are off, the process proceeds to step S72, the focus motor is stopped, and the process proceeds to step S75. Note that, in the conventional MF operation, the operation within the above-described operation range is performed from step S70, but in the present embodiment, the processing of step S75 and subsequent steps is further executed.

【0054】即ち、ステップS75において、サブルー
チン「合焦エリア判定」がコールされる。この処理は、
例えば、前記図4に示す撮影画面40において、エリア
A〜Iについて合焦状態の評価値であるコントラスト情
報を比較し、もっとも合焦度合いの高いエリアの検出を
行う。この処理の詳細は後述する。その後、ステップS
76において、EVF27に上記合焦エリアを表示し
て、本ルーチンを終了する。
That is, in step S75, the subroutine "focus area determination" is called. This process
For example, on the photographing screen 40 shown in FIG. 4, the contrast information, which is the evaluation value of the in-focus state for the areas A to I, is compared, and the area with the highest in-focus degree is detected. Details of this processing will be described later. After that, step S
At 76, the focusing area is displayed on the EVF 27, and this routine ends.

【0055】次に、前記サブルーチン「Fモード処理」
でコールされるサブルーチン「AF処理」について、図
16のフローチャートによって説明する。まず、ステッ
プS81で自動追尾処理を行う。この処理は輝度情報,
色情報,画角情報に基づいて、前回のAF目標エリアに
対して追尾すべき今回のAF目標エリアの決定を追尾回
路28で行う処理である。前回の目標エリアは、MF動
作後においては、前記「MF処理」におけるステップS
75で決定されたエリアが採用される。なお、このステ
ップS81の処理の詳細は、図18により後で説明す
る。
Next, the above-mentioned subroutine "F mode processing"
The subroutine "AF processing" called in step S6 will be described with reference to the flowchart of FIG. First, in step S81, automatic tracking processing is performed. This process is the brightness information,
This is a process in which the tracking circuit 28 determines the current AF target area to be tracked with respect to the previous AF target area based on the color information and the angle of view information. After the MF operation, the previous target area is the step S in the above-mentioned “MF processing”.
The area determined in 75 is adopted. The details of the processing in step S81 will be described later with reference to FIG.

【0056】続いて、ステップS82において、上記ス
テップS81で決定された今回の目標エリアをEVF2
7に表示する。このとき、撮影者は、もし、自動追尾に
より自動選択されたエリアが意図しているエリアと異な
っているかどうかのチェックができる。そして、ステッ
プS83に進み、山登りAF処理を実行する。このAF
処理は、上記今回の目標エリアについてのAF評価値、
即ち、コントラスト情報の値に基づいて、そのピーク点
の検出が行われる。
Subsequently, in step S82, the EVF2 is set to the target area for this time determined in step S81.
Display on 7. At this time, the photographer can check whether the area automatically selected by the automatic tracking is different from the intended area. Then, the process proceeds to step S83, and the hill-climbing AF process is executed. This AF
Processing is the AF evaluation value for the target area this time,
That is, the peak point is detected based on the value of the contrast information.

【0057】図19は、フォーカスレンズ位置に対する
AF評価値の変化を示す特性線図であって、この線図に
より上記山登り処理動作を具体的に説明すると、上記図
19において、フォーカスレンズ4が、最初、位置Q1
にあったとすると、まず、AF評価値特性線の登りの方
向を確認し、AF評価値を取り込みながら該登り方向に
フォーカスレンズ4を駆動する。AF評価値のピーク点
Q2 を過ぎて、特性線が降下に転じたら、該ピーク点Q
2 を通過したと判断し、フォーカスレンズ4を戻り方向
に駆動する。そして、該ピーク点に到達したときのフォ
ーカスレンズ位置F2 を合焦位置として採用し、本ルー
チンを終了する。
FIG. 19 is a characteristic diagram showing a change in the AF evaluation value with respect to the focus lens position. The hill climbing processing operation will be specifically described with reference to this diagram. In FIG. First, position Q1
If so, first, the ascending direction of the AF evaluation value characteristic line is confirmed, and the focus lens 4 is driven in the ascending direction while taking in the AF evaluation value. When the characteristic line starts to fall after passing the peak point Q2 of the AF evaluation value, the peak point Q2
It is determined that the light has passed 2 and the focus lens 4 is driven in the return direction. Then, the focus lens position F2 when the peak point is reached is adopted as the focus position, and this routine is ended.

【0058】次に、上記図15のサブルーチン「MF処
理」でコールされるサブルーチン「合焦エリア判定」に
ついて、図17のフローチャートによって説明する。ま
ず、ステップS91において、例えば、前記図4に示す
撮影画面40を分割した各エリアA〜IのAF評価値を
取り込む。ステップS92でエリア面積による正規化を
行う。この処理は、例えば、図20の撮影画面40Aに
示すように中心を含むエリアがJとKのように異なる場
合、該評価値の比較ができないので基準の面積相当の評
価値に正規化する処理である。続いて、ステップS93
において各エリアに対するAF評価値を比較して最も高
い値を示すエリアを目標エリアとして指定して、本ルー
チンを終了する。
Next, the subroutine "focus area determination" called in the subroutine "MF processing" of FIG. 15 will be described with reference to the flowchart of FIG. First, in step S91, for example, the AF evaluation values of the areas A to I obtained by dividing the photographing screen 40 shown in FIG. In step S92, the area area is normalized. In this process, for example, when the area including the center is different from J to K as shown in the shooting screen 40A of FIG. 20, the evaluation values cannot be compared, and thus the evaluation value is normalized to an evaluation value corresponding to a reference area. Is. Then, step S93
In, the AF evaluation values for the respective areas are compared, the area showing the highest value is designated as the target area, and this routine ends.

【0059】次に、前記サブルーチン「AF処理」でコ
ールされるサブルーチン「自動追尾」の処理について、
図18のフローチャートによって説明する。ステップS
95,96において、今回の目標エリアの追尾情報であ
る輝度、および、色情報を取り込む。そして、ステップ
S97において、今回ズーム動作が行われた場合、その
画角変更に伴う上記追尾情報の補正を行う。この処理
は、例えば、図21の(A)の撮影画面40Bがズーミ
ング動作により図21の(B)の撮影画面40Cに変化
した場合、前記の目標エリア「G」上の被写体像は今回
の目標エリア「G′」に位置することになる。従って、
上記追尾情報も今回の目標エリア「G′」に対応するデ
ータを取り込む処理である。
Next, regarding the processing of the subroutine "automatic tracking" called in the subroutine "AF processing",
This will be described with reference to the flowchart of FIG. Step S
At 95 and 96, the luminance and color information, which is the tracking information of the target area this time, are fetched. Then, in step S97, when the zoom operation is performed this time, the tracking information is corrected according to the change in the angle of view. In this process, for example, when the shooting screen 40B of FIG. 21A is changed to the shooting screen 40C of FIG. 21B by the zooming operation, the subject image on the target area “G” is the current target. It will be located in area "G '". Therefore,
The tracking information is also a process for fetching data corresponding to the target area "G '" of this time.

【0060】続いて、ステップS98において、目標エ
リアにおいて今回の輝度、および、色情報が前回のそれ
らの情報と異なっているかどうかをチェックする。変化
がない場合はそのまま本ルーチンを終了する。変化があ
った場合、ステップS99に進み、前回の目標エリアの
輝度、および、色情報と、今回の目標エリアの周辺のエ
リアの輝度、および、色情報を比較する。そして、最も
相関性が高いと認められるエリアを新しい目標エリアと
して登録し、本ルーチンを終了する。
Subsequently, in step S98, it is checked whether or not the current brightness and color information in the target area is different from the previous information. When there is no change, this routine is finished as it is. If there is a change, the process proceeds to step S99 to compare the brightness and color information of the previous target area with the brightness and color information of the area around the current target area. Then, the area recognized as having the highest correlation is registered as a new target area, and this routine ends.

【0061】以上述べたように本実施例のカメラのフォ
ーカシング動作においては、図14のフローチャートに
示すように、AF撮影中に前記横切り等によりAF動作
の不安定状態を予想される場合、MFスイッチ30a、
または、31bを手で触れるだけで、フォーカスがロッ
クされ、AFによる不具合が避けられる。また、そのス
イッチへの接触を解放すると元のAF動作状態に戻るの
で、操作の煩雑性が改善される。
As described above, in the focusing operation of the camera of this embodiment, as shown in the flow chart of FIG. 14, when an unstable state of the AF operation is expected due to the transverse cut or the like during AF shooting, the MF switch is used. 30a,
Alternatively, by simply touching 31b with a hand, the focus is locked, and a defect due to AF can be avoided. Further, when the contact with the switch is released, the original AF operation state is restored, so that the complexity of the operation is improved.

【0062】また、図15に示すように、MF処理にお
いて撮影者が意志をもってピント合わせした画面領域が
合焦エリアとして取り込まれるので、その後、AF動作
に切り換えられたとき、上記エリアがAFエリアとして
採用され、撮影者の意志を反映したAF動作が可能とな
る。また、上記合焦エリアはEVF27に表示されるの
で、操作の間違いも直ちに検知できる。
Further, as shown in FIG. 15, the screen area that the photographer has intentionally focused on in the MF processing is taken in as the focus area. Therefore, when the AF operation is subsequently switched to, the area becomes the AF area. This is adopted, and AF operation that reflects the will of the photographer is possible. Further, since the focusing area is displayed on the EVF 27, an operation error can be immediately detected.

【0063】更に、図18に示すように自動追尾処理に
おいても、MF処理で得られた合焦エリアの合焦情報が
AF動作に切り換えた後の自動追尾の対象エリアを決定
する場合に使用されるので、簡単な構成の装置でしかも
簡単な操作で的確に被写体を捕らえることが可能となる
ものである。
Further, as shown in FIG. 18, also in the automatic tracking process, the focusing information of the focusing area obtained by the MF process is used to determine the target area of the automatic tracking after switching to the AF operation. Therefore, it is possible to accurately capture the subject with a device having a simple configuration and a simple operation.

【0064】本実施例のビデオカメラのズームトラッキ
ング制御においては、前述した従来の特願平4―288
921号のカメラのズームトラッキング制御方式による
ズームトラッキングカーブ上の実際値と設計値の差を
「WT間補正演算」処理によって求め、その後、演算基
準値を求めてフォーカスレンズのトラッキング駆動が行
われる。そして、上記「WT間補正演算」を行うには、
図5に示す実際値トラッキングカーブLPbに対してカ
ーブのW端,T端点が一致する設計値カーブLTaを想
定し、更に、上記カーブLPbとLTaの差の値の最大
値が必要となる。従って、上記実際値トラッキングカー
ブを個々の製品の被検レンズ56(図2参照)となる第
1群レンズ1,ズームレンズ2,第3レンズ群3,フォ
ーカスレンズ4、および、撮像素子であるCCD5の撮
影光学系について測定することが必要となってくる。
In the zoom tracking control of the video camera of this embodiment, the above-mentioned conventional Japanese Patent Application No. 4-288 is used.
The difference between the actual value and the design value on the zoom tracking curve according to the zoom tracking control system of the camera of No. 921 is calculated by the "WT correction calculation" process, and then the calculation reference value is calculated to perform the tracking drive of the focus lens. Then, in order to perform the “WT correction calculation”,
Assuming a design value curve LTa in which the W end and the T end point of the curve match the actual value tracking curve LPb shown in FIG. 5, and further, the maximum value of the difference between the curves LPb and LTa is required. Therefore, the above-mentioned actual value tracking curve is used as the lens 56 to be inspected (see FIG. 2) of each product, namely, the first lens group 1, the zoom lens 2, the third lens group 3, the focus lens 4, and the CCD 5 which is the image sensor. It becomes necessary to measure the photographic optical system of.

【0065】次に、その撮影光学系の実際値トラッキン
グカーブを個々の製品毎に実測する撮像素子装着位置補
正方式の1つを説明する。該補正方式の概要から説明す
ると、まず、図22に示すような計測手段であるコリメ
ータ装置等により各ズーム位置でのフォーカスレンズの
ベストピント位置を測定する。即ち、撮像素子であるC
CD5を装着せず、CCD5結像面と等価位置にコリメ
ータのミラー面を配した状態で、上記被検レンズ56を
上記コリメータに装着し、各ズーム位置(W端,焦点距
離f(s)の位置,T端)でフォーカスレンズ4を進退
駆動してフォーカスレンズのベストピント位置XA ,X
C ,XB (図23のズーム倍率に対するベストピント位
置の測定値線LX を示す図を参照)を測定する。なお、
上記焦点距離f(s)のズーム位置は、実際値ずれ量最
大を示すズーム標準位置とする。一方、実際上はCCD
5の結像面の位置のバラツキ(0.2〜0.3mm程
度)があり、その影響を補正する必要がある。そこで、
被検レンズ56にCCD5を装着した後に上記W端のズ
ーム位置でのフォーカスレンズのベストピント位置 X
A ′(図23参照)を測定する。この測定は、映像信号
中の合焦度合いを示すコントラスト情報を測定すること
によって行う。
Next, one of the image pickup device mounting position correction methods for measuring the actual value tracking curve of the photographing optical system for each individual product will be described. To explain from the outline of the correction method, first, the best focus position of the focus lens at each zoom position is measured by a collimator device or the like as a measuring means as shown in FIG. That is, the image pickup device C
The lens 56 to be inspected is attached to the collimator in a state where the mirror surface of the collimator is arranged at the position equivalent to the image plane of the CCD 5 without mounting the CD 5, and the zoom position (W end, focal length f (s) The focus lens 4 is moved back and forth at the position, T end) to move the focus lens to the best focus position XA, X
C and XB (see the figure showing the measurement line LX at the best focus position with respect to the zoom magnification in FIG. 23) are measured. In addition,
The zoom position of the focal length f (s) is the zoom standard position that shows the maximum actual value deviation amount. On the other hand, in reality CCD
There is a variation in the position of the image plane of No. 5 (about 0.2 to 0.3 mm), and it is necessary to correct the influence. Therefore,
The best focus position X of the focus lens at the zoom position at the W end after the CCD 5 is attached to the lens 56 to be inspected.
Measure A ′ (see FIG. 23). This measurement is performed by measuring contrast information indicating the degree of focusing in the video signal.

【0066】そして、上記位置XA と XA ′の差によ
り位置XC ,XB を補正し、CCD5を装着したときの
ベストピント位置 XA ′,XC ′,XB ′、または、
XC″,XB ″を求める。これらの位置を結ぶ線 LX
′、または、LX ″が上記被検レンズ56とCCD5
の組み合わせ状態の実際値トラッキングカーブ を与え
ることになる。
The positions XC and XB are corrected by the difference between the positions XA and XA ', and the best focus positions XA', XC ', XB' when the CCD 5 is mounted, or
Find XC ", XB". Line connecting these positions LX
′ Or LX ″ is the lens 56 to be inspected and the CCD 5
The actual value tracking curve of the combination state of will be given.

【0067】上記測定装置、および、測定方法につい
て、詳細に説明する。図22は、上記コリメータ装置の
配置図であって、該装置は、主に投光部と受光部と結像
部とで構成され、受光部前面に被検レンズ56を配設す
る。上記投光部においては、光源部51とその前面部に
上記検出用チャート52が∞対応位置に配設され、上記
光源部51の射出光はコリメータレンズ部55を介し
て、前記被検レンズ56に平行光として射出される。被
検レンズ56からの光は、ミラー部57のミラー面57
aに結像する。その反射光が被検レンズ56を介してコ
リメータレンズを通り、ハーフミラー58で反射して、
上記受光部に入射する。該入射光は、該受光部の無限遠
対応位置に配設された振動チャート53を透過してCD
S54に照射される。上記CDS54の出力は、上記ミ
ラー面57aにベストピント像が結像したとき最大値を
示す。
The above measuring device and measuring method will be described in detail. FIG. 22 is a layout view of the collimator device. The device is mainly composed of a light projecting portion, a light receiving portion, and an image forming portion, and a lens 56 to be inspected is arranged in front of the light receiving portion. In the light projecting section, the light source section 51 and the detection chart 52 are arranged at the position corresponding to ∞ on the front surface section thereof, and the light emitted from the light source section 51 passes through the collimator lens section 55 and the test lens 56. Is emitted as parallel light. The light from the lens 56 to be inspected is reflected by the mirror surface 57 of the mirror unit 57.
Form an image on a. The reflected light passes through the collimator lens through the lens under test 56 and is reflected by the half mirror 58,
It is incident on the light receiving unit. The incident light passes through the vibration chart 53 arranged at the position corresponding to infinity of the light receiving portion and passes through the CD.
It is irradiated to S54. The output of the CDS 54 shows the maximum value when the best focus image is formed on the mirror surface 57a.

【0068】上記コリメータ装置により、前記フォーカ
スレンズのベストピント位置が測定された後、CCD5
を被検レンズ56の所定の組み付け位置に装着し、ズー
ムW端でのベストピント位置を測定するが、それらの動
作について図23の測定値線図と図24の測定処理のフ
ローチャートによって詳しく説明する。
After the best focus position of the focus lens is measured by the collimator device, the CCD 5
Is attached to a predetermined assembly position of the lens 56 to be inspected, and the best focus position at the zoom W end is measured. The operation thereof will be described in detail with reference to the measurement value diagram of FIG. 23 and the flowchart of the measurement process of FIG. .

【0069】まず、ステップS101,102におい
て、CCD5を装着しない状態の被検レンズ56をコリ
メータ装置に装着し、ズームレンズ2をW端位置に移動
させる。ステップS103において、フォーカスレンズ
4を進退せしめ、フォーカスレンズのベストピント位置
XA を求める。ステップS104,S105でズームレ
ンズ2をT端位置に移動させ、フォーカスレンズ4を進
退せしめ、結像面57a上の結像がベストピントになる
フォーカスレンズのベストピント位置XB を求める。更
に、ステップS106,S107でズームレンズ2を焦
点距離f(s)位置に移動させ、フォーカスレンズ4を
進退せしめ、フォーカスレンズのベストピント位置XC
を求める。上記の処理により図23に示すコリメータ測
定上のベストピント位置カーブLX が求められる。ま
た、この場合、結像面57aの位置は不変であり、図2
3では、結像面位置を示す線Yで示される。
First, in steps S101 and S102, the lens to be inspected 56 with the CCD 5 not attached is attached to the collimator device, and the zoom lens 2 is moved to the W end position. In step S103, the focus lens 4 is moved back and forth to obtain the best focus position XA of the focus lens. In steps S104 and S105, the zoom lens 2 is moved to the T end position, the focus lens 4 is moved back and forth, and the best focus position XB of the focus lens where the image formation on the image formation surface 57a is best focused is obtained. Further, in steps S106 and S107, the zoom lens 2 is moved to the focal length f (s) position, the focus lens 4 is moved back and forth, and the best focus position XC of the focus lens is set.
Ask for. By the above processing, the best focus position curve LX in collimator measurement shown in FIG. 23 is obtained. Further, in this case, the position of the image plane 57a is unchanged, and
In FIG. 3, the line Y indicates the image plane position.

【0070】続いて、ステップS108において、被検
レンズ56にCCD5を装着する。ステップS109に
てチャート52,53を∞対応位置に取り付ける。そし
て、ステップS110,111において、ズームレンズ
2をW端位置に移動させる。そして、フォーカスレンズ
を進退せしめて、CCD5の撮像信号のコントラスト情
報に基づいてベストピント位置 XA ′を求める。な
お、図23に示すように、このベストピント位置 XA
′と上記結像面57aによるベストピント位置XA の
差を補正値xとする。結像面位置の変化を示す線Y′
は、CCD5が、実際、装着された位置を示す線を示す
ことになる。
Succeedingly, in a step S108, the CCD 5 is attached to the lens 56 to be inspected. In step S109, the charts 52 and 53 are attached to the infinity corresponding positions. Then, in steps S110 and 111, the zoom lens 2 is moved to the W end position. Then, the focus lens is moved back and forth, and the best focus position XA 'is obtained based on the contrast information of the image pickup signal of the CCD 5. As shown in FIG. 23, this best focus position XA
'And the difference between the best focus position XA due to the image plane 57a is defined as the correction value x. Line Y'indicating a change in image plane position
Will show a line indicating the position where the CCD 5 is actually mounted.

【0071】ステップS112において、上記補正値x
に基づいて、他のズーム位置での補正されたベストピン
ト位置を与えるカーブとして、差の値xだけ平行移動し
た位置 XB ′、位置 XC ′を与え、それらの点を通
る LX ′が得られる。ここで、このカーブLX ′ に
ついては、更に、精度のよいカーブに変換することがで
きる。より精度のよいベストピント補正量xと、結像面
のずれ量yの関係式は次式で示される。即ち、 x=y/αn …………………(3) となる。ここで、値αn は、各ズームレンズ位置に対応
する係数であって、W端ではαW 、T端ではαT 、焦点
距離f(s)位置ではαS が与えられる。なお、この値
は、同種の撮影レンズ同士ではそれぞれ一定と見做して
良い。
In step S112, the correction value x
Based on the above, as a curve giving the corrected best focus position at other zoom positions, the position XB 'and the position XC' translated by the difference value x are given, and LX 'passing through these points is obtained. Here, the curve LX 'can be converted into a more accurate curve. A more accurate relational expression between the best focus correction amount x and the image plane deviation amount y is given by the following equation. That is, x = y / αn (3) Here, the value αn is a coefficient corresponding to each zoom lens position, and αW is given at the W end, αT is given at the T end, and αS is given at the focal length f (s) position. It should be noted that this value may be considered to be constant between taking lenses of the same type.

【0072】W端ではベストピント補正量xが実測によ
り位置差 XA −XA ′で与えられており、T端でのベ
ストピント補正量は、y/αT で与えられる。その値
は、式(3)より、 y/αT =(αW /αT )×x …………………(4) として求められる。一方、焦点距離f(s)位置でのベ
ストピント補正量は、y/αS で与えられ、その値は式
(3)より、 y/αS =(αW /αS )×x …………………(5) により求められる。
At the W end, the best focus correction amount x is given by the position difference XA-XA 'by actual measurement, and the best focus correction amount at the T end is given by y / αT. The value is calculated from the equation (3) as y / αT = (αW / αT) × x (4). On the other hand, the best focus correction amount at the position of the focal length f (s) is given by y / αS, and the value is expressed by the formula (3) as follows: y / αS = (αW / αS) × x ...... ... (5)

【0073】そして、W端,T端,焦点距離f(s)に
おけるベストピント補正位置XA ′,XB ″,XC ″
(図23参照)はそれぞれ、 XA ′=XA + x ………………(6) XB ″=XB +(αW /αT )×x ………………(7) XC ″=XC +(αW /αS )×x ………………(8) によって求められる。これらの演算は前記ステップS1
12にて行われ、本ルーチンを終了する。そして、上記
測定、および、演算により求められたトラッキングカー
ブの設計値に対する補正データは、図2のブロック図に
示すメモリ15に書き込まれる。なお、上記ベストピン
ト補正位置を示すカーブは図23のカーブ LX ″で示
される。また、該図23に示される曲線Y″はベストピ
ント位置カーブLX を値xだけ平行移動したときのベス
トピントを与える結像位置のカーブを示している。
Then, the best focus correction positions XA ', XB ", XC" at the W end, the T end and the focal length f (s).
(See FIG. 23) are respectively XA '= XA + x ...... (6) XB ″ = XB + (αW / αT) × x ………… (7) XC ″ = XC + ( αW / αS) × x ……………… (8) These calculations are performed in step S1.
This routine is finished at step S12. Then, the correction data for the design value of the tracking curve obtained by the above measurement and calculation is written in the memory 15 shown in the block diagram of FIG. The curve indicating the best focus correction position is shown by the curve LX ″ in FIG. 23. Further, the curve Y ″ shown in FIG. 23 is the best focus when the best focus position curve LX is translated by the value x. The curve of the image formation position to give is shown.

【0074】以上述べたように本例の実際値トラッキン
グカーブLX ′,LX ″を実測する撮像素子装着位置補
正方式によると、まず、コリメータ装置によってW端,
T端,焦点距離f(s)でのフォーカスレンズ4のベス
トピント位置を実測し、その後、CCD5を装着した状
態で少なくともW端1点のみのベストピント位置を実測
し、他のT端,焦点距離f(s)でのベストピント位置
は、上記実測結果に基づいて演算により求めるようにし
たので、CCD5装着状態での測定回数が少なくなり、
測定工数の削減が可能になる。また、上記のようにCC
D5を装着した状態での測定が少ないことから、塵埃等
がCCD結像面に付着する機会を減らすことができる。
更に、CCD5を静電気から保護することに有利となる
などの特徴を有している。
As described above, according to the image pickup element mounting position correction method for actually measuring the actual value tracking curves LX 'and LX "of the present embodiment, first, the collimator device detects the W end,
The best focus position of the focus lens 4 at the T end and the focal length f (s) is measured, and then the best focus position of at least one point at the W end is measured with the CCD 5 mounted, and the other T end and the focus are measured. Since the best focus position at the distance f (s) is calculated based on the above-mentioned actual measurement result, the number of measurements with the CCD 5 attached is reduced,
It is possible to reduce the measurement man-hours. Also, as described above, CC
Since the number of measurements with the D5 attached is small, it is possible to reduce the chance of dust and the like adhering to the CCD image forming surface.
Further, it is advantageous in protecting the CCD 5 from static electricity.

【0075】[0075]

【発明の効果】上述したように本発明のカメラによる
と、フォーカスレンズ適正位置の実際値に対応する距離
情報をズームトラッキング演算により求め、必要に応じ
て正確な被写体距離情報を得ることが可能なる。
As described above, according to the camera of the present invention, it is possible to obtain the distance information corresponding to the actual value of the proper position of the focus lens by the zoom tracking calculation, and obtain the accurate object distance information as needed. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のビデオカメラの主要構成を
示す図。
FIG. 1 is a diagram showing a main configuration of a video camera according to an embodiment of the present invention.

【図2】上記図1のビデオカメラのカメラ部のブロック
構成図。
FIG. 2 is a block diagram of a camera section of the video camera shown in FIG.

【図3】上記図1のビデオカメラのAF制御ブロック構
成図。
3 is an AF control block configuration diagram of the video camera of FIG.

【図4】上記図1のビデオカメラの撮影画面の分割エリ
アを示す図。
FIG. 4 is a diagram showing divided areas of a shooting screen of the video camera shown in FIG.

【図5】上記図1のビデオカメラの説明に用いるズーム
トラッキングカーブの一例を示す図。
5 is a diagram showing an example of a zoom tracking curve used to describe the video camera shown in FIG.

【図6】上記図1のビデオカメラの距離情報演算処理の
フローチャート。
6 is a flowchart of distance information calculation processing of the video camera of FIG.

【図7】上記図6の距離情報演算処理でコールされる演
算基準値の演算処理のフローチャート。
7 is a flowchart of a calculation process of a calculation reference value called in the distance information calculation process of FIG.

【図8】上記図6の距離情報演算処理でコールされるズ
ームトラッキング演算のフローチャート。
8 is a flowchart of zoom tracking calculation called in the distance information calculation process of FIG.

【図9】上記図7の演算基準値の演算処理の変形例を示
すフローチャート。
9 is a flowchart showing a modified example of the calculation processing of the calculation reference value in FIG.

【図10】上記図8のズームトラッキング演算処理の変
形例を示すフローチャート。
10 is a flowchart showing a modified example of the zoom tracking calculation process of FIG.

【図11】上記図7の演算基準値の演算処理の別の変形
例を示すフローチャート。
11 is a flowchart showing another modified example of the calculation processing of the calculation reference value in FIG.

【図12】上記図8のズームトラッキング演算処理の別
の変形例を示すフローチャート。
FIG. 12 is a flowchart showing another modification of the zoom tracking calculation process of FIG.

【図13】本実施例のカメラの撮影メインルーチンのフ
ローチャート。
FIG. 13 is a flowchart of a shooting main routine of the camera of this embodiment.

【図14】上記図13に示されるメインルーチンでコー
ルされるサブルーチン「Fモード処理」のフローチャー
ト。
14 is a flowchart of a subroutine "F mode processing" called in the main routine shown in FIG.

【図15】上記図13に示されるメインルーチンでコー
ルされるサブルーチン「MF処理」のフローチャート。
15 is a flowchart of a subroutine "MF processing" called in the main routine shown in FIG.

【図16】上記図14に示されるサブルーチン「Fモー
ド処理」でコールされるサブルーチン「AF処理」のフ
ローチャート。
16 is a flowchart of a subroutine "AF processing" called in the subroutine "F mode processing" shown in FIG.

【図17】上記図15に示されるサブルーチン「MF処
理」でコールされるサブルーチン「合焦エリア判定」の
フローチャート。
17 is a flowchart of a subroutine "focus area determination" called in the subroutine "MF processing" shown in FIG.

【図18】上記図16に示されるサブルーチン「AF処
理」でコールされるサブルーチン「自動追尾」のフロー
チャート。
18 is a flowchart of a subroutine "automatic tracking" called in the subroutine "AF processing" shown in FIG.

【図19】上記図16のサブルーチン「AF処理」での
山登りAF処理動作に用いられるAF評価値の特性線
図。
FIG. 19 is a characteristic diagram of an AF evaluation value used in the hill-climbing AF processing operation in the subroutine “AF processing” in FIG. 16 described above.

【図20】上記図17のサブルーチン「合焦エリア判
定」処理における対象撮影エリアの変化状態を示す図。
FIG. 20 is a diagram showing a change state of a target photographing area in the subroutine “focus area determination” processing of FIG.

【図21】上記図18のサブルーチン「自動追尾」処理
における対象撮影エリアの変化状態を示す図であって、
(A)はテレ状態、(B)はワイド状態での撮影画面の
分割エリアを示す図。
FIG. 21 is a diagram showing a change state of the target photographing area in the subroutine “automatic tracking” process of FIG.
FIG. 6A is a diagram showing a divided area of a shooting screen in a tele state and FIG.

【図22】本実施例のビデオカメラの実際値トラッキン
グカーブを実測するためのコリメータ装置の配置図。
FIG. 22 is a layout diagram of a collimator device for actually measuring an actual value tracking curve of the video camera of the present embodiment.

【図23】上記図22のコリメータ装置で測定されるト
ラッキングカーブ。
23 is a tracking curve measured by the collimator device of FIG. 22.

【図24】上記図22のコリメータ装置によりトラッキ
ングカーブを実測する処理のフローチャート。
24 is a flowchart of a process of actually measuring a tracking curve by the collimator device of FIG. 22.

【図25】従来のビデオカメラのズームトラッキング制
御に用いられるトラッキングカーブの一例。
FIG. 25 is an example of a tracking curve used for zoom tracking control of a conventional video camera.

【図26】上記図25のトラッキングカーブの一部を抜
きだして示した図。
FIG. 26 is a diagram showing a part of the tracking curve shown in FIG. 25.

【図27】上記図25の設計値トラッキングカーブのレ
ンジを示す図。
27 is a diagram showing a range of the design value tracking curve in FIG. 25.

【図28】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブと実際値トラ
ッキングカーブとを示した図。
FIG. 28 is a diagram showing a design value tracking curve and an actual value tracking curve used for zoom tracking control of a conventional video camera.

【図29】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブに対して、ワ
イド端とテレ端とを一致させた実際値トラッキングカー
ブを示す図。
FIG. 29 is a diagram showing an actual value tracking curve in which a wide end and a tele end are matched with a design value tracking curve used for zoom tracking control of a conventional video camera.

【図30】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブと、ワイド端
とテレ端が一致させた実際値トラッキングカーブのうち
の一組を示した図。
FIG. 30 is a diagram showing a set of a design value tracking curve used for zoom tracking control of a conventional video camera and an actual value tracking curve in which the wide end and the tele end are matched.

【符号の説明】[Explanation of symbols]

15 …………………………ズームトラッキングデータ
保有手段 7 …………………………ズームトラッキング制御ブロ
ック(ズームトラッキングデータを補正する補正手段、
実際値に対応する距離を算出する演算手段) ステップS1〜S7…………ズームトラッキングデータ
を補正する補正手段 ステップS8…………………実際値に対応する距離を算
出する演算手段 LT,LTa、LTb,LT1 ,LT2 ,LT∞………
…………設計値トラッキングカーブ(設計値としてのト
ラッキングデータ) FS0 …………………実際値トラッキングカーブ上の
フォーカスレンズ位置(フォーカスレンズの適正位置の
実際値)
15 ………………………… Zoom tracking data holding means 7 ………………………… Zoom tracking control block (correction means for correcting zoom tracking data,
Arithmetic means for calculating the distance corresponding to the actual value) Steps S1 to S7 ......... Correction means for correcting the zoom tracking data Step S8 ……………… Calculation means LT for calculating the distance corresponding to the actual value LT, LTa, LTb, LT1, LT2, LT∞ ...
………… Design value tracking curve (tracking data as design value) FS0 …………………… Actual value Focus lens position on the tracking curve (actual value of proper focus lens position)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G02B 7/28 (72)発明者 石井 敦次郎 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 佐藤 政雄 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification number Reference number within the agency FI Technical indication location G02B 7/28 (72) Inventor Atsujiro Ishii 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Inside Optical Industry Co., Ltd. (72) Inventor Masao Sato 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Industry Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】被写体距離一定の下に当該ズームレンズの
倍率が変化するとき合焦状態を維持するための当該フォ
ーカシングレンズの適正位置の設計値としてのズームト
ラッキングデータを保有するズームトラッキングデータ
保有手段と、 被写体距離一定の下に上記ズームレンズの倍率が変化す
るとき合焦状態を維持するための上記フォーカシングレ
ンズの適正位置の実際値を上記ズームトラッキングデー
タ保有手段で保有されるズームトラッキングデータを基
礎とする所定の補正演算により算出する補正手段と、 上記補正手段により算出されたフォーカシングレンズの
適正位置の実際値に対応する被写体距離を算出する演算
手段と、 を備えたことを特徴とするカメラ。
1. A zoom tracking data holding means for holding zoom tracking data as a design value of an appropriate position of the focusing lens for maintaining a focused state when the magnification of the zoom lens changes under a constant object distance. Based on the zoom tracking data held by the zoom tracking data holding means, the actual value of the proper position of the focusing lens for maintaining the in-focus state when the magnification of the zoom lens changes when the subject distance is constant. A camera comprising: a correction unit that calculates by a predetermined correction calculation, and a calculation unit that calculates a subject distance corresponding to the actual value of the proper position of the focusing lens calculated by the correction unit.
JP5001369A 1993-01-07 1993-01-07 Camera Pending JPH06205260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5001369A JPH06205260A (en) 1993-01-07 1993-01-07 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5001369A JPH06205260A (en) 1993-01-07 1993-01-07 Camera

Related Child Applications (4)

Application Number Title Priority Date Filing Date
JP32146593A Division JP3415234B2 (en) 1993-12-21 1993-12-21 camera
JP32146793A Division JP3415235B2 (en) 1993-12-21 1993-12-21 camera
JP32146493A Division JP3415233B2 (en) 1993-12-21 1993-12-21 Image sensor mounting position correction method
JP5321466A Division JPH06205261A (en) 1993-11-01 1993-12-21 Camera

Publications (1)

Publication Number Publication Date
JPH06205260A true JPH06205260A (en) 1994-07-22

Family

ID=11499585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5001369A Pending JPH06205260A (en) 1993-01-07 1993-01-07 Camera

Country Status (1)

Country Link
JP (1) JPH06205260A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624851B1 (en) 1996-05-17 2003-09-23 Sanyo Electric Co., Ltd. Automatic focusing device of image pickup device and method of correcting zoom tracking curve
KR100605546B1 (en) * 2004-07-30 2006-07-28 주식회사 비젼아이트 How to adjust the offset on the camera
US7391462B2 (en) 2001-08-09 2008-06-24 Matsushita Electric Industrial Co., Ltd. Lens driving method for imaging device, imaging device and camera system
CN103747179B (en) * 2014-01-02 2017-08-22 深圳英飞拓科技股份有限公司 A kind of zoom tracking and system based on focusing evaluation of estimate feedback regulation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624851B1 (en) 1996-05-17 2003-09-23 Sanyo Electric Co., Ltd. Automatic focusing device of image pickup device and method of correcting zoom tracking curve
US7391462B2 (en) 2001-08-09 2008-06-24 Matsushita Electric Industrial Co., Ltd. Lens driving method for imaging device, imaging device and camera system
KR100605546B1 (en) * 2004-07-30 2006-07-28 주식회사 비젼아이트 How to adjust the offset on the camera
CN103747179B (en) * 2014-01-02 2017-08-22 深圳英飞拓科技股份有限公司 A kind of zoom tracking and system based on focusing evaluation of estimate feedback regulation

Similar Documents

Publication Publication Date Title
US7710491B2 (en) Optical equipment and its control method, and computer-readable storage medium
US7936371B2 (en) Image-taking apparatus having functions that automatically adjust parameters relating to image-taking, and control method of the image-taking apparatus
US6377305B2 (en) Image sensing apparatus
US7193651B2 (en) Camera system, lens apparatus and camera
JP2000131598A (en) Automatic focusing device
JP2001042207A (en) Electronic camera
US5802405A (en) Camera apparatus that can have the time for moving rear lens group reduced when powered
JP2003241074A (en) Automatic focusing device and camera system
JPH06205260A (en) Camera
JP3415235B2 (en) camera
JP2006065080A (en) Imaging device
JP3415233B2 (en) Image sensor mounting position correction method
JPH06205261A (en) Camera
JP3415234B2 (en) camera
KR101129385B1 (en) Zoom tracking method and image processing device executing the same
JP4060953B2 (en) Electronic camera
JP2004109864A (en) Imaging device and imaging system having the same
JP2009109792A (en) Autofocus device and camera using the same
JP2000131595A (en) Camera and focusing device
JP5610929B2 (en) Imaging device
JP2006215398A (en) Image pickup device
JP4599383B2 (en) Camera manufacturing method
JPH0783445B2 (en) Imaging device
JP4294257B2 (en) Camera, method of manufacturing camera, and focus correction adjustment apparatus
JPH06141220A (en) Camera

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030903