KR100711950B1 - Real-time tracking of objects of interest using hybrid optics and virtual zooming devices - Google Patents
Real-time tracking of objects of interest using hybrid optics and virtual zooming devices Download PDFInfo
- Publication number
- KR100711950B1 KR100711950B1 KR1020017002637A KR20017002637A KR100711950B1 KR 100711950 B1 KR100711950 B1 KR 100711950B1 KR 1020017002637 A KR1020017002637 A KR 1020017002637A KR 20017002637 A KR20017002637 A KR 20017002637A KR 100711950 B1 KR100711950 B1 KR 100711950B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- camera
- image
- zooming operation
- zoom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Lens Barrels (AREA)
Abstract
비디오 처리 시스템은 (i) 팬-틸트-줌(PTZ) 카메라와 (ii) 상기 카메라에 의해 발생된 영상의 가상 주밍의 하이브리드 결합을 사용하여 관심있는 물체를 트래킹한다. 상기 관심있는 물체(22-k)는 상기 카메라(18)에 의해 발생된 영상 (40)내에서 초기에 검출된다. 광학 주밍 동작(34)은 그다음에 상기 관심있는 물체 (22-k)를 프레이밍하기 위해 팬 및 틸트 세팅을 조절하고, 하나이상의 지정된 정지 기준이 만족될 때까지 상기 관심있는 물체(22-k) 상에서 줌 인 한다. 가상 주밍 동작(36)은 특정의 관심있는 영역(47)을 식별하고 추출하기 위해 상기 결과적인 광학적으로-주밍된 영상(44)을 처리하고, 그다음에, 가상으로-주밍된 영상(46)을 발생시키기 위해 상기 추출된 관심있는 영역을 보간한다. 상기 지정된 정지 기준은, 예를 들어, 상기 관심있는 물체(22-k)가 상기 결과적인 광학적으로-주밍된 영상의 고정된 또는 동적인 퍼센티지를 점유할 때까지 상기 광학 주밍을 계속된다는 것을 표시할 수 있다. The video processing system tracks an object of interest using a hybrid combination of (i) pan-tilt-zoom (PTZ) camera and (ii) virtual zooming of the image generated by the camera. The object of interest 22-k is initially detected within the image 40 generated by the camera 18. Optical zooming operation 34 then adjusts the pan and tilt settings to frame the object of interest 22-k, and on the object of interest 22-k until one or more specified stop criteria are satisfied. Zoom in. Virtual zooming operation 36 processes the resulting optically-zipped image 44 to identify and extract a particular region of interest 47, and then virtually-zipped image 46. Interpolate the extracted region of interest to generate. The specified stop criterion may indicate, for example, that the optical zooming continues until the object of interest 22-k occupies a fixed or dynamic percentage of the resulting optically-zipped image. Can be.
PTZ 카메라, 가상 주밍, 정지 기준PTZ camera, virtual zooming, stop criteria
Description
본 발명은 일반적으로 비디오 신호 처리 분야에 관한 것이며, 특히, 원하는 비디오 출력이 달성되도록 비디오 카메라를 사용하여 관심있는 사람이나 다른 물체들을 트래킹하기 위한 기술에 관한 것이다.FIELD OF THE INVENTION The present invention generally relates to the field of video signal processing, and more particularly to techniques for tracking people or other objects of interest using a video camera such that a desired video output is achieved.
관심있는 사람이나 다른 물체를 트래킹(tracking)하는 것은 비디오 회의 시스템과 비디오 감시 시스템과 같은 비디오 카메라에 기초한 시스템들의 중요한 측면이다. 예를 들어, 비디오 회의 시스템에서, 결과적인 출력 비디오 신호에서 특정 회의 참가자의 머리와 어깨를 프레이밍(frame)하는 것이 종종 바람직하며, 반면에 비디오 감시 시스템에서는, 상기 시스템에 의해 감시되는 제한된 영역에 들어오거나 나가는, 예를 들어, 어떤 사람의 전체적 신체를 프레이밍하는 것이 바람직할 수 있다.Tracking people or other objects of interest is an important aspect of video camera based systems such as video conferencing systems and video surveillance systems. For example, in a video conferencing system, it is often desirable to frame the head and shoulders of a particular conference participant in the resulting output video signal, while in a video surveillance system, it may be necessary to enter a restricted area monitored by the system. It may be desirable to frame the whole body of a person coming or going, for example.
상기 시스템들은 관심있는 물체의 트래킹을 수행하기 위해 2개의 구별되는 접근법들 중 하나를 일반적으로 이용한다. 제 1 접근법은 상기 트래킹 임무를 수행하기 위해 상기 시스템이 위치를 잡고 상기 카메라를 광학적으로 주밍하도록 허용하는 팬-틸트-줌(pan-tilt-zoom)(PTZ) 카메라를 사용한다. 상기 접근법과 관련된 문제는, 몇몇 경우에서, 상기 트래킹 장치는 관심있는 물체의 위치의 급격한 변화에 충분히 강하지 않다는 것이다. 이것은 상기 카메라가 상기 급격한 변화에 반응하기에는 너무 멀리 종종 주밍-인(zoom-in)되고 있다는 사실에 기인할 수 있다. 예를 들어, 비디오 회의 시스템에서 참가자가 자신의 좌석에서, 예를 들어, 앞쪽이나 뒤쪽으로 또는 한쪽이나 다른 쪽으로 기대기 위해 움직이는 것은 흔한일이다. PTZ 카메라가 특정 참가자상에서 너무 멀리 주밍-인 된다면, 참가자의 상대적으로 작은 움직임은 상기 PTZ 카메라가 상기 참가자를 트래킹하지 못하게 하며, 상기 결과적인 출력 비디오 신호의 시청자에게 혼란을 주게 될 주밍-아웃과 재-트래킹(re-track)을 필요로 하게 한다.The systems generally use one of two distinct approaches to perform tracking of an object of interest. The first approach uses a pan-tilt-zoom (PTZ) camera that allows the system to position and optically zoom the camera to perform the tracking task. The problem associated with this approach is that in some cases the tracking device is not strong enough to abruptly change the position of the object of interest. This may be due to the fact that the camera is often zoomed-in too far to respond to the sudden change. For example, in a video conferencing system, it is common for a participant to move out of their seat, for example, to lean forward or backward, or to one side or the other. If the PTZ camera is zoomed in too far on a particular participant, the relatively small movement of the participant will prevent the PTZ camera from tracking the participant and will cause the viewer to confuse the viewer of the resulting output video signal. It requires re-tracking.
제 2 접근법은 가상 줌(Avirtual zoom) 또는 전자 줌(Aelectronic zoom )으로 언급된다. 상기 접근법에서, 하나 이상의 카메라들로부터의 비디오 정보는 전자적으로 처리되어서 관심있는 물체는 상기 물체가 어떤 특정 카메라의 시야의 중심에 있지 않을 수 있다는 사실에도 불구하고 상기 출력 비디오 신호내의 바람직한 구성에서 보이게 되도록 전자적으로 처리된다. U.S. 특허 제 5,187,574 호는 상기 접근법의 예를 개시하는데, 여기서 도착하는 손님의 영상은 감시 시스템의 고정된 텔레비젼 카메라에 의해 픽업된다. 상기 영상은 손님의 머리 부분이 항상 상기 모니터 스크린의 중앙에서 디스플레이되도록 보장하기 위해 검출, 추출 (extraction), 및 보간(interpolation) 동작을 사용하여 처리된다. 상기 접근법은 상기 비디오 출력이 팬(pan), 틸트(tilt), 또는 줌(zoom) 동작의 필요없이 바람직한 형태를 갖도록, 예를 들어, 관심있는 물체의 중심에 있도록 보장한다. 결과로서, 상기 접근법은 고정된 카메라로 동작할 수 있으며, 이것은 상기 언급된 PTZ 카메라보다 일반적으로 상당히 가격이 싸다. 그러나, 상기 접근법은 많은 응용들에서 요구되는 출력 영상 품질을 제공하지 못한다. 예를 들어, 상기 가상 주밍과 연관된 추출 및 보간 동작들은 결과적인 출력 비디오 신호에서 감소된 해상도와 영상 품질을 발생시키므로, 비디오 회의나 다른 유사한 응용들에서 적합하지 않을 수 있다.The second approach is virtual zoom Or Aelectronic zoom ). In this approach, video information from one or more cameras is processed electronically so that the object of interest is visible in the desired configuration in the output video signal despite the fact that the object may not be in the center of the field of view of any particular camera. It is processed electronically. US Pat. No. 5,187,574 discloses an example of this approach, wherein the image of the arriving guest is picked up by a fixed television camera of the surveillance system. The image is processed using detection, extraction, and interpolation operations to ensure that the guest's head is always displayed in the center of the monitor screen. The approach ensures that the video output has the desired shape, for example in the center of the object of interest, without the need for pan, tilt, or zoom operations. As a result, the approach can operate with a fixed camera, which is generally considerably cheaper than the PTZ cameras mentioned above. However, this approach does not provide the output image quality required for many applications. For example, extraction and interpolation operations associated with the virtual zooming may not be suitable in video conferencing or other similar applications as they result in reduced resolution and image quality in the resulting output video signal.
상기로부터 분명한 바와 같이, 상기 가상 줌 접근법의 유연성뿐만 아니라 상기 PTZ 카메라 접근법과 연관된 상기 출력 비디오 신호 품질 및 해상도를 제공할 수 있는 개선된 트래킹 기술을 위한 필요가 존재하지만, 반면에 상기 접근법들과 일반적으로 연관된 문제들을 회피하기 위한 필요도 존재한다.As is evident from the above, there is a need for an improved tracking technique that can provide the output video signal quality and resolution associated with the PTZ camera approach as well as the flexibility of the virtual zoom approach, while the approaches and general There is also a need to avoid related problems.
본 발명은 (i) 팬-틸트-줌(PTZ) 카메라에 의한 광학 주밍과, (ii) 상기 카메라에 의해 발생된 영상의 가상 주밍의 하이브리드 결합을 사용하여, 비디오 처리 시스템내에 관심있는 물체의 실시간 트래킹을 위한 방법 및 장치를 제공하는 것이다. 본 발명의 예시적인 실시예에서, 관심있는 물체는 상기 카메라에 의해 발생된 영상에서 초기에 검출된다. 광학 주밍 동작은 그다음에 관심있는 물체를 프레이밍하기 위해 팬 및 틸트 세팅을 조절하고 하나이상의 지정된 정지 기준(stopping criteria)이 맞추어질때까지 관심있는 물체내에서 주밍한다. 가상 주밍 동작은 관심있는 특정 영역을 식별하고 추출하기 위해 상기 결과적인 광학적으로 주밍된 영상을 처리하고, 그다음에 가상으로 주밍된 영상을 발생시키기 위해 관심있는 추출된 영역을 보간한다.The present invention utilizes a hybrid combination of (i) optical zooming with a pan-tilt-zoom (PTZ) camera and (ii) virtual zooming of images generated by the camera, thereby real-time the object of interest in the video processing system. It is to provide a method and apparatus for tracking. In an exemplary embodiment of the invention, the object of interest is initially detected in the image generated by the camera. The optical zooming operation then adjusts the pan and tilt settings to frame the object of interest and zooms in the object of interest until one or more specified stopping criteria are met. The virtual zooming operation processes the resulting optically zoomed image to identify and extract a particular region of interest, and then interpolates the extracted region of interest to generate a virtually zoomed image.
본 발명의 한 측면에 따라, 상기 지정된 정지 기준은, 예를 들어, 관심있는 물체가 상기 결과적인 광학적으로 주밍된 영상의 고정된 또는 동적인 퍼센티지 (percentage)를 점유할 때까지 상기 광학 주밍은 계속된다는 것을 표시할 수 있다. 동적 퍼센티지의 경우에, 상기 퍼센티지는 관심있는 물체와 연관된 검출된 품질의 함수로서 변할 수 있다. 상기 검출된 품질들의 실시예들은 분명한 움직임의 레벨, 특정 가청(audibly)-검출가능한 키워드 또는 다른 단서의 사용, 및 세기, 피치 또는 다른 음성 품질의 변화를 포함한다.According to one aspect of the invention, the specified stop criteria is such that the optical zooming continues until the object of interest occupies a fixed or dynamic percentage of the resulting optically zoomed image, for example. Can be displayed. In the case of a dynamic percentage, the percentage can vary as a function of the detected quality associated with the object of interest. Embodiments of the detected qualities include a certain level of movement, the use of certain audibly-detectable keywords or other cues, and changes in intensity, pitch or other voice quality.
본 발명의 다른 측면에 따라, 관심있는 물체의 움직임의 레벨이 제 1 지정된 임계값을 초과한다면, 상기 광학 주밍 동작에서 설치된 동일한 팬, 틸트, 및 줌 세팅을 사용하여, 상기 결과적인 광학적으로 주밍된 영상에서 반복될 수 있다. 관심있는 물체의 움직임의 레벨이 상기 제1 임계값보다 높은 제 2 지정된 임계값을 초과한다면, 상기 카메라에 대한 새로운 팬, 틸트, 및 줌 세팅을 설정하기 위해 상기 광학 주밍 동작 자체는 반복될 수 있다.According to another aspect of the present invention, if the level of movement of the object of interest exceeds a first specified threshold, the resultant optically zoomed using the same pan, tilt, and zoom settings installed in the optical zooming operation. Can be repeated in the image. If the level of movement of the object of interest exceeds a second specified threshold above the first threshold, the optical zooming operation itself may be repeated to set new pan, tilt, and zoom settings for the camera. .
본 발명의 상기 하이브리드 광학 및 가상 줌 장치는 종래의 접근법들에 대한 다수의 상당한 장점을 제공한다. 예를 들어, 상기 하이브리드 장치는 새로운 광학 팬, 틸트, 및 줌 세팅을 결정할 필요없이 관심있는 물체의 어떤 양의 움직임을 수용하며, 또한 바람직한 출력 영상 품질 레벨을 제공한다. 상기 PTZ 카메라가 너무 멀리 주밍 인 하는 것을 방지하여, 본 발명은 상기 PTZ 카메라 세팅이 덜 자주 조절되도록 보장하며, 그에 의해 상기 시스템 프로세서상의 계산상의 부하 (computational load)는 종래의 광학 줌 접근법에 의해 요구되는 것에 비하여 감소된다. 부가하면, 본 발명의 하이브리드 장치는 영상 전송을 위한 개선된 압축 속도를 제공한다. 본 발명의 상기 및 다른 특징들과 장점들은 첨부된 도면들과 다음의 상세한 설명에서 더 분명해질 것이다. The hybrid optical and virtual zoom device of the present invention provides a number of significant advantages over conventional approaches. For example, the hybrid device accommodates any amount of movement of the object of interest without having to determine new optical pan, tilt, and zoom settings, and also provides the desired output image quality level. By preventing the PTZ camera from zooming in too far, the present invention ensures that the PTZ camera settings are adjusted less frequently, whereby the computational load on the system processor is required by conventional optical zoom approaches. Reduced compared to the In addition, the hybrid device of the present invention provides an improved compression rate for image transmission. These and other features and advantages of the present invention will become more apparent from the accompanying drawings and the following detailed description.
도 1은 본 발명의 예시적인 실시예에 따른 비디오 처리 시스템의 블록도.1 is a block diagram of a video processing system according to an exemplary embodiment of the present invention.
도 2는 도 1의 시스템에서 이행된 하이브리드 실시간 트래킹 비디오 처리를 예시하는 기능 블록도.2 is a functional block diagram illustrating hybrid real time tracking video processing implemented in the system of FIG.
도 1은 본 발명의 예시적인 실시예에 따른 비디오 처리 시스템(10)을 도시한다. 상기 시스템(10)은 프로세서(12), 메모리(14), 입력/출력(I/O) 장치(15), 및 제어기(16)를 포함하며, 모두 시스템 버스(17)를 통해 통신하도록 접속되어 있다. 상기 시스템(10)은 더욱이 도시된 바와 같은 제어기(16)에 결합된 팬-틸트-줌 (PTZ) 카메라(18)를 포함한다. 상기 예시적인 실시예에서, 상기 PTZ 카메라(18)는 테이블(20)이 다수의 회의 참가자들(22-1,...,22-k,...,22-N)을 수용하는 비디오 회의 응용에서 이용된다. 동작에서, 상기 PTZ 카메라(18)는, 상기 프로세서(12)로부터 수신된 지시에 따라 상기 제어기(16)에 의해 관리되는 바와 같이, 상기 실시예 응용에서 특정 참가자(22-k)에 대응하는 관심있는 물체를 트래킹한다. 상기 PTZ는 도 2와 연결되어 아래에 더 상세히 기술된 하이브리드 광학 및 가상 주밍 장치를 사용하여 상기 실시간 트래킹 기능을 수행한다.1 illustrates a
본 발명이 비디오 회의의 응용의 맥락에서 예시될 것이지만, 상기 비디오 처리 시스템(10)은 다양한 종류의 다른 응용들에서 사용될 수 있다는 것이 이해되어야 한다. 예를 들어, 상기 시스템(10)의 부분(24)은 비디오 감시 응용들, 및 다른 형식의 비디오 회의 응용들, 예를 들어, 의회같은 좌석 배열, 원형 또는 직사각형 테이블 배열들을 포함하는 응용들에서 사용될 수 있다. 더 일반적으로, 시스템(10)의 상기 부분(24)은 하이브리드 광학 및 가상 주밍 장치에 의해 제공된 개선된 트래킹 기능으로부터 이득을 얻을수 있다. 상기 시스템(10)의 부분(26)은 그러므로, 예를 들어, 상기 시스템(10)의 부분(24)을 사용하여 트래킹될, 다른 비디오 회의 배열, 비디오 감시 배열, 또는 하나이상의 관심있는 물체의 어떤 다른 배열로 대체될 수 있다. 본 발명이 PTZ 카메라들과 다른 영상 포착 장치와 함께 사용될 수 있다는 것도 명백할 것이다. 따라서, 본 명세서에 사용된 바와 같은 상기 용어 카메라(Acamera)는 하이브리드 광학 및 가상 주밍 장치와 결합하여 사용될 수 잇는 어떤 형식의 영상 포착 장치를 포함하도록 의도된다. While the present invention will be illustrated in the context of an application of video conferencing, it should be understood that the
상기 시스템(10)의 장치들 또는 장치의 그룹들은 상기 및 다른 처리 장치들의 부분들 또는 결합뿐만 아니라 다른 종래의 데스크탑 또는 휴대용 컴퓨터의 대응하는 장치들을 나타낼 수 있다는 것을 유의해야 한다. 더욱이, 본 발명의 다른 실시예들에서, 상기 프로세서(12), 제어기(16), 또는 상기 시스템(10)의 다른 장치들의 몇몇 또는 모든 기능들은 단일 장치로 결합될 수 있다. 예를 들어, 시스템(10)의 하나 이상의 장치는 컴퓨터, 텔레비젼, 셋-톱 박스, 또는 다른 처리 장치에 통합될 응용 주문형 집적 회로(ASIC) 또는 회로 카드로서 이행될 수 있다. 본 명세서에 사용된 용어 프로세서는 주어진 데이터 처리 장치에서 이용될 수 있는 마이크로 프로세서, 중앙처리장치, 마이크로제어기 또는 어떤 다른 데이터 처리 장치를 포함하도록 의도된다. 부가하면, 상기 메모리(14)는 상기 및 다른 형식의 저장 장치들의 결합 또는 부분들뿐만 아니라 전자 메모리, 광학 또는 자기 디스크에 기초한 메모리, 테이프에 기초한 메모리를 나타낼 수 있다는 것을 유의해야 한다.It should be noted that the devices or groups of devices of the
도 2는 도 1의 시스템(10)에서 수행된 하이브리드 광학 및 가상 줌 장치(30)를 예시하는 기능 블록도이다. 다시, 비디오 회의 응용의 맥락에서 예시되었지만, 서술된 상기 기술들은 어떤 다른 트래킹 응용에 쉽게 적용된다는 것이 분명할 것이다. 도 2에 도시된 바와 같이, 상기 하이브리드 광학 및 가상 줌 장치(30)는 검출 및 트래킹 동작(32), 광학 주밍 동작(34), 및 가상 주밍 동작(36)을 포함한다. 상기 동작들은 시스템(10)의 부분(26)에서 예시적인 비디오 회의 응용을 위해 발생된 영상들에 대응하는 영상들(40,42,44,및 46)을 참조하여 기술될 것이다. 상기 동작들은(32,34,및 36) 프로세서(12)와 제어기(16)에 의해 시스템 (10)에서 수행될 수 있으며, 상기 메모리(14)에 저장되어 있거나 지역 또는 원격 저장 장치로부터 상기 I/O 장치(15)를 통해 액세스가능한 하나이상의 소프트웨어 프로그램들을 이용한다.2 is a functional block diagram illustrating the hybrid optical and
동작에서, PTZ 카메라(18)는 관심있는 물체, 즉 비디오 회의 참가자(22-k)와, 부가적 물체, 즉 상기 관심있는 물체에 인접한 다른 참가자(22-k+1)를 포함하는 영상(40)을 발생시킨다. 상기 영상(40)은 비디오 입력으로서 상기 검출 및 트래킹 동작(32)에 공급되고, 잘 알려진 종래의 검출 및 트래킹 기술들을 사용하여 상기 관심있는 물체(22-k)를 검출하고 트래킹한다. In operation, the
예를 들어, 상기 비디오 회의 응용에서, 관심있는 물체(22-k)는 현재의 발언자(speaker)에 대응할 수 있다. 상기 경우에서, 상기 검출 및 트래킹 동작(32)은 어떤 회의 참가자가 현재의 발언자인지를 결정하기 위해 오디오 위치와 같은 기술을 사용하고, 어떤 회의 참가자가 말하고, 제스처를 하고, 악수하고, 특정 방식으로 움직이고, 특정 방식으로 발언하는지 등을 결정하기 위해 운동 검출과 같은 기술을 사용하여 관심있는 물체(22-k)를 검출하고 트래킹할 수 있다.For example, in the video conferencing application, the object of interest 22-k may correspond to a current speaker. In this case, the detection and tracking
비디오 감시 응용에서, 관심있는 물체는 특정 행동을 하는, 예를 들어, 제한된 영역에 들어오거나 나가는 또는 의심되는 행동을 시작하는 사람, 가정의 방내에서 이동하는 어린이, 주차장에 들어오거나 나가는 차량 등일 수 있다. 상기 검출 및 트래킹 동작(32)의 출력은 상기 영상(42) 내에서 빗금친 것으로 도시된, 관심있는 특정 물체(22-k)를 식별하는 정보를 포함한다.In video surveillance applications, the object of interest may be a person doing a particular action, for example, a person entering, leaving or suspecting a restricted area, a child moving in a home room, a vehicle entering or leaving a parking lot, and the like. . The output of the detection and tracking
동작(32)에서 사용된 검출 및 트래킹 장치의 특정 형식은 상기 응용에 의존하여 일반적으로 변할 것이다. 동작(32)에서 사용될 수 있는 종래의 검출 및 트래킹 기술들은 예를 들어, C.Wren, A.Azarbayejani, T.Darrell, A.Pentland, APfinder :Real-time Tracking of the Human Body,IEEE Trans.PAMI,19(7):780-785,July 1997;H.Rowley,S.Bluja,T.Kanade,ARotation Invariant Neural Network-Based Face Detection,Proc.IEEE Conf.on Computer Vision,pp.38-44, June 1998; and A.Lipton, H.Fujiyoshi, R.Patil,AMoving Target Classification and Tracking from Real-Time Video,Proc.IEEE Workshop on Application of Computer Vision,pp.8-14,Oct 1998.에 기술된 것을 포함한다.The particular type of detection and tracking device used in
도 2의 광학 주밍 동작(34)은 바람직한 출력 영상 품질이 달성되는 것을 보장하도록 충분한 양의 주밍을 제공하며, 반면에 또한 관심있는 물체의 어떤량의 움직임을 허용한다. 상기 광학 주밍 동작(34)은 상기 관심있는 물체(22-k)를 프레이밍하기 위한 팬 및 틸트 동작들을 가진 프레이밍 부분을 포함하며, 지정된 정지 기준이 만족될 때까지 계속되는 주밍동작을 가진 주밍 부분이 뒤따른다.The
상기 카메라 렌즈의 방사상 왜곡(radial distortion)이 무시할만하다고 가정하면, 다음의 접근법이 동작(34)의 프레이밍 부분에서의 필요한 양의 팬 및 틸트를 판단하기 위해 사용될 수 있다. 관심있는 물체(22-k)가 영상(42)내의 화소 좌표 위치(x,y)에 위치한 바와 같이 동작(32)에서 검출된다고 가정한다. 동작(34)의 프레이밍 부분은 관심있는 물체가 상기 영상의 중심(cx, cy)에 나타나도록 카메라(18)의 팬과 틸트를 조절한다. 카메라 줌 인자(zoom factor) ZF=1 일 때 미리 결정된 바와 같이, ZF를 현재의 줌 인자,αP C를 현재의 카메라 팬 각도, αT C를 현재의 카메라 틸트 각도, 및 D를 화소당 디그리(degrees)의 수라고 한다. 상기 새로운 팬 각도 αP N과 새로운 틸트 각도 αT N은 그다음에 다음과 같이 주어진다:Assuming that the radial distortion of the camera lens is negligible, the following approach can be used to determine the required amount of pan and tilt in the framing portion of
αP N = αP C + D*((x-cx)/ZF),α P N = α P C + D * ((xc x ) / ZF),
αT N = αT C + D*((y-cy)/ZF).α T N = α T C + D * ((yc y ) / ZF).
다른 기술들도 동작(34)의 프레이밍 부분들을 위한 적절한 팬과 틸트 조절을 결정하는데 사용될 수 있다. 예를 들어, 상기 카메라 렌즈의 방사상 왜곡의 존재하에서 팬과 틸트를 결정하기 위한 기술은 당업자에게 분명할 것이다. Other techniques may also be used to determine appropriate pan and tilt adjustments for the framing portions of
동작(34)의 프레이밍 부분의 완료후에, 동작(34)의 주밍 부분이 시작된다. 이미 언급된 바와 같이, 동작(34)의 상기 부분은 하나이상의 지정된 정지 기준이 만족될 때까지 계속되는 광학 주밍을 포함한다. 사용될 수 있는 다수의 서로 다른 형식의 정지 기준이 있다. 고정된 정지 기준 접근법에서, 관심있는 물체가 영상의 고정된 퍼센티지를 점유할 때까지 상기 광학 주밍은 계속된다. 예를 들어, 비디오 회의 시스템에서, 상기 광학 주밍은 상기 현재의 발언자의 머리가 상기 영상의 수직 크기의 25 % 과 35 % 사이에서 점유할 때까지 계속될 수 있다. 물론, 사용된 상기 특정 퍼센티지는 상기 프래킹 응용에 의존하여 변할 것이다. 특정한 응용에 적합한 상기 특정 퍼센티지들은 당업자에 의해 올바른 방식으로 결정될 수 있다.After completion of the framing portion of
동적 정지 기준 접근법에서, 상기 광학 주밍은 관심있는 물체가 상기 영상의 지정된 퍼센티지에 도달할 때까지 계속되지만, 상기 접근법에서의 퍼센티지는 관심있는 물체와 연관된 다른 검출된 품질의 함수이다. 예를 들어, 상기 퍼센티지는 분명한 움직임의 레벨, 특정 키워드 또는 다른 오디오 또는 음성 단서들의 사용, 세기의 변화, 피치 또는 다른 음성 품질 등과 같은 품질들의 함수로서 변할 수 있다. 다시, 특정 퍼센티지 및 그것들이 상기 검출된 품질들에 기초하여 변하는 방식은 특정 트래킹 응용에 일반적으로 의존할 것이며 당업자에 의해 올바른 방식으로 결정될 수 있다. In the dynamic stop reference approach, the optical zooming continues until the object of interest reaches a specified percentage of the image, but the percentage in this approach is a function of other detected quality associated with the object of interest. For example, the percentage may vary as a function of qualities such as the level of apparent movement, the use of certain keywords or other audio or voice cues, changes in intensity, pitch or other voice quality, and the like. Again, the particular percentage and how they vary based on the detected qualities will generally depend on the particular tracking application and can be determined in a correct manner by one skilled in the art.
상기 광학 주밍 동작(34)의 결과는 광학적으로-주밍된 영상(44)이며, 여기서 관심있는 물체(22-k)는 상기 영상내에 중심에 위치되고 상기된 고정 또는 동적 정지 기준에 기초하여 결정된 바와 같이 상기 영상의 바람직한 퍼센티지를 점유한다. 상기 영상(44)은, 예를 들어 메모리(14)내에서, 상기 시스템(10)에 의해 저장될 수 있다.The result of the
상기 가상 주밍 동작(36)은 그다음에 상기 광학적으로 주밍된 영상(44)상에서 수행된다. 상기 가상 주밍 동작은 우선 상기 영상(44)으로부터 관심있는 영역을 추출한다. 예를 들어, 상기 비디오 회의 응용에서, 관심있는 영역(47)은 현재 관심있는 물체(22-k)의 머리와 어깨로서 식별될 수 있다. 비디오 감시 응용에서, 관심있는 영역은 관심있는 물체의 손, 발, 머리, 몸통, 또는 다른 지정된 부분일 수 있다. 관심있는 영역의 식별은 동적 프로세스일 수 있고, 예를 들어 이것은 현재의 트래킹 목표에 기초하여 오퍼레이터에 의해 선택될 수 있다. 관심있는 영역은 알려진 기술들, 예를 들어 관심있는 물체의 검출과 연결하여 상기된 참조문헌들에 서술된 기술들을 사용하여 식별되고 추출될 수 있다. 관심있는 상기 추출된 영역은 그다음에 가상으로-주밍된 영상(46)을 포함하는 비디오 출력을 발생시키기 위해 잘 알려진 영상 보간 기술을 사용하여 보간된다. 상기 영상(46)은 그래서 상기 광학적으로-주밍된 영상(44)의 가상 줌을 나타낸다.The
상기 가상 주밍 동작(36)은 상기 검출과 트래킹 동작(32) 및 광학 주밍 동작 (34)과 다른 시스템에서 수행될 수 있다는 것을 유의해야 한다. 예를 들어, 상기 영상(44)은 압축되고 그다음에 I/O 장치(15)를 통해 상기 시스템(10)으로부터 전송될 수 있으며, 상기 가상 주밍 동작은 대응하는 수신기의 신호 처리 장치에서 수행된다.It should be noted that the
유리하게, 상기 하이브리드 장치(30)는 관심있는 물체의 부분상의 어떤 양의 움직임을 허용하고, 반면에 상기 비디오 출력에서 바람직한 레벨의 영상 품질을 보존한다. 예를 들어, 관심있는 물체(22-k)가 움직인다면, 상기 가상 주밍 동작(36)은 상기 광학 주밍 동작(34)에서 결정된 동일한 팬, 틸트, 및 줌 세팅을 사용하여 반복될 수 있다. 상기 경우에서, 상기 가상 줌의 추출 및 보간 동작들은 관심있는 물체(22-k)가 상기 영상의 중심에 실질적으로 있게되는 출력 영상을 발생시킬 수 있다.Advantageously, the
상기 하이브리드 장치(30)는 언제 상기 가상 주밍 및 광학 주밍 작동이 반복되어야 하는지를 결정하기 위한 다수의 임계값들을 통합할 수 있다. 예를 들어, 관심있는 물체의 주어진 양의 움직임이 제 1 임계값을 초과한다면, 상기 가상 주밍 동작 (36)은 상기 카메라의 팬, 틸트, 및 줌 세팅이 변경되지 않은 채로 반복될 수 있다. 상기 주어진 양의 움직임이 제 2의 더높은 임계값을 초과한다면, 상기 광학 주밍 단계(34)는 새로운 팬, 틸트, 및 줌 세팅을 결정하기 위해 반복될 수 있고, 그다음에 상기 가상 주밍 동작(36)은 상기 바람직한 출력 영상(46)을 얻기 위해 반복된다. 피드백 경로(48)는 상기 광학 주밍 동작(34)과 상기 검출 및 트래킹 동작(32) 사이에 포함되어서, 상기 검출 및 트래킹 동작은, 필요하다면, 예를 들어, 상기 광학 주밍 동작이 관심있는 물체의 실질적 움직임을 검출하여 더이상 상기 물체를 트래킹하지 않을 경우에, 반복될 수 있다.The
본 발명의 상기 하이브리드 광학 및 가상 줌 장치는 종래의 접근법들에 대한 다수의 중요한 장점들을 제공한다. 이미 서술된 바와 같이, 상기 하이브리드 장치는 새로운 광학 팬, 틸트, 및 줌 세팅을 결정할 필요없이 관심있는 물체의 몇몇 움직임을 수용하며, 반면에 또한 바람직한 출력 영상 품질 레벨을 제공한다. 상기 PTZ 카메라가 너무 멀리 주밍 인 하는 것을 방지하여, 본 발명은 상기 PTZ 카메라 세팅이 덜 자주 조절되며, 상기 시스템 프로세서상의 계산상의 부하가 그에 의해 종래의 광학 줌 접근법에 의해 요구되는 것에 관하여 감소된다. 부가하면, 본 발명의 하이브리드 장치는 영상 전송을 위한 개선된 압축 속도를 제공할 수 있다. 예를 들어, 상기된 바와 같이, 상기 가상 줌 동작은 영상이 상기 I/O 장치(15)를 통해 상기 시스템(10)으로부터 수신기로 전송된 후에 수행될 수 있다. 결과적으로, 상기 전송된 영상내의 물체의 비율은 종래의 접근법을 사용했을때보다 더 낮으며, 그에 의해 더적은 압축과 개선된 압축 속도를 허용한다.The hybrid optical and virtual zoom device of the present invention provides a number of important advantages over conventional approaches. As already described, the hybrid device accommodates several movements of the object of interest without having to determine new optical pan, tilt, and zoom settings, while also providing a desirable level of output image quality. By preventing the PTZ camera from zooming in too far, the present invention allows the PTZ camera settings to be adjusted less frequently and the computational load on the system processor is thereby reduced relative to what is required by conventional optical zoom approaches. In addition, the hybrid device of the present invention can provide an improved compression rate for image transmission. For example, as described above, the virtual zoom operation may be performed after an image is transmitted from the
본 발명의 상술된 실시예는 예시적인 것으로만 의도된다. 예를 들어, 본 발명은 어떤 바람직한 관심있는 물체의 실시간 트래킹을 수행하는데 사용될 수 있고, 넓은 종류의 응용에서 비디오 회의 시스템, 비디오 감시 시스템, 및 다른 카메라에 기초한 시스템들을 포함한다. 부가하면, 단일 PTZ 카메라를 가진 시스템을 사용하는 것이 예시되었지만, 본 발명은 다수의 PTZ 카메라들을 가진 시스템들과 영상 포착 장치의 다른 형식 및 배열을 가진 시스템들에도 적용될 수 있다. 더욱이, 본 발명은 관심있는 물체를 검출하고 트래킹하며, 관심있는 영역을 추출하고 보간하기 위해 많은 서로 다른 형식의 기술들을 이용할 수 있다. 본 발명은 전자, 자기, 또는 광학 매체 상에 저장되고 처리 장치, 예를 들어 시스템(10)의 프로세서(12)에 의해 수행되는 하나이상의 소프트웨어 프로그램들의 형식으로 적어도 부분적으로 수행될 수 있다. 다음의 청구항의 범위내의 상기 및 다수의 다른 실시예들은 당업자에게 분명해질 것이다. The above-described embodiments of the present invention are intended to be illustrative only. For example, the present invention can be used to perform real time tracking of any desired object of interest and includes video conferencing systems, video surveillance systems, and other camera based systems in a wide variety of applications. In addition, although the use of a system with a single PTZ camera has been illustrated, the invention may be applied to systems with multiple PTZ cameras and to systems with other formats and arrangements of image capture devices. Moreover, the present invention can use many different types of techniques to detect and track objects of interest, and to extract and interpolate regions of interest. The invention may be performed at least in part in the form of one or more software programs stored on an electronic, magnetic or optical medium and executed by a processing device, for example the
Claims (14)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US34364699A | 1999-06-29 | 1999-06-29 | |
| US09/343,646 | 1999-06-29 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20010079719A KR20010079719A (en) | 2001-08-22 |
| KR100711950B1 true KR100711950B1 (en) | 2007-05-02 |
Family
ID=23346978
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020017002637A Expired - Fee Related KR100711950B1 (en) | 1999-06-29 | 2000-06-27 | Real-time tracking of objects of interest using hybrid optics and virtual zooming devices |
Country Status (4)
| Country | Link |
|---|---|
| EP (1) | EP1110397A1 (en) |
| JP (1) | JP2003503910A (en) |
| KR (1) | KR100711950B1 (en) |
| WO (1) | WO2001001685A1 (en) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1618400A1 (en) | 2003-04-22 | 2006-01-25 | Philips Intellectual Property & Standards GmbH | Multiscale localization procedure |
| KR100585822B1 (en) * | 2004-04-26 | 2006-06-01 | 주식회사 일리시스 | Surveillance system using real-time panoramic video image and control method thereof |
| US8803978B2 (en) | 2006-05-23 | 2014-08-12 | Microsoft Corporation | Computer vision-based object tracking system |
| CN101534413B (en) * | 2009-04-14 | 2012-07-04 | 华为终端有限公司 | System, method and apparatus for remote representation |
| US8860775B2 (en) | 2009-04-14 | 2014-10-14 | Huawei Device Co., Ltd. | Remote presenting system, device, and method |
| CN102611872B (en) * | 2011-01-19 | 2014-07-02 | 株式会社理光 | Scene image conversion system and method based on area-of-interest dynamic detection |
| US9100572B2 (en) | 2013-05-24 | 2015-08-04 | Xerox Corporation | Methods and systems for confidence-based image processing |
| US11430084B2 (en) | 2018-09-05 | 2022-08-30 | Toyota Research Institute, Inc. | Systems and methods for saliency-based sampling layer for neural networks |
| CN112347924A (en) * | 2020-11-06 | 2021-02-09 | 杭州当虹科技股份有限公司 | Virtual director improvement method based on face tracking |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5185667A (en) * | 1991-05-13 | 1993-02-09 | Telerobotics International, Inc. | Omniview motionless camera orientation system |
| US5187674A (en) * | 1989-12-28 | 1993-02-16 | Honeywell Inc. | Versatile, overpressure proof, absolute pressure sensor |
| US5200818A (en) * | 1991-03-22 | 1993-04-06 | Inbal Neta | Video imaging system with interactive windowing capability |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0771288B2 (en) * | 1990-08-24 | 1995-07-31 | 神田通信工業株式会社 | Automatic view adjustment method and device |
-
2000
- 2000-06-27 KR KR1020017002637A patent/KR100711950B1/en not_active Expired - Fee Related
- 2000-06-27 JP JP2001506229A patent/JP2003503910A/en not_active Withdrawn
- 2000-06-27 EP EP00954423A patent/EP1110397A1/en not_active Withdrawn
- 2000-06-27 WO PCT/EP2000/005951 patent/WO2001001685A1/en active IP Right Grant
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5187674A (en) * | 1989-12-28 | 1993-02-16 | Honeywell Inc. | Versatile, overpressure proof, absolute pressure sensor |
| US5200818A (en) * | 1991-03-22 | 1993-04-06 | Inbal Neta | Video imaging system with interactive windowing capability |
| US5185667A (en) * | 1991-05-13 | 1993-02-09 | Telerobotics International, Inc. | Omniview motionless camera orientation system |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20010079719A (en) | 2001-08-22 |
| JP2003503910A (en) | 2003-01-28 |
| WO2001001685A1 (en) | 2001-01-04 |
| EP1110397A1 (en) | 2001-06-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10339386B2 (en) | Unusual event detection in wide-angle video (based on moving object trajectories) | |
| US10929680B2 (en) | Automatic extraction of secondary video streams | |
| US6766035B1 (en) | Method and apparatus for adaptive position determination video conferencing and other applications | |
| Sun et al. | Region of interest extraction and virtual camera control based on panoramic video capturing | |
| JP2004515982A (en) | Method and apparatus for predicting events in video conferencing and other applications | |
| CN105554443B (en) | The localization method and device in abnormal sound source in video image | |
| KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
| US20100165112A1 (en) | Automatic extraction of secondary video streams | |
| JP2003532348A (en) | Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications | |
| EP2311256B1 (en) | Communication device with peripheral viewing means | |
| JPH07168932A (en) | Method for search of human being in video image | |
| WO2007003061A1 (en) | System for videoconferencing | |
| TWI588590B (en) | Video generating system and method thereof | |
| KR100711950B1 (en) | Real-time tracking of objects of interest using hybrid optics and virtual zooming devices | |
| US12272090B2 (en) | Information processing apparatus, and information processing method | |
| US20240422426A1 (en) | Media apparatus and control method and device thereof, and target tracking method and device | |
| Douxchamps et al. | Robust real time face tracking for the analysis of human behaviour | |
| JPH11331828A (en) | Automatic tracking device | |
| US20120075467A1 (en) | Image capture device and method for tracking moving object using the same | |
| US12165297B2 (en) | Camera system and method for determining a viewing frustum | |
| Zhang et al. | Semantic saliency driven camera control for personal remote collaboration | |
| JP2004128648A (en) | Intruding object tracking method | |
| JPH05145844A (en) | Picture recognizing device | |
| WO2024062971A1 (en) | Information processing device, information processing method, and information processing program | |
| Wu et al. | A Real-Time Human Recognition and Tracking System With a Dual-Camera Setup |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0105 | International application |
St.27 status event code: A-0-1-A10-A15-nap-PA0105 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| A201 | Request for examination | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U12-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20100421 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20100421 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |