[go: up one dir, main page]

KR100711950B1 - Real-time tracking of objects of interest using hybrid optics and virtual zooming devices - Google Patents

Real-time tracking of objects of interest using hybrid optics and virtual zooming devices Download PDF

Info

Publication number
KR100711950B1
KR100711950B1 KR1020017002637A KR20017002637A KR100711950B1 KR 100711950 B1 KR100711950 B1 KR 100711950B1 KR 1020017002637 A KR1020017002637 A KR 1020017002637A KR 20017002637 A KR20017002637 A KR 20017002637A KR 100711950 B1 KR100711950 B1 KR 100711950B1
Authority
KR
South Korea
Prior art keywords
interest
camera
image
zooming operation
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020017002637A
Other languages
Korean (ko)
Other versions
KR20010079719A (en
Inventor
코헨-솔랄에릭
이미-순
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20010079719A publication Critical patent/KR20010079719A/en
Application granted granted Critical
Publication of KR100711950B1 publication Critical patent/KR100711950B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Lens Barrels (AREA)

Abstract

비디오 처리 시스템은 (i) 팬-틸트-줌(PTZ) 카메라와 (ii) 상기 카메라에 의해 발생된 영상의 가상 주밍의 하이브리드 결합을 사용하여 관심있는 물체를 트래킹한다. 상기 관심있는 물체(22-k)는 상기 카메라(18)에 의해 발생된 영상 (40)내에서 초기에 검출된다. 광학 주밍 동작(34)은 그다음에 상기 관심있는 물체 (22-k)를 프레이밍하기 위해 팬 및 틸트 세팅을 조절하고, 하나이상의 지정된 정지 기준이 만족될 때까지 상기 관심있는 물체(22-k) 상에서 줌 인 한다. 가상 주밍 동작(36)은 특정의 관심있는 영역(47)을 식별하고 추출하기 위해 상기 결과적인 광학적으로-주밍된 영상(44)을 처리하고, 그다음에, 가상으로-주밍된 영상(46)을 발생시키기 위해 상기 추출된 관심있는 영역을 보간한다. 상기 지정된 정지 기준은, 예를 들어, 상기 관심있는 물체(22-k)가 상기 결과적인 광학적으로-주밍된 영상의 고정된 또는 동적인 퍼센티지를 점유할 때까지 상기 광학 주밍을 계속된다는 것을 표시할 수 있다. The video processing system tracks an object of interest using a hybrid combination of (i) pan-tilt-zoom (PTZ) camera and (ii) virtual zooming of the image generated by the camera. The object of interest 22-k is initially detected within the image 40 generated by the camera 18. Optical zooming operation 34 then adjusts the pan and tilt settings to frame the object of interest 22-k, and on the object of interest 22-k until one or more specified stop criteria are satisfied. Zoom in. Virtual zooming operation 36 processes the resulting optically-zipped image 44 to identify and extract a particular region of interest 47, and then virtually-zipped image 46. Interpolate the extracted region of interest to generate. The specified stop criterion may indicate, for example, that the optical zooming continues until the object of interest 22-k occupies a fixed or dynamic percentage of the resulting optically-zipped image. Can be.

PTZ 카메라, 가상 주밍, 정지 기준PTZ camera, virtual zooming, stop criteria

Description

하이브리드 광학 및 가상 주밍 장치를 사용한 관심있는 물체의 실시간 트래킹{Real-time tracking of an object of interest using a hybrid optical and virtual zooming mechanism} Real-time tracking of an object of interest using a hybrid optical and virtual zooming mechanism}

본 발명은 일반적으로 비디오 신호 처리 분야에 관한 것이며, 특히, 원하는 비디오 출력이 달성되도록 비디오 카메라를 사용하여 관심있는 사람이나 다른 물체들을 트래킹하기 위한 기술에 관한 것이다.FIELD OF THE INVENTION The present invention generally relates to the field of video signal processing, and more particularly to techniques for tracking people or other objects of interest using a video camera such that a desired video output is achieved.

관심있는 사람이나 다른 물체를 트래킹(tracking)하는 것은 비디오 회의 시스템과 비디오 감시 시스템과 같은 비디오 카메라에 기초한 시스템들의 중요한 측면이다. 예를 들어, 비디오 회의 시스템에서, 결과적인 출력 비디오 신호에서 특정 회의 참가자의 머리와 어깨를 프레이밍(frame)하는 것이 종종 바람직하며, 반면에 비디오 감시 시스템에서는, 상기 시스템에 의해 감시되는 제한된 영역에 들어오거나 나가는, 예를 들어, 어떤 사람의 전체적 신체를 프레이밍하는 것이 바람직할 수 있다.Tracking people or other objects of interest is an important aspect of video camera based systems such as video conferencing systems and video surveillance systems. For example, in a video conferencing system, it is often desirable to frame the head and shoulders of a particular conference participant in the resulting output video signal, while in a video surveillance system, it may be necessary to enter a restricted area monitored by the system. It may be desirable to frame the whole body of a person coming or going, for example.

상기 시스템들은 관심있는 물체의 트래킹을 수행하기 위해 2개의 구별되는 접근법들 중 하나를 일반적으로 이용한다. 제 1 접근법은 상기 트래킹 임무를 수행하기 위해 상기 시스템이 위치를 잡고 상기 카메라를 광학적으로 주밍하도록 허용하는 팬-틸트-줌(pan-tilt-zoom)(PTZ) 카메라를 사용한다. 상기 접근법과 관련된 문제는, 몇몇 경우에서, 상기 트래킹 장치는 관심있는 물체의 위치의 급격한 변화에 충분히 강하지 않다는 것이다. 이것은 상기 카메라가 상기 급격한 변화에 반응하기에는 너무 멀리 종종 주밍-인(zoom-in)되고 있다는 사실에 기인할 수 있다. 예를 들어, 비디오 회의 시스템에서 참가자가 자신의 좌석에서, 예를 들어, 앞쪽이나 뒤쪽으로 또는 한쪽이나 다른 쪽으로 기대기 위해 움직이는 것은 흔한일이다. PTZ 카메라가 특정 참가자상에서 너무 멀리 주밍-인 된다면, 참가자의 상대적으로 작은 움직임은 상기 PTZ 카메라가 상기 참가자를 트래킹하지 못하게 하며, 상기 결과적인 출력 비디오 신호의 시청자에게 혼란을 주게 될 주밍-아웃과 재-트래킹(re-track)을 필요로 하게 한다.The systems generally use one of two distinct approaches to perform tracking of an object of interest. The first approach uses a pan-tilt-zoom (PTZ) camera that allows the system to position and optically zoom the camera to perform the tracking task. The problem associated with this approach is that in some cases the tracking device is not strong enough to abruptly change the position of the object of interest. This may be due to the fact that the camera is often zoomed-in too far to respond to the sudden change. For example, in a video conferencing system, it is common for a participant to move out of their seat, for example, to lean forward or backward, or to one side or the other. If the PTZ camera is zoomed in too far on a particular participant, the relatively small movement of the participant will prevent the PTZ camera from tracking the participant and will cause the viewer to confuse the viewer of the resulting output video signal. It requires re-tracking.

제 2 접근법은 가상 줌(Avirtual zoom

Figure 112007002919013-pct00001
) 또는 전자 줌(Aelectronic zoom
Figure 112007002919013-pct00002
)으로 언급된다. 상기 접근법에서, 하나 이상의 카메라들로부터의 비디오 정보는 전자적으로 처리되어서 관심있는 물체는 상기 물체가 어떤 특정 카메라의 시야의 중심에 있지 않을 수 있다는 사실에도 불구하고 상기 출력 비디오 신호내의 바람직한 구성에서 보이게 되도록 전자적으로 처리된다. U.S. 특허 제 5,187,574 호는 상기 접근법의 예를 개시하는데, 여기서 도착하는 손님의 영상은 감시 시스템의 고정된 텔레비젼 카메라에 의해 픽업된다. 상기 영상은 손님의 머리 부분이 항상 상기 모니터 스크린의 중앙에서 디스플레이되도록 보장하기 위해 검출, 추출 (extraction), 및 보간(interpolation) 동작을 사용하여 처리된다. 상기 접근법은 상기 비디오 출력이 팬(pan), 틸트(tilt), 또는 줌(zoom) 동작의 필요없이 바람직한 형태를 갖도록, 예를 들어, 관심있는 물체의 중심에 있도록 보장한다. 결과로서, 상기 접근법은 고정된 카메라로 동작할 수 있으며, 이것은 상기 언급된 PTZ 카메라보다 일반적으로 상당히 가격이 싸다. 그러나, 상기 접근법은 많은 응용들에서 요구되는 출력 영상 품질을 제공하지 못한다. 예를 들어, 상기 가상 주밍과 연관된 추출 및 보간 동작들은 결과적인 출력 비디오 신호에서 감소된 해상도와 영상 품질을 발생시키므로, 비디오 회의나 다른 유사한 응용들에서 적합하지 않을 수 있다.The second approach is virtual zoom
Figure 112007002919013-pct00001
Or Aelectronic zoom
Figure 112007002919013-pct00002
). In this approach, video information from one or more cameras is processed electronically so that the object of interest is visible in the desired configuration in the output video signal despite the fact that the object may not be in the center of the field of view of any particular camera. It is processed electronically. US Pat. No. 5,187,574 discloses an example of this approach, wherein the image of the arriving guest is picked up by a fixed television camera of the surveillance system. The image is processed using detection, extraction, and interpolation operations to ensure that the guest's head is always displayed in the center of the monitor screen. The approach ensures that the video output has the desired shape, for example in the center of the object of interest, without the need for pan, tilt, or zoom operations. As a result, the approach can operate with a fixed camera, which is generally considerably cheaper than the PTZ cameras mentioned above. However, this approach does not provide the output image quality required for many applications. For example, extraction and interpolation operations associated with the virtual zooming may not be suitable in video conferencing or other similar applications as they result in reduced resolution and image quality in the resulting output video signal.

상기로부터 분명한 바와 같이, 상기 가상 줌 접근법의 유연성뿐만 아니라 상기 PTZ 카메라 접근법과 연관된 상기 출력 비디오 신호 품질 및 해상도를 제공할 수 있는 개선된 트래킹 기술을 위한 필요가 존재하지만, 반면에 상기 접근법들과 일반적으로 연관된 문제들을 회피하기 위한 필요도 존재한다.As is evident from the above, there is a need for an improved tracking technique that can provide the output video signal quality and resolution associated with the PTZ camera approach as well as the flexibility of the virtual zoom approach, while the approaches and general There is also a need to avoid related problems.

본 발명은 (i) 팬-틸트-줌(PTZ) 카메라에 의한 광학 주밍과, (ii) 상기 카메라에 의해 발생된 영상의 가상 주밍의 하이브리드 결합을 사용하여, 비디오 처리 시스템내에 관심있는 물체의 실시간 트래킹을 위한 방법 및 장치를 제공하는 것이다. 본 발명의 예시적인 실시예에서, 관심있는 물체는 상기 카메라에 의해 발생된 영상에서 초기에 검출된다. 광학 주밍 동작은 그다음에 관심있는 물체를 프레이밍하기 위해 팬 및 틸트 세팅을 조절하고 하나이상의 지정된 정지 기준(stopping criteria)이 맞추어질때까지 관심있는 물체내에서 주밍한다. 가상 주밍 동작은 관심있는 특정 영역을 식별하고 추출하기 위해 상기 결과적인 광학적으로 주밍된 영상을 처리하고, 그다음에 가상으로 주밍된 영상을 발생시키기 위해 관심있는 추출된 영역을 보간한다.The present invention utilizes a hybrid combination of (i) optical zooming with a pan-tilt-zoom (PTZ) camera and (ii) virtual zooming of images generated by the camera, thereby real-time the object of interest in the video processing system. It is to provide a method and apparatus for tracking. In an exemplary embodiment of the invention, the object of interest is initially detected in the image generated by the camera. The optical zooming operation then adjusts the pan and tilt settings to frame the object of interest and zooms in the object of interest until one or more specified stopping criteria are met. The virtual zooming operation processes the resulting optically zoomed image to identify and extract a particular region of interest, and then interpolates the extracted region of interest to generate a virtually zoomed image.

본 발명의 한 측면에 따라, 상기 지정된 정지 기준은, 예를 들어, 관심있는 물체가 상기 결과적인 광학적으로 주밍된 영상의 고정된 또는 동적인 퍼센티지 (percentage)를 점유할 때까지 상기 광학 주밍은 계속된다는 것을 표시할 수 있다. 동적 퍼센티지의 경우에, 상기 퍼센티지는 관심있는 물체와 연관된 검출된 품질의 함수로서 변할 수 있다. 상기 검출된 품질들의 실시예들은 분명한 움직임의 레벨, 특정 가청(audibly)-검출가능한 키워드 또는 다른 단서의 사용, 및 세기, 피치 또는 다른 음성 품질의 변화를 포함한다.According to one aspect of the invention, the specified stop criteria is such that the optical zooming continues until the object of interest occupies a fixed or dynamic percentage of the resulting optically zoomed image, for example. Can be displayed. In the case of a dynamic percentage, the percentage can vary as a function of the detected quality associated with the object of interest. Embodiments of the detected qualities include a certain level of movement, the use of certain audibly-detectable keywords or other cues, and changes in intensity, pitch or other voice quality.

본 발명의 다른 측면에 따라, 관심있는 물체의 움직임의 레벨이 제 1 지정된 임계값을 초과한다면, 상기 광학 주밍 동작에서 설치된 동일한 팬, 틸트, 및 줌 세팅을 사용하여, 상기 결과적인 광학적으로 주밍된 영상에서 반복될 수 있다. 관심있는 물체의 움직임의 레벨이 상기 제1 임계값보다 높은 제 2 지정된 임계값을 초과한다면, 상기 카메라에 대한 새로운 팬, 틸트, 및 줌 세팅을 설정하기 위해 상기 광학 주밍 동작 자체는 반복될 수 있다.According to another aspect of the present invention, if the level of movement of the object of interest exceeds a first specified threshold, the resultant optically zoomed using the same pan, tilt, and zoom settings installed in the optical zooming operation. Can be repeated in the image. If the level of movement of the object of interest exceeds a second specified threshold above the first threshold, the optical zooming operation itself may be repeated to set new pan, tilt, and zoom settings for the camera. .

본 발명의 상기 하이브리드 광학 및 가상 줌 장치는 종래의 접근법들에 대한 다수의 상당한 장점을 제공한다. 예를 들어, 상기 하이브리드 장치는 새로운 광학 팬, 틸트, 및 줌 세팅을 결정할 필요없이 관심있는 물체의 어떤 양의 움직임을 수용하며, 또한 바람직한 출력 영상 품질 레벨을 제공한다. 상기 PTZ 카메라가 너무 멀리 주밍 인 하는 것을 방지하여, 본 발명은 상기 PTZ 카메라 세팅이 덜 자주 조절되도록 보장하며, 그에 의해 상기 시스템 프로세서상의 계산상의 부하 (computational load)는 종래의 광학 줌 접근법에 의해 요구되는 것에 비하여 감소된다. 부가하면, 본 발명의 하이브리드 장치는 영상 전송을 위한 개선된 압축 속도를 제공한다. 본 발명의 상기 및 다른 특징들과 장점들은 첨부된 도면들과 다음의 상세한 설명에서 더 분명해질 것이다. The hybrid optical and virtual zoom device of the present invention provides a number of significant advantages over conventional approaches. For example, the hybrid device accommodates any amount of movement of the object of interest without having to determine new optical pan, tilt, and zoom settings, and also provides the desired output image quality level. By preventing the PTZ camera from zooming in too far, the present invention ensures that the PTZ camera settings are adjusted less frequently, whereby the computational load on the system processor is required by conventional optical zoom approaches. Reduced compared to the In addition, the hybrid device of the present invention provides an improved compression rate for image transmission. These and other features and advantages of the present invention will become more apparent from the accompanying drawings and the following detailed description.

도 1은 본 발명의 예시적인 실시예에 따른 비디오 처리 시스템의 블록도.1 is a block diagram of a video processing system according to an exemplary embodiment of the present invention.

도 2는 도 1의 시스템에서 이행된 하이브리드 실시간 트래킹 비디오 처리를 예시하는 기능 블록도.2 is a functional block diagram illustrating hybrid real time tracking video processing implemented in the system of FIG.

도 1은 본 발명의 예시적인 실시예에 따른 비디오 처리 시스템(10)을 도시한다. 상기 시스템(10)은 프로세서(12), 메모리(14), 입력/출력(I/O) 장치(15), 및 제어기(16)를 포함하며, 모두 시스템 버스(17)를 통해 통신하도록 접속되어 있다. 상기 시스템(10)은 더욱이 도시된 바와 같은 제어기(16)에 결합된 팬-틸트-줌 (PTZ) 카메라(18)를 포함한다. 상기 예시적인 실시예에서, 상기 PTZ 카메라(18)는 테이블(20)이 다수의 회의 참가자들(22-1,...,22-k,...,22-N)을 수용하는 비디오 회의 응용에서 이용된다. 동작에서, 상기 PTZ 카메라(18)는, 상기 프로세서(12)로부터 수신된 지시에 따라 상기 제어기(16)에 의해 관리되는 바와 같이, 상기 실시예 응용에서 특정 참가자(22-k)에 대응하는 관심있는 물체를 트래킹한다. 상기 PTZ는 도 2와 연결되어 아래에 더 상세히 기술된 하이브리드 광학 및 가상 주밍 장치를 사용하여 상기 실시간 트래킹 기능을 수행한다.1 illustrates a video processing system 10 according to an exemplary embodiment of the present invention. The system 10 includes a processor 12, a memory 14, an input / output (I / O) device 15, and a controller 16, all connected to communicate via a system bus 17. have. The system 10 further includes a pan-tilt-zoom (PTZ) camera 18 coupled to the controller 16 as shown. In the exemplary embodiment, the PTZ camera 18 is a video conference in which the table 20 accommodates a number of conference participants 22-1, ..., 22-k, ..., 22-N. Used in applications. In operation, the PTZ camera 18 is of interest corresponding to a particular participant 22-k in the embodiment application, as managed by the controller 16 in accordance with instructions received from the processor 12. Track an object. The PTZ is connected to FIG. 2 to perform the real time tracking function using a hybrid optical and virtual zooming device described in more detail below.

본 발명이 비디오 회의의 응용의 맥락에서 예시될 것이지만, 상기 비디오 처리 시스템(10)은 다양한 종류의 다른 응용들에서 사용될 수 있다는 것이 이해되어야 한다. 예를 들어, 상기 시스템(10)의 부분(24)은 비디오 감시 응용들, 및 다른 형식의 비디오 회의 응용들, 예를 들어, 의회같은 좌석 배열, 원형 또는 직사각형 테이블 배열들을 포함하는 응용들에서 사용될 수 있다. 더 일반적으로, 시스템(10)의 상기 부분(24)은 하이브리드 광학 및 가상 주밍 장치에 의해 제공된 개선된 트래킹 기능으로부터 이득을 얻을수 있다. 상기 시스템(10)의 부분(26)은 그러므로, 예를 들어, 상기 시스템(10)의 부분(24)을 사용하여 트래킹될, 다른 비디오 회의 배열, 비디오 감시 배열, 또는 하나이상의 관심있는 물체의 어떤 다른 배열로 대체될 수 있다. 본 발명이 PTZ 카메라들과 다른 영상 포착 장치와 함께 사용될 수 있다는 것도 명백할 것이다. 따라서, 본 명세서에 사용된 바와 같은 상기 용어 카메라(Acamera

Figure 112007002919013-pct00003
)는 하이브리드 광학 및 가상 주밍 장치와 결합하여 사용될 수 잇는 어떤 형식의 영상 포착 장치를 포함하도록 의도된다. While the present invention will be illustrated in the context of an application of video conferencing, it should be understood that the video processing system 10 can be used in a variety of other applications. For example, part 24 of the system 10 may be used in video surveillance applications, and other types of video conferencing applications, such as applications including parliamentary seat arrangements, circular or rectangular table arrangements. Can be. More generally, the portion 24 of system 10 may benefit from the improved tracking functionality provided by hybrid optical and virtual zooming devices. The portion 26 of the system 10 may therefore be, for example, another video conferencing arrangement, a video surveillance arrangement, or any one or more objects of interest to be tracked using the portion 24 of the system 10. Can be replaced with another arrangement. It will also be apparent that the present invention can be used with PTZ cameras and other image capture devices. Thus, the term camera as used herein (Acamera)
Figure 112007002919013-pct00003
) Is intended to include any form of image capture device that can be used in combination with hybrid optical and virtual zooming devices.

상기 시스템(10)의 장치들 또는 장치의 그룹들은 상기 및 다른 처리 장치들의 부분들 또는 결합뿐만 아니라 다른 종래의 데스크탑 또는 휴대용 컴퓨터의 대응하는 장치들을 나타낼 수 있다는 것을 유의해야 한다. 더욱이, 본 발명의 다른 실시예들에서, 상기 프로세서(12), 제어기(16), 또는 상기 시스템(10)의 다른 장치들의 몇몇 또는 모든 기능들은 단일 장치로 결합될 수 있다. 예를 들어, 시스템(10)의 하나 이상의 장치는 컴퓨터, 텔레비젼, 셋-톱 박스, 또는 다른 처리 장치에 통합될 응용 주문형 집적 회로(ASIC) 또는 회로 카드로서 이행될 수 있다. 본 명세서에 사용된 용어 프로세서는 주어진 데이터 처리 장치에서 이용될 수 있는 마이크로 프로세서, 중앙처리장치, 마이크로제어기 또는 어떤 다른 데이터 처리 장치를 포함하도록 의도된다. 부가하면, 상기 메모리(14)는 상기 및 다른 형식의 저장 장치들의 결합 또는 부분들뿐만 아니라 전자 메모리, 광학 또는 자기 디스크에 기초한 메모리, 테이프에 기초한 메모리를 나타낼 수 있다는 것을 유의해야 한다.It should be noted that the devices or groups of devices of the system 10 may represent portions or combinations of the and other processing devices as well as corresponding devices of other conventional desktop or portable computers. Moreover, in other embodiments of the present invention, some or all of the functions of the processor 12, controller 16, or other devices of the system 10 may be combined into a single device. For example, one or more devices of system 10 may be implemented as an application specific integrated circuit (ASIC) or circuit card to be integrated into a computer, television, set-top box, or other processing device. The term processor, as used herein, is intended to include a microprocessor, central processing unit, microcontroller, or any other data processing device that may be used in a given data processing device. In addition, it should be noted that the memory 14 may represent an electronic memory, an optical or magnetic disk based memory, a tape based memory, as well as combinations or portions of the and other types of storage devices.

도 2는 도 1의 시스템(10)에서 수행된 하이브리드 광학 및 가상 줌 장치(30)를 예시하는 기능 블록도이다. 다시, 비디오 회의 응용의 맥락에서 예시되었지만, 서술된 상기 기술들은 어떤 다른 트래킹 응용에 쉽게 적용된다는 것이 분명할 것이다. 도 2에 도시된 바와 같이, 상기 하이브리드 광학 및 가상 줌 장치(30)는 검출 및 트래킹 동작(32), 광학 주밍 동작(34), 및 가상 주밍 동작(36)을 포함한다. 상기 동작들은 시스템(10)의 부분(26)에서 예시적인 비디오 회의 응용을 위해 발생된 영상들에 대응하는 영상들(40,42,44,및 46)을 참조하여 기술될 것이다. 상기 동작들은(32,34,및 36) 프로세서(12)와 제어기(16)에 의해 시스템 (10)에서 수행될 수 있으며, 상기 메모리(14)에 저장되어 있거나 지역 또는 원격 저장 장치로부터 상기 I/O 장치(15)를 통해 액세스가능한 하나이상의 소프트웨어 프로그램들을 이용한다.2 is a functional block diagram illustrating the hybrid optical and virtual zoom device 30 performed in the system 10 of FIG. 1. Again, although illustrated in the context of video conferencing applications, it will be apparent that the techniques described above are readily applicable to any other tracking application. As shown in FIG. 2, the hybrid optical and virtual zoom device 30 includes a detection and tracking operation 32, an optical zooming operation 34, and a virtual zooming operation 36. The operations will be described with reference to images 40, 42, 44, and 46 that correspond to images generated for an example video conferencing application in portion 26 of system 10. The operations (32, 34, and 36) may be performed in system 10 by processor 12 and controller 16, stored in the memory 14 or from the local or remote storage device. Use one or more software programs accessible via the O device 15.

동작에서, PTZ 카메라(18)는 관심있는 물체, 즉 비디오 회의 참가자(22-k)와, 부가적 물체, 즉 상기 관심있는 물체에 인접한 다른 참가자(22-k+1)를 포함하는 영상(40)을 발생시킨다. 상기 영상(40)은 비디오 입력으로서 상기 검출 및 트래킹 동작(32)에 공급되고, 잘 알려진 종래의 검출 및 트래킹 기술들을 사용하여 상기 관심있는 물체(22-k)를 검출하고 트래킹한다. In operation, the PTZ camera 18 is an image 40 comprising an object of interest, ie, a video conference participant 22-k, and an additional object, ie, another participant 22-k + 1 adjacent to the object of interest. ). The image 40 is fed to the detection and tracking operation 32 as a video input and detects and tracks the object of interest 22-k using well-known conventional detection and tracking techniques.

예를 들어, 상기 비디오 회의 응용에서, 관심있는 물체(22-k)는 현재의 발언자(speaker)에 대응할 수 있다. 상기 경우에서, 상기 검출 및 트래킹 동작(32)은 어떤 회의 참가자가 현재의 발언자인지를 결정하기 위해 오디오 위치와 같은 기술을 사용하고, 어떤 회의 참가자가 말하고, 제스처를 하고, 악수하고, 특정 방식으로 움직이고, 특정 방식으로 발언하는지 등을 결정하기 위해 운동 검출과 같은 기술을 사용하여 관심있는 물체(22-k)를 검출하고 트래킹할 수 있다.For example, in the video conferencing application, the object of interest 22-k may correspond to a current speaker. In this case, the detection and tracking operation 32 uses techniques such as audio location to determine which meeting participant is the current speaker, which meeting participant speaks, gestures, shakes hands, and in a particular manner. Techniques such as motion detection can be used to detect and track the object of interest 22-k to determine whether to move, speak in a particular manner, and the like.

비디오 감시 응용에서, 관심있는 물체는 특정 행동을 하는, 예를 들어, 제한된 영역에 들어오거나 나가는 또는 의심되는 행동을 시작하는 사람, 가정의 방내에서 이동하는 어린이, 주차장에 들어오거나 나가는 차량 등일 수 있다. 상기 검출 및 트래킹 동작(32)의 출력은 상기 영상(42) 내에서 빗금친 것으로 도시된, 관심있는 특정 물체(22-k)를 식별하는 정보를 포함한다.In video surveillance applications, the object of interest may be a person doing a particular action, for example, a person entering, leaving or suspecting a restricted area, a child moving in a home room, a vehicle entering or leaving a parking lot, and the like. . The output of the detection and tracking operation 32 includes information that identifies the particular object 22-k of interest, shown as hatched within the image 42.

동작(32)에서 사용된 검출 및 트래킹 장치의 특정 형식은 상기 응용에 의존하여 일반적으로 변할 것이다. 동작(32)에서 사용될 수 있는 종래의 검출 및 트래킹 기술들은 예를 들어, C.Wren, A.Azarbayejani, T.Darrell, A.Pentland, APfinder :Real-time Tracking of the Human Body,

Figure 112007002919013-pct00005
IEEE Trans.PAMI,19(7):780-785,July 1997;H.Rowley,S.Bluja,T.Kanade,ARotation Invariant Neural Network-Based Face Detection,
Figure 112007002919013-pct00006
Proc.IEEE Conf.on Computer Vision,pp.38-44, June 1998; and A.Lipton, H.Fujiyoshi, R.Patil,AMoving Target Classification and Tracking from Real-Time Video,
Figure 112007002919013-pct00007
Proc.IEEE Workshop on Application of Computer Vision,pp.8-14,Oct 1998.에 기술된 것을 포함한다.The particular type of detection and tracking device used in act 32 will generally vary depending on the application. Conventional detection and tracking techniques that can be used in operation 32 include, for example, C.Wren, A. Azarbayejani, T. Darrell, A. Pentland, APfinder: Real-time Tracking of the Human Body,
Figure 112007002919013-pct00005
IEEE Trans. PAMI, 19 (7): 780-785, July 1997; H. Rowley, S. Bluja, T. Kanade, AROTATION Invariant Neural Network-Based Face Detection,
Figure 112007002919013-pct00006
Proc. IEEE Conf. On Computer Vision, pp. 38-44, June 1998; and A. Lipton, H. Fujiyoshi, R. Patil, AMoving Target Classification and Tracking from Real-Time Video,
Figure 112007002919013-pct00007
Proc. IEEE Workshop on Application of Computer Vision, pp. 8-14, Oct 1998.

도 2의 광학 주밍 동작(34)은 바람직한 출력 영상 품질이 달성되는 것을 보장하도록 충분한 양의 주밍을 제공하며, 반면에 또한 관심있는 물체의 어떤량의 움직임을 허용한다. 상기 광학 주밍 동작(34)은 상기 관심있는 물체(22-k)를 프레이밍하기 위한 팬 및 틸트 동작들을 가진 프레이밍 부분을 포함하며, 지정된 정지 기준이 만족될 때까지 계속되는 주밍동작을 가진 주밍 부분이 뒤따른다.The optical zooming operation 34 of FIG. 2 provides a sufficient amount of zooming to ensure that the desired output image quality is achieved, while also allowing some amount of movement of the object of interest. The optical zooming operation 34 includes a framing portion having pan and tilt operations for framing the object of interest 22-k, followed by a zooming portion having a zooming operation that continues until a specified stop criterion is satisfied. Follow.

상기 카메라 렌즈의 방사상 왜곡(radial distortion)이 무시할만하다고 가정하면, 다음의 접근법이 동작(34)의 프레이밍 부분에서의 필요한 양의 팬 및 틸트를 판단하기 위해 사용될 수 있다. 관심있는 물체(22-k)가 영상(42)내의 화소 좌표 위치(x,y)에 위치한 바와 같이 동작(32)에서 검출된다고 가정한다. 동작(34)의 프레이밍 부분은 관심있는 물체가 상기 영상의 중심(cx, cy)에 나타나도록 카메라(18)의 팬과 틸트를 조절한다. 카메라 줌 인자(zoom factor) ZF=1 일 때 미리 결정된 바와 같이, ZF를 현재의 줌 인자,αP C를 현재의 카메라 팬 각도, αT C를 현재의 카메라 틸트 각도, 및 D를 화소당 디그리(degrees)의 수라고 한다. 상기 새로운 팬 각도 αP N과 새로운 틸트 각도 αT N은 그다음에 다음과 같이 주어진다:Assuming that the radial distortion of the camera lens is negligible, the following approach can be used to determine the required amount of pan and tilt in the framing portion of operation 34. Assume that object 22-k of interest is detected at operation 32 as located at pixel coordinate position (x, y) in image 42. The framing portion of operation 34 adjusts the pan and tilt of camera 18 such that the object of interest appears in the center of the image (c x , c y ). As previously determined when the camera zoom factor ZF = 1, ZF is the current zoom factor, α P C is the current camera pan angle, α T C is the current camera tilt angle, and D is the pixel per pixel. It is called the number of degrees. The new pan angle α P N and the new tilt angle α T N are then given as:

αP N = αP C + D*((x-cx)/ZF),α P N = α P C + D * ((xc x ) / ZF),

αT N = αT C + D*((y-cy)/ZF).α T N = α T C + D * ((yc y ) / ZF).

다른 기술들도 동작(34)의 프레이밍 부분들을 위한 적절한 팬과 틸트 조절을 결정하는데 사용될 수 있다. 예를 들어, 상기 카메라 렌즈의 방사상 왜곡의 존재하에서 팬과 틸트를 결정하기 위한 기술은 당업자에게 분명할 것이다. Other techniques may also be used to determine appropriate pan and tilt adjustments for the framing portions of act 34. For example, techniques for determining pan and tilt in the presence of radial distortion of the camera lens will be apparent to those skilled in the art.

동작(34)의 프레이밍 부분의 완료후에, 동작(34)의 주밍 부분이 시작된다. 이미 언급된 바와 같이, 동작(34)의 상기 부분은 하나이상의 지정된 정지 기준이 만족될 때까지 계속되는 광학 주밍을 포함한다. 사용될 수 있는 다수의 서로 다른 형식의 정지 기준이 있다. 고정된 정지 기준 접근법에서, 관심있는 물체가 영상의 고정된 퍼센티지를 점유할 때까지 상기 광학 주밍은 계속된다. 예를 들어, 비디오 회의 시스템에서, 상기 광학 주밍은 상기 현재의 발언자의 머리가 상기 영상의 수직 크기의 25 % 과 35 % 사이에서 점유할 때까지 계속될 수 있다. 물론, 사용된 상기 특정 퍼센티지는 상기 프래킹 응용에 의존하여 변할 것이다. 특정한 응용에 적합한 상기 특정 퍼센티지들은 당업자에 의해 올바른 방식으로 결정될 수 있다.After completion of the framing portion of operation 34, the zooming portion of operation 34 begins. As already mentioned, the portion of operation 34 includes optical zooming that continues until one or more specified stop criteria are met. There are a number of different types of stop criteria that can be used. In a fixed stationary reference approach, the optical zooming continues until the object of interest occupies a fixed percentage of the image. For example, in a video conferencing system, the optical zooming may continue until the head of the current speaker occupies between 25% and 35% of the vertical size of the image. Of course, the specific percentage used will vary depending on the fracting application. Such specific percentages suitable for a particular application can be determined by a person skilled in the art in a correct manner.

동적 정지 기준 접근법에서, 상기 광학 주밍은 관심있는 물체가 상기 영상의 지정된 퍼센티지에 도달할 때까지 계속되지만, 상기 접근법에서의 퍼센티지는 관심있는 물체와 연관된 다른 검출된 품질의 함수이다. 예를 들어, 상기 퍼센티지는 분명한 움직임의 레벨, 특정 키워드 또는 다른 오디오 또는 음성 단서들의 사용, 세기의 변화, 피치 또는 다른 음성 품질 등과 같은 품질들의 함수로서 변할 수 있다. 다시, 특정 퍼센티지 및 그것들이 상기 검출된 품질들에 기초하여 변하는 방식은 특정 트래킹 응용에 일반적으로 의존할 것이며 당업자에 의해 올바른 방식으로 결정될 수 있다. In the dynamic stop reference approach, the optical zooming continues until the object of interest reaches a specified percentage of the image, but the percentage in this approach is a function of other detected quality associated with the object of interest. For example, the percentage may vary as a function of qualities such as the level of apparent movement, the use of certain keywords or other audio or voice cues, changes in intensity, pitch or other voice quality, and the like. Again, the particular percentage and how they vary based on the detected qualities will generally depend on the particular tracking application and can be determined in a correct manner by one skilled in the art.

상기 광학 주밍 동작(34)의 결과는 광학적으로-주밍된 영상(44)이며, 여기서 관심있는 물체(22-k)는 상기 영상내에 중심에 위치되고 상기된 고정 또는 동적 정지 기준에 기초하여 결정된 바와 같이 상기 영상의 바람직한 퍼센티지를 점유한다. 상기 영상(44)은, 예를 들어 메모리(14)내에서, 상기 시스템(10)에 의해 저장될 수 있다.The result of the optical zooming operation 34 is an optically-zipped image 44, wherein the object of interest 22-k is centered within the image and determined based on the fixed or dynamic stop criteria described above. Likewise, it occupies the desired percentage of the image. The image 44 may be stored by the system 10, for example in the memory 14.

상기 가상 주밍 동작(36)은 그다음에 상기 광학적으로 주밍된 영상(44)상에서 수행된다. 상기 가상 주밍 동작은 우선 상기 영상(44)으로부터 관심있는 영역을 추출한다. 예를 들어, 상기 비디오 회의 응용에서, 관심있는 영역(47)은 현재 관심있는 물체(22-k)의 머리와 어깨로서 식별될 수 있다. 비디오 감시 응용에서, 관심있는 영역은 관심있는 물체의 손, 발, 머리, 몸통, 또는 다른 지정된 부분일 수 있다. 관심있는 영역의 식별은 동적 프로세스일 수 있고, 예를 들어 이것은 현재의 트래킹 목표에 기초하여 오퍼레이터에 의해 선택될 수 있다. 관심있는 영역은 알려진 기술들, 예를 들어 관심있는 물체의 검출과 연결하여 상기된 참조문헌들에 서술된 기술들을 사용하여 식별되고 추출될 수 있다. 관심있는 상기 추출된 영역은 그다음에 가상으로-주밍된 영상(46)을 포함하는 비디오 출력을 발생시키기 위해 잘 알려진 영상 보간 기술을 사용하여 보간된다. 상기 영상(46)은 그래서 상기 광학적으로-주밍된 영상(44)의 가상 줌을 나타낸다.The virtual zooming operation 36 is then performed on the optically zoomed image 44. The virtual zooming operation first extracts an area of interest from the image 44. For example, in the video conferencing application, the region of interest 47 can be identified as the head and shoulder of the object 22-k that is currently of interest. In video surveillance applications, the area of interest may be the hand, foot, head, torso, or other designated portion of the object of interest. The identification of the region of interest may be a dynamic process, for example it may be selected by the operator based on the current tracking goal. The region of interest can be identified and extracted using known techniques, for example, the techniques described in the references referenced above in connection with the detection of an object of interest. The extracted region of interest is then interpolated using well-known image interpolation techniques to generate a video output comprising a virtually-zipped image 46. The image 46 thus represents a virtual zoom of the optically-zipped image 44.

상기 가상 주밍 동작(36)은 상기 검출과 트래킹 동작(32) 및 광학 주밍 동작 (34)과 다른 시스템에서 수행될 수 있다는 것을 유의해야 한다. 예를 들어, 상기 영상(44)은 압축되고 그다음에 I/O 장치(15)를 통해 상기 시스템(10)으로부터 전송될 수 있으며, 상기 가상 주밍 동작은 대응하는 수신기의 신호 처리 장치에서 수행된다.It should be noted that the virtual zooming operation 36 may be performed in a different system than the detection and tracking operation 32 and the optical zooming operation 34. For example, the image 44 may be compressed and then transmitted from the system 10 via an I / O device 15, wherein the virtual zooming operation is performed in the signal processing device of the corresponding receiver.

유리하게, 상기 하이브리드 장치(30)는 관심있는 물체의 부분상의 어떤 양의 움직임을 허용하고, 반면에 상기 비디오 출력에서 바람직한 레벨의 영상 품질을 보존한다. 예를 들어, 관심있는 물체(22-k)가 움직인다면, 상기 가상 주밍 동작(36)은 상기 광학 주밍 동작(34)에서 결정된 동일한 팬, 틸트, 및 줌 세팅을 사용하여 반복될 수 있다. 상기 경우에서, 상기 가상 줌의 추출 및 보간 동작들은 관심있는 물체(22-k)가 상기 영상의 중심에 실질적으로 있게되는 출력 영상을 발생시킬 수 있다.Advantageously, the hybrid device 30 allows some amount of movement on the portion of the object of interest, while preserving the desired level of image quality in the video output. For example, if the object of interest 22-k moves, the virtual zooming operation 36 may be repeated using the same pan, tilt, and zoom settings determined in the optical zooming operation 34. In this case, the extraction and interpolation operations of the virtual zoom may generate an output image in which the object of interest 22-k is substantially at the center of the image.

상기 하이브리드 장치(30)는 언제 상기 가상 주밍 및 광학 주밍 작동이 반복되어야 하는지를 결정하기 위한 다수의 임계값들을 통합할 수 있다. 예를 들어, 관심있는 물체의 주어진 양의 움직임이 제 1 임계값을 초과한다면, 상기 가상 주밍 동작 (36)은 상기 카메라의 팬, 틸트, 및 줌 세팅이 변경되지 않은 채로 반복될 수 있다. 상기 주어진 양의 움직임이 제 2의 더높은 임계값을 초과한다면, 상기 광학 주밍 단계(34)는 새로운 팬, 틸트, 및 줌 세팅을 결정하기 위해 반복될 수 있고, 그다음에 상기 가상 주밍 동작(36)은 상기 바람직한 출력 영상(46)을 얻기 위해 반복된다. 피드백 경로(48)는 상기 광학 주밍 동작(34)과 상기 검출 및 트래킹 동작(32) 사이에 포함되어서, 상기 검출 및 트래킹 동작은, 필요하다면, 예를 들어, 상기 광학 주밍 동작이 관심있는 물체의 실질적 움직임을 검출하여 더이상 상기 물체를 트래킹하지 않을 경우에, 반복될 수 있다.The hybrid device 30 may incorporate a number of thresholds for determining when the virtual zooming and optical zooming operations should be repeated. For example, if a given amount of movement of an object of interest exceeds a first threshold, the virtual zooming operation 36 may be repeated without changing the pan, tilt, and zoom settings of the camera. If the given amount of movement exceeds the second higher threshold, the optical zooming step 34 may be repeated to determine new pan, tilt, and zoom settings, and then the virtual zooming operation 36 ) Is repeated to obtain the desired output image 46. A feedback path 48 is included between the optical zooming operation 34 and the detection and tracking operation 32 such that the detection and tracking operation is, if necessary, for example, of the object of interest. It can be repeated if it detects no substantial movement and no longer tracks the object.

본 발명의 상기 하이브리드 광학 및 가상 줌 장치는 종래의 접근법들에 대한 다수의 중요한 장점들을 제공한다. 이미 서술된 바와 같이, 상기 하이브리드 장치는 새로운 광학 팬, 틸트, 및 줌 세팅을 결정할 필요없이 관심있는 물체의 몇몇 움직임을 수용하며, 반면에 또한 바람직한 출력 영상 품질 레벨을 제공한다. 상기 PTZ 카메라가 너무 멀리 주밍 인 하는 것을 방지하여, 본 발명은 상기 PTZ 카메라 세팅이 덜 자주 조절되며, 상기 시스템 프로세서상의 계산상의 부하가 그에 의해 종래의 광학 줌 접근법에 의해 요구되는 것에 관하여 감소된다. 부가하면, 본 발명의 하이브리드 장치는 영상 전송을 위한 개선된 압축 속도를 제공할 수 있다. 예를 들어, 상기된 바와 같이, 상기 가상 줌 동작은 영상이 상기 I/O 장치(15)를 통해 상기 시스템(10)으로부터 수신기로 전송된 후에 수행될 수 있다. 결과적으로, 상기 전송된 영상내의 물체의 비율은 종래의 접근법을 사용했을때보다 더 낮으며, 그에 의해 더적은 압축과 개선된 압축 속도를 허용한다.The hybrid optical and virtual zoom device of the present invention provides a number of important advantages over conventional approaches. As already described, the hybrid device accommodates several movements of the object of interest without having to determine new optical pan, tilt, and zoom settings, while also providing a desirable level of output image quality. By preventing the PTZ camera from zooming in too far, the present invention allows the PTZ camera settings to be adjusted less frequently and the computational load on the system processor is thereby reduced relative to what is required by conventional optical zoom approaches. In addition, the hybrid device of the present invention can provide an improved compression rate for image transmission. For example, as described above, the virtual zoom operation may be performed after an image is transmitted from the system 10 to the receiver via the I / O device 15. As a result, the proportion of objects in the transmitted image is lower than when using the conventional approach, thereby allowing for less compression and improved compression speed.

본 발명의 상술된 실시예는 예시적인 것으로만 의도된다. 예를 들어, 본 발명은 어떤 바람직한 관심있는 물체의 실시간 트래킹을 수행하는데 사용될 수 있고, 넓은 종류의 응용에서 비디오 회의 시스템, 비디오 감시 시스템, 및 다른 카메라에 기초한 시스템들을 포함한다. 부가하면, 단일 PTZ 카메라를 가진 시스템을 사용하는 것이 예시되었지만, 본 발명은 다수의 PTZ 카메라들을 가진 시스템들과 영상 포착 장치의 다른 형식 및 배열을 가진 시스템들에도 적용될 수 있다. 더욱이, 본 발명은 관심있는 물체를 검출하고 트래킹하며, 관심있는 영역을 추출하고 보간하기 위해 많은 서로 다른 형식의 기술들을 이용할 수 있다. 본 발명은 전자, 자기, 또는 광학 매체 상에 저장되고 처리 장치, 예를 들어 시스템(10)의 프로세서(12)에 의해 수행되는 하나이상의 소프트웨어 프로그램들의 형식으로 적어도 부분적으로 수행될 수 있다. 다음의 청구항의 범위내의 상기 및 다수의 다른 실시예들은 당업자에게 분명해질 것이다. The above-described embodiments of the present invention are intended to be illustrative only. For example, the present invention can be used to perform real time tracking of any desired object of interest and includes video conferencing systems, video surveillance systems, and other camera based systems in a wide variety of applications. In addition, although the use of a system with a single PTZ camera has been illustrated, the invention may be applied to systems with multiple PTZ cameras and to systems with other formats and arrangements of image capture devices. Moreover, the present invention can use many different types of techniques to detect and track objects of interest, and to extract and interpolate regions of interest. The invention may be performed at least in part in the form of one or more software programs stored on an electronic, magnetic or optical medium and executed by a processing device, for example the processor 12 of the system 10. These and many other embodiments within the scope of the following claims will be apparent to those skilled in the art.

Claims (14)

비디오 처리 시스템(10)에서 관심있는 물체(22-k)를 트래킹하기 위한 방법에 있어서,A method for tracking an object of interest 22-k in a video processing system 10, 카메라(18)에 의해 발생된 제 1 영상(40)에서 상기 관심있는 물체를 검출하는 단계;Detecting the object of interest in a first image (40) generated by a camera (18); 상기 관심있는 물체에 기초한 하나 이상의 지정된 정지 기준에 따라 상기 카메라에 대한 적어도 하나의 줌(zoom) 세팅을 설정하기 위해 광학 주밍 동작(34)을 수행하는 단계; 및Performing an optical zooming operation (34) to set at least one zoom setting for the camera according to one or more specified stop criteria based on the object of interest; And 상기 설정된 세팅에서 상기 카메라에 의해 발생된 제 2 영상(44)의 가상 주밍 동작(36)을 수행하는 단계를 포함하는, 트래킹 방법.Performing a virtual zooming operation (36) of a second image (44) generated by the camera at the set setting. 비디오 처리 시스템(10)에서 관심있는 물체(22-k)를 트래킹하기 위한 장치에 있어서,A device for tracking an object of interest 22-k in a video processing system 10, 카메라(18); 및Camera 18; And 상기 카메라에 결합되고, 상기 카메라에 의해 발생된 제 1 영상(40)에서 상기 관심있는 물체를 검출하기 위해 동작하는 프로세서(12)를 포함하며,A processor 12 coupled to the camera and operative to detect the object of interest in a first image 40 generated by the camera, 상기 프로세서는,The processor, (i) 상기 관심있는 물체에 기초한 하나 이상의 지정된 정지 기준에 따라 상기 카메라에 대한 적어도 하나의 줌 세팅을 설정하기 위한 광학 주밍 동작(34)의 수행; 및(i) performing an optical zooming operation 34 to set at least one zoom setting for the camera according to one or more specified stop criteria based on the object of interest; And (ii) 상기 설정된 세팅에서 상기 카메라에 의해 발생된 제 2 영상(44)의 가상 주밍 동작(36)의 수행을 관리(direct)하는, 트래킹 장치.(ii) directing the performance of the virtual zooming operation (36) of the second image (44) generated by the camera at the set setting. 제 2 항에 있어서,The method of claim 2, 상기 카메라는 조절가능한 팬(pan), 틸트(tilt), 및 줌(zoom) 세팅들을 가지는 팬-틸트-줌(PTZ) 카메라인, 트래킹 장치.The camera is a pan-tilt-zoom (PTZ) camera with adjustable pan, tilt, and zoom settings. 제 3 항에 있어서,The method of claim 3, wherein 상기 광학 주밍 동작은,The optical zooming operation, 상기 카메라의 상기 팬 및 틸트 세팅들을 조절함으로써, 상기 관심있는 물체를 프레이밍하는 단계; 및Framing the object of interest by adjusting the pan and tilt settings of the camera; And 상기 지정된 정지 기준이 만족될 때까지 상기 프레이밍된 관심있는 물체상에서 광학 줌을 수행하는 단계를 포함하는, 트래킹 장치.Performing optical zoom on the framed object of interest until the specified stop criterion is met. 제 2 항에 있어서,The method of claim 2, 상기 지정된 정지 기준은 상기 관심있는 물체가 결과적인 영상의 퍼센티지를 점유할 때까지 상기 광학 주밍이 계속되는 것을 표시하는, 트래킹 장치.The specified stop criterion indicates that the optical zooming continues until the object of interest occupies a percentage of the resulting image. 제 5 항에 있어서,The method of claim 5, 상기 퍼센티지는 고정된 퍼센티지인, 트래킹 장치.And said percentage is a fixed percentage. 제 5 항에 있어서,The method of claim 5, 상기 퍼센티지는 상기 관심있는 물체와 연관된 검출된 품질의 함수로서 변화하는, 트래킹 장치.The percentage varies as a function of detected quality associated with the object of interest. 제 7 항에 있어서,The method of claim 7, wherein 상기 관심있는 물체와 연관된 상기 검출된 품질은 분명한 움직임의 레벨, 특정 가청-검출가능한 단서의 사용, 및 음성 품질에서의 변화 중 적어도 하나를 포함하는, 트래킹 장치.And the detected quality associated with the object of interest comprises at least one of an apparent level of movement, the use of certain audible-detectable cues, and a change in speech quality. 제 2 항에 있어서,The method of claim 2, 상기 가상 주밍 동작은,The virtual zooming operation, 상기 제 2 영상내에서 관심있는 영역(47)을 식별하는 단계;Identifying an area of interest (47) in the second image; 상기 관심있는 영역을 추출하는 단계; 및Extracting the region of interest; And 제 3 영상(46)을 발생시키기 위해 상기 추출된 관심있는 영역을 보간하는 단계를 포함하는, 트래킹 장치. Interpolating the extracted region of interest to generate a third image (46). 제 3 항에 있어서,The method of claim 3, wherein 상기 프로세서는, 상기 관심있는 물체의 움직임의 레벨이 제 1 임계값을 초과한다면, 상기 광학 주밍 동작에서 설정된 팬, 틸트, 및 줌 세팅들을 사용하여 상기 제 2 영상의 상기 가상 주밍 동작의 반복을 관리하도록 더 동작하는, 트래킹 장치.The processor manages the repetition of the virtual zooming operation of the second image using pan, tilt, and zoom settings set in the optical zooming operation if the level of movement of the object of interest exceeds a first threshold. A tracking device further operative to. 제 10 항에 있어서,The method of claim 10, 상기 프로세서는, 상기 관심있는 물체의 움직임의 레벨이 상기 제 1 임계값보다 높은 제 2 임계값을 초과한다면, 상기 카메라에 대한 적어도 하나의 새로운 세팅을 설정하기 위해 상기 광학 주밍 동작의 반복을 관리하도록 더 동작하는, 트래킹 장치.The processor is configured to manage repetition of the optical zooming operation to set at least one new setting for the camera if the level of movement of the object of interest exceeds a second threshold that is higher than the first threshold. Tracking device. 제 2 항에 있어서,The method of claim 2, 상기 비디오 처리 시스템은 비디오 회의 시스템을 포함하는, 트래킹 장치.And the video processing system comprises a video conferencing system. 제 2 항에 있어서,The method of claim 2, 상기 비디오 처리 시스템은 비디오 감시 시스템을 포함하는, 트래킹 장치.And the video processing system comprises a video surveillance system. 하나 이상의 프로그램들이 기록된 컴퓨터 판독가능 기록 매체에 있어서,A computer readable recording medium having one or more programs recorded thereon, 카메라(18)에 의해 발생된 제 1 영상(40)에서 관심있는 물체(22-k)를 검출하는 단계;Detecting an object of interest 22-k in the first image 40 generated by the camera 18; 상기 관심있는 물체에 기초한 하나 이상의 지정된 정지 기준에 따라 상기 카메라에 대한 적어도 하나의 줌 세팅을 설정하기 위해 광학 주밍 동작(34)을 수행하는 단계; 및Performing an optical zooming operation (34) to set at least one zoom setting for the camera according to one or more specified stop criteria based on the object of interest; And 상기 설정된 세팅에서 상기 카메라에 의해 발생된 제 2 영상(44)상에서 가상 주밍 동작(36)을 수행하는 단계를 실행하는 상기 하나 이상의 프로그램들을 갖는, 컴퓨터 판독가능 기록 매체.And the one or more programs executing the step of performing a virtual zooming operation (36) on a second image (44) generated by the camera at the set setting.
KR1020017002637A 1999-06-29 2000-06-27 Real-time tracking of objects of interest using hybrid optics and virtual zooming devices Expired - Fee Related KR100711950B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US34364699A 1999-06-29 1999-06-29
US09/343,646 1999-06-29

Publications (2)

Publication Number Publication Date
KR20010079719A KR20010079719A (en) 2001-08-22
KR100711950B1 true KR100711950B1 (en) 2007-05-02

Family

ID=23346978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017002637A Expired - Fee Related KR100711950B1 (en) 1999-06-29 2000-06-27 Real-time tracking of objects of interest using hybrid optics and virtual zooming devices

Country Status (4)

Country Link
EP (1) EP1110397A1 (en)
JP (1) JP2003503910A (en)
KR (1) KR100711950B1 (en)
WO (1) WO2001001685A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1618400A1 (en) 2003-04-22 2006-01-25 Philips Intellectual Property & Standards GmbH Multiscale localization procedure
KR100585822B1 (en) * 2004-04-26 2006-06-01 주식회사 일리시스 Surveillance system using real-time panoramic video image and control method thereof
US8803978B2 (en) 2006-05-23 2014-08-12 Microsoft Corporation Computer vision-based object tracking system
CN101534413B (en) * 2009-04-14 2012-07-04 华为终端有限公司 System, method and apparatus for remote representation
US8860775B2 (en) 2009-04-14 2014-10-14 Huawei Device Co., Ltd. Remote presenting system, device, and method
CN102611872B (en) * 2011-01-19 2014-07-02 株式会社理光 Scene image conversion system and method based on area-of-interest dynamic detection
US9100572B2 (en) 2013-05-24 2015-08-04 Xerox Corporation Methods and systems for confidence-based image processing
US11430084B2 (en) 2018-09-05 2022-08-30 Toyota Research Institute, Inc. Systems and methods for saliency-based sampling layer for neural networks
CN112347924A (en) * 2020-11-06 2021-02-09 杭州当虹科技股份有限公司 Virtual director improvement method based on face tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5185667A (en) * 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5187674A (en) * 1989-12-28 1993-02-16 Honeywell Inc. Versatile, overpressure proof, absolute pressure sensor
US5200818A (en) * 1991-03-22 1993-04-06 Inbal Neta Video imaging system with interactive windowing capability

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0771288B2 (en) * 1990-08-24 1995-07-31 神田通信工業株式会社 Automatic view adjustment method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5187674A (en) * 1989-12-28 1993-02-16 Honeywell Inc. Versatile, overpressure proof, absolute pressure sensor
US5200818A (en) * 1991-03-22 1993-04-06 Inbal Neta Video imaging system with interactive windowing capability
US5185667A (en) * 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system

Also Published As

Publication number Publication date
KR20010079719A (en) 2001-08-22
JP2003503910A (en) 2003-01-28
WO2001001685A1 (en) 2001-01-04
EP1110397A1 (en) 2001-06-27

Similar Documents

Publication Publication Date Title
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US10929680B2 (en) Automatic extraction of secondary video streams
US6766035B1 (en) Method and apparatus for adaptive position determination video conferencing and other applications
Sun et al. Region of interest extraction and virtual camera control based on panoramic video capturing
JP2004515982A (en) Method and apparatus for predicting events in video conferencing and other applications
CN105554443B (en) The localization method and device in abnormal sound source in video image
KR101530255B1 (en) Cctv system having auto tracking function of moving target
US20100165112A1 (en) Automatic extraction of secondary video streams
JP2003532348A (en) Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications
EP2311256B1 (en) Communication device with peripheral viewing means
JPH07168932A (en) Method for search of human being in video image
WO2007003061A1 (en) System for videoconferencing
TWI588590B (en) Video generating system and method thereof
KR100711950B1 (en) Real-time tracking of objects of interest using hybrid optics and virtual zooming devices
US12272090B2 (en) Information processing apparatus, and information processing method
US20240422426A1 (en) Media apparatus and control method and device thereof, and target tracking method and device
Douxchamps et al. Robust real time face tracking for the analysis of human behaviour
JPH11331828A (en) Automatic tracking device
US20120075467A1 (en) Image capture device and method for tracking moving object using the same
US12165297B2 (en) Camera system and method for determining a viewing frustum
Zhang et al. Semantic saliency driven camera control for personal remote collaboration
JP2004128648A (en) Intruding object tracking method
JPH05145844A (en) Picture recognizing device
WO2024062971A1 (en) Information processing device, information processing method, and information processing program
Wu et al. A Real-Time Human Recognition and Tracking System With a Dual-Camera Setup

Legal Events

Date Code Title Description
PA0105 International application

St.27 status event code: A-0-1-A10-A15-nap-PA0105

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

A201 Request for examination
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U12-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20100421

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20100421

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000