[go: up one dir, main page]

WO2006067947A1 - カメラ端末および監視システム - Google Patents

カメラ端末および監視システム Download PDF

Info

Publication number
WO2006067947A1
WO2006067947A1 PCT/JP2005/022272 JP2005022272W WO2006067947A1 WO 2006067947 A1 WO2006067947 A1 WO 2006067947A1 JP 2005022272 W JP2005022272 W JP 2005022272W WO 2006067947 A1 WO2006067947 A1 WO 2006067947A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
monitoring
camera
terminal
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/022272
Other languages
English (en)
French (fr)
Inventor
Atsushi Yoshida
Katsuji Aoki
Shoichi Araki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006515480A priority Critical patent/JP3886524B2/ja
Priority to US10/585,989 priority patent/US7924311B2/en
Publication of WO2006067947A1 publication Critical patent/WO2006067947A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a monitoring system that captures a monitoring target area with a plurality of cameras and a camera terminal that constitutes the monitoring system, and more particularly to a monitoring system that captures the entire monitoring target area.
  • FIG. 1 is a diagram showing an apparatus for automatically adjusting the photographing region of the camera described in Patent Document 1.
  • a detection camera device 9010 captures a detection target over a wide imaging region using a camera 9011 and a reflecting mirror 9012, extracts the detection target from the same image captured by the moving object extraction unit 9013, and determines the position. Since the information extraction unit 9014 extracts the position information of the detection target, the detection camera device 9010 acquires the position information of the detection target over a wide detection area.
  • the camera control unit 9022 controls the turning angle and the depression angle and the zoom ratio of the camera 9021 based on the position information of the detection target, and the judgment camera device 9 020 takes an enlarged image of the detection target. , Get detailed information of the detection target.
  • FIG. 2 is a diagram showing detection areas of the detection camera device 9010 and the determination camera device 9020.
  • the black circle indicates the installation position of the detection camera device 9010.
  • 9010 is a fixed camera. Circles or hexagons indicate the imaging area of each detection camera device 9010. As shown in FIG. 2, if each detection camera device 9010 is artificially and regularly installed, it is possible to always detect the detection target area, which is the monitoring target area, without a blind spot.
  • FIG. 3 is a diagram showing an apparatus for automatically adjusting the imaging area of the camera described in Patent Document 2 above.
  • the moving object detection camera 9211 which has the purpose of photographing the object over a wide photographing area, changes its own photographing area by the posture control means 9212 and aims to photograph an enlarged image of the object.
  • the surveillance camera 9221 that bears the image changes its own imaging area by the posture control means 9222.
  • the shooting area of each camera is determined by the camera angle-of-view storage means 9231 and the camera angle-of-view storage means in the image processing device 9240 from the position of the detection target from which the image force captured by the moving object detection camera 9211 is extracted and the shooting area of each camera. Determined based on information stored in advance in 9232.
  • FIGS. 4, 5 and 6 are diagrams for explaining the method of determining the shooting area of each camera, and show images taken by the moving object detection camera 9211 divided into several block images.
  • the imaging area of the moving object detection camera 9211 is determined as follows. When there is a detection target in the block indicated by the diagonal lines in FIG. 4, each block position corresponds to the block position shown in FIG. 4 in the direction indicated by the arrow in each block in FIG. Change the posture of the moving object detection camera 9211 and change the shooting area of the camera.
  • the shooting area of the moving object detection camera 9211 corresponding to each block position is determined in advance by a human, and the same information is preset in the camera angle-of-view storage means 9231.
  • the imaging area of the monitoring power camera 9221 is determined as follows. When the detection target exists at the block position shown in FIG. 6, the posture of the monitoring camera 9221 is changed so as to become the shooting area indicated by the broken line, and the shooting area of the camera is changed.
  • the imaging area of the monitoring power camera 9221 corresponding to each block position is determined in advance by a human being, and the same information is preset in the camera angle-of-view storage means 9232.
  • the detection camera device 9010 detects a detection target in a wide area in the conventional device shown in Patent Document 2 and the moving object detection camera 9211 detects the detection target.
  • Details of the detection target such as the judgment camera device 9020 in the conventional device shown in Patent Document 1 and the surveillance camera 9221 in the conventional device shown in Patent Document 2, such as a magnified image to be detected.
  • each camera has a predetermined role, and the camera having one role fulfills the first request and the camera having the other role fulfills the second request. (Feature 1 of the prior art)
  • the imaging region of the moving object detection camera 9211 is in the upper left of FIG. 5 in response to a situation change in which there is a monitoring target in the upper left block of FIG.
  • the shooting area of each camera is based on information in a table format that defines the behavior of the camera for situations created by humans in advance so that the detection area moves to the upper left as shown in the block. Determine and adjust (prior art feature 2).
  • the conventional apparatus shown in Patent Document 1 achieves the first requirement by setting a fixed camera in a regular position by a human in advance. (Feature 3 of the conventional technology).
  • Patent Document 1 Japanese Patent No. 3043925 (Figs. 1 and 6)
  • Patent Document 2 Japanese Patent No. 3180730 (Fig. 1, Fig. 7 to Fig. 9)
  • the first request is achieved by a human being placing a fixed camera in a regular position in advance (feature 3 of the above prior art). But if it fails, the first requirement can no longer be achieved. As shown in FIG. 7, by increasing the number of detection camera devices 9010, even if one of them fails, the detection target area can be covered without blind spots, but it must be said that it is inefficient. In FIG. 7, black circles indicate the installation positions of the detection camera device 9010.
  • the present invention solves the above-mentioned conventional problems, and it is not necessary to describe in the camera behavior table for a situation assumed by a human in advance, and there is a failure, maintenance inspection, etc.
  • the purpose of this system is to provide a surveillance camera and a surveillance system that can continue to capture the entire surveillance area even if some cameras are stopped due to the above.
  • a camera terminal is a single camera terminal in a monitoring system that images a monitoring target region by a plurality of camera terminals operating in cooperation with each other,
  • a communication means for transmitting / receiving information specifying the shooting area to / from other camera terminals, and a shooting area to be monitored by each camera terminal are set as monitoring areas, Based on the information from the other camera terminals received by the communication means, the monitoring area of the own camera terminal is adjacent to the monitoring area of the other camera terminal or the boundary line of the monitoring target area without a gap.
  • an adjustment unit that determines the monitoring area of the camera terminal and adjusts the shooting area of the camera so that the entire monitoring area is shot.
  • each of the plurality of camera terminals operates autonomously and cooperatively while communicating with other camera terminals, and covers each monitoring charge area.
  • the entire monitoring target area is bearish. Will be filmed at the same time.
  • each camera terminal determines the area in charge of monitoring by communicating with other camera terminals and covers the area in charge of monitoring. Since the position and range of the shooting area are adjusted, only the camera terminal that can shoot can shoot the entire monitoring area.
  • each monitoring charge area is an area surrounded by a vertical bisector or the like of a line segment that connects reference points in adjacent imaging areas, so that the size of each monitoring charge area is made uniform. This makes it easier to take a balanced picture in terms of resolution.
  • the first reference point is preferably a coordinate on the monitoring target area projected at the center of the imaging surface of the camera of the self-powered camera terminal or a center coordinate of the imaging area.
  • the camera further has a function of changing the position of the imaging region
  • the adjusting means further compares the monitoring charge area of the self-powered Mera terminal with the monitoring charge area adjacent to the monitoring charge area.
  • a monitoring charge area comparison / evaluation unit that determines the position of the imaging area so that the monitoring charge area of the self-supporting Mera terminal approaches the size of the monitoring charge area adjacent to the monitoring charge area by evaluating the camera
  • the control unit may control the camera so as to approach the position of the imaging region determined by the monitoring region comparison / evaluation unit.
  • the monitoring person-in-charge region comparison and evaluation unit for example, moves the first reference point so that the distances from the first reference point to each boundary line of the monitoring person-in-charge area become equal, thereby It is preferable to determine the position.
  • each monitoring charge area is made uniform, the size and the level of detail of images taken in each shooting area are substantially equal, and the entire monitoring target area is shot all over, A monitoring system that can easily detect abnormal situations is realized.
  • the camera further has a function of controlling a line-of-sight direction
  • the adjustment unit further includes a direction of the line-of-sight of the camera so that the shape of the imaging area and the shape of the monitoring area are close to each other. It is good also as a structure which has a gaze direction adjustment part which adjusts.
  • the line-of-sight direction adjustment unit uses, for example, an evaluation function for evaluating the difference between the shape of the imaging area and the shape of the monitoring area, and the shape of the imaging area and the shape of the monitoring area It is preferable that the viewing direction of the camera is determined so that the evaluation value of the evaluation function approaches the target value when the evaluation value at the time of matching is set as the target value.
  • the distance from the reference point to the boundary line of the monitoring charge area is determined for a plurality of directions passing through the reference point. It is preferable that the target value is zero as a function indicating the variance of the ratio of the distance from the reference point to the boundary line of the imaging region.
  • each shooting area approaches the shape of the monitoring charge area, so that unnecessary areas where the shooting areas overlap are reduced, and monitoring is performed with a plurality of camera terminals without degrading the resolution.
  • the entire target area can be photographed.
  • the present invention can be realized as a monitoring system including camera terminals that can only be realized as a camera terminal, as a monitoring method using a plurality of camera terminals, or as a program incorporated in a camera terminal or the like. It can also be realized.
  • a centralized management configuration in which a plurality of camera terminals, which are configured only by a distributed control configuration in which an adjustment unit is provided in each camera terminal, is controlled by a common adjustment unit connected via a communication network.
  • the program according to the present invention can be distributed via a storage medium such as a CD-ROM or a transmission medium such as the Internet.
  • each other A blind spot area is created in the monitored area by determining the area in charge of monitoring from the positional relationship of the shooting areas and adjusting the focal length so that the entire area in charge of monitoring is reflected. The position of the shooting area and the shooting range of each camera terminal are automatically determined.
  • FIG. 1 is a block diagram showing a configuration of a first prior art.
  • FIG. 2 is an explanatory diagram showing a camera field of view according to the first prior art.
  • FIG. 3 is a block diagram showing the configuration of the second conventional technique.
  • FIG. 4 is an operation explanatory diagram of the second conventional technique.
  • FIG. 5 is an operation explanatory diagram of the second prior art.
  • Fig. 6 is an operation explanatory diagram of the second prior art.
  • FIG. 7 is an operation explanatory diagram of the second prior art.
  • FIG. 8 is a block diagram showing a configuration of a monitoring system in Embodiment 1 according to the present invention.
  • FIG. 9 is a block diagram showing a configuration of a camera.
  • FIG. 10 is a block diagram showing a configuration of an adjustment unit.
  • FIG. 11 is a diagram showing an example of map data.
  • FIG. 12 is a diagram for explaining the operation of the monitoring system in the first embodiment.
  • FIG. 13 is a flowchart showing the operation procedure of the monitoring system in the first embodiment.
  • FIG. 14 is a diagram for explaining the operation of the monitoring system (selection of cooperative monitoring members).
  • FIG. 15 is a diagram for explaining the operation of the monitoring system (determination of the monitoring area).
  • FIG. 16 is a diagram illustrating an operation example of the monitoring system.
  • FIG. 17 is a diagram showing an operation example of the monitoring system.
  • FIG. 18 is a diagram showing an operation example of the monitoring system (part of which is an operation when a failure occurs).
  • FIG. 19 is a block diagram showing a configuration of a monitoring system in Embodiment 2 according to the present invention.
  • FIG. 20 is a block diagram showing a configuration of a camera.
  • FIG. 21 is a block diagram showing a configuration of an adjustment unit.
  • FIG. 22 is a flowchart showing the operation procedure of the monitoring system in the second embodiment.
  • FIG. 23 is a diagram for explaining the operation of the monitoring system.
  • FIG. 24 is a diagram for explaining an evaluation function F.
  • FIG. 25 is a diagram showing an operation example of the monitoring system.
  • FIG. 26 is a diagram for explaining the relationship between the imaging area and the monitoring person-in-charge area in the third embodiment of the present invention.
  • FIG. 27 is a diagram for explaining the relationship between the imaging region and the monitoring charge region in the third embodiment of the present invention.
  • FIG. 28 is a diagram for explaining an evaluation function G.
  • FIG. 29 is a block diagram showing a configuration of a monitoring system in Embodiment 3 according to the present invention.
  • FIG. 30 is a block diagram showing a configuration of a camera.
  • FIG. 31 is a block diagram showing a configuration of an adjustment unit.
  • FIG. 32 is a flowchart showing an operation procedure of the monitoring system in the third embodiment of the present invention.
  • FIG. 33 is a diagram illustrating an operation example of the monitoring system.
  • FIG. 34 is a diagram showing an operation example of the monitoring system.
  • FIG. 35 is a diagram for explaining a method for determining a monitoring charge area.
  • FIG. 36 is a diagram for explaining a method of calculating an imaging region in supplementary explanation 1.
  • FIG. 37 is a diagram for explaining a focal length calculation method for determining the imaging region in Supplementary Explanation 2.
  • FIG. 38 is a diagram for explaining a method of calculating a focal length that determines an imaging region in supplementary explanation 2.
  • FIG. 39 is a block diagram showing a configuration of a monitoring system in which the adjustment unit is outside the camera terminal.
  • FIG. 40 shows the configuration of the adjustment unit of the monitoring system in which the adjustment unit is outside the camera terminal.
  • FIG. 8 is a block diagram showing a configuration of the monitoring system according to Embodiment 1 of the present invention.
  • This monitoring system is a system that captures a monitoring target area by cooperative operation of a plurality of camera terminals. A zoom control of a sufficient number of cameras for capturing the communication network 112 and the entire monitoring target area 130 is performed. A plurality of camera terminals having the same function is possible.
  • the installation positions and the installation directions of the camera terminals 110A to 110N are adjusted and fixed in advance so that the imaging areas 140A to N are arranged at a predetermined interval.
  • This monitoring system is characterized in that each camera terminal 110A-N automatically adjusts the shooting range so that the entire monitoring target area 130 is projected according to the installation position and installation direction of each camera terminal. Have.
  • the monitoring target area 130 is an entire area that is a monitoring target by a monitoring system including a plurality of camera terminals 110A to 110N.
  • the shooting areas 140A to N are areas that are shot by the camera terminals 110A to N, respectively.
  • the monitoring charge areas 150A to N are areas where the camera terminals 110A to 110N are responsible for shooting.
  • the communication network 112 is a transmission path that connects a plurality of camera terminals 110A to 110N (that is, communication units 103A to 103N included in the camera terminals 110A to 110N).
  • Each of the camera terminals 110A to 110N is an apparatus that determines the shooting area including the area in charge of monitoring of the self-powered Mera terminal by communicating with other camera terminals, and shoots the determined shooting area, Cameras 101A-N, adjustment units 102A-N, and communication units 103A-N.
  • Each of the cameras 101A to 101N is a camera having a function of changing a shooting area (zoom control or the like), for example, a CCD camera or the like for capturing an image in the monitoring target area 130.
  • the communication units 103A to 103N transmit and receive information (shooting area position and shooting range) identifying the shooting area to and from other camera terminals via the communication network 112, respectively. It is a communication interface.
  • the adjusting units 102A to 102N determine areas (monitoring areas 150A to 150N) in which the cameras 101A to N are responsible for monitoring, respectively, and the imaging areas 140A to N are respectively corresponding monitoring areas 150A.
  • -N is a processing unit that adjusts the shooting range so that the entire image is captured.
  • the adjustment unit 102A determines that the area in charge of monitoring of the own camera terminal 110A is another camera terminal 110B or the like based on information from the other camera terminal 110B received by the communication unit 103A.
  • the camera 101A determines the monitoring area of its own camera terminal 110A so that it is adjacent to the boundary line of the monitoring area or the monitoring target area without any gap, and the entire camera area 110A is photographed by the camera 101A. Adjust the shooting area (shooting area of the shooting area). At this time, as a specific example of the monitoring area, the adjustment unit 102A determines the first reference point set in the shooting area of the self-powered Mera terminal 110A and the shooting area of another camera terminal adjacent to the shooting area. The area surrounding the first reference point is determined as the monitoring area based on the vertical bisector connecting the second reference point or the perpendicular bisector and the boundary line of the monitoring target area. To do.
  • the first and second reference points are, for example, coordinates on the monitoring target area displayed at the center of the imaging surface of the camera terminal camera corresponding to the monitoring charge area, that is, the camera of the camera terminal. This is the point where the line of sight intersects the monitored area, or the center coordinates of the shooting area of the camera terminal.
  • FIG. 8 for simplification of description, a force in which the range of the monitoring target area 130, the imaging areas 140A to N, and the monitoring charge areas 150A to N is expressed by a one-dimensional straight line is shown.
  • the areas expressed by the above plane, curved surface, and three-dimensional shape are also included in the targets of the monitoring target area 130, the imaging areas 140A to N, and the monitoring charge areas 150A to N, respectively.
  • FIG. 9 (a) is a block diagram showing the internal configuration of each camera 101A-N.
  • Each of the cameras 101A to 101N is a CCD camera or the like capable of zoom control, and includes a lens 201, an imaging unit 202, an image processing unit 203, and a focus control unit 204.
  • the lens 201 is a lens or the like for forming an image.
  • the imaging unit 202 is an element such as a CCD that captures an image formed by the lens 201.
  • the image processing unit 203 is a processing unit that processes the image captured by the imaging unit 202.
  • the focus control unit 204 is a mechanism such as a stepping motor that changes the distance between the lens 201 and the imaging unit 202, and as shown in FIG.9 (b), the distance between the lens 201 and the imaging unit 202 (focal length). ) Is a mechanism unit that changes the shooting range of the shooting area of the camera 101A or the like by increasing or decreasing. Note that the method for calculating the position of the shooting area taken by the camera 101A or the like will be described in supplementary explanation 1 described later.
  • FIG. 10 is a block diagram showing an internal configuration of each adjustment unit 102A-N.
  • Each adjustment unit 102A to N includes a coordinated monitoring member selection unit 211, a coordinated monitoring member storage unit 212, a monitoring target area map storage unit 213, a monitoring charge area determination unit 214, an imaging range determination unit 215, and a camera control unit 216.
  • a coordinated monitoring member selection unit 211 a coordinated monitoring member storage unit 212
  • a monitoring target area map storage unit 213 a monitoring charge area determination unit 214
  • an imaging range determination unit 215 an imaging range determination unit 215, and a camera control unit 216.
  • the cooperative monitoring member selection unit 211 is a processing unit that selects, as a cooperative monitoring member, another camera terminal that is photographing within a predetermined range of the positional force of its own photographing region.
  • the cooperative monitoring member storage unit 212 is information for specifying the imaging region notified from the cooperative monitoring member (another camera terminal) selected by the cooperative monitoring member selection unit 211 (position of the imaging region, imaging range, etc.) ).
  • the monitoring target area map storage unit 213 is a memory or the like that stores map data that defines the range of the monitoring target area 130.
  • An example of the map data stored in the monitoring target area map storage unit 213 is shown in FIG.
  • the monitoring target area 130 is expressed by defining a range to be monitored for each coordinate axis (x, y, z) for determining the position.
  • the map data may be a description method that can specify the range to be photographed by the camera terminals 110A to 110N other than the description method shown in FIG.
  • the map data may be map data created by image processing, recognition processing, or the like from surrounding environmental video captured by the camera itself during operation of the surveillance system.
  • the monitoring charge area determination unit 214 includes information on the shooting area of the camera terminal 110A (the position and shooting range of the shooting area) and the shooting areas of other camera terminals stored in the cooperative monitoring member storage unit 212. Based on the information (position of the shooting area and shooting range) and the map data recorded in the monitoring target area map storage unit 213, there is no gap between the monitoring charge area of other camera terminals or the boundary line of the monitoring target area. It is a processing unit that determines the monitoring area so as to be adjacent. Specifically, the monitoring charge area determination unit 214 sets the first reference point set in the shooting area of the self-supporting camera terminal and the second reference set in the shooting area of another camera terminal adjacent to the shooting area. The area surrounding the first reference point is determined as the monitoring area by the vertical bisector connecting the points or the vertical bisector and the boundary line of the monitoring target area.
  • the imaging range determination unit 215 has a monitoring area 15 determined by the monitoring area determination unit 214. It is a processing unit that determines the focal length for photographing the entire OA.
  • the camera control unit 216 is a processing unit that controls the focal length of the camera 101A and the like so that the focal length determined by the imaging range determination unit 215 is obtained.
  • FIG. 12 (a) with respect to the number of camera terminals 110A to 110N, a sufficient number of camera terminals 110A to 110N are installed to shoot all of the monitored area 130. .
  • FIG. 12 (b) when the angle of view of the camera is the maximum, the area of the imaging region (where the imaging surface of the imaging unit 202 is parallel to the monitoring target region 130) ( Assuming that the size of 1/9 of the maximum shooting area is the reference shooting area, the monitoring system is such that the sum of the reference shooting areas of each power camera terminal 110A-N is larger than the area of the monitoring target area 130. It is assumed that camera terminals 110A to 110N are prepared for the number of units.
  • the camera terminals 110A to 110N are installed along the edge of the ceiling, and in order to photograph the entire area with the floor surface as the monitoring target area 130, the line-of-sight directions of the camera terminals 110A to 110N are As shown in FIG. 12 (a), it is assumed that the points at which the lines of sight of the cameras and the monitoring target area 130 intersect are aligned in the monitoring target area 130 in a grid pattern.
  • the point at which the camera's line of sight intersects with the monitoring target area 130 is a coordinate on the monitoring target area 130 displayed at the center of the imaging surface of the camera, and is an example of the first and second reference points described above. is there.
  • the reason why the size of the reference area is 1/9 of the maximum shooting area is that other camera terminals with the same performance adjacent to each shooting area 140A to N are used. This is because, in the event of a failure, the shooting area of the camera terminal 110A-N can be increased by 9 times or more to compensate for shooting of the shooting area of the failed camera terminal.
  • the communication unit 103A communicates information regarding the position of the shooting regions 140A to 140N and the specification of the shooting range with all the communicable camera terminals in the monitoring system via the communication network 112. (Step 101).
  • the coordinated monitoring member selection unit 211 uses the information of the other camera terminal received by the communication unit 103A and moves over the monitoring target area 130 in the imaging area 140A of the camera terminal 110A itself. Positional force Other camera terminals that are photographing within a predetermined range are selected as cooperative monitoring members, and the information of the selected partner is stored in the cooperative monitoring member storage unit 212 (step 102).
  • FIG. 14 shows a situation in which the monitoring target area 130 is photographed by a plurality of camera terminals 110A to 110N, and one of the camera terminals 110A selects a cooperative monitoring member.
  • the same components as those in FIG. As shown in the lower right of FIG. 14, the cooperative monitoring member selection range 131 is a range of an area used as a reference when the camera terminals 110A to 110N select cooperative monitoring members.
  • the camera terminal 110A when attention is paid to the operation of the camera terminal 110A, the camera terminal 110A has a concentric circle shape with a radius R centered on the tip of the line of sight of the camera 101A (a place projected in the center of the captured image).
  • the area is set as the cooperative monitoring member selection range 131, and another camera terminal whose line of sight is within the cooperative monitoring member selection range 131 is selected as the cooperative monitoring member.
  • the cooperative monitoring member selection range 131 is an example of a circular area centered on the point of view of the camera 101A. It may be used as the center of the member selection range 131.
  • the cooperative monitoring member selection range 131 may have an ellipse or a polygon other than a circle.
  • the monitoring charge area determination unit 214 determines the monitoring charge area 150A using information regarding the imaging area of the camera terminal selected as the cooperative monitoring member. (Step 103).
  • the details of the process of determining the monitoring area 150A by the monitoring area determination unit 214 will be described with reference to FIG. In FIG. 15, the same components as those in FIGS. 8 and 14 are denoted by the same reference numerals and description thereof is omitted.
  • the camera terminal 110A paying attention to the camera terminal 110A, the camera terminal 110A is connected to the point of view of the other camera terminals selected in FIG. 14 (that is, the second reference point described above) and the line of sight of the camera terminal 110A itself.
  • each of the camera terminals 110A to 110N is independently used as a force monitoring system showing the state of the monitoring charge area 150A determined when looking at one camera terminal 110A.
  • the monitoring target area 130 is divided into the same number of monitoring charge areas 150A to N as the number of camera terminals 110A to 110N.
  • the person in charge of monitoring is based on the coordinates of the center of the imaging area, etc., in addition to the power line of sight where the monitoring area 150A is determined based on the line of sight (location displayed in the center of the captured image). Area 150A may be determined.
  • the imaging range determination unit 215 has a focal length when the entire monitoring area 150A is shown (that is, includes the monitoring area) and the area of the imaging area 140A is the smallest ( The target control focal length) is obtained, and the camera control unit 216 controls the camera 101A so that the focal length of the camera terminal approaches the target focal length (step 104).
  • a specific method for calculating the target focal length in the shooting range determination unit 2 15 will be described in supplementary explanation 2 described later.
  • each of the plurality of camera terminals 110A to 110N communicates information regarding the specification of the shooting region position or shooting range with each other.
  • the entire monitoring target area 130 is photographed by determining each monitoring area 150A to N and adjusting the imaging area 140A to N to cover the entire monitoring area 150A to N. To do.
  • FIG. 16 and FIG. 17 show an operation example of the entire monitoring system in which the plurality of camera terminals 110A to N force in Embodiment 1 are also configured.
  • the same components as in Figure 8 The same numbers are given for and the explanation is omitted.
  • FIG. 16 (a) shows an example of six camera terminals 110A, 110B, HOC, 110D, 110E, and 110F force S in order to take pictures of the interior of the room, with the floor of the room as the monitored area 130. It shows how it is installed at the location.
  • the six camera terminals 110A to 110N are sufficient to capture the entire monitored area 130, and as shown in Fig. 12 (b), when the angle of view of the camera is maximum, Assuming that the reference shooting area is one-nineth the area of the shooting area shot with the imaging surface of the imaging unit 202 parallel to the monitoring target area 130, six camera terminals 110A It is assumed that the total of the reference photographing areas of ⁇ F is larger than the area of the monitoring target area 130.
  • the line-of-sight directions of the camera terminals 110A to 110F are adjusted so that the points where the line-of-sight of the camera terminals 110A to 110F and the monitoring target area 130 intersect are arranged in a lattice pattern in the monitoring target area 130 And
  • the six camera terminals 110A to 110F shown in FIG. 16 communicate information about the imaging regions 140A to 140F via the communication network 112, and the monitoring charge area determination unit 214 performs the monitoring charge area. Determine 150.
  • the monitoring target area 130 is divided into the monitoring charge areas 150A to F that the camera terminals 110A to 110F are in charge of, respectively.
  • the imaging areas 140A to 140F are imaging areas of the camera terminals 110A to 110F, respectively.
  • the focal length is adjusted by the camera control unit 216 and the focus control unit 204, the entire monitoring target area (floor surface) is imaged as shown in FIG. 17 (b). .
  • each camera terminal when a plurality of camera terminals are installed in an appropriate installation position and installation direction with respect to a predetermined monitoring target area 130, each camera terminal Even if you do not adjust the shooting range in advance, the shooting range is automatically adjusted so that multiple camera terminals can shoot the entire monitoring target area according to the shape of the monitoring target area. This adjustment reduces the effort required to adjust the shooting area when installing multiple camera terminals.
  • FIG. 18 shows a state where the monitoring target area 130 is photographed by the six camera terminals 111A to 111F.
  • step 103 of the flowchart shown in Fig. 4 the remaining camera terminals and the mutual monitoring area 150 A, etc. are determined again.
  • step 104 the range of the respective imaging area is changed. It is possible to continue shooting all over the area 130 (Fig. 18 (c)).
  • the camera terminal 111B is excluded from the cooperative members in the same manner. It is possible to continue to maintain the whole picture (Fig. 18 (d)).
  • each of the shooting ranges can be changed to reduce redundant areas shot by a plurality of camera terminals.
  • the power of photographing the entire monitoring target area only by the zoom control of the camera may have a pan / tilt control function that can be achieved only by the zoom control. Good. In that case, the entire monitoring target area may be photographed by camera control combined with pan / tilt control only by zoom control.
  • FIG. 19 is a block diagram showing a configuration of the monitoring system according to Embodiment 2 of the present invention.
  • This monitoring system is a system that captures a monitored area by a plurality of camera terminals operating in cooperation, and includes a communication network 112 and an entire monitored area 130.
  • a plurality of camera terminals 111 A to N having the same function capable of performing zoom control and pan / tilt control of a sufficient number of cameras are configured.
  • the camera terminals 111A to 111N are fixed in a distributed manner at installation positions where the inside of the monitoring target area 130 can be photographed by punching control.
  • This monitoring system changes the line-of-sight direction of each of the camera terminals 111A to 111N so that the size of the mutual monitoring areas 150A to 150N is uniform in order to project the entire monitoring target area 130. Furthermore, the position of the photographing area and the photographing range are automatically determined by adjusting the focal length so that the entire monitoring areas 150A to 150N can be seen. In particular, in the present embodiment, by using the camera terminals 111A to 111N that can adjust the position of the shooting area by punching or the like, the monitoring target area 130 is set to the camera terminal 111A as in the first embodiment.
  • the shooting positions of the camera terminals 111A to N are set so that the allocation range of each monitoring area 150A to N approaches an equal size. It is characterized in that it is changed.
  • FIG. 19 the same components as those in FIG. 8 are denoted by the same reference numerals and description thereof is omitted.
  • Each of the camera terminals 111A to 111N is an apparatus that determines a shooting area including a monitoring charge area of its own camera terminal by communicating with other camera terminals, and shoots the determined shooting area.
  • the cameras 104A to 104N are cameras each having a function (pan / tilt control and zoom control) for changing the position and shooting range of the shooting area, for example, changing the position and range of the shooting areas 140A to N. It is a pan / tilt camera or the like.
  • the adjusting units 105A to N determine the monitoring areas 150A to N of the cameras 104A to N, respectively, and the imaging areas 140A to N capture the entire corresponding monitoring areas 150A to N in the video, respectively.
  • the processing unit adjusts the shooting direction and the shooting range. More specifically, for example, the adjustment unit 105A compares and evaluates the monitoring charge area of the own camera terminal and the monitoring charge area adjacent to the monitoring charge area in consideration of the function of the adjustment part 102A in the first embodiment.
  • a function for determining the position of the imaging region is provided so that the monitoring charge area of the self-supporting Mera terminal approaches the size of the monitoring charge area adjacent to the monitoring charge area.
  • the adjustment unit 105A etc., the point where the camera's line of sight intersects the monitored area (the first reference point) )
  • the position of the shooting area is determined.
  • FIG. 20 is a block diagram showing an internal configuration of each camera 104A-N.
  • Each of the cameras 104A to 104N is a camera capable of pan / tilt control and zoom control, and includes a lens 201, an imaging unit 202, an image processing unit 203, and an attitude control unit 205.
  • the same components as those in FIG. 9 are denoted by the same reference numerals and description thereof is omitted.
  • the attitude control unit 205 is a mechanism such as a stepping motor that changes the distance between the lens 201 and the imaging unit 202 and further changes the orientation of the imaging surface of the lens 201 and the imaging unit 202, as shown in FIG. As described above, the mechanism unit changes the position and the shooting range of the shooting area such as the force lens 104A by changing the distance and the direction between the lens 201 and the imaging unit 202. Note that a method for calculating the position of the shooting area shot by the camera 104A or the like will be described in supplementary explanation 1 described later.
  • FIG. 21 is a block diagram showing an internal configuration of each adjustment unit 105A-N.
  • Each adjustment unit 105A to N includes a cooperative monitoring member selection unit 211, a cooperative monitoring member storage unit 212, a monitoring target area map storage unit 213, a monitoring charge area determination unit 214, an imaging range determination unit 215, a camera control unit 216, and a monitoring A responsible area comparison and evaluation unit 217 is provided.
  • the same components as those in FIG. 10 are denoted by the same reference numerals and description thereof is omitted.
  • the monitoring charge area comparison / evaluation unit 217 compares the monitoring charge area of the self-supporting Mera terminal with the monitoring charge area adjacent to the monitoring charge area, so that the monitoring charge area of the self-supporting Mera terminal becomes the monitoring charge area. It is a processing unit that determines the position of the imaging area so as to approach the size of the monitoring charge area adjacent to. That is, the size of the monitoring charge area of surrounding camera terminals adjacent to each other is compared and evaluated, and the line-of-sight direction of the camera 104A or the like is changed so that the evaluation value approaches a predetermined target value.
  • the monitoring person-in-charge comparison and evaluation unit 217 sets the first distance so that the distance from the point at which the camera's line of sight intersects the monitoring target area (first reference point) to each boundary line of the monitoring person-in-charge area becomes equal.
  • the position of the shooting area is determined by moving the reference point.
  • FIG. 22 is a flowchart showing an operation procedure of the camera terminals 111A to 111N.
  • the camera end The operation procedure of the end 111A is explained.
  • Step 101 to Step 102 are the same operation procedure as in FIG. 13, and therefore the same reference numerals are used and description thereof is omitted.
  • the communication unit 103A communicates information regarding the position of the monitoring region and the specification of the photographing range with the camera terminal selected as the cooperative monitoring member by the cooperative monitoring member selection unit 211 (step 102a).
  • step 101, step 102, and step 102a if the cooperative monitoring member selection unit 211 has already selected cooperative monitoring members, step 101 and step 102 are omitted, and communication is performed only with the cooperative monitoring member. By doing so, it is possible to prevent unnecessary traffic increase in the communication network 112 and to reduce the amount of data processing in each processing unit.
  • the communication capacity of the communication network 112 is sufficiently large compared to the number of camera terminals 111A to 111N constituting the monitoring system or when the performance of each processing unit in the camera terminal is sufficiently high, cooperative monitoring is performed.
  • the configuration including the member selection unit 211 and the operation procedure without the processing (step 102) may be used! /.
  • step 103 and step 104 are the same operation procedure as in FIG. 13, and therefore the same reference numerals are used and description thereof is omitted.
  • the monitoring charge area comparison / evaluation unit 217 compares and evaluates the size of the monitoring charge area of surrounding camera terminals adjacent to each other and its own monitoring charge area 150A (step 105). Then, it is judged whether the evaluation value satisfies the predetermined target value (for example, whether the difference between the sizes of the two monitoring areas is constant or smaller than the value) (step 106). If the result is satisfied, the same processing is repeated (to step 102a). On the other hand, if not satisfied, the evaluation direction of the camera 104A approaches the predetermined target value. Is changed (step 107).
  • the predetermined target value for example, whether the difference between the sizes of the two monitoring areas is constant or smaller than the value
  • FIG. 23 shows an example of the state before and after the adjustment of .about.F, and focusing on the camera terminal 111A, the specific operation of the camera terminal 111A in step 107 will be described.
  • FIG. 24 shows the distance and positional relationship from the line of sight of the camera terminal 111A (the first reference point, that is, the location displayed at the center of the captured image) to the boundary line of the monitoring charge area 150A.
  • the same constituent elements as those in FIG.
  • the monitoring area comparison and evaluation unit 217 of the camera 104A also adjusts the line of sight of the camera terminal 111A shown in FIG. 24 so that the allocation range of the monitoring area 150 of each camera 104A to F approaches a uniform size. Change the line-of-sight direction so that the distance to each boundary line in the monitoring area 150A is equal.
  • bringing the distances from the line of sight of the cameras 104A to 104F to the boundary lines of the monitoring areas 150A to F all close to the same value means that the lines of sight of the cameras whose monitoring areas are adjacent to each other are close to each other. Since the distance from the tip to the boundary line is also equal, the line-of-sight force also has the effect of bringing the distance to the boundary lines in the monitoring areas 150A to F close to a uniform value in all the cameras 104A to 104F.
  • the monitoring area comparison / evaluation unit 217 of each camera 104A-F uses the evaluation function F with the direction of the camera's line of sight ( ⁇ , ⁇ ) shown in Equation 1 below as a variable, and First
  • an evaluation value is obtained for the boundary line of the monitoring charge area 150 and the distance to the boundary line of the monitoring target area 130, and the direction of the camera's line of sight is controlled in such a direction that the obtained evaluation value approaches the minimum value.
  • N indicates the number of boundary lines in the monitoring area 150.
  • Dist represents the distance from the tip of the line of sight to each boundary line of the monitoring area 150, and Dist represents the average value of Dist. That is, the evaluation function F in the above equation 1 is the camera line of sight ave ij
  • the attitude control unit 205 determines the rotation angle (pan angle ⁇ , tilt angle ⁇ ) of the camera 104A.
  • evaluation function F may be a line of sight direction of the camera 104A ( ⁇ ,
  • the cooperative monitoring member selection unit 211 determines the necessity of changing the cooperative monitoring member. (Step 108). If a change is necessary, return to step 101, otherwise return to step 102a.
  • communication with a part of the cooperative monitoring member may occur when the position of the imaging region has changed significantly by adjusting the viewing direction of the camera 104A, or due to a failure or the like. If there is a loss, the request for re-selection of a coordinated surveillance member, such as a new camera terminal newly added to the surveillance system, may be mentioned.
  • each camera terminal 111A to 111F adjusts the line-of-sight direction (pan angle ⁇ , tilt angle ⁇ ) according to Equation 7 above.
  • the plurality of camera terminals can change the line-of-sight direction so that the assigned range of the monitoring area of each other approaches a uniform size. Adjust the position and range of the area in charge of monitoring, and change the shooting range of the shooting area so that the entire area in charge of monitoring is shown, so that the entire area to be monitored is shot by the monitoring system. The position and shooting range are automatically changed.
  • FIG. 25 shows an operation example of the monitoring system in the second embodiment.
  • the same components as those in FIG. 25 are identical.
  • the floor surface of the room is the monitored area 130, and six camera terminals 111A to 111F are installed at appropriate positions in the room to take pictures of the interior! Show the situation!
  • the six camera terminals 111A to 111F are sufficient to capture the entire monitored area 130, and when the angle of view of the camera is maximum as shown in FIG.
  • the reference imaging area is 1/9 of the area of the imaging area taken with the imaging surface of the camera parallel to the monitored area 130
  • the reference of the six camera terminals 111A-F The sum of the shooting areas is larger than the area of the monitored area 130.
  • the installation directions of the camera terminals 111A to 111F are adjusted to the direction in which the inside of the monitoring target area 130 can be photographed by pan / tilt control.
  • the camera terminals 111A to 111F are distances from the point of view of the camera to each boundary line of the monitoring target area by the monitoring assigned area comparison and evaluation unit 217.
  • the direction of the line of sight is determined so that the length is uniform, and the camera control unit 216, the posture control unit 2
  • the position and range of the shooting area can be changed as shown in FIG. 25 (b).
  • each camera terminal can be set to the position of the shooting area by simply installing the number of camera terminals necessary for monitoring in an appropriate position and orientation where the monitoring target area can be shot. Even if the shooting range is not adjusted in advance, the position and shooting range of the shooting area can be determined so that the entire image is shot according to the shape of the monitored area. This reduces the time and effort required for adjusting the position of the shooting area and the shooting range during the installation work.
  • a plurality of camera terminals determine a monitoring charge area each of which is responsible for monitoring based on the positional relationship of the shooting areas of each other, and their own shooting area is a monitoring charge area.
  • the shape of the monitoring charge area of each camera terminal is adjusted to approach the shape of the shooting area, This improves the efficiency of the imaging area including the monitoring area, resulting in a monitoring system with fewer unnecessary areas such as the monitoring area of other camera terminals and areas other than the monitoring area. And then.
  • the shooting efficiency can be improved by bringing the shape of the shooting region close to the shape of the monitoring charge region.
  • each camera terminal adjusts the size (or size and position) of each imaging area so as to cover the entire area in charge of monitoring.
  • the entire monitoring target area 130 was monitored. For this reason, when the area in charge of monitoring is different from the shape of the imaging area, if the imaging area is adjusted so as to cover the area in charge of monitoring, the imaging area may capture an area other than the area in charge of monitoring.
  • the area other than the monitoring area is an area where other camera terminals are in charge of shooting, or an area other than the monitoring area.
  • the shooting area of the camera terminal is also overlapped, or unnecessary areas other than the monitoring target area 130 are also shot, so the shooting efficiency is poor.
  • the ratio of the area other than the monitoring area 150A in the imaging area 140A is As a result, the overlapped or unnecessary shooting areas are reduced as a result, and the shooting efficiency can be improved.
  • each camera terminal constituting the monitoring system performs control to bring the shape of the imaging area close to the shape of the monitoring area. The method is described below.
  • the shape of the area in charge of monitoring is determined by the line-of-sight direction of the camera terminal. For this reason, by changing the line-of-sight direction of the camera terminal, the shape of the area in charge of monitoring can be changed to approach the shape of the imaging area.
  • a differentiable gradient-type evaluation function G for evaluating the difference between the shape of the imaging region and the shape of the monitoring region is provided using the parameter that determines the viewing direction of the camera terminal as an independent variable.
  • the evaluation value given by the evaluation function G is used as the target value when the shape of the imaging region and the shape of the monitoring region match.
  • the gaze direction of the camera terminal is changed by adjusting the parameter for determining the gaze direction of the power camera terminal so that the evaluation value of the evaluation function G approaches the target value, and as a result, the shape of the monitoring area is changed.
  • the minimum value is used when the shape of the imaging region and the shape of the monitoring region match.
  • the evaluation function G is designed as a function of (value), and further using the steepest descent method,
  • the camera terminal's gaze direction is adjusted by updating the parameters that determine the gaze direction of the camera terminal so that the evaluation value approaches the minimum value (minimum value) for this function.
  • the evaluation function G for evaluating the difference between the shape of the imaging area and the shape of the monitoring person in charge is provided, and the shape of the imaging area and the shape of the monitoring person in charge are determined by using the steep descent method.
  • the line-of-sight direction of the monitoring area can be changed so that
  • the evaluation function G is used to evaluate the difference between the shape of the imaging region and the shape of the monitoring person in charge, and an arbitrary point that passes through the reference point with the point where the line of sight of the camera terminal intersects the monitoring target region as a reference point. For multiple directions, the ratio of the distance from the reference point to the boundary line of the imaging area and the distance to the boundary line of the reference point force monitoring area is calculated, and the function is used to determine the variance.
  • the evaluation function G is the difference between the distance to the boundary line of each reference area and the distance to the boundary line of the reference area. Since the ratio is the same for all directions, its variance is 0, resulting in a function that gives the minimum (minimum) value. Also, the evaluation function G is a pan angle ⁇ that is a parameter that determines the line-of-sight direction of the force lens.
  • Tilt be a differentiable function with independent variables.
  • FIG. 27 (a) is a diagram showing an example of the case where the imaging region 140A includes the monitoring charge region 150A.
  • FIG. 27 (b) shows that the imaging area 140A is in the middle of enclosing the monitoring area 150A, or the monitoring area 150A cannot be completely included even if the angle of view of the camera 106 is maximized! / It is a figure which shows an example of a case.
  • Fig. 28 (a) and Fig. 28 (b) are used to compare the difference in shape between the imaging region 140A and the monitoring region 150A.
  • the point where the line of sight of the camera terminal 114A and the monitoring target area 130 intersect is the reference point 0, the intersection of the perpendicular line drawn from the point O to each boundary line of the monitoring area 150A is the point P ;
  • the point where the half line extending from point to point P and the border of the shooting area 140A intersect Q is the line segment OP and the line segment
  • the evaluation function G is designed as Equation 8 below, which calculates the variance of the length ratio of ⁇ ⁇ [0126] [Equation 8]
  • N is the total number of monitoring charge areas of other camera terminals adjacent to the monitoring charge area 150A or the number of boundary lines of the monitoring target area 130.
  • R and R are values defined by Equation 9 and Equation 10 shown below, respectively.
  • Equation 9 I OQ. I is the distance from O to Q. I OP.
  • the valence function G is a function having the pan angle ⁇ and the tilt angle ⁇ as independent variables.
  • Equation 11 (Formula ii)
  • Equation 11 is a coefficient. Equation 11 above shows the pan angle ⁇ of the camera terminal so that the evaluation value of the evaluation function G is reduced.
  • the shape of the shooting area 140A of each camera terminal approaches the shape of the monitoring area 150A, and this reduces the proportion of areas other than the monitoring area 150A in the shooting area 140A. Therefore, as a result, it is possible to automatically perform the imaging with a small number of unnecessary areas other than the monitoring charge area of the other camera terminal or the unnecessary area other than the monitoring target area 130.
  • the point O force in order to evaluate the difference between the shape of the imaging area 140A and the shape of the monitoring person in charge 150A, the point O force also intersects each boundary line with the perpendicular drawn to each boundary line of the monitoring person in charge area 150A.
  • point O force is also shot.
  • Point Q is the point where the perpendicular line drawn to each boundary line in area 140A and each boundary line intersect
  • point P is the point where the half line extending from point O to point Q intersects the boundary line of monitoring area 150A. It is also possible to use an evaluation function G with point P and point Q at a position where the difference between the shape of the imaging area 140A and the shape of the monitoring area 150A can be evaluated.
  • the evaluation function G may be a value other than the above equation 8.
  • the line-of-sight direction of the camera terminal ( ⁇ , ⁇ ) is a value other than the above equation 8.
  • the shape of the shooting area 140A and the monitoring area 150A match within the movable range.
  • the ratio between the distance from the point O to the point P and the point O force is also the distance to the point.
  • the evaluation function G is based on the ratio of the area occupied by the overlapping area of the imaging area 140A and the monitoring area 150A in the logical sum area of the imaging area 140A and the monitoring area 150A. You can use
  • FIG. 29 is a block diagram showing a configuration of the monitoring system according to Embodiment 3 of the present invention.
  • the monitoring system according to the third embodiment is a system that captures a monitored area by operating a plurality of camera terminals in cooperation with each other, and is sufficient to capture the communication network 112 and the entire monitored area 130.
  • a plurality of camera terminals 114A to 114N having the same function capable of adjusting the angle of view and the line-of-sight direction by controlling the number of zooms and panning and tilting.
  • Each camera terminal 114A to N is a device that determines the shooting area including the area in charge of monitoring the self-supporting Mera terminal by communicating with other camera terminals, and shoots the determined shooting area.
  • the configuration of the monitoring system in the third embodiment is different from the configuration of the monitoring system in the first embodiment shown in Fig. 8 in that the gaze direction is fixed and the cameras 101A to 101N are replaced.
  • the camera has been changed to a camera 106 A-N that can adjust the angle of view and line-of-sight direction, such as a pan 'tilt' zoom camera, etc.
  • the cameras 106A to N can further reduce the ratio of the areas other than the monitoring areas 150A to N in the shooting areas 140A to N.
  • the difference is that it has been changed to 107A to 107N for adjusting the viewing direction.
  • each of the cameras 106A to 106N is a camera having a function (pan / tilt control and zoom control) for controlling the line-of-sight direction formed only by the angle of view.
  • the adjustment units 107A to 107N adjust the direction of the line of sight of the camera so that the shape of the imaging region and the shape of the monitoring person in charge approach each other. It has a function.
  • the adjustment units 107A to 107N evaluate the evaluation function for evaluating the difference between the shape of the imaging area and the shape of the monitoring person in charge when the shape of the imaging area matches the shape of the monitoring person in charge.
  • the viewing direction of the camera is determined so that the evaluation value of the evaluation function approaches the target value.
  • the evaluation function for example, when a point at which the line of sight of the camera intersects the monitoring target region is used as a reference point, a plurality of methods passing through the reference point are used. This is a function indicating the variance of the ratio between the distance from the reference point to the boundary line of the monitoring area and the distance from the reference point to the boundary line of the imaging area, and its target value is zero.
  • FIG. 29 the same constituent elements as those of the monitoring system in the first embodiment shown in FIG. 8 are denoted by the same reference numerals, and description of the same constituent elements is omitted.
  • FIG. 30 is a block diagram showing the configuration of each camera 106A-N in the third embodiment.
  • Each camera 106A to N is a CCD camera or the like capable of pan / tilt control and zoom control, and includes a lens 201, an imaging unit 202, an image processing unit 203, a focus control unit 204, and a line-of-sight direction control unit 207.
  • the configuration of each camera 106A to N in the third embodiment is the same as the configuration of the cameras 101A to N in the first embodiment shown in FIG. 9, but a gaze direction control unit 207 that adjusts the gaze of the camera is added. Different points.
  • the same components as those of the camera 101 in the first embodiment shown in FIG. 9 are denoted by the same reference numerals, and the description of the same components is omitted.
  • the line-of-sight direction control unit 207 is a mechanism such as a stepping motor that adjusts the orientation of the lens 201 and the imaging unit 202 in order to pan and tilt the line-of-sight direction of the camera.
  • the focus control unit 204 is a force that is a mechanism that adjusts the range of the imaging region by controlling the focal length, which is the distance between the lens 201 and the imaging unit 202, with a stepping motor or the like.
  • the focus control unit 204 such as a mechanism that adjusts the range of the shooting area by controlling the interval between the lenses 201 with a stepping motor or the like, is a generally known range of the shooting area of the camera. Any mechanism can be used as long as it can be adjusted.
  • FIG. 31 is a block diagram showing a configuration of each adjustment unit 107A-N in the third embodiment.
  • Each adjustment unit 107A to N includes a cooperative monitoring member selection unit 211, a cooperative monitoring member storage unit 212, a monitoring target area map storage unit 213, a monitoring charge area determination unit 214, an imaging range determination unit 215, a camera control unit 216, and an area shape.
  • a comparative evaluation unit 220 and a line-of-sight direction adjustment unit 222 are included.
  • the configuration of each adjustment unit 107A to N in the third embodiment is different from the configuration of the adjustment unit 102A to N in the first embodiment shown in FIG.
  • a direction adjustment unit 222 is added.
  • FIG. 31 the same reference numerals are used for the same components as those of the adjustment units 102A to 102N in the first embodiment shown in FIG. 10, and the description of the same components is omitted.
  • the area shape comparison / evaluation unit 220 uses the evaluation function G of Equation 8 above to evaluate the difference between the shape of the imaging area and the area in charge of monitoring. It is a processing unit that calculates a value for evaluating the ratio of the occupation.
  • the line-of-sight direction adjustment unit 222 reduces the evaluation value obtained from the evaluation function G in the region shape comparison and evaluation unit 220 according to the equation of Expression 11 above, such as the line-of-sight direction (pan angle) of the camera 104A. It is a processing unit that determines the control content for adjusting ( ⁇ , tilt angle ⁇ ).
  • the monitoring system according to the third embodiment can adjust the line of sight of the cameras 106A to 106N with respect to the monitoring system according to the first embodiment, and controls the line-of-sight adjustment.
  • the difference is that a line-of-sight direction control unit 207, a region shape comparison and evaluation unit 220, and a line-of-sight direction adjustment unit 222 are added.
  • the added component that is, when the line of sight is fixed, the other components have the same components as in the first embodiment.
  • the monitoring system can capture the entire monitoring target area 130.
  • Embodiment 3 of the present invention will be described. Note that the description of the operation of the same components as those of the monitoring system in Embodiment 1 is omitted.
  • FIG. 32 is a flowchart showing an operation procedure of the camera terminals 114A to 114N.
  • the operation procedure of the camera terminal 114A will be described.
  • Step 101 and step 102 are the same as the steps 101 and 102 in the flowchart of the first embodiment shown in FIG.
  • the communication unit 103A communicates information regarding the position of the monitoring area and the specification of the shooting range with the camera terminal 114B selected as the cooperative monitoring member by the cooperative monitoring member selection unit 211 (step 102a).
  • step 103 and step 104 are performed according to the first embodiment shown in FIG. Since it is the same operation procedure as Step 103 and Step 104 in the flowchart of FIG.
  • the area shape comparison / evaluation unit 220 evaluates the ratio of the monitoring area 150A to the other areas in the imaging area 140A (step 109).
  • the line-of-sight direction adjustment unit 222 determines whether the evaluation value obtained as a result is equal to or less than a predetermined target value (step 110).
  • step 108 If the target value is below the target value, the same processing is repeated (return to step 102a). On the other hand, if the target value is not below the target value, the evaluation value is set to the predetermined target value. The viewing direction of the camera 106 is changed so as to approach (step 112). Next, the cooperative monitoring member selection unit 211 determines the necessity of changing the cooperative monitoring member (step 108).
  • step 101 the process returns to step 101. If not, the process returns to step 102a.
  • communication with a part of the cooperative monitoring member may occur when the position of the imaging region changes significantly due to adjustment of the viewing direction of the camera, or due to a failure or the like. For example, when there is a stoppage, there is a request for re-selection of a cooperative monitoring member for the new camera terminal power newly added to the monitoring system.
  • each camera terminal has a gaze direction (pan angle ⁇ )
  • the monitoring area in the shooting area of each camera terminal By adjusting the tilt angle ⁇ ), the monitoring area in the shooting area of each camera terminal
  • step 101, step 102, and step 102a when the cooperative monitoring member selection unit 211 has already selected the cooperative monitoring member, step 101 and step 102 are omitted, and communication is performed only with the cooperative monitoring member.
  • step 101 and step 102 are omitted, and communication is performed only with the cooperative monitoring member.
  • FIG. 33 (a) and FIG. 33 (b) show an example of the operation of the entire monitoring system in the third embodiment.
  • Fig. 33 the same reference numerals are used for the same components as in the monitoring system of Fig. 26, V.
  • Figure 33 (a) shows that the five floors of the camera terminals 114A, C, D, E, and F are placed at appropriate positions in the room in order to take a picture of the interior of the room, with the floor of the room as the monitored area 130. It shows the installation.
  • the five camera terminals 114A to 114F are sufficient to capture the entire monitoring target area 130, and when the angle of view of the camera is maximum as shown in FIG.
  • the reference shooting area is one-nineth the area of the shooting area taken with the imaging surface of the camera parallel to the monitoring target area 130
  • the reference shooting areas of the five camera terminals 114A to 114F It is assumed that the sum total of is larger than the area of the monitored area 130.
  • the installation directions of the camera terminals 114A to 114F are adjusted to the direction in which the inside of the monitoring target area 130 can be photographed by pan / tilt control.
  • the shooting areas 140A and 140C of the camera terminals 114A and 114C have expanded the shooting range (view angle) to include the monitoring areas 150A and 150C, respectively.
  • the area other than the area in charge of monitoring and the area to be monitored 130 of the other camera terminal 114 is also photographed, and the photographing efficiency is poor.
  • the monitoring system in the third embodiment uses each region and each monitoring region by the region shape comparison and evaluation unit 220 and the line-of-sight direction adjustment unit 222.
  • the shooting areas 140A and 140C of the camera terminals 114A and 114C By changing the direction, by adjusting the shape of the monitoring areas 150A and 150C respectively, the ratio of capturing areas other than its own monitoring area decreases, and monitoring areas and monitoring targets of other camera terminals are reduced. Efficient shooting can be performed with less unnecessary areas other than the area 130 being shot.
  • the surveillance system according to Embodiment 3 can be used for, for example, an indoor hall, a building, a street, a stadium, etc. If you want to continue monitoring all at once, Even if the monitoring area for each camera terminal is not accurately determined in advance so that the body can be photographed, the camera terminal can be monitored by simply installing it at a position and orientation where each camera terminal can shoot the monitoring area. By capturing even unnecessary areas such as areas other than the assigned area and the monitored area, the line-of-sight directions and images of multiple camera terminals are captured so that the entire monitored area is captured without causing a reduction in imaging efficiency. The corner size can be adjusted automatically. For this reason, it is possible to reduce the trouble of adjusting the respective shooting areas in the installation work of a plurality of camera terminals.
  • the third embodiment it is possible to monitor with high imaging efficiency because the unnecessary area such as the area in charge of monitoring of the other camera terminal or the area other than the monitoring target area is taken as little as possible.
  • Pan, tilt, and zoom adjustments were made to monitor the entire target area, but in addition to pan, tilt, and zoom adjustments, a camera terminal that can adjust the roll (rotation of the camera terminal relative to the optical axis)
  • a camera terminal that can adjust the roll (rotation of the camera terminal relative to the optical axis)
  • the shooting efficiency can be improved.
  • the steepest descent method is used for the evaluation function G in Equation 8 above to capture the roll angle ⁇ of the camera terminal.
  • the roll angle is determined according to Equation 12 shown below including a term obtained by partial differentiation of the evaluation function G in Equation 8 above with the roll angle ⁇ .
  • the monitoring area 150 of the other camera terminal 114 and the monitoring target area 1 By adjusting ⁇ , the monitoring area 150 of the other camera terminal 114 and the monitoring target area 1
  • the evaluation function G uses the pan angle ⁇ , the tilt angle ⁇ , and the roll angle ⁇ independently.
  • Pan Tilt RoU A function that takes a standing variable. ⁇ is a coefficient.
  • the monitoring area determination unit 214 as shown in Fig. 15, the line of sight of other camera terminals that capture neighboring areas, and the camera terminal itself. Draw a perpendicular bisector to the line connecting the line of sight of the body and surround the line of sight The monitoring area 150 is determined by the vertical bisector or the boundary line of the monitoring area 130.
  • the area in charge of monitoring may be the area in which the area already taken by another camera terminal is removed.
  • the area 151 obtained by removing the area photographed by another camera terminal from the monitoring charge area 150 is set as the monitoring charge area
  • the own monitoring charge area is defined by the own camera terminal and the other camera terminal. Even while shooting all over, it is possible to prevent areas that do not need to be shot because they have already been shot with other camera terminals, and to prevent duplicate shots with a self-powered Mera terminal. It is done.
  • FIG. 36 is a diagram for explaining a method of calculating the shooting areas of the camera terminals 110A to N and the camera terminals 111A to 111N.
  • the lens 2101 is the lens 201 and the imaging surface 2102 shown in FIGS. 9 and 20, the imaging surface 2102 is the imaging surface of the imaging unit 202 shown in FIG. 9 and FIG. It corresponds to the camera terminal shown in 20.
  • ⁇ axis 2105 and Z axis 2106 are perpendicular to each other, and the camera with lens 201 as the origin c c
  • Camera 2103 has pan (rotates around Y axis 2105), chill around each axis.
  • the imaging surface 2102 is f away from the lens 2101 in the direction of the axis 2106.
  • the X axis 2107, the Y axis 2108, and the Z w w w axis 2109 are orthogonal to each other and constitute a world (world) coordinate axis system.
  • the camera 2103 exists at the position indicated by (X, Y, Z) in the world coordinate system, and the same position is the base point.
  • Z axis 2109 can be converted to a point (X,,, Z) on the world coordinate axis.
  • Equation 13 the 3 X 3 matrix value with M force as an element is the orientation of the camera 2103
  • the 3 X 3 matrix value with R as the element is the attitude displacement of the camera 2103's attitude reference point force.
  • the matrix value (X, ⁇ , Z) is the position reference point of the camera 2103 (the position of the camera 2103
  • It can be calculated by matching the quasi-point and the position reference point, or by using the current calibration method of the camera 2103 as the posture reference point and the position reference point, respectively, and using the calibration method shown in Reference 1 below. It is calculated in advance before the operation of the detection region adjusting apparatus of the present invention is started.
  • Non-Patent Document 1 R. Tsai. A Versatile Camera Calibration Technique for High— Ac curacy 3D Machine Vision Metrology Using Off— the— Shelf TV Cameras and Lenses. IEEE journal of Robotics and Automation, Vol. RA— 3, No 4, pp. 323—344, 1987 R00 force et al.
  • the 3 X 3 matrix value is the rotation angle ( ⁇ PC, 0TC), which is the attitude of the camera 2103, as shown in Equation 14 below. , 0RC).
  • the displacement can be read by the stepping motor.
  • Each point 1 (X, Y, f) on the imaging surface 2102 is expressed by Equation 15, Equation 16, and Equation 17 shown below.
  • Equation 21 Equation 22, Equation 23, Equation 24, Equation 2 shown below, respectively.
  • This surface is the shooting area of the camera 2103.
  • the focal length when the area of the imaging area is the smallest in the state where the entire area in charge of monitoring is shown hereinafter referred to as the target focal length f
  • FIG. 37 and FIG. 38 the same components as in FIG.
  • Fig. 37 (a) shows the real space plane photographed by the camera attached at an arbitrary position.
  • FIG. 37B is a diagram when the imaging region 2111 and the monitoring charge region 2112 are projected on a plane parallel to the imaging surface 2102 having the center of the imaging surface 2102 as the origin.
  • the position coordinates PC (X, ⁇ , ⁇ ) when projected onto a line plane are the focal coordinates of the camera terminal
  • the value of the target focal length f is given by the following equation 31 where f is the focal length value of the camera terminal.
  • Equation 31 WH [0208]
  • the function max (a, b) in Equation 31 above is a function that returns the larger one of the arguments a and b.
  • Area 2111 is changed to the smallest area while copying the entire monitoring area 150
  • the focal length (target focal length f when the area of the imaging region is the smallest when the entire area in charge of monitoring is reflected is shown.
  • the present invention As described above, for the camera terminal and the monitoring system according to the present invention, the forces described based on the first to third embodiments.
  • the present invention is not limited to these embodiments.
  • the present invention also includes forms that are realized by arbitrarily combining the constituent elements in the embodiments, and forms obtained by modifying those embodiments by those skilled in the art.
  • the adjustment unit that determines the position of the shooting region and the shooting range of each camera terminal is shown in FIG. 39 and FIG. 40 provided in each camera terminal.
  • FIG. 39 and FIG. 40 provided in each camera terminal.
  • a configuration in which all or some of the camera terminals constituting the monitoring system are provided as a common adjustment unit in a concentrated manner outside or inside the camera terminal may be used.
  • FIG. 39 is a configuration diagram of a monitoring system including an independent central adjustment unit 113 that controls a plurality of camera terminals in a centralized manner.
  • the centralized adjustment unit 113 includes an adjustment unit 1021 and a communication unit 1031.
  • the adjustment unit 1021 includes components 212 to 215 similar to those of the adjustment unit 102A in the first embodiment shown in FIG. 10 and the adjustment in the second embodiment shown in FIG. This is composed of the monitoring area comparison and evaluation unit 217 of the part 105A.
  • Communication unit 1031 has the same function as communication unit 103A in the first embodiment.
  • a function equivalent to that of Embodiments 1 and 2 is realized as a configuration in which the adjustment unit incorporated in each camera terminal is provided outside the camera terminal.
  • a monitoring system that captures a monitoring target area using a plurality of camera terminals, the plurality of camera terminals, an adjustment device that adjusts the position or the shooting range of the plurality of camera terminals, Camera terminal and adjustment device
  • Each of the plurality of camera terminals includes a camera having a function of changing the position of the shooting region and the shooting range, and a communication unit that communicates with the adjustment device.
  • each camera terminal When the shooting area to be monitored by each camera terminal is set as the monitoring charge area, based on the information on the power of the plurality of camera terminals received by the communication means, one for each of the plurality of camera terminals.
  • the monitoring area of the camera terminal is determined and the entire monitoring area is photographed so that the monitoring area of the camera terminal is adjacent to the monitoring area of the other camera terminal or the boundary of the monitoring target area without a gap.
  • it can also be realized as a monitoring system for controlling the position of the photographing region or the photographing range of the camera terminal.
  • examples of the camera terminal in the claims are the camera terminals 110A to N, the camera terminals 111A to N, and the camera terminals 114A to N in the embodiment, and examples of the cameras are the cameras 101A to N and the cameras 104A to N.
  • 106A to N an example of a communication unit is a communication unit 103A to N, and an example of an adjustment unit is an adjustment unit 102A to N, an adjustment unit 105A to N, and an adjustment unit 107A to N.
  • An example of a monitoring member selection unit is a cooperative monitoring member selection unit 211, an example of a cooperative monitoring member storage unit is a cooperative monitoring member storage unit 212, and an example of a monitoring target region map storage unit is a monitoring target region map storage 213, an example of the monitoring area determination unit 214 is the monitoring area determination unit 214, an example of the imaging range determination unit, the imaging range determination unit 215, and an example of the camera control unit is the camera control unit 216.
  • the monitoring area comparison and evaluation unit 217 is an example of the line-of-sight direction adjustment unit, which combines the area shape comparison and evaluation unit 220 and the line-of-sight direction adjustment unit 222, and an example of the communication path is the communication network 112A to N. It is.
  • the present invention provides a camera and a monitoring system using the camera, for example, a monitoring system for a suspicious person in a school or a building, a monitoring system for a public place combined with a wide range photographing system such as an intersection or a park, Furthermore, as an indoor remote monitoring system that monitors the situation in the home using multiple network cameras, etc., especially the configuration of the monitoring system has changed, such as one of the multiple cameras has failed or a new camera has been added. When Even in the event, it is useful as a high-performance monitoring system that needs to maintain the entire area to be monitored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 カメラの振る舞いを記述したテーブルの必要がなく、かつ、故障等により一部のカメラが停止した場合であってもシステム全体としては監視対象領域をくまなく撮影し続けるカメラ端末等を提供する。  複数のカメラ端末が協調して動作することによって監視対象領域を撮影する監視システムにおける1台のカメラ端末110Aであって、撮影領域を変更する機能を有するカメラ101Aと、撮影領域を特定する情報を他のカメラ端末と送受信する通信部103Aと、通信部103Aで受信された他のカメラ端末からの情報に基づいて、自カメラ端末の監視担当領域が他のカメラ端末の監視担当領域または監視対象領域の境界線と隙間なく隣接するように、自カメラ端末の監視担当領域を決定するとともに、監視担当領域全体が撮影されるように、カメラ101Aの撮影領域を調整する調整部102とを備える。                                                                                 

Description

明 細 書
カメラ端末および監視システム
技術分野
[0001] 本発明は、複数のカメラで監視対象領域を撮影する監視システムおよびその監視 システムを構成しているカメラ端末に関し、特に、監視対象領域全体をくまなく撮影す る監視システム等に関する。
背景技術
[0002] 近年、主に監視用途に利用される複数のカメラを用いた監視システムに対する研 究開発が盛んに行われている。複数のカメラによる監視においては、監視を行う対象 となる領域 (監視対象領域)全体に対して死角となる領域がより少なくなる状態を維持 するという第 1の要求と、さらに監視対象領域内に存在する対象物に対して詳細な撮 影情報を取得するという第 2の要求を達成できることが求められる。
[0003] 従来の複数のカメラを用いた装置では、各カメラの撮影領域の位置と撮影範囲を自 動調整することにより、上記の 2つの要求を達成している。そのような複数のカメラを 用いた代表的な従来装置としては、特許文献 1および特許文献 2に示されるものがあ る。
[0004] まず、特許文献 1に示される従来の装置について説明する。図 1は上記特許文献 1 に記載されたカメラの撮影領域を自動調整する装置を示す図である。
[0005] 図 1において、検出カメラ装置 9010では、カメラ 9011および反射鏡 9012により、 広い撮影領域にわたって検出対象を撮影し、移動物体抽出部 9013が撮影した同画 像より検出対象を抽出し、位置情報抽出部 9014が同検出対象の位置情報を抽出す るため、検出カメラ装置 9010は、広い検出領域にわたって検出対象の位置情報を 取得する。判定カメラ装置 9020では、カメラ制御部 9022が検出対象の位置情報を もとにカメラ 9021の旋回角および俯角およびズーム比率を制御し、判定カメラ装置 9 020は、検出対象の拡大画像を撮影するため、検出対象の詳細な情報を取得する。
[0006] 図 2は、検出カメラ装置 9010および判定カメラ装置 9020の検出領域を示す図であ る。図 2において、黒丸は検出カメラ装置 9010の設置位置を示し、同検出カメラ装置 9010は固定されたカメラである。円または六角形は各検出カメラ装置 9010の撮影 領域を示す。図 2に示されるように、各検出カメラ装置 9010を人為的に規則正しく設 置すれば、監視する対象領域である検出対象領域内を死角なく常時検出することが 可會 になる。
[0007] つぎに、特許文献 2に示される従来の装置について説明する。図 3は上記特許文 献 2に記載されたカメラの撮影領域を自動調整する装置を示す図である。
[0008] 図 3において、広い撮影領域にわたって対象物を撮影する目的を負う移動物体検 出用カメラ 9211は、姿勢制御手段 9212により自身の撮影領域を変更し、対象物の 拡大画像を撮影する目的を負う監視用カメラ 9221は、姿勢制御手段 9222により自 身の撮影領域を変更する。各カメラの撮影領域は、画像処理装置 9240において、 移動物体検出用カメラ 9211が撮影した画像力も抽出した検出対象の位置および各 カメラの撮影領域から、カメラ画角記憶手段 9231およびカメラ画角記憶手段 9232 に予め記憶させた情報をもとに、決定される。
[0009] この従来の装置による各カメラの撮影領域決定方法を説明する。図 4、図 5および 図 6は各カメラの撮影領域決定方法を説明するための図であり、数個のブロック画像 に分割した移動物体検出用カメラ 9211が撮影した画像を示している。まず、移動物 体検出用カメラ 9211の撮影領域は以下のように決定される。図 4の斜線で示される ブロックに検出対象が存在する場合には、それぞれのブロック位置が図 4に示される ブロック位置と対応している図 5の各ブロックに記載した矢印の方向が示す方向に移 動物体検出用カメラ 9211の姿勢を変化させ、同カメラの撮影領域を変更する。各ブ ロック位置に対応した移動物体検出用カメラ 9211の撮影領域は予め人間が決定し ており、同情報はカメラ画角記憶手段 9231に予め設定されている。次に、監視用力 メラ 9221の撮影領域は以下のように決定される。図 6に示されるブロック位置に検出 対象が存在する場合には、破線で示した撮影領域になるよう監視用カメラ 9221の姿 勢を変化させ、同カメラの撮影領域を変更する。各ブロック位置に対応した監視用力 メラ 9221の撮影領域は予め人間が決定しており、同情報はカメラ画角記憶手段 923 2に予め設定されている。
[0010] 上記従来の複数のカメラを用いた装置の特徴につ!、てここにまとめる。 [0011] まず、特許文献 1に示される従来の装置では検出カメラ装置 9010が、特許文献 2 に示される従来の装置では移動物体検出用カメラ 9211が、広範囲の領域に対して 検出対象を検出する役割を負い、特許文献 1に示される従来の装置では判定カメラ 装置 9020が、特許文献 2に示される従来の装置では監視用カメラ 9221が、検出対 象の拡大画像のような、検出対象の詳細な情報を取得する役割を負う。このように従 来技術では、各カメラは予め役割が決められており、一方の役割を負うカメラが上記 第 1の要求を達成し、もう一方の役割を負うカメラが上記第 2の要求を達成している( 従来技術の特徴 1)。
[0012] また、特許文献 2に示される従来の装置では、例えば、移動物体検出用カメラ 921 1の撮影領域は、図 4の左上ブロックに監視対象があるという状況変化に対し、図 5の 左上ブロックに示されるような左上方向に移動した検出領域に変更するように、予め 人間が想定し作成した状況に対してカメラの振る舞いを定義したテーブル形式の情 報をもとに各カメラの撮影領域を決定し調整する (従来技術の特徴 2)。
[0013] また、特許文献 1に示される従来の装置は、図 2に示されるように、予め人間が規則 的な位置に固定カメラを設置することにより、上記第 1の要求が達成されている(従来 技術の特徴 3)。
特許文献 1 :特許第 3043925号公報(図 1、図 6)
特許文献 2 :特許第 3180730号公報(図 1、図 7〜図 9)
発明の開示
発明が解決しょうとする課題
[0014] し力しながら、従来の装置のように、予め想定されて!、る状況に対してカメラの振る 舞いを逐一定義したテーブル等を用意することで各カメラの撮影領域の調整を行う 場合 (上記従来技術の特徴 2)には、想定される全ての状況に対してカメラの振る舞 いを記述したテーブル等を用意しておくことが必要となる。また上記の定義内容は、 検出対象領域の位置や広さ、想定される状況変化、各カメラを設置する位置や台数 等に依存しており、これらに変更などがあった場合には、その度にテーブルの内容を 作成し直す必要がある。この作業は、カメラ台数が増えれば増えるほど煩雑であり、 それに対するコストや負荷は膨大なものとなる。ビル内のカメラを用いた監視システム などでは、 10数台のカメラを用いることはごく一般的である。
[0015] また、従来の装置では、予め人間が規則的な位置に固定カメラを設置することによ り上記第 1の要求は達成されているが(上記従来技術の特徴 3)、カメラ力 つでも故 障した場合には、もはや上記第 1の要求を達成することはできない。仮に、図 7に示さ れるように、検出カメラ装置 9010の数を増やすことにより、うち 1つが故障した場合で も死角なく検出対象領域を覆うことはできるが、非効率と言わざるを得ない。なお、図 7において、黒丸は、検出カメラ装置 9010の設置位置を示している。
[0016] そこで、本発明は、上記従来の課題を解決するものであり、人間が予め想定される 状況に対してカメラの振る舞いテーブルに記述しておく必要がなぐかつ、故障や保 守点検等により一部のカメラが停止した場合であってもシステム全体としては監視対 象領域をくまなく撮影し続ける監視カメラ、および監視システムを提供することを目的 とする。
課題を解決するための手段
[0017] 上記目的を達成するために、本発明に係るカメラ端末は、複数のカメラ端末が協調 して動作することによって監視対象領域を撮影する監視システムにおける 1台のカメ ラ端末であって、撮影領域を変更する機能を有するカメラと、前記撮影領域を特定す る情報を他のカメラ端末と送受信する通信手段と、各カメラ端末が監視すべき撮影領 域を監視担当領域とした場合に、前記通信手段で受信された他のカメラ端末からの 情報に基づいて、自力メラ端末の監視担当領域が他のカメラ端末の監視担当領域ま たは前記監視対象領域の境界線と隙間なく隣接するように、自カメラ端末の監視担 当領域を決定するとともに、前記監視担当領域全体が撮影されるように、前記カメラ の撮影領域を調整する調整手段とを備え、前記調整手段は、自力メラ端末の撮影領 域内に定められた第 1基準点と前記撮影領域に隣接する他のカメラ端末の撮影領域 内に定められた第 2基準点とを結ぶ線分の垂直二等分線または前記垂直二等分線 と前記監視対象領域の境界線とにより、前記第 1基準点を取り囲こむ領域を前記監 視担当領域として決定することを特徴とする。
[0018] これによつて、複数のカメラ端末は、それぞれ、他のカメラ端末と通信しながら自律 協調的に動作し、各監視担当領域を覆うので、結果として、監視対象領域全体がくま なく同時に撮影されることになる。また、一部のカメラ端末が故障して撮影できない事 態が発生しても、各カメラ端末は、他のカメラ端末と通信することで監視担当領域を 決定し、その監視担当領域を覆うように撮影領域の位置と範囲を調整するので、撮 影可能なカメラ端末だけによつて監視対象領域がくまなく撮影される。
[0019] また、各監視担当領域は、隣接する撮影領域内の基準点を結ぶ線分の垂直二等 分線等によって囲まれた領域となるので、各監視担当領域の大きさが均一化され易 くなり、解像度等において、バランスのとれた撮影が可能となる。なお、前記第 1基準 点としては、自力メラ端末のカメラが有する撮像面の中心に映し出される前記監視対 象領域上の座標であったり、撮影領域の中心座標であるのが好ま 、。
[0020] また、前記カメラはさらに、撮影領域の位置を変更する機能を有し、前記調整手段 はさらに、自力メラ端末の監視担当領域と前記監視担当領域に隣接する監視担当領 域とを比較評価することにより、自力メラ端末の監視担当領域が前記監視担当領域 に隣接する監視担当領域の大きさに近づくように、撮影領域の位置を決定する監視 担当領域比較評価部を有し、前記カメラ制御部は、前記監視担当領域比較評価部 によって決定された撮影領域の位置に近づくように前記カメラを制御してもよ 、。この とき、前記監視担当領域比較評価部は、例えば、前記第 1基準点から前記監視担当 領域の各境界線までの距離が等しくなるように前記第 1基準点を動かすことにより、 前記撮影領域の位置を決定するのが好まし 、。
[0021] これによつて、各監視担当領域の大きさが均一化され、各撮影領域で撮影される画 像の大きさや詳細度が略等しくなるとともに、監視対象領域全体がくまなく撮影され、 異常事態を容易に発見できる監視システムが実現される。
[0022] また、前記カメラはさらに、視線方向を制御する機能を有し、前記調整手段はさらに 、前記撮影領域の形状と前記監視担当領域の形状が近づくように、前記カメラの視 線の方向を調整する視線方向調整部を有する構成としてもよい。このとき、前記視線 方向調整部は、例えば、前記撮影領域の形状と前記監視担当領域の形状との違い を評価する評価関数にお!、て、前記撮影領域の形状と前記監視担当領域の形状と がー致する時の評価値を目標値とした場合に、前記評価関数の評価値が前記目標 値に近づくように、前記カメラの視線方向を決定するのが好ましい。具体的には、前 記評価関数として、前記カメラの視線が前記監視対象領域と交わる点を基準点とした 場合に、前記基準点を通る複数の方向について、前記基準点から前記監視担当領 域の境界線まで距離と前記基準点から前記撮影領域の境界線までの距離との比率 の分散を示す関数であり、前記目標値として、ゼロであるのが好ましい。
[0023] これによつて、各撮影領域の形状が監視担当領域の形状に近づくので、各撮影領 域がオーバラップする無駄な領域が削減され、解像度を劣化させることなぐ複数の カメラ端末で監視対象領域をくまなく撮影することができる。
[0024] なお、本発明は、カメラ端末として実現できるだけでなぐカメラ端末から構成される 監視システムとして実現したり、複数のカメラ端末を用いる監視方法として実現したり 、カメラ端末等に組み込まれるプログラムとして実現することもできる。また、各カメラ 端末に調整手段を設ける分散制御型の構成だけでなぐ複数のカメラ端末が、通信 ネットワークを介して接続された共通の調整手段によって制御される集中管理型の構 成をとつてもよい。さら〖こ、本発明に係るプログラムを CD—ROM等の記憶媒体ゃィ ンターネット等の伝送媒体を介して配信できることは言うまでもない。
発明の効果
[0025] 本発明に係る自律協調型の監視システムによれば、監視対象領域全体を撮影する ために十分な台数のカメラ端末が監視対象領域内を撮影可能な方向に設置された 場合に、互いの撮影領域の位置関係から各自が監視を担当する監視担当領域を決 定し、さらに自身の監視担当領域全体が映るように焦点距離等を調節することにより 、監視対象領域内に死角領域をつくることなぐ各カメラ端末の撮影領域の位置と撮 影範囲が自動的に決定される。
[0026] このため、従来のようにカメラの設置位置や設置方向などの条件または周囲の環境 などによって想定される全ての状況に対して各カメラの振る舞いを決めたテーブル等 を用意しておく必要がなぐかつ、故障や保守点検等によって任意のカメラ端末の撮 影領域が消失した場合や、パンチルト等の動作によって撮影領域の位置が変化する 場合にお 、ても、他のカメラ端末と協調して撮影領域の位置と撮影範囲を変更するこ とによって監視対象領域全体の監視が維持される。
[0027] よって、本発明により、監視対象領域全体の常時撮影が保障され、特に学校ゃビ ル等における不審者の監視用システムや、交差点や公園などの広範囲撮影システム といった公共の場所の監視、さらに家庭内の様子を複数のネットワークカメラ等を用 V、て監視する室内遠隔監視システム等として、その実用的価値は高!、。
図面の簡単な説明
[図 1]図 1は、第 1の従来技術における構成ブロック図である。
[図 2]図 2は、第 1の従来技術におけるカメラ視野範囲を示す説明図である。
[図 3]図 3は、第 2の従来技術における構成ブロック図である。
[図 4]図 4は、第 2の従来技術における動作説明図である。
[図 5]図 5は、第 2の従来技術における動作説明図である。
[図 6]図 6は、第 2の従来技術における動作説明図である。
[図 7]図 7は、第 2の従来技術における動作説明図である。
[図 8]図 8は、本発明にカゝかる実施の形態 1における監視システムの構成を示すプロ ック図である。
[図 9]図 9は、カメラの構成を示すブロック図である。
[図 10]図 10は、調整部の構成を示すブロック図である。
[図 11]図 11は、地図データの一例を示す図である。
[図 12]図 12は、実施の形態 1における監視システムの動作を説明する図である。
[図 13]図 13は、実施の形態 1における監視システムの動作手順を示すフローチヤ一 トである。
[図 14]図 14は、監視システムの動作 (協調監視メンバの選択)を説明する図である。
[図 15]図 15は、監視システムの動作 (監視担当領域の決定)を説明する図である。
[図 16]図 16は、監視システムの動作例を示す図である。
[図 17]図 17は、監視システムの動作例を示す図である。
[図 18]図 18は、監視システムの動作例(一部が故障時における動作)を示す図であ る。
[図 19]図 19は、本発明にカゝかる実施の形態 2における監視システムの構成を示すブ ロック図である。
[図 20]図 20は、カメラの構成を示すブロック図である。 [図 21]図 21は、調整部の構成を示すブロック図である。
[図 22]図 22は、実施の形態 2における監視システムの動作手順を示すフローチヤ一 トである。
[図 23]図 23は、監視システムの動作を説明する図である。
[図 24]図 24は、評価関数 Fを説明する図である。
[図 25]図 25は、監視システムの動作例を示す図である。
[図 26]図 26は、本発明の実施の形態 3における撮影領域と監視担当領域の関係を 説明する図である。
[図 27]図 27は、本発明の実施の形態 3における撮影領域と監視担当領域の関係を 説明する図である。
[図 28]図 28は、評価関数 Gを説明する図である。
[図 29]図 29は、本発明にカゝかる実施の形態 3における監視システムの構成を示すブ ロック図である。
[図 30]図 30は、カメラの構成を示すブロック図である。
[図 31]図 31は、調整部の構成を示すブロック図である。
[図 32]図 32は、本発明の実施の形態 3における監視システムの動作手順を示すフロ 一チャートである。
[図 33]図 33は、監視システムの動作例を示す図である。
[図 34]図 34は、監視システムの動作例を示す図である。
[図 35]図 35は、監視担当領域の決定方法を説明する図である。
圆 36]図 36は、補足説明 1における撮影領域の算出方法を説明する図である。 圆 37]図 37は、補足説明 2における撮影領域を決定づける焦点距離の算出方法を 説明する図である。
圆 38]図 38は、補足説明 2における撮影領域を決定づける焦点距離の算出方法を 説明する図である。
[図 39]図 39は、調整部がカメラ端末の外部にある監視システムの構成を示すブロック 図である。
[図 40]図 40は、調整部がカメラ端末の外部にある監視システムの調整部の構成を示 すブロック図である。
符号の説明
[0029] 101A- Nゝ 104A〜N、 106A〜N カメラ
102A- Nゝ 105A〜N、 107A〜N 調整部
103A- 通信部
11 OA Nゝ 111A〜N、 114A〜N カメラ端末
112A- 通信ネットワーク
130 監視対象領域
131 協調監視メンバ選択範囲
140A- 撮影領域
150A- 監視担当領域
201 レンズ
202 撮像部
203 画像処理部
204 焦点制御部
205 姿勢制御部
211 協調監視メンバ選択部
212 協調監視メンバ記憶部
213 監視対象領域マップ記憶部
214 監視担当領域決定部
215 撮影範囲決定部
216 カメラ制御部
217 監視担当領域比較評価部
220 領域形状比較評価部
222 視線方向調整部
発明を実施するための最良の形態
[0030] 以下、本発明の実施の形態について、図面を参照しながら説明する。
[0031] (実施の形態 1) まず、本発明の実施の形態 1における監視システムについて説明する。
[0032] 図 8は本発明の実施の形態 1における監視システムの構成を示すブロック図である 。この監視システムは、複数のカメラ端末が協調して動作することによって監視対象 領域を撮影するシステムであり、通信ネットワーク 112と、監視対象領域 130全体を 撮影するために十分な台数のズーム制御等が可能な同一機能の複数のカメラ端末 1 10A〜Nカゝら構成される。この監視システムでは、各カメラ端末 110A〜Nの設置位 置と設置方向とは、撮影領域 140A〜Nが互いに所定の間隔をおいて並ぶように、 予め調整され、固定されている。この監視システムは、各カメラ端末の設置位置と設 置方向に合わせて、監視対象領域 130全体が映し出されるように、各カメラ端末 110 A〜Nが撮影範囲を自動的に調整する点に特徴を有する。
[0033] 監視対象領域 130は、複数のカメラ端末 110A〜Nカゝら構成される監視システムが 監視対象としている全体の領域である。撮影領域 140A〜Nは、それぞれ、カメラ端 末 110A〜Nにより撮影されている領域である。監視担当領域 150A〜Nは、それぞ れ、カメラ端末 110A〜Nが撮影を担当する領域である。通信ネットワーク 112は、複 数のカメラ端末 110A〜N (つまり、各カメラ端末 110A〜Nが備える通信部 103A〜 N)を結ぶ伝送路である。
[0034] 各カメラ端末 110A〜Nは、他のカメラ端末と通信し合うことで、自力メラ端末の監視 担当領域を内包する撮影領域を決定し、決定した撮影領域を撮影する装置であり、 それぞれ、カメラ 101A〜N、調整部 102A〜Nおよび通信部 103A〜Nを備える。
[0035] カメラ 101A〜Nは、それぞれ、撮影領域を変更する機能 (ズーム制御等)を有する カメラであり、例えば、監視対象領域 130内の映像を取り込むための CCDカメラ等で ある。
[0036] 通信部 103A〜Nは、それぞれ、カメラ端末 110A〜Nが通信ネットワーク 112を介 して、撮影領域を特定する情報 (撮影領域の位置と撮影範囲)を他のカメラ端末と送 受信する通信インターフェイスである。
[0037] 調整部 102A〜Nは、それぞれ、カメラ 101A〜Nが監視を担当する領域 (監視担 当領域 150A〜N)を決定し、撮影領域 140A〜Nが、それぞれ、対応する監視担当 領域 150A〜N全体を映像に取り込むように撮影範囲の調整を行う処理部である。よ り詳しくは、例えば、調整部 102Aは、通信部 103Aで受信された他のカメラ端末 110 B等からの情報に基づ 、て、自カメラ端末 110Aの監視担当領域が他のカメラ端末 1 10B等の監視担当領域または監視対象領域の境界線と隙間なく隣接するように、自 カメラ端末 110Aの監視担当領域を決定するとともに、監視担当領域全体がカメラ 10 1 Aによって撮影されるように、カメラ 101Aの撮影領域 (撮影領域の撮影範囲)を調 整する。このとき、監視担当領域の具体例として、調整部 102Aは、自力メラ端末 110 Aの撮影領域内に定められた第 1基準点と撮影領域に隣接する他のカメラ端末の撮 影領域内に定められた第 2基準点とを結ぶ線分の垂直二等分線または垂直二等分 線と監視対象領域の境界線とにより、第 1基準点を取り囲こむ領域を監視担当領域と して決定する。ここで、第 1および第 2基準点とは、例えば、その監視担当領域に対 応するカメラ端末のカメラが有する撮像面の中心に映し出される監視対象領域上の 座標、つまり、そのカメラ端末のカメラの視線が監視対象領域と交わる点、あるいは、 そのカメラ端末の撮影領域の中心座標等である。
[0038] なお、図 8では、説明の簡略化のために、監視対象領域 130、撮影領域 140A〜N 、監視担当領域 150A〜Nの範囲が 1次元的な直線で表現されている力 1次元以 上の平面や曲面、立体的な形状で表現される領域も、それぞれ、監視対象領域 130 、撮影領域 140A〜Nおよび監視担当領域 150A〜Nの対象に含まれる。
[0039] 図 9 (a)は、各カメラ 101A〜Nの内部構成を示すブロック図である。各カメラ 101A 〜Nは、ズーム制御が可能な CCDカメラ等であり、レンズ 201、撮像部 202、画像処 理部 203および焦点制御部 204を有する。
[0040] レンズ 201は、像を結像させるためのレンズ等である。撮像部 202は、レンズ 201で 結像した像を撮影する CCD等の素子である。画像処理部 203は、撮像部 202で撮 影された画像を処理する処理部である。焦点制御部 204は、レンズ 201と撮像部 20 2の間隔を変更するステッピングモータ等の機構であり、図 9 (b)に示されるように、レ ンズ 201と撮像部 202との間隔 (焦点距離)を増減させることによってカメラ 101A等 の撮影領域の撮影範囲の変更を行う機構部である。なお、カメラ 101A等により撮影 されて 、る撮影領域の位置の算出方法にっ 、ては後述する補足説明 1にお 、て説 明する。 [0041] 図 10は、各調整部 102A〜Nの内部構成を示すブロック図である。各調整部 102 A〜Nは、協調監視メンバ選択部 211、協調監視メンバ記憶部 212、監視対象領域 マップ記憶部 213、監視担当領域決定部 214、撮影範囲決定部 215およびカメラ制 御部 216を有する。
[0042] 協調監視メンバ選択部 211は、自身の撮影領域の位置力 所定の範囲内を撮影し ている他のカメラ端末を協調監視メンバとして選択する処理部である。
[0043] 協調監視メンバ記憶部 212は、協調監視メンバ選択部 211で選ばれた協調監視メ ンバ (他のカメラ端末)から通知された撮影領域を特定する情報 (撮影領域の位置と 撮影範囲等)を記録するメモリ等である。
[0044] 監視対象領域マップ記憶部 213は、監視対象領域 130の範囲を定義した地図デ ータを記憶するメモリ等である。また監視対象領域マップ記憶部 213に記憶されて ヽ る地図データの一例を図 11に示す。図 11の地図データでは、位置を決定するため の座標軸 (x、 y、 z)ごとに監視すべき範囲を定義することで監視対象領域 130を表 現している。なお地図データとしては、図 11に示した記述方法以外であってもカメラ 端末 110A〜Nが撮影すべき範囲を特定できる記述方法であればよい。また、地図 データは予め与えられた情報以外にも、監視システムの作動中にカメラ自身が撮影 した周囲の環境映像から、画像処理や認識処理等によって作成した地図データを用 いてもよい。
[0045] 監視担当領域決定部 214は、自カメラ端末 110Aの撮影領域の情報 (撮影領域の 位置と撮影範囲)と、協調監視メンバ記憶部 212に記憶されている他のカメラ端末の 撮影領域の情報 (撮影領域の位置と撮影範囲)と、監視対象領域マップ記憶部 213 に記録されている地図データとを基に、他のカメラ端末の前記監視担当領域または 監視対象領域の境界線と隙間なく隣接するように、監視担当領域を決定する処理部 である。具体的には、監視担当領域決定部 214は、自力メラ端末の撮影領域内に定 められた第 1基準点と撮影領域に隣接する他のカメラ端末の撮影領域内に定められ た第 2基準点とを結ぶ線分の垂直二等分線または垂直二等分線と監視対象領域の 境界線とにより、第 1基準点を取り囲こむ領域を監視担当領域として決定する。
[0046] 撮影範囲決定部 215は、監視担当領域決定部 214で決定された監視担当領域 15 OA等全体を撮影映すための焦点距離を決定する処理部である。
[0047] カメラ制御部 216は、撮影範囲決定部 215で決定された焦点距離となるように、カメ ラ 101A等の焦点距離を制御する処理部である。
[0048] 次に図 8、図 9、図 10に示した構成力もなる複数のカメラ端末 110A〜Nを、図 12 ( a)に示される矩形の床面を持つ部屋に配置した場合を例に挙げて、各カメラ端末 11 OA〜Nおよび監視システム全体の動作手順について説明する。
[0049] まず、実施の形態 1におけるカメラ端末 110A〜Nの設置条件について説明する。
[0050] 図 12 (a)に示されるように、カメラ端末 110A〜Nの台数については、監視対象領 域 130をくまなく撮影するために十分な台数のカメラ端末 110A〜Nが設置されてい る。例えば、図 12 (b)に示されるように、カメラの画角が最大の時に、撮像部 202の撮 像面が監視対象領域 130に対して平行になる状態で撮影された撮影領域の面積( 最大撮影面積)の 9分の 1の大きさを基準撮影面積とすると、監視システムには、各力 メラ端末 110A〜Nの基準撮影面積の総和が監視対象領域 130の面積より大きくな るような台数だけ、カメラ端末 110A〜Nが用意されて 、るものとする。
[0051] また、カメラ端末 110A〜Nは天井の端に沿って設置されており、床面を監視対象 領域 130として、これをくまなく撮影するために、各カメラ端末 110A〜Nの視線方向 は、図 12 (a)に示されるように、互いのカメラの視線と監視対象領域 130の交わる点 が監視対象領域 130内に格子状に並ぶように調整されているものとする。なお、カメ ラの視線が監視対象領域 130と交わる点とは、カメラが有する撮像面の中心に映し 出される監視対象領域 130上の座標であり、上述の第 1および第 2基準点の一例で ある。
[0052] ここで、本実施の形態において、基準領域の大きさを最大撮影面積の 9分の 1の大 きさとした理由は、各撮影領域 140A〜Nが隣接する同じ性能の他のカメラ端末が故 障等した場合において、カメラ端末 110A〜Nの撮影領域の面積を 9倍以上に拡大 することで、故障したカメラ端末の撮影領域の撮影を補うことができるからである。
[0053] 図 12 (a)に示されるように、設置位置が天井の端に限定して設置した場合、床全体 を撮影するためには各カメラ端末 110A〜Nの視線の角度 (俯角)が異なってしまう。 このため、同じ画角であっても、カメラ端末 110A〜Nごとに、撮影領域 140A〜Nの 大きさが異なるため、監視対象領域 130をくまなく撮影するためには、カメラ端末 110 A〜Nごとに、撮影領域 140A〜Nの位置にあわせて撮影範囲の調整が必要となる。
[0054] 次に、図 13に示されるフローチャートを用いて各カメラ端末 110A〜Nの動作手順 について説明する。ここでは、カメラ端末 110Aの動作手順を説明する。
[0055] まず、通信部 103Aは、通信ネットワーク 112を介して監視システム内の通信可能 な全てのカメラ端末と、互 、の撮影領域 140A〜Nの位置と撮影範囲の特定に関す る情報を通信し合う (ステップ 101)。
[0056] 次に、協調監視メンバ選択部 211は、通信部 103Aが受け取った他のカメラ端末の 情報を利用して、監視対象領域 130上にぉ ヽてカメラ端末 110A自身の撮影領域 1 40Aの位置力 所定の範囲内を撮影している他のカメラ端末を協調監視メンバとして 選別し、選別した相手の情報を協調監視メンバ記憶部 212に記憶する (ステップ 102
) o
[0057] ここでの協調監視メンバの選別の過程を、図 14を用いて説明する。図 14は複数の カメラ端末 110A〜Nによって監視対象領域 130が撮影されており、その中の 1台の カメラ端末 110Aが協調監視メンバを選別して 、る様子を示して 、る。本図にお 、て 、図 8と同様の構成要素については同じ記号を付与し、説明を省略する。図 14の右 下に示されるように、協調監視メンバ選択範囲 131は、カメラ端末 110A〜Nが協調 監視メンバを選別する際に基準とする領域の範囲である。
[0058] 図 14において、カメラ端末 110Aの動作に注目すると、カメラ端末 110Aは、カメラ 101Aの視線の先 (撮影画像の中心部に映し出される場所)を中心とした半径 Rの同 心円状の領域を協調監視メンバ選択範囲 131とし、視線の先が協調監視メンバ選択 範囲 131内にある他のカメラ端末を協調監視メンバに選ぶ。なお、この例では、協調 監視メンバ選択範囲 131をカメラ 101 Aの視線の先を中心とした円状の領域を例に 挙げたが、視線の先以外にも撮影領域の中心座標等を協調監視メンバ選択範囲 13 1の中心として用いてもよい。また協調監視メンバ選択範囲 131の形状は円形以外に も楕円や多角形などの形状を取ってよい。
[0059] 次に、監視担当領域決定部 214は、協調監視メンバに選ばれたカメラ端末の撮影 領域に関する情報を用いて監視担当領域 150Aを決定する。(ステップ 103)。 [0060] ここで、監視担当領域決定部 214において監視担当領域 150Aを決定する過程の 詳細について、図 15を用いて説明する。図 15において、図 8、図 14と同じ構成要素 については、同じ記号を付与し説明を省略する。本図において、カメラ端末 110Aに 注目すると、カメラ端末 110Aは、図 14で選別された他のカメラ端末の視線の先(つ まり、上述の第 2基準点)と、カメラ端末 110A自身の視線の先(つまり、上述の第 1基 準点)とを結ぶ線分に対して垂直二等分線 (点線)を引き、自身の視線の先 (第 1基 準点)を取り囲む垂直二等分線または監視対象領域 130の境界線よつて決められる 領域を監視担当領域 150Aと決定する。なお、図 15では、 1台のカメラ端末 110Aに 注目して見た時に決定される監視担当領域 150Aの様子が示された力 監視システ ムとしては、各カメラ端末 110A〜Nが独立に、それぞれ、監視担当領域 150A〜N を決定することにより、監視対象領域 130は、カメラ端末 110A〜Nの台数と同じ数の 監視担当領域 150A〜Nに分割される。また、図 15では、視線の先 (撮影画像の中 心部に映し出される場所)を基準として監視担当領域 150Aが決定された力 視線の 先以外にも撮影領域の中心座標等を基準として監視担当領域 150Aを決定してもよ い。
[0061] 次に、撮影範囲決定部 215は、監視担当領域 150A全体が映る(つまり、監視担当 領域を内包する)状態で、かつ、撮影領域 140Aの面積が最も小さくなる時の焦点距 離(目標焦点距離)を求め、カメラ制御部 216は、カメラ端末の焦点距離がその目標 焦点距離に近づくように、カメラ 101Aを制御する (ステップ 104)。撮影範囲決定部 2 15おける目標焦点距離の具体的な算出方法については後述する補足説明 2におい て説明する。
[0062] このような本実施の形態における構成と手順によれば、複数の各カメラ端末 110A 〜Nは、互 、の撮影領域の位置または撮影範囲の特定に関する情報を通信し合うこ とで、各自の監視担当領域 150A〜Nを決定し、さらに自身の監視担当領域 150A 〜N全体を覆うように撮影領域 140A〜Nの撮影範囲を調整することにより、監視対 象領域 130全体をくまなく撮影をおこなう。
[0063] 図 16および図 17に、実施の形態 1における複数のカメラ端末 110A〜N力も構成 される監視システム全体の動作例を示す。これらの図において、図 8と同じ構成要素 については同じ番号を記載し説明を省略する。
[0064] 図 16 (a)は、部屋の床面を監視対象領域 130として、室内の様子を撮影するため に 6台のカメラ端末 110A、 110B、 HOC, 110D、 110E、 110F力 S室内の任意の場 所に設置されている様子を示している。また、 6台のカメラ端末 110A〜Nは、監視対 象領域 130をくまなく撮影するために十分な台数であり、図 12 (b)に示されるように、 カメラの画角が最大の時に、撮像部 202の撮像面が監視対象領域 130に対して平 行になる状態で撮影された撮影領域の面積の 9分の 1の大きさを基準撮影面積とす ると、 6台のカメラ端末 110A〜Fの基準撮影面積の総和は監視対象領域 130の面 積より大きいものとする。
[0065] また、各カメラ端末 110A〜Fの視線方向は、各カメラ端末 110A〜Fの視線と監視 対象領域 130が交わる点が監視対象領域 130内に格子状に並ぶように調整されて いるものとする。
[0066] 図 16 (a)に示された 6台のカメラ端末 110A〜Fは、通信ネットワーク 112を介して 撮影領域 140A〜Fに関する情報を通信し合い、監視担当領域決定部 214によって 監視担当領域 150を決定する。これにより、監視対象領域 130は、図 16 (b)に示され るように、各カメラ端末 110A〜Fがそれぞれ担当する監視担当領域 150A〜Fに分 割される。
[0067] 次に、図 17を用いて、各カメラ端末 110A〜Fが撮影領域を変更する様子につい て説明する。ここで、撮影領域 140A〜Fは、それぞれ、各カメラ端末 110A〜Fの撮 影領域である。撮影範囲決定部 215により、各カメラ端末 110A〜Fに対して、それ ぞれ、監視担当領域全体が映る状態において撮影領域 140A〜Fの面積が最も小さ くなる時の焦点距離(目標焦点距離)が求められ、カメラ制御部 216、焦点制御部 20 4により、焦点距離が調整されることで、図 17 (b)に示されるように、監視対象領域( 床面)全体がくまなく撮影される。
[0068] 以上のように、本実施の形態の監視システムによれば、所定の監視対象領域 130 に対して、適当な設置位置と設置方向に複数のカメラ端末を設置した場合において 、各カメラ端末の撮影範囲を予め調整しなくても、複数のカメラ端末が監視対象領域 の形状等に合わせて、監視対象領域全体が撮影されるように撮影範囲を自動的に 調整するため、複数のカメラ端末の設置作業等において撮影領域の調整に力かる手 間が軽減される。
[0069] 次に、監視システム内の任意のカメラ端末が故障などにより停止した場合について 説明する。
[0070] 図 18は、 6台のカメラ端末 111A〜Fにより、監視対象領域 130を撮影している様子 を示している。本図において、図 8と同じ構成要素については同じ記号を記載し説明 を省略する。
[0071] いま、図 18 (a)に示される監視システムのうち、 1台のカメラ端末 111Bが故障や保 守点検によって撮影領域 140Bが消失した場合(図 18 (b) )には、図 13に示されたフ ローチャートのステップ 103において、残りのカメラ端末と互いの監視担当領域 150 A等が再度決定され、ステップ 104において、各自の撮影領域の範囲が変更される ので、再び、監視対象領域 130をくまなく撮影し続けることができる(図 18 (c) )。また 、対象物 (例えば人物)をズームアップ撮影することにより、撮影領域の位置と範囲が 変化した場合においても、カメラ端末 111Bを協調メンバから除外することで、同様に して、監視対象領域 130の全体撮影を維持し続けることができる(図 18 (d) )。さらに 、故障したカメラ端末 110Bが復旧した場合や、監視システムに新しいカメラ端末が 追加された場合においても、同様に、図 13のフローチャートのステップ 103およびス テツプ 104によって再び監視対象領域が再度決定され、各自の撮影範囲が変更され 、複数のカメラ端末によって撮影される冗長な領域を減らすことができる。
[0072] なお、本実施の形態では、カメラのズーム制御だけで監視対象領域全体を撮影し た力 本実施の形態におけるカメラは、ズーム制御だけでなぐパンチルト制御の機 能も有していてもよい。その場合には、ズーム制御だけでなぐパンチルト制御を併せ たカメラ制御によって監視対象領域全体を撮影してもよい。
[0073] (実施の形態 2)
次に、本発明の実施の形態 2における監視システムについて説明する。
[0074] 図 19は、本発明の実施の形態 2における監視システムの構成を示すブロック図で ある。この監視システムは、複数のカメラ端末が協調して動作することによって監視対 象領域を撮影するシステムであり、通信ネットワーク 112と、監視対象領域 130全体 を撮影するために十分な台数のズーム制御およびパンチルト制御が可能な同一機 能の複数のカメラ端末 111 A〜N力 構成される。各カメラ端末 111A〜Nは、パンチ ルト制御により監視対象領域 130内を撮影できるような設置位置に分散して固定され ている。
[0075] この監視システムは、監視対象領域 130全体を映し出すために、互 ヽの監視担当 領域 150A〜Nの大きさが均一になるように各カメラ端末 111A〜Nの視線方向を変 化させ、さらに、監視担当領域 150A〜N全体が写るよう焦点距離を調整することで、 撮影領域の位置と撮影範囲を自動的に決定する。特に、本実施の形態では、パンチ ルト等によって撮影領域の位置を調整することのできるカメラ端末 111A〜Nを用い ることにより、実施の形態 1と同様に、監視対象領域 130をカメラ端末 111 A〜Nの台 数と同じ数の監視担当領域 150A〜Nを決定する際に、各監視担当領域 150A〜N の分担範囲が均等な大きさに近づくように、カメラ端末 111 A〜Nの撮影位置を変更 する点に特徴を有する。なお、図 19において、図 8と同じ構成要素については同じ 符号を用いて説明を省略する。
[0076] 各カメラ端末 111A〜Nは、他のカメラ端末と通信し合うことで、自カメラ端末の監視 担当領域を内包する撮影領域を決定し、決定した撮影領域を撮影する装置であり、 それぞれ、カメラ 104A〜N、調整部 105A〜Nおよび通信部 103A〜Nを備える。
[0077] カメラ 104A〜Nは、それぞれ、撮影領域の位置と撮影範囲を変更する機能 (パン チルト制御およびズーム制御)を有するカメラであり、例えば、撮影領域 140A〜Nの 位置と範囲を変更することのできるパンチルトカメラ等である。
[0078] 調整部 105A〜Nは、それぞれ、カメラ 104A〜Nの監視担当領域 150A〜Nを決 定し、撮影領域 140A〜Nが、それぞれ、対応する監視担当領域 150A〜N全体を 映像に取り込むように撮影方向、撮影範囲の調整を行う処理部である。より詳しくは、 例えば、調整部 105Aは、実施の形態 1における調整部 102Aの機能にカ卩えて、自 カメラ端末の監視担当領域とその監視担当領域に隣接する監視担当領域とを比較 評価することにより、自力メラ端末の監視担当領域がその監視担当領域に隣接する 監視担当領域の大きさに近づくように、撮影領域の位置を決定する機能を備える。具 体的には、調整部 105A等は、カメラの視線が監視対象領域と交わる点 (第 1基準点 )から監視担当領域の各境界線までの距離が等しくなるように、その点 (第 1基準点) を動かすことにより、撮影領域の位置を決定する。
[0079] 図 20は、各カメラ 104A〜Nの内部構成を示すブロック図である。各カメラ 104A〜 Nは、パンチルト制御およびズーム制御が可能なカメラであり、レンズ 201、撮像部 2 02、画像処理部 203および姿勢制御部 205を有する。本図において、図 9と同じ構 成要素については同じ符号を用いて説明を省略する。
[0080] 姿勢制御部 205は、レンズ 201と撮像部 202の間隔を変更し、さらに、レンズ 201と 撮像部 202の撮像面の向きを変更するステッピングモータなどの機構であり、図 19 に示されるようにレンズ 201と撮像部 202の間隔および向きを変更することによって力 メラ 104A等の撮影領域の位置と撮影範囲の変更を行う機構部である。なお、カメラ 1 04A等により撮影されている撮影領域の位置の算出方法については後述する補足 説明 1において説明する。
[0081] 図 21は、各調整部 105A〜Nの内部構成を示すブロック図である。各調整部 105 A〜Nは、協調監視メンバ選択部 211、協調監視メンバ記憶部 212、監視対象領域 マップ記憶部 213、監視担当領域決定部 214、撮影範囲決定部 215、カメラ制御部 216および監視担当領域比較評価部 217を有する。本図において、図 10と同じ構 成要素については同じ符号を用いて説明を省略する。
[0082] 監視担当領域比較評価部 217は、自力メラ端末の監視担当領域とその監視担当 領域に隣接する監視担当領域とを比較評価することにより、自力メラ端末の監視担当 領域がその監視担当領域に隣接する監視担当領域の大きさに近づくように、撮影領 域の位置を決定する処理部である。つまり、互いに隣接する周囲のカメラ端末の監視 担当領域と自身の監視担当領域との大きさを比較評価し、評価値が所定の目標値 に近づくようにカメラ 104A等の視線方向を変更する。具体的には、監視担当領域比 較評価部 217は、カメラの視線が監視対象領域と交わる点 (第 1基準点)から監視担 当領域の各境界線までの距離が等しくなるように第 1基準点を動かすことにより、撮 影領域の位置を決定する。
[0083] 次に、実施の形態 2における監視システムの動作手順について説明する。図 22は 、カメラ端末 111A〜Nの動作手順を示したフローチャートである。ここでは、カメラ端 末 111Aの動作手順を説明する。なお、本図において、ステップ 101からスッテプ 10 2までは図 13と同じ動作手順であるため、同じ符号を用いて説明を省略する。
[0084] 通信部 103Aは、協調監視メンバ選択部 211にお 、て協調監視メンバに選別され たカメラ端末と監視領域の位置と撮影範囲の特定に関する情報の通信を行う (ステツ プ 102a)。なお、ステップ 101、ステップ 102、ステップ 102aにおいて、協調監視メン バ選択部 211が既に協調監視メンバを選別している場合には、ステップ 101、ステツ プ 102を省略し、協調監視メンバとのみ通信を行うことにより、通信ネットワーク 112内 の不必要なトラフィックの増加を防いだり、各処理部でのデータ処理の量の削減を図 つたりする効果が得られる。また、監視システムを構成するカメラ端末 111A〜Nの台 数に比べて通信ネットワーク 112の通信容量が十分に大きい場合やカメラ端末内の 各処理部の性能が十分に高い場合等においては、協調監視メンバ選択部 211を含 まな 、構成や、処理 (ステップ 102)を省略した動作手順であってもよ!/、。
[0085] 図 22において、ステップ 103およびステップ 104は、図 13と同じ動作手順であるた め、同じ符号を用いて説明を省略する。
[0086] 次に、監視担当領域比較評価部 217は、互いに隣接する周囲のカメラ端末の監視 担当領域と自身の監視担当領域 150Aとの大きさを比較評価し (ステップ 105)、その 結果得られた評価値が所定の目標値を満足している力 (例えば、 2つの監視担当領 域の大きさの差が一定のしき 、値より小さ 、か)を判断する (ステップ 106)。その結果 、満足している場合には、同様の処理を繰り返し (ステップ 102aへ)、一方、満足して いない場合には、その評価値が所定の目標値に近づくようにカメラ 104Aの視線方 向を変更する (ステップ 107)。
[0087] ここで、ステップ 101からステップ 104までの動作手順によって監視対象領域 130 内の任意の方向を向けて設置された 6台のカメラ端末 111A〜Fに対して割り当てら れた監視担当領域 150A〜Fが調整される前後の様子の一例を図 23に示し、カメラ 端末 111Aに注目して、ステップ 107におけるカメラ端末 111Aの具体的な動作につ いて説明する。また、図 24にカメラ端末 111 Aの視線の先 (第 1基準点、つまり、撮影 画像の中心部に映し出される場所)から監視担当領域 150Aの境界線までの距離と 位置関係を示す。 [0088] 図 23、図 24において、図 19と同じ構成要素については、同じ記号を付与し説明を 省略する。カメラ 104Aの監視担当領域比較評価部 217は、各カメラ 104A〜Fの監 視担当領域 150の分担範囲が均一の大きさに近づくように、図 24に示したカメラ端 末 111Aの視線の先力も監視担当領域 150Aの各境界線までの距離が等しくなるよ うに視線方向を変更させる。
[0089] ここで、各カメラ 104A〜Fの視線の先から監視担当領域 150A〜Fの各境界線ま での距離を全て等しい値に近づけることは、互いに監視担当領域が隣接するカメラ の視線の先とその境界線までの距離もまた等しくなることから、全てのカメラ 104A〜 Fにおいて、視線の先力も監視担当領域 150A〜Fの各境界線まで距離を均一な値 に近づける効果を与える。
[0090] 各カメラ 104A〜Fの監視担当領域比較評価部 217は、以下に示される式 1に示さ れるカメラの視線の向き(θ 、 Θ )を変数とする評価関数 Fを用いて、視線の先か
Pan Tilt
ら監視担当領域 150の境界線、また監視対象領域 130の境界線までの距離に対し て評価値を求め、さらに求められた評価値が最小値に近づく方向にカメラの視線の 向きを制御する。
[0091] [数 1] - (式 1 )
Figure imgf000023_0001
[0092] 上記式 1の評価関数 Fにおいて、 Nは監視担当領域 150の境界線の数を示してい る。また Distは視線の先から監視担当領域 150の各境界線までの距離を表し、 Dist は Distの平均値を表している。すなわち、上記式 1の評価関数 Fは、カメラの視線 ave ij
の先力 監視担当領域境の各境界線までの距離の分散の値を表している。
[0093] ここで、図 23 (a)に示されるカメラ端末 111 Aの場合を例に評価値を求めると、図 2 4に示されるように、監視担当領域 150Aの各境界線までの各距離 Dist , Dist 、
AL1 AL2
Dist , Dist を、以下に示される式 2、式 3、式 4、式 5により求める。
AB AC
[0094] [数 2]
DistA - (式 2 )
Figure imgf000023_0002
[0095] [数 3]
Distf£ =^ (¾ ^xA + (yc -yA ― (式 3)
[0096] [数 4]
"WAu= ^¾— ( )2 ― (式4)
[0097] [数 5]
Distaj, = ^{ L2 -xA)~ + {yL2 - yA f - (式 5)
[0098] また Dist については、以下に示される式 6により求める。
ave
[0099] [数 6]
1 N
Dist^ ? Dist, - (式 6)
[0100] 次に評価関数 Fによって与えられる評価値が小さくなる方向にカメラの視線の向け るために、最急降下法を用いてカメラのパン角 Θ
Pan、チルト角 Θ
Tiltの値を変化させる
。具体的には姿勢制御部 205は、カメラ 104Aの回転角(パン角 Θ 、チルト角 Θ )に
P T
よって上記式 1に示される評価関数 Fを偏微分した関数を用いて、以下に示される式 7の更新式によってカメラ 104Aの回転角(パン角 Θ ルト角 Θ )を変更する。
Pan Tilt
[0101] [数 7]
. St ' dffPm
y n ,,。 ,)
dt ' δθΉ'ΙΙ
(ただし、 、 は係数)
[0102] なお、評価関数 Fは、上記式 7以外であってもよぐカメラ 104Aの視線方向( Θ 、
Pan
Θ )を変更可動な範囲においてカメラ 104Aの視線の先 (撮影画像の中心部に映
Tilt
し出される場所)から監視担当領域の境界線までの距離が全て等しい時に最小値を とる勾配系の関数であればよい。
[0103] 最後に、協調監視メンバ選択部 211は、協調監視メンバの変更の必要性を判断す る(ステップ 108)。変更が必要であればスッテプ 101に戻り、必要がなければステツ プ 102aに戻る。ここで協調監視メンバの変更の必要な場合の例としては、カメラ 104 Aの視線方向を調整することで撮影領域の位置が大きく変化した場合や、故障等に よって協調監視メンバの一部と通信が途絶えてしまった場合、新しく監視システムに 追加された新しいカメラ端末カゝら協調監視メンバの再選択要求があった場合等が挙 げられる。
[0104] また、ステップ 101からステップ 107を繰り返す過程において、上記式 7に従って各 カメラ端末 111A〜Fが視線方向(パン角 Θ 、チルト角 Θ )を調整することにより、図
P T
23 (a)の監視担当領域 150A〜Fは、図 23 (b)の状態へ変更される。
[0105] 以上のように、本実施の形態における構成と手順によれば、複数のカメラ端末は、 互いの監視担当領域の分担範囲が均一な大きさに近づくように、視線方向を変える ことで監視担当領域の位置と範囲を調整し、さらに監視担当領域全体が映るように撮 影領域の撮影範囲を変更することにより、監視対象領域全体が監視システムによりく まなく撮影されるように撮影領域の位置と撮影範囲が自動的に変更される。
[0106] 図 25に実施の形態 2における監視システムの動作例を示す。本図において、図 19 と同じ構成要素については同じ番号を記載し説明を省略する。
[0107] 図 25 (a)は、部屋の床面を監視対象領域 130として、室内の様子を撮影するため に 6台のカメラ端末 111A〜Fが室内の適当な位置に設置されて!、る様子を示して!/ヽ る。また 6台のカメラ端末 111A〜Fは監視対象領域 130をくまなく撮影するために十 分な台数であり、図 12 (b)に示されるようにカメラの画角が最大の時に、撮像部 202 の撮像面が監視対象領域 130に対して平行になる状態で撮影された撮影領域の面 積の 9分の 1の大きさを基準撮影面積とすると、 6台のカメラ端末 111 A〜Fの基準撮 影面積の総和は監視対象領域 130の面積より大きいものとする。また、各カメラ端末 111A〜Fの設置方向は、パンチルト制御によって監視対象領域 130内を撮影でき る向きにそれぞれ調整されているものとする。
[0108] カメラ端末 111A〜Fは、実施の形態 1のカメラ端末と同様の動作に加えて、監視担 当領域比較評価部 217によりカメラの視線の先から監視対象領域の各境界線までの 距離が均一の長さになるように視線方向を決定し、カメラ制御部 216、姿勢制御部 2 05によりカメラの撮影領域の位置と撮影範囲を調整することにより、図 25 (b)に示さ れるように、撮影領域の位置と範囲を変更することができる。
[0109] 以上のように、実施の形態 2では、監視に必要な台数のカメラ端末を監視対象領域 の撮影可能な適当な位置と向きに設置するだけで、各カメラ端末は撮影領域の位置 と撮影範囲を予め調整しておかなくても、監視対象領域の形状に合わせて、全体が くまなく撮影されるように撮影領域の位置と撮影範囲を決定することができるため、複 数のカメラ端末の設置作業等において撮影領域の位置と撮影範囲の調整にかかる 手間が軽減される。
[0110] また、実施の形態 2の監視システムでは、実施の形態 1と同様に、故障や保守点検 等により複数台のカメラ端末のうち任意のカメラ端末の撮影領域が消失してしまった 場合や、パンチルト等の制御によって撮影領域が移動した場合においても、残りの力 メラ端末が監視担当領域を再度決定し、各自の撮影領域の範囲を変更するので、常 に監視対象領域の全体撮影を維持し続けることができる。
[0111] (実施の形態 3)
次に、本発明の実施の形態 3における監視システムについて説明する。
[0112] 本発明における実施の形態 1および 2では、複数のカメラ端末が互いの撮影領域の 位置関係から各自が監視を担当する監視担当領域を決定し、さらに自身の撮影領 域が監視担当領域を内包するようにズーム制御などにより画角を調整することにより 、監視対象領域全体の撮影を自動的に行った。
[0113] 本発明のおける実施の形態 3では、さらに各カメラ端末の撮影領域の位置関係を 変更することにより、各カメラ端末の監視担当領域の形状を撮影領域の形状に近づく ように調整し、これにより、撮影領域が同監視担当領域を内包する効率を高め、結果 、他のカメラ端末の監視担当領域や、監視対象領域以外の領域など、不必要な領域 の撮影が少な 、監視システムを実現して 、る。
[0114] まず、撮影領域の形状と監視担当領域の形状を近づけることにより、撮影効率が高 められることについて、説明する。
[0115] 実施の形態 1および 2においては、各カメラ端末は、それぞれ、自身の監視担当領 域全体を覆うように、各撮影領域の大きさ (あるいは、大きさと位置)を調整することで 監視対象領域 130全体の監視を実現していた。このため、監視担当領域と撮影領域 の形状が異なる場合において、監視担当領域を覆うように撮影領域を調整すると、撮 影領域が監視担当領域以外の領域を撮影してしまうことがある。この監視担当領域 以外の領域は、他のカメラ端末が撮影を担当する領域、または、監視対象領域以外 の領域である。
[0116] 具体的には、図 26 (a)に示されるカメラ端末 110Aの監視担当領域 150Aおよび撮 影領域 140Aの例のように、監視担当領域 150A以外の領域を撮影することは、他力 メラ端末の撮影領域までも重複して撮影する、または、監視対象領域 130以外の不 必要な領域までも撮影することになり、撮影効率が悪い。
[0117] 一方、図 26 (b)の例に示すように、監視担当領域 150Aの形状が撮影領域 140A の形状に近い場合には、撮影領域 140Aにおいて監視担当領域 150A以外の領域 が占める割合が小さくなるため、結果、上記重複した撮影領域、または不必要な撮影 領域を少なくすることとなり、撮影効率を良くすることができる。
[0118] そこで、本実施の形態では、監視システムを構成する各カメラ端末は、撮影領域の 形状と監視担当領域の形状を近づける制御をする。以下、その方法について説明す る。
[0119] 監視担当領域の形状は、実施の形態 1で説明したように、カメラ端末の視線方向に よって決定される。このためカメラ端末の視線方向を変更することで、監視担当領域 の形状を撮影領域の形状に近づくように変更することができる。このため、まず、カメ ラ端末の視線方向を決定するパラメータを独立変数として、撮影領域の形状と監視 担当領域の形状の違 、を評価する微分可能な勾配形の評価関数 Gを設ける。次に 、撮影領域の形状と監視担当領域の形状が一致する時に、評価関数 Gにより与えら れる評価値を目標値とする。さらに、評価関数 Gの評価値が目標値に近づくように力 メラ端末の視線方向決定するパラメータを調整することで、カメラ端末の視線方向を 変更し、結果、監視担当領域の形状を変更する。
[0120] なお、評価関数 Gの評価値を目標値に近づくようにカメラ端末の視線方向を調整す る方法としては、撮影領域の形状と監視担当領域の形状が一致する時に、最小値( 極小値)となる関数として評価関数 Gを設計しておき、さらに最急降下法等を用いて、 同関数に対し評価値が最小値 (極小値)に近づくようにカメラ端末の視線方向を決定 するパラメータを更新していくことにより、カメラ端末の視線方向の調整を行う。
[0121] 以上説明したように、撮影領域の形状と監視担当領域の形状の違いを評価する評 価関数 Gを設け、さらに際急降下法を用いることで撮影領域の形状と監視担当領域 の形状がに近づくように、監視担当領域の視線方向を変更することができる。
[0122] 次に、撮影領域の形状と監視担当領域の形状の違いを評価する評価関数 Gの設 計について説明する。評価関数 Gは、撮影領域の形状と監視担当領域の形状の違 いを評価するために、カメラ端末の視線の先が監視対象領域と交わる点を基準点と して、基準点を通る任意の複数の方向に対して、基準点から撮影領域の境界線まで の距離と基準点力 監視担当領域の境界線までの距離の比率を求め、その分散を 求める関数とする。このため、評価関数 Gは撮影領域の形状と監視担当領域の形状 がー致する時には、基準点力 各撮影領域の境界線までの距離と基準点力 監視 担当領域の境界線までの距離との比率が全ての方向に対して等しくなるため、その 分散は 0となり、結果、最小値 (極小値)を与える関数となる。また、評価関数 Gは、力 メラの視線方向を決定するパラメータであるパン角 Θ
Pan、チルト角 Θ
Tiltを独立変数と する微分可能な関数とする。
[0123] ここで、図 27 (a)、図 27 (b)、図 28 (a)、図 28 (b)に示されるカメラ端末 114Aの監 視担当領域 150Aと撮影領域 140Aの例を用いて、具体的な評価関数 Gの一例につ いて説明する。
[0124] 図 27 (a)は、撮影領域 140Aが監視担当領域 150Aを内包している場合の一例を 示す図である。また、図 27 (b)は、撮影領域 140Aが監視担当領域 150Aを内包す る途中にある場合や、カメラ 106の画角を最大に広げても監視担当領域 150Aを内 包しきれな!/、場合の一例を示す図である。
[0125] 図 27 (a)および図 27 (b)のいずれの場合においても、撮影領域 140Aと監視担当 領域 150Aの形状の違いを比較するために、図 28 (a)、図 28 (b)に示すようにカメラ 端末 114Aの視線と監視対象領域 130が交わる点を基準点 0、また、点 Oから監視 担当領域 150Aの各境界線に引いた垂線との交点を点 P;、さらに点 Oから点 Pに向 けて伸ばした半直線と撮影領域 140Aの境界線が交わる点 Qして、線分 OPと線分 θς^の長さの比率の分散を求める以下に示される式 8として評価関数 Gを設計する [0126] [数 8]
G(fta„,0rm) =丄 ?。 - (式 8 )
[0127] 上記式 8において、 Nは、監視担当領域 150Aと隣接する他のカメラ端末の監視担 当領域の数、または、監視対象領域 130の境界線の数の総数である。また、 Rおよ び R は、それぞれ、以下に示される式 9、式 10で定義される値である。
ave
[0128] [数 9]
Ri = pQl ― (式 9 )
[0129] [数 10] R - (式 1 0 )
N
[0130] 上記式 9において I OQ. Iは、 Oから Q.までの距離である。また、 I OP. |は Oから Pまでの距離である。
[0131] 以上説明したように、上記式 8で表わされる関数を定義することで、撮影領域 140A と監視担当領域 150Aの形状が一致する場合には、基準点から各 Qと Rとの比率全 ての Rが等しくなるため、評価値は 0 (最小値)となり、一方、撮影領域 140Aと監視担 当領域 150Aの形状が異なる場合には、基準点から各 Qと Rとの比率 Rの値にバラ つきが生じるため、評価値が大きくなる評価関数 Gを得ることができる。
[0132] 次に、上記式 8の評価関数 Gにより与えられる評価値が小さくなるように、視線方向 を決定するパラメータであるパン角 Θ 、チルト角 Θ の調整について説明する。評
Pan Tilt
価関数 Gは、パン角 Θ 、チルト角 Θ を独立変数とする関数であり、撮影領域 140
Pan Tilt
Aと監視担当領域 150Aの形状が一致する時に最小値をとる微分可能な関数である ため、最急降下法を用いることにより、評価関数 Gの評価値が最小値に近づくように、 カメラ端末のパン角 Θ 、チルト角 Θ の値を調整することが可能である。このため、
Pan Tilt
上記式 8をそれぞれパン角 Θ 、チルト角 Θ で偏微分した項を含む以下に示され
Pan Tilt
る式 11を求める。 [0133] [数 11] (式 i i )
Figure imgf000030_0001
[0134] 上記式 11において、 γ は、係数である。上記式 11は、評価関数 Gの評価値を 小さくするようにカメラ端末のパン角 Θ
Pan、チルト角 Θ
Tiltの値を更新していく微分方程 式である。上記式 11に従ってパン角 Θ
Pan、チルト角 Θ
Tiltを更新していくことにより、各 カメラ端末の撮影領域 140Aの形状と監視担当領域 150Aの形状が近づき、これに より、撮影領域 140Aにおいて監視担当領域 150A以外の領域が占める割合が小さ くなるため、結果、他のカメラ端末の監視担当領域、または監視対象領域 130以外の 不必要な領域の撮影を少な 、撮影を自動的に行うことができる。
[0135] なお、上記説明では、撮影領域 140Aの形状と監視担当領域 150Aの形状の違い を評価するために点 O力も監視担当領域 150Aの各境界線に引いた垂線と各境界 線が交わる点を点 P、さらに、点 Oから点 に向けて伸ばした半直線と撮影領域 140 Aの境界線が交わる点を点 Qとして評価関数 Gを設計した力 これ以外にも、例えば 、点 O力も撮影領域 140Aの各境界線に引いた垂線と各境界線が交わる点を点 Q、 さらに、点 Oから点 Qに向けて伸ばした半直線と監視担当領域 150Aの境界線が交 わる点を点 Pとするなど、撮影領域 140Aの形状と監視担当領域 150Aの形状の違 Vヽを評価することのできる位置に点 P、点 Qを設けた評価関数 Gを用いても良 、。
[0136] また、評価関数 Gは上記式 8以外であってもよぐカメラ端末の視線方向 ( θ 、 Θ
Pan Til
)が変更可動な範囲において撮影領域 140Aと監視担当領域 150Aの形状が一致 t
する、または、形状が最も近い時に最小値をとる勾配系の関数であればよい。
[0137] さらに、上記説明では、撮影領域 140Aの形状と監視担当領域 150Aの形状の違 いを評価するために、点 Oから点 Pまでの距離と、点 O力も点 までの距離との比率 Rの分散を評価の指標としたが、撮影領域 140Aと監視担当領域 150Aの論理和領 域において撮影領域 140Aと監視担当領域 150Aの重複領域が占める面積の割合 を評価の指標とする評価関数 Gを用いてもょ 、。
[0138] 次に、以上のような監視担当領域の形状を撮影領域の形状に近づくように調整す る機能を備えるカメラ端末力もなる本発明の実施の形態 3における監視システムの構 成について説明する。
[0139] 図 29は、本発明の実施の形態 3における監視システムの構成を示すブロック図で ある。実施の形態 3の監視システムは、複数のカメラ端末が協調して動作することによ つて監視対象領域を撮影するシステムであり、通信ネットワーク 112と、監視対象領 域 130全体を撮影するために十分な台数のズーム制御およびパン、チルト操作等に より画角と視線方向の調整が可能な同一機能の複数のカメラ端末 114A〜N力 構 成されている。
[0140] 各カメラ端末 114A〜Nは、他のカメラ端末と通信し合うことで、自力メラ端末の監視 担当領域を内包する撮影領域を決定し、決定した撮影領域を撮影する装置であり、 それぞれ、カメラ 106A〜N、調整部 107A〜Nおよび通信部 103A〜Nを備える。
[0141] 本実施の形態 3における監視システムの構成は、図 8に示す本実施の形態 1におけ る監視システムの構成に対し、視線方向が固定されて 、るカメラ 101 A〜Nに代えて 、パン'チルト'ズームカメラ等のように画角と視線方向の調整可能なカメラ 106 A〜N に変更されている点、および、監視担当領域 150A〜Nを決定し、これを覆うように力 メラ 101A〜Nの撮影領域 140A〜Nを調整する調整部 102A〜Nに代えて、さらに 撮影領域 140A〜Nにおいて監視担当領域 150A〜N以外の領域の割合を小さくな るようにカメラ 106A〜Nの視線方向を調整する調整部 107A〜Nに変更されている 点が異なる。
[0142] つまり、カメラ 106A〜Nは、それぞれ、画角だけでなぐ視線方向を制御する機能( パンチルト制御およびズーム制御)を有するカメラである。そして、調整部 107A〜N は、それぞれ、実施の形態 1における調整部 102A〜Nの機能に加えて、撮影領域 の形状と監視担当領域の形状が近づくように、カメラの視線の方向を調整する機能を 有する。具体的には、調整部 107A〜Nは、撮影領域の形状と監視担当領域の形状 との違いを評価する評価関数において、撮影領域の形状と監視担当領域の形状と がー致する時の評価値を目標値とした場合に、評価関数の評価値が目標値に近づ くように、カメラの視線方向を決定する。ここで、評価関数としては、例えば、カメラの 視線が前記監視対象領域と交わる点を基準点とした場合に、基準点を通る複数の方 向について、基準点から監視担当領域の境界線まで距離と基準点から撮影領域の 境界線までの距離との比率の分散を示す関数であり、その目標値としては、ゼロであ る。
[0143] 以下、図 29において図 8に示した実施の形態 1における監視システムと同じ構成要 素については同じ符号を用いて、同構成要素の説明を省略する。
[0144] 次に、実施の形態 1から変更されたカメラ 106A〜Nの構成について説明する。図 3 0は、本実施の形態 3における各カメラ 106A〜Nの構成を示すブロック図である。各 カメラ 106A〜Nは、パンチルト制御およびズーム制御が可能な CCDカメラ等であり 、レンズ 201、撮像部 202、画像処理部 203、焦点制御部 204および視線方向制御 部 207を有する。本実施の形態 3における各カメラ 106A〜Nの構成は、図 9に示す 本実施の形態 1におけるカメラ 101 A〜Nの構成に対し、カメラの視線を調整する視 線方向制御部 207が追加された点が異なる。図 30において図 9に示した本実施の 形態 1におけるカメラ 101と同じ構成要素については同じ符号を用いて、同構成要素 の説明を省略する。
[0145] 視線方向制御部 207は、カメラの視線方向をパン、チルト操作するためにレンズ 20 1や撮像部 202の向きを調整するステッピングモータなどの機構である。
[0146] なお、実施の形態 1では、焦点制御部 204は、レンズ 201と撮像部 202の間隔であ る焦点距離をステッピングモータ等で制御することにより撮影領域の範囲を調整する 機構とした力 例えば、レンズ 201が複数枚あり、各レンズ 201の間隔をステッピング モータ等で制御することにより撮影領域の範囲を調整する機構など、焦点制御部 20 4は一般的に知られるカメラの撮影領域の範囲を調整可能な機構であれば良い。
[0147] 次に、実施の形態 1から変更された調整部 107A〜Nの構成について説明する。図 31は、本実施の形態 3における各調整部 107A〜Nの構成を示すブロック図である。 各調整部 107A〜Nは、協調監視メンバ選択部 211、協調監視メンバ記憶部 212、 監視対象領域マップ記憶部 213、監視担当領域決定部 214、撮影範囲決定部 215 、カメラ制御部 216、領域形状比較評価部 220および視線方向調整部 222を有する 。本実施の形態 3における各調整部 107A〜Nの構成は、図 10に示す本実施の形 態 1における調整部 102A〜Nの構成に対し、領域形状比較評価部 220および視線 方向調整部 222が追加された点が異なる。図 31において、図 10に示した実施の形 態 1における調整部 102A〜Nと同じ構成要素については同じ符号を用いて、同構 成要素の説明を省略する。
[0148] 領域形状比較評価部 220は、撮影領域と監視担当領域の形状の違!ヽを評価する ために、上記式 8の評価関数 Gを用いることで撮影領域において監視担当領域以外 の領域が占める割合を評価する値を算出する処理部である。
[0149] 視線方向調整部 222は、領域形状比較評価部 220において評価関数 Gより求めら れた評価値を減少させるために、上記式 11の方程式に従って、カメラ 104A等の視 線方向(パン角 Θ 、チルト角 Θ )を調整する制御内容を決定する処理部である。
Pan Tilt
[0150] 以上の構成によれば、本実施の形態 3における監視システムは、実施の形態 1にお ける監視システムに対し、カメラ 106A〜Nの視線も調整可能とし、この視線の調整に 関する制御を行う視線方向制御部 207および領域形状比較評価部 220および視線 方向調整部 222が追加された点が異なる。このため、追加された構成要素により、一 度視線が決定されれば、つまり、視線が固定となれば、その他の構成要素の点では 実施の形態 1と同じ構成要素をもつ本実施の形態の監視システムは、実施の形態 1 の監視システムと同様に、監視対象領域 130をくまなく撮影することができることは自 明である。
[0151] 次に、本発明の実施の形態 3における監視システムの動作について説明する。な お、実施の形態 1における監視システムと同じ構成要素の動作については説明を省 略する。
[0152] まず、実施の形態 3におけるカメラ端末 114A〜Nの一連の動作手順について説明 する。図 32は、カメラ端末 114A〜Nの動作手順を示したフローチャートである。ここ では、カメラ端末 114Aの動作手順を説明する。
[0153] ステップ 101とスッテプ 102については、図 13に示す実施の形態 1のフローチヤ一 トにおけるステップ 101、ステップ 102と同じ動作手順であるため説明を省略する。
[0154] 通信部 103Aは、協調監視メンバ選択部 211において協調監視メンバに選別され たカメラ端末 114B等と監視領域の位置と撮影範囲の特定に関する情報の通信を行 う(ステップ 102a)。次に、ステップ 103とステップ 104は、図 13に示す実施の形態 1 のフローチャートにおけるステップ 103、ステップ 104と同じ動作手順であるため説明 を省略する。
[0155] 続ヽて、領域形状比較評価部 220は、自身の撮影領域 140Aにお ヽて監視担当 領域 150Aとそれ以外の領域の割合を評価する (ステップ 109)。次に、視線方向調 整部 222は、その結果得られた評価値が所定の目標値以下になっているかを判断 する(ステップ 110)。
[0156] そして、 目標値以下となっている場合には、同様の処理を繰り返す (ステップ 102a へ戻る)、一方、 目標値以下となっていない場合には、その評価値が所定の目標値 に近づくようにカメラ 106の視線方向を変更する (ステップ 112)。次に、協調監視メン バ選択部 211は、協調監視メンバの変更の必要性を判断する (ステップ 108)。
[0157] そして、変更が必要であればスッテプ 101に戻り、必要がなければステップ 102aに 戻る。ここで、協調監視メンバの変更の必要な場合の例としては、カメラの視線方向 を調整することで撮影領域の位置が大きく変化した場合や、故障等によって協調監 視メンバの一部と通信が途絶えてしまった場合、新しく監視システムに追加された新 しいカメラ端末力も協調監視メンバの再選択要求があった場合等が挙げられる。
[0158] 以上説明したように、図 32のフローチャートのステップ 101からステップ 112 (特に ステップ 109およびステップ 112)に従って各カメラ端末が視線方向(パン角 Θ 、チ
P
ルト角 Θ )を調整することにより、各カメラ端末の撮影領域において監視担当領域以
T
外の領域を撮影する割合が小さくなるように動作する。
[0159] なお、ステップ 101、ステップ 102、ステップ 102aにおいて、協調監視メンバ選択部 211が既に協調監視メンバを選別している場合には、ステップ 101、ステップ 102を 省略し、協調監視メンバとのみ通信を行うことにより、通信ネットワーク 112内の不必 要なトラフィックの増加を防いだり、各処理部でのデータ処理の量の削減を図ったり する効果が得られる。これは、ステップ 110からステップ 102aへ、ステップ 108からス テツプ 102aへの移行する流れによって実現される。
[0160] また、監視システムを構成するカメラ端末の台数に比べて通信ネットワーク 112の通 信容量が十分に大き 、場合やカメラ端末内の各処理部の性能が十分に高 、場合等 においては、協調監視メンバ選択部 211を含まない構成や、処理 (ステップ 102)を 省略した動作手順であってもよ!/、。
[0161] 次に、実施の形態 3における監視システム全体の動作について説明する。図 33 (a ) ,図 33 (b)に実施の形態 3における監視システム全体の動作例を示す。図 33にお V、て、図 26の監視システムと同じ構成要素につ ヽては同じ符号を用いる。
[0162] 図 33 (a)は、部屋の床面を監視対象領域 130として、室内の様子を撮影するため に 5台のカメラ端末 114A、 C、 D、 E、 Fが室内の適当な位置に設置されている様子 を示している。また 5台のカメラ端末 114A〜Fは、監視対象領域 130をくまなく撮影 するために十分な台数であり、図 12 (b)に示されるようにカメラの画角が最大の時に 、撮像部 202の撮像面が監視対象領域 130に対して平行になる状態で撮影された 撮影領域の面積の 9分の 1の大きさを基準撮影面積とすると、 5台のカメラ端末 114A 〜Fの基準撮影面積の総和は監視対象領域 130の面積より大きいものとする。また、 各カメラ端末 114A〜Fの設置方向は、パンチルト制御によって監視対象領域 130 内を撮影できる向きにそれぞれ調整されているものとする。
[0163] 図 33 (a)に示す例では、カメラ端末 114Aおよび 114Cの撮影領域 140Aおよび 1 40Cは、それぞれ、監視担当領域 150Aおよび 150Cを内包するために撮影範囲( 画角)を広げたことにより、他のカメラ端末 114の監視担当領域や監視対象領域 130 以外の領域までも撮影しており、撮影効率が悪い。
[0164] しかし、実施の形態 3における監視システムは、実施の形態 1の監視システムと同様 の動作に加えて、領域形状比較評価部 220と視線方向調整部 222により、各撮影領 域と各監視担当領域の形状が近づくようにカメラの視線方向を調整することにより、 つまり、図 33 (b)に示す例のように、カメラ端末 114Aおよび 114Cの撮影領域 140A および 140Cが、各カメラ端末の視線方向を変更することで、それぞれ、監視担当領 域 150Aおよび 150Cの形状を調整することにより、自身の監視担当領域以外を撮 影する割合が小さくなり、他のカメラ端末の監視担当領域や監視対象領域 130以外 などの不必要な領域を撮影することが少ない、効率の良い撮影をすることができる。
[0165] 以上説明したように、実施の形態 3における監視システムは、例えば、屋内ホール やビル、街頭やスタジアム等、 1台のカメラ端末では全体を撮影しきれない広い領域 を複数のカメラ端末でくまなく同時に監視し続ける場合にぉ ヽて、監視対象領域全 体が撮影されるように予め正確に各カメラ端末の監視担当領域を決定しなくても、各 カメラ端末が監視担当領域を撮影できる位置と向きに設置するだけで、他のカメラ端 末の監視担当領域や監視対象領域以外の領域などの不必要な領域までも撮影する ことにより撮影効率の低下をまねくことなぐ監視対象領域全体がくまなく撮影される ように複数のカメラ端末の視線方向と画角の大きさを自動的に調整することができる。 このため、複数のカメラ端末の設置作業等において、それぞれの撮影領域の調整に 力かる手間を軽減することができる。
[0166] なお、実施の形態 3にお 、ては、できるだけ他のカメラ端末の監視担当領域や監視 対象領域以外の領域などの不必要な領域を撮影することが少ない、撮影効率の良 い監視対象領域全体の監視を行うためにパン、チルト、ズームの調整を行ったが、パ ン、チルト、ズームの調整以外にも、ロール (カメラ端末の光軸に対する回転)の調整 が可能なカメラ端末を用いる場合には、カメラ端末を光軸を中心に回転させることで、 例えば、図 34 (a)に示す状態から、図 34 (b)に示す状態へと撮影領域 140を調整す ることで、撮影効率を良くすることができる。
[0167] ロールの制御方法については、パン、チルト操作の場合と同様に、上記式 8の評価 関数 Gに対して最急降下法を用いることにより、カメラ端末のロール角 Θ をより撮影
Roll
効率の良い状態に近づける方法をとることができる。具体的には、上記式 8の評価関 数 Gをロール角 Θ で偏微分した項を含む以下に示される式 12に従って、ロール角
RoU
Θ を調整することで、他のカメラ端末 114の監視担当領域 150や、監視対象領域 1
RoU
30以外の不必要な領域の撮影が少な 、状態になるように近づけることができる。
[0168] [数 12] σθκοΐΐ — η
- (式 1 2 )
Figure imgf000036_0001
[0169] 上記式 12において、評価関数 Gは、パン角 Θ 、チルト角 Θ 、ロール角 Θ を独
Pan Tilt RoU 立変数とする関数である。また ε は係数である。
[0170] また、実施の形態 1および実施の形態 3において、監視担当領域決定部 214は、図 15に示すように、近隣の領域を撮影する他のカメラ端末の視線の先と、カメラ端末自 身の視線の先を結ぶ線分に対して垂直二等分線を引き、自身の視線の先を取り囲 む垂直二等分線または監視対象領域 130の境界線よつて監視担当領域 150を決定 した。
[0171] これに対し、例えば、図 35 (a)の斜線で示す監視担当領域 150A内において、他 のカメラ端末の撮影領域により撮影される領域が存在する場合には、図 35 (b)の斜 線で示す領域 151のように、監視担当領域力 他のカメラ端末により既に撮影されて いる領域を取り除いた領域を監視担当領域としてもよい。このように、監視担当領域 1 50から他のカメラ端末により撮影されている領域を取り除いた領域 151を監視担当 領域とした場合には、自身の監視担当領域を自カメラ端末と他のカメラ端末によって くまなく撮影しながらも、既に他のカメラ端末によって撮影されていることで撮影の必 要がない領域を、さらに自力メラ端末により重複して撮影することを防ぐことができると いった効果が得られる。
[0172] (補足説明 1)
次に、本実施の形態における補足説明 1として、実施の形態 1および 2で記したカメ ラ端末 110A〜Nおよびカメラ端末 111A〜Nの撮影領域の算出方法にっ 、て説明 する。
[0173] 図 36は、カメラ端末 110A〜Nおよびカメラ端末 111A〜Nの撮影領域の算出方法 を説明する図である。図 36において、レンズ 2101は、図 9、および図 20に示される レンズ 201、撮像面 2102は、図 9、および図 20に示される撮像部 202の撮像面、力 メラ 2103は、図 9および図 20に示されるカメラ端末に対応している。 X軸 2104およ c
ひ Ύ軸 2105および Z軸 2106は、お互いに直交し、レンズ 201を原点としたカメラ c c
座標軸系を構成する。カメラ 2103は、各軸回りに、パン (Y軸 2105回り回転)、チル
C
ト(X軸 2104回り回転)、ロール(Z軸 2106回り回転)回転する。それぞれの回転角 c c
度を Θ 、 Θ 、 Θ と示す。撮像面 2102はレンズ 2101より Ζ軸 2106方向に f離れ
PC TC RC C
た距離に存在し、 2WX 2Hの大きさをもつ。 X軸 2107および Y軸 2108および Z w w w 軸 2109は、お互い直行し、世界 (ワールド)座標軸系を構成する。カメラ 2103は、世 界座標軸系において、(X , Y , Z )で示される位置に存在し、同位置を基点とし
TW TW TW
て(ΔΧ , ΔΥ , Δ Ζ )だけ移動する。
TW TW TW
[0174] X軸 2104および Y軸 2105および Z軸 2106で構成されるカメラ座標軸系上のあ
C C C る点(X , Y , Z )は、以下に示される式 13により、 X軸 2107および Y軸 2108およ
C C C W W
び Z軸 2109で構成される世界座標軸上の点 (X , Υ , Z )に変換できる。
[0175] [数 13] 10 „ ,: (式 1 3 )
Figure imgf000038_0003
Mつ,, Mつ, ΜΎ
Figure imgf000038_0002
[0176] 上記式 13において、 M 力も M を要素とする 3 X 3行列値は、カメラ 2103の姿勢
00 22
基準点(カメラ 2103の姿勢の回転角度(Θ , Θ , Θ ) = (0, 0, 0) )の行列値、 R
PC TC RC
から R を要素とする 3 X 3行列値は、カメラ 2103の姿勢基準点力もの姿勢変位を
00 22
あらわす行列値、(X , Υ , Z )はカメラ 2103の位置基準点(カメラ 2103の位置
TW TW TW
の変位(ΔΧ , ΔΥ , Δ Ζ ) = (0, 0, 0) )の位置、(ΔΧ , ΔΥ , Δ Ζ )は力
TW TW TW TW TW TW
メラ 2103の位置基準点からの位置変位をあらわす。
[0177] M 力も M を要素とする 3 X 3行列値や (X , Υ , Z )は、カメラ 2103を姿勢基
00 22 TW TW TW
準点および位置基準点に合わせる、または、現在のカメラ 2103の姿勢および位置を それぞれ姿勢基準点および位置基準点とし、以下の文献 1に示されるキヤリブレーシ ヨン方法などを用いることにより算出可能であり、本発明の検出領域調整装置の動作 開始前に事前に算出しておく。
非特許文献 1 :R. Tsai. A Versatile Camera Calibration Technique for High— Ac curacy 3D Machine Vision Metrology Using Off— the— S helf TV Cameras and Lenses. IEEE journal of Robotics and Auto mation, Vol. RA— 3, No. 4, pp. 323— 344, 1987 R00力ら R22を要 素とする 3 X 3行列値は、以下に示される式 14のように、カメラ 2103の姿勢である回 転角度(Θ PC, 0TC, 0RC)より算出可能である。
[0178] [数 14]
0 An Θ pc
1 0
Figure imgf000038_0001
0 o 0 0 c(
(式 1 4 ) なお、回転角度(Θ , Θ , Θ )は、本発明の実施の形態 1および 2においては、 それぞれ図 9に示される焦点制御部 204、図 20に示される姿勢制御部 205が読み 取る。
[0180] カメラ 2ヽ y103の位置基準点からの位置変位である(ΔΧ , ΔΥ , Δ Ζ )は、同力
TW TW TW
メラ 2103の位置をステッピングモータなどで変化させる仕組みであれば、同ステツピ ングモータより、その変位を読み取れる。
[0181] 撮像面 2102上の各点 1 (X , Y , f)は、以下に示される式 15、式 16、式 17により
PC PC
Z =Zである実空間面 2110上の(X , Υ , Z )に投影される。
W C PW PW PW
[0182] [数 15]
(式 1 5 )
Figure imgf000039_0001
[0183] [数 16]
(式 1 6 )
Figure imgf000039_0002
[0184] [数 17]
Μ0
My (式 1 7 )
Μ,· Μ. ノ V
[0185] このため、撮像面 4隅の各点(—W, -H, f)、 (W, -H, f ) (— W, H, f ) (W, H, f)は、以下に示される式 18、式 19、式 20、式 21により、 Z =Zである実空間面
W C
2110上に投影される。
[0186] [数 18] (式 18)
Figure imgf000040_0001
[0187] [数 19]
V-Ό C) 。
z
一 Zcノ。】
(式 19 )
Z
Figure imgf000040_0005
[0188] [数 20]
- (式 20
Figure imgf000040_0002
[0189] [数 21]
(式 2 υ
Figure imgf000040_0003
[0190] なお、上記式 18の(X 、Υ 、Ζ )、式 19の(X 、Υ 、Ζ )、式 20の(X 、Υ 、Ζ
DO DO DO Dl Dl Dl D2 D2
)、式 21の(X 、Y 、Z )は、それぞれ、以下に示される式 22、式 23、式 24、式 2
D2 D3 D3 D3
5により求められる。
[0191] [数 22]
(式 22)
Figure imgf000040_0004
Figure imgf000040_0006
[0192] [数 23] (式 2 3 )
[0193]
(式 2 4 )
Figure imgf000041_0002
[0194]
(式 2 5 )
Figure imgf000041_0001
[0195] この Z =Zである実空間面 2110上に投影された撮像面 4隅の各点から構成され
W C
る面がカメラ 2103の撮影領域である。
[0196] 以上に説明した算出方法により、カメラの設置位置と設置方向、さらにカメラの回転 角力 撮影領域の位置を求めることができる。
[0197] (補足説明 2)
次に、捕捉説明 2として、実施の形態 1および形態 2で記したカメラ端末 110A〜N
、 111A〜Nにおいて、監視担当領域全体が映る状態で撮影領域の面積が最も小さ くなる時の焦点距離 (以下、目標焦点距離 f )
targetの算出方法について、図 37、図 38 用いて説明する。なお、図 37、図 38において、補足説明 1で用いた図 36と同じ構成 要素については同じ記号を付与し説明を省略する。
[0198] 図 37 (a)は、任意の位置に取り付けられたカメラによって撮影されている実空間面
2110上における撮影領域 2111と監視担当領域 2112の位置を示して 、る。また図
37 (b)は、撮像面 2102の中心を原点とする撮像面 2102に平行な平面上に、撮影 領域 2111と監視担当領域 2112を投影した時の図である。
[0199] なお、実空間面 2110上における任意の点 P (X , Υ , Z )を撮像面 2102と平
W PW PW PW
行な平面上に投影した時の位置座標 PC (X , γ , ζ )は、カメラ端末の焦点座標
PC PC PC
を (P、 P、 P )、撮像面 2102の中心座標を (Q、 Q、 Q )として、補足説明 1で説明 した姿勢基準を決める行列 Mと、回転角を決める上記式 14における Rを用いること より、以下に示される式 26、式 27、式 28、式 29によって算出される。
[0200] [数 26]
(Px-Xnv){(Py -Qyf + (Pz -Qzf
(式 26)
(Px-Qx)(XFW -Px)+(Py-Qy)(YPW -Py) + (Pz-Qz)(Zm -Pz)
[0201] [数 27]
{Py-Yllw){{Px-Qxf +{Pz-
Ny = (式 27)
( - Qx){XPW Px) + {Py Qy){YPW Py) + {Pz - Qz){ZPIV― Pz)
[0202] [数 28]
Nz (式 28)
Figure imgf000042_0001
[0203] [数 29]
(Nx
Ny (式 29)
Figure imgf000042_0003
Nz
Figure imgf000042_0002
[0204] 図 37(b)において、監視担当領域 2112の頂点の中で x軸と最も離れている頂点と X軸の距離を W y軸と最も離れている頂点と y軸の距離を H とすると、図 38に示 max max
されるようにカメラ端末の撮像面の幅(2 * W 2 * H)に対して W H の値が以下 max max に示される式 30の条件を満たす時、監視担当領域 2112全体が撮影領域 2111に内 接する状態となる。
[0205] [数 30]
{ = and(H≤H または {( ≤Uand(H = H } ― (式 30)
[0206] W H の値は図 38に示されるように焦点距離によって決定される値であり、 目 max max
標焦点距離 f の値はカメラ端末の焦点距離の値を fとすると以下に示される式 31
target
によって算出される。
[0207] [数 31]
W H
ん ax(-=- f, ■ -/) (式 31)
W H [0208] 但し、上記式 31における関数 max (a、 b)は、引数 a、 bのうち値の大きい方を返す 関数である。
[0209] カメラ 2103の焦点距離 fの値を、算出された焦点距離 f にあわせることより、撮影
target
領域 2111は監視担当領域 150全体を写しつつ面積が最も小さい状態に変更される
[0210] 以上にようにして、実施の形態 1および 2において、監視担当領域全体が映る状態 で撮影領域の面積が最も小さくなる時の焦点距離(目標焦点距離 f
target )が算出される
[0211] 以上、本発明に係るカメラ端末および監視システムについて、実施の形態 1〜3に 基づいて説明した力 本発明は、これらの実施の形態に限定されるものではない。た とえば、各実施の形態における構成要素を任意に組み合わせて実現される形態や、 各実施の形態に対して当業者が変形を施すことによって得られる形態も本発明に含 まれる。
[0212] また、実施の形態 1〜3において、各カメラ端末の撮影領域の位置と撮影範囲を決 定する調整部は、各カメラ端末内に具備されていた力 図 39および図 40に示される ように、監視システムを構成する全部または一部のカメラ端末が共通の調整部として 、カメラ端末の外部あるいは内部に集中して設けた構成であってもよい。
[0213] 図 39は、複数のカメラ端末を集中して制御する独立した集中調整部 113を備える 監視システムの構成図である。この集中調整部 113は、調整部 1021と通信部 1031 を備える。調整部 1021は、図 40〖こ示されるよう〖こ、図 10に示される実施の形態 1に おける調整部 102Aと同様の構成要素 212〜215と、図 21に示される実施の形態 2 における調整部 105Aの監視担当領域比較評価部 217から構成される。通信部 103 1は、実施の形態 1における通信部 103Aと同一機能を有する。
[0214] つまり、実施の形態 1および 2の監視システムにおいて個々のカメラ端末に内蔵さ れていた調整部をカメラ端末の外に設ける構成として実施の形態 1および 2と同等の 機能を実現することができる。より詳しくは、複数のカメラ端末を用いて監視対象領域 を撮影する監視システムであって、複数のカメラ端末と、複数のカメラ端末の撮影領 域の位置または撮影範囲を調整する調整装置と、複数のカメラ端末と調整装置とを 接続する通信路とを備え、複数のカメラ端末は、それぞれ、撮影領域の位置と撮影 範囲とを変更する機能を有するカメラと、調整装置と通信する通信手段とを有し、調 整装置は、各カメラ端末が監視すべき撮影領域を監視担当領域とした場合に、通信 手段で受信された複数のカメラ端末力 の情報に基づいて、複数のカメラ端末のそ れぞれにつ 1、て、カメラ端末の監視担当領域が他のカメラ端末の監視担当領域また は監視対象領域の境界線と隙間なく隣接するように、カメラ端末の監視担当領域を 決定するとともに、監視担当領域全体が撮影されるようにカメラ端末の撮影領域の位 置または撮影範囲を制御する監視システムとして実現することもできる。
[0215] なお、請求の範囲における各構成要素と明細書の実施の形態における構成要素と の対応関係は、次に通りである。つまり、請求の範囲におけるカメラ端末の一例が、 実施の形態におけるカメラ端末 110A〜N、カメラ端末 111A〜N、カメラ端末 114A 〜Nであり、カメラの一例が、カメラ 101A〜N、カメラ 104A〜N、カメラ 106A〜Nで あり、通信手段の一例が、通信部 103A〜Nであり、調整手段の一例が、調整部 102 A〜N、調整部 105A〜N、調整部 107A〜Nであり、協調監視メンバ選択部の一例 力 協調監視メンバ選択部 211であり、協調監視メンバ記憶部の一例が、協調監視メ ンバ記憶部 212であり、監視対象領域マップ記憶部の一例が、監視対象領域マップ 記憶部 213であり、監視担当領域決定部の一例が、監視担当領域決定部 214であり 、撮影範囲決定部の一例力 撮影範囲決定部 215であり、カメラ制御部の一例が、 カメラ制御部 216であり、監視担当領域比較評価部の一例が、監視担当領域比較評 価部 217であり、視線方向調整部の一例が、領域形状比較評価部 220と視線方向 調整部 222とを併せたものであり、通信路の一例が、通信ネットワーク 112A〜Nであ る。
産業上の利用可能性
[0216] 本発明は、カメラおよびカメラを用いた監視システムとして、例えば、学校やビル等 における不審者の監視用システムや、交差点や公園などの広範囲撮影システムと ヽ つた公共の場所の監視システム、さらに家庭内の様子を複数のネットワークカメラ等 を用いて監視する室内遠隔監視システム等として、特に、複数のカメラのいずれかが 故障したりや新たなカメラが追加されたりなどの監視システムの構成が変更された場 合においても監視対象領域がくまなく撮影されるように維持する必要がある高機能な 監視システムとして有用である。

Claims

請求の範囲
[1] 複数のカメラ端末が協調して動作することによって監視対象領域を撮影する監視シ ステムにおける 1台のカメラ端末であって、
撮影領域を変更する機能を有するカメラと、
前記撮影領域を特定する情報を他のカメラ端末と送受信する通信手段と、 各カメラ端末が監視すべき撮影領域を監視担当領域とした場合に、前記通信手段 で受信された他のカメラ端末力 の情報に基づいて、自力メラ端末の監視担当領域 が他のカメラ端末の監視担当領域または前記監視対象領域の境界線と隙間なく隣 接するように、自力メラ端末の監視担当領域を決定するとともに、前記監視担当領域 全体が撮影されるように、前記カメラの撮影領域を調整する調整手段とを備え、 前記調整手段は、自力メラ端末の撮影領域内に定められた第 1基準点と前記撮影 領域に隣接する他のカメラ端末の撮影領域内に定められた第 2基準点とを結ぶ線分 の垂直二等分線または前記垂直二等分線と前記監視対象領域の境界線とにより、 前記第 1基準点を取り囲こむ領域を前記監視担当領域として決定する
ことを特徴とするカメラ端末
[2] 前記調整手段は、
他のカメラ端末の中から撮影領域が所定の範囲に存在するカメラ端末を選別する 協調監視メンバ選択部と、
前記協調監視メンバ選択部で選ばれたカメラ端末の撮影領域を特定する情報を前 記通信手段で受信して記憶する協調監視メンバ記憶部と、
前記監視対象領域の位置と範囲を記憶する監視対象領域マップ記憶部と、 前記協調監視メンバ記憶部に記憶された情報と前記監視対象領域マップ記憶部 に記憶された前記位置および前記範囲とに基づいて、自力メラ端末の前記監視担当 領域を決定する監視担当領域決定部と、
決定された前記監視担当領域全体を前記カメラが有する撮像面に映すための焦 点距離を算出する撮影範囲決定部と、
前記撮影範囲決定部によって算出された焦点距離となるように前記カメラの焦点距 離を制御するカメラ制御部とを有する ことを特徴とする請求項 1記載のカメラ端末。
[3] 前記第 1基準点は、自力メラ端末のカメラが有する撮像面の中心に映し出される前 記監視対象領域上の座標である
ことを特徴とする請求項 1記載のカメラ端末。
[4] 前記第 1基準点は、自力メラ端末の撮影領域の中心座標である
ことを特徴とする請求項 1記載のカメラ端末。
[5] 前記カメラはさらに、撮影領域の位置を変更する機能を有し、
前記調整手段はさらに、自力メラ端末の監視担当領域と前記監視担当領域に隣接 する監視担当領域とを比較評価することにより、自力メラ端末の監視担当領域が前記 監視担当領域に隣接する監視担当領域の大きさに近づくように、撮影領域の位置を 決定する監視担当領域比較評価部を有し、
前記カメラ制御部は、前記監視担当領域比較評価部によって決定された撮影領域 の位置に近づくように前記カメラを制御する
ことを特徴とする請求項 1記載のカメラ端末。
[6] 前記監視担当領域比較評価部は、前記第 1基準点から前記監視担当領域の各境 界線までの距離が等しくなるように前記第 1基準点を動かすことにより、前記撮影領 域の位置を決定する
ことを特徴とする請求項 5記載のカメラ端末。
[7] 前記カメラはさらに、視線方向を制御する機能を有し、
前記調整手段はさらに、前記撮影領域の形状と前記監視担当領域の形状が近づく ように、前記カメラの視線の方向を調整する視線方向調整部を有する
ことを特徴とする請求項 1記載のカメラ端末
[8] 前記視線方向調整部は、前記撮影領域の形状と前記監視担当領域の形状との違 V、を評価する評価関数にお!、て、前記撮影領域の形状と前記監視担当領域の形状 とが一致する時の評価値を目標値とした場合に、前記評価関数の評価値が前記目 標値に近づくように、前記カメラの視線方向を決定する
ことを特徴とする請求項 7記載のカメラ端末
[9] 前記評価関数は、前記カメラの視線が前記監視対象領域と交わる点を基準点とし た場合に、前記基準点を通る複数の方向について、前記基準点から前記監視担当 領域の境界線まで距離と前記基準点から前記撮影領域の境界線までの距離との比 率の分散を示す関数であり、
前記目標値は、ゼロである
ことを特徴とする請求項 8記載のカメラ端末
[10] 複数のカメラ端末が協調して動作することによって監視対象領域を撮影する監視シ ステムであって、
複数の請求項 1記載のカメラ端末と、
前記複数のカメラ端末を接続する通信路と
を備えることを特徴とする監視システム。
[11] 複数のカメラ端末を協調して動作させることによって監視対象領域を撮影する監視 方法であって、
各カメラ端末が監視すべき撮影領域を監視担当領域とした場合に、前記複数の力 メラ端末のそれぞれが、他のカメラ端末力もの情報に基づいて、自力メラ端末の監視 担当領域が他のカメラ端末の監視担当領域または前記監視対象領域の境界線と隙 間なく隣接するように、自力メラ端末の監視担当領域を決定するとともに、前記監視 担当領域全体が撮影されるように、自カメラ端末の撮影領域を調整する調整ステップ を含み、
前記調整ステップでは、自力メラ端末の撮影領域内に定められた第 1基準点と前記 撮影領域に隣接する他のカメラ端末の撮影領域内に定められた第 2基準点とを結ぶ 線分の垂直二等分線または前記垂直二等分線と前記監視対象領域の境界線とによ り、前記第 1基準点を取り囲こむ領域を前記監視担当領域として決定する
ことを特徴とする監視方法。
[12] 複数のカメラ端末が協調して動作することによって監視対象領域を撮影する監視シ ステムにおける 1台のカメラ端末のためのプログラムであって、
請求項 11記載の監視方法に含まれるステップをコンピュータに実行させる ことを特徴とするプログラム。
PCT/JP2005/022272 2004-12-21 2005-12-05 カメラ端末および監視システム Ceased WO2006067947A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006515480A JP3886524B2 (ja) 2004-12-21 2005-12-05 カメラ端末および監視システム
US10/585,989 US7924311B2 (en) 2004-12-21 2005-12-05 Camera terminal and monitoring system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004369716 2004-12-21
JP2004-369716 2004-12-21
JP2005222359 2005-08-01
JP2005-222359 2005-08-01

Publications (1)

Publication Number Publication Date
WO2006067947A1 true WO2006067947A1 (ja) 2006-06-29

Family

ID=36601551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022272 Ceased WO2006067947A1 (ja) 2004-12-21 2005-12-05 カメラ端末および監視システム

Country Status (3)

Country Link
US (1) US7924311B2 (ja)
JP (1) JP3886524B2 (ja)
WO (1) WO2006067947A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
JP2010528515A (ja) * 2007-05-19 2010-08-19 ビデオテック・ソシエタ・ペル・アチオニ 環境をモニタするための方法及びシステム
CN109756665A (zh) * 2017-11-02 2019-05-14 株式会社日立制作所 距离图像摄像机、距离图像摄像机系统及其控制方法
KR20190062033A (ko) * 2017-11-28 2019-06-05 한화테크윈 주식회사 멀티 센서 카메라의 소프트웨어 업데이트 방법, 장치 및 컴퓨터 프로그램

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7880766B2 (en) * 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
US20070146543A1 (en) * 2005-12-23 2007-06-28 Demian Gordon Volume configurations in motion capture
KR101139454B1 (ko) * 2006-07-14 2012-04-30 엘지전자 주식회사 이동통신 단말기 및 그 동작방법
WO2008068456A2 (en) * 2006-12-06 2008-06-12 Sony United Kingdom Limited A method and an apparatus for generating image content
US8947526B2 (en) * 2006-12-07 2015-02-03 Sensormatic Electronics, LLC Video surveillance system having communication acknowledgement nod
EP2112817A4 (en) * 2007-08-03 2010-03-24 Univ Keio COMPOSITION ANALYSIS METHOD, IMAGE COMPUTER WITH COMPOSITION ANALYSIS FUNCTION, COMPOSITION ANALYSIS PROGRAM AND COMPUTER READABLE RECORDING MEDIUM
US8390729B2 (en) * 2007-09-05 2013-03-05 International Business Machines Corporation Method and apparatus for providing a video image having multiple focal lengths
KR101187909B1 (ko) * 2007-10-04 2012-10-05 삼성테크윈 주식회사 감시 카메라 시스템
JP2010002997A (ja) * 2008-06-18 2010-01-07 Toshiba Tec Corp 人物行動分析装置及び人物行動分析プログラム
US20100026822A1 (en) * 2008-07-31 2010-02-04 Itt Manufacturing Enterprises, Inc. Multiplexing Imaging System for Area Coverage and Point Targets
EP2202533A1 (de) * 2008-12-23 2010-06-30 IBEO Automobile Sensor GmbH Erfassungsvorrichtung
US8462209B2 (en) * 2009-06-26 2013-06-11 Keyw Corporation Dual-swath imaging system
US8908033B2 (en) * 2009-09-29 2014-12-09 Avaya Inc. Utilizing presence information for the purpose of enhanced surveillance
US20110150434A1 (en) * 2009-12-23 2011-06-23 Empire Technology Development Llc A Pan camera controlling method
ITMI20100741A1 (it) * 2010-04-29 2011-10-30 March Networks Corp Configurazione e comunicazione di elementi di rete video
TW201201117A (en) * 2010-06-30 2012-01-01 Hon Hai Prec Ind Co Ltd Image management system, display apparatus, and image display method
US9071738B2 (en) * 2010-10-08 2015-06-30 Vincent Pace Integrated broadcast and auxiliary camera system
EP2600611A1 (de) * 2011-11-29 2013-06-05 Xovis AG Verfahren und Vorrichtung zur überwachung eines Überwachungsbereichs
CN104160700B (zh) * 2012-06-28 2016-09-14 日本电气株式会社 相机位置姿态评估设备和相机位置姿态评估方法
JP6194963B2 (ja) * 2014-02-14 2017-09-13 日本電気株式会社 映像処理システム
CN104469167B (zh) * 2014-12-26 2017-10-13 小米科技有限责任公司 自动对焦方法及装置
TWI541767B (zh) * 2015-04-07 2016-07-11 群暉科技股份有限公司 藉助於自動產生之巡邏路徑控制一監視系統之方法與裝置
US10931887B2 (en) * 2016-03-17 2021-02-23 Panasonic Intellectual Property Management Co., Ltd. Collation device
RU2661760C1 (ru) * 2017-08-25 2018-07-19 Общество с ограниченной ответственностью "Аби Продакшн" Использование нескольких камер для выполнения оптического распознавания символов
JP2020032320A (ja) * 2018-08-27 2020-03-05 コベルコ建機株式会社 解体システム
CN111371984B (zh) * 2019-06-14 2021-09-17 杭州海康威视系统技术有限公司 确定抓拍机异常的方法、装置及存储介质
US11048518B2 (en) * 2019-09-26 2021-06-29 The Boeing Company Synchronous operation of peripheral devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179984A (ja) * 1995-12-27 1997-07-11 Mitsubishi Electric Corp 映像監視装置
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005117542A (ja) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc 監視システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3043925B2 (ja) 1993-07-15 2000-05-22 東京電力株式会社 移動物体検出判定装置
JPH07303207A (ja) 1994-05-09 1995-11-14 Canon Inc 撮像装置
JPH09263012A (ja) 1996-03-27 1997-10-07 Fuji Xerox Co Ltd 画像形成制御装置及び画像形成対象媒体の情報変更方法
JP3180730B2 (ja) 1997-09-29 2001-06-25 日本電気株式会社 監視カメラシステム
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US6690374B2 (en) * 1999-05-12 2004-02-10 Imove, Inc. Security camera system for tracking moving objects in both forward and reverse directions
JP2002057929A (ja) 2000-08-10 2002-02-22 Mitsubishi Electric Corp 広域撮影装置
JP2003023553A (ja) 2001-07-06 2003-01-24 Saibuaasu:Kk 遠隔操作カメラおよび画像提供装置
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179984A (ja) * 1995-12-27 1997-07-11 Mitsubishi Electric Corp 映像監視装置
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005117542A (ja) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc 監視システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
US8115812B2 (en) 2006-09-20 2012-02-14 Panasonic Corporation Monitoring system, camera, and video encoding method
JP2010528515A (ja) * 2007-05-19 2010-08-19 ビデオテック・ソシエタ・ペル・アチオニ 環境をモニタするための方法及びシステム
EP2533535A1 (en) * 2007-05-19 2012-12-12 Videotec S.p.a. Method and system for monitoring an environment
US8350911B2 (en) 2007-05-19 2013-01-08 Videotec S.P.A. Method and system for monitoring an environment
CN109756665A (zh) * 2017-11-02 2019-05-14 株式会社日立制作所 距离图像摄像机、距离图像摄像机系统及其控制方法
CN109756665B (zh) * 2017-11-02 2020-09-22 株式会社日立制作所 距离图像摄像机、距离图像摄像机系统及其控制方法
KR20190062033A (ko) * 2017-11-28 2019-06-05 한화테크윈 주식회사 멀티 센서 카메라의 소프트웨어 업데이트 방법, 장치 및 컴퓨터 프로그램
KR102415065B1 (ko) * 2017-11-28 2022-06-30 한화테크윈 주식회사 멀티 센서 카메라의 소프트웨어 업데이트 방법, 장치 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
US7924311B2 (en) 2011-04-12
JPWO2006067947A1 (ja) 2008-06-12
US20080225121A1 (en) 2008-09-18
JP3886524B2 (ja) 2007-02-28

Similar Documents

Publication Publication Date Title
WO2006067947A1 (ja) カメラ端末および監視システム
JP3902222B2 (ja) 監視システム、監視方法及びカメラ端末
US8154599B2 (en) Imaging region adjustment device
JP3905116B2 (ja) 検出領域調整装置
JP2006304342A (ja) 検出領域調整装置
JP2002522980A (ja) 複数カメラシステム中の画像追跡
CN1554193A (zh) 摄像机控制装置及方法
JP3887403B2 (ja) カメラ端末および撮影領域調整装置
WO1999045511A1 (en) A combined wide angle and narrow angle imaging system and method for surveillance and monitoring
KR100978721B1 (ko) 전방위 카메라 및 ptz 카메라를 연동하여 촬영하는촬영장치, 촬영방법 및 그 기록매체
EP1619897B1 (en) Camera link system, camera device and camera link control method
CN101867785B (zh) 监视系统及摄像机终端
US20060055792A1 (en) Imaging system with tracking function
CN103167234B (zh) 安装监控摄像机的方法
JP6584093B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102707798B1 (ko) 팬틸트줌 동작이 가능한 카메라 장치와 이를 이용한 영상 감시 시스템 및 방법
KR101957414B1 (ko) Cctv 보정 설계 구축 기반의 아파트 감시 시스템 및 그 방법
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
CN100531370C (zh) 监视系统及摄像机终端
KR20130102743A (ko) 프라이버시 마스크 표시를 제어하는 감시 시스템 및 그 방법
KR20170055455A (ko) 초광각 카메라를 이용한 렌즈 왜곡 영상 보정 카메라 시스템 및 그가 적용된 tvi 장치
CN100428781C (zh) 摄像机终端及摄影区域调整装置
JP2021029028A (ja) 物体追尾システム、物体追尾装置、物体追尾方法及びプログラム
CN115996305A (zh) 一种摄像机及监控设备
JP2025035059A (ja) 画像処理システム、移動体、画像処理方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006515480

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 10585989

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05811599

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5811599

Country of ref document: EP