DE102023121962A1 - Mobile system for detecting concealed weapons - Google Patents
Mobile system for detecting concealed weapons Download PDFInfo
- Publication number
- DE102023121962A1 DE102023121962A1 DE102023121962.6A DE102023121962A DE102023121962A1 DE 102023121962 A1 DE102023121962 A1 DE 102023121962A1 DE 102023121962 A DE102023121962 A DE 102023121962A DE 102023121962 A1 DE102023121962 A1 DE 102023121962A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- radar
- infrared
- infrared image
- computing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/05—Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
Ein mobiles System zum Erkennen einer durch eine Person verdeckt getragenen Waffe weist eine Radareinheit, eine Wärmebildkamera, eine Recheneinheit, eine Mensch-Maschine-Schnittstelle und eine Energiequelle auf. Die Energiequelle versorgt das System mit Energie. Die Radareinheit tastet ein Volumen ab und gibt ein Radarsignal aus. Die Wärmebildkamera gibt ein ortsaufgelöstes Infrarotbild als Infrarotsignal aus. Die Recheneinheit steuert die Radareinheit und die Wärmebildkamera, erhält das Radarsignal und das Infrarotsignal, und gewinnst aus den Signalen ein ortsaufgelöstes Radarbild und ein ortsaufgelöste Infrarotbild. Anschließend kombiniert die Recheneinheit das Radarbild und das Infrarotbild rechnerisch zur Bildung eines Kombinationsbilds. Aus dem Kombinationsbild bildet die Recheneinheit rechnerisch durch Kantendetektion ein Kantenbild und detektiert in diesem rechnerisch durch Bildanalyse eine verdeckte Waffe. Wenn in dem Kantenbild eine verdeckte Waffe detektiert wurde, gibt die Recheneinheit ein Signal an die Mensch-Maschine-Schnittstelle aus. A mobile system for detecting a weapon concealed by a person has a radar unit, a thermal imaging camera, a computing unit, a human-machine interface, and an energy source. The energy source supplies the system with energy. The radar unit scans a volume and outputs a radar signal. The thermal imaging camera outputs a spatially resolved infrared image as an infrared signal. The computing unit controls the radar unit and the thermal imaging camera, receives the radar signal and the infrared signal, and uses the signals to obtain a spatially resolved radar image and a spatially resolved infrared image. The computing unit then mathematically combines the radar image and the infrared image to form a combination image. From the combination image, the computing unit mathematically creates an edge image using edge detection and mathematically detects a concealed weapon in this using image analysis. If a concealed weapon is detected in the edge image, the computing unit outputs a signal to the human-machine interface.
Description
Die vorliegende Erfindung betrifft ein mobiles System zum Erkennen von durch eine Person verdeckt getragenen Waffen.The present invention relates to a mobile system for detecting weapons concealed by a person.
Von Waffen geht eine erhebliche Gefährdung der öffentlichen Sicherheit und Ordnung aus. Das (Mit-)Führen von Waffen unterliegt daher in der Regel Einschränkungen. Je nach nationalem Recht ist das Führen von Waffen generell auf einen bestimmten Personenkreis beschränkt (wie beispielsweise Soldaten, Polizisten und Jäger) oder zeitlich (wie beispielsweise Nachts) und/oder örtlich (wie beispielsweise an besonders gefährdeten Orten wie Schulen, Bahnhöfen, Flughäfen, Behörden oder Kirchen) beschränkt und dann nur einem bestimmten Personenkreis erlaubt.Weapons pose a significant threat to public safety and order. Carrying or carrying weapons is therefore generally subject to restrictions. Depending on national law, carrying weapons is generally restricted to a certain group of people (such as soldiers, police officers and hunters) or limited in time (such as at night) and/or location (such as in particularly vulnerable places such as schools, train stations, airports, authorities or churches) and is then only permitted to a certain group of people.
Zur Wahrung der öffentlichen Sicherheit und Ordnung besteht daher ein großes Interesse daran, durch eine Person getragene Waffen zuverlässig zu erkennen, selbst wenn diese visuell nicht sichtbar und damit verdeckt sind.In order to maintain public safety and order, there is therefore a great interest in reliably detecting weapons carried by a person, even if they are not visually visible and therefore concealed.
Zur Erkennung von durch eine Person verdeckt getragenen Waffen werden herkömmlicherweise Metalldetektoren verwendet, die als Durchgangsdetektoren ausgebildet sind. Die äußere Form eines Durchgangsdetektors ähnelt einem Türrahmen. Metalldetektoren arbeiten üblicherweise mit elektromagnetischen Feldern. In jüngerer Zeit sind auch sogenannte Körperscanner entwickelt worden, die mit Röntgenstrahlung oder Terahertzstrahlung (im elektromagnetischen Spektrum zwischen Infrarotstrahlung und Mikrowellen) arbeiten, und es erlauben, Gegenstände unter der Kleidung einer Person abzubilden.Metal detectors designed as walk-through detectors are traditionally used to detect weapons concealed by a person. The external shape of a walk-through detector resembles a door frame. Metal detectors usually work with electromagnetic fields. More recently, so-called body scanners have been developed that work with X-rays or terahertz radiation (in the electromagnetic spectrum between infrared radiation and microwaves) and allow objects to be imaged under a person's clothing.
Das Dokument
Ein zur Untersuchung von Objekten verwendbares Radarsystem ist auch aus der
Diese Videodaten können einem Benutzer angezeigt werden, ebenso wie eine optische oder akustische Warnmeldung, falls eine Waffe erkannt wird.This video data can be displayed to a user, as well as a visual or audible warning if a weapon is detected.
Bei den vorstehend beschriebenen vorbekannten Lösungen ist es nachteilig, dass sie primär für stationäre Anwendungen gedacht sind. Es besteht aber gerade ein Bedarf an flexiblen einsetzbaren mobilen Lösungen. Nur wenn durch eine Person verdeckt getragene Waffen im Alltag von Sicherheitspersonal (wie beispielsweise einem Polizisten) zuverlässig erkannt werden, ist es möglich, auf eine Situation angemessen zu reagieren. So macht es ersichtlich einen großen Unterschied, ob eine verdächtige Person in ihre Jackentasche greift, um Ausweispapiere oder aber um eine Waffe hervorzuholen.The disadvantage of the previously known solutions described above is that they are primarily intended for stationary applications. However, there is a need for flexible, mobile solutions. Security personnel (such as a police officer) can only reliably detect weapons carried concealed by a person in everyday life, so that they can react appropriately to a situation. It clearly makes a big difference whether a suspicious person reaches into their jacket pocket to pull out identification papers or a weapon.
Aus der
Weiter ist an den vorstehend beschriebenen Lösungen nachteilig, dass sie häufig nur bestimmte Waffenarten (wie z. B. Waffen mit einem zylinderförmigen Waffenlauf) erkennen können.Another disadvantage of the solutions described above is that they often only cover certain Can identify types of weapons (such as weapons with a cylindrical barrel).
Ausgehend hiervon ist es Aufgabe der vorliegenden Erfindung, ein mobiles System bereitzustellen, welches durch eine Person verdeckt getragene Waffen unterschiedlicher Art zuverlässig erkennen und einen Benutzer des Systems entsprechend warnen kann.Based on this, it is the object of the present invention to provide a mobile system which can reliably detect weapons of different types carried concealed by a person and warn a user of the system accordingly.
Unter Waffen werden Mittel verstanden, die dazu in der Lage sind, ein Lebewesen (und insbesondere einen Menschen) in einer Konfliktsituation seiner physischen Unversehrtheit zu berauben. Waffen können aus unterschiedlichsten Materialien wie insbesondere Metall und/oder Keramik und/oder Kunststoff gebildet sein und unterschiedlichste Größen aufweisen. Bei den Waffen kann es sich konkret insbesondere um Stich-, Hieb- und Schusswaffen handeln. Die vorliegende Erfindung betrifft insbesondere Waffen, deren größte Erstreckung in einer Richtung wenigstens 5 cm (und insbesondere wenigstens 10 cm beträgt) und/oder deren Volumen wenigstens 10 cm3 (und insbesondere wenigstens 20 cm3) beträgt.Weapons are understood to be means that are capable of depriving a living being (and in particular a human) of its physical integrity in a conflict situation. Weapons can be made of a wide variety of materials, such as metal and/or ceramic and/or plastic, and can be of a wide variety of sizes. In concrete terms, the weapons can be stabbing, cutting and firearms. The present invention relates in particular to weapons whose greatest extension in one direction is at least 5 cm (and in particular at least 10 cm) and/or whose volume is at least 10 cm 3 (and in particular at least 20 cm 3 ).
Unter „verdeckte Waffen“ werden solche Waffen verstanden, die durch visuelle Wahrnehmung nicht oder nur schwer zu erkennen sind, da sie zum Beispiel unter Kleidung oder in einem Gepäckstück verborgen oder allgemein verpackt sind.“Concealed weapons” are those weapons that cannot be detected or are difficult to detect by visual perception because they are, for example, hidden under clothing or in luggage or generally packed.
Unter einem „mobilen System“ wird ein System verstanden, welches ein Gewicht und eine Größe aufweist, die es dem System erlauben, von einer Person mitgeführt zu werden, ohne die Person wesentlich einzuschränken oder zu belasten. Insbesondere werden unter „mobilen Systemen“ solche Systeme verstanden, die einschließlich ihrer Energieversorgung
- - ein Gewicht von unter 5 kg und insbesondere von unter 1 kg aufweisen und/oder
- - deren größte Erstreckung in einer Richtung höchstens 30 cm und insbesondere höchstens 15 cm beträgt und/oder
- - deren Volumen höchstens 600 cm3 und insbesondere höchstens 200 cm3 beträgt.
- - weigh less than 5 kg and in particular less than 1 kg and/or
- - whose maximum extension in one direction does not exceed 30 cm and in particular does not exceed 15 cm and/or
- - whose volume does not exceed 600 cm3 and in particular does not exceed 200 cm3 .
Die vorstehende Aufgabe wird durch die Kombination der Merkmale von Anspruch 1 gelöst. Bevorzugte Weiterbildungen finden sich in den abhängigen Ansprüchen.The above object is achieved by the combination of the features of claim 1. Preferred developments can be found in the dependent claims.
Gemäß einer Ausführungsform weist ein mobiles System zum Erkennen einer durch eine Person verdeckt getragenen Waffe eine Radareinheit, eine Wärmebildkamera, eine Recheneinheit, eine Mensch-Maschine-Schnittstelle und eine Energiequelle auf. According to one embodiment, a mobile system for detecting a weapon concealed by a person comprises a radar unit, a thermal imaging camera, a computing unit, a human-machine interface and a power source.
Es wird betont, dass das System auch mehr als eine Radareinheit und/oder mehr als eine Wärmebildkamera und/oder mehr als eine Recheneinheit und/oder mehr als eine Mensch-Maschine-Schnittstelle und/oder mehr als eine Energiequelle aufweisen kann. Insbesondere die Verwendung mehrerer Radareinheiten ist geeignet, die Genauigkeit des Systems zu erhöhen.It is emphasized that the system can also have more than one radar unit and/or more than one thermal imaging camera and/or more than one computing unit and/or more than one human-machine interface and/or more than one energy source. In particular, the use of several radar units is suitable for increasing the accuracy of the system.
Die Energiequelle, bei der es sich gemäß einer Ausführungsform beispielsweise um eine Batterie und/oder einen Akku und/oder eine Solarzelle handeln kann, ist über elektrische Leitungen mit der Radareinheit, der Wärmebildkamera, der Recheneinheit und der Mensch-Maschine-Schnittstelle verbunden und versorgt diese mit elektrischer Energie.The energy source, which according to one embodiment may be, for example, a battery and/or a rechargeable battery and/or a solar cell, is connected to the radar unit, the thermal imaging camera, the computing unit and the human-machine interface via electrical lines and supplies them with electrical energy.
Die Radareinheit tastet ein (dreidimensionales) Volumen ab, in dem sich die Person befindet, und gibt das Ergebnis der Abtastung als Radarsignal aus. Hierfür ist die Radareinheit gemäß einer Ausführungsform über eine Datenleitung mit der Recheneinheit verbunden und tauscht mit dieser Daten aus. Gemäß einer Ausführungsform sendet die Radareinheit zur Abtastung des Volumens zwei zueinander orthogonal polarisierter Primärsignale im Frequenzbereich von 40 GHz bis 80 GHz in das Volumen und empfängt als Echo von im Volumen enthaltenen Objekten wie beispielsweise der Person zwei zueinander orthogonal polarisierter Sekundärsignale, welche das Radarsignal bilden. Das Radarsignal enthält Informationen über Zeit, Ort, Amplitude und Phase, so dass aus diesen Informationen rechnerisch ein zweidimensionales Radarbild gewonnen werden kann. Gemäß einer Ausführungsform wird das zweidimensionale Radarbild durch die Radareinheit selber aus dem Sekundärsignal gewonnen; gemäß einer alternativen Ausführungsform wird das zweidimensionale Radarbild durch die Recheneinheit aus dem Sekundärsignal (welches dann dem Radarsignal entspricht) gewonnen. Im Folgenden wird dieses zweidimensionale Radarbild einfach als „Radarbild“ bezeichnet.The radar unit scans a (three-dimensional) volume in which the person is located and outputs the result of the scan as a radar signal. For this purpose, according to one embodiment, the radar unit is connected to the computing unit via a data line and exchanges data with it. According to one embodiment, the radar unit sends two orthogonally polarized primary signals in the frequency range from 40 GHz to 80 GHz into the volume to scan the volume and receives two orthogonally polarized secondary signals as an echo from objects contained in the volume, such as the person, which form the radar signal. The radar signal contains information about time, location, amplitude and phase, so that a two-dimensional radar image can be mathematically obtained from this information. According to one embodiment, the two-dimensional radar image is obtained by the radar unit itself from the secondary signal; according to an alternative embodiment, the two-dimensional radar image is obtained by the computing unit from the secondary signal (which then corresponds to the radar signal). In the following, this two-dimensional radar image is simply referred to as the “radar image”.
Die Wärmebildkamera erzeugt ein ortsaufgelöstes zweidimensionales Infrarotbild (im Folgenden einfach als „Infrarotbild“ bezeichnet) der Person und gibt dieses als Infrarotsignal aus. Hierfür ist die Wärmebildkamera gemäß einer Ausführungsform über eine Datenleitung mit der Recheneinheit verbunden und tauscht mit dieser Daten aus. Gemäß einer Ausführungsform nutzt die Wärmebildkamera den Spektralbereich von 3,5 µm bis 15 µm oder von 8 µm bis 14 µm (mittleres und langwelliges Infrarot) und stellt so die Temperaturverteilung auf der Oberfläche der Person dar.The thermal imaging camera generates a spatially resolved two-dimensional infrared image (hereinafter referred to simply as "infrared image") of the person and outputs this as an infrared signal. For this purpose, according to one embodiment, the thermal imaging camera is connected to the computing unit via a data line and exchanges data with it. According to one embodiment, the thermal imaging camera uses the spectral range from 3.5 µm to 15 µm or from 8 µm to 14 µm (medium and long-wave infrared) and thus represents the temperature distribution on the surface of the person.
Die Recheneinheit ist über Datenleitungen mit der Radareinheit und der Wärmebildkamera verbunden, steuert diese und empfängt von diesen Signale. Weiter extrahiert die Recheneinheit aus dem von der Radareinheit empfangenen Signal das ortsaufgelöste Radarbild und aus dem von der Wärmebildkamera empfangenen Signal das ortsaufgelöste Infrarotbild.The computing unit is connected to the radar unit and the thermal imaging camera via data lines, controls them and receives signals from them. nale. The computing unit then extracts the spatially resolved radar image from the signal received by the radar unit and the spatially resolved infrared image from the signal received by the thermal imaging camera.
Die Recheneinheit kombiniert das Radarbild und das Infrarotbild rechnerisch und bildet so ein Kombinationsbild.The computing unit mathematically combines the radar image and the infrared image to create a combined image.
Gemäß einer Ausführungsform identifiziert die Recheneinheit vor der Bildung des Kombinationsbilds mittels optischer Bildverarbeitung in dem Radarbild und dem Infrarotbild wenigstens eine identische Struktur (also einen denselben Bereich der abgebildeten Person betreffenden Bildinhalt) und skaliert die beiden Bilder so und/oder schneidet die beiden Bilder so zu, dass das Radarbild und das Infrarotbild denselben Bereich der Person in derselben Größe zeigen. Gemäß einer alternativen Ausführungsform sind die Radareinheit und die Wärmebildkamera so aneinander angepasst, dass das Radarbild und das Infrarotbild innerhalb eines Arbeitsbereichs des Systems automatisch immer denselben Bereich der Person in derselben Größe zeigen. Diese Anpassung kann beispielsweise durch entsprechende Wahl der Optik der Wärmebildkamera erfolgen.According to one embodiment, before forming the combined image by means of optical image processing, the computing unit identifies at least one identical structure (i.e. an image content relating to the same area of the person depicted) in the radar image and the infrared image and scales the two images and/or crops the two images so that the radar image and the infrared image show the same area of the person in the same size. According to an alternative embodiment, the radar unit and the thermal imaging camera are adapted to one another in such a way that the radar image and the infrared image automatically always show the same area of the person in the same size within a working area of the system. This adaptation can be carried out, for example, by appropriately selecting the optics of the thermal imaging camera.
Gemäß einer weiteren Ausführungsform konvertiert die Recheneinheit das Infrarotbild und/oder das Radarbild vor der rechnerischen Kombination in einen einheitlichen Farbraum, beispielsweise in den einen Farbwert (englisch hue), eine Farbsättigung (englisch saturation) und einen Hellwert (englisch value) aufweisenden HSV Farbraum, um ein HSV-Infrarotbild und/oder HSV-Radarbild zu erhalten. In dieser Ausführungsform werden dann durch die Recheneinheit das HSV-Infrarotbild mit dem Radarbild oder das Infrarotbild mit dem HSV-Radarbild oder das HSV-Infrarotbild mit dem HSV-Radarbild rechnerisch kombiniert. Auf das Konvertieren kann verzichtet werden, wenn die rechnerisch zu kombinierenden Bilder bereits in einem einheitlichen Farbraum vorliegen.According to a further embodiment, the computing unit converts the infrared image and/or the radar image into a uniform color space before the computational combination, for example into the HSV color space having a color value (hue), a color saturation and a brightness value (value), in order to obtain an HSV infrared image and/or HSV radar image. In this embodiment, the computing unit then computationally combines the HSV infrared image with the radar image or the infrared image with the HSV radar image or the HSV infrared image with the HSV radar image. Conversion can be omitted if the images to be computationally combined are already in a uniform color space.
Das Konvertieren kann optional auch vor dem skalieren und/oder zuschneiden erfolgen.Conversion can optionally be done before scaling and/or cropping.
Gemäß einer weiteren Ausführungsform wandelt die Recheneinheit vor der Kombination das Infrarotbild oder das HSV-Infrarotbild rechnerisch in sein Komplement um, um ein Komplement-Infrarotbild zu erhalten. Dies erfolgt gemäß einer Ausführungsform durch Subtraktion von 255 von jedem einzelnen Pixelwert des Infrarotbildes / HSV-Infrarotbildes, wenn dieses mit einer Farbtiefe von 8-Bit pro Pixel vorliegt. Gemäß einer Ausführungsform kombiniert die Recheneinheit das Radarbild und das Infrarotbild (bzw. das jeweilige HSV-Bild oder Komplement) dann nicht direkt, sondern addiert zuvor einander entsprechende Pixelwerte des Radarbildes und des Komplement-Infrarotbilds, um ein Zwischenbild zu erhalten. Um das Zwischenbild durch Addition bilden zu können, kann es erforderlich sein, die jeweiligen Bilder zuvor in einen einheitlichen Farbraum zu konvertieren, sofern die Bilder nicht schon in einem einheitlichen Farbraum vorliegen.According to a further embodiment, the computing unit converts the infrared image or the HSV infrared image into its complement before combining in order to obtain a complement infrared image. According to one embodiment, this is done by subtracting 255 from each individual pixel value of the infrared image/HSV infrared image if this is available with a color depth of 8 bits per pixel. According to one embodiment, the computing unit then does not combine the radar image and the infrared image (or the respective HSV image or complement) directly, but first adds corresponding pixel values of the radar image and the complement infrared image to obtain an intermediate image. In order to be able to form the intermediate image by addition, it may be necessary to convert the respective images into a uniform color space beforehand, unless the images are already available in a uniform color space.
Gemäß einer Ausführungsform erfolgt die rechnerische Kombination des Radarbildes und des Infrarotbildes durch die Recheneinheit dadurch, dass einzelne Koordinaten des Farbraums des jeweiligen Bildes (insbesondere des Zwischenbildes und des HSV-Infrarotbildes) jeweils einer Diskrete Wavelet-Transformation unterworfen werden, die so gewonnenen Signale fusioniert werden, und aus den fusionierten Signalen durch eine inverse Diskrete Wavelet-Transformation das Kombinationsbild gewonnen wird. Ein Beispiel, wie die rechnerische Kombination zweier zweidimensionaler Bilder mittels Diskrete Wavelet-Transformation erfolgen kann, ist in Abschnitt 3 des Dokuments
Weiter bildet die Recheneinheit durch Kantendetektion in dem Kombinationsbild rechnerisch ein Kantenbild, wofür gemäß einer Ausführungsform der Canny-Algorithmus verwendet wird. Gemäß einer Ausführungsform wird das Kombinationsbild durch die Recheneinheit vor der Kantendetektion mittels des Schwellenwertverfahrens von Otsu segmentiert.Furthermore, the computing unit computationally forms an edge image by detecting edges in the combination image, for which purpose the Canny algorithm is used according to one embodiment. According to one embodiment, the combination image is segmented by the computing unit before edge detection using the Otsu threshold method.
Nach der Bildung des Kantenbildes detektiert die Recheneinheit rechnerisch durch Bildanalyse in dem Kantenbild eine verdeckte Waffe. Hierfür wird gemäß einer Ausführungsform ein Convolutional Neural Network verwendet, welches durch überwachtes Training anhand von Trainingsdaten trainiert worden ist. Gemäß einer Ausführungsform arbeitet das Convolutional Neural Network nach dem Grundsatz der Logischen Regression und bestimmt also immer nur die Wahrscheinlichkeiten zweier dichotomischer Ereignisse, insbesondere der Ereignisse „Waffe“ und „keine Waffe“.After the edge image has been formed, the computing unit detects a concealed weapon in the edge image by means of image analysis. According to one embodiment, a convolutional neural network is used for this purpose, which trains through supervised training based on training data. nized. According to one embodiment, the convolutional neural network works according to the principle of logical regression and therefore only ever determines the probabilities of two dichotomous events, in particular the events “weapon” and “no weapon”.
Vor der Detektion der verdeckten Waffe werden gemäß einer Ausführungsform in dem Kantenbild die Flächen einzelner Konturen bestimmt, wofür der YOLOv6-Algorithmus verwendet werden kann. YOLOv6 ist die sechste Version von YOLO (you only look once), einer einstufigen Detektionsstrategie zur Objekterkennung. Bei YOLOv6 handelt es sich um ein als Datei verfügbares anhand einer großen allgemeinen Bilddatenbank trainiertes neuronales Netz. YOLOv6 ist in dem Aufsatz „
Wenn in dem Kantenbild eine verdeckte Waffe detektiert wurde gibt die Recheneinheit ein Signal an die Mensch-Maschine-Schnittstelle aus. Gemäß einer Ausführungsform ist die Mensch-Maschine-Schnittstelle eine Bildschirmanzeige und/oder ein Lautsprecher und/oder ein Vibrator und/oder eine Bluetooth-Schnittstelle und/oder eine Mobilfunkschnittstelle, so dass das über die Mensch-Maschine-Schnittstelle ausgegebene Signal ein optisches und/oder akustisches Signal ist, und im Falle der Mobilfunkschnittstelle auch an Dritte ausgegeben werden kann.If a concealed weapon is detected in the edge image, the computing unit outputs a signal to the human-machine interface. According to one embodiment, the human-machine interface is a screen display and/or a loudspeaker and/or a vibrator and/or a Bluetooth interface and/or a mobile radio interface, so that the signal output via the human-machine interface is an optical and/or acoustic signal and, in the case of the mobile radio interface, can also be output to third parties.
Gemäß einer Ausführungsform werden durch die Recheneinheit gesteuert durch die Radareinheit und die Wärmebildkamera zu unterschiedlichen Zeitpunkten Bilder erstellt und mehrere einander zeitlich paarweise entsprechende Radarbilder und Infrarotbilder wie vorstehend beschrieben verarbeitet. Dann gibt die Recheneinheit nur dann ein Signal an die Mensch-Maschine-Schnittstelle aus, wenn wenigstens in 3 oder wenigstens in 5 zu unterschiedlichen Zeitpunkten innerhalb einer Sekunde aufgenommenen Bildern eine Waffe detektiert worden ist.According to one embodiment, images are created at different times by the computing unit under the control of the radar unit and the thermal imaging camera, and several radar images and infrared images corresponding to each other in time pairs are processed as described above. The computing unit then only outputs a signal to the human-machine interface if a weapon has been detected in at least 3 or at least 5 images taken at different times within one second.
Ausführungsformen der Erfindung werden nachfolgend anhand von Figuren näher erläutert. Hierbei zeigt:
-
1 ein Blockdiagramm des mobilen Systems zum Erkennen einer durch eine Person verdeckt getragenen Waffe gemäß einer Ausführungsform; -
2 Schematisch den Einsatz des mobilen Systems aus1 ; und -
3 ein Flussdiagramm eines Verfahrens zum Erkennen einer durch eine Person verdeckt getragenen Waffe.
-
1 a block diagram of the mobile system for detecting a weapon concealed by a person according to an embodiment; -
2 Schematic of the use of the mobile system from1 ; and -
3 a flowchart of a method for detecting a weapon carried concealed by a person.
Im Folgenden wird eine Ausführungsform anhand der Figuren erläutert.In the following, an embodiment is explained using the figures.
Wie in
Das nicht gezeigte Gehäuse weist eine Länge von 10 cm, eine Breite von 5 cm und eine Dicke von 2 cm auf und entspricht somit der Größe üblicher Bodycams. Das Gehäuse kann mittels einer (in
Die Energiequelle 50, bei der es sich vorliegend um einen Akkumulator handelt, weist eine integrierte Ladesteuerung für den Akkumulator sowie einen Stromanschluss 51 zum Laden des Akkumulators auf. Alternativ kann die Energiequelle 50 auch wechselbar ausgestaltet sein; dann kann das Laden des Akkumulators extern erfolgen, oder es können herkömmliche Batterien verwendet werden. Auf den Stromanschluss 51 kann dann verzichtet werden. Die Energiequelle 50 ist über nicht gezeigte elektrische Leitungen mit der Radareinheit 10, der Wärmebildkamera 20, der Recheneinheit 30 und der Mensch-Maschinen-Schnittstelle 40 verbunden und versorgt diese mit Energie. Weiter ist die Energiequelle 50 über eine nicht gezeigte Datenleitung mit der Recheneinheit 30 verbunden und übermittelt an die Recheneinheit 50 Daten über die verfügbare Energie und ggf. den Ladezustand des Akkumulators.The
Die Recheneinheit 30 umfasst vorliegend einen Arbeitsspeicher 31, einen Mikroprozessor 32 und einen neuromorphen Co-Prozessor 33. Innerhalb der Recheneinheit 30 ist der Mikroprozessor 32 für allgemeine Berechnungen und Steuerungsaufgaben zuständig, wohingegen der neuromorphe Co-Prozessor 33 Aufgaben der Mustererkennung und -analyse in Bildern übernimmt. Im Arbeitsspeicher 31 ist ein Programm gespeichert, welches die Arbeitsweise der Recheneinheit 30 festlegt.The
Die Radareinheit 10 ist über Datenleitungen mit der Recheneinheit 30 verbunden und umfasst einen Sender 11 mit zwei (nicht gezeigten) Antennen, der zwei zueinander orthogonal polarisierter Primärsignale mit einer Frequenz von 60 GHZ emittiert, und einen Empfänger 12 mit zwei (nicht gezeigten) Antennen, der als Echo des Primärsignals zwei zueinander orthogonal polarisierter Sekundärsignale empfängt. Vorliegend wird als Radareinheit das Produkt A111 der Firma Acconeer verwendet, wie es im Datenblatt v1.1 beschrieben ist. Bei diesem Produkt handelt es sich um ein Ein-Chip-Radarsystem, welches ein (dreidimensionales) Volumen abtastet und das Ergebnis der Abtastung in Form von Informationen über Zeit, Ort, Amplitude und Phase als Radarsignal ausgibt. Die Recheneinheit 30 erstellt aus dem von der Radareinheit 10 empfangenen Radarsignal ein zweidimensionales Radarbild. Die Wärmebildkamera 20 ist ebenfalls über Datenleitungen mit der Recheneinheit 30 verbunden und gibt an diese auf Anforderung durch die Recheneinheit 30 ein Infrarotsignal aus, welches ein ortsaufgelöstes (und damit zweidimensionales) Infrarotbild enthält. Dabei sind die Radareinheit 10 und die Wärmebildkamera 20 so aneinander ausgerichtet, dass die Radarbilder und Infrarotbilder weitgehend denselben Bereich abbilden. Die vorliegende Erfindung ist jedoch nicht auf das Produkt A111 der Firma Acconeer beschränkt. Beispielsweise wurde auch das Nachfolgerprodukt A121, wie es im Datenblatt v1.1 vom 30. Mai 2023 beschrieben ist, erfolgreich eingesetzt.The
Die von der Radareinheit 10 und der Wärmebildkamera 20 empfangenen bzw. aus den empfangenen Signalen erzeugten Bilder werden durch die Recheneinheit 30 in ihrem Arbeitsspeicher 31 gespeichert.The images received by the
Die-Maschinen-Schnittstelle 40 ist ebenfalls über Datenleitungen mit der Recheneinheit 30 verbunden. Sie erlaubt die Steuerung des Systems 100 durch einen Benutzer U sowie die Ausgabe von Informationen an den Benutzer U. Hierfür besitzt die Maschinen-Schnittstelle 40 einen integrierten Lautsprecher 41, ein außen am Gehäuse des Systems 100 angeordnetes LCD-Farbdisplay mit Touchfunktion (also ein berührungsempfindlicher Bildschirm) 42, eine integrierte Bluetooth-Schnittstelle 43 eine integrierte Telekommunikations-Schnittstelle 44 sowie Tasten 45.The
Die Arbeitsweise der Recheneinheit 30 wird zusammen mit der Arbeitsweise der Recheneinheit 30 nachfolgend detailliert beschrieben.The operation of the
Wie in
Automatisch bei Unterschreiten eines durch die Leistungsfähigkeit der Radareinheit 10 bzw. der Wärmebildkamera 20 bedingten Abstandes zwischen dem Benutzer U und der Person P (welcher Abstand mittels der Radareinheit bestimmt wird) oder infolge einer Eingabe durch den Benutzer U auf dem LCD-Farbdisplay 42 veranlasst der Mikroprozessor 32 den Ablauf des in
Zunächst werden die Radareinheit 10 bzw. die Wärmebildkamera 20 in den Schritten S10/S20 durch die Recheneinheit 30 dazu veranlasst, ein Radarbild bzw. ein Infrarotbild der Person P zum gleichen Zeitpunkt zu erstellen und entsprechende Signale an die Recheneinheit 30 auszugeben. Dabei kann die Erstellung des eigentlichen zweidimensionalen ortsaufgelösten Bildes aus den von der Radareinheit 10 bzw. der Wärmebildkamera 20 erfassten Messwerten und an die Recheneinheit ausgegebenen Signalen durch die Radareinheit 10 bzw. die Wärmebildkamera 20 selber oder durch die Recheneinheit 30 erfolgen.First, in steps S10/S20, the
Anschließend identifiziert die Recheneinheit 30 in den Schritten S11/S21, unterstützt durch den neuromorphen Co-Prozessor 33, identische Strukturen im Radarbild und Infrarotbild und skaliert diese Bilder bzw. schneidet diese Bilder in den Schritten S12/S22 zu, bis die so bearbeiteten Bilder denselben Bereich der Person P zum Inhalt haben. Sofern die Radareinheit 10 und die Wärmebildkamera 20 so gut aneinander angepasst sind, dass die Radarbilder und Infrarotbilder immer denselben Bereich abbilden, kann auf die Schritte S11/S21 und S12/S22 verzichtet werden.Subsequently, in steps S11/S21, the
Sofern die von dem Radarbild und dem Infrarotbild verwendeten Grafikformate nicht kompatibel oder im Weiteren nicht verwendbar sind, erfolgt in den Schritten S13/S23 durch die Recheneinheit 30 eine entsprechende Konvertierung des Radarbildes und/oder des Infrarotbildes in ein (insbesondere einheitliches) Grafikformat. Natürlich können diese Schritte auch vor den Schritten S11/S21 durchgeführt werden. Weiter ist es in der Regel ausreichend, entweder das Radarbild oder das Infrarotbild in ein geeignetes Grafikformat zu konvertieren, da zumindest eines der Bilder in der Regel bereits in einem verwendbaren Format vorliegt. Vorliegend wird nur in Schritt S23 das Infrarotbild in den einen Farbwert, eine Farbsättigung und einen Hellwert aufweisenden HSV-Farbraum konvertiert, wohingegen das Radarbild bereits in diesem Format vorliegt und daher in Schritt S13 nicht konvertiert werden zu braucht. Der HSV-Farbraum hat sich als für Infrarotbilder besonders geeignet erwiesen, da Beschreibungen in Bezug auf Helligkeit und Farbton potenziell relevanter sein können.If the graphic formats used by the radar image and the infrared image are not compatible or cannot be used in the future, the
Es wird betont, dass der Schritt S13 auch vor den Schritten S11 und S12 ausgeführt werden kann. Entsprechend kann der Schritt S23 auch vor den Schritten S21 und S22 ausgeführt werdenIt is emphasized that step S13 can also be carried out before steps S11 and S12. Accordingly, step S23 can also be carried out before steps S21 and S22
In Schritt S24 wird das Komplement einer Kopie des Infrarotbilds erzeugt. Da das Infrarotbild im HSV-Farbraum mit einer Farbtiefe von 8-Bit pro Pixel vorliegt, wird dieses Komplement in der vorliegenden Ausführungsform durch mathematische Subtraktion des Wertes „255“ von jedem einzelnen Pixelwert der Kopie des Infrarotbilds mittels des Mikroprozessors 32 durchgeführt. Das so gewonnene komplementierte Infrarotbild wird in Schritt S14 vom Mikroprozessor 32 durch eine Additionsoperation mit dem ebenfalls im HSV-Farbraum vorliegenden Radarbild kombiniert, wodurch ein Zwischenbild erhalten wird. Konkret werden dabei einander räumlich entsprechende Pixelwerte des Radarbilds und des Komplement-Infrarotbilds addiert. Hierdurch wird sichergestellt, dass die im Weiteren verwendeten Bilder so robust wie möglich sind und ein Maximum an Informationen enthalten.In step S24, the complement of a copy of the infrared image is generated. Since the infrared image is in the HSV color space with a color depth of 8 bits per pixel, this complement is carried out in the present embodiment by mathematically subtracting the value "255" from each individual pixel value of the copy of the infrared image using the
In den folgenden Schritten S15/S25 wird auf die einzelnen Koordinaten (Farbwert, Farbsättigung und Hellwert) des Zwischenbildes und Infrarotbildes jeweils getrennt für jedes Bild durch die Recheneinheit 30 eine Diskrete Wavelet-Transformation angewandt. Die so gewonnenen Signale werden kombiniert und über eine inverse Diskrete Wavelet-Transformation wird durch die Recheneinheit 30 ein Kombinationsbild erstellt. Diese Kombination von Bildern mittels einer Diskrete Wavelet-Transformation erfolgt analog zu dem Verfahren, das in Abschnitt 3 des Dokuments
Auf dieses Kombinationsbild wird in Schritt S31 durch die Recheneinheit 30 das Schwellwertverfahren von Otsu (nach Nobuyuki Otsu) angewendet, um den gesuchten Bildinhalt zu betonen, Rauschen aber zu unterdrücken.In step S31, the
Im Schritt S32 wird das in Schritt S31 bearbeitete Kombinationsbild durch die Recheneinheit 30 unter Verwendung des Canny-Algorithmus (nach John Francis Canny) in ein Kantenbild umgewandelt. Dieses Kantenbild wird in den Schritten S33 und S34 durch den neuromorphen Co-Prozessor 33 untersucht. Zunächst werden in Schritt S33 mittels des YOLOv6-Algorithmus Konturen von Gegenständen bestimmt.In step S32, the combination image processed in step S31 is converted into an edge image by the
Schließlich werden die in Schritt S33 aufgefundenen Konturen von Gegenständen in Schritt S34 durch den neuromorphen Co-Prozessor 33 mittels eines entsprechend trainierten neuronalen Netzwerkes einer logistischen Regression unterworfen, bei dem in der vorliegenden Ausführungsform die beiden dichotomen Ereignisse / Klassen „Waffe“ und „keine Waffe“ betrachtet werden. Dabei werden in der vorliegenden Ausführungsform nur Konturen betrachtet, deren Flächenanteil im Bild zwischen zwei vorgebenden Schwellenwerten von 1% und 5 % liegt. Es wird die Wahrscheinlichkeit des Auftretens eines Ereignisses, in diesem Fall das Vorhandensein einer Waffe erhalten. Gemäß einer nicht gezeigten Ausführungsform ist dieser Schritt mehrstufig aufgebaut, und erfolgt bei Auftreten des Ereignisses „Waffe“ eine (oder mehrere) weitere logistische Regression in die Ereignisse / Klassen „Schusswaffe“ / „keine Schusswaffe“.Finally, the contours of objects found in step S33 are subjected to a logistic regression in step S34 by the
Falls das Ergebnis in Schritt S32 NEIN ist (also das Ereignis „keine Waffe“ ist), kehrt das Verfahren gesteuert durch die Recheneinheit 30 zum Start zurück, und die Schritte S10/S20 ff. werden erneut durchlaufen.If the result in step S32 is NO (i.e. the event is “no weapon”), the method returns to the start under the control of the
Falls das Ergebnis in Schritt S32 JA ist (also das Ereignis „Waffe“ ist), wird in Schritt S36 durch die Recheneinheit 30 geprüft, ob die Anzahl an untersuchten Bildern (die zu unterschiedlichen Zeitpunkten (z. B. zeitlich hintereinander) innerhalb einer vorgegebenen Zeitspanne von der Radareinheit und der Wärmebildkamera aufgenommen wurden) einen Schwellenwert überschreitet. Vorliegend wurde als Schwellenwert 3/sec gewählt; somit muss in wenigstens drei Bildern derselben Person eine Waffe innerhalb einer Sekunde detektiert worden sein.If the result in step S32 is YES (i.e. the event is "weapon"), in step S36 the
Falls das Ergebnis in Schritt S36 NEIN ist (also der Schwellenwert nicht überschritten wurde), kehrt das Verfahren gesteuert durch die Recheneinheit 30 zum Start zurück, und die Schritte S10/S20 ff. werden erneut durchlaufen.If the result in step S36 is NO (i.e. the threshold value was not exceeded), the method returns to the start under the control of the
Falls das Ergebnis in Schritt S36 JA ist (also der Schwellenwert überschritten wurde), steuert die Recheneinheit 30 die Mensch-Maschinen-Schnittstelle 40 so, dass der Benutzer U über das Vorhandensein der Waffe W bei der Person P informiert wird. Vorliegend gibt die Mensch-Maschinen-Schnittstelle 40 über die Bluetooth-Schnittstelle 43 eine entsprechende akustische Meldung an einen in-ear-Kopfhörer des Benutzers U aus, um diesen vor der Waffe zu warnen, ohne dass es die Person P bemerkt. Zusätzlich alarmiert die Mensch-Maschinen-Schnittstelle 40 über die Telekommunikations-Schnittstelle 44 Kollegen des Benutzers über die Konfrontation mit der Waffe. Über das LCD-Farbdisplay 42 kann sich der Benutzer U zudem ein Bild der Person P anzeigen lassen, in das die Waffe lagerichtig eingeblendet ist. Alternativ zu der Ausgabe der akustischen Meldung über die Bluetooth-Schnittstelle 43 kann auch der integrierte Lautsprecher 41 verwendet werden.If the result in step S36 is YES (i.e. the threshold value has been exceeded), the
Nach der Ausgabe des Ergebnisses von Schritt S36 über die Mensch-Maschinen-Schnittstelle 40 beendet die Recheneinheit 30 das Verfahren.After outputting the result of step S36 via the human-
Bezugszeichenlistelist of reference symbols
- 1010
- Radareinheit;radar unit;
- 1111
- Sender;transmitter;
- 1212
- EmpfängerRecipient
- 2020
- Wärmebildkamera;thermal imaging camera;
- 3030
- Recheneinheit;arithmetic unit;
- 3131
- Speicher;Memory;
- 3232
- Prozessor;Processor;
- 3333
- neuromorpher Co-Prozessor;neuromorphic co-processor;
- 4040
- Mensch-Maschine-Schnittstelle;human-machine interface;
- 4141
- Lautsprecher;loudspeaker;
- 4242
- Display;display;
- 4343
- Bluetooth-Schnittstelle;Bluetooth interface;
- 4444
- Telekommunikations-Schnittstelle;telecommunications interface;
- 4545
- Tastatur;Keyboard;
- 5050
- Energiequelle;energy source;
- 5151
- Stromanschluss;power connection;
- 100100
- Mobiles System zum Erkennen einer durch eine Person verdeckt getragenen Waffe;Mobile system for detecting a weapon concealed by a person;
- 101101
- Klammerbracket
- PP
- Person;Person;
- UU
- Benutzer;User;
- WW
- Waffe.Weapon.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 2 960 685 A2 [0005]EP 2 960 685 A2 [0005]
- EP 2 916 141 A1 [0006]EP 2 916 141 A1 [0006]
- WO 2009 / 115 818 A2 [0006]WO 2009 / 115 818 A2 [0006]
- US 2010 / 0 079 280 A1 [0006]US 2010 / 0 079 280 A1 [0006]
- US 2013 / 0 106 643 A1 [0006]US 2013 / 0 106 643 A1 [0006]
- WO 2006 / 001 821 A2 [0009]WO 2006 / 001 821 A2 [0009]
Zitierte Nicht-PatentliteraturCited non-patent literature
- Panguluri, S. K., Mohan, L. „Discrete Wavelet Transform Based Image Fusion Using Unsharp Masking“, Periodica Polytechnica Electrical Engineering and Computer Science, 64(2), pp. 211-220, 2020. https://doi.org/10.3311/ [0027, 0050]Panguluri, S. K., Mohan, L. "Discrete Wavelet Transform Based Image Fusion Using Unsharp Masking", Periodica Polytechnica Electrical Engineering and Computer Science, 64(2), pp. 211-220, 2020. https://doi.org/10.3311/ [0027, 0050]
- YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications“, beschrieben, der von https://arxiv.org/abs/2209.02976 [0030]YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications”, which is available from https://arxiv.org/abs/2209.02976 [0030]
Claims (23)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023121962.6A DE102023121962A1 (en) | 2023-08-16 | 2023-08-16 | Mobile system for detecting concealed weapons |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023121962.6A DE102023121962A1 (en) | 2023-08-16 | 2023-08-16 | Mobile system for detecting concealed weapons |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023121962A1 true DE102023121962A1 (en) | 2025-02-20 |
Family
ID=94391071
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023121962.6A Pending DE102023121962A1 (en) | 2023-08-16 | 2023-08-16 | Mobile system for detecting concealed weapons |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102023121962A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006001821A2 (en) | 2003-11-25 | 2006-01-05 | The Macaleese Companies, Inc. D.B.A. Safa Zone Systems | Object detection method and apparatus |
| WO2009115818A2 (en) | 2008-03-18 | 2009-09-24 | Manchester Metropolitan University | Remote detection and measurement of objects |
| US20100079280A1 (en) | 2008-10-01 | 2010-04-01 | Robotic Research, Llc | Advanced object detector |
| US20130106643A1 (en) | 2011-10-27 | 2013-05-02 | Raytheon Company | Rf gun barrel detection system |
| EP2916141A1 (en) | 2014-03-06 | 2015-09-09 | Acconeer AB | A transmitter-receiver system |
| EP2960685A2 (en) | 2014-06-26 | 2015-12-30 | McMASTER UNIVERSITY | On-body concealed weapon detection system |
-
2023
- 2023-08-16 DE DE102023121962.6A patent/DE102023121962A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006001821A2 (en) | 2003-11-25 | 2006-01-05 | The Macaleese Companies, Inc. D.B.A. Safa Zone Systems | Object detection method and apparatus |
| WO2009115818A2 (en) | 2008-03-18 | 2009-09-24 | Manchester Metropolitan University | Remote detection and measurement of objects |
| US20100079280A1 (en) | 2008-10-01 | 2010-04-01 | Robotic Research, Llc | Advanced object detector |
| US20130106643A1 (en) | 2011-10-27 | 2013-05-02 | Raytheon Company | Rf gun barrel detection system |
| EP2916141A1 (en) | 2014-03-06 | 2015-09-09 | Acconeer AB | A transmitter-receiver system |
| EP2960685A2 (en) | 2014-06-26 | 2015-12-30 | McMASTER UNIVERSITY | On-body concealed weapon detection system |
Non-Patent Citations (2)
| Title |
|---|
| Panguluri, S. K., Mohan, L. „Discrete Wavelet Transform Based Image Fusion Using Unsharp Masking", Periodica Polytechnica Electrical Engineering and Computer Science, 64(2), pp. 211-220, 2020. https://doi.org/10.3311/ |
| YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications", beschrieben, der von https://arxiv.org/abs/2209.02976 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yang et al. | Image fusion using nonsubsampled contourlet transform | |
| DE102013016813B4 (en) | Method of operating a portable screening device and portable screening device | |
| Cheng et al. | A novel algorithm of remote sensing image fusion based on Shearlets and PCNN | |
| Basavaprasad et al. | A study on the importance of image processing and its applications | |
| Bae | Small target detection using bilateral filter and temporal cross product in infrared images | |
| Shepp | The joint density of the maximum and its location for a Wiener process with drift | |
| DE112017000231T5 (en) | Detection of liveliness for facial recognition with deception prevention | |
| Nemalidinne et al. | Nonsubsampled contourlet domain visible and infrared image fusion framework for fire detection using pulse coupled neural network and spatial fuzzy clustering | |
| Liang | Sense-through-wall human detection based on UWB radar sensors | |
| DE102020108972A1 (en) | SYSTEM AND METHOD OF TRACKING THE MOVING OBJECTS | |
| Hussein et al. | Multisensor of thermal and visual images to detect concealed weapon using harmony search image fusion approach | |
| DE112020005560T5 (en) | Face manipulation detection using a multi-source, multi-channel frame guided by physical cues | |
| DE112013006087T5 (en) | Method for generating an image and portable screening device | |
| DE112019002382T5 (en) | Improvements in or related to the classification of threats | |
| Veal et al. | Generative adversarial networks for ground penetrating radar in hand held explosive hazard detection | |
| Wang et al. | Image fusion for synthetic aperture radar and multispectral images based on sub-band-modulated non-subsampled contourlet transform and pulse coupled neural network methods | |
| Bhatnagar et al. | A new image fusion technique based on directive contrast | |
| DE102023121962A1 (en) | Mobile system for detecting concealed weapons | |
| Trivedi et al. | MSCNN: Multisensor image fusion using dual channel CNN in transformation domain | |
| Bae et al. | Small target detection using cross product based on temporal profile in infrared image sequences | |
| Millikan et al. | Fast detection of compressively sensed IR targets using stochastically trained least squares and compressed quadratic correlation filters | |
| Xu et al. | Multisensor concealed weapon detection using the image fusion approach | |
| Rahman et al. | Multisensor multichannel image fusion based on fuzzy logic | |
| Gavrovska et al. | On luminance reduction in high dynamic range synthetic aperture radar images | |
| Xue et al. | A new method of SAR image segmentation based on the gray level co-occurrence matrix and fuzzy neural network |