HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Gebiet der Erfindungfield of invention
Ausführungsformen der vorliegenden Offenbarung betreffen ein Verfahren und eine Vorrichtung zur Verarbeitung eines akustischen Signals, um ein verarbeitetes akustisches Signal zu erzeugen, das ein verbessertes Signal-zu-Rauschen-Verhältnis hat.Embodiments of the present disclosure relate to a method and apparatus for processing an acoustic signal to generate a processed acoustic signal having an improved signal-to-noise ratio.
Beschreibung des Stands der TechnikDescription of the prior art
Die Beliebtheit von und das Zutrauen zu elektronischen Einrichtungen hat sich in dem letzten Jahrzehnt deutlich erhöht. Die Beliebtheit elektronischer Einrichtungen, etwa von intelligenten Telefonen, berührungsempfindlichen Einrichtungen, PDAs, tragbaren Computern, tragbaren Musikabspielgeräten, hat im letzten Jahrzehnt zugenommen. Video-Telefonie- und Video-Konferenz-Einrichtungen haben ebenfalls in den vergangenen Jahren an Popularität gewonnen, wobei dies im hohen Maße an der ausgeprägten Verfügbarkeit von Internet mit hoher Geschwindigkeit und Preisreduzierungen für dies ermöglichende Einrichtungen liegt. Mit der Zunahme der Anzahl elektronischer Geräte und dem Zutrauen in diese elektronischen Geräten besteht der Bedarf, dass diese Geräte ein akustisches Eingangssignal empfangen und verarbeiten, das von einem Benutzer empfangen wird, sodass die akustische Eingabe verwendet werden kann, um zu bewirken, dass eine gewünschte Aufgabe ausgeführt wird.The popularity of, and confidence in, electronic devices has increased significantly over the past decade. The popularity of electronic devices such as smart phones, touch-sensitive devices, PDAs, portable computers, portable music players has increased in the last decade. Video telephony and video conferencing facilities have also grown in popularity in recent years, in large part due to the proliferation of high speed Internet and price reductions for facilities that enable it. As the number of electronic devices and the confidence in these electronic devices increases, there is a need for these devices to receive and process an acoustic input signal received from a user so that the acoustic input can be used to cause a desired task is executed.
Es gibt seit Jahren den Wunsch, Anlagen zu bauen, die diverse Arten von einem Menschen stammende akustische Eingangssignale erkennen, verarbeiten und/oder übertragen können. Obwohl in den vergangenen Jahren damit begonnen worden ist, dieses Ziel zu realisieren, sind aktuell verfügbare Systeme nicht in der Lage, Ergebnisse zu erzeugen, die geeignet sind, in genauer Weise diese empfangenen akustischen Eingaben in Umgebungen zu erfassen, in denen Geräusche üblich oder nicht gut kontrollierbar sind. In den meisten konventionellen, ein Mikrofon enthaltenden Geräten, die geeignet sind, diverse Arten akustischer Eingangssignale zu erkennen und/oder zu verarbeiten, ist es häufig für die Elektronik, die die akustische Eingabe verarbeitet (beispielsweise Spracherkennung-Hardware), schwierig, die gewünschte menschliche Sprache von dem nicht gewünschten Rauschen bzw. den Hintergrundgeräuschen klar zu trennen. Dieses Unvermögen zum Trennen akustischer Eingangssignale von den Umgebungsgeräuschen innerhalb der Umgebung ist hauptsächlich auf die Schwierigkeiten zurückzuführen, die bei der Extraktion und der Erkennung der einzelnen Klänge beteiligt sind, die die menschliche Sprache ausmachen. Diese Schwierigkeiten sind in Umgebungen mit Rauschen noch höher. Einfach ausgedrückt, Sprache kann als eine Sequenz aus Klängen betrachtet werden, die aus Grundklängen gewonnen werden, die als „Phoneme“ bezeichnet werden, die von einem Menschen erzeugt werden. Ein oder mehrere Phoneme repräsentieren ein Wort oder einen Ausdruck. Somit ist die Extraktion der speziellen Phoneme, die in der empfangenden Sprache enthalten sind, erforderlich, um Spracherkennung zu erhalten, was in geräuschbehafteten Umgebungen häufig äußerst schwierig ist.There has been a desire for years to build systems that can detect, process, and/or transmit various types of acoustic input signals originating from a human being. Although this goal has begun to be realized in recent years, currently available systems are unable to produce results suitable for accurately capturing these received acoustic inputs in environments where noise is common or not are well controllable. In most conventional microphone-containing devices capable of recognizing and/or processing various types of acoustic input signals, it is often difficult for the electronics that process the acoustic input (e.g., speech recognition hardware) to produce the desired human To clearly separate speech from unwanted noise or background noise. This inability to separate acoustic input signals from ambient noise within the environment is primarily due to the difficulties involved in extracting and recognizing the individual sounds that make up human speech. These difficulties are even greater in noisy environments. Put simply, language can be thought of as a sequence of sounds derived from basic sounds called "phonemes" made by a human. One or more phonemes represent a word or phrase. Thus, in order to obtain speech recognition, the extraction of the specific phonemes contained in the received speech is required, which is often extremely difficult in noisy environments.
Ferner ist eine konventionelle Stimm- oder Spracherkennungs-Hardware typischerweise darauf beschränkt, Sprache innerhalb des unteren Endes des Sprachfrequenzbereichs zu erfassen, etwa ungefähr zwischen 100 Hertz (Hz) und ungefähr 3000 Hz aufgrund der Beschränkungen im Hinblick auf die Abtastfrequenz des Geräts und die Geometrie der Mikrofonanordnungen. Somit wird eine große Menge an nützlichen Daten durch diese konventionellen Verfahren verloren, da sie nicht in der Lage sind, Sprache über den vollen Sprachbereichen hinweg zu erfassen, der sich von 100 Hz bis ungefähr 8000 Hz erstreckt, und somit wird die Information, die in dem höheren Ende des Sprachbereichs, der zwischen 3000 Hz und 8000 Hz liegt, verloren.Furthermore, conventional voice or speech recognition hardware is typically limited to detecting speech within the low end of the speech frequency range, approximately between about 100 Hertz (Hz) and about 3000 Hz due to limitations on the device's sampling frequency and the geometry of the microphone arrays. Thus, a large amount of useful data is lost by these conventional methods because they are unable to detect speech over the full range of speech, extending from 100 Hz to about 8000 Hz, and thus the information contained in lost at the higher end of the speech range, which is between 3000 Hz and 8000 Hz.
Mit der Zunahme der Popularität von Spracherkennungssystemen setzen viele Benutzer diese in einer Vielzahl von Umgebungen ein. Die Verwendung dieser diversen Geräte ist in einer großen Vielfalt von moderat verrauschten bis äußerst verrauschten Umgebungen üblich, etwa in einem Büro, in einem Konferenzraum, am Flugplatz oder in Restaurants. Es gibt bereits mehrere konventionelle Verfahren zur Ausführung einer Rauschunterdrückung, jedoch können viele konventionelle Verfahren als Arten einer Filterung eingestuft werden. Im Stand der Technik werden Sprache und ein Rauschen im gleichen Eingangskanal erfasst, in dem sie in dem gleichen Frequenzband liegen und ähnliche Korrelationseigenschaften besitzen. Folglich hat das Filtern unvermeidbar eine Auswirkung sowohl auf das Sprachsignal als auch auf das Signal des Hintergrundrauschens. Die Unterscheidung zwischen Stimmsignal und Signal des Hintergrundrauschens ist eine anspruchsvolle Aufgabe. Sprachkomponenten, die von konventionellen elektronischen Geräten empfangen werden, werden gegebenenfalls als Rauschkomponenten wahrgenommen werden und können zusammen mit den Rauschkomponenten unterdrückt oder gefiltert werden. Obwohl die Spracherkennungstechnik sich zunehmend weiterentwickelt, ist eine klare Trennung der Stimmkomponente von Rauschkomponenten eines Audio-Signals erforderlich, oder, anders ausgedrückt, es ist ein hohes Signal-zu-Rauschen-Verhältnis (SNR) für akzeptable Grade an Genauigkeit in der Stimmerkennung erforderlich, oder in einigen Fällen für die Bereitstellung und Wiederherstellung des empfangenen Audio-Signals an einer entfernten Stelle.With the increase in popularity of speech recognition systems, many users employ them in a variety of environments. These diverse devices are commonly used in a wide variety of moderately noisy to extremely noisy environments, such as an office, conference room, airport, or restaurant. There are already several conventional methods for performing noise reduction, however, many conventional methods can be classified as types of filtering. In the prior art, speech and noise are detected in the same input channel because they are in the same frequency band and have similar correlation properties. Consequently, the filtering inevitably has an effect on both the speech signal and the background noise signal. Distinguishing between voice signal and background noise signal is a challenging task. Speech components received by conventional electronic devices may be perceived as noise components and may be suppressed or filtered along with the noise components. Although speech recognition technology continues to advance, a clear separation of the voiced component from noise components of an audio signal, or in other words, a high signal-to-noise ratio (SNR) is required for acceptable levels of accuracy in the voice identification required, or in some cases for the delivery and recovery of the received audio signal at a remote location.
Mit der Zunahme der Anzahl elektronischer Geräte und dem Zutrauen zu diesen elektronischen Geräten wächst ferner der Wunsch, dass die elektronischen Geräte unabhängig sind von konventionellen Leistungsquellen in Form von Steckdosen, sodass diese unabhängigen elektronischen Geräte transportabel sind. Jedoch ist die Leistungsversorgung in tragbaren elektronischen Geräten üblicherweise auf eine endliche Energiespeicherkapazität beschränkt, die durch eine Batterie gegeben ist. Die Rate des Energieverbrauchs des Geräts bestimmt die Betriebsdauer des Geräts, bis die Batterie wieder aufgeladen oder ersetzt werden muss. Daher ist es wünschenswert, Wege zu finden, um die Leistungsaufnahme der elektronischen Komponenten des tragbaren Geräts zu reduzieren, etwa von Spracherkennungselementen, um die Batteriestandzeit der tragbaren elektronischen Geräte zu verbessern.Further, with the increase in the number of electronic devices and the confidence in these electronic devices, there is a growing desire for the electronic devices to be independent of conventional power sources in the form of outlets so that these independent electronic devices are portable. However, power supply in portable electronic devices is usually limited to a finite energy storage capacity provided by a battery. The rate at which the device consumes energy determines the amount of time the device will operate before the battery needs to be recharged or replaced. Therefore, it is desirable to find ways to reduce the power consumption of the portable device's electronic components, such as speech recognition elements, in order to improve the battery life of the portable electronic devices.
US 2007/0025562 A1 beschreibt Verfahren und Geräte zur gezielten Schalldetektion. Ein Mikrofonarray hat zwei oder mehr Mikrofone. Jedes Mikrofon ist mit einer Vielzahl von Filtern gekoppelt. Die Filter sind so konfiguriert, dass sie Eingangssignale filtern, die den von den Mikrofonen erfassten Geräuschen entsprechen, und dadurch ein gefiltertes Ausgangssignal erzeugen. Ein oder mehrere Sätze von Filterparametern für die Vielzahl von Filtern werden vorkalibriert, um eine oder mehrere entsprechende vorkalibrierte Hörzonen zu bestimmen. Jeder Satz von Filterparametern wird so ausgewählt, dass Teile der Eingangssignale, die Geräuschen innerhalb einer bestimmten Hörzone entsprechen, erfasst und Geräusche, die außerhalb der bestimmten Hörzone entstehen, herausgefiltert werden. US 2007/0025562 A1 describes methods and devices for targeted sound detection. A microphone array has two or more microphones. Each microphone is paired with a variety of filters. The filters are configured to filter input signals that correspond to the noise picked up by the microphones, thereby producing a filtered output signal. One or more sets of filter parameters for the plurality of filters are pre-calibrated to determine one or more corresponding pre-calibrated listening zones. Each set of filter parameters is selected to capture portions of the input signals that correspond to noise within a specific listening zone and to filter out noise originating outside of the specific listening zone.
Eine bestimmte vorkalibrierte Hörzone wird zur Laufzeit ausgewählt, indem auf die mehreren Filter ein Satz von Filterkoeffizienten angewendet wird, der der bestimmten vorkalibrierten Hörzone entspricht. Infolgedessen kann das Mikrofonarray Geräusche erkennen, die innerhalb des bestimmten Hörbereichs entstehen, und Geräusche herausfiltern, die außerhalb des bestimmten Hörbereichs entstehen.A particular pre-calibrated listening zone is selected at runtime by applying to the plurality of filters a set of filter coefficients corresponding to the particular pre-calibrated listening zone. As a result, the microphone array can detect noise originating within the specific listening area and filter out noise originating outside of the specific listening area.
Daher besteht ein Bedarf für ein elektronisches Gerät bzw. eine elektronische Einrichtung, mit dem die zuvor beschriebenen Probleme gelöst werden. Ferner besteht ein Bedarf für ein elektronisches Gerät, das in der Lage ist, unerwünschtes Rauschen aus einem akustischen Eingangssignal, das von einer akustischen Quelle empfangen wird, effizient auszufiltern.Therefore, there is a need for an electronic device that solves the problems described above. There is also a need for an electronic device capable of efficiently filtering unwanted noise from an input acoustic signal received from an acoustic source.
ÜBERBLICK ÜBER DIE ERFINDUNGOVERVIEW OF THE INVENTION
Die obenstehende Bedarfe werden von der elektronischen Einrichtung gemäß dem Patentanspruch 1 erfüllt. Weitere vorteilhafte Ausführungsformen sind in den abhängen Patentansprüchen beschrieben.The above needs are met by the electronic device according to claim 1. Further advantageous embodiments are described in the dependent patent claims.
Figurenlistecharacter list
Um die zuvor angegebenen Merkmale der Erfindung im Detail verständlich zu machen, wird eine speziellere Beschreibung der Erfindung, die zuvor kurz zusammengefasst ist, durch Verweis auf Ausführungsformen angegeben, von denen einige in den angefügten Zeichnungen dargestellt sind. Es ist jedoch zu beachten, dass die angefügten Zeichnungen lediglich typische Ausführungsformen dieser Erfindung darstellen und nicht dazu beabsichtigt sind, den Schutzbereich zu beschränken, da die Erfindung andere gleichermaßen wirksame Ausführungsformen ermöglicht.
- 1A ist eine schematische Ansicht, die ein Beispiel eines Akustiksignal-Verarbeitungssystems gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung darstellt.
- 1B ist eine Draufsicht des in 1A gezeigten Akustiksignal-Verarbeitungssystems, ohne dass ein zentrales Mikrofon gezeigt ist, gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
- 1C ist eine schematische Blockansicht von Bauteilkomponenten, die in dem in 1A gezeigten Akustiksignal-Verarbeitungssystem vorhanden sind, gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung.
- 2A ist eine Ansicht, die eine Draufsicht eines Akustiksignal-Verarbeitungssystems und einer akustischen Quelle gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung zeigt.
- 2B ist ein Graph, der die Zeitverzögerung darstellt, die sich für jedes der in 2A dargestellten Mikrofone ergibt, wenn ein akustisches Signal aus der akustischen Quelle jedem der Mikrofone zugeführt wird.
- 3A ist ein Graph, der ein zusammengesetztes akustisches Signal zeigt, das von einem Mikrofon in dem Akustiksignal-Verarbeitungssystem gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung empfangen werden kann.
- 3B enthält Graphen, die die diversen Komponenten darstellen, die in den zusammengesetzten akustischen Signal vorhanden sind, das in 3A dargestellt ist.
- 4A ist eine schematische Ansicht, die ein Beispiel einer Akustiksignal-Verarbeitungseinrichtung zeigt, die in dem Akustiksignal-Verarbeitungssystem gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung vorhanden ist.
- 4B ist eine schematische Ansicht, die Bereiche der Akustiksignal-Verarbeitungseinrichtung, die in 4A gezeigt ist, gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung zeigt.
- 4C ist eine schematische Ansicht, die ein Richtungserfassungselement der Akustiksignal-Verarbeitungseinrichtung gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung zeigt.
- 4D zeigt ein Verfahren zur Ausführung einer ersten Art einer Signalverarbeitungstechnik gemäß einer Ausführungsform der vorliegenden Offenbarung.
- 4E zeigt ein Verfahren zur Ermittlung einer gewünschten Richtung, aus der ein akustisches Signal empfangen wird, gemäß einer Ausführungsform der vorliegenden Offenbarung.
- 4F zeigt ein Verfahren zur Ausführung einer zweiten Art einer Signalverarbeitungstechnik gemäß einer Ausführungsform der vorliegenden Offenbarung.
- 5A ist eine Draufsicht eines Akustiksignal-Verarbeitungssystems mit drei Mikrofonen gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung.
- 5B ist eine Draufsicht des in 5A dargestellten Akustiksignal-Verarbeitungssystems, das mehrere Erfassungsabschnitte aufweist, die verwendet werden können, um die Richtung einer akustischen Quelle gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung zu ermitteln.
- 5C ist ein Graph, der Gewichtungskoeffizienten darstellt, die verwendet werden können, um die Richtung einer akustischen Quelle gemäß einer Ausführungsform der vorliegenden Offenbarung zu ermitteln.
- 6A-6C zeigen Beispiele von Herzkurvenmustern, die bei unterschiedlichen Frequenzen durch die Verwendung einer ersten Signalverarbeitungstechnik gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung erzeugt werden.
- 6D ist eine Draufsicht eines Akustiksignal-Verarbeitungssystems mit sieben Mikrofonen gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung.
- 7A-7C zeigen Beispiele von Strahlformungsmustern, die bei unterschiedlichen Frequenzen durch die Verwendung einer zweiten Signalverarbeitungstechnik gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung erzeugt werden.
- 8A-8C zeigen Beispiele von Mustern, die bei unterschiedlichen Frequenzen durch Verwendung einer ersten Signalverarbeitungstechnik und einer zweiten Signalverarbeitungstechnik gemäß einer Ausführungsform der hierin bereitgestellten Offenbarung erzeugt werden.
In order that the features of the invention set forth above may be understood in detail, a more specific description of the invention, briefly summarized above, is given by reference to embodiments, some of which are illustrated in the accompanying drawings. However, it should be noted that the attached drawings represent only typical embodiments of this invention and are not intended to limit the scope, the invention allowing other equally effective embodiments. - 1A 12 is a schematic view illustrating an example of an acoustic signal processing system, in accordance with one or more embodiments of the present disclosure.
- 1B is a plan view of the in 1A acoustic signal processing system shown without a center microphone shown, in accordance with one or more embodiments of the present disclosure.
- 1C Fig. 12 is a schematic block diagram of assembly components included in Fig 1A acoustic signal processing system shown are present, in accordance with one or more embodiments of the present disclosure.
- 2A 12 is a view showing a top view of an acoustic signal processing system and an acoustic source, in accordance with one or more embodiments of the present disclosure.
- 2 B is a graph depicting the time delay experienced for each of the in 2A microphones shown results when an acoustic signal from the acoustic source is supplied to each of the microphones.
- 3A FIG. 14 is a graph showing a composite acoustic signal that may be received by a microphone in the acoustic signal processing system in accordance with one or more embodiments of the present disclosure.
- 3B contains graphs representing the various components present in the composite acoustic signal emitted in 3A is shown.
- 4A 12 is a schematic view showing an example of an acoustic signal processing device included in the acoustic signal processing system according to one or more embodiments of the present disclosure.
- 4B Fig. 12 is a schematic view showing portions of the acoustic signal processing device shown in Fig 4A is shown, in accordance with one or more embodiments of the present disclosure.
- 4C 12 is a schematic view showing a direction detection element of the acoustic signal processing device according to one or more embodiments of the present disclosure.
- 4D FIG. 1 shows a method for performing a first type of signal processing technique, according to an embodiment of the present disclosure.
- 4E FIG. 12 shows a method for determining a desired direction from which an acoustic signal is received, according to an embodiment of the present disclosure.
- 4F 10 illustrates a method of performing a second type of signal processing technique, in accordance with an embodiment of the present disclosure.
- 5A 12 is a top view of a three microphone acoustic signal processing system according to an embodiment of the disclosure provided herein.
- 5B is a plan view of the in 5A 1 shows an acoustic signal processing system having a plurality of acquisition sections that can be used to determine the direction of an acoustic source according to an embodiment of the disclosure provided herein.
- 5C FIG. 14 is a graph depicting weighting coefficients that may be used to determine the direction of an acoustic source, according to an embodiment of the present disclosure.
- 6A-6C 12 show examples of heart wave patterns generated at different frequencies through the use of a first signal processing technique according to an embodiment of the disclosure provided herein.
- 6D 12 is a top view of a seven microphone acoustic signal processing system according to an embodiment of the disclosure provided herein.
- 7A-7C 12 show examples of beamforming patterns generated at different frequencies through the use of a second signal processing technique according to an embodiment of the disclosure provided herein.
- 8A-8C 12 show examples of patterns generated at different frequencies by using a first signal processing technique and a second signal processing technique according to an embodiment of the disclosure provided herein.
Zur Erleichterung des Verständnisses sind gleiche Bezugszeichen verwendet, wenn dies möglich ist, um identische Elemente zu bezeichnen, die in den Figuren gemeinsam auftreten. Es ist zu beachten, dass Elemente, die in einer Ausführungsform offenbart sind, vorteilhafterweise auch in anderen Ausführungsformen ohne speziellen Verweis verwendbar sind. Die Zeichnungen, auf die hier Bezug genommen wird, sollten nicht als maßstabsgetreu verstanden werden, sofern dies nicht anderweitig angegeben ist. Des Weiteren sind die Zeichnungen häufig vereinfacht und Details oder Komponenten sind zur einfacheren Darstellung und Erläuterung weggelassen. Die Zeichnungen und die Erläuterung dienen zum Erklären von nachfolgend erläuterten Prinzipien, wobei gleiche Bezeichnungen gleiche Elemente bezeichnen.To facilitate understanding, the same reference numbers are used, where possible, to designate identical elements that appear together in the figures. It should be noted that elements disclosed in one embodiment may be used to advantage in other embodiments without specific reference. The drawings referred to herein should not be understood to be to scale unless otherwise indicated. Furthermore, the drawings are often simplified, and details or components are omitted for ease of illustration and explanation. The drawings and explanation serve to explain principles explained below, where like designations indicate like elements.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
In der folgenden Beschreibung sind zahlreiche spezielle Details angegeben, um ein gründlicheres Verständnis der Ausführungsformen der vorliegenden Erfindung zu ermöglichen. Jedoch erkennt der Fachmann, dass eine oder mehrere der Ausführungsformen der vorliegenden Offenbarung ohne eines oder mehrere dieser speziellen Details praktiziert werden können. In anderen Fällen sind gut bekannte Merkmale nicht beschrieben, um ein Überfrachten einer oder mehrerer der Ausführungsformen der vorliegenden Offenbarung zu vermeiden.In the following description, numerous specific details are set forth to provide a more thorough understanding of embodiments of the present invention. However, those skilled in the art will recognize that one or more embodiments of the present disclosure may be practiced without one or more of these specific details. In other instances, well-known features are not described to avoid obscuring one or more embodiments of the present disclosure.
Ausführungsformen der Offenbarung umfassen generell ein Verfahren und eine Vorrichtung zum Empfangen und Separieren bzw. Abtrennen von unerwünschtem externen Rauschen bzw. von unerwünschten Geräuschen aus einer akustischen Eingabe, die aus einer akustischen Quelle empfangen wird. Ausführungsformen der Offenbarung können ein Akustiksignal-Verarbeitungssystem umfassen, das mehrere Einrichtungen zur Erfassung akustischer Signale (beispielsweise Mikrofone) enthält, die so angeordnet und ausgebildet sind, dass sie ein akustisches Signal erfassen, das erzeugt und dem Akustiksignal-Verarbeitungssystem aus einer beliebigen Position oder einem Winkel innerhalb des dreidimensionalen (3-D) Raums zugeführt wird. Das Akustiksignal-Verarbeitungssystem ist ausgebildet, die durch jede der mehreren Einrichtungen zur Erfassung von akustischen Signalen empfangenen akustischen Signale unter Anwendung einer ersten Signalverarbeitungstechnik, die in der Lage ist, unerwünschtes Rauschen mit niedriger Frequenz von den erfassten akustischen Signalen zu trennen, und unter Verwendung einer zweiten Signalverarbeitungstechnik auszuwerten, die in der Lage ist, unerwünschtes Rauschen in einem Bereich höherer Frequenzen von den erfassten akustischen Signalen zu trennen. Das Akustiksignal-Verarbeitungssystem ist sodann ausgebildet, die mittels der ersten und der zweiten Signalverarbeitungstechnik verarbeiteten Signale zu kombinieren, um ein gewünschtes akustisches Signal zu erzeugen, das ein hohes Signal-zu-Rauschen-Verhältnis innerhalb eines gewünschten Frequenzbereichs, etwa des vollen Sprachbereichs, hat.Embodiments of the disclosure generally include a method and apparatus for receiving and separating unwanted external noise or noise from an acoustic input received from an acoustic source. Embodiments of the disclosure may include an acoustic signal processing system that includes a plurality of acoustic signal detection devices (e.g., microphones) arranged and configured to detect an acoustic signal that generates and communicates with the acoustic signal processing system from any location or location angle within three-dimensional (3-D) space. The acoustic signal processing system is configured to process the acoustic signals received by each of the plurality of acoustic signal detectors using a first signal processing technique capable of separating unwanted low frequency noise from the detected acoustic signals, and using a second signal processing technique capable of separating unwanted noise in a higher frequency range from the detected acoustic signals. The acoustic signal processing system is then configured to combine the signals processed by the first and second signal processing techniques to produce a desired acoustic signal having a high signal-to-noise ratio within a desired frequency range, such as the full speech range .
In einigen Konfigurationen ist das Akustiksignal-Verarbeitungssystem so gestaltet, dass es tragbar ist und somit mit einer Energiequelle betrieben wird, die eine darin begrenzte Energiemenge gespeichert hat (beispielsweise Batterie). Daher kann in einigen Fällen das Akustiksignal-Verarbeitungssystem ferner ausgebildet sein, die unerwünschten externen Geräusche bzw. das externe Rauschen aus einem empfangenen akustischen Eingangssignal mit einer Effizienz zu empfangen und zu trennen, sodass die Betriebsdauer des tragbaren Akustiksignal-Verarbeitungssystems verlängert wird. Das Akustiksignal-Verarbeitungssystem kann ferner ausgebildet sein, ein akustisches Signal aus einer externen Quelle zu empfangen, unerwünschtes Rauschen in effizienter Weise aus dem empfangenen akustischen Signal zu entfernen oder davon zu trennen und anschließend das verarbeitete akustische Signal einer Softwareanwendung zuzuführen, die ausgebildet ist, auf der Grundlage des verarbeiteten akustischen Signals eine weitere Verarbeitung und/oder eine gewünschte Aktion vorzunehmen. Das Akustiksignal-Verarbeitungssystem kann ferner ausgebildet sein, das verarbeitete akustische Signal einer weiteren elektronischen Einrichtung zuzuführen, die ausgebildet ist, die empfangene Information derart zu empfangen und zu verarbeiten, dass die zweite Einrichtung eine gewisse gewünschte Aktivität ausführen kann.In some configurations, the acoustic signal processing system is designed to be portable and thus operates from an energy source that has a limited amount of energy stored therein (e.g., battery). Therefore, in some cases, the acoustic signal processing system may be further configured to receive and separate the unwanted external noise from a received input acoustic signal with an efficiency such that the service life of the portable acoustic signal processing system is extended. The acoustic signal processing system may be further configured to receive an acoustic signal from an external source, efficiently remove or separate unwanted noise from the received acoustic signal, and then provide the processed acoustic signal to a software application configured to perform further processing and/or a desired action based on the processed acoustic signal. The acoustic signal processing system can also be designed to supply the processed acoustic signal to a further electronic device which is designed to receive and process the received information in such a way that the second device can carry out a certain desired activity.
1A ist eine schematische Ansicht, die ein Beispiel eines Akustiksignal-Verarbeitungssystems 100 gemäß einer oder mehreren Ausführungsformen der vorliegenden Offenbarung zeigt. 1B ist eine Ansicht, die eine Draufsicht des Akustiksignal-Verarbeitungssystems 100 darstellt, das in 1A gezeigt ist. Das Akustiksignal-Verarbeitungssystem 100 beinhaltet im Allgemeinen eine elektronische Einrichtung 102. Die elektronische Einrichtung 102 kann eine Recheneinrichtung sein, die als eine autarke elektronische Einrichtung verwendbar ist, oder kann eine elektronische Einrichtung sein, die in Verbindung mit anderen elektronischen Einrichtungen verwendet werden kann. In einem Beispiel, wie in 1A gezeigt ist, ist die elektronische Einrichtung 102 in der Lage, mit einer separaten zweiten elektronischen Einrichtung 195 über eine verdrahtete oder drahtlose Kommunikationsverbindung 194 in Verbindung zu treten. Alternativ ist in einem weiteren Beispiel die elektronische Einrichtung 102 eine Komponente in der zweiten elektronischen Einrichtung 195. In beiden Fällen können die elektronische Einrichtung 102 und/oder die zweite elektronische Einrichtung 195 ein drahtloser Lautsprecher, eine Video-Kameraeinrichtung, die eine CCD-Kamera enthält, eine Tastatur, ein intelligentes Telefon, eine Sprecheinrichtung, ein Heimautomatisierungsgerät oder eine andere geeignete elektronische Einrichtung sein. In einem Beispiel kann die elektronische Einrichtung 102 oder die zweite elektronische Einrichtung 195 ein Ultimate Ears Boom-Lautsprecher, eine Harmony-Universalfernsteuerung oder eine Logitech Connect- oder eine Logitech BCC 950-Video-Konferenzeinrichtung sein, die von Logitech USA, Newark CA oder Logitech Europa S.A aus Lausanne, Schweiz erhältlich ist. Die elektronische Einrichtung 102 oder die zweite elektronische Einrichtung 195 kann auch ein iPod, ein iPhone, ein iPad, ein Android-Telefon, ein Samsung Galaxy, eine Squeeze-Box, Microsoft Service, ein tragbarer Rechner oder eine ähnliche Einrichtung sein. Obwohl die nachfolgende Erläuterung im Wesentlichen Beispiele eines Akustiksignal-Verarbeitungssystems 100 beschreibt oder bereitstellt, das ein autarkes tragbares elektronisches Gerät ist, soll dieser Aufbau nicht als Beschränkung des Schutzbereichs der hierin bereitgestellten Offenbarung betrachtet werden. 1A 1 is a schematic view showing an example of an acoustic signal processing system 100 according to one or more embodiments of the present disclosure. 1B FIG. 12 is a view showing a top view of the acoustic signal processing system 100 shown in FIG 1A is shown. The acoustic signal processing system 100 generally includes an electronic device 102. The electronic device 102 may be a computing device usable as a stand-alone electronic device or may be an electronic device that may be used in conjunction with other electronic devices. In an example, as in 1A As shown, the electronic device 102 is capable of communicating with a separate second electronic device 195 via a wired or wireless communication link 194 . Alternatively, in another example, the electronic device 102 is a component in the second electronic device 195. In either case, the electronic device 102 and/or the second electronic device 195 can be a wireless speaker, a video camera device that includes a CCD camera , keyboard, smart phone, intercom, home automation device, or other suitable electronic device. In one example, electronic device 102 or second electronic device 195 may be an Ultimate Ears Boom speaker, a Harmony universal remote control, or a Logitech Connect or Logitech BCC 950 video conferencing device manufactured by Logitech USA, Newark CA, or Logitech Europa SA of Lausanne, Switzerland. The electronic device 102 or the second electronic device 195 may also be an iPod, iPhone, iPad, Android phone, Samsung Galaxy, squeeze box, Microsoft Service, portable calculator, or similar device. Although the discussion below generally describes or provides examples of an acoustic signal processing system 100 that is a self-contained portable electronic device, this configuration should not be construed as limiting the scope of the disclosure provided herein.
Die elektronische Einrichtung 102 enthält mehrere Akustiksignal-Erfassungseinrichtungen, die in einer geometrischen Anordnung über eine oder mehrere Oberflächen der elektronischen Einrichtung 102 hinweg angeordnet sind. In einigen Ausführungsformen kann die geometrische Anordnung der Akustiksignal-Erfassungseinrichtungen, oder im weiteren als Mikrofone 101 bezeichnet, in einer zweidimensionalen (2-D) Anordnung aus Mikrofonen 101 oder einer dreidimensionalen (3-D) Anordnung aus Mikrofonen vorgesehen sein, die Mikrofone 101 und ein oder mehrere Mikrofone 121 aufweisen kann. The electronic device 102 includes a plurality of acoustic signal detection devices arranged in a geometric array across one or more surfaces of the electronic device 102 . In some embodiments, the geometric arrangement of the acoustic signal detection devices, or hereinafter referred to as microphones 101, can be provided in a two-dimensional (2-D) arrangement of microphones 101 or a three-dimensional (3-D) arrangement of microphones, the microphones 101 and may have one or more microphones 121 .
Die elektronische Einrichtung 102 kann eine beliebige gewünschte Form haben, etwa die in 1A gezeigte Zylinderform, und kann eine oder mehrere Außenflächen aufweisen, auf denen eines oder mehrere der Mikrofone 101, 121 angeordnet sein können, etwa eine obere Fläche 106, eine Seitenfläche 108 und eine Stützfläche bzw. Haltefläche 107. Die Haltefläche 107 ist eine Oberfläche, auf der die gesamte elektronische Einrichtung 102 während des normalen Betriebs positioniert sein kann. Obwohl ferner 1A-1B, 2A, 5A-5B und 6D die Mikrofone 101, 121 so zeigen, dass sie auf einer Oberfläche der elektronischen Einrichtung 102 angeordnet sind oder sich daraus erstrecken, soll dieser Aufbau nicht den Schutzbereich der hierin bereitgestellten Offenbarung beschränken, da die Mikrofone 101, 121 auch so angeordnet sein können, dass die Außenfläche der Mikrofone bündig oder eingesenkt zu der Fläche ist, auf der sie angeordnet sind. Obwohl zum Zwecke der Vereinfachung der Erläuterung die folgende Offenbarung im Wesentlichen eine Erläuterung in Bezug auf eine geometrische Anordnung beinhaltet, die eine zweidimensionale (2-D) Anordnung aus Mikrofonen enthält, soll dieser Aufbau nicht den Schutzbereich der Offenbarung, die hierin bereitgestellt ist, darauf beschränken, da dreidimensionale (3-D) Mikrofonanordnungen ebenso in einer oder mehreren der hierin offenbarten Ausführungsformen angewendet werden können. Eine geometrische Anordnung aus Mikrofonen kann mindestens drei Mikrofone oder zum Beispiel fünf Mikrofone 101 aufweisen, wie in 1B gezeigt ist, oder kann sogar sieben Mikrofone aufweisen, wie in 6D gezeigt ist. Jedoch kann es in einigen Fällen wünschenswert sein, nur zwei Mikrofone 101 vorzusehen. Die Mikrofone 101 können eine beliebige Art einer elektrischen Einrichtung sein, die in der Lage ist, Luftdruckschwankungen einer Schallwelle in ein elektrisches Signal umzuwandeln, und sie können somit, ohne auf ein dynamisches Mikrofon einschränken zu wollen, ein Kondensatormikrofon, ein piezoelektrisches Mikrofon, ein faseroptisches Mikrofon, ein Bandmikrofon, ein MEMS-Mikrofon oder eine andere ähnliche Einrichtung einschließen. In einigen Ausführungsformen sind die Mikrofone 101 Rundum-Mikrofone, die in der Lage sind, akustische Signale aus allen Richtungen zu erfassen.Electronic device 102 may have any desired form, such as that shown in FIG 1A shown cylindrical shape, and may have one or more outer surfaces on which one or more of the microphones 101, 121 can be arranged, such as a top surface 106, a side surface 108 and a support surface or holding surface 107. The holding surface 107 is a surface on of the entire electronic device 102 during of normal operation. Although further 1A-1B , 2A , 5A-5B and 6D Showing the microphones 101, 121 arranged on or extending from a surface of the electronic device 102, this arrangement is not intended to limit the scope of the disclosure provided herein, as the microphones 101, 121 can also be arranged so that the External surface of the microphones is flush or recessed with the surface on which they are placed. Although for the purpose of simplifying the explanation, the following disclosure essentially includes an explanation in terms of a geometric arrangement containing a two-dimensional (2-D) array of microphones, this arrangement is not intended to exceed the scope of the disclosure provided herein be limited, as three-dimensional (3-D) microphone arrays may also be employed in one or more of the embodiments disclosed herein. A geometric arrangement of microphones can have at least three microphones or, for example, five microphones 101, as in 1B is shown, or may even have seven microphones as in 6D is shown. However, in some cases it may be desirable to have only two microphones 101 . The microphones 101 can be any type of electrical device capable of converting barometric pressure fluctuations of a sound wave into an electrical signal, and thus, without being limited to a dynamic microphone, they can be a condenser microphone, a piezoelectric microphone, a fiber optic Include microphone, ribbon microphone, MEMS microphone or other similar device. In some embodiments, microphones 101 are omnidirectional microphones capable of detecting acoustic signals from all directions.
In einigen Ausführungsformen sind die Mikrofone 101 in einer zweidimensionalen (2-D) geometrischen Anordnung über die obere Fläche 106 und/oder die Seitenfläche 108 der elektronischen Einrichtung 102 hinweg angeordnet. In einem Beispiel, wie in 1A und 1B gezeigt ist, ist die geometrische Anordnung aus Mikrofonen 101 gleichmäßig über die Seitenfläche 108 verteilt. Wie in 1B dargestellt ist, sind fünf Mikrofone 101 in der geometrischen Anordnung gleichmäßig in einer kreisförmigen Anordnung über die Seitenfläche 108 hinweg so verteilt, dass jedes Mikrofon 101 mit einem Abstand 105 von einem Mittelpunkt 103 angeordnet ist und ein gleicher Winkelabstand 104 dazwischen vorgesehen ist (beispielsweise 72°). Im Allgemeinen sind die Mikrofone 101 in der elektronischen Einrichtung 102 so angeordnet, dass alle Mikrofone 101 in einer geometrischen Anordnung (beispielsweise einer 2-D-Anordnung oder 3-D-Anordnung) derart angeordnet sind, dass die elektronische Einrichtung 102 akustische Signale, die aus einer beliebigen Richtung eintreffen, besser erfassen und einen Fehler der erfassten Richtung der empfangenen akustischen Signaldaten verhindern kann, wie er in konventionellen geradlinigen Mikrofonkonfigurationen üblich ist. Somit ist die elektronische Einrichtung 102 in der Lage, ein akustisches Signal „A“, das von einer akustischen Quelle 150 bereitgestellt wird, die mit einem Abstand im dreidimensionalen Raum in Bezug auf das Akustiksignal-Verarbeitungssystem 100 angeordnet ist, zu empfangen, und anschließend die empfangenen akustischen Signale derart zu verarbeiten, dass andere unerwünschte akustische Signale, die von anderen Quellen bereitgestellt werden, die an anderen Positionen in Bezug auf das Akustiksignal-Verarbeitungssystem 100 angeordnet sind, vorzugsweise ausgeschlossen werden.In some embodiments, the microphones 101 are arranged in a two-dimensional (2-D) geometric array across the top surface 106 and/or the side surface 108 of the electronic device 102 . In an example, as in 1A and 1B is shown, the geometric arrangement of microphones 101 is evenly distributed over the side surface 108 . As in 1B 1, five microphones 101 are evenly distributed in the geometric array in a circular array across side face 108 such that each microphone 101 is spaced a distance 105 from a center point 103 and has an equal angular spacing 104 therebetween (e.g., 72° ). In general, the microphones 101 are arranged in the electronic device 102 such that all of the microphones 101 are arranged in a geometric arrangement (e.g. a 2-D array or 3-D array) such that the electronic device 102 generates acoustic signals that arriving from any direction, and avoiding error in the detected direction of the received acoustic signal data, which is common in conventional rectilinear microphone configurations. Thus, the electronic device 102 is capable of receiving an acoustic signal "A" provided by an acoustic source 150 located at a distance in three-dimensional space with respect to the acoustic signal processing system 100, and then the to process received acoustic signals such that other undesired acoustic signals provided by other sources located at other positions with respect to the acoustic signal processing system 100 are preferably excluded.
1C ist eine schematische Ansicht, die eine elektronische Anordnung 135 in dem Akustiksignal-Verarbeitungssystem 100 gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt. Generell enthält die elektronische Anordnung 135 einen Prozessor 118, einen nicht-flüchtigen Speicher 122, eine Leistungsquelle 130 und eine Akustiksignal-Verarbeitungseinrichtung 400. Während des Betriebs ist die elektronische Einrichtung 102 ausgebildet, mehrere akustische Signale, die ein akustisches Signal „A“ enthalten, aus mehreren Mikrofonen 101 zu empfangen. Die Akustiksignal-Verarbeitungseinrichtung 400 und der Prozessor 118 empfangen dann die erfassten akustischen Signale von jedem der Mikrofone 101 und verarbeiten die erfassten Eingangssignale, um das unerwünschte externe Rauschen bzw. die externen Geräusche aus dem gewünschten akustischen Signal zu entfernen oder zu separieren. Das verarbeitete akustische Signal kann dann verwendet werden, um eine weitere Aufgabe mittels des Akustiksignal-Verarbeitungssystems 100 oder durch eine andere nachgeordnete Einrichtung auszuführen. 1C 13 is a schematic view showing an electronic assembly 135 in the acoustic signal processing system 100 according to an embodiment of the present disclosure. In general, the electronic assembly 135 includes a processor 118, non-volatile memory 122, a power source 130, and an acoustic signal processing device 400. During operation, the electronic device 102 is configured to generate a plurality of acoustic signals, including an acoustic signal "A". from multiple microphones 101 to receive. The acoustic signal processor 400 and processor 118 then receive the detected acoustic signals from each of the microphones 101 and process the detected input signals to remove or separate the unwanted external noise or sounds from the desired acoustic signal. The processed acoustic signal can then be used to perform another task by the acoustic signal processing system 100 or by other downstream equipment.
Die Akustiksignal-Verarbeitungseinrichtung 400 beinhaltet generell elektrische Komponenten, die in effizienter Weise einen gewünschten Bereich bzw. einen Anteil eines akustischen Signals in dem empfangenen Rauschen unter Anwendung einer Niederfrequenz-Signalverarbeitungstechnik und einer Signalverarbeitungstechnik bei höherer Frequenz trennen können. Es wird angenommen, dass die von der Akustiksignal-Verarbeitungseinrichtung 400 ausgeführten Prozesse die Fehlerrate reduzieren, die angetroffen wird, wenn das verarbeitete akustisches Signal in einer nachfolgenden Stimmerkennung bzw. Spracherkennung, Sprachkommunikation, sprachaktivierten elektronischen Gerätesteuerung und/oder einem Spracherkennungsvorgang verwendet wird, im Vergleich zu akustischen Signalen, die durch konventionelle Rauschauslöschungs- oder Rauschunterdrückungstechniken, die heute üblich sind, erzeugt werden. Die hierin beschriebenen Prozesse sind ferner geeignet, die Betriebsdauer des Akustiksignal-Verarbeitungssystems 100 zu verlängern, bevor eine neue Ladung oder ein Austausch der Leistungsquelle 130 erforderlich ist. Obwohl die hierin beschriebene Leistungsquelle 130 eine Batterie mit einschließen kann, kann die elektronische Einrichtung 102 zeitweilig Leistung aus einer verdrahteten Verbindung mit einer Steckdose, einem verdrahteten Ladegerät oder ähnlichen Einrichtungen aufnehmen, ohne dass damit von dem grundlegenden Bereich der hierin bereitgestellten Offenbarung abgewichen wird.The acoustic signal processor 400 generally includes electrical components that can efficiently separate a desired portion of an acoustic signal from received noise using a low frequency signal processing technique and a higher frequency signal processing technique. The processes performed by the acoustic signal processor 400 are believed to reduce the error rate encountered when the processed acoustic signal is used in a subsequent voice recognition, voice communication, voice-activated electronic device control, and/or voice recognition process, in comparison to acoustic signals generated by conventional noise cancellation or noise suppression techniques that are common today will. The processes described herein are also capable of extending the operational life of the acoustic signal processing system 100 before a recharge or replacement of the power source 130 is required. Although the power source 130 described herein may include a battery, the electronic device 102 may temporarily receive power from a wired connection to an outlet, wired charger, or similar device without departing from the basic scope of the disclosure provided herein.
Die elektronische Anordnung 135 kann den Prozessor 118, der mit Eingabe/Ausgabe-(I/O-) Einrichtungen 116 verbunden ist, die Leistungsquelle 130 und die nichtflüchtige Speichereinheit 122 aufweisen. Die Speichereinheit 122 kann eine oder mehrere Software-Anwendungen 124 enthalten, etwa das steuernde Software-Programm, das nachfolgend beschrieben ist. Die Speichereinheit 122 kann ferner gespeicherte Medien-Daten 126 enthalten, die von dem Prozessor 118 verwendet werden, um diverse Teile der hierin beschriebenen Verfahren auszuführen. Der Prozessor 118 kann eine Hardware-Einheit oder eine Kombination aus Hardware-Einheiten sein, die in der Lage sind, Software-Anwendungen auszuführen und Daten zu verarbeiten. In einigen Konfigurationen beinhaltet der Prozessor 118 eine zentrale Verarbeitungseinheit (CPU), einen digitalen Signalprozessor (DSP), eine anwendungsspezifische integrierte Schaltung (ASIC) und/oder eine Kombination derartiger Einheiten. Der Prozessor 118 ist im Allgemeinen ausgebildet, die eine oder die mehreren Software-Anwendungen 124 auszuführen und die gespeicherten Medien-Daten 126 zu verarbeiten, die jeweils in der Speichereinheit 122 liegen können.Electronic assembly 135 may include processor 118 coupled to input/output (I/O) devices 116, power source 130, and non-volatile memory unit 122. Storage unit 122 may contain one or more software applications 124, such as the controlling software program described below. Storage unit 122 may also include stored media data 126 used by processor 118 to perform various portions of the methods described herein. Processor 118 may be a hardware device or combination of hardware devices capable of executing software applications and processing data. In some configurations, processor 118 includes a central processing unit (CPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), and/or a combination of such units. The processor 118 is generally configured to execute the one or more software applications 124 and to process the stored media data 126, each of which may reside in the storage unit 122.
Die I/O-Einrichtungen 116 sind mit der Speichereinheit 122 und dem Prozessor 118 verbunden und können Geräte mit einschließen, die in der Lage sind, eine Eingabe zu empfangen, und/oder Geräte, die in der Lage sind, eine Ausgabe bereit zu stellen. Die I/O-Einrichtungen 116 umfassen die Audio-Verarbeitungseinrichtung 117, die die Batterieleistung und ein Eingangssignal 104 erhält und das Ausgangssignal 106 erzeugt, das von dem Lautsprechersystem 111 empfangen und dann ausgegeben werden kann. Die I/O-Einrichtungen 116 können ferner einen oder mehrere drahtlose Sender/Empfänger 120 umfassen, die ausgebildet sind, eine oder mehrere unterschiedliche Arten von verdrahteten oder drahtlosen Kommunikationsverbindungen zu anderen Sender/Empfängern, die in anderen Recheneinrichtungen liegen, herzustellen. Ein gegebener Sender/Empfänger in den I/O-Einrichtungen 116 könnte beispielsweise eine Wi-Fi-Kommunikationsverbindung, eine Nahbereichs-Kommunikationsverbindung (NFC) oder eine Bluetooth-Kommunikationsverbindung (zum Beispiel BTLE, Bluetooth-Klassik) aus einer Reihe von Arten von Kommunikationsverbindungen mit ähnlichen Komponenten in der zweiten elektronischen Einrichtung 195 herstellen. In einigen Ausführungsformen sind elektronische Komponenten in der I/O-Einrichtung 116 ausgebildet, Signale, die von der Akustiksignal-Verarbeitungseinrichtung 400 verarbeitet sind, an andere interne elektronische Komponenten zu übertragen, die in dem Akustiksignal-Verarbeitungssystem 100 liegen, und/oder zu elektronischen Einrichtungen zu übertragen, die außerhalb des Akustiksignal-Verarbeitungssystems 100 liegen, wie nachfolgend erläutert ist.I/O devices 116 are coupled to memory unit 122 and processor 118 and may include devices capable of receiving input and/or devices capable of providing output . The I/O devices 116 include the audio processing device 117 which receives battery power and an input signal 104 and generates the output signal 106 which can be received by the speaker system 111 and then output. The I/O devices 116 may further include one or more wireless transceivers 120 configured to establish one or more different types of wired or wireless communication links to other transceivers residing in other computing devices. For example, a given transceiver in I/O devices 116 could be a Wi-Fi communication link, a short-range (NFC) communication link, or a Bluetooth communication link (e.g., BTLE, Bluetooth Classic) from a variety of communication link types with similar components in the second electronic device 195. In some embodiments, electronic components in the I/O device 116 are configured to transmit signals processed by the acoustic signal processing device 400 to other internal electronic components residing in the acoustic signal processing system 100 and/or to electronics devices external to the acoustic signal processing system 100, as discussed below.
Die Speichereinheit 122 kann eine beliebige technisch machbare Art von Hardware-Einheit sein, die zur Speicherung von Daten ausgebildet ist. Beispielsweise kann die Speichereinheit 122 eine Festplatte, ein Modul mit Speicher mit wahlfreiem Zugriff (RAM), eine Flash-Speichereinheit oder eine Kombination unterschiedlicher Hardware-Einheiten sein, die zur Speicherung von Daten ausgebildet sind. Die Software-Anwendung 124, die in der Speichereinheit 122 gespeichert ist, kann einen Programmcode enthalten, der von dem Prozessor 118 ausführbar ist, um diverse Funktionen auszuführen, die mit der elektronischen Einrichtung 102 im Zusammenhang stehen. Die gespeicherten Medien-Daten 126 können eine beliebige Art von Information enthalten, die einen gewünschten Steuerparameter betreffen, eine Quasi-Richtungsinformation, eine berechnete Zeitverzögerungsinformation, eine Rauschsignal-RMS-Information, Benutzerdaten, Daten zur Konfiguration der elektronischen Einrichtung, Gerätesteuerungsregeln oder andere zweckdienliche Information, die nachfolgend erläutert wird. Die gespeicherten Medien-Daten 126 können Information enthalten, die der Quelle 150 oder einer weiteren elektronischen Einrichtung zugeführt und/oder davon empfangen wird, etwa der zweiten elektronischen Einrichtung 195. Die gespeicherten Medien-Daten 126 können diverse Datendateien, Einstellungen und/oder Parameter wiedergeben, die mit der Umgebung der Steuerung der Akustiksignal-Verarbeitungseinrichtung und/oder einem gewünschten Verhalten der elektronischen Einrichtung 102 im Zusammenhang stehen.Storage unit 122 may be any technically feasible type of hardware unit configured to store data. For example, storage device 122 may be a hard drive, a random access memory (RAM) module, a flash memory device, or a combination of different hardware devices configured to store data. Software application 124 stored on storage unit 122 may include program code executable by processor 118 to perform various functions associated with electronic device 102 . The stored media data 126 may include any type of information pertaining to a desired control parameter, quasi-directional information, calculated time delay information, noise signal RMS information, user data, electronic device configuration data, device control rules, or other pertinent information , which is explained below. Stored media data 126 may include information provided to and/or received from source 150 or another electronic device, such as second electronic device 195. Stored media data 126 may represent various data files, settings, and/or parameters associated with the acoustic signal processing device control environment and/or a desired behavior of the electronic device 102 .
Wie zuvor erläutert ist, ist während des Betriebs die elektronische Einrichtung 102 ausgebildet, ein akustisches Signal „A“ (beispielsweise einen Sprachbefehl, ein akustisches Signal) durch Verwendung mehrerer Mikrofone 101 zu erfassen und anschließend empfangene akustische Signale unter Anwendung der Akustiksignal-Verarbeitungseinrichtung 400 derart zu verarbeiten, dass die verarbeiteten akustischen Signale verwendet werden können, um eine gewünschte Aufgabe oder eine Aktivität zur akustischen Signalverarbeitung mittels des Akustiksignal-Verarbeitungssystems 100 oder einer anderen elektronischen Einrichtung auszuführen, etwa eine Spracherkennung, eine Sprachkommunikation, eine sprachaktivierte Steuerung eines elektronischen Geräts und/oder eine andere zweckdienliche durch ein akustisches Signal aktivierte Aufgabe oder Aktivität. Abhängig von der Position der akustischen Quelle 150 in Bezug auf die Mikrofone 101 in der elektronischen Einrichtung 102 gibt es jedoch eine Verzögerung in zeitlicher Hinsicht, wenn jedes Mikrofon das gleiche akustische Signal empfängt. Im Allgemeinen umfassen Sprachkommunikationstechniken eine beliebige Art eines 2-Wege-Kommunikationsprozesses, etwa einen Audio-Chat, einen Video-Chat, einen Sprachanruf oder eine andere ähnliche Kommunikationstechnik.As previously explained, during operation the electronic device 102 is configured to detect an acoustic signal "A" (e.g. a voice command, an acoustic signal) by using a plurality of microphones 101 and subsequently received acoustic signals using the acoustic signal processing device 400 in such a way to process that the processed acoustic signals can be used to perform a desired task or activity perform acoustic signal processing using acoustic signal processing system 100 or other electronic device, such as voice recognition, voice communication, voice-activated control of an electronic device, and/or any other useful acoustic signal-activated task or activity. However, depending on the position of the acoustic source 150 in relation to the microphones 101 in the electronic device 102, there is a delay in terms of time when each microphone receives the same acoustic signal. In general, voice communication techniques include any type of 2-way communication process, such as audio chat, video chat, voice call, or other similar communication technique.
2A zeigt eine Konfiguration, in der die akustische Quelle 150 mit einem ersten Abstand 201A zu einem ersten Mikrofon 101A, mit einem zweiten Abstand 201 B zu einem zweiten Mikrofon 101B und mit einem dritten Abstand 201C zu einem dritter Mikrofon 101C angeordnet ist. Auf der Grundlage einer Annahme der Schallwellenausbreitung im Fernfeld ist die Zeitverzögerung, die von dem Mikrofon 101B und dem Mikrofon 101C im Vergleich zu dem ersten Mikrofon 101A, das am nächsten zu der Schallquelle 150 angeordnet ist, erfahren wird, gleich dem Abstand 202A zwischen dem ersten Mikrofon 101A und dem zweiten Mikrofon 101B in der Richtung des empfangenen akustischen Signals und dem Abstand 202B zwischen dem ersten Mikrofon 101A und dem dritten Mikrofon 101C in der Richtung des empfangenen akustischen Signals. 2B zeigt die Verzögerungen, die von den Mikrofonen 101A-101C gesehen werden, wenn sie jeweils die gleichen akustischen Signale 210A-210C erfassen, die von der Quelle 150 erzeugt werden. Neben den von den Mikrofonen 101A-101C empfangenen akustischen Signalen werden auch akustische Signale von anderen unerwünschten Quellen 155 zu diversen unterschiedlichen Zeiten aufgrund der relativen Position jedes Mikrofons in Bezug auf die diversen unerwünschten Quellen 155 empfangen. Die Signale aus diesen unerwünschten Quellen 155 können die elektronische Einrichtung 102 daran hindern oder dabei beeinträchtigen, die gewünschte Information zu erfassen, die in dem aus der Quelle 150 erfassten akustischen Signal vorhanden ist. 2A Figure 12 shows a configuration in which the acoustic source 150 is arranged at a first distance 201A from a first microphone 101A, at a second distance 201B from a second microphone 101B and at a third distance 201C from a third microphone 101C. Based on an assumption of sound wave propagation in the far field, the time delay experienced by microphone 101B and microphone 101C compared to the first microphone 101A located closest to sound source 150 is equal to the distance 202A between the first Microphone 101A and the second microphone 101B in the direction of the received acoustic signal and the distance 202B between the first microphone 101A and the third microphone 101C in the direction of the received acoustic signal. 2 B Figure 12 shows the delays seen by microphones 101A-101C when they detect the same acoustic signals 210A-210C produced by source 150, respectively. In addition to the acoustic signals received by microphones 101A-101C, acoustic signals from other unwanted sources 155 are also received at various different times due to the relative position of each microphone with respect to the various unwanted sources 155. The signals from these unwanted sources 155 can prevent or interfere with the electronic device 102 from detecting the desired information present in the acoustic signal detected from the source 150 .
Man erkennt, dass die Verzögerung, die ein Mikrofon gegenüber einem weiteren Mikrofon wahrnimmt, gleich den Differenzen im Abstand jedes Mikrofons von der Quelle und der Schallgeschwindigkeit (beispielsweise 340,3 m/s auf Meereshöhe) ist. Wie in 2B dargestellt, wird das akustische Signal 210 A, das von dem Mikrofon 101A zum Zeitpunkt tA empfangen wird, und somit die Verzögerung, die das Mikrofon 101B hat, wenn es das akustische Signal 210B zu der Zeit empfängt, wenn das Mikrofon 101A das akustische Signal 210A empfängt, gleich tB - tA ist. Die Verzögerung, die das Mikrofon 101C in Bezug auf das Mikrofon 101A aufgrund des Zeitpunkts seines Empfangs des akustischen Signals 210C im Vergleich zum Empfang des akustischen Signals 210A durch das Mikrofon 101A hat, beträgt tC - tA. Somit hängt die Zeitverzögerung, die jedes Mikrofon im Vergleich zu anderen Mikrofonen innerhalb der geometrischen Anordnung aus Mikrofonen wahrnimmt, von der relativen Orientierung und der Position der akustischen Quelle in Bezug auf jedes der Mikrofone und deren relativen Abstand in Bezug zueinander ab. Während der Verarbeitung der empfangenen akustischen Signale durch das Akustiksignal-Verarbeitungssystem 100 können einige zusätzliche durch die Signalverarbeitung begründete zeitliche Verzögerungen, etwa Verzögerungen in der Abtastrate, erzeugt werden.It can be seen that the delay experienced by one microphone relative to another microphone is equal to the difference in each microphone's distance from the source and the speed of sound (e.g. 340.3 m/s at sea level). As in 2 B is the acoustic signal 210A received by the microphone 101A at time t A , and thus the delay that the microphone 101B has when it receives the acoustic signal 210B at the time when the microphone 101A hears the acoustic signal 210A receives, equals t B - t A . The delay that microphone 101C has with respect to microphone 101A due to the timing of its receipt of acoustic signal 210C compared to when microphone 101A received acoustic signal 210A is t C -t A . Thus, the time delay experienced by each microphone compared to other microphones within the geometric array of microphones depends on the relative orientation and position of the acoustic source with respect to each of the microphones and their relative spacing with respect to one another. During the processing of the received acoustic signals by the acoustic signal processing system 100, some additional time delays caused by the signal processing, such as delays in the sample rate, may be introduced.
3H zeigt ein zusammengesetztes akustisches Signal 301, das von einem einzelnen Mikrofon in der Anordnung aus Mikrofonen, das in der elektronischen Einrichtung 102 vorhanden ist, empfangen wird. Das zusammengesetzte akustische Signal 301 enthält typischerweise ein gewünschtes akustisches Signal, das von einer gewünschten akustischen Quelle bereitgestellt wird, und mehrere andere akustische Signale, die aus anderen unerwünschten Quellen empfangen werden. 3B zeigt eine mögliche Konfiguration eines zusammengesetzten akustischen Signals 301, das ein konstantes akustisches Rauschsignal 311 enthält, das aus einer ersten Rauschquelle (beispielsweise unerwünschten Quellen 155) stammt, ein gewünschtes akustisches Signal 312 enthält, das von einer gewünschten akustischen Quelle (beispielsweise die Quelle 150) bereitgestellt wird, und ein zweites akustisches Rauschsignal 313 enthält, das von einer zweiten Rauschquelle (beispielsweise den unerwünschten Quellen 155) stammt. Daher enthält das zusammengesetzte akustische Signal 301 mehrere akustische Signale, die in mehreren akustischen Quellen erzeugt werden, und die das gewünschte akustische Signal 312 aus einer gewünschten akustischen Quelle enthalten. In einem Beispiel, wie dies in 3A dargestellt ist, wird das gewünschte akustische Signal 312 durch ein Mikrofon zwischen Zeitpunkten t1 und t5 empfangen und hat im zeitlichen Verlauf eine variierende Intensität bei unterschiedlichen Frequenzen. Davon unabhängig kann das Konstante akustische Rauschsignal 311 aus diversen üblichen Rauschquellen bzw. Geräuschquellen stammen, die in industriellen Umgebungen, Büroumgebungen oder sogar in der Umgebung eines Konferenzraums anzutreffen sind, etwa durch Lüfter, Beleuchtung, HVAC-Einheiten oder andere übliche akustische Quellen, und diese können in einigen Fällen ein akustisches Niederfrequenzsignal enthalten. Das zweite akustische Rauschsignal 313 kann akustische Signale enthalten, die durch andere akustische Quellen erzeugt werden, etwa Stimmen von anderen Personen in einem Raum, durch einen lokalen Lautsprecher abgespielte Musik, oder andere unerwünschte Rauschquellen. Das zweite akustische Rauschsignal 313 enthält typischerweise akustische Signale, die bei beliebiger Frequenz zu einem beliebigen Zeitpunkt auftreten können. In einem Beispiel, wie in 3B dargestellt ist, kann das zweite akustische Rauschsignal 313 von dem Zeitpunkt t2 bis t4 reichen und kann sich zu unterschiedlichen Zeiten in Frequenz und Intensität ändern. 3H FIG. 12 shows a composite acoustic signal 301 received by a single microphone in the array of microphones present in the electronic device 102. FIG. Composite acoustic signal 301 typically includes a desired acoustic signal provided by a desired acoustic source and multiple other acoustic signals received from other undesired sources. 3B Figure 12 shows one possible configuration of a composite acoustic signal 301, which includes a constant noise acoustic signal 311 originating from a first noise source (e.g. unwanted sources 155), a desired acoustic signal 312 originating from a desired acoustic source (e.g. source 150) is provided, and includes a second acoustic noise signal 313 originating from a second noise source (e.g., unwanted sources 155). Therefore, the composite acoustic signal 301 includes multiple acoustic signals generated in multiple acoustic sources and includes the desired acoustic signal 312 from a desired acoustic source. In an example like this in 3A As shown, the desired acoustic signal 312 is received by a microphone between times t 1 and t 5 and has a varying intensity at different frequencies over time. Separately, the constant acoustic noise signal 311 can originate from various common noise sources found in industrial environments, office environments, or even a conference room environment, such as fans, lighting, HVAC units, or other common acoustic sources, and these may, in some cases, contain a low-frequency acoustic signal. The second acoustic noise signal 313 can be acous contain table signals generated by other acoustic sources, such as voices from other people in a room, music played through a local speaker, or other unwanted noise sources. The second acoustic noise signal 313 typically contains acoustic signals that can occur at any frequency at any time. In an example, as in 3B As illustrated, the second acoustic noise signal 313 may range from time t 2 to t 4 and may vary in frequency and intensity at different times.
Man erkennt, dass der Zeitpunkt, an welchem jede Komponenten des zusammengesetzten akustischen Signals 301 jedes Mikrofon erreicht, sich zumindest in einer Eigenschaft in Abhängigkeit von dem Abstand der diversen Quellen im Vergleich zu jedem der Mikrofone innerhalb der Anordnung aus Mikrofonen, die in der elektronischen Anordnung 102 vorhanden ist, unterscheidet. Anders ausgedrückt, es unterscheidet sich die Zeit, in der das zweite akustische Rauschsignal 313 und das gewünschte akustische Signal 312 zeitlich überlappen, und die durch jedes Mikrofon erfasst wird, und somit sind der Phasenzusammenhang und die Verzögerung für jede Art einer empfangenen akustischen Signalkomponente von Mikrofon zu Mikrofon unterschiedlich zueinander.It will be appreciated that the time at which each component of the composite acoustic signal 301 reaches each microphone will vary in at least one property depending on the spacing of the various sources compared to each of the microphones within the array of microphones used in the electronic assembly 102 is present differs. In other words, the time at which the second acoustic noise signal 313 and the desired acoustic signal 312 overlap in time and which is detected by each microphone differs, and thus the phase relationship and the delay for each type of acoustic signal component received by microphone differs to microphone different from each other.
Daher besteht ein Ziel der Akustiksignal-Verarbeitungseinrichtung 400 in der elektronischen Einrichtung 102 darin, möglichst viel von dem akustischen Signal, das aus der ersten und der zweiten Art an Rauschquellen empfangen wird, zu entfernen, sodass das gewünschte akustische Signal 312 davon getrennt werden kann. Nach der Trennung kann das gewünschte akustische Signal 312 dann einer Software-Anwendung zugeführt werden, die ausgebildet ist, das gewünschte akustische Signal weiter zu verarbeiten, sodass eine gewisse gewünschte Aktivität auf der Grundlage des Empfangs des gewünschten akustischen Signal 312 ausgeführt werden kann. In einigen Ausführungsformen enthält das gewünschte akustisches Signal 312 Sprache eines Benutzers, die Information über den vollen Sprachbereich enthält, der sich typischerweise von 100 Hz bis ungefähr 8000 Hz erstreckt.Therefore, a goal of the acoustic signal processing device 400 in the electronic device 102 is to remove as much as possible of the acoustic signal received from the first and second types of noise sources so that the desired acoustic signal 312 can be separated therefrom. After separation, the desired audible signal 312 may then be provided to a software application configured to further process the desired audible signal such that some desired activity may be performed based on the receipt of the desired audible signal 312 . In some embodiments, the desired acoustic signal 312 includes a user's speech, which contains information over the full range of speech, typically extending from 100 Hz to about 8000 Hz.
Die Gestaltung und der Aufbau der Mikrofone in einer geometrischen Anordnung in der elektronischen Einrichtung 102 können auf der Grundlage einer Ausgewogenheit zwischen der Anforderung, eine Mikrofonanordnungskonfiguration zu haben, die einen gewünschten Abstand hat, um sicherzustellen, dass die Richtung des empfangenen akustischen Signals in genauer Weise ermittelt werden kann, wie dies nachfolgend weiter erläutert ist, gegenüber der Notwendigkeit ausgewählt werden, wonach sichergestellt ist, dass die Signalverarbeitungstechnik (beispielsweise Herzkurve und/oder Strahlform) vorzugsweise unerwünschte Geräusche bzw. unerwünschtes Rauschen über den vollen Sprachbereich auslöschen kann, ohne dass die Signalverarbeitungstechnik weder an dem oberen Ende noch an dem unteren Ende des Frequenzbereichs versagt. Es wird angenommen, dass die meisten konventionellen räumlichen Rauschunterdrückungstechniken, die heutzutage verwendet werden, nicht in der Lage sind, am oberen Ende der Frequenzen zu arbeiten oder dass sie dort ineffektiv sind, aufgrund von Beschränkungen oder Randbedingungen im Mikrofonabstand, und daher sind die meisten Spracherkennungen oder andere ähnliche Programme nicht in der Lage, die im oberen Rand des Sprachbereichs enthaltene Information effektiv zu nutzen, etwa zwischen 4000 Hz und 8000 Hz.The design and construction of the microphones in a geometric array in the electronic device 102 may be based on a balance between the need to have a microphone array configuration that is a desired spacing to ensure that the direction of the received acoustic signal is accurate can be determined, as will be explained further below, versus the need to ensure that the signal processing technique (e.g. cardiac waveform and/or beam shape) can preferentially cancel unwanted noise over the full speech range without affecting the signal processing technique does not fail at either the high end or the low end of the frequency range. It is believed that most conventional spatial noise reduction techniques in use today are unable or ineffective to operate at the high end of frequencies due to microphone spacing limitations or constraints, and hence most speech recognition or other similar programs are unable to use effectively the information contained in the upper end of the speech range, say between 4000 Hz and 8000 Hz.
4A-4C sind schematische Ansichten, die diverse Komponenten auf Systemebene zeigen, die die Akustiksignal-Verarbeitungseinrichtung 400 bilden, die ausgebildet ist, die akustischen Signale, die aus dem in 5A dargestellten Akustiksignal-Verarbeitungssystem 100 empfangen werden, zu verarbeiten. Obwohl das in 5A dargestellte Akustiksignal-Verarbeitungssystem 100 und der größte Anteil der nachfolgenden Erläuterung einen Aufbau beschreiben, in welchem drei Mikrofone 101A-1 01C in einer ebenen kreisförmigen Anordnung entlang der Außenfläche 108 des Akustiksignal-Verarbeitungssystems 100 angeordnet sind, so soll dieser Aufbau nicht als einschränkend für den Schutzbereich der hierin bereitgestellten Offenbarung betrachtet werden. Es können auch andere Positionen, Orientierungen und eine andere Anzahl an Mikrofonen verwendet werden, um einen oder mehrere Aspekte der hierin bereitgestellten Offenbarung umzusetzen. 4A-4C 12 are schematic views showing various system-level components that make up the acoustic signal processing device 400 that is configured to process the acoustic signals generated from FIG 5A acoustic signal processing system 100 illustrated. Although that's in 5A Although the acoustic signal processing system 100 illustrated and most of the following discussion describe a configuration in which three microphones 101A-101C are arranged in a planar circular array along the exterior surface 108 of the acoustic signal processing system 100, this configuration should not be considered limiting of the scope of the disclosure provided herein. Other positions, orientations, and numbers of microphones may also be used to implement one or more aspects of the disclosure provided herein.
4A ist eine schematische Darstellung einer Ausführungsform des Gesamtsystems, das verwendet werden kann, um die Akustiksignal-Verarbeitungseinrichtung 400 zu bilden. Die Akustiksignal-Verarbeitungseinrichtung 400 enthält ein optionales Mikrofonverstärkungselement 420, ein Richtungserfassungselement 430, einen ersten Signalprozessor 405, einen zweiten Signalprozessor 407, ein oder mehrere Nachverarbeitungselemente 451, 452 und ein Signalkombinierelement 414. Das Signalkombinierelement 414 stellt dann das verarbeitete akustische Signal (beispielsweise das gewünschte akustisches Signal) für ein nachgeordnetes Element 415 bereit. Das nachgeordnete Element 415 kann eine Software-Anwendung oder eine andere elektronische Einrichtung umfassen, die das verarbeitete akustische Signal zur Ausführung einer gewissen gewünschten Aktivität verwendet. Die diversen Elemente und/oder Komponenten, die hierin in Verbindung mit der Akustiksignal-Verarbeitungseinrichtung 400 beschrieben sind, können durch die Verwendung diverser analoger und digitaler elektrischer Komponenten eingerichtet werden, die in Kombination mit einem steuernden Software-Programm oder steuernden Software-Programmen verwendet werden, die durch die Verwendung des Prozessors 118, der I/O-Einrichtungen 116 und der Speichereinheit 122 ausgeführt werden. In einigen Ausführungsformen können das bzw. die steuernden Software-Programm bzw. Programme und diverse Komponenten in der Akustiksignal-Verarbeitungseinrichtung 400, etwa das Richtungserfassungselement 430, der erste Signalprozessor 405 und der zweite Signalprozessor 407, durch die Verwendung eines physikalischen oder akustischen Befehls, der von einem Benutzer erhalten wird, in einen aktiven Zustand versetzt werden. In einer Ausführungsform sind das bzw. die steuernden Softwareprogramme und die diversen Komponenten in der Akustiksignal-Verarbeitungseinrichtung 400 in einem Energiesparzustand, bis ein physikalischer oder akustischer Befehl von einem Benutzer erhalten wird. In einer Ausführungsform sind das bzw. die steuernden Software-Programme und diversen Komponenten in der Akustiksignal-Verarbeitungseinrichtung 400 in einem Energiesparzustand, bis ein akustisches Signal, das einen Akustiksignal-Sollpegel hat, von einem Benutzer empfangen wird. Gemäß 3A vergleichen in einem Beispiel das eine oder die mehreren steuernden Software-Programme ein empfangenes zusammengesetztes akustisches Signal 301 mit einem festgelegten Akustiksignalpegel 321, der als ein Parameter im Speicher gespeichert ist, um zu ermitteln, ob das empfangene zusammengesetzte akustisches Signal 301 den Akustiksignalpegel 321 übersteigt, und ob somit ein gewünschtes akustisches Signal von einem Benutzer an einem oder mehreren Zeitpunkten empfangen worden ist. In anderen Ausführungsformen sind das eine oder die mehreren steuernden Software-Programme stets im Hintergrund aktiv, wenn die elektronische Einrichtung 102 eingeschaltet ist. 4A FIG. 4 is a schematic representation of one embodiment of the overall system that may be used to form acoustic signal processing device 400. FIG. The acoustic signal processing device 400 contains an optional microphone amplification element 420, a direction detection element 430, a first signal processor 405, a second signal processor 407, one or more post-processing elements 451, 452 and a signal combining element 414. The signal combining element 414 then represents the processed acoustic signal (e.g. the desired acoustic signal) for a downstream element 415 ready. The downstream element 415 may comprise a software application or other electronic device that uses the processed acoustic signal to perform some desired activity. The various elements and/or components described herein in connection with the acoustic signal processing device 400 may, through the uses tion of various analog and digital electrical components used in combination with a controlling software program or programs executed through the use of processor 118, I/O devices 116 and memory unit 122. In some embodiments, the controlling software program or programs and various components in the acoustic signal processing device 400, such as the direction detection element 430, the first signal processor 405 and the second signal processor 407, through the use of a physical or acoustic command, the received from a user can be placed in an active state. In one embodiment, the controlling software program(s) and the various components within the acoustic signal processing device 400 are in a power saving state until a physical or acoustic command is received from a user. In one embodiment, the controlling software program(s) and various components within acoustic signal processing device 400 are in a power saving state until an acoustic signal having a desired acoustic signal level is received from a user. According to 3A in one example, the one or more controlling software programs compare a received composite acoustic signal 301 with a specified acoustic signal level 321 stored as a parameter in memory to determine whether the received composite acoustic signal 301 exceeds the acoustic signal level 321, and thus whether a desired acoustic signal has been received from a user at one or more points in time. In other embodiments, the one or more controlling software programs are always active in the background when the electronic device 102 is powered on.
4B ist eine schematische Darstellung der diversen Schaltungselemente, die in dem ersten Signalprozessor 405 und dem zweiten Signalprozessor 407 vorzufinden sind, wie dies nachfolgend erläutert wird. 4C ist eine schematische Darstellung der diversen Schaltungselemente, die in dem Richtungserfassungselement 430 der Akustiksignal-Verarbeitungseinrichtung 400 vorgefunden werden, die ebenfalls nachfolgend weiter erläutert sind. 4B Figure 12 is a schematic representation of the various circuit elements found in the first signal processor 405 and the second signal processor 407, as discussed below. 4C 12 is a schematic representation of the various circuit elements found in the direction sensing element 430 of the acoustic signal processing device 400, which are also discussed further below.
Das optionale Mikrofonverstärkungselement 420 enthält typischerweise Mikrofonsignal-Verstärkungseinstellelemente, die ausgebildet sind, den Signalpegel eines Eingangssignals, das aus jedem der Mikrofone in der geometrischen Anordnung aus Mikrofonen empfangen wird, einzustellen. Wie in 4A dargestellt, sind die Mikrofonsignal-Verstärkungseinstellelemente 401A-401C ausgebildet, unabhängig den Signalpegel des jeweils aus den Mikrofonen 101A-101C empfangenen Eingangssignals einzustellen derart, dass die eintreffenden Signalpegel, die von dem jeweiligen Mikrofon bereitgestellt werden, ähnlich sind, wenn sie von den diversen Elementen in der Akustiksignal-Verarbeitungseinrichtung 400 verarbeitet werden. Ein Mikrofonsignal-Verstärkungseinstellelement 401 enthält analoge und digitale elektrische Schaltungskomponenten, die ausgebildet und eingestellt sind, eine gewünschte Verstärkung für ein vorgelagertes Mikrofon 101 bereitzustellen.The optional microphone gain element 420 typically includes microphone signal gain adjustment elements configured to adjust the signal level of an input signal received from each of the microphones in the microphone array. As in 4A As shown, the microphone signal gain adjustment elements 401A-401C are configured to independently adjust the signal level of the input signal received from the microphones 101A-101C, respectively, such that the incoming signal levels provided by the respective microphone are similar when received from the various elements are processed in the acoustic signal processing device 400. A microphone signal gain adjustment element 401 contains analog and digital electrical circuit components which are designed and adjusted to provide a desired gain for an upstream microphone 101 .
Gemäß 4A und 5A ist die Akustiksignal-Verarbeitungseinrichtung 400 ausgebildet, die aus den mehreren Mikrofonen 101A-101C empfangenen akustischen Signale unter Anwendung einer ersten Signalverarbeitungstechnik, die von dem ersten Signalprozessor 405 ausgeführt wird, und einer zweiten Signalverarbeitungstechnik zu verarbeiten, die von dem zweiten Signalprozessor 407 ausgeführt wird. Die Akustiksignal-Verarbeitungseinrichtung 400 ist sodann ausgebildet, die durch den ersten und den zweiten Signalprozessor 405 und 407 verarbeiteten Signale durch Verwenden des Signalkombinierelements 414 zu kombinieren, um ein gewünschtes akustisches Signal zu erzeugen, das ein hohes Signal-zu-Rauschen-Verhältnis im gesamten gewünschten Frequenzbereich hat, etwa in dem vollen Sprachbereich. Ein Signal-zu-Rauschen-Verhältnis kann definiert und/oder gemessen werden als das Verhältnis einer Leistung eines gewünschten Signals zur Rauschleistung, und dies wird häufig in Dezibel ausgedrückt.According to 4A and 5A the acoustic signal processor 400 is configured to process the acoustic signals received from the plurality of microphones 101A-101C using a first signal processing technique performed by the first signal processor 405 and a second signal processing technique performed by the second signal processor 407. The acoustic signal processor 400 is then configured to combine the signals processed by the first and second signal processors 405 and 407 by using the signal combining element 414 to produce a desired acoustic signal having a high signal-to-noise ratio throughout desired frequency range, such as in the full speech range. A signal-to-noise ratio can be defined and/or measured as the ratio of a desired signal's power to the noise power, and this is often expressed in decibels.
Beispiel des ersten SignalprozessorsExample of the first signal processor
In einigen Ausführungsformen ist der erste Signalprozessor 405 ausgebildet, unerwünschtes niederfrequentes Rauschen aus den erfassten akustischen Signalen, die aus zwei oder mehr der Mikrofone in der geometrischen Mikrofonanordnung empfangen werden, abzutrennen, während der zweite Signalprozessor 407 im Allgemeinen ausgebildet ist, unerwünschtes Rauschen mit höherer Frequenz aus den erfassten akustischen Signalen, die von allen Mikrofonen in der geometrischen Anordnung empfangen werden, abzutrennen.In some embodiments, the first signal processor 405 is configured to separate unwanted low-frequency noise from the detected acoustic signals received from two or more of the microphones in the geometric microphone array, while the second signal processor 407 is configured to generally separate unwanted higher-frequency noise from the detected acoustic signals received by all microphones in the geometric array.
Im Allgemeinen ist der erste Signalprozessor 405 ausgebildet, ein Rauschen bzw. Geräusche, die am unteren Ende des Frequenzbereich des akustischen Signals liegen, aus dem empfangenen zusammengesetzten akustischen Signal zu entfernen, wobei eine Rauschunterdrückungstechnik mit Herzkurve verwendet wird. Um die erste Signalverarbeitungstechnik auszuführen, beinhaltet oder verwendet der erste Signalprozessor 405 Teile des steuernden Software-Programms und diverse analoge und digitale Hardware-Komponenten, um die hierin beschriebenen gewünschten Prozesse auszuführen. In einigen Ausführungsformen beinhaltet der erste Signalprozessor 405 Elemente, die in einem digitalen Signalprozessor-(DSP-) Modul ausgebildet sind. In einigen Ausführungsformen ist der erste Signalprozessor 405 ausgebildet, das unerwünschte Rauschen aus dem gewünschten akustischen Signal unter Anwendung einer Herzkurven-Signalverarbeitungstechnik zu entfernen oder abzutrennen. Die Herzkurven-Signalverarbeitungstechnik, die von dem ersten Signalprozessor 405 ausgeführt wird, ist im Wesentlichen ausgebildet, Rauschen, das aus einer achsenabweichenden Richtung in Bezug auf die Richtung einer gewünschten akustischen Signalquelle empfangen wird, unter Anwendung eines Musters reduzieren, das ähnlich zu Längsstrahler-Herzkurve ist. 6A-6C zeigen die diversen, auf einer Herzkurve beruhenden Muster, die unter Anwendung zweier Mikrofone, die mit festgelegtem Abstand voneinander entfernt sind, bei diversen unterschiedlichen Frequenzen erzeugt werden. Wie nachfolgend näher erläutert ist, kann die steuernde Software, die in der Akustiksignal-Verarbeitungseinrichtung 400 verwendet ist, zwei oder mehr Mikrofone in der geometrischen Anordnung nutzen, um unerwünschtes niederfrequentes Rauschen aus den erfassten akustischen Signalen unter Anwendung einer Technik mit einer Herzkurve erster Ordnung, einer Herzkurve zweiter Ordnung, einer Hyper-Herzkurve, einer Super-Herzkurve oder einer anderen Herzkurven-Technik zu trennen.In general, the first signal processor 405 is configured to remove noise, which is at the lower end of the frequency range of the acoustic signal, from the received composite acoustic signal using a heart curve noise reduction technique. To perform the first signal processing technique, the first signal processor 405 includes or uses portions of the controlling software program and various analog and digital hardware components to perform the perform desired processes described herein. In some embodiments, the first signal processor 405 includes elements formed in a digital signal processor (DSP) module. In some embodiments, the first signal processor 405 is configured to remove or separate the unwanted noise from the desired acoustic signal using a heart-wave signal processing technique. The cardiac waveform signal processing technique performed by the first signal processor 405 is essentially designed to reduce noise received from an off-axis direction relative to the direction of a desired acoustic signal source using a pattern similar to longitudinal radiating cardiac waveform is. 6A-6C show the various heart-curve-based patterns generated using two microphones spaced a fixed distance apart at various different frequencies. As discussed in more detail below, the controlling software used in the acoustic signal processor 400 may utilize two or more microphones in the geometric array to remove unwanted low-frequency noise from the detected acoustic signals using a first-order heart-curve technique, a second order cardioid, hyper cardioid, super cardioid, or other cardioid technique.
In einigen Ausführungsformen wird die Herzkurve erster Ordnung durch den ersten Signalprozessor 405 durch die Verwendung zweier akustischer Signaleingaben erzeugt, die entlang einer Richtung liegen, die ausgerichtet ist zu der Richtung, in der das akustische Signal aus der akustischen Signalquelle empfangen wird. In einer Ausführungsform wird die Herzkurve erster Ordnung unter Anwendung zweier akustischer Signaleingaben erzeugt, die aus zwei der Mikrofone empfangen werden, die in der geometrischen Anordnung aus Mikrofonen liegen. Zusätzlich oder alternativ, wie dies nachfolgend näher erläutert ist, wird das Herzkurven-Muster durch Mittelung der Eingangssignale aus zwei Mikrofonen erzeugt, um ein akustisches Signal eines virtuellen Mikrofons zu erzeugen, und es werden dann das erzeugte akustische Signal eines virtuellen Mikrofons und ein akustisches Signal aus einem der anderen Mikrofone in der geometrischen Anordnung verwendet, um die Herzkurve erster Ordnung zu erzeugen. Obwohl andere Signalverarbeitungstechniken mit der Erzeugung von Herzkurven höherer Ordnung von dem ersten Signalprozessor 405 eingesetzt werden könnten, so wird dennoch angenommen, dass die Verwendung einer Herzkurve erster Ordnung für die Signalverarbeitung bei tiefen Frequenzen Vorteile gegenüber diesen Signalverarbeitungstechniken mit Herzkurve höherer Ordnung hat. Im Allgemeinen ist es vom Standpunkt der Energieeinsparung wünschenswert, eine geringere Anzahl an Mikrofonen zu verwenden, um die hierin offenbarten Signalverarbeitungstechniken auszuführen. Daher hat eine Technik zur Erzeugung einer Herzkurve erster Ordnung Vorteile gegenüber anderen Signalverarbeitungstechniken, die eine erhöhte Anzahl an Mikrofonen benötigen, um die Herzkurven-Muster höherer Ordnung zu erzeugen. Man erkennt, dass ein großer Anteil der Leistungsaufnahme durch den Prozess des Auslesens, Vergleichens und anschließenden Speicherns in einem Puffer bezüglich der akustischen Signale und durch das Ausführen anderer damit in Beziehung stehender mathematischer Zeiger-Operationen für jedes der Mikrofone in der elektronischen Einrichtung bei den hohen Abtastraten hervorgerufen wird, die zum Ausführen dieser Arten von Signalverarbeitungstechniken erforderlich sind. In einem weiteren Beispiel wird angenommen, dass die Signalverarbeitungstechniken mit Herzkurven höherer Ordnung zusätzliche Rechenleistung und Zeit erfordern, um die aus drei oder mehr Mikrofonen empfangenen akustischen Signale zu verarbeiten. Der zusätzliche Anteil an Rechenleistung kann somit eine signifikante Leistungsaufnahme für eine batteriegespeiste Leistungsquelle 130 hervorrufen.In some embodiments, the first order cardiac waveform is generated by the first signal processor 405 through the use of two acoustic signal inputs lying along a direction that is aligned with the direction in which the acoustic signal is received from the acoustic signal source. In one embodiment, the first order cardiac waveform is generated using two acoustic signal inputs received from two of the microphones located in the microphone array. Additionally or alternatively, as will be explained in more detail below, the heart wave pattern is generated by averaging the input signals from two microphones to generate a virtual microphone acoustic signal and then combining the generated virtual microphone acoustic signal and an acoustic signal from one of the other microphones in the geometric array is used to generate the first-order heart waveform. Although other signal processing techniques could be employed with the generation of higher order heart curves from the first signal processor 405, it is nevertheless believed that the use of a first order heart curve for signal processing at low frequencies has advantages over these higher order heart curve signal processing techniques. In general, it is desirable from a power conservation standpoint to use fewer microphones to implement the signal processing techniques disclosed herein. Therefore, a first-order heart-wave generation technique has advantages over other signal processing techniques that require an increased number of microphones to generate the higher-order heart-wave patterns. It can be seen that a large proportion of the power consumption is accounted for by the process of reading out, comparing and then storing in a buffer the acoustic signals and performing other related mathematical pointer operations for each of the microphones in the electronic device at the high sampling rates required to perform these types of signal processing techniques. In another example, assume that the higher order heart wave signal processing techniques require additional computational power and time to process the acoustic signals received from three or more microphones. The additional amount of computing power can thus cause a significant power consumption for a battery-powered power source 130 .
In einigen Ausführungsformen kann die Rauschunterdrückungstechnik mit Herzkurve erster Ordnung, die von dem ersten Signalprozessor 405 angewendet wird, erreicht werden, indem akustische Signale, die aus zwei Mikrofonelementen in der geometrischen Anordnung aus Mikrofonen empfangen werden, aufsummiert werden, wobei eines der akustischen Signale invertiert und um eine Zeitdauer in Bezug auf das andere akustische Signal verzögert wird, bevor die beiden akustischen Signale summiert werden. Der Betrag der Zeitverzögerung, der durch den ersten Signalprozessor 405 erzeugt wird, hängt von der Schallgeschwindigkeit und dem effektiven Abstand zwischen den Mikrofonen in der Richtung ab, aus der das gewünschte akustische Signal empfangen wird. Die erste Signalverarbeitungstechnik ist in der Lage, ein gewünschtes Herzkurven-Muster zur Reduzierung unerwünschten Rauschens, das aus achsenabweichenden Orientierungen empfangen wird, zu erzeugen, solange die Wellenlänge wesentlich größer ist als der Abstand zwischen den beiden Mikrofonen, die zur Erzeugung des Herzkurven-Musters verwendet werden. Jedoch nimmt die Fähigkeit zur Reduzierung unerwünschten Rauschens in einem Herzkurven-Muster ab, sobald die Wellenlänge in die Nähe eines proportionalen Abstands zwischen den Mikrofonen kommt. Daher gilt, dass je näher die Mikrofone beieinander liegen, desto höher die Frequenz sein kann, für die das Herzkurven-Muster beibehalten werden kann.In some embodiments, the first-order heart-curve noise reduction technique employed by the first signal processor 405 may be achieved by summing acoustic signals received from two microphone elements in the geometric array of microphones, with one of the acoustic signals being inverted and is delayed by a period of time with respect to the other acoustic signal before the two acoustic signals are summed. The amount of time delay introduced by the first signal processor 405 depends on the speed of sound and the effective distance between the microphones in the direction from which the desired acoustic signal is received. The first signal processing technique is able to generate a desired heart-wave pattern to reduce unwanted noise received from off-axis orientations, as long as the wavelength is significantly greater than the distance between the two microphones used to generate the heart-wave pattern will. However, the ability to reduce unwanted noise in a heart-wave pattern decreases as the wavelength approaches a proportional distance between the microphones. Therefore, the closer the microphones are to each other, the higher the frequency for which the heart-curve pattern can be maintained.
6A zeigt ein Beispiel eines Musters 601, das durch die erste Signalverarbeitungstechnik unter Anwendung zweier Mikrofone mit festgelegten Abstand zueinander (beispielsweise 70 mm) bei einer ersten Frequenz von ungefähr 100 Hz erzeugt wird. Man erkennt, dass eine gewünschte akustische Quelle vorzugsweise an der 90°-Position in Bezug auf die Orientierung des polaren Graphen angeordnet wird, so dass der maximale Betrag des akustischen Signals aus dieser Richtung aufgenommen wird, während der Betrag des akustischen Signals, der aus anderen achsenabweichenden Richtungen aufgenommen wird, bis auf null bei der -90°-Richtung abfällt (beispielsweise 180° zu der Richtung der erwünschten akustischen Quelle). 6A enthält ferner ein zweites Muster 602, das bei einer zweiten Frequenz von ungefähr 1200 Hz unter Anwendung der gleichen zwei Mikrofone erzeugt wird. Man erkennt, dass durch die Änderung der Frequenz von 100 Hz auf ungefähr 1200 Hz die Fähigkeit der ersten Signalverarbeitungstechnik zum Reduzieren der Wirkung von achsenabweichenden Rauschquellen, etwa den Rauschquellen, die außerhalb des Winkelbereichs angeordnet sind, der sich zwischen ungefähr 45° und ungefähr 135° erstreckt, um einen merklichen Betrag abnimmt, wenn die Frequenz des erfassten akustischen Signals zunimmt. Daher sind geometrische Mikrofonanordnungen, die den Abstand enthalten, der zur Erzeugung der in 6A-6C gezeigten Muster verwendet wurde, bei Frequenzen unwirksam, die den Punkt überschreiten, an welchem das Herzkurven-Muster zusammenbricht (beispielsweise ungefähr 1200 Hz), und daher ist in diesem Beispiel die erste Signalverarbeitungstechnik im Wesentlichen nicht wirksam für eine Verwendung im Zusammenhang mit akustischen Signalen, die Frequenzen höher als 1200 Hz enthalten. 6A Figure 6 shows an example of a pattern 601 generated by the first signal processing technique using two microphones at a fixed distance from each other (e.g. 70 mm) at a first frequency of approximately 100 Hz. It will be appreciated that a desired acoustic source is preferably placed at the 90° position with respect to the orientation of the polar graph so that the maximum magnitude of the acoustic signal is picked up from that direction, while the magnitude of the acoustic signal picked up from others off-axis directions, falling to zero at the -90° direction (e.g. 180° to the direction of the desired acoustic source). 6A 12 also includes a second pattern 602 generated at a second frequency of approximately 1200 Hz using the same two microphones. It can be seen that changing the frequency from 100 Hz to about 1200 Hz increases the ability of the first signal processing technique to reduce the effect of off-axis noise sources, such as those noise sources located outside of the angular range lying between about 45° and about 135° extends, decreases by an appreciable amount as the frequency of the detected acoustic signal increases. Therefore, geometric microphone arrays that include the distance needed to produce the in 6A-6C pattern shown was ineffective at frequencies exceeding the point at which the heart curve pattern breaks down (e.g. about 1200 Hz) and therefore in this example the first signal processing technique is essentially ineffective for use in connection with acoustic signals, containing frequencies higher than 1200 Hz.
6B zeigt ein Beispiel eines dritten Musters 603, das durch die erste Signalverarbeitungstechnik bei einer dritten Frequenz von ungefähr 2000 Hz unter Anwendung der gleichen zwei Mikrofone, die zur Erzeugung des Musters 601 verwendet werden, erzeugt wird. In diesem Beispiel hat das dritte Muster 603 eine Verzerrung aufgrund der Frequenzwirkung auf das erfasste Signal derart, dass es zwei Keulen 603A und 603B bildet. Das dritte Muster 603 unterscheidet sich wesentlich von dem in 6A dargestellten Muster 601, da die Fähigkeit der ersten Signalverarbeitungstechnik zur Reduzierung von achsenabweichenden Rauschquellen in der 15°- und 165°-Richtung aufgrund der Keulen 603A und 603B nicht-existent ist, während die erste Signalverarbeitungstechnik tendenziell nahezu die Hälfte des akustischen Signals reduziert, das aus einer gewünschten Signalquelle empfangen wird, die an einer 90°-Position liegt. 6B 12 shows an example of a third pattern 603 generated by the first signal processing technique at a third frequency of approximately 2000 Hz using the same two microphones used to generate pattern 601. FIG. In this example, the third pattern 603 has a distortion due to the frequency effect on the detected signal such that it forms two lobes 603A and 603B. The third pattern 603 differs significantly from that in 6A illustrated pattern 601, since the ability of the first signal processing technique to reduce off-axis noise sources in the 15° and 165° directions due to lobes 603A and 603B is non-existent, while the first signal processing technique tends to reduce nearly half of the acoustic signal that is received from a desired signal source that is at a 90° position.
6C zeigt ein Beispiel eines vierten Musters 604, das bei einer vierten Frequenz von ungefähr 8000 Hz durch die gleichen zwei Mikrofone erzeugt wird, die zur Erzeugung des ersten Musters 601 verwendet werden. In diesem Beispiel wird das vierte Muster 604 der Mikrofonanordnung erster Ordnung ebenfalls aufgrund des Frequenzeffekts auf das erfasste Signal derart verzerrt, dass es sieben Keulen 604A-604G enthält. Daher ist die Fähigkeit der ersten Signalverarbeitungstechnik zum Reduzieren von achsenabweichenden Rauschquellen in sensiblen Richtungen der Keulen 604A-604G (beispielsweise 0°, 45°, 135°, etc.) minimal, wobei die erste Signalverarbeitungstechnik tendenziell weniger als ungefähr 5 dB des akustischen Signals zurückweist, das aus einer gewünschten akustischen Quelle empfangen wird, die an der 90°-Position liegt. 6C 8 shows an example of a fourth pattern 604 generated at a fourth frequency of approximately 8000 Hz by the same two microphones used to generate the first pattern 601. FIG. In this example, the fourth pattern 604 of the first order microphone array is also distorted to contain seven lobes 604A-604G due to the frequency effect on the detected signal. Therefore, the ability of the first signal processing technique to reduce off-axis noise sources in sensitive directions of the lobes 604A-604G (e.g., 0°, 45°, 135°, etc.) is minimal, with the first signal processing technique tending to reject less than about 5 dB of the acoustic signal received from a desired acoustic source located at the 90° position.
Obwohl die Erläuterung im Zusammenhang mit den 6A-6C jeweils die Wirkung betrifft, die die Frequenz auf die Fähigkeit der ersten Signalverarbeitungstechnik zum Zurückweisen von achsenabweichenden Rauschquellen ausübt, können ähnliche Wirkungen erhalten werden, indem die Hardware-Gestaltung, etwa der Abstand zwischen den zwei Mikrofonen, eingestellt wird, die zur Erzeugung des Musters auf Basis einer Herzkurve verwendet werden. Beispielsweise kann ein ähnliches Paar aus Mustern 601 und 602 ( 6A) erzeugt werden, wenn der Abstand zwischen den zwei Mikrofonen ausgehend von einem Abstand von 70 mm auf ungefähr 35 mm unter Anwendung der Meßfrequenz von ungefähr 1100 Hz verringert wird. Daher kann in einigen Ausführungsformen der relative Abstand zwischen den diversen Mikrofonen in dem Akustiksignal-Verarbeitungssystem 100 derart eingestellt werden, dass das obere Ende des Frequenzbereichs, in welchem die erste Signalverarbeitungstechnik arbeiten kann, in gewünschter Weise festgelegt wird. In einigen Ausführungsformen wird das obere Ende des Frequenzbereichs der ersten Signalverarbeitungstechnik derart festgelegt, dass der Übergang zu dem Frequenzbereich, in welchem die zweite Signalverarbeitungstechnik ihre gewünschte Funktion ausüben kann (d.h., ein Rauschen bei höherer Frequenz zu entfernen), zumindest teilweise erlaubt ist. Der Vorgang der Einstellung des oberen Endes der ersten Signalverarbeitungstechnik und des unteren Endes der zweiten Signalverarbeitungstechnik wird in Verbindung mit den 8A-8C nachfolgend näher erläutert. Alternativ wird in einigen Ausführungsformen das obere Ende des Frequenzbereichs der ersten Signalverarbeitungstechnik auf einen Wert festgelegt, an welchem das erzeugte Muster auf Basis einer Herzkurve nicht wesentlich verzerrt wird, etwa auf einen Wert, an welchem zwei oder mehr Keulen erzeugt werden und/oder die Abschwächung des gewünschten akustischen Signals, das in Richtung einer erwünschten akustischen Quelle bereitgestellt wird (beispielsweise in 6A-6C bei 90°), kleiner als ungefähr 1 bis 5 dB ist. Beispielsweise kann das obere Ende des Frequenzbereichs so ausgewählt werden, dass die Wellenlänge in der Größenordnung des Abstands zwischen den Mikrofonen liegt, die zur Erzeugung des Musters verwendet werden, das durch die erste Signalverarbeitungstechnik erzeugt wird. Alternativ liegt in einer weiteren Ausführungsform das obere Ende des Frequenzbereichs zwischen ungefähr 500 Hz und ungefähr 4000 Hz, etwa in einem Frequenzbereich von ungefähr 1000 Hz bis ungefähr 4000 Hz. In einigen Beispielen liegt das obere Ende des Frequenzbereichs bei ungefähr 700 Hz, bei ungefähr 1000 Hz, bei ungefähr 1500 Hz, bei ungefähr 2000 Hz oder sogar bei ungefähr 4000 Hz.Although the explanation related to the 6A-6C each relates to the effect that frequency has on the ability of the first signal processing technique to reject off-axis noise sources, similar effects can be obtained by adjusting the hardware design, such as the distance between the two microphones, used to generate the pattern based on a heart curve. For example, a similar pair of patterns 601 and 602 ( 6A ) are generated when the distance between the two microphones is reduced from a distance of 70 mm to about 35 mm using the measuring frequency of about 1100 Hz. Therefore, in some embodiments, the relative spacing between the various microphones in the acoustic signal processing system 100 can be adjusted to desirably set the upper end of the frequency range in which the first signal processing technique can operate. In some embodiments, the upper end of the frequency range of the first signal processing technique is set such that the transition to the frequency range in which the second signal processing technique can perform its desired function (ie, to remove higher frequency noise) is at least partially allowed. The process of adjusting the high end of the first signal processing technique and the low end of the second signal processing technique is described in connection with FIGS 8A-8C explained in more detail below. Alternatively, in some embodiments, the upper end of the frequency range of the first signal processing technique is set to a value at which the generated heart curve-based pattern is not significantly distorted, such as a value at which two or more lobes are generated and/or the fading of the desired acoustic signal provided in the direction of a desired acoustic source (e.g. in 6A-6C at 90°) is less than about 1 to 5 dB. For example, the upper end of the Fre frequency range can be selected so that the wavelength is of the order of the distance between the microphones used to generate the pattern generated by the first signal processing technique. Alternatively, in another embodiment, the upper end of the frequency range is between about 500 Hz and about 4000 Hz, such as in a frequency range of about 1000 Hz to about 4000 Hz. In some examples, the upper end of the frequency range is about 700 Hz, about 1000 Hz, at around 1500 Hz, at around 2000 Hz or even at around 4000 Hz.
Es sei wieder auf 4B verwiesen; der erste Signalprozessor 405 enthält im Allgemeinen ein Mikrofoneingang-Auswahlelement 440, ein Signalverzögerungselement 441, ein Signalinvertierungselement 442, eine Signalkombinierelement 443 und ein Signalfilterelement 411, einen parametrischen Equalizer bzw. Entzerrer 412 und einen Mischverstärkungswert-Verstärker 413 in dem Nachverarbeitungselement 452. 4D zeigt ein Verfahren 470 zur Ausführung einer ersten Art einer Signalverarbeitungstechnik unter Anwendung des ersten Signalprozessors 405. Während des Betriebs empfängt im Schritt 472 der erste Signalprozessor 405 eine Information bezüglich der erfassten Richtung bzw. eine Richtungserfassungsinformation aus dem Richtungserfassungselement 430 auf der Grundlage einer Auswertung von akustischen Signalen, die durch die geometrische Anordnung aus Mikrofonen empfangen werden. Die Information über die Erfassungsrichtung bzw. die Richtungserfassungsinformation ermöglicht es dann, dass der Vorgang für die Erzeugung einer Herzkurve so ausgeführt wird, dass achsenabweichendes Rauschen zurückgewiesen werden kann, wie dies zuvor beschrieben ist. Wenn gemäß 5A und 6A in einem Beispiel die erfasste Richtung der gewünschten akustischen Quelle als in der 90°-Richtung liegend erkannt wird durch eine Auswertung, die von dem Richtungserfassungselement 430 ausgeführt wird, dann wird ein Herzkurven-Muster, das ähnlich zu den Mustern 601 und 602 orientiert ist, durch den ersten Signalprozessor 405 erzeugt.It's up again 4B referred; the first signal processor 405 generally includes a microphone input selector 440, a signal delay element 441, a signal inverting element 442, a signal combining element 443 and a signal filtering element 411, a parametric equalizer 412 and a mixer gain value amplifier 413 in the post-processing element 452. 4D 4 shows a method 470 for performing a first type of signal processing technique using the first signal processor 405. During operation, in step 472 the first signal processor 405 receives information regarding the detected direction or direction detection information from the direction detection element 430 based on an evaluation of acoustic Signals received by the geometric array of microphones. The detection direction information then enables the process for generating a heart curve to be performed so that off-axis noise can be rejected, as described above. If according to 5A and 6A in one example, the sensed direction of the desired acoustic source is recognized as being in the 90° direction by an evaluation performed by the direction sensing element 430, then a heart-curve pattern oriented similarly to the patterns 601 and 602 is generated by the first signal processor 405.
Als nächstes wählt im Schritt 473 das Mikrofoneingang-Auswahlelement 440 zwei Mikrofone in der geometrischen Anordnung aus Mikrofonen auf der Grundlage der Information über die erfasste Richtung, die aus dem Richtungserfassungselement 430 erhalten wird, aus. In diesem Beispiel führt der erste Signalprozessor 405 eine Auswertung der akustischen Signale aus, die von den Mikrofonen 101B und 101C empfangen werden, da diese in einer Linie 505B, die sich in der 90°- und -90°-Richtung erstreckt, ausgerichtet sind.Next, in step 473 , the microphone input selector 440 selects two microphones in the microphone array based on the detected direction information obtained from the direction detector 430 . In this example, the first signal processor 405 performs an evaluation of the acoustic signals received from the microphones 101B and 101C as they are aligned in a line 505B extending in the 90° and -90° directions.
Nachdem das gewünschte Paar aus Mikrofonen ausgewählt ist, werden die Schritte 474 und 475 abgeschlossen, was die Zuführung des akustischen Signals, das aus dem Mikrofon empfangen wird, das am weitesten von der akustischen Signalquelle entfernt ist (beispielsweise das Mikrofon 101B), zu dem Signalverzögerungselement 441 und einem Signalinvertierungselement 442 beinhaltet, indem die Zuführung des akustischen Signals entlang des Pfads des Kanals 440B des ersten Signalprozessors 405 erfolgt, um ein verzögertes und invertiertes akustisches Signal zu erzeugen. Die von dem Signalverzögerungselement 441 angewendete Zeitverzögerung wird durch den bekannten Abstand zwischen den beiden Mikrofonen auf der Grundlage der bekannten Schallgeschwindigkeit festgelegt. Der verwendete Wert der Zeitverzögerung kann in der Speichereinheit 122 gespeichert und daraus abgerufen werden.After the desired pair of microphones is selected, steps 474 and 475 are completed, which result in the application of the acoustic signal received from the microphone furthest from the acoustic signal source (e.g., microphone 101B) to the signal delay element 441 and a signal inverting element 442 by applying the acoustic signal along the path of channel 440B of the first signal processor 405 to produce a delayed and inverted acoustic signal. The time delay applied by the signal delay element 441 is determined by the known distance between the two microphones based on the known speed of sound. The value of the time delay used can be stored in and retrieved from the storage unit 122 .
Als nächstes werden im Schritt 476 das „unverzögerte“ akustisches Signal, das aus dem Mikrofon empfangen wird, das der akustischen Signalquelle am nächsten liegt (beispielsweise das akustische Signal, das aus dem Mikrofon 101C entlang des Weges 440A empfangen wird) und das verzögerte und invertierte akustische Signal durch die Verwendung des Signalkombinierelement 443 kombiniert.Next, at step 476, the "undelayed" acoustic signal received from the microphone closest to the acoustic signal source (e.g., the acoustic signal received from microphone 101C along path 440A) and the delayed and inverted one acoustic signal combined through the use of signal combining element 443 .
Als nächstes werden im Schritt 477 die kombinierten Signale dann durch die Verwendung des Signalfilterelements 411 in dem Nachverarbeitungselement 452 optional gefiltert. Das Signalfilterelement kann einen Tiefpassfilter und/oder einen Hochpassfilter aufweisen, die in der Lage sind, Frequenzen zu entfernen, die höher und/oder tiefer liegen als der nutzbare Signalverarbeitungsbereich des ersten Signalprozessors 405, etwa Frequenzen, bei welchem das Herzkurven-Muster deutlich verzerrt wird. Beispielsweise kann eine Tiefpassfilter-Frequenz mit einer Frequenz von ungefähr 1000 Hz bis ungefähr 4000 Hz übereinstimmen, und eine Frequenz des Hochpassfilters kann eine Frequenz von ungefähr 100 Hz sein oder beispielsweise bei einer Frequenz von ungefähr 700 Hz oder bei ungefähr 1000 Hz oder selbst bei ungefähr 2000 Hz liegen.Next, in step 477 the combined signals are then optionally filtered through the use of signal filter element 411 in post-processing element 452 . The signal filter element may include a low-pass filter and/or a high-pass filter capable of removing frequencies that are higher and/or lower than the usable signal processing range of the first signal processor 405, such as frequencies at which the heart curve pattern becomes significantly distorted . For example, a low-pass filter frequency can match a frequency of about 1000 Hz to about 4000 Hz, and a frequency of the high-pass filter can be a frequency of about 100 Hz, or, for example, at a frequency of about 700 Hz, or at about 1000 Hz, or even at about 2000 Hz.
Nachdem die Prozesse, die in dem Verfahren 470 ausgeführt werden, abgeschlossen sind, stellt dann der erste Signalprozessor 405 das verarbeitete akustische Signal, oder im Weiteren das erste verarbeitete akustische Signal, für das Signalkombinierelement 414 zur Verfügung, wobei im Schritt 498 das erste verarbeitete akustische Signal und ein zweites verarbeitetes akustisches Signal, das aus der zweiten Signalverarbeitungstechnik erhalten wird, kombiniert werden. Wie nachfolgend näher erläutert ist, werden im Schritt 499 das kombinierte erste und zweite verarbeitete akustische Signal anschließend nachgeordneten elektronischen Einrichtungen oder Elementen in dem Akustiksignal-Verarbeitungssystem 100 zugeleitet.After the processes performed in the method 470 are complete, the first signal processor 405 then provides the processed acoustic signal, or further the first processed acoustic signal, to the signal combining element 414, wherein in step 498 the first processed acoustic signal and a second processed acoustic signal obtained from the second signal processing technique are combined. As will be explained in more detail below, in step 499 the combined first and second processed acoustic signals are then applied to downstream electronic inputs directions or elements in the acoustic signal processing system 100 fed.
Auf der Grundlage der geometrischen Anordnung aus Mikrofonen, die in 5A dargestellt ist, können daher akustische Signalquellen, die in den Richtungen parallel zu der Linie 505A, der Linie 505B oder der Linie 505C ausgerichtet sind, in genauerer Weise durch ein erzeugtes Herzkurven-Muster dargestellt werden. Die Linie 505A kann verwendet werden, wenn die akustischen Signalquellen in Richtungen -30° und 150° ausgerichtet sind. Die Linie 505B kann verwendet werden, wenn die akustischen Signalquellen in Richtungen 90° und -90° ausgerichtet sind. Die Linie 505C kann verwendet werden, wenn die akustischen Signalquellen in Richtungen 30° und -150° ausgerichtet sind. Jedoch haben akustische Quellen, die nicht zu den durch die Linien 505A-505C dargestellten Richtungen ausgerichtet sind, eine weniger genaue Rauschunterdrückung aufgrund des Winkelabweichungsfehlers, der erzeugt wird, wenn das fehl-ausgerichtete Herzkurven-Muster durch den ersten Signalprozessor 405 erzeugt wird.Based on the geometric layout of microphones used in 5A 1, therefore, acoustic signal sources aligned in the directions parallel to line 505A, line 505B, or line 505C can be more accurately represented by a generated heart-curve pattern. Line 505A can be used when the acoustic signal sources are oriented in directions -30° and 150°. Line 505B can be used when the acoustic signal sources are oriented in the 90° and -90° directions. Line 505C can be used when the acoustic signal sources are oriented in directions 30° and -150°. However, acoustic sources that are not aligned to the directions represented by lines 505A-505C have less accurate noise rejection due to the angular misalignment error created when the misaligned heart curve pattern is generated by the first signal processor 405.
Bei dem Bemühen, den Winkelabweichungsfehler zu reduzieren, der hervorgerufen wird, wenn die ausgewählten Mikrofone nicht in der genauen Richtung der akustischen Quelle ausgerichtet sind, kann ein virtuelles Mikrofon verwendet werden, um einen Fehler zu minimieren oder effektiv zu eliminieren, der durch die Fehljustierung des erzeugten Herzkurven-Musters in Bezug auf die akustische Quelle hervorgerufen wird. Ein virtuelles Mikrofon kann erzeugt werden, indem die aus zwei Mikrofonen in der geometrischen Anordnung empfangenen akustischen Signale kombiniert werden, sodass ein Mikrofon erzeugt wird, das effektiv an einem Punkt entlang einer Linie angeordnet ist, die zwischen den beiden Mikrofonen verläuft. Das kombinierte akustische Signal gibt im Wesentlichen näherungsweise einen Bereich eines akustischen Signals an, der durch ein virtuelles Mikrofon empfangen würde, das zwischen dem ersten und dem zweiten Mikrofon angeordnet ist. Der Vorgang des Kombinierens der akustischen Signale kann das Mitteln oder sogar Gewichten der zwei akustischen Signale beinhalten, die von den zwei ausgewählten Mikrofonen in der geometrischen Anordnung empfangen werden, um ein akustisches Signal eines virtuellen Mikrofons zu erzeugen, das dann von der ersten Signalverarbeitungstechnik in ähnlicher Weise verwendet werden kann wie ein akustisches Signal aus einem „tatsächlichen“ Mikrofon. Es sei beispielsweise auf 5A verwiesen; wenn das Richtungserfassungselement 430 ermittelt, dass die akustische Quelle in einer Richtung von ungefähr 60° liegt, dann kann der erste Signalprozessor 405 die akustischen Signale mitteln, die durch das erste Mikrofon 101A und das dritte Mikrofon 101C empfangen werden, um ein virtuelles Mikrofon 520 zu erzeugen, das am Mittelpunkt des Bereichs der Linie 505A angeordnet ist, die zwischen den beiden Mikrofonen verläuft. Der erste Signalprozessor 405 kann dann das erzeugte virtuelle Mikrofon 520 und ein zweites Mikrofon (beispielsweise das Mikrofon 101B) verwenden, um den Vorgang der Erzeugung einer Herzkurve erster Ordnung abzuschließen. In diesem Beispiel führt der erste Signalprozessor 405 eine Auswertung der akustischen Signale aus, die effektiv durch das virtuelle Mikrofon 520 und das Mikrofon 101B empfangen werden, da diese Mikrofone entlang der Richtung 522 ausgerichtet sind, die sich in der Richtung 60° und - 120° erstreckt. Nachdem das gewünschte Paar aus Mikrofonen ausgewählt ist (beispielsweise im Schritt 473), beinhaltet dann der Vorgang der Erzeugung der Herzkurve die Zuführung des aus dem Mikrofon 101B empfangenen akustischen Signals zu dem Signalverzögerungselement 441 (beispielsweise im Schritt 474) und zu einem Signalinvertierungselement 442 (beispielsweise im Schritt 475) durch das Zuführen des akustischen Signals entlang des Weges 440B, um ein verzögertes und invertiertes akustisches Signal zu erzeugen. Der Wert der Zeitverzögerung, der von dem Signalverzögerungselement 441 angewendet wird, ist durch die Strecke zwischen diesen beiden Mikrofonen, die in diesem Falle der Strecke 521 entspricht, und durch die bekannte Schallgeschwindigkeit gegeben. Der Wert der Zeitverzögerung, der verwendet wird, kann in der Speichereinheit 122 gespeichert und daraus abgerufen werden. Man erkennt, dass die Strecke 521 kleiner ist als die Strecken bzw. Abstände 510A-510C, und dass sie somit eine Wirkung auf die Frequenzgrenze für die erste Signalverarbeitungstechnik hat und damit von dem ersten Signalprozessor 405 berücksichtigt werden kann. Als nächstes werden dann das „unverzögerte“ akustisches Signal, das aus dem Mikrofon empfangen wird, das am nächsten zu der akustischen Signalquelle liegt (beispielsweise das virtuelle Mikrofon 520), und das verzögerte und invertierte akustische Signal, das aus dem zweiten Mikrofon 101B empfangen wird, miteinander kombiniert (beispielsweise im Schritt 476) durch die Verwendung des Signalkombinierelements 443, und anschließend erfolgt eine Filterung durch Verwendung des Signalfilterelements 411 in dem Nachverarbeitungselement 452. Nachdem die Prozesse in dem Verfahren 470 ausgeführt sind, kann dann der erste Signalprozessor 405 das verarbeitete akustische Signal, das das virtuelle Mikrofon beinhaltet, dem Signalkombinierelement 414 zuführen, wobei im Schritt 498 das erste verarbeitete akustische Signal und ein zweites verarbeitetes akustisches Signal, das von der zweiten Signalverarbeitungstechnik erhalten wird, sodann kombiniert werden. Wie nachfolgend detaillierter erläutert ist, können dann im Schritt 499 das erste und das zweite verarbeitete akustische Signal als Kombination zu anderen nachgeordneten elektronischen Einrichtungen oder Elementen in dem Akustiksignal-Verarbeitungssystem 100 übertragen werden.In an effort to reduce angular misalignment error introduced when the selected microphones are not aligned in the precise direction of the acoustic source, a virtual microphone can be used to minimize or effectively eliminate an error introduced by misalignment of the acoustic source generated heart curve pattern in relation to the acoustic source. A virtual microphone can be created by combining the acoustic signals received from two microphones in the array, creating a microphone that is effectively located at a point along a line that runs between the two microphones. The combined acoustic signal generally approximates a range of an acoustic signal that would be received by a virtual microphone positioned between the first and second microphones. The process of combining the acoustic signals may involve averaging or even weighting the two acoustic signals received by the two selected microphones in the geometric arrangement to produce a virtual microphone acoustic signal which is then similarly processed by the first signal processing technique Can be used in the same way as an audible signal from an "actual" microphone. For example, let it be on 5A referred; if the direction detection element 430 determines that the acoustic source is in a direction of approximately 60°, then the first signal processor 405 can average the acoustic signals received by the first microphone 101A and the third microphone 101C to a virtual microphone 520 generate located at the midpoint of the area of line 505A that runs between the two microphones. The first signal processor 405 may then use the generated virtual microphone 520 and a second microphone (e.g., microphone 101B) to complete the process of generating a first-order cardiac waveform. In this example, the first signal processor 405 performs an evaluation of the acoustic signals effectively received by the virtual microphone 520 and the microphone 101B, since these microphones are aligned along the direction 522, which is in the direction 60° and -120° extends. After the desired pair of microphones is selected (e.g., at step 473), the process of generating the heart waveform then involves applying the acoustic signal received from microphone 101B to signal delay element 441 (e.g., at step 474) and to a signal inverting element 442 (e.g., in step 475) by applying the acoustic signal along path 440B to produce a delayed and inverted acoustic signal. The value of the time delay applied by the signal delay element 441 is given by the distance between these two microphones, which in this case corresponds to the distance 521, and by the known speed of sound. The value of the time delay that is used can be stored in and retrieved from the storage unit 122 . It can be seen that the distance 521 is smaller than the distances 510A-510C and thus has an effect on the frequency limit for the first signal processing technique and can therefore be taken into account by the first signal processor 405. Next, then, are the "undelayed" acoustic signal received from the microphone closest to the acoustic signal source (e.g., virtual microphone 520) and the delayed and inverted acoustic signal received from the second microphone 101B , combined together (e.g., at step 476) through the use of the signal combining element 443, and then filtering occurs through the use of the signal filter element 411 in the post-processing element 452. After the processes in the method 470 are performed, the first signal processor 405 can then process the processed acoustic signal including the virtual microphone to the signal combining element 414, at step 498 the first processed acoustic signal and a second processed acoustic signal obtained from the second signal processing technique are then combined. As explained in more detail below, in step 499 the first and second processed acoustic signals can then be combined with other downstream electronic devices genes or elements in the acoustic signal processing system 100 are transmitted.
Durch Erzeugung von virtuellen Mikrofonen, die entlang einer Linie angeordnet sind, die zwischen zwei Mikrofonen verläuft, kann daher der maximale Winkelabweichungsfehler, der erzeugt wird, wenn die ausgewählten Mikrofone nicht in der genauen Richtung der akustischen Quelle ausgerichtet sind, um mindestens den halben Winkel reduziert werden, der zwischen den Mikrofonen gebildet ist, die zur Erzeugung des virtuellen Mikrofons verwendet werden. Beispielsweise würde das virtuelle Mikrofon in dem vorhergehenden Beispiel somit effektiv ein Mikrofon aufweisen, das alle 60° angeordnet ist gegenüber dem tatsächlichen 120°-Abstand zwischen allen dreien tatsächlichen Mikrofonen 101A-101C. Durch Verwendung einer Technik zur Ermittelung eines Mikrofonsignals zur Erzeugung des virtuellen Mikrofons kann somit die erste Signalverarbeitungstechnik verwendet werden, um akustische Signale zu erfassen, die in mindestens 12 unterschiedlichen Richtungen vorhanden sind, wobei lediglich 3 Mikrofone verwendet werden. Alternativ könnte für Techniken zur Erzeugung virtueller Mikrofone, in der eine gewichtete Summe der akustischen Signale verwendet wird, die von zwei oder mehr Mikrofonen empfangen werden, die erste Signalverarbeitungstechnik eine unbegrenzte Anzahl möglicher Richtungen ermitteln, um das virtuelle Mikrofon entlang der Linie anzuordnen, die zwischen den Mikrofonen verläuft, wobei lediglich 3 Mikrofone verwendet werden. Die Gewichtungswerte, die zur Erzeugung der gewichteten Summe der akustischen Signale verwendet werden, können auf einem Vergleich der ermittelten Richtung, die von dem Richtungserfassungselement 430 erhalten wird, und einer Beziehung (beispielsweise relativer Winkel) zu einer der sechs Richtungen beruhen, die parallel zu den Linien 505A, 505B oder 505C sind. Wie zuvor angegeben ist, sind daher durch die Verwendung der Technik mit virtuellen Mikrofonen eine geringere Anzahl an Mikrofonen erforderlich, um die erste Signalverarbeitungstechnik auszuführen und somit wird weniger Energie durch die elektronische Einrichtung bei der Ausführung dieser Signalverarbeitungstechnik verbraucht.Therefore, by creating virtual microphones arranged along a line running between two microphones, the maximum angular deviation error produced when the selected microphones are not aligned in the exact direction of the acoustic source can be reduced by at least half the angle formed between the microphones used to create the virtual microphone. For example, the virtual microphone in the previous example would thus effectively have a microphone spaced every 60° from the actual 120° spacing between all three actual microphones 101A-101C. Thus, by using a microphone signal detection technique to generate the virtual microphone, the first signal processing technique can be used to detect acoustic signals present in at least 12 different directions using only 3 microphones. Alternatively, for virtual microphone generation techniques in which a weighted sum of the acoustic signals received from two or more microphones is used, the first signal processing technique could determine an infinite number of possible directions to place the virtual microphone along the line connecting between between the microphones, using only 3 microphones. The weighting values used to generate the weighted sum of the acoustic signals may be based on a comparison of the sensed direction obtained from the direction sensing element 430 and a relationship (e.g. relative angles) to one of the six directions parallel to the Lines are 505A, 505B or 505C. As previously indicated, therefore, by using the virtual microphone technique, fewer microphones are required to perform the first signal processing technique and thus less power is consumed by the electronic equipment in performing that signal processing technique.
In einigen Ausführungsformen zur Erzeugung eines virtuellen Mikrofons ist es wünschenswert, zwei Mikrofone auszuwählen, die entlang einer Linie angeordnet sind, die im Wesentlichen senkrecht zu der Richtung verläuft, in der ein akustisches Signal empfangen wird, um das virtuelle Mikrofon zu erzeugen. Durch die Erhöhung der Anzahl tatsächlicher Mikrofone, die in der geometrischen Anordnung aus Mikrofonen vorhanden sind, kann ferner die Notwendigkeit zur Erzeugung virtueller Mikrofone reduziert werden, da der Fehler reduziert wird.In some embodiments for creating a virtual microphone, it is desirable to select two microphones arranged along a line that is substantially perpendicular to the direction in which an acoustic signal is received in order to create the virtual microphone. Furthermore, by increasing the number of actual microphones present in the geometric array of microphones, the need to create virtual microphones can be reduced as the error is reduced.
Alternatives Beispiel der ersten SignalverarbeitungAlternative example of the first signal processing
Alternativ kann es in Konfigurationen elektronischer Geräte, die nicht durch Randbedingungen im Hinblick auf die elektrische Leistung (beispielsweise wird elektrische Leistung aus einer Steckdose oder einer großen Batterie erhalten) und/oder durch die Prozessorgeschwindigkeit und andere mit dem Prozessor in Beziehung stehenden Ressourcen begrenzt sind, wünschenswert sein, ein Rauschen, das in dem Frequenzbereich des akustischen Signals enthalten ist, zu entfernen oder abzutrennen, indem eine Herzkurven-Rauschunterdrückungstechnik eingesetzt wird, in der eine Herzkurve höherer Ordnung als erster Ordnung auf der Grundlage einer Herzkurven-Signalverarbeitungstechnik verwendet wird. In einigen Ausführungsformen ist der erste Signalprozessor 405 ausgebildet, Rauschen bzw. Geräusche unter Anwendung einer Signalverarbeitungstechnik auf Basis einer Herzkurve mit zweiter oder höherer Ordnung zu entfernen. In einer Konfiguration ist die Signalverarbeitungstechnik mit Herzkurve, die von dem ersten Signalprozessor 405 ausgeführt wird, geeignet, ein Rauschen zu reduzieren, das aus einer achsenabweichenden Richtung relativ zu der Richtung des akustischen Signals empfangen wird, wobei drei oder mehr Mikrofone innerhalb der geometrischen Anordnung verwendet werden. Die steuernde Software, die in der Akustiksignal-Verarbeitungseinrichtung 400 verwendet wird, kann somit drei oder mehr Mikrofone und/oder erzeugte virtuelle Mikrofone verwenden, die in einer gewünschten Richtung ausgerichtet sind, um unerwünschtes Rauschen aus den erfassten akustischen Signalen unter Anwendung eines Herzkurven-Musters abzutrennen.Alternatively, in electronic device configurations that are not constrained by electrical power constraints (e.g., electrical power is obtained from an electrical outlet or a large battery) and/or processor speed and other processor-related resources, it may It may be desirable to remove or separate a noise contained in the frequency domain of the acoustic signal by employing a heart curve noise reduction technique in which a higher order than first order heart curve is used based on a heart curve signal processing technique. In some embodiments, the first signal processor 405 is configured to remove noise using a signal processing technique based on a second or higher order cardiac waveform. In one configuration, the cardioid signal processing technique performed by the first signal processor 405 is adapted to reduce noise received from an off-axis direction relative to the direction of the acoustic signal using three or more microphones within the geometric arrangement will. The controlling software used in the acoustic signal processor 400 can thus use three or more microphones and/or generated virtual microphones oriented in a desired direction to remove unwanted noise from the detected acoustic signals using a heart curve pattern to separate
In einigen Ausführungsformen ist die erste Signalverarbeitungstechnik ausgebildet, Herzkurven-Muster höherer Ordnung durch die Verwendung von drei oder mehr akustischen Signaleingaben zu erzeugen, die entlang einer Richtung angeordnet sind, die auf der gleichen Linie wie die Richtung liegt, in der das akustische Signal aus der akustischen Signalquelle empfangen wird. In einer Ausführungsform wird die Herzkurve höherer Ordnung unter Anwendung der drei oder mehr akustischen Signaleingaben erzeugt, die aus den Mikrofonen empfangen werden, die in der geometrischen Anordnung aus Mikrofonen liegen. Zusätzlich oder alternativ können die Herzkurven-Muster höherer Ordnung erzeugt werden, indem die Eingaben aus zwei oder mehr Mikrofonen kombiniert (beispielsweise gemittelt oder gewichtet) werden, um ein akustisches Signal eines virtuellen Mikrofons zu erzeugen, indem das akustische Signal des erzeugten virtuellen Mikrofons und ein akustisches Signal aus einem der anderen Mikrofone oder anderen virtuell erzeugte Mikrofonen verwendet werden, um die Herzkurve höherer Ordnung zu erzeugen.In some embodiments, the first signal processing technique is configured to generate higher order heart curve patterns through the use of three or more acoustic signal inputs arranged along a direction that is on the same line as the direction in which the acoustic signal originates from the acoustic signal source is received. In one embodiment, the higher order cardiac waveform is generated using the three or more acoustic signal inputs received from the microphones located in the microphone array. Additionally or alternatively, the higher-order heart-curve patterns may be generated by combining (e.g., averaging or weighting) the inputs from two or more microphones to generate a virtual microphone acoustic signal by combining the generated virtual microphone acoustic signal and a acoustic signal from one of the other microphones or other virtually generated microphones can be used to generate the higher order cardiac waveform.
6B zeigt ein Beispiel einer Konfiguration einer geometrischen Anordnung, die von der ersten Signalverarbeitungstechnik eingesetzt werden kann, um ein gewünschtes Herzkurven-Muster zu erzeugen. In diesem Beispiel umfasst das Akustiksignal-Verarbeitungssystem 100 sieben Mikrofone 601A-601G, die in einer geometrischen Anordnung liegen, die sechs Mikrofone enthält, die entlang der Außenfläche 108 (beispielsweise die Mikrofone 601A-601G) angeordnet sind, und ein an dem Mittelpunkt 103 der oberen Fläche 106 (beispielsweise das Mikrofon 601G) der elektronischen Einrichtung 102 angeordnetes Mikrofon enthält. Der Fachmann erkennt jedoch, dass andere Konfigurationen einer geometrischen Anordnung in der ersten Signalverarbeitungstechnik verwendet werden können, um Herzkurven-Muster höherer Ordnung zu erzeugen. In einem Beispiel kann die geometrische Anordnung fünf Mikrofone enthalten, die in einer Konfiguration angeordnet sind, die vier Mikrofone, die entlang der Außenfläche 108 liegen, und ein Mikrofon am Mittelpunkt 103 enthält. In einigen Ausführungsformen weist die geometrische Anordnung mehrere Mikrofone auf, die nur entlang der Außenfläche 108 der elektronischen Einrichtung 102 angeordnet sind, etwa als eine Anordnung, die nur sechs Mikrofone 601A-601G (6D) oder eine andere zweckdienliche ungerade oder gerade Anzahl an Mikrofonen in der geometrischen Anordnung enthält. 6B FIG. 12 shows an example of a configuration of a geometric arrangement that can be employed by the first signal processing technique to generate a desired cardioid pattern. In this example, the acoustic signal processing system 100 includes seven microphones 601A-601G arranged in a geometric array that includes six microphones arranged along the outer surface 108 (e.g., microphones 601A-601G) and one at the midpoint 103 of the microphone arranged on the upper surface 106 (e.g. the microphone 601G) of the electronic device 102 . However, those skilled in the art will recognize that other configurations of a geometric arrangement can be used in the first signal processing technique to generate higher order cardioid patterns. In one example, the geometric arrangement may include five microphones arranged in a configuration that includes four microphones lying along outer surface 108 and one microphone at midpoint 103 . In some embodiments, the geometric array includes multiple microphones arranged only along the outer surface 108 of the electronic device 102, such as an array containing only six microphones 601A-601G ( 6D ) or other convenient odd or even number of microphones in the geometric array.
Während des Betriebs empfängt der erste Signalprozessor 405 Information zur Richtung des akustischen Signals aus dem Richtungserfassungselement 430, wobei bekannt gegeben wird, dass akustische Signale aus einer Richtung 605 (d.h. 0°-Richtung) empfangen werden. Der erste Signalprozessor 405 ermittelt dann unter Anwendung der steuernden Software und des Mikrofoneingang-Auswahlelements 440, dass das Mikrofon 601G, ein virtuelles Mikrofon 620A und ein virtuelles Mikrofon 620B benötigt werden, um die erste Signalverarbeitungstechnik auszuführen, da diese Mikrofone entlang der Richtung 605 ausgerichtet sind. In diesem Beispiel kann der Vorgang der Erzeugung des gewünschten Herzkurven-Musters abgeschlossen werden, sobald die steuernde Software das virtuelle Mikrofon 620A durch Mittelung der durch die Mikrofone 601A und 601F empfangenen akustischen Signale erzeugt hat und das virtuelle Mikrofon 620B durch Mittelung der akustischen Signale erzeugt hat, die durch die Mikrofone 601C und 601D empfangen werden. In diesem Beispiel liegt das virtuelle Mikrofon 620A an dem Mittelpunkt der Linie 621A und das virtuelle Mikrofon 620B liegt an dem Mittelpunkt der Linie 621B.During operation, the first signal processor 405 receives information on the direction of the acoustic signal from the direction detection element 430, announcing that acoustic signals are being received from a direction 605 (i.e. 0° direction). The first signal processor 405 then determines, using the controlling software and the microphone input selector 440, that the microphone 601G, a virtual microphone 620A and a virtual microphone 620B are required to perform the first signal processing technique, since these microphones are aligned along the direction 605 . In this example, the process of generating the desired heart curve pattern can be completed once the controlling software has generated virtual microphone 620A by averaging the acoustic signals received by microphones 601A and 601F and has generated virtual microphone 620B by averaging the acoustic signals received by microphones 601C and 601D. In this example, virtual microphone 620A is at the midpoint of line 621A and virtual microphone 620B is at the midpoint of line 621B.
Anschließend verwendet dann der erste Signalprozessor 405 einen kaskadierten Herzkurven-Erzeugungsvorgang, um die erste Signalverarbeitungstechnik auszuführen. Der kaskardierte Herzkurven-Erzeugungsprozess beginnt mit der Zuführung des akustischen Signals, das aus dem Mikrofon 601G empfangen wird, zu dem Signalverzögerungselement 441 (beispielsweise Schritt 474) und dem Signalinvertierungselement 442 (beispielsweise Schritt 475), um ein erstes verzögertes und invertiertes akustisches Signal zu erzeugen. Der Wert der Zeitverzögerung, der verwendet wird, kann für diese bekannte Mikrofonkonfiguration in der Speichereinheit 122 gespeichert und daraus abgerufen werden. Das „unverzögerte“ akustisches Signal, das aus dem virtuellen Mikrofon 620A empfangen wird, und das erste verzögerte und invertierte akustische Signal, das aus dem zweiten Mikrofon 601G empfangen wird, werden dann kombiniert (beispielsweise Schritt 476), indem das Signalkombinierelement 443 verwendet wird, um ein erstes kombiniertes kaskardiertes akustisches Signal zu erzeugen, das in dem Speicher gespeichert wird.Subsequently, the first signal processor 405 then uses a cascaded heart-wave generation process to perform the first signal processing technique. The cascarded heart wave generation process begins by applying the acoustic signal received from microphone 601G to signal delay element 441 (e.g. step 474) and signal inversion element 442 (e.g. step 475) to generate a first delayed and inverted acoustic signal . The value of the time delay used can be stored in and retrieved from memory unit 122 for this known microphone configuration. The "undelayed" acoustic signal received from the virtual microphone 620A and the first delayed and inverted acoustic signal received from the second microphone 601G are then combined (e.g. step 476) using the signal combining element 443, to generate a first combined cascarded acoustic signal that is stored in memory.
Der kaskardierte Herzkurven-Erzeugungsprozess geht dann weiter, um ein zweites kombiniertes kaskardiertes akustisches Signal zu erzeugen, indem das aus dem zweiten virtuellen Mikrofon 620B empfangene akustische Signal dem Signalverzögerungselement 441 (beispielsweise Schritt 474) und dem Signalinvertierungselement 442 (beispielsweise Schritt 475) zugeführt wird, um ein zweites verzögertes und invertiertes akustisches Signal zu erzeugen. Das „unverzögerte“ akustische Signal, das aus dem Mikrofon 601G empfangen wird, und das zweite verzögerte und invertierte akustische Signal werden dann kombiniert (beispielsweise Schritt 476), indem das Signalkombinierelement 443 verwendet wird, um ein zweites kombiniertes kaskardiertes akustisches Signal zu erzeugen, das im Speicher gespeichert wird.The cascarded heart wave generation process then proceeds to generate a second combined cascarded acoustic signal by applying the acoustic signal received from the second virtual microphone 620B to the signal delay element 441 (e.g. step 474) and the signal inversion element 442 (e.g. step 475), to generate a second delayed and inverted acoustic signal. The "undelayed" acoustic signal received from microphone 601G and the second delayed and inverted acoustic signal are then combined (e.g., step 476) using signal combining element 443 to produce a second combined cascarded acoustic signal that is stored in memory.
Der kaskardierte Herzkurven-Erzeugungsprozess leitet dann das zweite kombinierte kaskardierte akustische Signal dem Signalverzögerungselement 441 (beispielsweise Schritt 474) und dem Signalinvertierungselement 442 (beispielsweise Schritt 475) zu, um ein erstes kombiniertes verzögertes und invertiertes akustisches Signal zu erzeugen. Der Wert der Zeitverzögerung, der verwendet wird, kann in der Speichereinheit 122 gespeichert und daraus abgerufen werden. Es werden dann das erste kombinierte kaskardierte akustische Signal und das erste kombinierte verzögerte und invertierte akustische Signal kombiniert (beispielsweise Schritt 476), indem das Signalkombinierelement 443 verwendet wird, und es wird dann unter Verwendung des Signalfilterelements 411 eine Filterung ausgeführt, um das vollständige kombinierte kaskardierte akustische Signal zu erzeugen.The cascarded heart wave generation process then directs the second combined cascarded acoustic signal to signal delay element 441 (e.g. step 474) and signal inversion element 442 (e.g. step 475) to generate a first combined delayed and inverted acoustic signal. The value of the time delay that is used can be stored in and retrieved from the storage unit 122 . The first combined cascarded acoustic signal and the first combined delayed and inverted acoustic signal are then combined (e.g., step 476) using signal combining element 443, and filtering is then performed using signal filter element 411 to extract the full combined cascarded generate an acoustic signal.
Nach der Erzeugung eines vollständigen kombinierten kaskadierten akustischen Signals führt dann der erste Signalprozessor 405 das vollständige kombinierte kaskardierte akustische Signal dem Signalkombinierelement 414 zu, in welchem im Schritt 498 das vollständige kombinierte kaskardierte akustische Signal und ein zweites verarbeitetes akustisches Signal, das aus der zweiten Signalverarbeitungstechnik erhalten wird, kombiniert werden. Wie nachfolgend näher erläutert ist, werden dann im Schritt 499 die kombinierten Signale zu anderen nachgeordneten elektronischen Einrichtungen oder Elementen in dem Akustiksignal-Verarbeitungssystem 100 übertragen.After generating a complete combined cascaded acoustic signal, the first signal processor 405 then performs the complete combined cascarded acoustic signal to the signal combining element 414 where in step 498 the complete combined cascarded acoustic signal and a second processed acoustic signal obtained from the second signal processing technique are combined. Then, at step 499, the combined signals are transmitted to other downstream electronic devices or elements in the acoustic signal processing system 100, as discussed in more detail below.
In Fällen, in denen die akustische Signalquelle in einer Richtung ausgerichtet ist, die drei „tatsächliche“ Mikrofone enthält, etwa die Richtung 606 in 6D, kann der kaskardierte Herzkurven-Erzeugungsprozess unter Anwendung von lediglich drei Mikrofonen und somit ohne virtuelle Mikrofone ausgeführt werden. In diesem Beispiel ermittelt dann der erste Signalprozessor 405 unter Verwendung der steuernden Software und des Mikrofoneingang-Auswahlelements 440, dass das Mikrofon 601F, das Mikrofon 601G und das Mikrofon 601C benötigt werden, um die erste Signalverarbeitungstechnik auszuführen. Daraufhin verwendet, in ähnlicher Weise wie zuvor erläutert ist, die erste Signalverarbeitungstechnik die drei Mikrofone und die zuvor beschriebenen Prozessschritte, um in ähnlicher Weise das vollständige kombinierte kaskardierte akustische Signal zu erzeugen.In cases where the acoustic signal source is oriented in a direction that contains three "actual" microphones, such as direction 606 in 6D , the cascarded heart wave generation process can be performed using only three microphones and thus without virtual microphones. In this example, the first signal processor 405 then determines, using the controlling software and the microphone input selector 440, that microphone 601F, microphone 601G and microphone 601C are needed to perform the first signal processing technique. Then, in a manner similar to that previously discussed, the first signal processing technique uses the three microphones and process steps previously described to similarly generate the complete combined cascarded acoustic signal.
In Konfigurationen von elektronischen Einrichtungen, die eine Anordnung aus Mikrofonen aufweisen, die im Wesentlichen entlang der Außenfläche 108 der elektronischen Einrichtung 102 angeordnet sind, etwa in Konfigurationen, in denen keine zentral angeordneten Mikrofone vorhanden sind, kann ein virtuelles Mikrofon anstelle eines zentral angeordneten Mikrofons verwendet werden, indem die von zwei oder mehr Mikrofonen der geometrischen Anordnung empfangenen akustischen Signale gemittelt werden. Gemäß 6D kann in einem Beispiel ein virtuelles Mikrofon an dem Mittelpunkt 103 erzeugt werden, indem die von den Mikrofonen 601B und 601E empfangenen akustischen Signale gemittelt werden. Daher kann in einigen Fällen ein kaskardierter Herzkurven-Erzeugungsprozess unter Anwendung von lediglich zwei „tatsächlichen“ Mikrofonen und einem virtuelle Mikrofon ausgeführt werden. Daher kann im Vergleich zu dem vorhergehenden Beispiel der erste Signalprozessor 405 unter Verwendung der steuernden Software und des Mikrofoneingang-Auswahlelements 440 ermitteln, dass das Mikrofon 601F, das Mikrofon 601C, das Mikrofon 601B und das Mikrofon 601E benötigt werden, um die erste Signalverarbeitungstechnik auszuführen. In diesem Beispiel werden die Mikrofone 601B und 601E verwendet, um das zentralliegende virtuelle Mikrofon zu erzeugen, und anschließend werden das erzeugte virtuelle Mikrofon und die Mikrofone 601F und 601C verwendet, um die erste Signalverarbeitungstechnik auszuführen. Anschließend verwendet, wie dies in ähnlicher Weise zuvor erläutert ist, die erste Signalverarbeitungstechnik diese „tatsächlichen“ und virtuellen Mikrofone und die zuvor beschriebenen Prozessschritte, um in ähnlicher Weise das vollständige kombinierte kaskardierte akustische Signal zu erzeugen.In electronic device configurations that include an array of microphones disposed substantially along the outer surface 108 of the electronic device 102, such as configurations in which there are no centrally located microphones, a virtual microphone may be used in place of a centrally located microphone by averaging the acoustic signals received by two or more microphones of the geometric arrangement. According to 6D In one example, a virtual microphone can be created at midpoint 103 by averaging the acoustic signals received from microphones 601B and 601E. Therefore, in some cases, a cascaded heart wave generation process can be performed using only two "real" microphones and one virtual microphone. Therefore, compared to the previous example, the first signal processor 405 can determine, using the controlling software and the microphone input selector 440, that the microphone 601F, the microphone 601C, the microphone 601B and the microphone 601E are needed to perform the first signal processing technique. In this example, microphones 601B and 601E are used to create the center virtual microphone, and then the created virtual microphone and microphones 601F and 601C are used to perform the first signal processing technique. Then, similarly as previously discussed, the first signal processing technique uses these "real" and virtual microphones and the process steps previously described to similarly generate the complete combined cascarded acoustic signal.
Prozess und Elemente zur RichtungserfassungDirection acquisition process and elements
Es sei auf 4A und 4C verwiesen; während des Betriebs der Akustiksignal-Verarbeitungseinrichtung 100 ist das Richtungserfassungselement 430 ausgebildet, Information über die erfasste Richtung zu ermitteln und dem ersten Signalprozessor 405 und dem zweiten Signalprozessor 407 zuzuleiten. 4B zeigt ein Verfahren 480 zur Ausführung einer Technik für die Richtungserfassung unter Anwendung des Richtungserfassungselements 430. Das Richtungserfassungselement 430 enthält im Allgemeinen oder verwendet Bereiche des steuernden Software-Programms und diverse analoge und digitale Hardware-Komponenten, um einen oder mehrere der hierin beschriebenen Prozesse auszuführen. In einigen Ausführungsformen beinhaltet das Richtungserfassungselement 430 Elemente, die in einem digitalen Signalprozessor-(DSP-) Modul ausgebildet sind. In einigen Ausführungsformen beinhaltet das Richtungserfassungselement 430 ein Entzerrer-Element 460, ein RMS-Verarbeitungselement 467, ein Verzögerungsauswerteelement 462, ein Richtungsermittlungselement 463, ein Koeffizientenerzeugungselement 464, ein Richtungsauswahlelement 465 und ein Richtungszuführungselement 466.Let it be 4A and 4C referred; During operation of the acoustic signal processing device 100, the direction detection element 430 is designed to determine information about the detected direction and to forward it to the first signal processor 405 and the second signal processor 407. 4B Figure 4 shows a method 480 for performing a technique for direction detection using direction detection element 430. Direction detection element 430 generally includes or uses portions of the controlling software program and various analog and digital hardware components to perform one or more of the processes described herein. In some embodiments, direction sensing element 430 includes elements formed in a digital signal processor (DSP) module. In some embodiments, the direction detection element 430 includes an equalizer element 460, an RMS processing element 467, a delay evaluation element 462, a direction determination element 463, a coefficient generation element 464, a direction selection element 465 and a direction supply element 466.
Während des Betriebs werden im Schritt 482 nach dem Empfang der Mikrofoneingaben aus dem optionalen Mikrofonverstärkungselement 420 während des Schritts 481 die akustischen Signale, die aus den jeweiligen Mikrofonen 101A-101C empfangen werden, jeweils vorverarbeitet. Die Vorverarbeitungsschritte können die Verarbeitung des akustischen Signals unter Anwendung eines Entzerrungselements 460 beinhalten derart, dass ein gewisser gewünschter Frequenzbereich, der mit dem Sprachbereich im Zusammenhang steht, extrahiert oder abgetrennt werden kann von anderen unerwünschten Frequenzgebieten, bevor die Verarbeitung durch die nachfolgenden Richtungserfassungselemente erfolgt. In einigen Konfigurationen kann das Entzerrungselement 460 parametrische Entzerrer 461A-461C aufweisen, die jeweils ausgebildet sind, entsprechend das aus dem jeweiligen Mikrofon 101A-101C empfangene akustische Signal zu verarbeiten. In einigen Ausführungsformen ist das Entzerrungselement 460 ausgebildet, vorzugsweise ein Durchlassen von Frequenzen innerhalb des vollen Sprachbereichs und eine Weiterleitung an eine oder mehrere nachgeordnete Komponenten zu ermöglichen.During operation, at step 482, after receiving the microphone inputs from the optional microphone gain element 420, during step 481, the acoustic signals received from the respective microphones 101A-101C are respectively pre-processed. The pre-processing steps may include processing the acoustic signal using an equalization element 460 such that some desired frequency range associated with the speech range can be extracted or separated from other undesired frequency ranges prior to processing by subsequent direction detection elements. In some configurations, the equalization element 460 may include parametric equalizers 461A-461C, each configured to appropriately process the acoustic signal received from the respective microphone 101A-101C. In some embodiments, the equalization element 460 is configured, preferably passing frequencies within the full speech range and routing to a or to enable multiple downstream components.
Als nächstes wird im Schritt 483 mindestens eine der Eingaben aus einem Mikrofon in der geometrischen Anordnung aus Mikrofonen einem Element zur Verarbeitung mit der Wurzel des mittleren Quadrats (RMS) 467 zugeführt, das verwendet wird, konstante akustische Rauschsignale 311 zu erfassen und in einigen Fällen zu entfernen, die in den zusammengesetzten akustischen Signalen 301 enthalten sind, die jeweils von den Mikrofonen empfangen werden. Das RMS-Verarbeitungselement 467 kann ein RMS-Schwellenwert-Auswerteelement 468 verwenden, das Information enthält und/oder überwacht und speichert, die den zeitlichen Verlauf des Pegels des konstanten akustischen Rauschsignals 311 betrifft. Das RMS-Verarbeitungselement 467 kann ausgebildet sein, den aktuellen Pegel des empfangenen konstanten akustischen Rauschsignals 311 zu erfassen und ferner eine Eingabe bezüglich historischer konstanter akustische Rauschsignalpegel aus dem RMS-Schwellenwert-Auswerteelement 468 zu empfangen, sodass ein ungewünschtes Hintergrundrauschen im Richtungserfassungsalgorithmus nicht verwendet wird und somit nicht die Ergebnisse des Richtungserfassungselements beeinflusst. In einigen Ausführungsformen verwendet das RMS-Schwellenwert-Auswerteelement 468 den gemessenen Pegel des konstanten akustischen Rauschens und vergleicht diesen mit einem empfangenen akustischen Signal, um zu ermitteln, ob die eintreffenden akustischen Daten bezüglich der Ermittlung ihrer Ankunftsrichtung verwendet werden sollen, und somit sind die empfangenen akustischen Daten nicht Teil des Rauschens in der Umgebung 110 (1A). Das RMS-Verarbeitungselement 467 kann somit verwendet werden, um die Gefahr zu reduzieren, dass Hintergrundmusik oder die Geräuschkulisse einer Menge die Richtungsauswertung beeinflusst, die von der ersten und der zweiten Signalverarbeitungstechnik eingesetzt wird.Next, at step 483, at least one of the inputs from a microphone in the array of microphones is provided to a root mean square (RMS) processing element 467 which is used to detect constant acoustic noise signals 311 and in some cases to remove contained in the composite acoustic signals 301 received by the microphones, respectively. The RMS processing element 467 may employ an RMS threshold evaluation element 468 that contains and/or monitors and stores information related to the time history of the level of the constant acoustic noise signal 311 . The RMS processing element 467 can be configured to detect the current level of the received constant acoustic noise signal 311 and further to receive an input regarding historical constant acoustic noise signal levels from the RMS threshold value evaluation element 468, so that an unwanted background noise is not used in the direction detection algorithm and thus not affecting the results of the direction detection element. In some embodiments, the RMS threshold evaluator 468 uses the measured constant acoustic noise level and compares it to a received acoustic signal to determine whether the incoming acoustic data should be used in determining its direction of arrival, and thus the received acoustic data not part of the noise in the environment 110 ( 1A ). The RMS processing element 467 can thus be used to reduce the risk of background music or crowd noise affecting the directional evaluation employed by the first and second signal processing techniques.
Als nächstes empfängt im Schritt 484 das Verzögerungsauswerteelement 462 die von dem Entzerrungselement 460 verarbeiteten akustischen Signale und analysiert die akustischen Signale, um die relativen Verzögerungen beim Empfang des akustischen Signals, die in jedem der Mikrofone auftreten, zu ermitteln. In einigen Ausführungsformen wertet das Verzögerungsauswerteelement 462 jedes der empfangenen akustischen Signale in Abhängigkeit von der Zeit aus, um zu ermitteln, welche Attribute in jedem der empfangenen akustischen Signale für jedes der empfangenen akustischen Signale gemeinsam sind, um die relative Verzögerung, die in jedem Mikrofon auftritt, zu ermitteln. In einer Konfiguration kann, wie in 2B dargestellt ist, das Verzögerungsauswerteelement 462 eine Änderung des Schallpegels oder Signalmusters als Funktion der Zeit erfassen, um die von jedem Mikrofon erfahrene Verzögerung zu ermitteln. In einem Beispiel können das eine oder die mehreren steuernden Softwareprogramme keine Kreuzkorrelationstechnik einsetzen, um die Verzögerung beim Empfang des akustischen Signals, die in dem jeweiligen Mikrofon auftritt, zu ermitteln, obwohl das empfangene akustische Signal ein Teil eines zusammengesetzten akustischen Signals sein kann, das von den Mikrofonen empfangen wird. In einem weiteren Beispiel mit Rückverweis auf 3A können die eine oder die mehreren steuernden Softwareprogramme die empfangenen zusammengesetzten akustischen Signale 301 aus den Mikrofonen in der geometrischen Anordnung mit dem vorgegebenen akustischen Signalpegel 321 vergleichen, um zu bestimmen, ob mindestens ein Bereich bezüglich des Teils des empfangenen zusammengesetzten akustischen Signals 301 den akustischen Signalpegel 321 für mindestens eines der Mikrofone übersteigt, und somit wird ein gewünschtes akustisches Signal, das von einem Anwender an einem oder mehreren Zeitpunkten empfangen worden ist, auf der Grundlage seines früheren Signalpegels (beispielsweise dB-Pegel) extrahiert, wobei in einigen Fällen zusätzlich eine Kreuzkorrelationstechnik eingesetzt wird. In einigen Fällen kann es zur Reduzierung der Leistungsaufnahme des Geräts und/oder zur Reduzierung der Anzahl an Aufgaben, die von den Prozessen auszuführen ist, wünschenswert sein, lediglich die Kreuzkorrelationstechnik einzusetzen, wenn der Schallpegel des empfangenen zusammengesetzten akustischen Signals 301 den akustischen Signalpegel 321 übersteigt. Man erkennt, dass das Mikrofon, das den geringsten Abstand zu der akustischen Signalquelle hat, eine Zeitverzögerung von null hat und dass die anderen Mikrofone eine Zeitverzögerung aufweisen, die von dem Abstand des Mikrofons zu dem Mikrofon mit kleinsten Abstand in der Richtung abhängt, in der das akustische Signal aus der akustischen Quelle empfangen wird. In einigen Fällen stellt das steuernde Software-Programm sicher, dass die Verzögerungszeiten jeweils positiv sind und speichert die relativen Verzögerungen in dem Speicher der elektronischen Einrichtung.Next, in step 484, the delay evaluation element 462 receives the acoustic signals processed by the equalization element 460 and analyzes the acoustic signals to determine the relative delays in receiving the acoustic signal experienced by each of the microphones. In some embodiments, the delay evaluator 462 evaluates each of the received acoustic signals as a function of time to determine which attributes in each of the received acoustic signals are common to each of the received acoustic signals by the relative delay that occurs in each microphone , to investigate. In a configuration, as in 2 B As shown, the delay evaluator 462 may sense a change in sound level or signal pattern as a function of time to determine the delay experienced by each microphone. In one example, the one or more controlling software programs may not use a cross-correlation technique to determine the delay in receiving the acoustic signal that occurs at the respective microphone, although the received acoustic signal may be part of a composite acoustic signal generated by received by the microphones. In another example with back reference to 3A the one or more controlling software programs can compare the received composite acoustic signals 301 from the microphones in the geometric arrangement with the predetermined acoustic signal level 321 to determine whether at least one area related to the portion of the received composite acoustic signal 301 exceeds the acoustic signal level 321 for at least one of the microphones, and thus a desired acoustic signal received by a user at one or more points in time is extracted based on its previous signal level (e.g. dB level), in some cases additionally employing a cross-correlation technique becomes. In some cases, to reduce the power consumption of the device and/or to reduce the number of tasks to be performed by the processes, it may be desirable to only use the cross-correlation technique when the sound level of the received composite acoustic signal 301 exceeds the acoustic signal level 321 . It can be seen that the microphone that is closest to the acoustic signal source has zero time delay and that the other microphones have a time delay that depends on the distance from the microphone to the closest microphone in the direction in which the acoustic signal is received from the acoustic source. In some cases, the controlling software program ensures that the delay times are all positive and stores the relative delays in the electronic device's memory.
Im Schritt 485 ermittelt nach der Ermittlung der relativen Verzögerung jedes der Mikrofone das Richtungsermittlungselement 463 sodann die Richtung, aus der das akustische Signal empfangen wird, indem ein oder mehrere Bereiche des steuernden Software-Programms verwendet werden. Obwohl es möglich ist, diverse komplizierte mathematische Analysetechniken auszuführen, um die genaue Position der akustischen Quelle in Bezug auf die elektronische Einrichtung 102 zu ermitteln, hat sich herausgestellt, dass diese hochanalytischen Richtungserfassungsprozesse einen beträchtlichen Anteil an Rechenleistung und Zeit erfordern, und somit eine signifikante Belastung für die Leistungsquelle 130 hervorrufen können. Das Einbinden dieser Arten von hochanalytischen Richtungserfassungsprozessen würde in hohem Maße die Kosten und den Aufwand eines Konsumelektrogeräts erhöhen, das in der Lage ist, diese Arten von Richtungserfassungsprozessen auszuführen.At step 485, after determining the relative delay of each of the microphones, the direction determining element 463 then determines the direction from which the acoustic signal is being received using one or more portions of the controlling software program. Although it is possible to perform various sophisticated mathematical analysis techniques to determine the exact position of the acoustic source with respect to the electronic device 102, these highly analytical direction detection processes have been found to require a significant amount of computational power and time, and thus a significant burden for the performance source 130 can cause. Incorporating these types of highly analytical direction sensing processes would greatly increase the cost and complexity of a consumer electronic device capable of performing these types of direction sensing processes.
Daher verwendet in einigen Ausführungsformen das Richtungsermittlungselement 463 einen weniger analytisch aufwendigen und weniger energieintensiven statistischen Eingruppierungsansatz, um die Richtung der akustischen Quelle zu ermitteln. Obwohl das Richtungsermittlungselement 463 in einigen Fällen in der Lage ist, die exakte Richtung der akustischen Quelle von der elektronischen Einrichtung 102 zu erfassen, weist in den meisten Fällen die Richtung, die durch das Richtungsermittlungselement 463 ermittelt wird, einen Fehler auf, der bei seiner maximalen Größe von der Abtastrate des Auswerteprogramms, dem Abstand der Mikrofone und auch der Größe der Richtungsintervalle abhängt, die von dem einen oder den mehreren steuernden Software-Programmen ausgewählt und verwendet werden, um die nächstliegende Richtung in Bezug auf die Richtung der akustischen Quelle zu ermitteln. Daher wird eine akustische Signalrichtung, die durch die statistische Auswertung ermittelt wird, die von dem Richtungsermittlungselement 463 ausgeführt wird, hierin als eine „Quasi-Richtung“ bezeichnet.Therefore, in some embodiments, the direction determination element 463 uses a less analytically intensive and less power intensive statistical grouping approach to determine the direction of the acoustic source. Although in some cases the direction determination element 463 is able to detect the exact direction of the acoustic source from the electronic device 102, in most cases the direction determined by the direction determination element 463 has an error which is at its maximum Size depends on the sampling rate of the analyzer program, the spacing of the microphones and also the size of the direction intervals selected and used by the one or more controlling software programs to determine the closest direction with respect to the direction of the acoustic source. Therefore, an acoustic signal direction determined by the statistical evaluation performed by the direction determining element 463 is referred to herein as a “quasi-direction”.
Während des Prozesses zur Ermittlung der Richtung verwendet das Richtungsermittlungselement 463 die relativen Verzögerungszeiten, die aus dem Verzögerungsauswerteelement 462 erhalten werden, um die Richtung des empfangenen akustischen Signals zu ermitteln. Das steuernde Software-Programm und das Richtungsermittlungselement 463 können das Muster der geometrischen Anordnung aus Mikrofonen in unterteilte Gebiete aufbrechen. Die Anzahl unterteilter Gebiete bzw. Einstufungsgebiete ist typischerweise abhängig von der Anzahl an Mikrofonen, die in der geometrischen Anordnung aus Mikrofonen enthalten sind, sowie von der minimalen Breite des Strahls. In einem Beispiel könnte die in 1B dargestellte elektronische Einrichtung 102 in fünf Sektoren oder fünf Winkelgebiete aufgeteilt werden. 5B ist eine Draufsicht des Akustiksignal-Verarbeitungssystems 100, das in 5A dargestellt ist, das ferner mehrere Richtungserfassungsgebiete enthält, die verwendet werden können, um die Richtung einer akustischen Quelle zu ermitteln. In einem Beispiel kann die elektronische Einrichtung 102 in drei Sektoren 531A, 531B und 531C unterteilt werden, die jeweils ein Mittelgebiet enthalten, das einen 120°-Winkelabstand hat, wenn dieser von einem Eckpunkt 536 aus gemessen wird. In einer Konfiguration liegt der Eckpunkt 536 in der geometrischen Mitte der geometrischen Anordnung aus Mikrofonen. Jedoch kann der Eckpunkt 536 an anderen gewünschen geometrischen Orten liegen in Bezug auf die geometrische Anordnung aus Mikrofonen, um die Auswertung, die von dem steuernden Software-Programm ausgeführt wird, zu vereinfachen. Als nächstes ermittelt das Richtungsermittlungselement 463, zu welchem Gebiet der geometrischen Anordnung aus Mikrofonen die akustische Quelle aktuell den kleinsten Abstand hat. In einem Beispiel, ist das Richtungsermittlungselement 463 in der Lage, wenn die akustische Quelle unter einem Winkel von ungefähr 35° in Bezug auf die in 5B dargestellte elektronische Einrichtung 102 angeordnet ist, zunächst zu bestimmen, dass die akustische Quelle innerhalb des Sektors 531A liegt, der sich von 0° bis 120° erstreckt, da das Verzögerungsauswerteelement 462 ermittelt hat, dass das Mikrofon 101A das Mikrofon mit dem kleinsten Abstand zu der akustischen Quelle ist, und das Mikrofon 101C eine kleinere Verzögerungszeit als das Mikrofon 101B aufgrund ihrer relativen Positionen in Bezug auf die akustische Quelle hat.During the direction determination process, the direction determination element 463 uses the relative delay times obtained from the delay evaluation element 462 to determine the direction of the received acoustic signal. The controlling software program and the direction determination element 463 can break up the pattern of the geometric array of microphones into subdivided areas. The number of subdivided areas or grading areas is typically dependent on the number of microphones included in the geometric array of microphones and the minimum width of the beam. In an example, the in 1B illustrated electronic device 102 can be divided into five sectors or five angular regions. 5B 1 is a top view of the acoustic signal processing system 100 shown in FIG 5A 1, which further includes a plurality of direction-sensing regions that can be used to determine the direction of an acoustic source. In one example, the electronic device 102 may be divided into three sectors 531A, 531B, and 531C, each containing a center region that is 120° angularly spaced when measured from a corner point 536. FIG. In one configuration, the vertex 536 is at the geometric center of the geometric array of microphones. However, vertex 536 may be at other desired geometric locations with respect to the geometric array of microphones to simplify the evaluation performed by the controlling software program. Next, the direction determination element 463 determines from which area of the geometric arrangement of microphones the acoustic source is currently the smallest distance. In one example, the direction determination element 463 is capable of when the acoustic source is at an angle of approximately 35° with respect to the in 5B Illustrated electronic device 102 is arranged to first determine that the acoustic source is within sector 531A, which extends from 0° to 120°, since delay evaluation element 462 has determined that microphone 101A is the microphone with the smallest distance to the acoustic source, and microphone 101C has a smaller delay time than microphone 101B due to their relative positions with respect to the acoustic source.
Nach der Ermittlung des Gebiets der geometrischen Anordnung aus Mikrofonen, zu welchem die akustische Quelle am nächsten liegt, ermittelt dann das Richtungsermittlungselement 463, zu welchem Richtungsabschnitt (oder unterteiltem Gebiet) in dem ermittelten Gebiet die Richtung der akustischen Quelle am nächsten liegt, sodass eine nächstliegende Quasi-Richtung ermittelt werden kann. Die Richtungsabschnitte werden erzeugt, indem das Winkelgebiet oder der Sektor in eine gewünschte Anzahl an Untergebieten unterteilt wird, die die Vorgaben für die gewünschte Genauigkeit und Rechenleistung erfüllen. Beispielsweise kann jeder der Sektoren 531A, 531 B und 531C4 in unterteilte Gebiete bzw. Unterteilungsgebiete aufgeteilt werden, die jeweils durch ein 30°-Intervall getrennt sind. In einem Beispiel kann die Vier-Abschnitt-Konfiguration des Sektors 531A so unterteilt werden, dass die Kanten des Abschnitts eine bekannte Quasi-Richtung besitzen, etwa Richtungen 0°, 30°, 60°, 90° und 120°, die Kanten zwischen den vier erzeugten Abschnitten sind. Somit liegt die Winkelstrecke, die für den definierten Abschnitt bzw. das definierte Einstufungsgebiet (beispielsweise den 30°-Abschnitt) erzeugt wird, zwischen einer ersten bekannten Richtung und einer zweiten bekannten Richtung. In einem Beispiel ist die erste Richtung gleich der 0°-Richtung und die zweite Richtung ist gleich der 30°-Richtung, wobei die erste Richtung sich von dem Eckpunkt 536 durch einen Bereich eines ersten Mikrofons 101A (beispielsweise geometrische Mitte des Mikrofons) erstreckt und die zweite Richtung sich von dem Eckpunkt 536 in der 30°-Richtung erstreckt.After determining the area of the geometric array of microphones to which the acoustic source is closest, the direction determination element 463 then determines to which directional section (or subdivided area) in the determined area the direction of the acoustic source is closest, so that a closest Quasi-direction can be determined. The directional bins are generated by dividing the angular domain or sector into a desired number of sub-domains that meet the specifications for the desired accuracy and computational power. For example, each of sectors 531A, 531B, and 531C4 can be divided into subdivided areas, each separated by a 30° interval. In one example, the four-section configuration of sector 531A can be subdivided such that the edges of the section have a known quasi-direction, such as directions 0°, 30°, 60°, 90°, and 120°, the edges between the four generated sections are. Thus, the angular distance generated for the defined section or grading area (e.g., the 30° section) is between a first known direction and a second known direction. In one example, the first direction is equal to the 0° direction and the second direction is equal to the 30° direction, the first direction extending from the vertex 536 through a region of a first microphone 101A (e.g., geometric center of the microphone) and the second direction extends from the vertex 536 in the 30° direction.
In einer Ausführungsform berechnet das Richtungsermittlungselement 463 zunächst Verhältnisse diverser Zeitverzögerungen (beispielsweise erste Verzögerung ungleich null/zweite Verzögerung ungleich null), die von dem Verzögerungsauswerteelement 462 gemessen werden, um zu ermitteln, zu welchen der Quasi-Richtungen die Richtung der akustischen Quelle am nächsten liegt, und sie vergleicht diese berechneten Verhältnisse mit Daten des Verhältnisses der Winkelzeitverzögerungen, die in der Speichereinheit 122 gespeichert sind. Die gespeicherten Daten für das Verhältnis der Wickelzeitverzögerung enthalten zuvor berechnete Daten, die erzeugt werden, indem ein Verhältnis der erwarteten Verzögerungszeiten berechnet wird, die in den Mikrofonen auftreten würden, wenn die akustische Quelle an den Kanten der Abschnitte liegen, die jede der Quasi-Richtungen innerhalb eines bestimmten Gebiets der elektronischen Einrichtung 102 einschließen. Wenn die akustische Quelle zu einem Winkel von ungefähr 35° in Bezug auf die elektronische Einrichtung 102 angeordnet ist, dann ermittelt unter Anwendung des vorhergehenden Beispiels daher das Richtungsermittlungselement 463 auf der Grundlage eines berechneten Verhältnisses der Verzögerungszeit, die von der Mikrofon 101C erfahren wird, zu der Verzögerungszeit, die von dem Mikrofon 101B erfahren wird, dass das berechnete Verhältnis näher an einem gespeicherten Winkelzeitverzögerungsverhältnis, das der 30°-Quasi-Richtung zugeordnet ist, liegt als für alle anderen gespeicherten Winkelzeitverzögerungsverhältnisse, die mit den anderen Quasi-Richtungen 60°, 90° oder 120° im Zusammenhang stehen. Alternativ kann das Richtungsermittlungselement 463 ermitteln, dass das berechnete Verhältnis näher an einem gespeicherten Winkelzeitverzögerungsverhältnis liegt, das der 30°-Quasi-Richtung zugeordnet ist, indem ermittelt wird, dass das berechnete Verhältnis in einem Bereich liegt, der der halben Abschnittsgröße auf jeder Seite der Quasi-Richtung entspricht. In diesem Beispiel kann das Richtungsermittlungselement 463 das berechnete Verhältnis mit dem gespeicherten Winkelzeitverzögerungsverhältnis, das den Richtungen 15°, 45°, 75° und 105° zugeordnet ist, vergleichen und kann dann ermitteln, dass das berechnete Verhältnis zwischen den gespeicherten Winkelzeitverzögerungsverhältnissen liegt, die 15° und 45° entsprechen. Daher ist die akustische Quelle mit hoher Wahrscheinlichkeit in der 30°-Quasi-Richtung angeordnet.In one embodiment, the direction determination element 463 first calculates ratios of various time delays (e.g., first non-zero delay/second non-zero delay) obtained from the delay evaluator element 462 to determine which of the quasi-directions the direction of the acoustic source is closest to, and compares these calculated ratios to angular time delay ratio data stored in memory unit 122 . The stored data for the wrap time delay ratio includes previously calculated data generated by calculating a ratio of the expected delay times that would occur in the microphones if the acoustic source were at the edges of the sections connecting each of the quasi-directions within a particular area of electronic device 102. Therefore, using the previous example, if the acoustic source is disposed at an angle of approximately 35° with respect to the electronic device 102, then the direction determination element 463 determines based on a calculated ratio of the delay time experienced by the microphone 101C to the delay time experienced by microphone 101B that the calculated ratio is closer to a stored angular time delay ratio associated with the 30° quasi-direction than for any other stored angular time delay ratios associated with the other 60° quasi-directions, 90° or 120° are related. Alternatively, the direction determiner 463 may determine that the calculated ratio is closer to a stored angular time delay ratio associated with the 30° quasi-direction by determining that the calculated ratio is in a range equal to half the section size on each side of the Quasi-direction corresponds. In this example, the direction determination element 463 may compare the calculated ratio to the stored angular time delay ratio associated with the directions 15°, 45°, 75° and 105° and may then determine that the calculated ratio is between the stored angular time delay ratios corresponding to the 15th ° and 45° correspond. Therefore, the acoustic source is arranged in the 30° quasi-direction with high probability.
In dem etwas seltenen Falle, dass das Richtungsermittlungselement 463 erkennt, dass das berechnete Verhältnis exakt mit einem gespeicherten Winkelzeitverzögerungsverhältnis übereinstimmt, muss das steuernde Software-Programm den Vorgang des Ermitteins, dass das berechnete Verhältnis zwischen den gespeicherten Zeitverzögerungsverhältnissen liegt, nicht fortsetzen.In the somewhat rare event that the direction determination element 463 detects that the calculated ratio exactly matches a stored angular time delay ratio, the controlling software program need not continue the process of determining that the calculated ratio is between the stored time delay ratios.
Man erkennt, dass der Vorgang des Ermittelns der Richtung der akustischen Quelle gegenüber dem mathematisch aufwendigen iterativen Prozess zur Ermittlung der exakten Position der akustischen Quelle unter Anwendung eines mehr konventionellen analytisch aufwendigen und leistungsintensiven Satzes deutlich vereinfacht ist. Der stark vereinfachte statistische Ansatz zur Ermittlung der Quellenrichtung reduziert auch die Leistungsanforderungen, die der Prozessor 118 erfüllen muss, um diese Aufgaben auszuführen.It can be seen that the process of determining the direction of the acoustic source is significantly simplified over the mathematically intensive iterative process of determining the exact position of the acoustic source using a more conventional analytically intensive and power intensive theorem. The greatly simplified statistical approach to determining source direction also reduces the performance requirements that processor 118 must meet to perform these tasks.
In einigen Ausführungsformen ermittelt das Richtungsermittlungselement 463 eine Richtung eines empfangenen akustischen Signals, indem zuerst die relativen Zeitverzögerungen, die jedes Mikrofon erfährt, ermittelt werden und indem anschließend jede der relativen Zeitverzögerungen mit mehreren gespeicherten Winkelzeitverzögerungen verglichen wird. Jede der mehreren gespeicherten Winkelzeitverzögerungen, die im Speicher abgelegt sind, kann einer Richtung zugeordnet werden, die relativ zu der nicht-linearen Anordnung aus Mikrofonen orientiert ist. Somit kann beispielsweise jeder Quasi-Richtung eine gespeicherte Winkelzeitverzögerung für jedes Mikrofon zugeordnet werden, etwa für Quasi-Richtungen 0°, 30°, 60°, 90° oder 120°. Es wird jedoch angenommen, dass die Verwendung des Verhältnisses der erwarteten Verzögerungszeiten in gewissen Konfigurationen geometrischer Anordnungen vorteilhaft sein kann. Beispielsweise kann die Verwendung des Verhältnisses, wenn die akustische Quelle in einem 3-D-Raum unter einem Winkel relativ zu einer Ebene angeordnet ist, die eine ebene Anordnung aus Mikrofonen enthält, aufgrund des inhärenten Vergleichs der relativen Verzögerungen zwischen Mikrofonen zweckdienlich sein, die durch das Verhältnis bereitgestellt sind, im Vergleich zu anderen Techniken, die lediglich Verzögerungszeiten mit den gespeicherten Winkelverzögerungszeiten vergleichen.In some embodiments, direction determination element 463 determines a direction of a received acoustic signal by first determining the relative time delays experienced by each microphone and then comparing each of the relative time delays to a plurality of stored angular time delays. Each of the plurality of stored angular time delays stored in memory can be associated with a direction oriented relative to the non-linear array of microphones. Thus, for example, each quasi-direction can be assigned a stored angular time delay for each microphone, for example 0°, 30°, 60°, 90° or 120° for quasi-directions. However, it is believed that using the ratio of the expected delay times may be advantageous in certain geometry configurations. For example, using the ratio when the acoustic source is placed in a 3-D space at an angle relative to a plane containing a planar array of microphones may be useful because of the inherent comparison of the relative delays between microphones caused by the ratio are provided compared to other techniques that only compare delay times with the stored angular delay times.
Da jedoch die Genauigkeit der Zeitverzögerungsmessungen, die von dem Verzögerungsauswerteelement 462 ermittelt werden, durch die Anzahl an Abtastungen ebenfalls begrenzt ist, die von dem Prozessor 118 innerhalb der tatsächlichen Zeitverzögerung, die von den einzelnen Mikrofonen erfahren werden, gesammelt werden können, wird es eine gewisse Unsicherheit in den ermittelten Zeitverzögerungswerten geben. Die Genauigkeit der Zeitverzögerung ist somit durch die Abtastfrequenz und den Abstand zwischen Mikrofonen begrenzt. Da jede der Abtastungen zeitlich sequenziell mit einer gewünschten Abtastfrequenz gewonnen wird, enthält sie einen Bereich eines empfangenen akustischen Signals. Der Abstand der Mikrofone und die Abtastfrequenz müssen somit ausreichend groß sein, sodass es mindestens zwei Abtastungen innerhalb der Zeit gewonnen werden können, in der der Empfang des akustischen Signals verzögert ist, ohne dass eine Erhöhung der Abtastung bzw. ein Upsampling erfolgt. Man erkennt, dass der Vorgang der Erhöhung der Abtastung zu einem signifikanten Abfluss von Prozessorressourcen und auch von elektrischer Leistung führen kann, die zum Ausführen dieser Aufgabe erforderlich sind. Wenn beispielsweise der Prozessor mit einer Frequenz von 48 kHz abtastet (beispielsweise 21 µs pro Abtastung) und die Mikrofone 70 mm auseinander liegen, können 10 Abtastungen von dem Prozessor innerhalb der Verzögerungszeit genommen werden, wohingegen ein Mikrofonabstand von 14 mm nur ermöglichen würde, dass der Prozessor zwei Abtastungen innerhalb der Verzögerungszeit erfasst. Die Unbestimmtheit bei den ermittelten Zeitverzögerungswerten aufgrund der häufig kleinen Anzahl an Abtastungen und aufgrund des Rauschens, das in den empfangenen akustischen Signalen enthalten ist, kann einen Jitter zwischen den ermittelten Quellenpositionszuständen hervorrufen, die die Fähigkeit des Richtungsermittlungselements 463 beeinflussen, um eine wahrscheinliche Quasi-Richtung zu ermitteln und festzulegen. Ein Schwingen mit hoher Rate zwischen den ermittelten Quellenpositionszuständen kann die Fähigkeit der Signalverarbeitungstechnik zur Ausführung ihrer gewünschten Funktion beeinflussen.However, since the accuracy of the time delay measurements determined by the delay evaluation element 462 is also limited by the number of samples that can be collected by the processor 118 within the actual time delay experienced by the individual microphones, there will be some Uncertainty in the determined time delay values. The accuracy of the time delay is thus limited by the sampling frequency and the distance between microphones. Because each of the samples is acquired sequentially in time at a desired sampling frequency, it contains a portion of a received acoustic signal. The distance between the microphones and the sampling frequency must therefore be large enough so that at least two samples can be obtained within the time in which the reception of the acoustic signal is delayed, without an increase in sampling or upsampling taking place. It can be seen that the process of increasing the sampling becomes significant drain of processor resources as well as electrical power required to perform this task. For example, if the processor samples at a frequency of 48kHz (e.g. 21µs per sample) and the microphones are 70mm apart, 10 samples can be taken by the processor within the delay time, whereas a microphone spacing of 14mm would only allow the Processor captured two samples within the delay time. The ambiguity in the determined time delay values, due to the often small number of samples and due to the noise contained in the received acoustic signals, can introduce jitter between the determined source position states that affect the ability of the direction determination element 463 to determine a probable quasi-direction to identify and determine. High rate oscillation between the detected source position states can affect the ability of the signal processing technique to perform its desired function.
In einigen Ausführungsformen des Schritts 485 wertet das steuernde Software-Programm die Frequenzen aus, bei denen die diversen ermittelten Richtungen durch das Richtungsermittlungselement 463 ausgewählt werden, um die wahrscheinlichste ermittelte Richtung der akustischen Quelle zu ermitteln. In einem Beispiel vergleicht das steuernde Software-Programm die Häufigkeit, mit der diverse ermittelte Richtungen von dem Richtungsermittlungselement 463 über eine Zeitdauer hinweg ausgewählt werden, und wählt dann die Richtung, die die höchste Häufigkeit für diese Zeitdauer hat, als die ermittelte Richtung aus. Das Ermitteln der am wahrscheinlichsten ermittelten Richtung kann in der Art eines gleitenden Mittelwerts ausgeführt werden, wonach jede ermittelte Richtung innerhalb der gleitenden Zeitdauer als eine „Stimme“ angenommen werden kann, über die summiert wird, um zu ermitteln, welche Richtung die meisten Stimmen über die aktuelle gleitende Zeitdauer erhält. Die Häufigkeit, mit der jede spezielle ermittelte Richtung ermittelt wird, kann die Auswertung zweier oder mehrerer Audio-Daten-Abtastungen beinhalten, die von dem Prozessor mit der Daten-Abtastfrequenz (beispielsweise 48 kHz-Abtastfrequenz) genommen werden. Dieser Vorgang kann die Größe an Jitter, der in der Ausgabe des Richtungsermittlungselements 463 wahrgenommen werden kann, reduzieren.In some embodiments of step 485, the controlling software program evaluates the frequencies at which the various detected directions are selected by the direction determination element 463 to determine the most likely detected direction of the acoustic source. In one example, the controlling software program compares the frequency with which various detected directions are selected by the direction determiner 463 over a period of time, and then selects the direction that has the highest frequency for that period of time as the detected direction. Determining the most likely determined direction can be performed in a moving average fashion, after which each determined direction within the sliding time period can be taken as a "vote" over which is summed to determine which direction has the most votes over the current sliding time duration. The frequency with which each particular determined direction is determined may involve evaluating two or more audio data samples taken by the processor at the data sampling rate (e.g., 48 kHz sampling rate). This process can reduce the amount of jitter that can be seen in the output of direction determination element 463 .
Es sei auf 4G und den Schritt 486 verwiesen; in dem Bemühen, die Unbestimmtheit für die ermittelte Quasi-Richtung, die aus dem Richtungsermittlungselement 463 erhalten wird, zu minimieren, wird das Koeffizientenerzeugungselement 464 verwendet, um diverse Gewichte auf eine Anzahl der Richtungen anzuwenden, die nahe an der ermittelten Quasi-Richtung liegen, die während vorhergehender Schritte ermittelt wurde. 5C zeigt grafisch einige der Koeffizientenwerte, die in unserem Beispiel von vorher verwendet werden können, um die Ermittlung zu gewichten, sodass eine akustische Quelle, die unter einem Winkel von 35° zu der elektronischen Einrichtung orientiert ist, eine Quasi-Richtung hat, die 30° beträgt. In diesem Beispiel kann die Quasi-Richtung von 30° einen Koeffizientenwert von V1 erhalten und die benachbarten Quasi-Richtungen von 0° und 60° können jeweils entsprechend einen Koeffizientenwert von V2 und V3 erhalten, die mit der Wahrscheinlichkeit übereinstimmen, dass die tatsächliche über einige akustische Signaldatenabtastungen gemittelte Richtung entlang der jeweiligen Quasi-Richtungen verläuft. Die Koeffizientenwerte V1, V2 und V3 können auf einen gewissen Wert festgelegt werden, der ein Prozentsatz einer vollen Skala ist, und können daher beispielsweise einen Wert haben, der reelle Zahlen zwischen null und eins annimmt. Die Koeffizientenwerte können auf der Grundlage darauf ermittelt werden, wie nahe die ermittelte Quasi-Richtung an einem gespeicherten Winkelzeitverzögerungsverhältnis liegt und/oder durch Bilden eines gleitenden Mittelwerts, der über eine Anzahl an Abtastungen oder über eine festgelegte Zeitdauer erhalten wird.Let it be 4G and step 486; in an effort to minimize the ambiguity for the determined quasi-direction obtained from the direction determination element 463, the coefficient generation element 464 is used to apply various weights to a number of the directions that are close to the determined quasi-direction, determined during previous steps. 5C FIG. 12 graphically shows some of the coefficient values that can be used in our example from before to weight the determination such that an acoustic source oriented at an angle of 35° to the electronic device has a quasi-direction that is 30° amounts to. In this example, the 30° quasi-direction may be given a coefficient value of V 1 and the neighboring 0° and 60° quasi-directions may be given a coefficient value of V 2 and V 3 , respectively, which correspond to the probability that the actual direction averaged over some acoustic signal data samples runs along the respective quasi-directions. The coefficient values V 1 , V 2 , and V 3 can be fixed to some value that is a percentage of a full scale, and therefore can have a value that takes on real numbers between zero and one, for example. The coefficient values may be determined based on how close the determined quasi-direction is to a stored angular time delay ratio and/or by a moving average obtained over a number of samples or over a specified period of time.
Als nächstes verwendet im Schritt 487 das Richtungsauswahlelement 465 dann die ermittelten Koeffizientenwerte zur Bestimmung der wahrscheinlichen Quasi-Richtung. Die ermittelten Koeffizientenwerte werden verwendet, um an dem Ausgang des Richtungsermittlungselements 463 wahrgenommenen Jitter zu gewichten und somit zu dämpfen, wenn die ermittelten Quasi-Richtungen für alle empfangenen akustischen Signaldatenabtastungen oder einige akustische Signaldatenabtastungen ermittelt und anschließend verfeinert werden. In einigen Ausführungsformen werden die ermittelten Koeffizientenwerte für jede der wahrscheinlichen Richtungen über die Abtastdauer oder Verzögerungsdauer aufsummiert, und die Quasi-Richtung, die die höchste Gesamtsumme über die Zeitdauer hinweg aufweist, wird als die wahrscheinliche Quasi-Richtung ausgewählt. In einigen Konfigurationen kann es auch sinnvoll sein, allen Koeffizienten, die mit nicht-wahrscheinlichen Richtungen verknüpft sind, eine null oder einen negativen Koeffizientenwert zu geben, um die Wahrscheinlichkeit zu reduzieren, dass diese Richtungen in diesem Schritt ausgewählt werden.Next, in step 487, the direction selector 465 then uses the determined coefficient values to determine the likely quasi-direction. The determined coefficient values are used to weight and thus attenuate perceived jitter at the output of the direction determination element 463 when determining and subsequently refining the determined quasi-directions for all received acoustic signal data samples or some acoustic signal data samples. In some embodiments, the determined coefficient values for each of the likely directions are summed over the sample period or delay period, and the quasi-direction that has the highest total sum over the period is selected as the likely quasi-direction. In some configurations, it may also be useful to give all coefficients associated with non-probable directions a zero or negative coefficient value to reduce the probability that those directions will be selected in this step.
Im Schritt 488 stellt führt dann das Richtungszuführungselement 466 die Richtungserfassungsinformation, die die ermittelte Richtung oder Quasi-Richtung enthält, dem ersten Signalprozessor 405 und dem zweiten Signalprozessor 407 zu. Die Richtungserfassungsinformation wird dann von dem ersten Signalprozessor 405 und dem zweiten Signalprozessor 407 entsprechend während der Schritte 472 und 491 zur weiteren Verwendung oder Verarbeitung empfangen.Then, in step 488 , the direction supply element 466 supplies the direction detection information containing the determined direction or quasi-direction to the first signal processor 405 and the second signal processor 407 . The direction detection information is then processed by the first signal processor 405 and the second signal processor processor 407 respectively during steps 472 and 491 for further use or processing.
Beispiel des zweiten SiagalprozessorsExample of the second signal processor
Gemäß 4A und 4B ist der zweite Signalprozessor 407 allgemein ausgebildet, ein gewünschtes akustisches Signal von einem unerwünschten Rauschen zu trennen, das am oberen Ende des akustischen Signalfrequenzbereichs auftreten kann, indem die akustischen Signale, die aus der geometrischen Anordnung aus Mikrofonen empfangen werden, unter Anwendung einer Strahlformungs-Rauschunterdrückungstechnik verarbeitet werden. 4F zeigt ein Verfahren 490 zur Ausführung der Strahlformungs-Rauschunterdrückungstechnik oder einer zweiten Signalverarbeitungstechnik unter Anwendung des zweiten Signalprozessors 407. Der zweite Signalprozessor 407 beinhaltet oder verwendet Bereiche des steuernden Software-Programms und diverse analoge und digitale Hardware-Komponenten, um die hierin beschriebenen gewünschten Prozesse auszuführen. In einigen Ausführungsformen beinhaltet der zweite Signalprozessor 407 Elemente, die in einem digitalen Signalprozessor-(DSP-) Modul ausgebildet sind. Die Strahlformungsverarbeitungstechnik, die von dem zweiten Signalprozessor 407 ausgeführt wird, wird im Allgemeinen zur Trennung des Rauschens, das aus einer achsenabweichenden Richtung empfangen wird, unter Anwendung einer Verzögerungs- und Summierungstechnik für das akustische Signal, wobei akustische Eingangssignale, die aus der geometrischen Anordnung aus Mikrofonen erhalten werden, verwendet werden. In einigen Ausführungsformen wird der Strahlformungsprozess dadurch erreicht, dass eine Verzögerung für jedes Mikrofon auf der Grundlage der Richtung oder der Quasi-Richtung ermittelt wird, die von dem Richtungsermittlungselement 430 ermittelt wurde, und dass die von jedem der Mikrofone innerhalb der geometrischen Anordnung aus Mikrofonen empfangenen verzögerten akustischen Signale aufsummiert werden, sodass die von dem Mikrofon aus der akustischen Quelle empfangene akustischen Signale jeweils in Phase sind und sich somit konstruktiv addieren, wenn sie kombiniert werden.According to 4A and 4B For example, the second signal processor 407 is generally configured to separate a desired acoustic signal from unwanted noise that may occur at the high end of the acoustic signal frequency range by converting the acoustic signals received from the microphone array using a beamforming noise reduction technique are processed. 4F Figure 4 shows a method 490 for performing the beamforming noise reduction technique or a second signal processing technique using the second signal processor 407. The second signal processor 407 includes or uses portions of the controlling software program and various analog and digital hardware components to perform the desired processes described herein . In some embodiments, the second signal processor 407 includes elements formed in a digital signal processor (DSP) module. The beamforming processing technique performed by the second signal processor 407 is generally used to separate the noise received from an off-axis direction using an acoustic signal delay and summation technique, with acoustic input signals emerging from the geometric arrangement Microphones are obtained are used. In some embodiments, the beamforming process is accomplished by determining a delay for each microphone based on the direction or quasi-direction determined by the direction determination element 430 and the received by each of the microphones within the microphone array delayed acoustic signals are summed up so that the acoustic signals received by the microphone from the acoustic source are each in phase and thus add constructively when combined.
In einigen Ausführungsformen verwendet der zweite Signalprozessor 407 die empfangene Richtungsinformation oder Quasi-Richtungsinformation für eine erste Zeitdauer, die länger ist als die Zeit, die das Richtungserfassungselement 430 benötigt, um die Richtungsinformation oder Quasi-Richtungsinformation zu aktualisieren (beispielsweise eine zweite Zeit bzw. Zeit von 1 Sekunde). In diesem Falle ist die Rate, mit der die Zeitverzögerungen während des Strahlformungsvorganges aktualisiert werden, kleiner als die Rate, mit der das Richtungserfassungselement 430 in der Lage ist, die Richtungsinformation oder Quasi-Richtungsinformation zu aktualisieren, wodurch eine beträchtliche Menge an Rechenleistung, Batterieleistung und Zeit, die von der elektronischen Einrichtung 102 aufzuwenden sind, reduziert wird. Die Verwendung dieses Prozesses kann hilfreich sein, um das endgültige verarbeitete akustische Signal zu glätten, was im Allgemeinen nicht erreicht wird, wenn die Rate, mit der die Richtung aktualisiert wird, zu hoch ist.In some embodiments, the second signal processor 407 uses the received direction information or quasi-direction information for a first period of time that is longer than the time it takes for the direction detection element 430 to update the direction information or quasi-direction information (e.g., a second time or time of 1 second). In this case, the rate at which the time delays are updated during the beamforming process is less than the rate at which the direction detection element 430 is able to update the direction information or quasi-direction information, thereby using a significant amount of computing power, battery power and Time to be expended by the electronic device 102 is reduced. Using this process can be helpful to smooth the final processed acoustic signal, which is generally not achieved if the rate at which direction is updated is too fast.
7A zeigt ein Beispiel eines ersten Strahlformungsmusters 701, das von der zweiten Signalverarbeitungstechnik unter Anwendung der mehreren Mikrofone, die einen festgelegten Abstand voneinander haben (beispielsweise 70 mm), bei einer ersten Frequenz von ungefähr 100 Hz erzeugt wird. Man erkennt, dass eine gewünschte akustische Quelle an der -30°-Position relativ zu der Orientierung des polaren Graphen liegt. Jedoch hat die Strahlformungstechnik bei dieser geringen Frequenz keine Fähigkeit, achsenabweichendes Rauschen aus der gewünschten akustischen Quelle abzutrennen, wie dies durch die Kreisform des Strahlformungsmusters gezeigt ist. 7B zeigt ein Beispiel eines zweiten Strahlformungsmusters 702, das von der zweiten Signalverarbeitungstechnik bei einer zweiten Frequenz von ungefähr 1300 Hz unter Anwendung der gleichen Mikrofone erzeugt wird, die zur Erzeugung des ersten Strahlformungsmusters 01 verwendet wurden. In diesem Beispiel hat das zweite Strahlformungmuster 702, das bei einer Frequenz von 1300 Hz erzeugt wird, nahezu eine Herzkurvenform, die in die Richtung der gewünschten akustischen Quelle zeigt (beispielsweise -30°). 7C zeigt ein Beispiel eines dritten Strahlformungsmusters 703, das bei einer dritten Frequenz von ungefähr 5000 Hz durch die gleichen Mikrofone erzeugt wird, die zur Erzeugung des ersten Strahlformungsmusters 701 verwendet wurden. In diesem Beispiel wird das dritte Strahlformungsmuster 703 ebenfalls aufgrund der Wirkung der Frequenz auf das erfasste Signal derart verzerrt, dass es acht Keulen 703A-703H enthält. Die Fähigkeit der zweiten Signalverarbeitungstechnik zum Zurückweisen bzw. Reduzieren von achsenabweichenden Rauschquellen in allen außer drei von acht achsenabweichenden Richtungen (beispielsweise die Keulen 703D-703F) bei dieser Frequenz ist beträchtlich, während die Keule 703A, die in Richtung der akustischen Quelle ausgerichtet ist, den größten Anteil oder sogar das gesamte akustische Signal aufnimmt, das aus einer gewünschten akustischen Quelle empfangen wird, die an der -30°-Position liegt. Wie zuvor angegeben ist, kann in einigen Ausführungsformen der relative Abstand zwischen den diversen Mikrofonen in dem Akustiksignal-Verarbeitungssystem 100 so eingestellt werden, dass der Frequenzbereich, in welchem die zweite Signalverarbeitungstechnik arbeiten kann, in gewünschter Weise festgelegt werden kann. Beispielsweise kann das untere Ende des Frequenzbereichs, in welchem die zweite Signalverarbeitungstechnik in der Lage ist, in adäquater Weise achsenabweichendes Rauschen zu reduzieren, derart ausgewählt werden, dass es zwischen 1000 Hz und ungefähr 4000 Hz liegt, während andererseits die zweite Signalverarbeitungstechnik an dem oberen Ende des Frequenzbereichs, etwa bei ungefähr 4000-8000 Hz, in der Lage ist, eine ausgeprägte Keule (beispielsweise die Keule 703A) in der Richtung der akustischen Quelle zu bilden, wie dies in ähnlicher Weise in 7C dargestellt ist. 7A Figure 7 shows an example of a first beamforming pattern 701 generated by the second signal processing technique using the plurality of microphones spaced a specified distance apart (e.g. 70 mm) at a first frequency of approximately 100 Hz. It can be seen that a desired acoustic source is at the -30° position relative to the orientation of the polar graph. However, at this low frequency, the beamforming technique has no ability to separate off-axis noise from the desired acoustic source, as shown by the circularity of the beamforming pattern. 7B 12 shows an example of a second beamforming pattern 702 generated by the second signal processing technique at a second frequency of approximately 1300 Hz using the same microphones used to generate the first beamforming pattern 01. In this example, the second beamforming pattern 702, generated at a frequency of 1300 Hz, has a nearly heart-shaped waveform pointing in the direction of the desired acoustic source (e.g., -30°). 7C 12 shows an example of a third beamforming pattern 703 generated at a third frequency of approximately 5000 Hz by the same microphones used to generate the first beamforming pattern 701. FIG. In this example, the third beamforming pattern 703 is also distorted to contain eight lobes 703A-703H due to the effect of frequency on the detected signal. The ability of the second signal processing technique to reject or reduce off-axis noise sources in all but three of eight off-axis directions (for example, lobes 703D-703F) at this frequency is significant, while lobe 703A, which is aligned in the direction of the acoustic source picks up most or even all of the acoustic signal received from a desired acoustic source located at the -30° position. As previously indicated, in some embodiments the relative spacing between the various microphones in the acoustic signal processing system 100 can be adjusted such that the frequency range over which the second signal processing technique can operate can be desirably determined. at For example, the lower end of the frequency range in which the second signal processing technique is able to adequately reduce off-axis noise can be selected to be between 1000 Hz and about 4000 Hz, while on the other hand the second signal processing technique is at the upper end of the frequency range, say at about 4000-8000 Hz, is capable of forming a pronounced lobe (e.g. lobe 703A) in the direction of the acoustic source, as is similarly shown in FIG 7C is shown.
Es sei nun wieder auf 4A und 4B verwiesen; der zweite Signalprozessor 407 beinhaltet im Allgemeinen Strahlformungssignalverzögerungselemente 431A-431C, ein Signalkombinierelement 432 und ein Signalfilterelement 408, einen parametrischen Entzerrer 409, einen Mischverstärkungsverstärker 410, der nach dem Verarbeitungselement 451 angeordnet ist. Es sei wieder auf 4F verwiesen; während des Betriebs empfängt der zweite Signalprozessor 407 eine Richtungserfassungsinformation aus dem Richtungserfassungselement 430 (beispielsweise Schritt 491), die auf akustischen Signalen beruht, die durch die geometrische Anordnung aus Mikrofonen empfangen werden. Die Richtungserfassungsinformation ermöglicht es dann, dass der Strahlformungsprozess in der gewünschten Richtung verläuft und effizient den Anteil an achsenabweichenden Rauschen in den akustischen Signalen reduziert, die nach dem Durchlaufen der diversen Komponenten in Richtungserfassungseinrichtung 420 empfangen werden, wie zuvor beschrieben ist. Der Strahlformungsprozess wird im Allgemeinen durch die Verwendung der akustischen Signale ausgeführt, die von allen Mikrofonen empfangen werden, und durch Verwendung der Richtungserfassungsinformation, die aus dem Richtungserfassungselement 430 empfangen wird.It is now open again 4A and 4B referred; the second signal processor 407 generally includes beamforming signal delay elements 431A-431C, a signal combining element 432 and a signal filtering element 408, a parametric equalizer 409, a mixing gain amplifier 410 located after the processing element 451. It's up again 4F referred; during operation, the second signal processor 407 receives direction detection information from the direction detection element 430 (e.g. step 491) based on acoustic signals received by the geometric array of microphones. The direction detection information then allows the beamforming process to proceed in the desired direction and efficiently reduces the amount of off-axis noise in the acoustic signals received after traversing the various components in direction detector 420, as previously described. The beamforming process is generally performed using the acoustic signals received from all microphones and using the direction detection information received from the direction detection element 430 .
In den Schritten 492-493 führt in einigen Ausführungsformen das steuernde Software-Programm eine Auswertung hinsichtlich der empfangenen Richtungserfassungsinformation, die aus dem Richtungserfassungselement 430 erhalten wird, aus und ermittelt dann auf der Grundlage der erfassten Richtung oder Quasi-Richtung, wie die gewünschte Verzögerung jedes der akustischen Signale, die bereits von den Mikrofonen empfangen werden, sein muss, wobei dies auf der Grundlage einer speziellen Richtungs-Zeitverzögerungs-Information erfolgt, die in der Speichereinheit 122 abgelegt ist. Die in der Speichereinheit 122 gespeicherte Richtungs-Zeitverzögerungs-Information kann eine Tabelle aller möglichen Richtungen oder Quasi-Richtungen enthalten, die das Richtungserfassungselement 430 der zweiten Signalverarbeitungstechnik zuführt, und kann alle Zeitverzögerungswerte enthalten, die jeweils mit den möglichen Richtungen oder Quasi-Richtungen für jedes der Mikrofone im Zusammenhang stehen. Daher enthält die Tabelle einen Zeitverzögerungswert für jedes Mikrofon für jede der möglichen Richtungen oder Quasi-Richtungen. In einem Beispiel können, wie in 5A gezeigt ist, die mehreren Richtungen alle Richtungen, die mindestens eine Komponente der tatsächlichen Richtung haben, innerhalb einer Ebene mit einschließen, die parallel zu der oberen Fläche 106 (1) aus allen unterschiedlichen Winkeln (beispielsweise 0° bis 360°) ist. Die von den Signalverzögerungselementen 431A-431C verwendete Zeitverzögerung ist durch den bekannten Abstand zwischen den Mikrofonen in der Richtung, aus der das akustische Signal empfangen wird, und durch die bekannte Schallgeschwindigkeit festgelegt.In steps 492-493, in some embodiments, the controlling software program performs an evaluation on the received direction detection information obtained from the direction detection element 430 and then determines based on the detected direction or quasi-direction how the desired delay each of the acoustic signals already being received by the microphones, this being done on the basis of specific direction-time-delay information stored in the storage unit 122. The direction-time-delay information stored in storage unit 122 may include a table of all possible directions or quasi-directions that direction-sensing element 430 applies to the second signal processing technique, and may include all time-delay values associated with the possible directions or quasi-directions for each of the microphones are related. Therefore the table contains a time delay value for each microphone for each of the possible directions or quasi-directions. In an example, as in 5A as shown, the multiple directions include all directions that have at least one component of the actual direction within a plane that is parallel to the top surface 106 ( 1 ) from all different angles (e.g. 0° to 360°). The time delay used by the signal delay elements 431A-431C is determined by the known distance between the microphones in the direction from which the acoustic signal is received and the known speed of sound.
Als nächstes werden im Schritt 494 die verzögerten akustischen Signale unter Verwendung des Signalkombinierelements 432 miteinander kombiniert. Anschließend werden im Schritt 495 die verzögerten akustischen Signale optional gefiltert, wobei das Signalfilterelement 408 im Nachverarbeitungselement 451 verwendet wird. Das Signalfilterelement kann einen Hochpassfilter aufweisen, der in der Lage ist, Frequenzen zu entfernen, die niedriger als der nutzbare Bereich des zweiten Signalprozessors 407 sind. Beispielsweise kann der Hochpassfilter hinsichtlich der Frequenz so konfiguriert sein, dass Frequenzen von höher als ungefähr 1000 Hz durchgelassen werden. Die geeignet verzögerten und kombinierten akustischen Signale addieren sich dann konstruktiv, sodass das Signal-zu-Rauschen-Verhältnis des akustischen Eingangs der akustischen Quelle im Vergleich zu den achsenabweichenden Rauschen, das von unerwünschten Rauschquellen erzeugt wird, verbessert wird.Next, at step 494, the delayed acoustic signals are combined together using signal combiner 432. Subsequently, in step 495 the delayed acoustic signals are optionally filtered using the signal filter element 408 in the post-processing element 451 . The signal filter element may include a high-pass filter capable of removing frequencies lower than the usable range of the second signal processor 407 . For example, the high pass filter may be configured in frequency to pass frequencies greater than about 1000 Hz. The appropriately delayed and combined acoustic signals then add constructively such that the signal-to-noise ratio of the acoustic input of the acoustic source is improved compared to the off-axis noise produced by unwanted noise sources.
Wie zuvor angegeben ist, kann, nachdem der erste und der zweite Signalverarbeitungsprozess abgeschlossen sind, das verarbeitete akustische Ausgangssignal aus dem ersten Signalprozessor 405 unter Verwendung von Nachverarbeitungselementen 452 (Schritt 477) weiterverarbeitet werden und die verarbeitete akustische Signalausgabe aus dem zweiten Signalprozessor 407 kann unter Verwendung der Nachverarbeitungselemente 451 (Schritt 495) weiterverarbeitet werden, bevor sie von dem Signalkombinierelement 414 im Schritt 498 miteinander kombiniert werden. Die Nachverarbeitungselemente 451, 452 können jeweils einen oder mehrere Verstärker aufweisen, die in der Lage sind, die Signalpegel der verarbeiteten akustischen Signale vor ihrer Kombination einzustellen.As previously indicated, after the first and second signal processing processes are complete, the processed acoustic output signal from the first signal processor 405 can be further processed using post-processing elements 452 (step 477) and the processed acoustic signal output from the second signal processor 407 can be processed using of the post-processing elements 451 (step 495) are further processed before they are combined with one another by the signal combining element 414 in step 498. The post-processing elements 451, 452 may each include one or more amplifiers capable of adjusting the signal levels of the processed acoustic signals prior to their combination.
8A-8C zeigen Beispiele diverser Muster, die bei unterschiedlichen Frequenzen unter Anwendung einer ersten Signalverarbeitungstechnik und einer zweiten Signalverarbeitungstechnik erzeugt werden. Die zur Erzeugung der in 8A-8C gezeigten Muster eingesetzte erste und zweite Signalverarbeitungstechnik verwenden eine geometrische Mikrofonanordnung, die drei Mikrofone enthält, die mit einem festen Abstand von 70 mm angeordnet sind. 8A zeigt ein Beispiel eines Musters 801, das von der ersten Signalverarbeitungstechnik unter Anwendung einer Herzkurve erster Ordnung auf der Grundlage einer Signalverarbeitungstechnik erzeugt ist, und ein Muster 802, das durch die zweite Signalverarbeitungstechnik bei einer ersten Frequenz von ungefähr 100 Hz gebildet wird. Man erkennt, dass die gewünschte akustische Quelle an einer 30°-Position relativ zu der Orientierung des polaren Graphen angeordnet ist, sodass der Maximalbetrag des akustischen Signals bei dieser Frequenz durch die erste Signalverarbeitungstechnik aufgenommen wird, während die zweite Signalverarbeitungstechnik beim Reduzieren aller akustischen Signale bei dieser Frequenz in allen Richtungen ineffizient ist. Daher kann die Rauschunterdrückung, die durch die erste Signalverarbeitungstechnik bereitgestellt wird, vorzugsweise zum „Aufräumen“ des akustischen Signals für die Frequenzen am unteren Ende eingesetzt werden. 8A-8C show examples of various patterns generated at different frequencies using a first signal processing technique and a second signal processing technique will. The to generate the in 8A-8C The first and second signal processing techniques employed in the pattern shown use a geometric microphone array containing three microphones spaced at a fixed spacing of 70 mm. 8A Figure 8 shows an example of a pattern 801 generated by the first signal processing technique using a first order heart curve based signal processing technique and a pattern 802 formed by the second signal processing technique at a first frequency of approximately 100 Hz. It can be seen that the desired acoustic source is located at a 30° position relative to the polar graph orientation, such that the maximum magnitude of the acoustic signal at that frequency is picked up by the first signal processing technique, while the second signal processing technique assists in reducing all acoustic signals is inefficient in all directions at this frequency. Therefore, the noise reduction provided by the first signal processing technique can be used preferentially to "clean up" the acoustic signal for the low-end frequencies.
8B zeigt ein Beispiel eines Musters 811, das durch die erste Signalverarbeitungstechnik unter Anwendung einer Herzkurve erster Ordnung basierend auf einer Signalverarbeitungstechnik erzeugt wird, und ein Muster 812, das durch die zweite Signalverarbeitungstechnik bei der Frequenz von ungefähr 1600 Hz erzeugt wird. Man erkennt, dass durch Änderung der Frequenz von 100 Hz auf ungefähr 1600 Hz die Fähigkeit der zweiten Signalverarbeitungstechnik zur Reduzierung von achsenabweichenden Rauschquellen verbessert ist, und wie in 8B gezeigt, ist sie ähnlich zu dem Herzkurvenmuster, das bei dieser Frequenz von der ersten Signalverarbeitungstechnik erzeugt wird. Da die Rauschunterdrückungsergebnisse, die durch beide Signalverarbeitungstechniken erhalten werden, bei 1600 Hz ähnlich sind, kann eine Frequenz bei oder in der Nähe von 1600 Hz ausgewählt und von der steuernden Software als Übergangspunkt für den Frequenzbereich verwendet werden, an welchem die aus der ersten Signalverarbeitungstechnik erhaltenen Ergebnisse bei Frequenzen unterhalb des Übergangspunks verwendet werden, und die aus der zweiten Signalverarbeitungstechnik erhaltenen Ergebnisse werden bei Frequenzen über dem Übergangspunkt verwendet. In einigen Ausführungsformen ist es wünschenswert, den Hochpassfilter und Tiefpassfilter, die in der Akustiksignal-Verarbeitungseinrichtung 400 verwendet sind, so auszuwählen, dass das obere Ende des Frequenzbereichs der ersten Signalverarbeitungstechnik auf einen Punkt festgelegt ist, der an oder zumindest nahe bei dieser Übergangsfrequenz liegt, und dass das untere Ende des Frequenzbereichs der zweiten Signalverarbeitungstechnik auf einen Punkt festgelegt ist, der zumindest nahe an dieser Übergangsfrequenz liegt. 8B Figure 8 shows an example of a pattern 811 generated by the first signal processing technique using a first-order heart curve based signal processing technique and a pattern 812 generated by the second signal processing technique at the frequency of about 1600 Hz. It can be seen that changing the frequency from 100 Hz to approximately 1600 Hz improves the ability of the second signal processing technique to reduce off-axis noise sources, and as in 8B shown, it is similar to the heart curve pattern generated at this frequency by the first signal processing technique. Since the noise reduction results obtained by both signal processing techniques are similar at 1600 Hz, a frequency at or near 1600 Hz can be selected and used by the controlling software as a crossover point for the frequency range at which those obtained from the first signal processing technique Results at frequencies below the crossover point are used and the results obtained from the second signal processing technique are used at frequencies above the crossover point. In some embodiments, it is desirable to select the high-pass filter and low-pass filter used in the acoustic signal processing device 400 such that the upper end of the frequency range of the first signal processing technique is fixed at a point that is at or at least close to this crossover frequency. and that the lower end of the frequency range of the second signal processing technique is fixed at a point at least close to this crossover frequency.
8C zeigt ein Beispiel eines Musters 821, das durch die erste Signalverarbeitungstechnik unter Anwendung einer Herzkurve erster Ordnung auf der Grundlage einer Signalverarbeitungstechnik erzeugt wird, und ein Muster 822, das von der zweiten Signalverarbeitungstechnik bei einer dritten Frequenz von ungefähr 6500 Hz erzeugt wird. Man erkennt, dass die gewünschte akustische Quelle an einer 30°-Position relativ zu der Orientierung des polaren Graphen liegt, sodass der maximale Betrag des akustischen Signals bei dieser Frequenz von der zweiten Signalverarbeitungstechnik aufgenommen wird (d.h. das Muster 822), während nahezu das gesamte akustische Signal bei dieser Frequenz in Richtungen der akustischen Quelle von der ersten Signalverarbeitungstechnik zurückgewiesen wird, und die achsenabweichenden Seitenkeulenrichtungen (beispielsweise unter den Winkel -38°, -95°, 98° und 155°) werden gegenüber der Richtung der akustischen Quelle tatsächlich bevorzugt. Daher kann die Rauschunterdrückung, die von der zweiten Signalverarbeitungstechnik bereitgestellt wird, vorzugsweise zum „Aufräumen“ des akustischen Signals bei den Frequenzen am oberen Ende verwendet werden. 8C Figure 8 shows an example of a pattern 821 generated by the first signal processing technique using a first order heart curve based signal processing technique and a pattern 822 generated by the second signal processing technique at a third frequency of approximately 6500 Hz. It can be seen that the desired acoustic source is at a 30° position relative to the orientation of the polar graph, such that the maximum magnitude of the acoustic signal at that frequency is picked up by the second signal processing technique (ie, pattern 822), while nearly all of acoustic signal at this frequency in directions of the acoustic source is rejected by the first signal processing technique, and the off-axis sidelobe directions (e.g. at angles -38°, -95°, 98° and 155°) are actually favored over the direction of the acoustic source. Therefore, the noise reduction provided by the second signal processing technique can be used preferentially to "clean up" the acoustic signal at the high-end frequencies.
Im Schritt 499 führt dann das Signalkombinierelement 414 das verarbeitete akustische Signal (beispielsweise das gewünschte akustische Signal) einem nachgeordneten Element 415 zu. Wie zuvor angegeben ist, kann das nachgeordnete Element 415 eine Software-Anwendung oder eine andere elektronische Einrichtung sein, die das verarbeitete akustische Signal zum Ausführen einer gewissen gewünschten Aktion verwendet. Das nachgeordnete Element 415 kann eine elektronische Komponente sein, die in direkter Verbindung oder drahtloser Verbindung mit dem Signalkombinierelement 414 steht, das in der I/O-Einrichtung 116 angeordnet ist. In einer Konfiguration kann das nachgeordnete Element 415 eine elektronische Komponente sein, die in dem Akustiksignal-Verarbeitungssystem 100 angeordnet ist. In einer weiteren Konfiguration kann das nachgeordnete Element 415 eine elektronische Komponente sein, die in einer elektronischen Einrichtung angeordnet ist, die außerhalb des Akustiksignal-Verarbeitungssystems 100 liegt. Zu Beispielen einer externen elektronischen Einrichtung gehören ein Drahtlos-Lautsprecher, eine Video-Kameraeinrichtung, eine Tastatur, ein intelligentes Telefon, ein Lautsprecher-Telefon, eine Heimautomatisierungseinrichtung oder ein anderes zweckdienliches elektronisches Gerät, das so angeordnet ist, dass es eine Verbindung mit einer oder mehreren elektronischen Komponenten ermöglicht, die in dem Akustiksignal-Verarbeitungssystem 100 vorgesehen sind.In step 499 the signal combining element 414 then supplies the processed acoustic signal (e.g. the desired acoustic signal) to a downstream element 415 . As previously indicated, the downstream element 415 may be a software application or other electronic device that uses the processed acoustic signal to perform some desired action. The downstream element 415 may be an electronic component that is in direct communication or wireless communication with the signal combining element 414 that is located in the I/O device 116 . In one configuration, the downstream element 415 may be an electronic component that is arranged in the acoustic signal processing system 100 . In another configuration, the downstream element 415 may be an electronic component located in an electronic device external to the acoustic signal processing system 100 . Examples of an external electronic device include a wireless speaker, video camera device, keyboard, smart phone, speakerphone, home automation device, or other appropriate electronic device arranged to connect to one or multiple electronic components provided in the acoustic signal processing system 100.
Eine oder mehrere der Ausführungsformen der hierin bereitgestellten Offenbarung können als ein Programmprodukt zur Verwendung in Verbindung mit einem Computersystem eingerichtet sein. Das eine oder die mehreren Programme des Programmprodukts definieren Funktionen der Ausführungsformen (einschließlich der hierin beschriebenen Verfahren) und können in einer Vielzahl von computerlesbaren Speichermedien enthalten sein. Zu anschaulichen computerlesbaren Speichermedien gehören, ohne darauf eingeschränkt zu sein: (i) nicht-beschreibbare Speichermedien (beispielsweise Nur-Lese-Speichereinrichtungen in einem Computer, etwa CD-ROM-Disketten, die von einem CD-ROM-Laufwerk lesbar sind, ein Flash-Speicher, ROM-Chips oder eine beliebige Art eines nicht-flüchtigen Halbleiterspeichers), auf denen Information permanent gespeichert werden kann; und (ii) beschreibbare Speichermedien (beispielsweise Disketten in einem Diskettenlaufwerk oder einem Festplattenlaufwerk oder eine beliebige Art von Halbleiterspeicher mit wahlfreiem Zugriff), auf denen änderbare Informationen gespeichert werden.One or more of the embodiments of the disclosure provided herein may be implemented as a program product for use in connection with a computer system. The one or more programs of the program product define functions of the embodiments (including the methods described herein) and may be embodied on a variety of computer-readable storage media. Illustrative computer-readable storage media include, but are not limited to: (i) non-writable storage media (e.g., read-only memory devices in a computer, such as CD-ROM disks readable by a CD-ROM drive, a flash -Memory, ROM chips or any type of non-volatile semiconductor memory) on which information can be permanently stored; and (ii) writable storage media (e.g., floppy disks in a floppy disk drive or a hard disk drive, or any type of random access semiconductor memory) on which alterable information is stored.
Die Erfindung ist zuvor mit Verweis auf spezielle Ausführungsformen beschrieben. Der Fachmann erkennt jedoch, dass diverse Modifizierungen und Änderungen daran vorgenommen werden können, ohne von dem breiteren Grundgedanken und dem Bereich der Erfindung abzuweichen, wie sie in den angefügten Patentansprüchen dargelegt ist. Die vorhergehende Beschreibung und die Zeichnungen sollen daher in einer anschaulichen anstatt einer beschränkenden Weise betrachtet werden.The invention has been described above with reference to specific embodiments. However, one skilled in the art will recognize that various modifications and changes can be made therein without departing from the broader spirit and scope of the invention as set forth in the appended claims. The foregoing description and drawings are, therefore, to be regarded in an illustrative rather than a restrictive manner.