DE102005057406A1 - Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method - Google Patents
Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method Download PDFInfo
- Publication number
- DE102005057406A1 DE102005057406A1 DE102005057406A DE102005057406A DE102005057406A1 DE 102005057406 A1 DE102005057406 A1 DE 102005057406A1 DE 102005057406 A DE102005057406 A DE 102005057406A DE 102005057406 A DE102005057406 A DE 102005057406A DE 102005057406 A1 DE102005057406 A1 DE 102005057406A1
- Authority
- DE
- Germany
- Prior art keywords
- sound
- playback
- recording
- sound source
- reproduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/323—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/326—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/027—Spatial or constructional arrangements of microphones, e.g. in dummy heads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Multimedia (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Aufnahme von Tonsignalen von einer oder mehreren in einem Aufnahmeraum angeordneten Tonquellen mit zeitlich variablen Richtcharakteristiken und zur wahrnehmungsnahen Wiedergabe der Tonsignale und der Richtungsinformation der Tonquellen in einem Wiedergaberaum; die Erfindung betrifft zudem ein System zur Durchführung des Verfahrens. Um die Richtungsinformation einer Tonquelle in Echtzeit aufzeichnen, übertragen und wiedergeben zu können, wird im Aufnahmeraum nur die Hauptabstrahlrichtung der von der Tonquelle ausgesendeten Tonsignale in Abhängigkeit von der Zeit erfasst und die Wiedergabe in Abhängigkeit der erfassten Hauptabstrahlrichtung bewerkstelligt. Zur Vermittlung der Richtungsinformation erfolgt die Wiedergabe der Tonsignale mit einer der Tonquelle zugeordneten ersten Wiedergabeeinheit und wenigstens einer beabstandet von der ersten Wiedergabeeinheit angeordneten zweiten Wiedergabeeinheit. Die Wiedergabe mit der oder den zweiten Wiedergabeeinheiten erfolgt gegenüber der ersten Wiedergabeeinheit mit Zeitverzögerungen Ð.The invention relates to a method for recording sound signals from one or more sound sources arranged in a recording room with temporally variable directional characteristics and for perceptually reproducing the sound signals and the directional information of the sound sources in a playback room; the invention also relates to a system for carrying out the method. In order to be able to record, transmit and reproduce the directional information of a sound source in real time, only the main emission direction of the sound signals emitted by the sound source as a function of time is recorded in the recording room and the reproduction is carried out as a function of the detected main emission direction. To convey the directional information, the sound signals are reproduced with a first reproduction unit assigned to the sound source and at least one second reproduction unit arranged at a distance from the first reproduction unit. The playback with the second playback unit or units takes place with time delays gegenüber compared to the first playback unit.
Description
Die Erfindung betrifft ein Verfahren zur Aufnahme von Tonsignalen von einer in einem Aufnahmeraum angeordneten Tonquelle mit zeitlich variabler Richtcharakteristik und zur Wiedergabe der Tonsignale in einem Wiedergaberaum, sowie ein System zur Durchführung des Verfahrens.The The invention relates to a method for recording sound signals of a arranged in a recording room sound source with temporally variable directional characteristics and for reproducing the sound signals in a playback room, as well as a system for performing the Process.
Es sind verschiedene Verfahren bekannt, mit denen versucht wird, den Klangeindruck, der in einem Raum entsteht, aufzuzeichnen und wiederzugeben. Das bekannteste Verfahren ist das Stereo-Verfahren und die Weiterentwicklungen davon, bei dem der Ort einer Klangquelle bei der Aufzeichnung erfasst und bei der Wiedergabe abgebildet wird. Bei der Wiedergabe gibt es jedoch nur einen eingeschränkten Bereich, in dem der Ort der aufgenommenen Klangquelle richtig wiedergegeben wird. Andere Wiedergabeverfahren, die das aufgenommene Schallfeld synthetisieren, wie beispielsweise die Wellenfeldsynthese, können hingegen den Ort der Schallquelle unabhängig von der Zuhörerposition korrekt wiedergeben.It Various methods are known with which the attempt is made Sound impression that arises in a room to record and reproduce. The best known method is the stereo method and the developments of which the location of a sound source is detected during recording and is displayed during playback. When playing there but only a limited Area in which the location of the recorded sound source is reproduced correctly becomes. Other reproduction methods that synthesize the recorded sound field such as the wave field synthesis, however, the location of the sound source independently from the listener position play correctly.
Bei keinem dieser Verfahren werden zeitlich variable Informationen über die Abstrahlungsrichtung einer Schallquelle aufgenommen und wiedergegeben. Werden Schallquellen mit zeitlich variabler Richtcharakteristik aufgenommen, so gehen Informationen verloren. Beispielsweise für die Übertragung einer Videokonferenz, bei der ein Teilnehmer sich an unterschiedliche Teilnehmer wenden und sie gezielt ansprechen kann, werden mit den bekannten Verfahren diese Richtungsinformationen nicht erfasst, aufgenommen und wiedergegeben.at none of these methods are time - variable information on the Radiation direction of a sound source recorded and reproduced. Are sound sources with time-varying directional characteristics recorded, information is lost. For example, for the transmission of a Videoconferencing in which a participant approaches different Contact participants and address them specifically, be with the known methods do not capture this directional information, recorded and played.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Aufzeichnung, Übertragung und Wiedergabe von Ton zu schaffen, mit dem die informationstragenden Eigenschaften der Schallquellen wahrnehmungsnah wiedergegeben werden können.Of the Invention is based on the object, a method for recording, transmission and reproduce sound, with which the information-bearing Properties of the sound sources are reproduced perceptually can.
Die Aufgabe wird gelöst durch ein Verfahren zur Aufnahme von Tonsignalen von einer in einem Aufnahmeraum angeordneten Tonquelle mit zeitlich variabler Richtcharakteristik mit Tonaufnahmemitteln und zur Wiedergabe der Tonsignale mit Tonwiedergabemitteln in einem Wiedergaberaum, das dadurch gekennzeichnet ist, dass die Hauptabstrahlrichtung der von der Tonquelle ausgesendeten Tonsignale in Abhängigkeit von der Zeit erfasst wird und die Wiedergabe in Abhängigkeit der erfassten Hauptabstrahlrichtung erfolgt.The Task is solved by a method for receiving sound signals from one in a recording room arranged sound source with time-varying directional characteristic with sound recording means and for reproducing the sound signals with sound reproduction means in a reproduction room, characterized in that the Main emission of the sound emitted from the sound source dependent on is recorded by the time and playback in dependence the detected main emission takes place.
Eine Tonquelle mit zeitlich variabler Richtcharakteristik kann dabei insbesondere ein Teilnehmer einer Videokonferenz sein, der sich anderen Teilnehmern zuwenden und so in verschiedene Richtungen sprechen kann. Die ausgesendeten Tonsignale werden aufgezeichnet und gleichzeitig ihre Hauptabstrahlrichtung erfasst.A Sound source with time-varying directivity can thereby in particular, be a participant of a videoconference that is itself to turn to other participants and speak in different directions can. The emitted sound signals are recorded and simultaneously recorded their main direction of emission.
Die Aufzeichnung der Tonsignale kann in herkömmlicher Weise mit Mikrophonen wie auch mit einem oder mehreren Mikrophonarrays erfolgen. Die Mittel zur Erfassung der Hauptabstrahlrichtung können beliebiger Art sein. Insbesondere können akustische Mittel eingesetzt werden. Dazu können mehrere Mikrophone und/oder ein oder mehrere Mikrophonarrays verwendet werden, die die Pegel- und/oder Phasendifferenzen des Signals in unterschiedlichen Richtungen erfassen, woraus die Hauptabstrahlrichtung mittels einer geeigneten Signalverarbeitung ermittelt werden kann. Wenn die Position der akustischen Mittel, deren Richtcharakteristiken, und/oder die Position der Tonquelle bekannt sind, können diese Informationen bei der Bestimmung der Hauptabstrahlrichtung durch die Signalverarbeitung entsprechend berücksichtigt werden. Ebenso kann auch Wissen über die Geometrie der Umgebung und die damit zusammenhängenden Eigenschaften für die Schallausbreitung, wie auch Reflexionseigenschaften bei der Ermittlung der Hauptabstrahlrichtung einbezogen werden. Besonders vorteilhaft können auch Informationen über die gemessene, genäherte oder simulierte Richtcharakteristik der Tonquelle bei der Ermittlung der Hauptabstrahlrichtung mit einbezogen werden. Dies gilt besonders dann, wenn die Hauptabstrahlrichtung nur grob ermittelt werden soll, was für viele Anwendungen ausreichend ist.The Recording of the sound signals can be done in a conventional manner with microphones as well as with one or more microphone arrays. The means for detecting the main emission can be of any kind. Especially can acoustic means are used. This can be several microphones and / or one or more microphone arrays are used, which and / or phase differences of the signal in different directions capture, from which the main emission by means of a suitable Signal processing can be determined. If the position of acoustic means, their directional characteristics, and / or the position the sound source are known this information when determining the main emission direction be considered by the signal processing accordingly. Likewise also knowledge about the geometry of the environment and the related ones Properties for the sound propagation, as well as reflection properties in the Determination of the main radiation direction to be included. Especially can be advantageous also information about the measured, approached or simulated directional characteristic of the sound source in the determination the main emission direction. This is especially true if the main radiation direction is to be determined only roughly, what kind of many applications is sufficient.
Zur Erfassung der Hauptabstrahlrichtung können aber auch optische Mittel verwendet werden, wie z. B. eine Videoerfassung mit Mustererkennung. Bei den Teilnehmern einer Videokonferenz ist davon auszugehen, dass die Sprechrichtung der Blickrichtung entspricht. Somit kann durch eine Mustererkennung ermittelt werden, in welche Richtung ein Teilnehmer blickt, und daraus die Sprechrichtung ermittelt werden. Insbesondere kann auch eine Kombination von akustischen und optischen Mitteln mit entsprechender Signalverarbeitung verwendet werden. Gegebenenfalls können die akustischen Mittel für die Aufzeichnung der Tonsignale auch gleichzeitig zur Erfassung der Hauptabstrahlrichtung verwendet werden, und umgekehrt.to However, detection of the main emission direction can also be optical means be used, such as. B. a video capture with pattern recognition. at the participants of a videoconference can be assumed that the speech direction corresponds to the viewing direction. Thus, through a pattern recognition can be determined, in which direction a participant looks, and from this the speech direction can be determined. Especially can also be a combination of acoustic and optical means be used with appropriate signal processing. Possibly can the acoustic means for the recording of the sound signals at the same time for recording the main emission direction are used, and vice versa.
Oft ist es ausreichend, die Hauptabstrahlrichtung grob zu ermitteln. Eine Abstufung in 3 oder 5 Stufen, z. B. gerade, rechts und links oder gerade, schräg nach rechts, rechts, schräg nach links und links kann voll ausreichen, um die wesentlichen Informationen zu vermitteln.Often it is sufficient to roughly determine the main emission direction. A gradation in 3 or 5 stages, z. B. straight, right and left or straight, at an angle right, right, oblique left and left can be fully sufficient to get the essential information to convey.
Die Hauptabstrahlrichtung kann vorteilhaft die Hauptabstrahlrichtung in demjenigen Frequenzbereich sein, der informationstragend ist. Hierzu kann der zur Ermittlung der Hauptabstrahlrichtung herangezogene Frequenzbereich eingeschränkt werden, z. B. durch die Verwendung eines Frequenzfilters.The main emission direction can advantageously be the main emission direction in that frequency range which is information-bearing. For this purpose, the frequency range used to determine the main emission direction can be restricted the, z. By the use of a frequency filter.
Die Wiedergabe der Tonsignale soll in Abhängigkeit der erfassten Hauptabstrahlrichtung erfolgen. Dabei soll die gerichtete Abstrahlung der Originalquelle simuliert werden. Dies kann entweder durch eine echte gerichtete Abstrahlung des Tonsignals erfolgen oder durch eine simulierte gerichtete Wiedergabe, die vom Zuhörer als gerichtete Wiedergabe wahrgenommen wird, ohne physikalisch tatsächlich gerichtet im herkömmlichen Sinne zu sein. Die anwendbaren Verfahren unterscheiden sich unter anderem in der Genauigkeit, mit der die Richtcharakteristik rekonstruiert wird. In der Praxis ist die wahrnehmungsorientierte Natürlichkeit der Rekonstruktion bzw. Simulation ausschlaggebend. Im Folgenden sollen alle solche Verfahren unter dem Begriff „gerichtete Wiedergabe" zusammengefasst werden.The Playback of the sound signals should depend on the detected main direction of radiation respectively. Here, the directional radiation of the original source be simulated. This can either be directed by a genuine one Emitted by the sound signal or by a simulated directional playback, that of the listener is perceived as directed playback without being physically directed in the conventional To be meaning. The applicable procedures differ under in the accuracy with which the directional characteristic is reconstructed becomes. In practice, the perception-oriented naturalness the reconstruction or simulation crucial. Hereinafter all such procedures are summarized under the term "directed reproduction" become.
Bei dem erfindungsgemäßen Verfahren kann die Wiedergabe der Tonsignale mit einer der Tonquelle zugeordneten ersten Wiedergabeeinheit und wenigstens einer beabstandet von der ersten Wiedergabeeinheit angeordneten zweiten Wiedergabeeinheit erfolgen. Dabei kann die Position der ersten Wiedergabeeinheit im Wiedergaberaum einer virtuellen Position der Tonquelle im Wiedergaberaum entsprechen. Die zweite bzw. zweiten Wiedergabeeinheiten können zur Vermittlung der Richtungsinformation der Tonwiedergabe dienen. Vorzugsweise werden hierfür zwei zweite Wiedergabeeinheiten verwendet, von denen eine auf der einen und die andere auf der anderen Seite von der ersten Tonwiedergabeeinheit positioniert werden kann. Statt jeweils eine zweite Wiedergabeeinheit auf jeder Seite der ersten Tonwiedergabeeinheit zu verwenden, können jeweils auch mehrere voneinander beabstandete zweite Wiedergabeeinheiten angeordnet werden, vorzugsweise jeweils zwei zweite Wiedergabeeinheiten.at the method according to the invention can playback the sound signals associated with one of the sound source first playback unit and at least one spaced from the First playback unit arranged second playback unit done. In this case, the position of the first playback unit in the playback room correspond to a virtual position of the sound source in the playback room. The second and second display units can be used to convey the direction information the sound reproduction serve. Preferably, this will be two second Playback units used, one of which on the one and the other on the other side of the first sound playback unit can be positioned. Instead of a second playback unit can be used on each side of the first sound playback unit, respectively also a plurality of spaced apart second display units are arranged, preferably in each case two second display units.
Die im Aufnahmeraum aufgenommenen Tonsignale der Tonquelle können im Wiedergaberaum von einer ersten Wiedergabeeinheit, wie z. B. einem Lautsprecher, wiedergegeben werden. Dieser Lautsprecher kann so im Wiedergaberaum platziert werden, dass er sich an der virtuellen Position der Tonquelle im Wiedergaberaum befindet. Die Tonquelle wird also sozusagen in den Wiedergaberaum hereingeholt. Die erste Wiedergabeeinheit kann aber auch mit mehreren Lautsprechern, mit einer Gruppe von Lautsprechern oder mit einem Lautsprecherarray erzeugt werden. Beispielsweise ist es möglich die erste Wiedergabeeinheit mittels Wellenfeldsynthese als Punktquelle an der virtuellen Position der Tonquelle im Wiedergaberaum zu platzieren, so dass die Tonquelle virtuell in den Wiedergaberaum hereingeholt wird. Das ist vorteilhaft z. B. für Videokonferenzen, bei denen möglichst der Eindruck einer tatsächlichen Konferenz unter Anwesenheit aller Teilnehmer erreicht werden soll. Tonquelle wäre dann ein Teilnehmer im Aufnahmeraum. Die Wiedergabe würde über eine erste Wiedergabeeinheit erfolgen, die an der Stelle im Wiedergaberaum platziert wäre, an der der Teilnehmer im Aufnahmeraum virtuell im Wiedergaberaum anwesend wäre.The in the recording room recorded sound signals of the sound source can in Play room from a first playback unit, such. B. one Speakers to be played. This speaker can do that be placed in the playback room that he is at the virtual Position of the sound source is in the playback room. The sound source So it is brought into the playback room, so to speak. The first Playback unit can also be used with multiple speakers, with a set of speakers or with a speaker array become. For example, it is possible the first playback unit by wave field synthesis as a point source to place at the virtual position of the sound source in the playback room, so that the sound source virtually brought in the playback room becomes. This is advantageous for. For video conferencing, where preferably the impression of an actual Conference in the presence of all participants. Sound source would be then a participant in the recording room. The playback would be over one first playback unit, which at the point in the playback room would be placed at the participant in the recording room virtually in the playback room would be present.
Die Information über die Abstrahlrichtung kann dadurch vermittelt werden, dass die Wiedergabe mit der oder den zweiten Wiedergabeeinheiten gegenüber der ersten Wiedergabeeinheit mit einer Zeitverzögerung τ gegenüber der ersten Wiedergabeeinheit erfolgt. Die Zeitverzögerung kann dabei für die zweiten Wiedergabeeinheiten jeweils unterschiedlich sein. Es hat sich gezeigt, dass dem menschlichen Ohr eine Information bezüglich der Abstrahlrichtung einer Tonquelle dadurch vermittelt werden kann, dass eine Art Echo oder Reflexion des Tonsignals von einer oder mehreren beabstandeten Tonquellen mit geringer Zeitverzögerung ausgesendet wird. Die Zeitverzögerung an Teilnehmerpositionen, an denen z. B. bei einer Videokonferenz ein Teilnehmer platziert werden kann, sollte dabei zwischen 2 ms und 100 ms betragen, damit das Echo bzw. die Reflexion nicht als separates Schallereignis verarbeitet wird. Die Zeitverzögerung τ der zweiten Wiedergabeeinheit oder -einheiten kann deshalb vorzugsweise so gewählt werden, dass die tatsächliche Zeitverzögerung zwischen den Tonsignalen zumindest in Teilbereichen des Wiedergaberaums zwischen 2 ms und 100 ms, vorzugsweise zwischen 5 ms und 80 ms und insbesondere zwischen 10 ms und 40 ms, beträgt.The information about the emission direction can be mediated by the fact that the reproduction with the second display units or with respect to the first reproduction unit with a time delay τ with respect to the first reproduction unit he follows. The time delay can do this for the each second playback units to be different. It has revealed that the human ear information about the Radiation direction of a sound source can be taught thereby that some sort of echo or reflection of the sound signal from one or more emitted a plurality of spaced sound sources with a small time delay becomes. The time delay to participant positions where z. In a video conference a participant can be placed between 2 ms and 100 ms so that the echo or reflection is not as separate sound event is processed. The time delay τ of the second Reproducing unit or units may therefore preferably be chosen that the actual Time Delay between the audio signals at least in subregions of the playback room between 2 ms and 100 ms, preferably between 5 ms and 80 ms and in particular between 10 ms and 40 ms.
Die Wiedergabe durch die zweite(n) Wiedergabeeinheit(en) kann entsprechend den Raumeigenschaften des Wiedergaberaums mit einem reduzierten Pegel, insbesondere mit einem um 1 bis 6 dB und vorzugsweise um 2 bis 4 dB reduzierten Pegel erfolgen. Entsprechend der zu simulierenden Richtcharakteristik kann das Tonsignal vor der Wiedergabe durch die zweite(n) Wiedergabeeinheit(en) auch mit einem Frequenzfilter bearbeitet werden, beispielsweise einem Hochpass-, Tiefpass- oder Bandpassfilter. Die Parameter der Frequenzfilter können entweder fest vorgegeben sein oder in Abhängigkeit von der Hauptabstrahlrichtung gesteuert werden.The Playback by the second playback unit (s) may be performed accordingly the spatial characteristics of the playback room with a reduced Level, in particular one by 1 to 6 dB and preferably in order 2 to 4 dB reduced level done. According to the simulated Directional characteristics, the sound signal before playback through the second (n) playback unit (s) also with a frequency filter be edited, such as a high-pass, low-pass or Bandpass filter. The parameters of the frequency filters can either be fixed or dependent be controlled by the main emission direction.
Die zweite(n) Wiedergabeeinheit(en) können, wie auch die erste Wiedergabeeinheit, ein oder mehrere Lautsprecher oder eine virtuelle Quelle, die mit einer Gruppe von Lautsprechern oder mit einem Lautsprecherarray beispielsweise mittels Wellenfeldsynthese erzeugt wird, sein.The second (s) playback unit (s), as well as the first playback unit, one or more speakers or a virtual source with a group of speakers or a speaker array is generated for example by wave field synthesis, be.
Für eine möglichst wahrnehmungsgetreue Wiedergabe der Information über die Abstrahlrichtung einer Tonquelle kann auch der Wiedergabepegel der ersten und zweiten Wiedergabeeinheiten in Abhängigkeit der zu simulierenden Richtcharakteristik angepasst werden. Die Wiedergabepegel werden hierzu so eingestellt, dass die sich aus der Richtcharakteristik ergebenden wahrnehmbaren Lautheitsunterschiede an verschiedenen Zuhörerpositionen entsprechend angenähert werden. Die derart ermittelten Wiedergabepegel der einzelnen Wiedergabeeinheiten können für unterschiedliche Hauptabstrahlsrichtungen definiert und abgespeichert werden. Bei einer zeitlich variablen Richtcharakteristik steuert dann die erfasste Hauptabstrahlrichtung die Wiedergabepegel der einzelnen Wiedergabeeinheiten.For reproduction of the information about the emission direction of a sound source that is as true to the perception as possible, the reproduction level of the first and second reproduction units can also be dependent on the directional characteristic to be simulated be adapted. The reproduction levels are set for this purpose so that the perceptible loudness differences resulting from the directional characteristic are approximated correspondingly at different listener positions. The reproduction levels of the individual reproduction units determined in this way can be defined and stored for different main emission directions. In the case of a time-varying directional characteristic, the detected main emission direction then controls the reproduction levels of the individual reproduction units.
Das vorbeschriebene Verfahren kann selbstverständlich auch für mehrere Tonquellen im Aufnahmeraum angewendet werden. Für die Wiedergabe mehrerer Tonquellen mit dem beschriebenen Verfahren ist es besonders vorteilhaft, die Tonsignale der einzelnen zu übertragenen Tonquellen getrennt voneinander vorliegen zu haben. Daher sind verschiedene Verfahren zur Aufzeichnung der Tonsignale denkbar. Für die Aufzeichnung der Tonsignale können den einzelnen Tonquellen Tonaufnahmemittel zugeordnet werden. Die Zuordnung kann dabei entweder 1:1 erfolgen, so dass jede Tonquelle über ein eigenes Tonaufnahmemittel verfügt, oder so, dass die Tonquellen gruppiert jeweils zu mehreren einem Tonaufnahmemittel zugeordnet sind. Die Position der zu einem gegebenen Zeitpunkt aktiven Tonquelle kann sowohl mit herkömmlichen Lokalisationsalgorithmen als auch mit Videoerfassung und Mustererkennung ermittelt werden. Bei zeitgleicher Schallabstrahlung von mehr als einer Tonquelle können bei einer Gruppierung der Tonquellen zu einem Tonaufnahmemittel die Tonsignale der einzelnen Tonquellen mit herkömmlichen Quellentrennungsalgorithmen wie beispielsweise „Blind Source Separation", „Independent Component Analysis" oder „Convolutive Source Separation" voneinander getrennt werden. Bei bekannter Position der aufzuzeichnenden Tonquellen kann als Tonaufnahmemittel für eine Gruppe von Tonquellen auch ein dynamisches richtungsselektives Mikrophon-Array verwendet werden, das die empfangenen Tonsignale entsprechend den vorgegebenen Positionen verarbeitet und für jede Tonquelle getrennt zusammenfasst.The Of course, the above-described method can also be applied to several Sound sources are used in the recording room. For playing multiple sound sources With the method described, it is particularly advantageous that Sound signals of the individual to be transmitted Sound sources separated from each other. Therefore are different Method for recording the sound signals conceivable. For the record the sound signals can be assigned to the individual sound sources recording material. The Allocation can be either 1: 1, so that each sound source via a own sound recording means, or so that the sound sources group together into several ones Sound recording means are assigned. The position of a given Time active sound source can be combined with both conventional localization algorithms as well as with video capture and pattern recognition. For simultaneous sound emission from more than one sound source can in a grouping of the sound sources to a sound recording means the Sound signals of the individual sound sources with conventional source separation algorithms such as "Blind Source Separation "," Independent Component Analysis "or" Convolutive Source Separation "from each other be separated. If the position of the sound sources to be recorded is known can be used as a recording device for a group of sound sources also a dynamic directionally selective Microphone array that uses the received audio signals processed according to the given positions and for each sound source summarized separately.
Die Erfassung der Hauptabstrahlrichtung der einzelnen Tonquellen kann mit den gleichen Prinzipien wie für eine Tonquelle beschrieben erfolgen. Hierzu können den einzelnen Tonquellen entsprechende Mittel zugeordnet werden. Die Zuordnung kann derart erfolgen, dass jede Tonquelle über ihr eigenes richtungserfassendes Mittel verfügt, oder so, dass die Tonquellen gruppiert jeweils zu mehreren einem richtungserfassenden Mittel zugeordnet sind. Bei gruppierten Tonquellen erfolgt die Erfassung der Hauptabstrahlrichtung wie bei einer Tonquelle, wenn zum gegebenen Zeitpunkt nur eine Tonquelle Schall abstrahlt. Strahlen zeitgleich zwei oder mehrere Tonquellen Schall ab, so werden im ersten Verarbeitungsschritt des richtungserfassenden Mittels zunächst die empfangenen Signale (beispielsweise Tonsignale oder Videosignale) den entsprechenden Tonquellen zugeordnet. Dies kann bei optischen Mitteln mittles Objekterkennungsalgorithmen erfolgen. Bei akustischen Mitteln können die, mit den vorher beschriebenen Tonaufnahmemitteln getrennt aufgezeichneten Tonsignale der Tonquellen, für die Zuordnung der empfangenen Signale zu den entsprechenden Tonquellen verwendet werden. Bei bekannter Position der Tonquellen kann vorzugsweise die Übertragungsfunktion zwischen den Tonquellen und dem akustischen richtungserfassenden Mittel berücksichtigt werden, sowie die Richtcharakteristiken sowohl des richtungserfassenden Mittels wie auch des Tonaufnahmemittels. Erst nach der Zuordnung der empfangenen Signale zu den zugehörigen Tonquellen wird die Hauptabstrahlrichtung für die einzelnen Tonquellen getrennt ermittelt, wobei hierzu die gleichen vorbeschriebenen Verfahren für eine Tonquelle verwendet werden können.The Detection of the main radiation direction of the individual sound sources can with the same principles as described for a sound source respectively. You can do this the individual sound sources corresponding means are assigned. The assignment can be made such that each sound source is above it own directional means has, or so that the sound sources grouped together into several a directional means assigned. For grouped sound sources the recording is done the main emission direction as with a sound source, if given When only one sound source emits sound. Beams at the same time two or more sound sources sound off, so in the first processing step the direction detecting means first the received signals (For example, sound or video signals) the corresponding sound sources assigned. This can be done with optical means by means of object recognition algorithms respectively. For acoustic means, those with the previously described Sound recording means recorded separately sound signals of the sound sources, for the Assignment of the received signals to the corresponding sound sources be used. In a known position of the sound sources may preferably the transfer function between the sound sources and the acoustic direction sensing Means taken into account as well as the directional characteristics of both the direction-sensing By means of as well as the sound recording medium. Only after the assignment the received signals to the associated sound sources becomes the main emission direction for the determined separate sources of sound, with the same pre-described Procedure for a sound source can be used.
Die Qualität der Wiedergabe kann dadurch verbessert werden, dass Tonsignale einer Tonquelle, die von nicht der Tonquelle zugeordneten Aufnahmemitteln bzw. richtungserfassenden Mitteln empfangen werden, durch eine akustische Echounterdrückung oder Übersprechunterdrückung (cross talk cancellation) unterdrückt werden. Die Minimierung von akustischen Reflexionen und Nebengeräuschen mit herkömmlichen Mitteln kann ebenfalls dazu beitragen die Wiedergabequalität zu verbessern.The quality the playback can be improved by the fact that a sound signals Sound source, the recording means not assigned to the sound source or direction sensing means are received by an acoustic echo cancellation or crosstalk suppression (cross talk cancellation) become. The minimization of acoustic reflections and background noise with usual Means can also help to improve the quality of reproduction.
Für die Wiedergabe der Tonsignale kann jeder Tonquelle eine erste Wiedergabeeinheit zugeordnet werden. Die Zuordnung kann dabei entweder 1:1 erfolgen, so dass jede Tonquelle über eine eigene erste Wiedergabeeinheit verfügt, oder so, dass die Tonquellen gruppiert jeweils zu mehreren einer ersten Wiedergabeeinheit zugeordnet sind. Je nach Zuordnung ist die im Wiedergaberaum wiedergegebene räumliche Information mehr oder weniger präzise.For playback the audio signals, each sound source, a first playback unit be assigned. The assignment can be done either 1: 1, so that every sound source over has its own first playback unit, or so that the sound sources groups each assigned to a plurality of a first playback unit are. Depending on the assignment is the reproduced in the playback room spatial Information more or less precise.
Alternativ zu der oben beschriebenen Wiedergabetechnik kann die Wiedergabe auch durch Wellenfeldsynthese erfolgen. Hierzu muss statt der üblicherweise verwendeten Punktquelle, die Richtcharakteristik der Tonquelle zur Synthetisierung des Schallfeldes berücksichtigt werden. Die zu verwendende Richtcharakteristik wird hierzu vorzugsweise in einer Datenbank bereit gehalten. Die Richtcharakteristik kann beispielsweise eine Messung, eine aus Messungen erhaltene Approximation, oder eine mit einer mathematischen Funktion beschriebene Näherung sein. Ebenso ist es möglich die Richtcharakteristik durch ein Modell zu simulieren, wie beispielsweise mittels richtungsabhängiger Filter, mittels mehrerer Elementarquellen oder einer richtungsabhängigen Anregung. Die Synthetisierung des Schallfeldes mit der entsprechenden Richtcharakteristik wird mittels der erfassten Hauptabstrahlrichtung gesteuert, so dass die Information über die Abstrahlrichtung der Tonquelle in Abhängigkeit der Zeit wiedergegeben wird. Das beschriebene Verfahren kann selbstverständlich auch für mehrere Tonquellen im Aufnahmeraum angewendet werden.As an alternative to the reproduction technique described above, the reproduction can also take place by wave field synthesis. For this purpose, instead of the commonly used point source, the directional characteristic of the sound source for synthesizing the sound field must be taken into account. The directional characteristic to be used is preferably kept ready in a database for this purpose. The directional characteristic may be, for example, a measurement, an approximation obtained from measurements, or an approximation described with a mathematical function. It is also possible to simulate the directional characteristic by a model, such as by means of directional filters, by means of several elementary sources or a direction-dependent excitation. The synthesis of the sound field with the corresponding directional characteristics is controlled by means of the detected main emission direction, so that the information about the emission direction of the sound source is reproduced as a function of time. Of course, the described method can also be used for several sound sources in the recording room.
Neben den beiden bisher beschriebenen Wiedergabetechniken kann für die gerichtete Wiedergabe der Tonsignale auch ein aus dem Stand der Technik bekanntes Multi-Lautsprechersystem (multi-speaker display device) verwendet werden, dessen Wiedergabeparameter ebenfalls durch die in Abhängigkeit der Zeit ermittelte Hauptabstrahlrichtung angesteuert wird. Statt der Ansteuerung der Wiedergabeparameter ist auch eine Steuerung eines rotierbaren Mechanismus denkbar. Sind mehrere Tonquellen im Aufnahmeraum vorhanden, kann im Wiedergaberaum für jede Tonquelle ein Multi-Lautsprechersystem zur Verfügung gestellt werden.Next the two playback techniques described so far can for the directed Playback of the sound signals also known from the prior art Multi-speaker system (multi-speaker display device) used whose playback parameters are also dependent on the time determined main emission direction is controlled. Instead of The control of the playback parameters is also a control a rotatable mechanism conceivable. Are several sources in the Recording space available, in the playback room for each sound source, a multi-speaker system to disposal be put.
Für die gerichtete Wiedergabe der Tonsignale können auch andere aus dem Stand der Technik bekannte Wiedergabeverfahren eingesetzt werden, wobei hierfür deren Wiedergabeparameter entsprechend der in Abhängigkeit der Zeit ermittelten Hauptabstrahlrichtung angesteuert werden müssen.For the targeted Playback of the sound signals can also other known from the prior art reproduction method be used, for this purpose their playback parameters according to the dependent the time determined main emission must be controlled.
Der Erfindung liegt weiter die Aufgabe zugrunde, ein System zu schaffen, mit dem die Aufzeichnung, Übertragung und wahrnehmungsnahe Wiedergabe der informationstragenden Eigenschaften der Schallquellen ermöglicht wird.Of the Another object of the invention is to provide a system with which the record, transmission and perceptual reproduction of the information-carrying properties allows the sound sources becomes.
Die Aufgabe wird gelöst durch ein System zur Aufnahme von Tonsignalen von einer oder mehreren Tonquellen mit zeitlich variablen Richtcharakteristiken mit Tonaufnahmemitteln in einem Aufnahmeraum und zur Wiedergabe der Tonsignale mit Tonwiedergabemitteln in einem Wiedergaberaum, das dadurch gekennzeichnet ist, dass das System Mittel zur Erfassung der Hauptabstrahlrichtungen der von der oder den Tonquellen ausgesendeten Tonsignale in Abhängigkeit von der Zeit und Mittel zur Wiedergabe der übertragenen Tonsignale in Abhängigkeit der erfassten Richtungen aufweist.The Task is solved by a system for receiving sound signals from one or more Sound sources with time-varying directional characteristics with sound recording devices in a recording room and for reproducing the sound signals with Tonwiedergabemitteln in a reproduction room, characterized in that the System Means for detecting the main emission directions of the sound signals emitted as a function of the sound source or sources of time and means for reproducing the transmitted sound signals in dependence the detected directions.
Das System kann mindestens zwei einer Tonquelle zugeordnete Tonaufnahmeeinheiten zur Aufnahme der von dieser Tonquelle ausgesandten Tonsignale und deren Hauptabstrahlrichtung aufweisen. Alternativ oder ergänzend hierzu kann das System auch optische Mittel zur Erkennung von deren Hauptabstrahlrichtung aufweisen.The System can have at least two sound recording units assigned to a sound source for recording the sound signals emitted by this sound source and have their Hauptabstrahlrichtung. Alternatively or in addition to this For example, the system may also include optical means for detecting its main direction of emission exhibit.
Mittel zur Erkennung der Hauptabstrahlrichtung können z. B. Mikrophone oder Mikrophonarrays oder Mittel zur Videoerfassung, insbesondere mit Mustererkennung, sein.medium for detecting the main emission direction z. B. microphones or Microphone arrays or video recording means, in particular with pattern recognition, be.
Die Wiedergabe der Tonsignale kann mit einer der Tonquelle zugeordneten ersten Wiedergabeeinheit und wenigstens einer beabstandet von der ersten Wiedergabeeinheit angeordneten zweiten Wiedergabeeinheit erfolgen. Die Position der ersten Wiedergabeeinheit im Wiedergaberaum kann einer virtuellen Position der Tonquelle im Wiedergaberaum entsprechen.The Playback of the sound signals can be associated with one of the sound source first playback unit and at least one spaced from the first Playback arranged arranged second playback unit. The position of the first playback unit in the playback room can correspond to a virtual position of the sound source in the playback room.
Die Wiedergabe mit der oder den zweiten Wiedergabeeinheiten kann zur subjektiven Erzeugung einer gerichteten Schallabstrahlung gegenüber der ersten Wiedergabeeinheit mit einer Zeitverzögerung τ erfolgen. Bei mehreren zweiten Wiedergabeeinheiten kann für jede eine individuelle Zeitverzögerung gewählt werden.The Playback with the second or the second playback units can be used for subjective generation of a directed sound radiation compared to the first playback unit with a time delay τ. For several second Playback units can for each an individual time delay chosen become.
Das System kann z. B. zur Tonübertragung in Videokonferenzen eingesetzt werden. Dabei gibt es festgelegte Positionen, an denen sich Teilnehmer der Konferenz aufhalten. In Abhängigkeit von den Teilnehmerpositionen kann die Zeitverzögerung τ der zweiten Wiedergabeeinheit oder -einheiten derart gewählt werden, dass die tatsächliche Zeitverzögerung zwischen den Tonsignalen zumindest an den jeweiligen Teilnehmerpositionen im Wiedergaberaum zwischen 2 ms und 100 ms, vorzugsweise zwischen 5 ms und 80 ms und insbesondere zwischen 10 ms und 40 ms, liegt.The System can z. B. for sound transmission be used in videoconferencing. There are fixed Positions in which participants of the conference are present. In dependence of the subscriber positions, the time delay τ of the second playback unit or units chosen such be that actual Time delay between the sound signals at least at the respective participant positions in the reproduction room between 2 ms and 100 ms, preferably between 5 ms and 80 ms and especially between 10 ms and 40 ms.
Die Wiedergabe durch die erste und/oder durch die zweite(n) Wiedergabeeinheit(en) kann mit einem reduzierten Pegel, insbesondere mit einem um 1 bis 6 dB und vorzugsweise um 2 bis 4 dB reduzierten Pegel, und/oder insbesondere in Abhängigkeit von der Hauptabstrahlrichtung, erfolgen.The Playback through the first and / or second playback unit (s) can with a reduced level, especially with a 1 to 6 dB, and preferably reduced by 2 to 4 dB level, and / or especially depending from the main emission direction.
Es versteht sich von selbst, dass das System zur Übertragung der Tonsignale von einer Schallquelle auf die Übertragung der Tonsignale von mehreren Schallquellen ausgeweitet werden kann. Das kann durch einfache Vervielfachung der vorbeschriebenen Mittel erfolgen. Vorteilhaft kann aber eine Reduktion der erforderlichen Mittel derart erfolgen, dass bestimmte Mittel mehreren Schallquellen auf der Aufnahmeseite zugeordnet sind. Alternativ oder ergänzend können auch Wiedergabemittel auf der Wiedergabeseite mehrere Zuodnungen haben. Die oben für das erfindungsgemäße Verfahren geschilderten Zuordnungsmöglichkeiten gelten analog für das System. Insbesondere kann die Anzahl der Tonaufnahmeeinheiten und/oder Tonwiedergabeeinheiten der Anzahl der Tonquellen plus 2 entsprechen.It It goes without saying that the system for transmitting the sound signals of a sound source on the transmission the sound signals from several sound sources can be extended. This can be done by simply multiplying the above-described means respectively. Advantageously, however, a reduction of the required Means are made such that certain means several sound sources are assigned on the recording side. Alternatively or additionally, too Playback on the playback side have several assignments. The above for the inventive method described allocation possibilities apply analogously for the system. In particular, the number of sound recording units and / or sound reproduction units of the number of sound sources plus 2 correspond.
Weitere Ausführungsformen des Verfahrens und des Systems sind in den Unteransprüchen angegeben.Further embodiments of the method and the system are specified in the subclaims.
Die Erfindung wird im Folgenden unter Bezugnahme auf die beigefügten Abbildungen anhand von ausgewählten Beispielen näher beschrieben:The invention will be described below with reference to the accompanying drawings described in more detail by selected examples:
Das
in
Die
Hauptabstrahlrichtung einer Tonquelle T wird mit einem Mikrophon-Array
MA, also einer Mehrzahl von miteinander in Verbindung stehenden
Einzelmikrophonen M ermittelt. Dazu wird die Tonquelle T mit diesen
Mikrophonen MA in beliebiger Form umgeben, beispielsweise ringförmig, wie
in
In einem ersten Schritt wird die Position der Tonquelle T bezüglich der Mikrophone M ermittelt, so dass alle Abstände r zwischen Tonquelle T und Mikrophonen M bekannt sind. Die Position der Tonquelle T kann beispielsweise durch Messung oder mit einem herkömmlichen Lokalisationsalgorithmus bestimmt werden. Es kann für die Bestimmung der Position vorteilhaft sein, nur die Frequenzbereiche mit entsprechenden Filtern zu berücksichtigen, die keine ausgeprägte Vorzugsrichtung hinsichtlich der Schallabstrahlung haben. Dies gilt in vielen Fällen für tiefe Frequenzbereiche, bei Sprache beispielsweise unterhalb ca. 500 Hz.In In a first step, the position of the sound source T with respect to Microphone M is determined so that all distances r between sound source T and microphones M are known. The position of the sound source T can for example, by measurement or with a conventional localization algorithm be determined. It can be for the determination of the position to be advantageous, only the frequency ranges with appropriate filters to take into account that no pronounced preferred direction in terms of sound radiation. This applies in many cases to low frequency ranges, for example, below 500 Hz for speech.
Die Hauptabstrahlrichtung der Tonquelle T kann aus den erfassten Schallpegeln an den Mikrophonen M ermittelt werden, wobei hierzu die unterschiedlichen Schalldämpfungen wie auch Laufzeitunterschiede auf Grund der unterschiedlichen Abstände r zwischen den einzelnen Mikrophonen M und der Tonquelle T berücksichtigt werden. Bei richtungsselektiven Mikrophonen M kann auch die Richtcharakteristik der Mikrophone M in die Bestimmung der Hauptabstrahlrichtung einfließen.The Main emission of the sound source T can from the detected sound levels be determined on the microphones M, in which case the different sound attenuation as well as transit time differences due to the different distances r between the individual microphones M and the sound source T considered become. For directionally selective microphones M, the directional characteristic can also be used the microphones M in the determination of the main emission direction.
Desto mehr Richtungen durch Mikrophone erfasst werden, desto präziser kann die Hauptabstrahlrichtung ermittelt werden. Umgekehrt kann die Anzahl der notwendigen Mikrophone verringert werden, (a) wenn die Hauptabstrahlrichtung nur grob erfasst werden soll, beispielsweise kann eine Abstufung in nur 3 oder 5 Stufen voll ausreichen, und entsprechend ist eine Anordnung der richtungserfassenden Mittel in diesen Richtungen ausreichend, oder (b) wenn die Hauptabstrahlrichtung auf einen begrenzten Winkelbereich eingegrenzt ist; beispielsweise wird die Sprechrichtung bei Telekonferenzen normalerweise auf einen nach vorne gerichteten Winkelbereich eingeschränkt sein.more More directions can be detected by microphones, the more precise it can be the main emission direction can be determined. Conversely, the number the necessary microphones are reduced, (a) when the main emission direction should only be roughly recorded, for example, a gradation in only 3 or 5 levels, and accordingly is one Arrangement of the direction sensing means in these directions is sufficient, or (b) if the main direction of emission is limited to a limited range of angles is limited; For example, the speech direction becomes teleconferences normally limited to a forward angle range.
Die Mikrophone können als Mittel zur Richtungserfassung und auch gleichzeitig als Tonaufnahmemittel für die Aufzeichnung der Tonsignale der Tonquelle eingesetzt werden. Anhand der Position der Tonquelle und gegebenenfalls auch anhand der ermittelten Hauptabstrahlrichtung kann eine Gewichtung der Mikrophone bestimmt werden, die den Beitrag der einzelnen Mikrophone zum aufgezeichneten Tonsignal regelt.The Microphones can as a means for direction detection and at the same time as a sound recording device for the Recording the sound signals of the sound source can be used. Based the position of the sound source and possibly also on the basis of the determined The main emission direction can determine a weighting of the microphones be the contribution of each microphone to the recorded audio signal regulates.
Die
Statt
dem relativ aufwändigem
Verfahren aus
Geht
man bei Sprachsignalen beispielsweise von einer stark vereinfachten
Referenz für
die Richtcharakteristik aus, wie beispielhaft in
Werden
die möglichen
Hauptabstrahlrichtungen auf einen bestimmten Winkelbereich eingeschränkt, so
kann die in
Die Näherung der Richtcharakteristik von Sprache mit einem der beiden vorbeschriebenen Referenzmuster erweist sich für viele Anwendungen als ausreichend, insbesondere für Konferenzanwendungen, bei denen eine relativ grobe Bestimmung der Hauptabstrahlrichtung für eine natürliche Rekonstruktion ausreichend ist. Für eine genauere Bestimmung der Hauptabstrahlrichtung kann bei einer Videokonferenzanwendung zudem noch das oder die optischen Mittel mit Mustererkennung eingesetzt werden. Es ist auch möglich die Bestimmung der Hauptabstrahlrichtung mit vorgeschalteten Frequenzfiltern auf die informationstragenden Frequenzbereiche einzuschränken.The approximation the directional characteristic of speech with one of the two above Reference pattern proves to be many applications as sufficient, especially for conference applications, in which a relatively rough determination of the main emission direction for one natural Reconstruction is sufficient. For a more precise determination the main emission direction may be in a video conferencing application In addition, the optical means or means used with pattern recognition become. It is also possible the determination of the main emission direction with upstream frequency filters restrict the information-carrying frequency ranges.
Wie
in
In
Der Referenzschallpegel kann beispielsweise mit einem Ansteckmikrophon M1 erfasst werden, das den Richtungsänderungen der Tonquelle T stets folgt, so dass die Richtung der damit erfassten Tonsignale immer die gleiche und damit bekannt ist. Vorteilhaft ist es, wenn die Richtung des Referenzschallpegels mit der Hauptabstrahlrichtung übereinstimmt. Das Mikrophon M1, das für die Ermittlung des Referenzschallpegels verwendet wird, kann gleichzeitig auch als akustisches Mittel zur Aufzeichnung der Tonsignale eingesetzt werden.The reference sound level can be detected, for example, with a clip-on microphone M 1 , which always follows the changes in direction of the sound source T, so that the direction of the sound signals thus detected is always the same and thus known. It is advantageous if the direction of the reference sound level coincides with the main emission direction. The microphone M 1 , which is used for the determination of the reference sound level, can be used simultaneously as an acoustic means for recording the sound signals.
Liegt
beispielsweise als Referenz für
die Richtcharakteristik eines Sprachsignals die in
Auch bei diesem Verfahren kann die Bestimmung der Hauptabstrahlrichtung mit entsprechenden Frequenzfiltern auf die informationstragenden Frequenzbereiche eingeschränkt werden.Also In this method, the determination of the main emission direction with appropriate frequency filters on the information-bearing Frequency ranges restricted become.
In
Sind,
wie in
In
dem in
In
Die
Aufzeichnung der Tonsignale der Tonquellen erfolgt in
In
Die im Aufnahmeraum aufgezeichneten Tonsignale TS einer Tonquelle können im Wiedergaberaum mit einer der Tonquelle zugeordneten ersten Wiedergabeeinheit WE1 wiedergegeben werden. Die Position der ersten Wiedergabeeinheit WE1 kann so gewählt werden, dass sie der virtuellen Position der Tonquelle im Wiedergaberaum entspricht. Bei einer Videokonferenz kann diese virtuelle Position beispielsweise an der Stelle im Raum sein, an der sich die visuelle Repräsentation der Tonquelle befindet.The in the recording room recorded sound signals TS of a sound source can in Play room with a first playback unit associated with the sound source WE1 are played. The position of the first playback unit WE1 can be chosen like this be that they are the virtual position of the sound source in the playback room equivalent. In a videoconference, this virtual position can for example, at the point in the room where the visual representation the sound source is located.
Zur Vermittlung der Richtungsinformation der Tonwiedergabe wird mindestens eine von der ersten Wiedergabeeinheit beabstandete zweite Wiedergabeeinheit WE2 verwendet. Vorzugsweise werden zwei zweite Wiedergabeeinheiten verwendet, von denen eine zu einer Seite und die andere zur anderen Seite der ersten Wiedergabeeinheit WE1 positioniert werden kann. Mit einem derartigen Aufbau lassen sich Änderungen der Hauptabstrahlrichtung der Tonquelle in einem Winkelbereich von 180° um die erste Wiedergabeeinheit simulieren, d.h. um die an dieser Stelle positionierten virtuellen Tonquelle. Die Information über die Abstrahlrichtung kann dadurch vermittelt werden, dass die Wiedergabe mit den zweiten Wiedergabeeinheiten gegenüber der ersten Wiedergabeeinheit verzögert erfolgt. Die Zeitverzögerung τ sollte dabei so gewählt werden, dass die tatsächliche Zeitverzögerung Δt = tWE2 – tWE1 zwischen den Tonsignalen zumindest in Teilbereichen des Wiedergaberaumes zwischen 2 ms und 100 ms beträgt, damit bei den Empfängern, d.h. zum Beispiel bei den empfangenden Teilnehmern der Videokonferenz, die sich in diesen Teilbereichen befinden, die tatsächliche Zeitverzögerung zwischen 2 ms und 100 ms liegt.For conveying the direction information of the sound reproduction, at least one second reproduction unit WE2 spaced from the first reproduction unit is used. Preferably, two second display units are used, one of which can be positioned to one side and the other to the other side of the first display unit WE1. With such a structure, changes in the main emission direction of the sound source can be simulated in an angular range of 180 ° around the first reproduction unit, that is, the virtual sound source positioned at that position. The information about the emission direction can be imparted by the fact that the reproduction with the second reproduction units is delayed with respect to the first reproduction unit. The time delay τ should be selected such that the actual time delay Δt = t WE2 -t WE1 between the audio signals is at least in subregions of the playback room between 2 ms and 100 ms, thus at the receivers, ie, for example, at the receiving participants of the video conference , the are in these subregions, the actual time delay is between 2 ms and 100 ms.
Die im Aufnahmeraum erfasste Hauptabstrahlrichtung HR steuert die Wiedergabepegel an den zweiten Wiedergabeeinheiten über ein Dämpfungsglied a an. Um beispielsweise eine Hauptabstrahlrichtung der Tonquelle zu simulieren, die auf die rechte Seite des Raumes gerichtet ist, werden die Tonsignale zur zweiten Wiedergabeeinheit, die sich links befindet, vollständig gedämpft und nur über die rechte zweite Wiedergabeeinheit verzögert gegenüber der ersten Wiedergabeeinheit wiedergegeben.The The main emission direction HR detected in the recording room controls the reproduction levels at the second playback units via an attenuator a. For example to simulate a main emission direction of the sound source that is on The right side of the room is addressed, the sound signals to the second playback unit, which is on the left, fully muted and only over the right second reproduction unit delays with respect to the first reproduction unit played.
Das vorbeschriebene Verfahren kann selbstverständlich auch für mehrere Tonquellen im Aufnahmeraum angewendet werden. Hierzu müssen entsprechend mehr erste und zweite Wiedergabeeinheiten verwendet werden.The Of course, the above-described method can also be applied to several Sound sources are used in the recording room. For this purpose must be accordingly more first and second playback units are used.
Die
Die
ersten wie auch die zweiten Wiedergabeeinheiten WE1 und WE2 können, wie
in
In
den
Das
in
Zum
einen ist es möglich
statt jeweils einer zweiten Wiedergabeeinheit auf jeder Seite der
ersten Wiedereinheit WE1, mehrere voneinander beabstandete zweite
Wiedergabeeinheiten WE2 zu verwenden, wie in
Wie
in
Für eine möglichst wahrnehmungsgetreue Wiedergabe der Abstrahlrichtung kann auch der Wiedergabepegel der ersten und zweiten Wiedergabeeinheiten in Abhängigkeit der zu simulierenden Richtcharakteristik angepasst werden. Die Wiedergabepegel werden hierzu mittels eines Dämpfungsgliedes a so eingestellt, dass die sich aus der Richtcharakteristik ergebenden wahrnehmbaren Lautheitsunterschiede an verschiedenen Zuhörerpositionen entsprechend angenähert werden. Die derart ermittelten Dämpfungen für die einzelnen Wiedergabeeinheiten können für unterschiedliche Hauptabstrahlrichtungen HR definiert und abgespeichert werden. Bei einer Tonquelle mit zeitlich variabler Richtcharakteristik steuert dann die erfasste Hauptabstrahlrichtung die Wiedergabepegel der einzelnen Wiedergabeeinheiten.For as possible Perceptive reproduction of the emission direction can also the Playback level of the first and second playback units depending on be adapted to be simulated directional characteristic. The playback levels be this by means of an attenuator a set so that the resulting from the directional characteristic perceptible loudness differences at different listener positions Approached accordingly become. The thus determined attenuations for the individual playback units can for different Main radiation directions HR are defined and stored. at a sound source with time-varying directivity controls then the detected main emission direction the reproduction levels of individual playback units.
In
Das vorbeschriebene Verfahren kann selbstverständlich auch für mehrere Tonquellen im Aufnahmeraum angewendet werden. Hierzu müssen entsprechend mehr erste und zweite Wiedergabeeinheiten verwendet werden.The Of course, the above-described method can also be applied to several Sound sources are used in the recording room. For this purpose must be accordingly more first and second playback units are used.
In
Sind
mehrere Tonquellen im Aufnahmeraum vorhanden, können die Tonsignale der Tonquellen, wie
zu den
In
Wie
in
Die
Wie
zu
In
In
Die
Wiedergabe des Tonsignals TS der Tonquelle erfolgt über die
erste Wiedergabeeinheit. Das Tonsignal TS kann hierbei entweder
das mit einem eigenen Mikrophon aufgezeichnete Tonsignal sein, oder
es wird aus den Tonsignalen TR90, TR45, TL90 und TL45 gebildet, indem z.B. das größte dieser
Tonsignale oder die Summe der vier Tonsignale verwendet wird. In
Die Klangqualität des erläuterten Wiedergabeverfahrens kann zwar durch Kammfiltereffekte beeinträchtigt sein; dennoch kann das Verfahren auf Grund seiner Einfachheit in manchen Anwendungen durchaus von Vorteil sein.The sound quality of the explained Reproduction method may indeed be affected by comb filter effects; Nevertheless, due to its simplicity, the method can be used in some Applications can be quite beneficial.
Claims (19)
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005057406A DE102005057406A1 (en) | 2005-11-30 | 2005-11-30 | Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method |
EP06829196.2A EP1977626B1 (en) | 2005-11-30 | 2006-11-30 | Method for recording and reproducing a sound source with time-variable directional characteristics |
PCT/EP2006/011496 WO2007062840A1 (en) | 2005-11-30 | 2006-11-30 | Method for recording and reproducing a sound source with time-variable directional characteristics |
JP2008542667A JP5637661B2 (en) | 2005-11-30 | 2006-11-30 | Method for recording and playing back sound sources with time-varying directional characteristics |
US12/095,440 US20080292112A1 (en) | 2005-11-30 | 2006-11-30 | Method for Recording and Reproducing a Sound Source with Time-Variable Directional Characteristics |
US14/971,867 US20160105758A1 (en) | 2005-11-30 | 2015-12-16 | Sound source replication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005057406A DE102005057406A1 (en) | 2005-11-30 | 2005-11-30 | Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005057406A1 true DE102005057406A1 (en) | 2007-06-06 |
Family
ID=37834166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005057406A Withdrawn DE102005057406A1 (en) | 2005-11-30 | 2005-11-30 | Method for recording a sound source with time-variable directional characteristics and for playback and system for carrying out the method |
Country Status (5)
Country | Link |
---|---|
US (2) | US20080292112A1 (en) |
EP (1) | EP1977626B1 (en) |
JP (1) | JP5637661B2 (en) |
DE (1) | DE102005057406A1 (en) |
WO (1) | WO2007062840A1 (en) |
Families Citing this family (195)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
DE102005033238A1 (en) * | 2005-07-15 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for driving a plurality of loudspeakers by means of a DSP |
DE102005033239A1 (en) * | 2005-07-15 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for controlling a plurality of loudspeakers by means of a graphical user interface |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
JP5235605B2 (en) * | 2008-10-21 | 2013-07-10 | 日本電信電話株式会社 | Utterance direction estimation apparatus, method and program |
JP5235724B2 (en) * | 2008-10-21 | 2013-07-10 | 日本電信電話株式会社 | Utterance front / side direction estimation apparatus, method and program |
JP5366043B2 (en) * | 2008-11-18 | 2013-12-11 | 株式会社国際電気通信基礎技術研究所 | Audio recording / playback device |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US9628934B2 (en) | 2008-12-18 | 2017-04-18 | Dolby Laboratories Licensing Corporation | Audio channel spatial translation |
JP5235723B2 (en) * | 2009-03-02 | 2013-07-10 | 日本電信電話株式会社 | Utterance direction estimation apparatus, method and program |
JP5235722B2 (en) * | 2009-03-02 | 2013-07-10 | 日本電信電話株式会社 | Utterance direction estimation apparatus, method and program |
JP5235725B2 (en) * | 2009-03-03 | 2013-07-10 | 日本電信電話株式会社 | Utterance direction estimation apparatus, method and program |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
EP2446642B1 (en) * | 2009-06-23 | 2017-04-12 | Nokia Technologies Oy | Method and apparatus for processing audio signals |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8560309B2 (en) * | 2009-12-29 | 2013-10-15 | Apple Inc. | Remote conferencing center |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8452037B2 (en) | 2010-05-05 | 2013-05-28 | Apple Inc. | Speaker clip |
US10353495B2 (en) | 2010-08-20 | 2019-07-16 | Knowles Electronics, Llc | Personalized operation of a mobile device using sensor signatures |
US8644519B2 (en) | 2010-09-30 | 2014-02-04 | Apple Inc. | Electronic devices with improved audio |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US8811648B2 (en) | 2011-03-31 | 2014-08-19 | Apple Inc. | Moving magnet audio transducer |
US9007871B2 (en) | 2011-04-18 | 2015-04-14 | Apple Inc. | Passive proximity detection |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US20130028443A1 (en) | 2011-07-28 | 2013-01-31 | Apple Inc. | Devices with enhanced audio |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8989428B2 (en) | 2011-08-31 | 2015-03-24 | Apple Inc. | Acoustic systems in electronic devices |
US8879761B2 (en) | 2011-11-22 | 2014-11-04 | Apple Inc. | Orientation-based audio |
WO2013079781A1 (en) * | 2011-11-30 | 2013-06-06 | Nokia Corporation | Apparatus and method for audio reactive ui information and display |
EP2600343A1 (en) * | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for merging geometry - based spatial audio coding streams |
US8903108B2 (en) | 2011-12-06 | 2014-12-02 | Apple Inc. | Near-field null and beamforming |
US9020163B2 (en) | 2011-12-06 | 2015-04-28 | Apple Inc. | Near-field null and beamforming |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9820033B2 (en) | 2012-09-28 | 2017-11-14 | Apple Inc. | Speaker assembly |
US8858271B2 (en) | 2012-10-18 | 2014-10-14 | Apple Inc. | Speaker interconnect |
US9357299B2 (en) | 2012-11-16 | 2016-05-31 | Apple Inc. | Active protection for acoustic device |
US8942410B2 (en) | 2012-12-31 | 2015-01-27 | Apple Inc. | Magnetically biased electromagnet for audio applications |
KR102380145B1 (en) | 2013-02-07 | 2022-03-29 | 애플 인크. | Voice trigger for a digital assistant |
US20140272209A1 (en) | 2013-03-13 | 2014-09-18 | Apple Inc. | Textile product having reduced density |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR101759009B1 (en) | 2013-03-15 | 2017-07-17 | 애플 인크. | Training an at least partial voice command system |
WO2014155153A1 (en) | 2013-03-27 | 2014-10-02 | Nokia Corporation | Image point of interest analyser with animation generator |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
CN110442699A (en) | 2013-06-09 | 2019-11-12 | 苹果公司 | Operate method, computer-readable medium, electronic equipment and the system of digital assistants |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101809808B1 (en) | 2013-06-13 | 2017-12-15 | 애플 인크. | System and method for emergency calls initiated by voice command |
KR101749009B1 (en) | 2013-08-06 | 2017-06-19 | 애플 인크. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
JP6242262B2 (en) * | 2014-03-27 | 2017-12-06 | フォスター電機株式会社 | Sound playback device |
US9500739B2 (en) | 2014-03-28 | 2016-11-22 | Knowles Electronics, Llc | Estimating and tracking multiple attributes of multiple objects from multi-sensor data |
US9451354B2 (en) | 2014-05-12 | 2016-09-20 | Apple Inc. | Liquid expulsion from an orifice |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9525943B2 (en) | 2014-11-24 | 2016-12-20 | Apple Inc. | Mechanically actuated panel acoustic system |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
KR101581619B1 (en) * | 2015-02-04 | 2015-12-30 | 서울대학교산학협력단 | Sound Collecting Terminal, Sound Providing Terminal, Sound Data Processing Server and Sound Data Processing System using thereof |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US9900698B2 (en) | 2015-06-30 | 2018-02-20 | Apple Inc. | Graphene composite acoustic diaphragm |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9858948B2 (en) | 2015-09-29 | 2018-01-02 | Apple Inc. | Electronic equipment with ambient noise sensing input circuitry |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
WO2017211447A1 (en) | 2016-06-06 | 2017-12-14 | Valenzuela Holding Gmbh | Method for reproducing sound signals at a first location for a first participant within a conference with at least two further participants at at least one further location |
WO2017211448A1 (en) | 2016-06-06 | 2017-12-14 | Valenzuela Holding Gmbh | Method for generating a two-channel signal from a single-channel signal of a sound source |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | User interface for correcting recognition errors |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | Low-latency intelligent automated assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | Far-field extension for digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US11307661B2 (en) | 2017-09-25 | 2022-04-19 | Apple Inc. | Electronic device with actuators for producing haptic and audio output along a device housing |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
CN108200527A (en) * | 2017-12-29 | 2018-06-22 | Tcl海外电子(惠州)有限公司 | Assay method, device and the computer readable storage medium of sound source loudness |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (en) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | Virtual assistant operation in multi-device environments |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10757491B1 (en) | 2018-06-11 | 2020-08-25 | Apple Inc. | Wearable interactive audio device |
US10873798B1 (en) | 2018-06-11 | 2020-12-22 | Apple Inc. | Detecting through-body inputs at a wearable audio device |
US10764701B2 (en) | 2018-07-30 | 2020-09-01 | Plantronics, Inc. | Spatial audio system for playing location-aware dynamic content |
US11334032B2 (en) | 2018-08-30 | 2022-05-17 | Apple Inc. | Electronic watch with barometric vent |
US11561144B1 (en) | 2018-09-27 | 2023-01-24 | Apple Inc. | Wearable electronic device with fluid-based pressure sensing |
CN113994345A (en) | 2019-04-17 | 2022-01-28 | 苹果公司 | Wireless locatable tag |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5590094A (en) * | 1991-11-25 | 1996-12-31 | Sony Corporation | System and methd for reproducing sound |
US20020090094A1 (en) * | 2001-01-08 | 2002-07-11 | International Business Machines | System and method for microphone gain adjust based on speaker orientation |
US20040131192A1 (en) * | 2002-09-30 | 2004-07-08 | Metcalf Randall B. | System and method for integral transference of acoustical events |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62190962A (en) * | 1986-02-18 | 1987-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Conference talk system |
JPH0444499A (en) * | 1990-06-11 | 1992-02-14 | Nippon Telegr & Teleph Corp <Ntt> | Sound collection device and sound reproducing device |
JPH0449756A (en) * | 1990-06-18 | 1992-02-19 | Nippon Telegr & Teleph Corp <Ntt> | Conference speech device |
US5335011A (en) * | 1993-01-12 | 1994-08-02 | Bell Communications Research, Inc. | Sound localization system for teleconferencing using self-steering microphone arrays |
JPH1141577A (en) * | 1997-07-18 | 1999-02-12 | Fujitsu Ltd | Speaker position detector |
JPH11136656A (en) * | 1997-10-31 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Pickup sound wave transmission system and reception/ reproducing system adopting communication conference system |
US5940118A (en) * | 1997-12-22 | 1999-08-17 | Nortel Networks Corporation | System and method for steering directional microphones |
JP4716238B2 (en) * | 2000-09-27 | 2011-07-06 | 日本電気株式会社 | Sound reproduction system and method for portable terminal device |
JP2004538724A (en) * | 2001-08-07 | 2004-12-24 | ポリコム・インコーポレイテッド | High resolution video conferencing system and method |
JP4752153B2 (en) * | 2001-08-14 | 2011-08-17 | ソニー株式会社 | Information processing apparatus and method, information generation apparatus and method, recording medium, and program |
NO318096B1 (en) * | 2003-05-08 | 2005-01-31 | Tandberg Telecom As | Audio source location and method |
US20050147261A1 (en) * | 2003-12-30 | 2005-07-07 | Chiang Yeh | Head relational transfer function virtualizer |
-
2005
- 2005-11-30 DE DE102005057406A patent/DE102005057406A1/en not_active Withdrawn
-
2006
- 2006-11-30 US US12/095,440 patent/US20080292112A1/en not_active Abandoned
- 2006-11-30 WO PCT/EP2006/011496 patent/WO2007062840A1/en active Application Filing
- 2006-11-30 JP JP2008542667A patent/JP5637661B2/en not_active Expired - Fee Related
- 2006-11-30 EP EP06829196.2A patent/EP1977626B1/en not_active Not-in-force
-
2015
- 2015-12-16 US US14/971,867 patent/US20160105758A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5590094A (en) * | 1991-11-25 | 1996-12-31 | Sony Corporation | System and methd for reproducing sound |
US20020090094A1 (en) * | 2001-01-08 | 2002-07-11 | International Business Machines | System and method for microphone gain adjust based on speaker orientation |
US20040131192A1 (en) * | 2002-09-30 | 2004-07-08 | Metcalf Randall B. | System and method for integral transference of acoustical events |
Non-Patent Citations (2)
Title |
---|
BETLEHEM, Terence u. WILLIAMSON, Robert C.: Acoustic beamforming exploiting directionality of human speech sources. In: Internat. Conf. on Acoustics, Speech, and Signal Processing, 6.-10. April 2003. Proceedings, S. V-265-V-368 * |
SHEETS, Nathan W. u. WANG, Lily M.: Effects of sound source directivity on auralizations (A). In: Journal of the Acoustical Society of America, Vol. 111, May 2002, Issue 5, P.2331 (derzeit nur als Abstract vorliegend) * |
Also Published As
Publication number | Publication date |
---|---|
JP5637661B2 (en) | 2014-12-10 |
WO2007062840A1 (en) | 2007-06-07 |
EP1977626A1 (en) | 2008-10-08 |
US20160105758A1 (en) | 2016-04-14 |
US20080292112A1 (en) | 2008-11-27 |
JP2009517936A (en) | 2009-04-30 |
EP1977626B1 (en) | 2017-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1977626B1 (en) | Method for recording and reproducing a sound source with time-variable directional characteristics | |
EP0641143B1 (en) | Method for simulating spatial and/or sonic impression | |
DE69522971T2 (en) | Binaural synthesis, head-related transfer function, and their use | |
EP1637012A1 (en) | Wave field synthesis device and method for driving an array of loudspeakers | |
EP0905933A2 (en) | Method and system for mixing audio signals | |
EP1972181B1 (en) | Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics | |
WO2005060307A1 (en) | Device and method for producing a low-frequency channel | |
AT394650B (en) | ELECTROACOUSTIC ARRANGEMENT FOR PLAYING STEREOPHONER BINAURAL AUDIO SIGNALS VIA HEADPHONES | |
DE102013217367A1 (en) | DEVICE AND METHOD FOR RAUMELECTIVE AUDIO REPRODUCTION | |
EP1525776A1 (en) | Device for correcting the level in a wave field synthesis system | |
EP1933590B1 (en) | Method for adjusting hearing aids | |
DE3839702A1 (en) | DEVICE FOR STEREOPHONES, ELECTROACOUSTIC SIGNAL CONVERSION | |
EP0040739B1 (en) | Arrangement for reproduction of a sound recording by headphones | |
DE19911507A1 (en) | Method of improving three-dimensional sound reproduction enables more effective 3D sound processing to be achieved with minimisation of high frequency components of a virtual sound source positioned behind the ear | |
EP0484354B1 (en) | Stereo headphone for the "in front" location of auditory events generated by stereo headphones | |
DE19580412C1 (en) | Compensating for mutual interference between loudspeakers and acoustic distortion of room | |
DE102005003431B4 (en) | Arrangement for reproducing binaural signals (artificial head signals) by a plurality of loudspeakers | |
DE102005001395B4 (en) | Method and apparatus for transforming the early sound field | |
DE102018120804B4 (en) | Method and device for automatically configuring an audio output system and non-volatile storage medium | |
WO2007110087A1 (en) | Arrangement for the reproduction of binaural signals (artificial-head signals) by a plurality of loudspeakers | |
EP1359437A1 (en) | Method for determining a position of a user of a communication terminal | |
DE1114847B (en) | Loudspeaker arrangement with high presence for closed spaces | |
DE3904943A1 (en) | Loudspeaker arrangement for improving the acoustic sound impression in living rooms | |
DE102018108852B3 (en) | Method for influencing an auditory sense perception of a listener | |
WO2022183231A1 (en) | Method for producing audio signal filters for audio signals in order to generate virtual sound sources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130601 |