EP1723825B1 - Apparatus and method for controlling a wave field synthesis rendering device - Google Patents
Apparatus and method for controlling a wave field synthesis rendering device Download PDFInfo
- Publication number
- EP1723825B1 EP1723825B1 EP06706963A EP06706963A EP1723825B1 EP 1723825 B1 EP1723825 B1 EP 1723825B1 EP 06706963 A EP06706963 A EP 06706963A EP 06706963 A EP06706963 A EP 06706963A EP 1723825 B1 EP1723825 B1 EP 1723825B1
- Authority
- EP
- European Patent Office
- Prior art keywords
- wave field
- audio object
- field synthesis
- audio
- virtual source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Not-in-force
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 127
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 127
- 238000009877 rendering Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000004590 computer program Methods 0.000 claims abstract description 7
- 230000002123 temporal effect Effects 0.000 claims description 14
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 description 18
- 230000004044 response Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- LWZFANDGMFTDAV-BURFUSLBSA-N [(2r)-2-[(2r,3r,4s)-3,4-dihydroxyoxolan-2-yl]-2-hydroxyethyl] dodecanoate Chemical compound CCCCCCCCCCCC(=O)OC[C@@H](O)[C@H]1OC[C@H](O)[C@H]1O LWZFANDGMFTDAV-BURFUSLBSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005404 monopole Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 235000011067 sorbitan monolaureate Nutrition 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
Definitions
- the present invention relates to the field of wave field synthesis, and more particularly to driving a wave field synthesis rendering device with data to be processed.
- the present invention relates to wave-field synthesis concepts, and more particularly to efficient wave-field synthesis concept in conjunction with a multi-renderer system. Audio playback systems based on wave field synthesis and provided with means for providing scene description are out WO 2004/047485 known.
- WFS wave field synthesis
- Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront.
- a so-called speaker array any shape of an incoming wavefront.
- the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap.
- the contribution to each speaker is calculated separately for each source and the resulting signals added together.
- the cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
- the advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible.
- the direction and distance of sound sources are reproduced very accurately.
- virtual sound sources can even be positioned between the real speaker array and the listener.
- wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
- An environmental condition can be described by the impulse response of the environment.
- wave field synthesis provides the ability to eliminate the reflection from that wall by giving the loudspeaker a signal in phase opposition to the reflection signal is impressed with appropriate amplitude in addition to the original audio signal, so that the outgoing compensation wave extinguishes the reflection wave, such that the reflection from this wall in the environment; which is considered eliminated.
- This can be done by first computing the impulse response of the environment and determining the nature and position of the wall based on the impulse response of that environment, the wall being interpreted as a source of mirrors, that is, a sound source reflecting an incident sound.
- Wavefield synthesis (WFS or sound field synthesis), as developed at the TU Delft in the late 1980s, represents a holographic approach to sound reproduction. The basis for this is the Kirchhoff-Helmholtz integral. This states that any sound fields within a closed volume can be generated by means of a distribution of monopole and dipole sound sources (loudspeaker arrays) on the surface of this volume.
- a synthesis signal for each loudspeaker of the loudspeaker array is calculated from an audio signal which emits a virtual source at a virtual position, the synthesis signals being designed in amplitude and phase such that a wave resulting from the superposition of the individual the sound wave present in the loudspeaker array will correspond to the wave that would result from the virtual source at the virtual position if that virtual source at the virtual position were a real source with a real position.
- multiple virtual sources exist at different virtual locations.
- the computation of the synthesis signals is performed for each virtual source at each virtual location, typically resulting in one virtual source in multiple speaker synthesis signals. Seen from a loudspeaker, this loudspeaker thus receives several synthesis signals, which go back to different virtual sources. A superimposition of these sources, which is possible due to the linear superposition principle, then gives the reproduced signal actually emitted by the speaker.
- wave field synthesis unit must accomplish, since typically channel information must be considered. This means in more detail that from each virtual source to each speaker in principle a separate transmission channel is present, and that in principle there may be the case that each virtual source leads to a synthesis signal for each speaker, or that each speaker a number of synthesis signals which equals the number of virtual sources.
- the final-rendered and analog-to-digital converted reproduction signals for the individual loudspeakers could be transmitted, for example via two-wire lines, from the wave field synthesis central unit to the individual loudspeakers.
- the wave field synthesis central unit could always be made only for a special reproduction room or for a reproduction with a fixed number of loudspeakers.
- the German patent DE 10254404 B4 discloses a system as shown in FIG.
- One part is the central wave field synthesis module 10.
- the other part is composed individual speaker modules 12a, 12b, 12c, 12d, 12e, which are connected to actual physical speakers 14a, 14b, 14c, 14d, 14e, as shown in Fig. 7.
- the number of speakers 14a-14e in typical applications is in the range above 50 and typically even well above 100. If each loudspeaker is assigned its own loudspeaker module, the corresponding number of loudspeaker modules is also required. Depending on the application, however, it is preferred to address a small group of adjacent loudspeakers from a loudspeaker module.
- a speaker module which is connected to four speakers, for example, feeds the four speakers with the same playback signal, or whether the four speakers corresponding different synthesis signals are calculated, so that such a speaker module actually off consists of several individual speaker modules, but which are physically combined in one unit.
- each transmission path 16a-16e being coupled to the central wave field synthesis module and to a separate loudspeaker module.
- a serial transmission format that provides a high data rate such as a so-called Firewire transmission format or a USB data format.
- Data transfer rates in excess of 100 megabits per second are advantageous.
- the data stream which is transmitted from the wave field synthesis module 10 to a loudspeaker module is thus formatted according to the selected data format in the wave field synthesis module and with synchronization information provided in common serial data formats.
- This synchronization information is extracted from the individual loudspeaker modules from the data stream and used to resample the individual loudspeaker modules with regard to their reproduction, that is to say finally to the analog-to-digital conversion for obtaining the analog loudspeaker signal and the purpose of resampling. to synchronize.
- the central wave-field synthesis module works as a master and all loudspeaker modules operate as clients, with the individual data streams across the different links 16a-16e all receiving the same synchronization information from the central module 10.
- the rendering still determines the total capacity of the system. Is the central rendering unit therefore z.
- the central rendering unit therefore z. For example, if it is able to render 32 virtual sources simultaneously, ie to compute the synthesis signals for these 32 virtual sources simultaneously, then serious capacity bottlenecks will occur if more than 32 sources are active at a time in an audio scene. This is sufficient for simple scenes. For more complex scenes, in particular with immersive sound impressions, ie when it rains and many raindrops are single sources, it is immediately obvious that the capacity with a maximum of 32 sources is no longer sufficient. A similar situation also occurs when you have a large orchestra and in fact want to process every orchestra player or at least each group of instruments as their own source in their own position. Here, 32 virtual sources can quickly become too little.
- a scene description is used in which the individual audio objects are defined together such that, using the data in the scene description and the audio data for the individual virtual sources, the complete scene is rendered by a renderer or a multi-rendering Arrangement can be processed.
- a renderer or a multi-rendering Arrangement For each audio object, it is exactly defined where the audio object has to start and where the audio object ends. Furthermore, for each audio object, exactly the position of the virtual source is indicated at which the virtual source should be, which is to be entered into the wave field synthesis rendering device, so that for each speaker the corresponding synthesis signals are generated.
- each renderer has limited computing power.
- a renderer is capable of processing 32 audio sources simultaneously.
- a transmission path from the audio server to the renderer has a limited transmission bandwidth, so provides a maximum transmission rate in bits per second.
- Another possibility is to take into account when creating the scene description no consideration of actual wave field synthesis conditions, but to create the scene description just as it wishes the scene author.
- This possibility is advantageous in view of a higher flexibility and portability of scene descriptions under different wave field synthesis systems, as this creates scene descriptions which are not designed for a specific system but are more general.
- the same scene description when run on a wave field synthesis system having the high capacity renderer, will result in a better sound impression than in a system having renderers with lower computational power.
- the second possibility is advantageous in that a scene description does not result in a better sound impression due to the fact that it has been generated for a wave field synthesis system with a very limited capacity, even in a better capacity wave field synthesis system.
- a disadvantage of the second possibility is that when the wave field synthesis system is brought to its maximum capacity, performance slumps or other associated problems will occur because the renderer because of its maximum capacity, if it should process more sources, processing the In addition, it can simply deny going sources.
- the object of the present invention is to provide a flexible concept for controlling a wave-field synthesis rendering device, through quality degradations be reduced at least while maintaining a high level of flexibility.
- the present invention is based on the recognition that actual capacity limits can be extended by intercepting processing load peaks occurring in wave field synthesis by varying the beginning and / or end of an audio object or the position of an audio object within a time span or span, perhaps only one short existing overload peak intercept. This is achieved by specifying margins in the scene description rather than fixed times for certain sources where the beginning and / or the end and even the position may be variable within a certain span, and then depending on a load situation in the wave field synthesis system, the actual start and actual virtual position of an audio object are varied within that time span.
- overload situations are thereby reduced or even completely eliminated by moving audio objects forward or backward within their time span or in the case of multi-renderer systems with respect to their position, so that one of the Due to the changed position, renderer no longer needs to generate synthesis signals for this virtual source.
- Audio objects that are particularly well suited for such a duration / Ortsspannen definition are sources that have noises to the content, so z. B. gossip noise, dripping or any other background noise, such as a wind noise or z. B. also a driving noise of a approaching from far away train.
- a wind noise starts a few seconds earlier or later, or if the move enters the audio scene at a different virtual position than originally requested by the original author of the scene description.
- the effects on the described very dynamically occurring overload situation can be eminent.
- the scheduling or scheduling of audio sources within the scope of their spatial ranges and periods of time can lead to a very short overload situation being able to be converted into a correspondingly longer situation that can still be processed. This can of course by a z. For example, within a permitted period of time, it would be conditional earlier termination of an audio object that would not have existed for a long time anyway, but because of an audio object newly transferred to the renderer, would have led to an overload situation of this renderer that would have rejected the new audio object.
- this problem is solved by z. B. the previous audio object, if a corresponding margin was specified, already ended a second earlier, or that the later audio object within a predetermined period z. B. is pushed back a second, so that the audio objects no longer overlap and thus no unpleasant rejection of the entire later audio object, which may have a length of minutes, is obtained.
- an audio object comprises an audio file for a virtual source and at least one source position at which the virtual source is to be arranged inside or outside the playback room, ie with respect to the listener.
- the apparatus according to the invention shown in FIG. 1 comprises a scene description providing means 1, the scene description defining a time sequence of audio data, wherein an audio object for a virtual source associated with the audio object defines a start time or an end time, the audio object for the virtual source has a period of time in which to start or end the audio object.
- the scene description is such that the audio object has a location span in which a position of the virtual source must lie.
- the device according to the invention further comprises a monitoring monitor 2, which is designed to monitor a utilization of the wave field synthesis system 0, so as to determine a utilization situation of the wave field synthesis system.
- an audio object manipulation device 3 is provided, which is configured to vary an actual start point or end point of the audio object to be taken into account by the wave field synthesis rendering device within the time span or an actual position of the virtual source within the location span, depending on a load situation of the wave field synthesis system 0.
- an audio file server 4 is further provided, which can be implemented together with the audio object manipulation device 3 in an intelligent database.
- it is a simple file server which, depending on a control signal from the audio object manipulation device 3, feeds an audio file either directly via a data connection 5a to the wave field synthesis system and in particular to the wave field synthesis rendering device.
- the audio file to the audio object manipulation device 3 via a data connection 5b, which then feeds a data stream via its control line 6a to the wave field synthesis system 0 and in particular to the individual renderer modules or the single renderer module the actual starting points and / or end points of the audio object determined by the manipulation device or comprises the corresponding position and the audio data itself includes.
- the audio object manipulation device 3 is supplied with the scene description from the device 1, while the utilization situation of the wave field synthesis system 0 is supplied from the monitoring monitor 2 via a further input line 6c.
- the individual lines described in FIG. 1 may not necessarily be implemented as separate cables etc., but merely to symbolize that corresponding data is transmitted in the system in order to implement the concept according to the invention
- the monitoring monitor 2 is also a monitoring line 7 with the wave field synthesis system 0 connected depending on the situation z. For example, to check how many sources are being processed in a renderer module and whether the capacity limit has been reached, or to check what the current data rate is, just on line 6a or data line 5a or on another Lead within the wave field synthesis system prevails.
- the utilization situation does not necessarily have to be the current utilization situation, but can also be a future utilization situation.
- This implementation is preferred in that then the variability, such as the individual audio objects with each other in terms of avoiding overload peaks in the future can be scheduled or manipulated, for. B. by a current variation within a period of time only in some future avoid overload peak helps.
- the efficiency of the concept according to the invention becomes ever greater the more sources exist which do not have fixed starting points or end points, but have starting points or end points which are provided with a time span or which have no fixed source positions but source positions which provide a spatial span are.
- the audio object manipulation device 3 would position the position of this virtual source, the actual position of which is insignificant for the audio impression or for the audio scene, in such a way that it is processed by a different renderer than the front renderer. Renderer not burdened but only charged to another renderer, but anyway not at its capacity limit works.
- an audio object should specify the audio file that effectively represents the audio content of a virtual source.
- the audio object does not need to include the audio file, but may have an index pointing to a defined location in a database where the actual audio file is stored.
- an audio object preferably comprises an identification of the virtual source, which may be, for example, a source number or a meaningful file name, etc.
- the audio object specifies a period of time for the beginning and / or the end of the virtual source, that is, the audio file.
- Specifying only a time period for the start means that the actual starting point of the rendering of this file by the renderer can be changed within the time span.
- a time limit is specified for the end, this also means that the end can also be varied within the time span, which, depending on the implementation, will generally lead to a variation of the audio file also in terms of its length. Any implementations are possible, such. For example, a definition of the start / end time of an audio file so that although the starting point may be moved, but in no case the length may be changed, so that automatically the end of the audio file is also moved.
- an audio object further comprises a location span for the position. So it will be irrelevant for certain audio objects, whether they z. B. come from the front left or front center, or if they are shifted by a (small) angle with respect to a reference point in the playback room.
- audio objects, especially from the noise area which can be positioned at any position and thus have a maximum spatial range, for example, by a code for "arbitrary" or by no code (implicit) in the Audio object can be specified.
- An audio object may include other information, such as an indication of the type of virtual source, that is, whether the virtual source must be a point source for sound waves, or whether it must be a source of plane waves, or whether must be a source that generates sources of arbitrary wavefront, provided the renderer modules are able to process such information.
- FIG. 3 shows, by way of example, a schematic representation of a scene description in which the temporal sequence of different audio objects AO1,... AOn + 1 is shown.
- attention is drawn to the audio object AO3, for which a period of time, as shown in FIG. 3, is defined.
- a period of time as shown in FIG. 3
- both the start point and the end point of the audio object AO3 in Fig. 3 can be shifted by the time period.
- the definition of the audio object AO3, however, is that the length may not be changed, but this can be set variably from audio object to audio object.
- a scene description is used that has relative indications.
- the flexibility is increased by the fact that the beginning of the audio object AO2 is no longer given at an absolute time, but in a relative time to the audio object AO1.
- a relative description of the location information is preferred, so not that an audio object is to be arranged at a certain position xy in the playback room, but z.
- B. is a vector offset to another audio object or to a reference object.
- the time span information or Ortsspanneninformation can be recorded very efficiently, namely simply in that the time period is set so that it expresses that the audio object AO3 z. B. in a period between two minutes and two minutes and 20 seconds after the start of the audio object AO1 can begin.
- constraints such as. B. "Modeling Output Constraints in Multimedia Database Systems", T. Heimrich, 1st International Multimedia Modeling Conference, IEEE, January 2, 2005 to January 14, 2005, Melbourne. It shows the use of constraints in database systems to define consistent database states.
- temporal constraints are described using Allen relationships and spatial constraints using spatial relationships. From this, favorable output constraints can be defined for synchronization purposes.
- output constraints include a temporal or spatial condition between the objects, a response in case of a violation of a Constraints and a review time, so when such a constraint must be checked.
- the spatial / temporal output objects of each scene are modeled relative to one another.
- the audio object manipulation device achieves a translation of these relative and variable definitions into an absolute spatial and temporal order.
- This ordering represents the output schedule obtained at the output 6a of the system shown in Figure 1 and defines how, in particular, the renderer module in the wave-field synthesis system is addressed.
- the schedule is thus an output schedule that arranges the audio data according to the output conditions.
- FIG. 4 shows a data stream which is transmitted from left to right according to FIG. 4, ie from the audio object manipulation device 3 of FIG. 1 to one or more wave field synthesis renderers of the wave field system 0 of FIG. 1.
- the data stream comprises for each audio object in the embodiment shown in Fig. 4, first a header H, in which the position information and the time information stand, and an audio file for the special audio object, which in Fig. 4 shows AO1 for the first audio object, AO2 for the second Audio object etc. is designated.
- a wave field synthesis renderer then receives the data stream and detects z. B. to an existing and agreed synchronization information that now comes a header. Based on another synchronization information, the renderer then recognizes that the header is now over. Alternatively, a fixed length in bits can also be agreed for each header.
- the audio renderer After receiving the header, in the preferred embodiment of the present invention shown in FIG. 4, the audio renderer automatically knows that the subsequent audio file, ie, e.g. AO1 belongs to the audio object, that is, to the source location identified in the header.
- FIG. 4 shows a serial data transmission to a wave field synthesis renderer.
- the renderer requires an input buffer preceded by a data stream reader to parse the data stream.
- the data stream reader will then interpret the header and store the associated audio data accordingly, so that when an audio object is to render, the renderer reads out the correct audio file and the correct source position from the input buffer.
- Other data for the data stream are of course possible.
- a separate transmission of both the time / location information and the actual audio data may be used.
- the combined transfer illustrated in Figure 4 is preferred because it eliminates data consistency problems by concatenating the position / time information with the audio file, since it is always ensured that the audio data renderer also has the correct source position and not z. B. still renders audio from an earlier source, but already uses position information from the new source for rendering.
- the present invention is thus based on an object-oriented approach, that is to say that the individual virtual sources are understood as objects which are distinguished by an audio file and a virtual position in space and possibly by the nature of the source, that is, if they are a point source for sound waves or a source of plane waves or a source of differently shaped sources.
- the calculation of the wave fields is very computationally intensive and tied to the capacities of the hardware used, such as sound cards and computers, in conjunction with the efficiency of the calculation algorithms. Even the best-equipped PC-based solution thus quickly reaches its limits in the calculation of wave field synthesis, when many sophisticated sound events are to be displayed simultaneously. Thus, the capacity limit of the software and hardware used dictates the limitation on the number of virtual sources in the mixdown and playback.
- FIG. 6 shows such a limited-capacity known wave-field synthesis concept including an authoring tool 60, a control renderer module 62, and an audio server 64, wherein the control renderer module is configured to include a speaker array 66 Supply data so that the speaker array 66 generates a desired wavefront 68 by superimposing the individual waves of the individual speakers 70.
- the authoring tool 60 allows the user to create scenes, edit and control the wave field synthesis based system.
- a scene consists of information about the individual virtual audio sources as well as the audio data.
- the properties of the audio sources and the references to the audio data are stored in an XML scene file.
- the audio data itself is stored on the audio server 64 and transmitted from there to the renderer module.
- the renderer module receives the control data from the authoring tool so that the control renderer module 62, which is centrally executed, can generate the synthesis signals for the individual loudspeakers.
- the concept shown in Figure 6 is described in "Authoring System for Wave Field Synthesis", F. Melchior, T. Röder, S. Brix, S. Wabnik and C. Riegel, AES Convention Paper, 115th AES Assembly, 10. October 2003, New York.
- each renderer is supplied with the same audio data, regardless of whether the renderer needs this data for playback or not because of the limited number of speakers assigned to it. Since each of the current computers is capable of calculating 32 audio sources, this is the limit for the system. On the other hand, the number of renderable sources in the overall system should be significantly increased efficiently. This is one of the essential requirements for complex applications, such as movies, scenes with immersive atmospheres, such as rain or applause or other complex audio scenes.
- a reduction of redundant data transfer operations and data processing operations in a wave field synthesis multi-renderer system is achieved, which leads to an increase in the computing capacity or the number of simultaneously computable audio sources.
- the audio server is extended by the data output device, which is able to determine which renderer needs which audio and metadata.
- the data output device possibly supported by the data manager, requires a plurality of information in a preferred embodiment. This information is initially the audio data, then the source and position data of the sources, and finally the configuration of the renderers, that is, information about the connected speakers and their positions and their capacity.
- an output schedule is generated by the data output device with a temporal and spatial arrangement of the audio objects. From the spatial arrangement, the time schedule and the renderer configuration, the data management module then calculates which source for which renderers are relevant at any given time.
- the database 22 is supplemented on the output side by the data output device 24, wherein the data output device is also referred to as a scheduler.
- This scheduler then generates at its outputs 20a, 20b, 20c for the various renderers 50 the renderer input signals in order to power the corresponding loudspeakers of the loudspeaker arrays.
- the scheduler 24 is still supported by a storage manager 52 in order to configure the database 42 by means of a RAID system and corresponding data organization specifications.
- a data generator 54 On the input side is a data generator 54, which may be, for example, a sound engineer or an audio engineer who is to model or describe an audio scene in an object-oriented manner. In this case, he provides a scene description that includes corresponding output conditions 56, which are then optionally stored in the database 22 together with audio data after a transformation 58.
- the audio data may be manipulated and updated using an insert / update tool 59.
- the method according to the invention can be implemented in hardware or in software.
- the implementation may be on a digital storage medium, particularly a floppy disk or CD, with electronically readable control signals that may interact with a programmable computer system to perform the method.
- the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method when the computer program product runs on a computer.
- the invention can be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.
Landscapes
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Stereophonic System (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Paper (AREA)
- Control Of Metal Rolling (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
Description
Die vorliegende Erfindung bezieht sich auf das Gebiet der Wellenfeldsynthese und insbesondere auf die Ansteuerung einer Wellenfeldsynthese-Rendering-Einrichtung mit zu verarbeitenden Daten.The present invention relates to the field of wave field synthesis, and more particularly to driving a wave field synthesis rendering device with data to be processed.
Die vorliegende Erfindung bezieht sich auf Wellenfeldsynthese-Konzepte und insbesondere auf effiziente Wellenfeldsynthese-Konzept in Verbindung mit einem-Multi-Renderer-System. Audiowiedergabesysteme, die auf Wellenfeldsynthese basieren und mit einer Einrichtung zum liefern einer Szenenbeschreibung vorgesehen sind, sind aus
Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektronik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.There is an increasing demand for new technologies and innovative products in the field of consumer electronics. It is an important prerequisite for the success of new multimedia systems to offer optimal functionalities and capabilities. This is achieved through the use of digital technologies and especially computer technology. Examples of these are the applications that offer an improved, realistic audiovisual impression. In previous audio systems, a significant weakness lies in the quality of the spatial sound reproduction of natural, but also of virtual environments.
Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.Methods for multi-channel speaker reproduction of audio signals have been known and standardized for many years. All the usual techniques have the disadvantage that both the installation site of the loudspeakers and the position of the listener are already impressed on the transmission format. If the speakers are arranged incorrectly with respect to the listener, the audio quality suffers significantly. An optimal sound is only possible in a small area of the playback room, the so-called sweet spot.
Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (
Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden nächstes Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den Konsumerbereich auf den Markt kommen.Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has rarely been used in practice. Only the advances in the areas of microprocessor technology and audio coding allow today the use of this technology in concrete applications. The first professional products are expected next year. In a few years, the first wave field synthesis applications for the consumer sector will be launched.
Die Grundidee von WFS basiert auf der Anwendung des Huygens'schen Prinzips der Wellentheorie:The basic idea of WFS is based on the application of Huygens' principle of wave theory:
Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.Every point, which is detected by a wave, is the starting point of an elementary wave, which spreads in a spherical or circular manner.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray), jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. Befinden sich die wiederzugebenden Quellen in einem Raum mit reflektierenden Wänden, dann müssen auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront. In the simplest case, a single point source to be reproduced and a linear arrangement of the speakers, the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap. With multiple sound sources, the contribution to each speaker is calculated separately for each source and the resulting signals added together. Are located If the sources to be played in a room with reflective walls, then reflections as additional sources on the speaker array must be reproduced. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.The advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible. In contrast to the known techniques, the direction and distance of sound sources are reproduced very accurately. To a limited extent, virtual sound sources can even be positioned between the real speaker array and the listener.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.Although wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
Eine Umgebungsbeschaffenheit kann durch die Impulsantwort der Umgebung beschrieben werden.An environmental condition can be described by the impulse response of the environment.
Dies wird anhand des nachfolgenden Beispiels näher dargelegt. Es wird davon ausgegangen, dass ein Lautsprecher ein Schallsignal gegen eine Wand aussendet, deren Reflexion unerwünscht ist. Für dieses einfache Beispiel würde die Raumkompensation unter Verwendung der Wellenfeldsynthese darin bestehen, dass zunächst die Reflexion dieser Wand bestimmt wird, um zu ermitteln, wann ein Schallsignal, das von der Wand reflektiert worden ist, wieder beim Lautsprecher ankommt, und welche Amplitude dieses reflektierte Schallsignal hat. Wenn die Reflexion von dieser Wand unerwünscht ist, so besteht mit der Wellenfeldsynthese die Möglichkeit, die Reflexion von dieser Wand zu eliminieren, indem dem Lautsprecher ein zu dem Reflexionssignal gegenphasiges Signal mit entsprechender Amplitude zusätzlich zum ursprünglichen Audiosignal eingeprägt wird, so dass die hinlaufende Kompensationswelle die Reflexionswelle auslöscht, derart, dass die Reflexion von dieser Wand in der Umgebung; die betrachtet wird, eliminiert ist. Dies kann dadurch geschehen, dass zunächst die Impulsantwort der Umgebung berechnet wird und auf der Basis der Impulsantwort dieser Umgebung die Beschaffenheit und Position der Wand bestimmt wird, wobei die Wand als Spiegelquelle interpretiert wird, also als Schallquelle, die einen einfallenden Schall reflektiert.This will be explained in more detail with reference to the following example. It is assumed that a loudspeaker emits a sound signal against a wall whose reflection is undesirable. For this simple example, the space compensation using wavefield synthesis would be to first determine the reflection of that wall to determine when a sound signal reflected from the wall will return to the loudspeaker and what amplitude this reflected sound signal will be Has. If the reflection from this wall is undesirable, wave field synthesis provides the ability to eliminate the reflection from that wall by giving the loudspeaker a signal in phase opposition to the reflection signal is impressed with appropriate amplitude in addition to the original audio signal, so that the outgoing compensation wave extinguishes the reflection wave, such that the reflection from this wall in the environment; which is considered eliminated. This can be done by first computing the impulse response of the environment and determining the nature and position of the wall based on the impulse response of that environment, the wall being interpreted as a source of mirrors, that is, a sound source reflecting an incident sound.
Wird zunächst die Impulsantwort dieser Umgebung gemessen und wird dann das Kompensationssignal berechnet, das dem Audiosignal überlagert dem Lautsprecher eingeprägt werden muss, so wird eine Aufhebung der Reflexion von dieser Wand stattfinden, derart, dass ein Hörer in dieser Umgebung schallmäßig den Eindruck hat, dass diese Wand überhaupt nicht existiert.If the impulse response of this environment is first measured and the compensation signal is then calculated, which must be impressed on the audio signal superimposed on the loudspeaker, then the reflection from this wall will be canceled, such that a listener in this environment will soundly have the impression that the latter Wall does not exist at all.
Entscheidend für eine optimale Kompensation der reflektierten Welle ist jedoch, dass die Impulsantwort des Raums genau bestimmt wird, damit keine Über- oder Unterkompensation auftritt.Decisive for an optimal compensation of the reflected wave, however, is that the impulse response of the room is accurately determined, so that no overcompensation or undercompensation occurs.
Die Wellenfeldsynthese ermöglicht somit eine korrekte Abbildung von virtuellen Schallquellen über einen großen Wiedergabebereich. Gleichzeitig bietet sie dem Tonmeister und Toningenieur neues technisches und kreatives Potential bei der Erstellung auch komplexer Klanglandschaften. Die Wellenfeldsynthese (WFS oder auch Schallfeldsynthese), wie sie Ende der 80-er Jahre an der TU Delft entwickelt wurde, stellt einen holographischen Ansatz der Schallwiedergabe dar. Als Grundlage hierfür dient das Kirchhoff-Helmholtz-Integral. Dieses besagt, dass beliebige Schallfelder innerhalb eines geschlossenen Volumens mittels einer Verteilung von Monopol- und Dipolschallquellen (Lautsprecherarrays) auf der Oberfläche dieses Volumens erzeugt werden können.The wave field synthesis thus allows a correct mapping of virtual sound sources over a large playback area. At the same time it offers the sound engineer and sound engineer new technical and creative potential in the creation of even complex soundscapes. Wavefield synthesis (WFS or sound field synthesis), as developed at the TU Delft in the late 1980s, represents a holographic approach to sound reproduction. The basis for this is the Kirchhoff-Helmholtz integral. This states that any sound fields within a closed volume can be generated by means of a distribution of monopole and dipole sound sources (loudspeaker arrays) on the surface of this volume.
Bei der Wellenfeldsynthese wird aus einem Audiosignal, das eine virtuelle Quelle an einer virtuellen Position aussendet, eine Synthesesignal für jeden Lautsprecher des Lautsprecherarrays berechnet, wobei die Synthesesignale derart hinsichtlich Amplitude und Phase gestaltet sind, dass eine Welle, die sich aus der Überlagerung der einzelnen durch die im Lautsprecherarray vorhandenen Lautsprecher ausgegebenen Schallwelle ergibt, der Welle entspricht, die von der virtuellen Quelle an der virtuellen Position herrühren würde, wenn diese virtuelle Quelle an der virtuellen Position eine reale Quelle mit einer realen Position wäre.In the wave field synthesis, a synthesis signal for each loudspeaker of the loudspeaker array is calculated from an audio signal which emits a virtual source at a virtual position, the synthesis signals being designed in amplitude and phase such that a wave resulting from the superposition of the individual the sound wave present in the loudspeaker array will correspond to the wave that would result from the virtual source at the virtual position if that virtual source at the virtual position were a real source with a real position.
Typischerweise sind mehrere virtuelle Quellen an verschiedenen virtuellen Positionen vorhanden. Die Berechnung der Synthesesignale wird für jede virtuelle Quelle an jeder virtuellen Position durchgeführt, so dass typischerweise eine virtuelle Quelle in Synthesesignalen für mehrere Lautsprecher resultiert. Von einem Lautsprecher aus betrachtet empfängt dieser Lautsprecher somit mehrere Synthesesignale, die auf verschiedene virtuelle Quellen zurückgehen. Eine Überlagerung dieser Quellen, die aufgrund des linearen Superpositionsprinzips möglich ist, ergibt dann das von dem Lautsprecher tatsächlich ausgesendete Wiedergabesignal.Typically, multiple virtual sources exist at different virtual locations. The computation of the synthesis signals is performed for each virtual source at each virtual location, typically resulting in one virtual source in multiple speaker synthesis signals. Seen from a loudspeaker, this loudspeaker thus receives several synthesis signals, which go back to different virtual sources. A superimposition of these sources, which is possible due to the linear superposition principle, then gives the reproduced signal actually emitted by the speaker.
Die Möglichkeiten der Wellenfeldsynthese können um so besser ausgeschöpft werden, je größer die Lautsprecherarrays sind, d. h. um so mehr einzelne Lautsprecher bereitgestellt werden. Damit steigt jedoch auch die Rechenleistung, die eine. Wellenfeldsyntheseeinheit vollbringen muss, da typischerweise auch Kanalinformationen berücksichtigt werden müssen. Dies bedeutet im einzelnen, dass von jeder virtuellen Quelle zu jedem Lautsprecher prinzipiell ein eigener Übertragungskanal vorhanden ist, und dass prinzipiell der Fall vorhanden sein kann, dass jede virtuelle Quelle zu einem Synthesesignal für jeden Lautsprecher führt, bzw. dass jeder Lautsprecher eine Anzahl von Synthesesignalen erhält, die gleich der Anzahl von virtuellen Quellen ist.The possibilities of wave field synthesis can be better exploited the larger the loudspeaker arrays are, ie the more individual loudspeakers are provided. However, this also increases the computing power that a. Wave field synthesis unit must accomplish, since typically channel information must be considered. This means in more detail that from each virtual source to each speaker in principle a separate transmission channel is present, and that in principle there may be the case that each virtual source leads to a synthesis signal for each speaker, or that each speaker a number of synthesis signals which equals the number of virtual sources.
Wenn insbesondere bei Kinoanwendungen die Möglichkeiten der Wellenfeldsynthese dahingehend ausgeschöpft werden sollen, dass die virtuellen Quellen auch beweglich sein können, so ist zu erkennen, dass aufgrund der Berechnung der Synthesesignale, der Berechnung der Kanalinformationen und der Erzeugung der Wiedergabesignale durch Kombination der Kanalinformationen und der Synthesesignale ganz erhebliche Rechenleistungen zu bewältigen sind.If, in particular, in cinema applications the possibilities of wave field synthesis are to be exploited to the extent that the virtual sources can also be mobile, then it can be seen that due to the calculation of the synthesis signals, the calculation of the channel information and the generation of the reproduction signals by combining the channel information and the synthesis signals quite considerable computing power has to be mastered.
Darüber hinaus sei an dieser Stelle angemerkt, dass die Qualität der Audiowiedergabe mit der Anzahl der zur Verfügung gestellten Lautsprecher steigt. Dies bedeutet, dass die Audiowiedergabequalität um so besser und realistischer wird, um so mehr Lautsprecher in dem bzw. den Lautsprecherarrays vorhanden sind.In addition, it should be noted at this point that the quality of the audio playback increases with the number of speakers provided. This means that the audio reproduction quality becomes better and more realistic as more loudspeakers are present in the loudspeaker array (s).
Im obigen Szenario könnten die fertig gerenderten und analog-digital-gewandelten Wiedergabesignale für die einzelnen Lautsprecher beispielsweise über Zweidrahtleitungen von der Wellenfeldsynthese-Zentraleinheit zu den einzelnen Lautsprechern übertragen werden. Dies hätte zwar den Vorteil, dass nahezu sichergestellt ist, dass alle Lautsprecher synchron arbeiten, so dass hier zu Synchronisationszwecken keine weiteren Maßnahmen erforderlich wären. Andererseits könnte die Wellenfeldsynthese-Zentraleinheit immer nur für einen speziellen Wiedergaberaum bzw. für eine Wiedergabe mit einer festgelegten Anzahl von Lautsprechern hergestellt werden. Dies bedeutet, dass für jeden Wiedergaberaum eine eigene Wellenfeldsynthese-Zentraleinheit gefertigt werden müsste, die ein erhebliches Maß an Rechenleistung zu vollbringen hat, da die Berechnung der Audiowiedergabesignale insbesondere im Hinblick auf viele Lautsprecher bzw. viele virtuelle Quellen zumindest teilweise parallel und in Echtzeit erfolgen muss.In the above scenario, the final-rendered and analog-to-digital converted reproduction signals for the individual loudspeakers could be transmitted, for example via two-wire lines, from the wave field synthesis central unit to the individual loudspeakers. Although this would have the advantage that it is almost ensured that all speakers work in sync, so that here for synchronization purposes, no further action would be required. On the other hand, the wave field synthesis central unit could always be made only for a special reproduction room or for a reproduction with a fixed number of loudspeakers. This means that a separate wave field synthesis central unit would have to be produced for each reproduction space, which has to accomplish a considerable amount of computing power, since the calculation of the audio reproduction signals has to be at least partially parallel and in real time, in particular with regard to many loudspeakers or many virtual sources ,
Das Deutsche Patent
Zwischen dem Wellenfeldsynthesemodul 10 und jedem einzelnen Lautsprecher-Modul 12a-12e befindet sich eine eigene Obertragungsstrecke 16a-16e, wobei jede Übertragungsstrecke mit dem zentralen Wellenfeldsynthesemodul und einem eigenen Lautsprecher-Modul gekoppelt ist.Between the wave
Als Datenübertragungsmodus zum Übertragen von Daten von dem Wellenfeldsynthesemodul zu einem Lautsprecher-Modul wird ein serielles Übertragungsformat bevorzugt, das eine hohe Datenrate liefert, wie beispielsweise ein sogenanntes Firewire-Übertragungsformat oder ein USB-Datenformat. Datenübertragungsraten von über 100 Megabit pro Sekunde sind vorteilhaft.As a data transmission mode for transmitting data from the wave field synthesis module to a speaker module, a serial transmission format that provides a high data rate, such as a so-called Firewire transmission format or a USB data format, is preferred. Data transfer rates in excess of 100 megabits per second are advantageous.
Der Datenstrom, der von dem Wellenfeldsynthesemodul 10 zu einem Lautsprecher-Modul übertragen wird, wird somit je nach gewähltem Datenformat in dem Wellenfeldsynthesemodul entsprechend formatiert und mit einer Synchronisationsinformation versehen, die in üblichen seriellen Datenformaten vorgesehen ist. Diese Synchronisationsinformation wird von den einzelnen Lautsprecher-Modulen aus dem Datenstrom extrahiert und verwendet, um die einzelnen Lautsprecher-Module im Hinblick auf ihre Wiedergabe, also letztendlich auf die Analog-Digital-Wandlung zum Erhalten des analogen Lautsprechersignals und die dafür vorgesehene Abtastung (resampling) zu synchronisieren. Das zentrale Wellenfeldsynthesemodul arbeite als Master, und alle Lautsprecher-Module arbeiten als Clients, wobei die einzelnen Datenströme über die verschiedenen Übertragungsstrecken 16a-16e alle dieselben Synchronisationsinformationen von dem Zentralmodul 10 erhalten. Dies stellt sicher, dass alle Lautsprecher-Module synchron, und zwar synchronisiert von dem Master 10, arbeiten, was für das Audiowiedergabesystem wichtig ist, um keinen Verlust an Audioqualität zu erleiden, damit die vom Wellenfeldsynthesemodul berechneten Synthesesignale nicht zeitversetzt von den einzelnen Lautsprechern nach entsprechendem Audio-Rendering abgestrahlt werden.The data stream which is transmitted from the wave
Das beschriebene Konzept liefert zwar bereits eine deutliche Flexibilität im Hinblick auf ein Wellenfeldsynthese-System, das für verschiedene Anwendungsmöglichkeiten skalierbar ist. Es leidet jedoch nach wie vor an der Problematik, dass das zentrale Wellenfeldsynthese-Modul, das das eigentliche Haupt-Rendering durchführt, das also abhängig von den Positionen der virtuellen Quellen und abhängig von den Lautsprecherpositionen die einzelnen Synthese-Signale für die Lautsprecher berechnet, einen "Flaschenhals" für das gesamte System darstellt. Obgleich bei diesem System das "Nach-Rendering", also die Beaufschlagung der Synthese-signale mit Kanalübertragungsfunktionen, etc. bereits dezentral ausgeführt wird und somit bereits die notwendige Datenübertragungskapazität zwischen dem zentralen Renderer-Modul und den einzelnen Lautsprecher-Modulen durch Selektion von Synthesesignalen mit einer kleineren Energie als einer bestimmten Schwellenenergie reduziert worden ist, müssen jedoch dennoch alle virtuellen Quellen gewissermaßen für alle Lautsprechermodule gerendert werden, also in Synthesesignale umgerechnet werden, wobei die Ausselektion erst nach dem Rendering stattfindet.Although the concept described already provides considerable flexibility with regard to a wave field synthesis system that is scalable for various applications. However, it continues to suffer from the problem that the central wave field synthesis module, which performs the actual main rendering, which thus calculates the individual synthesis signals for the speakers, depending on the positions of the virtual sources and depending on the speaker positions Represents "bottleneck" for the entire system. Although in this system, the "post-rendering", ie the application of the synthesis signals with channel transfer functions, etc. already executed decentralized and thus already the necessary data transfer capacity between the central renderer module and the individual speaker modules by selecting synthesis signals with However, all virtual sources still have to be sorted out, if they have been reduced to a smaller energy than a certain threshold energy for all loudspeaker modules are rendered, so converted into synthesis signals, the Ausselektion takes place only after the rendering.
Dies bedeutet, dass das Rendering nach wie vor die Gesamtkapazität des Systems bestimmt. Ist die zentrale Rendering-Einheit daher z. B. in der Lage, 32 virtuelle Quellen gleichzeitig zu rendern, also für diese 32 virtuellen Quellen die Synthesesignale gleichzeitig zu berechnen, so treten ernsthafte Kapazitätsengpässe auf, wenn mehr als 32 Quellen zu einem Zeitpunkt in einer Audioszene aktiv sind. Für einfache Szenen ist dies ausreichend. Für komplexere Szenen, insbesondere mit immersiven Klangeindrücken, also wenn es beispielsweise regnet und viele Regentropfen einzelne Quellen darstellen, ist es ummittelbar einsichtig, dass die Kapazität mit maximal 32 Quellen nicht mehr ausreicht. Eine entsprechende Situation findet auch dann statt, wenn man ein großes Orchester hat und tatsächlich jeden Orchesterspieler oder wenigstens jede Instrumentengruppe als eigene Quelle an ihrer eigenen Position verarbeiten möchte. Hier können 32 virtuelle Quellen sehr schnell zu wenig werden.This means that the rendering still determines the total capacity of the system. Is the central rendering unit therefore z. For example, if it is able to render 32 virtual sources simultaneously, ie to compute the synthesis signals for these 32 virtual sources simultaneously, then serious capacity bottlenecks will occur if more than 32 sources are active at a time in an audio scene. This is sufficient for simple scenes. For more complex scenes, in particular with immersive sound impressions, ie when it rains and many raindrops are single sources, it is immediately obvious that the capacity with a maximum of 32 sources is no longer sufficient. A similar situation also occurs when you have a large orchestra and in fact want to process every orchestra player or at least each group of instruments as their own source in their own position. Here, 32 virtual sources can quickly become too little.
Typischerweise wird bei dem bekannten Wellenfeldsynthese-Konzept eine Szenenbeschreibung verwendet, in der die einzelnen Audioobjekte derart zusammen definiert sind, dass unter Verwendung der Daten in der Szenenbeschreibung und der Audiodaten für die einzelnen virtuellen Quellen die komplette Szene durch einen Renderer bzw. eine Multi-Rendering-Anordnung aufbereitet werden kann. Hierbei ist für jedes Audioobjekt exakt definiert, wo das Audioobjekt zu beginnen hat und wo das Audioobjekt zu enden hat. Ferner ist für jedes Audioobjekt genau die Position der virtuellen Quelle angegeben, an der die virtuelle Quelle sein soll, die also in die Wellenfeldsynthese-Rendering-Einrichtung einzugeben ist, damit für jeden Lautsprecher die entsprechenden Synthesesignale erzeugt werden. Dies hat zur Folge, dass durch Überlagerung der von den einzelnen Lautsprechern als Reaktion auf die Synthesesignale ausgegebenen Schallwellen für einen Hörer ein Eindruck entsteht, als ob eine Schallquelle an einer Position im Wiedergaberaum bzw. außerhalb des Wiedergaberaums positioniert ist, die durch die Quellenposition der virtuellen Quelle definiert ist.Typically, in the known wave field synthesis concept, a scene description is used in which the individual audio objects are defined together such that, using the data in the scene description and the audio data for the individual virtual sources, the complete scene is rendered by a renderer or a multi-rendering Arrangement can be processed. For each audio object, it is exactly defined where the audio object has to start and where the audio object ends. Furthermore, for each audio object, exactly the position of the virtual source is indicated at which the virtual source should be, which is to be entered into the wave field synthesis rendering device, so that for each speaker the corresponding synthesis signals are generated. As a result, by overlaying the from the individual speakers In response to the synthesis signals output sound waves for a listener an impression arises as if a sound source is positioned at a position in the playback room or outside the playback room, which is defined by the source position of the virtual source.
Typischerweise sind die Kapazitäten des Wellenfeldsynthese-Systems begrenzt. Dies führt dazu, dass jeder Renderer eine begrenzte Rechenkapazität hat. Typischerweise ist ein Renderer in der Lage, 32 Audioquellen gleichzeitig zu verarbeiten. Ferner hat ein Übertragungsweg von dem Audioserver zum Renderer eine begrenzte Übertragungsbandbreite, also liefert eine maximale übertragungsrate in Bit pro Sekunde.Typically, the capacities of the wave field synthesis system are limited. As a result, each renderer has limited computing power. Typically, a renderer is capable of processing 32 audio sources simultaneously. Furthermore, a transmission path from the audio server to the renderer has a limited transmission bandwidth, so provides a maximum transmission rate in bits per second.
Für einfache Szenen, in denen z. B. nur, wenn an einen Dialog gedacht wird, zwei virtuelle Quellen existieren, wobei zusätzlich noch für ein Hintergrundgeräusch eine weitere virtuelle Quelle vorhanden ist, ist die Verarbeitungskapazität des Renderers, der ja z. B. 32 Quellen gleichzeitig verarbeiten kann, unproblematisch. Ferner ist in diesem Fall das Übertragungsvolumen zu einem Renderer so klein, dass die Kapazität der Übertragungsstrecke ausreichend ist.For simple scenes in which z. B. only if it is thought of a dialogue, two virtual sources exist, and in addition for a background noise, another virtual source is present, the processing capacity of the renderer, the yes z. B. 32 sources can handle simultaneously, no problem. Further, in this case, the transmission volume to a renderer is so small that the capacity of the transmission line is sufficient.
Probleme werden jedoch dann auftreten, wenn komplexere Szenen wiederzugeben sind, also Szenen, die mehr als 32 virtuelle Quellen haben. In einem solchen Fall, der beispielsweise auftritt, um eine Szene im Regen korrekt wiederzugeben, oder um eine Applausszene naturgetreu wiederzugeben, wird die maximale Rechenkapazität eines Renderers, der auf 32 virtuelle Quellen begrenzt ist, schnell nicht mehr ausreichend sein. Dies liegt daran, dass sehr viele einzelne virtuelle Quellen existieren, da z. B. in einer Zuhörerschaft prinzipiell jeder Zuhörer, der klatscht, als eigene virtuelle Quelle an einer eigenen virtuellen Position aufgefasst werden kann. Um mit dieser Begrenzung umzugehen, existieren mehrere Möglichkeiten. So besteht eine Möglichkeit darin, bereits beim Erstellen der Szenenbeschreibung darauf zu achten, dass niemals ein Renderer gleichzeitig 32 Audioobjekte verarbeiten muss.However, problems will arise when playing more complex scenes, that is, scenes that have more than 32 virtual sources. For example, in such a case as to correctly render a scene in the rain or to faithfully reproduce an applause scene, the maximum computing capacity of a renderer limited to 32 virtual sources will quickly become insufficient. This is because a lot of individual virtual sources exist because, for. In general, for example, in an audience every listener who claps can be understood as his own virtual source in his own virtual position. To deal with this limitation, there are several possibilities. So there is a possibility in already creating the scene description to make sure that never a renderer has to process 32 audio objects at the same time.
Eine andere Möglichkeit besteht darin, bei der Erstellung der Szenenbeschreibung keine Rücksicht auf tatsächliche Wellenfeldsynthese-Gegebenheiten zu nehmen, sondern die Szenenbeschreibung einfach so zu erstellen, wie es sich der Szenenautor wünscht.Another possibility is to take into account when creating the scene description no consideration of actual wave field synthesis conditions, but to create the scene description just as it wishes the scene author.
Diese Möglichkeit ist im Hinblick auf eine höhere Flexibilität und Portierbarkeit von Szenenbeschreibungen unter unterschiedlichen Wellenfeldsynthesesystemen von Vorteil, da damit Szenenbeschreibungen entstehen, die nicht auf ein spezifisches System ausgelegt sind, sondern allgemeiner sind. In anderen Worten ausgedrückt führt dies dann dazu, dass die gleiche Szenenbeschreibung, wenn sie auf einem Wellenfeldsynthese-System läuft, das Renderer mit hoher Kapazität hat, zu einem besseren Hörereindruck führt als in einem System, das Renderer mit geringerer Rechenkapazität hat. Anders ausgedrückt ist die zweite Möglichkeit dahingehend vorteilhaft, dass eine Szenenbeschreibung nicht aufgrund der Tatsache, dass sie für ein Wellenfeldsynthesesystem mit stark begrenzter Kapazität erzeugt worden ist, auch in einem Wellenfeldsynthesesystem mit besserer Kapazität nicht zu einem besseren Höreindruck führt.This possibility is advantageous in view of a higher flexibility and portability of scene descriptions under different wave field synthesis systems, as this creates scene descriptions which are not designed for a specific system but are more general. In other words, the same scene description, when run on a wave field synthesis system having the high capacity renderer, will result in a better sound impression than in a system having renderers with lower computational power. In other words, the second possibility is advantageous in that a scene description does not result in a better sound impression due to the fact that it has been generated for a wave field synthesis system with a very limited capacity, even in a better capacity wave field synthesis system.
Nachteilig an der zweiten Möglichkeit ist jedoch, dass dann, wenn das Wellenfeldsynthesesystem über seine Maximalkapazität gebracht wird, Performance-Einbrüche bzw. sonstige damit verbundene Problematiken auftreten werden, da der Renderer aufgrund seiner Maximalkapazität dann, wenn er mehr Quellen verarbeiten soll, eine Verarbeitung der darüber hinaus gehenden Quellen einfach verweigern kann.A disadvantage of the second possibility, however, is that when the wave field synthesis system is brought to its maximum capacity, performance slumps or other associated problems will occur because the renderer because of its maximum capacity, if it should process more sources, processing the In addition, it can simply deny going sources.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein flexibles Konzept zum Steuern einer Wellenfeldsynthese-Rendering-Einrichtung zu schaffen, durch das Qualitätseinbrüche zumindest reduziert werden und gleichzeitig eine hohe Flexibilität erhalten wird.The object of the present invention is to provide a flexible concept for controlling a wave-field synthesis rendering device, through quality degradations be reduced at least while maintaining a high level of flexibility.
Diese Aufgabe wird durch eine Vorrichtung zum Steuern einer Wellenfeldsynthese-Rendering-Einrichtung gemäß Anspruch 1, Verfahren zum Steuern der Wellenfeldsynthese-Rendering-Einrichtung gemäß Patentanspruch 13 oder ein Computer-Programm gemäß Patentanspruch 14 gelöst.This object is achieved by a device for controlling a wave field synthesis rendering device according to
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass faktische Kapazitätsgrenzen erweitert werden können, indem bei der Wellenfeldsynthese auftretenden Verarbeitungslastspitzen dadurch abgefangen werden, dass Anfang und/oder Ende eines Audioobjekts oder die Position eines Audioobjekts innerhalb einer Zeitspanne oder Ortsspanne variiert werden, um eine vielleicht nur kurz existierende Überlastspitze abzufangen. Dies wird dadurch erreicht, dass für bestimmte Quellen, bei denen der Anfang und/oder das Ende und sogar die Position in einer bestimmten Spanne variabel sein können, in der Szenenbeschreibung entsprechende Spannen anstatt fester Zeitpunkte angegeben werden, und dass dann, abhängig von einer Auslastungssituation in dem Wellenfeldsynthese-System der tatsächliche Beginn und die tatsächliche virtuelle Position eines Audioobjekts innerhalb dieser Zeitspanne bzw. Ortsspanne variiert werden.The present invention is based on the recognition that actual capacity limits can be extended by intercepting processing load peaks occurring in wave field synthesis by varying the beginning and / or end of an audio object or the position of an audio object within a time span or span, perhaps only one short existing overload peak intercept. This is achieved by specifying margins in the scene description rather than fixed times for certain sources where the beginning and / or the end and even the position may be variable within a certain span, and then depending on a load situation in the wave field synthesis system, the actual start and actual virtual position of an audio object are varied within that time span.
So wurde herausgefunden, dass aufgrund der hohen Dynamik von typischerweise zu verarbeitenden Szenen die tatsächliche Anzahl der Audioquellen zu einem Zeitpunkt sehr stark schwanken kann, dass jedoch Überlastsituationen, also eine sehr große Anzahl von virtuellen Quellen, die gleichzeitig aktiv sein sollen, nur relativ kurz auftreten.Thus, it has been found that due to the high dynamics of typical scenes to be processed, the actual number of audio sources can vary widely at a time, but overload situations, that is a very large number of virtual sources that are to be active simultaneously, are relatively short ,
Erfindungsgemäß werden solche Überlastsituationen dadurch reduziert oder sogar komplett ausgeräumt, indem Audioobjekte innerhalb ihrer Zeitspanne nach vorne bzw. nach hinten verschoben werden oder bei Multi-Renderer-Systemen im Hinblick auf ihre Position verschoben werden, damit einer der Renderer aufgrund der veränderten Position keine Synthese-signale mehr für diese virtuelle Quelle erzeugen muss.According to the invention, such overload situations are thereby reduced or even completely eliminated by moving audio objects forward or backward within their time span or in the case of multi-renderer systems with respect to their position, so that one of the Due to the changed position, renderer no longer needs to generate synthesis signals for this virtual source.
Audioobjekte, die sich besonders gut für eine solche Zeitspannen/Ortsspannen-Definition eignen, sind Quellen, die Geräusche zum Inhalt haben, also z. B. Klatschgeräusche, Tropfengeräusche oder beliebige andere Hintergrundgeräusche, wie beispielsweise ein Windgeräusch oder z. B. auch ein Fahrgeräusch eines sich von weiter Ferne annähernden Zuges. Hier wird es für den Audioeindruck bzw. das Hörerlebnis des Zuschauers keine Rolle spielen, ob ein Windgeräusch einige Sekunden früher oder später beginnt, oder ob der Zug an einer veränderten virtuellen Position in die Audioszene eintritt als sie eigentlich vom ursprünglichen Autor der Szenenbeschreibung gefordert wurde.Audio objects that are particularly well suited for such a duration / Ortsspannen definition are sources that have noises to the content, so z. B. gossip noise, dripping or any other background noise, such as a wind noise or z. B. also a driving noise of a approaching from far away train. Here, it will not matter to the viewer's audio impression or listening experience if a wind noise starts a few seconds earlier or later, or if the move enters the audio scene at a different virtual position than originally requested by the original author of the scene description.
Die Auswirkungen auf die beschriebene sehr dynamisch auftretende Überlastsituation können jedoch eminent sein. So kann bereits das Disponieren bzw. Scheduling für Audioquellen im Rahmen ihrer Ortsspannen und Zeitspannen dazu führen, dass eine sehr kurz auftretende Überlastsituation in eine entsprechend längere gerade noch verarbeitbare Situation umgewandelt werden kann. Dies kann selbstverständlich auch durch ein z. B. innerhalb einer erlaubten Zeitspanne bedingtes früheres Beenden eines Audioobjekts sein, das ohnehin nicht mehr lange existiert hätte, das jedoch aufgrund eines neu zum Renderer übertragenen Audioobjekts zu einer Überlastsituation dieses Renderers geführt hätte, durch die das neue Audioobjekt abgelehnt worden wäre.However, the effects on the described very dynamically occurring overload situation can be eminent. Thus, the scheduling or scheduling of audio sources within the scope of their spatial ranges and periods of time can lead to a very short overload situation being able to be converted into a correspondingly longer situation that can still be processed. This can of course by a z. For example, within a permitted period of time, it would be conditional earlier termination of an audio object that would not have existed for a long time anyway, but because of an audio object newly transferred to the renderer, would have led to an overload situation of this renderer that would have rejected the new audio object.
An dieser Stelle sei ferner darauf hingewiesen, dass das Ablehnen eines Audioobjekts bisher dazu geführt hat, dass das gesamte Audioobjekt nicht aufbereitet worden ist, was dann besonders unerwünscht ist, wenn das alte Audioobjekt vielleicht nur noch eine Sekunde gedauert hätte und ein neues Audioobjekt mit einer Länge von vielleicht einigen Minuten aufgrund einer kurzen Überlastsituation, die vielleicht nur wegen einer Überschneidung von einer Sekunde mit dem alten Audioobjekt vorhanden gewesen wäre, komplett ausgefallen/abgelehnt worden wäre.It should also be noted that the rejection of an audio object has so far led to the fact that the entire audio object has not been processed, which is particularly undesirable if the old audio object might have lasted only a second and a new audio object with a Length of maybe a few minutes due to a short overload situation, which may only be due to a one-second overlap the old audio object would have been completely failed / rejected.
Erfindungsgemäß wird dieses Problem dadurch behoben, dass z. B. das frühere Audioobjekt, sofern eine entsprechende Spanne vorgegeben war, bereits eine Sekunde früher beendet wird, oder dass das spätere Audioobjekt innerhalb einer vorbestimmten Zeitspanne z. B. eine Sekunde nach hinten geschoben wird, sodass sich die Audioobjekte nicht mehr überschneiden und damit keine unerfreuliche Ablehnung des gesamten späteren Audioobjekts, das vielleicht eine Länge von Minuten hat, erhalten wird.According to the invention, this problem is solved by z. B. the previous audio object, if a corresponding margin was specified, already ended a second earlier, or that the later audio object within a predetermined period z. B. is pushed back a second, so that the audio objects no longer overlap and thus no unpleasant rejection of the entire later audio object, which may have a length of minutes, is obtained.
Erfindungsgemäß wird für den Start eines Audioobjekts oder für das Ende eines Audioobjekts somit nicht ein konkreter Zeitpunkt sondern ein Zeitraum definiert. Dadurch ist es möglich, Übertragungsratenspitzen und darauf folgende Kapazitäts- bzw. Performanceprobleme abzufangen, indem die Übertragung oder Verarbeitung der jeweiligen Audiodaten nach vorne oder nach hinten verlagert wird.According to the invention, therefore, not a concrete time but a period is defined for the start of an audio object or for the end of an audio object. This makes it possible to intercept transmission rate spikes and consequent capacity or performance issues by shifting the transmission or processing of the respective audio data forward or backward.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
- Fig. 1
- ein Blockschaltbild der erfindungsgemäßen Vorrichtung;
- Fig. 2
- ein beispielhaftes Audioobjekt;
- Fig. 3
- eine beispielhafte Szenenbeschreibung;
- Fig. 4
- einen Bitstrom, in dem jedem Audioobjekt ein Header mit den aktuellen Zeitdaten und Positionsdaten zugeordnet ist;
- Fig. 5
- eine Einbettung des erfindungsgemäßen Konzepts in ein Wellenfeldsynthese-Gesamtsystem;
- Fig. 6
- eine schematische Darstellung eines bekannten Wellenfeldsynthese-Konzepts; und
- Fig. 7
- eine weitere Darstellung eines bekannten Wellenfeldsynthese-Konzepts.
- Fig. 1
- a block diagram of the device according to the invention;
- Fig. 2
- an exemplary audio object;
- Fig. 3
- an exemplary scene description;
- Fig. 4
- a bit stream in which each audio object is assigned a header with the current time data and position data;
- Fig. 5
- an embedding of the inventive concept in a wave field synthesis overall system;
- Fig. 6
- a schematic representation of a known wave field synthesis concept; and
- Fig. 7
- another illustration of a known wave field synthesis concept.
Fig. 1 zeigt eine erfindungsgemäße Vorrichtung zum Steuern einer in einem Wellenfeldsynthesesystem 0 angeordneten Wellenfeldsynthese-Rendering-Einrichtung, wobei die Wellenfeldsynthese-Rendering-Einrichtung ausgebildet ist, um aus Audioobjekten Synthesesignale für eine Vielzahl von Lautsprechern innerhalb eines Lautsprecherarrays zu erzeugen. Ein Audioobjekt umfasst insbesondere eine Audiodatei für eine virtuelle Quelle sowie wenigstens eine Quellenposition, an der die virtuelle Quelle innerhalb oder außerhalb des Wiedergaberaums, also bezüglich des Zuhörers angeordnet werden soll.1 shows a device according to the invention for controlling a wave field synthesis rendering device arranged in a wave
Die in Fig. 1 gezeigte erfindungsgemäße Vorrichtung umfasst eine Einrichtung 1 zum Liefern einer Szenenbeschreibung, wobei die Szenenbeschreibung eine zeitliche Abfolge von Audiodaten festlegt, wobei ein Audioobjekt für eine dem Audioobjekt zugeordnete virtuelle Quelle einen zeitlichen Start oder ein zeitliches Ende definiert, wobei das Audioobjekt für die virtuelle Quelle eine Zeitspanne aufweist, in der der Start oder das Ende des Audioobjekts liegen muss. Alternativ oder zusätzlich ist die Szenenbeschreibung derart beschaffen, dass das Audioobjekt eine Ortsspanne aufweist, in der eine Position der virtuellen Quelle liegen muss.The apparatus according to the invention shown in FIG. 1 comprises a scene
Die erfindungsgemäße Vorrichtung umfasst ferner einen Überwachungsmonitor 2, der ausgebildet ist, um eine Auslastung des Wellenfeldsynthese-Systems 0 zu überwachen, um also eine Auslastungssituation des Wellenfeldsynthese-Systems zu ermitteln.The device according to the invention further comprises a
Ferner ist eine Audioobjektmanipulationseinrichtung 3 vorgesehen, die ausgebildet ist, um einen von der Wellenfeldsynthese-Rendering-Einrichtung zu beachtenden tatsächlichen Startpunkt oder Endpunkt des Audioobjekts innerhalb der Zeitspanne oder eine tatsächliche Position der virtuellen Quelle innerhalb der Ortsspanne zu variieren, und zwar abhängig von einer Auslastungssituation des Wellenfeldsynthese-Systems 0. Vorzugsweise ist ferner ein Audiodateiserver 4 vorgesehen, der zusammen mit der Audioobjekt-Manipulationseinrichtung 3 in einer intelligenten Datenbank implementiert werden kann. Alternativ ist er ein einfacher File-Server, der abhängig von einem Steuersignal von der Audioobjekt-Manipulationseinrichtung 3 eine Audiodatei entweder über eine Datenverbindung 5a direkt dem Wellenfeldsynthese-System und insbesondere der Wellenfeldsynthese-Rendering-Einrichtung zuführt. Ferner wird es erfindungsgemäß bevorzugt, über eine Datenverbindung 5b die Audiodatei der Audioobjekt-Manipulationseinrichtung 3 zuzuführen, die dann über ihre Steuerleitung 6a einen Datenstrom dem Wellenfeldsynthese-System 0 und insbesondere den einzelnen Renderer-Modulen bzw. dem einzigen Renderer-Modul zuführt, der sowohl die durch die Manipulationseinrichtung bestimmten tatsächlichen Startpunkte und/oder Endpunkte des Audioobjekts umfasst bzw. die entsprechende Position umfasst als auch die Audiodaten selbst umfasst.Furthermore, an audio
Über eine Eingangsleitung 6b wird die Audioobjekt-Manipulationseinrichtung 3 mit der Szenenbeschreibung von der Einrichtung 1 versorgt, während über eine weitere Eingangsleitung 6c die Auslastungssituation des Wellenfeldsynthese-Systems 0 vom Überwachungsmonitor 2 geliefert wird. Es sei darauf hingewiesen, dass die einzelnen Leitungen, die in Fig. 1 beschrieben worden sind, nicht unbedingt als getrennte Kabel etc. ausgeführt sein können, sondern lediglich symbolisieren sollen, dass entsprechende Daten in dem System übertragen werden, um das erfindungsgemäße Konzept zu implementieren. Insofern ist der Überwachungsmonitor 2 auch über eine Überwachungsleitung 7 mit dem Wellenfeldsynthese-System 0 verbunden, um je nach Situation z. B. zu überprüfen, wie viel Quellen gerade in einem Renderer-Modul verarbeitet werden, und ob die Kapazitätsgrenze erreicht worden ist, oder um zu überprüfen, wie die aktuelle Datenrate ist, die gerade auf der Leitung 6a oder der Datenleitung 5a oder auf einer anderen Leitung innerhalb des Wellenfeldsynthese-Systems vorherrscht.Via an
An dieser Stelle sei darauf hingewiesen, dass die Auslastungssituation jedoch nicht unbedingt die aktuelle Auslastungssituation sein muss, sondern auch eine zukünftige Auslastungssituation sein kann. Diese Implementierung wird dahingehend bevorzugt, dass dann die Variabilität, wie also die einzelnen Audioobjekte untereinander im Hinblick auf eine Vermeidung von Überlastspitzen in der Zukunft disponiert bzw. manipuliert werden können, z. B. durch eine aktuelle Variation innerhalb einer Zeitspanne erst in einiger Zukunft eine Überlastspitze vermeiden hilft. Die Effizienz des erfindungsgemäßen Konzepts wird immer größer, je mehr Quellen existieren, die keine festen Startpunkte oder Endpunkte haben, sondern die Startpunkte oder Endpunkte haben, die mit einer Zeitspanne versehen sind, oder die keine festen Quellenpositionen haben sondern Quellenpositionen, die mit einer Ortsspanne versehen sind.It should be noted at this point, however, that the utilization situation does not necessarily have to be the current utilization situation, but can also be a future utilization situation. This implementation is preferred in that then the variability, such as the individual audio objects with each other in terms of avoiding overload peaks in the future can be scheduled or manipulated, for. B. by a current variation within a period of time only in some future avoid overload peak helps. The efficiency of the concept according to the invention becomes ever greater the more sources exist which do not have fixed starting points or end points, but have starting points or end points which are provided with a time span or which have no fixed source positions but source positions which provide a spatial span are.
An dieser Stelle sei darauf hingewiesen, dass es insbesondere auch Quellen geben kann, z. B. Hintergrundgeräusche, bei denen die Quellenposition unerheblich ist, die also irgendwo herkommen können. Während bisher auch für diese Quellen eine Position angegeben werden musste, kann die Positionsangabe nunmehr durch eine sehr große explizite oder implizite Ortsspanne ersetzt bzw. ergänzt werden. Dies ist insbesondere in Multi-Renderer-Systemen von Bedeutung. Wenn z. B. ein Wiedergaberaum betrachtet wird, der vier Seiten hat, und der an jeder Seite ein Lautsprecherarray hat, das von einem eigenen Renderer versorgt wird, kann aufgrund der beliebigen Ortsspanne besonders gut disponiert werden. So könnte beispielsweise die Situation auftreten, dass der Front-Renderer gerade überlastet ist und eine Quelle kommt, die an jeder beliebigen Position sein kann. Dann würde die erfindungsgemäße Audioobjekt-Manipulationseinrichtung 3 die Position dieser virtuellen Quelle, deren tatsächliche Position für den Höreindruck bzw. für die Audioszene unbedeutend ist, so positionieren, dass sie von einem anderen Renderer als dem Front-Renderer aufbereitet wird, also damit den Front-Renderer nicht belastet sondern nur einen anderer Renderer belastet, der jedoch ohnehin nicht an seiner Kapazitätsgrenze arbeitet.At this point, it should be noted that there may be sources in particular, for. B. background noise, where the source position is irrelevant, so they can come from somewhere. While until now also a position had to be specified for these sources, the position information can now be replaced or supplemented by a very large explicit or implicit local span. This is especially important in multi-renderer systems. If z. If, for example, a playback room is considered that has four pages and that has a loudspeaker array on each side which is supplied by its own renderer, it can be arranged particularly well due to the arbitrary location span. For example, the situation could occur that the Front renderer is just overloaded and a source is coming, which can be at any position. Then the audio
Wie bereits dargelegt worden ist, steigt die Flexibilität und Effizienz des erfindungsgemäßen Konzepts damit, je variabler die Szenenbeschreibung gehalten ist. Dies kommt jedoch auch den Bedürfnissen des Szenenautors zugute, da es für ihn genügt, dass er Zeitspannen und Ortsspannen angibt und sich somit nicht für jede Quelle an Punkten definitiv entscheiden muss, die eigentlich für den Höreindruck unerheblich sind. Solche Entscheidungen würden für den Tonmeister eine lästige Pflicht darstellen, die ihm durch das erfindungsgemäße Konzept abgenommen und sogar noch dazu verwendet wird, die tatsächliche Kapazität durch intelligentes Disponieren innerhalb eines vom Tonmeister vorgegebenen Rahmens im Vergleich zur Kapazität eines Wellenfeldsynthesesystems bei starrer Verarbeitung zu steigern.As has already been stated, the flexibility and efficiency of the inventive concept increases the more variable the scene description is held. However, this also benefits the needs of the scene author, since it is sufficient for him that he specifies time spans and Ortsspannen and thus does not have to definitely decide for each source of points that are actually irrelevant to the listening experience. Such decisions would be a chore for the sound engineer, taken away from him by the concept of the invention and even used to increase the actual capacity by intelligently scheduling within a framework dictated by the sound engineer as compared to the capacity of a rigid field wave-field synthesis system.
Nachfolgend wird Bezug nehmend auf Fig. 2 auf Informationen hingewiesen, die ein Audioobjekt vorteilhaft haben sollte. So soll ein Audioobjekt die Audiodatei spezifizieren, die gewissermaßen den Audioinhalt einer virtuellen Quelle darstellt. So muss das Audioobjekt jedoch nicht die Audiodatei umfassen, sondern kann einen Index haben, der auf eine definierte Stelle in einer Datenbank verweist, an der die tatsächliche Audiodatei gespeichert ist.Hereinafter, referring to FIG. 2, information is pointed out which an audio object should be advantageous. For example, an audio object should specify the audio file that effectively represents the audio content of a virtual source. However, the audio object does not need to include the audio file, but may have an index pointing to a defined location in a database where the actual audio file is stored.
Ferner umfasst ein Audioobjekt vorzugsweise eine Identifikation der virtuellen Quelle, die beispielsweise eine Quellennummer oder ein aussagefähiger Dateiname etc. sein kann.Furthermore, an audio object preferably comprises an identification of the virtual source, which may be, for example, a source number or a meaningful file name, etc.
Ferner spezifiziert das Audioobjekt bei der vorliegenden Erfindung eine Zeitspanne für den Beginn und/oder das Ende der virtuellen Quelle, also der Audiodatei. Wird nur eine Zeitspanne für den Beginn spezifiziert, so bedeutet dies, dass der tatsächliche Startpunkt der Aufbereitung dieser Datei durch den Renderer innerhalb der Zeitspanne verändert werden kann. Wird zusätzlich eine Zeitspanne für das Ende vorgegeben, so bedeutet dies, dass auch das Ende innerhalb der Zeitspanne variiert werden kann, was insgesamt je nach Implementierung zu einer Variation der Audiodatei auch hinsichtlich ihrer Länge führen wird. Jegliche Implementierungen sind möglich, so z. B. auch eine Definition der Start/Endzeit einer Audiodatei so, dass zwar der Startpunkt verschoben werden darf, dass jedoch auf keinen Fall die Länge verändert werden darf, sodass damit automatisch das Ende der Audiodatei ebenfalls verschoben wird. Insbesondere für Geräusche wird es jedoch bevorzugt, auch das Ende variabel zu halten, da es typischerweise nicht problematisch ist, ob z. B. ein Windgeräusch etwas früher oder später anfängt, oder ob es etwas früher oder später endet. Weitere Spezifizierungen sind je nach Implementierung möglich bzw. erwünscht, wie beispielsweise eine Spezifikation, dass zwar der Startpunkt variiert werden darf, nicht jedoch der Endpunkt, etc.Further, in the present invention, the audio object specifies a period of time for the beginning and / or the end of the virtual source, that is, the audio file. Specifying only a time period for the start means that the actual starting point of the rendering of this file by the renderer can be changed within the time span. In addition, if a time limit is specified for the end, this also means that the end can also be varied within the time span, which, depending on the implementation, will generally lead to a variation of the audio file also in terms of its length. Any implementations are possible, such. For example, a definition of the start / end time of an audio file so that although the starting point may be moved, but in no case the length may be changed, so that automatically the end of the audio file is also moved. However, especially for noise, it is preferred to also keep the end variable, since it is typically not problematic whether z. For example, a wind noise starts sooner or later, or ends slightly earlier or later. Further specifications are possible or desired depending on the implementation, such as a specification, that although the starting point may be varied, but not the end point, etc.
Vorzugsweise umfasst ein Audioobjekt ferner eine Ortsspanne für die Position. So wird es für bestimmte Audioobjekte keine Rolle spielen, ob sie z. B. von vorne links oder vorne Mitte kommen, oder ob sie um einen (kleinen) Winkel bezüglich eines Bezugspunkts im Wiedergaberaum verschoben werden. So existieren jedoch auch, wie es ausgeführt worden ist, Audioobjekte insbesondere wieder aus dem Geräuschbereich, die an jeder beliebigen Stelle positioniert werden können und damit eine maximale Ortsspanne haben, die beispielsweise durch einen Code für "beliebig" oder durch keinen Code (implizit) im Audioobjekt spezifiziert werden kann.Preferably, an audio object further comprises a location span for the position. So it will be irrelevant for certain audio objects, whether they z. B. come from the front left or front center, or if they are shifted by a (small) angle with respect to a reference point in the playback room. However, as has been said, audio objects, especially from the noise area, which can be positioned at any position and thus have a maximum spatial range, for example, by a code for "arbitrary" or by no code (implicit) in the Audio object can be specified.
Ein Audioobjekt kann weitere Informationen umfassen, wie beispielsweise eine Angabe über die Art der virtuellen Quelle, also ob es sich bei der virtuellen Quelle um eine Punktquelle für Schallwellen handeln muss, oder ob es sich um eine Quelle für ebene Wellen handeln muss, oder ob es sich um eine Quelle handeln muss, die Quellen beliebiger Wellenfront erzeugt, sofern die Renderer-Module in der Lage sind, solche Informationen zu verarbeiten.An audio object may include other information, such as an indication of the type of virtual source, that is, whether the virtual source must be a point source for sound waves, or whether it must be a source of plane waves, or whether must be a source that generates sources of arbitrary wavefront, provided the renderer modules are able to process such information.
Fig. 3 zeigt beispielhaft eine schematische Darstellung einer Szenenbeschreibung, in der die zeitliche Abfolge verschiedener Audioobjekte AO1, .... AOn+1 dargestellt ist. Insbesondere wird auf das Audioobjekt AO3 hingewiesen, für das eine Zeitspanne, wie sie in Fig. 3 eingezeichnet ist, definiert ist. So können sowohl der Startpunkt als auch der Endpunkt des Audioobjekts AO3 in Fig. 3 um die Zeitspanne verschoben werden. Die Definition des Audioobjekts AO3 lautet jedoch dahingehend, dass die Länge nicht verändert werden darf, was jedoch von Audioobjekt zu Audioobjekt variabel einstellbar ist.3 shows, by way of example, a schematic representation of a scene description in which the temporal sequence of different audio objects AO1,...
So ist zu sehen, dass durch Verschieben des Audioobjekts AO3 in positiver zeitlicher Richtung eine Situation erreicht werden kann, bei der das Audioobjekt A03 erst nach dem Audioobjekt AO2 beginnt. Werden beide Audioobjekte auf demselben Renderer abgespielt, so kann durch diese Maßnahme eine kurze Überschneidung 20, die ansonsten vielleicht auftreten würde, vermieden werden. Wäre das Audioobjekt AO3 im Stand der Technik bereits das Audioobjekt, das über der Kapazität eines Renderers liegen würde, aufgrund bereits sämtlicher weiterer zu verarbeitender Audioobjekte auf dem Renderer, wie beispielsweise Audioobjekt AO2 und Audioobjekt AO1, so würde ohne die vorliegende Erfindung eine komplette Unterdrückung des Audioobjekts AO3 auftreten, obgleich die Zeitspanne 20 lediglich sehr klein war. Erfindungsgemäß wird das Audioobjekt AO3 durch die Audioobjektmanipulationseinrichtung 3 verschoben, sodass keine Kapazitätsüberschreitung und damit auch keine Unterdrückung des Audioobjekts AO3 mehr stattfindet.It can thus be seen that by shifting the audio object AO3 in a positive temporal direction, a situation can be achieved in which the audio object A03 does not start until after the audio object AO2. If both audio objects are played on the same renderer, this measure avoids a
Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird eine Szenenbeschreibung verwendet, die relative Angaben hat. So wird die Flexibilität dadurch erhöht, dass der Beginn des Audioobjekts AO2 nicht mehr in einem absoluten Zeitpunkt gegeben wird, sondern in einem relativen Zeitraum zum Audioobjekt AO1. Entsprechend wird auch eine relative Beschreibung der Ortsangaben bevorzugt, also nicht, dass ein Audioobjekt an einer bestimmten Position xy im Wiedergaberaum anzuordnen ist, sondern z. B. um einen Vektor versetzt zu einem anderen Audioobjekt oder zu einem Referenzobjekt ist.In the preferred embodiment of the present invention, a scene description is used that has relative indications. Thus, the flexibility is increased by the fact that the beginning of the audio object AO2 is no longer given at an absolute time, but in a relative time to the audio object AO1. Accordingly, a relative description of the location information is preferred, so not that an audio object is to be arranged at a certain position xy in the playback room, but z. B. is a vector offset to another audio object or to a reference object.
Dadurch kann die Zeitspanneninformation bzw. Ortsspanneninformation sehr effizient aufgenommen werden, nämlich einfach dadurch, dass die Zeitspanne so festgelegt ist, dass sie zum Ausdruck bringt, dass das Audioobjekt AO3 z. B. in einem Zeitraum zwischen zwei Minuten und zwei Minuten und 20 Sekunden nach dem Start des Audioobjekts AO1 beginnen kann.Thereby, the time span information or Ortsspanneninformation can be recorded very efficiently, namely simply in that the time period is set so that it expresses that the audio object AO3 z. B. in a period between two minutes and two minutes and 20 seconds after the start of the audio object AO1 can begin.
Eine solche relative Definition der Raum- und Zeitbedingungen führt zu einer datenbankmäßig effizienten Darstellung in Form von Constraints, wie sie z. B. in "Modeling Output Constraints in Multimedia Database Systems", T. Heimrich, 1. internationale Multimedia Modelling Conference, IEEE, 2. Januar 2005 bis 14. Januar 2005, Melbourne, beschrieben ist. Hier wird die Verwendung von Constraints in Datenbanksystemen dargestellt, um konsistente Datenbankzustände zu definieren. Insbesondere werden zeitliche Constraints unter Verwendung von Allen-Beziehungen und räumliche Constraints unter Verwendung von räumlichen Beziehungen beschrieben. Hieraus können günstige Ausgabe-Constraints zu Synchronisationszwecken definiert werden. Solche Ausgabe-Constraints umfassen eine zeitliche oder räumliche Bedingung zwischen den Objekten, eine Reaktion im Falle einer Verletzung eines Constraints und eine Überprüfungszeit, also wann ein solcher Constraint überprüft werden muss.Such a relative definition of the space and time conditions leads to a database efficient representation in the form of constraints, such as. B. "Modeling Output Constraints in Multimedia Database Systems", T. Heimrich, 1st International Multimedia Modeling Conference, IEEE, January 2, 2005 to January 14, 2005, Melbourne. It shows the use of constraints in database systems to define consistent database states. In particular, temporal constraints are described using Allen relationships and spatial constraints using spatial relationships. From this, favorable output constraints can be defined for synchronization purposes. Such output constraints include a temporal or spatial condition between the objects, a response in case of a violation of a Constraints and a review time, so when such a constraint must be checked.
Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden die räumlichen/zeitlichen Ausgabe-Objekte jeder Szene relativ zueinander modelliert. Die Audioobjekt-manipulationseinrichtung erreicht eine Überführung dieser relativen und variablen Definitionen in eine absolute räumliche und zeitliche Ordnung. Diese Ordnung stellt das Ausgabe-Schedule dar, das am Ausgang 6a des in Fig. 1 gezeigten Systems erhalten wird und definiert, wie insbesondere das Renderer-Modul im Wellenfeldsynthesesystem angesprochen wird. Das Schedule ist also ein Ausgabeplan, der die Audiodaten entsprechend der Ausgabebedingungen anordnet.In the preferred embodiment of the present invention, the spatial / temporal output objects of each scene are modeled relative to one another. The audio object manipulation device achieves a translation of these relative and variable definitions into an absolute spatial and temporal order. This ordering represents the output schedule obtained at the
Nachfolgend wird anhand von Fig. 4 ein bevorzugtes Ausführungsbeispiel eines solchen Ausgabe-Schedules dargelegt. Insbesondere zeigt Fig. 4 einen Datenstrom, der gemäß Fig. 4 von links nach rechts übertragen wird, also von der Audioobjekt-Manipulationseinrichtung 3 von Fig. 1 zu einem oder mehreren Wellenfeldsynthese-Renderern des Wellenfeldsystems 0 von Fig. 1. Insbesondere umfasst der Datenstrom für jedes Audioobjekt bei dem in Fig. 4 gezeigten Ausführungsbeispiel zunächst einen Header H, in dem die Positionsinformationen und die Zeitinformationen stehen, und nachgeordnet eine Audiodatei für das spezielle Audioobjekt, die in Fig. 4 mit AO1 für das erste Audioobjekt, AO2 für das zweite Audioobjekt etc. bezeichnet ist.Hereinafter, a preferred embodiment of such an output schedule is set forth with reference to FIG. 4 shows a data stream which is transmitted from left to right according to FIG. 4, ie from the audio
Ein Wellenfeldsynthese-Renderer erhält dann den Datenstrom und erkennt z. B. an einer vorhandenen und fest vereinbarten Synchronisationsinformation, dass nunmehr ein Header kommt. Anhand einer weiteren Synchronisationsinformation erkennt der Renderer dann, dass der Header nunmehr vorbei ist. Alternativ kann für jeden Header auch eine feste Länge in Bits vereinbart werden.A wave field synthesis renderer then receives the data stream and detects z. B. to an existing and agreed synchronization information that now comes a header. Based on another synchronization information, the renderer then recognizes that the header is now over. Alternatively, a fixed length in bits can also be agreed for each header.
Nach dem Empfang des Headers weiß der Audio-Renderer bei dem in Fig. 4 gezeigten bevorzugten Ausführungsbeispiel der vorliegenden Erfindung automatisch, dass die nachfolgende Audiodatei, also z. B. AO1, zu dem Audioobjekt, also zu der Quellenposition gehört, die in dem Header identifiziert ist.After receiving the header, in the preferred embodiment of the present invention shown in FIG. 4, the audio renderer automatically knows that the subsequent audio file, ie, e.g. AO1 belongs to the audio object, that is, to the source location identified in the header.
Fig. 4 zeigt eine serielle Datenübertragung zu einem Wellenfeldsynthese-Renderer. Allerdings werden natürlich mehrere Audioobjekte gleichzeitig in einem Renderer abgespielt. Daher benötigt der Renderer einen Eingangs-Puffer, dem eine Datenstrom-Leseeinrichtung vorausgeht, um den Datenstrom zu parsen. Die Datenstromleseeinrichtung wird dann den Header interpretieren und die zugehörigen Audiodaten entsprechend speichern, damit der Renderer dann, wenn ein Audioobjekt zum Rendern an der Reihe ist, die korrekte Audiodatei und die korrekte Quellenposition aus dem Eingangs-puffer ausliest. Andere Daten für den Datenstrom sind natürlich möglich. Auch eine separate Übertragung sowohl der Zeit/Orts-Informationen als auch der tatsächlichen Audiodaten kann verwendet werden. Die in Fig. 4 dargestellte kombinierte Übertragung wird jedoch bevorzugt, da sie durch Verkettung der Positions/Zeit-Informationen mit der Audiodatei Datenkonsistenzprobleme eliminiert, da immer sichergestellt wird, dass der Renderer für Audiodaten auch die richtige Quellenposition hat und nicht z. B. noch Audiodaten von einer früheren Quelle rendert, jedoch bereits Positionsinformationen der neuen Quelle zum Rendern verwendet.4 shows a serial data transmission to a wave field synthesis renderer. However, of course, several audio objects are played simultaneously in a renderer. Therefore, the renderer requires an input buffer preceded by a data stream reader to parse the data stream. The data stream reader will then interpret the header and store the associated audio data accordingly, so that when an audio object is to render, the renderer reads out the correct audio file and the correct source position from the input buffer. Other data for the data stream are of course possible. Also, a separate transmission of both the time / location information and the actual audio data may be used. However, the combined transfer illustrated in Figure 4 is preferred because it eliminates data consistency problems by concatenating the position / time information with the audio file, since it is always ensured that the audio data renderer also has the correct source position and not z. B. still renders audio from an earlier source, but already uses position information from the new source for rendering.
Die vorliegende Erfindung basiert somit auf einem objektorientierten Ansatz, dass also die einzelnen virtuellen Quellen als Objekte aufgefasst werden, die sich durch eine Audiodatei und eine virtuelle Position im Raum und möglicherweise durch die Art und Weise der Quelle auszeichnen, also ob sie eine Punktquelle für Schallwellen oder eine Quelle für ebene Wellen oder eine Quelle für anders geformte Quellen sein soll.The present invention is thus based on an object-oriented approach, that is to say that the individual virtual sources are understood as objects which are distinguished by an audio file and a virtual position in space and possibly by the nature of the source, that is, if they are a point source for sound waves or a source of plane waves or a source of differently shaped sources.
Wie es ausgeführt worden ist, ist die Berechnung der Wellenfelder sehr rechenzeitintensiv und an die Kapazitäten der verwendeten Hardware, wie beispielsweise Soundkarten und Rechner, im Zusammenspiel mit der Effizienz der Berechnungsalgorithmen gebunden. Auch die beste ausgestattete PCbasierte Lösung stößt somit bei der Berechnung der Wellenfeldsynthese schnell an ihre Grenzen, wenn viele anspruchsvolle Klangereignisse gleichzeitig dargestellt werden sollen. So gibt die Kapazitätsgrenze der verwendeten Soft- und Hardware die Beschränkung hinsichtlich der Anzahl der virtuellen Quellen bei der Abmischung und Wiedergabe vor.As has been pointed out, the calculation of the wave fields is very computationally intensive and tied to the capacities of the hardware used, such as sound cards and computers, in conjunction with the efficiency of the calculation algorithms. Even the best-equipped PC-based solution thus quickly reaches its limits in the calculation of wave field synthesis, when many sophisticated sound events are to be displayed simultaneously. Thus, the capacity limit of the software and hardware used dictates the limitation on the number of virtual sources in the mixdown and playback.
Fig. 6 zeigt ein solches in seiner Kapazität begrenztes bekanntes Wellenfeldsynthese-Konzept, das ein Authoring-Werkzeug 60, ein Steuer-Renderer-Modul 62 und einen Audioserver 64 umfasst, wobei das Steuer-Renderer-Modul ausgebildet ist, um ein Lautsprecherarray 66 mit Daten zu versorgen, damit das Lautsprecher-Array 66 eine gewünschte Wellenfront 68 durch Überlagerung der Einzelwellen der einzelnen Lautsprecher 70 erzeugt. Das Authoring-Werkzeug 60 erlaubt es dem Nutzer, Szenen zu erstellen, zu editieren und das Wellenfeldsynthese-basierte System zu steuern. Eine Szene besteht sowohl aus Informationen zu den einzelnen virtuellen Audioquellen als auch aus den Audiodaten. Die Eigenschaften der Audioquellen und der Referenzen auf die Audiodaten werden in einer XML-Szenendatei gespeichert. Die Audiodaten selbst werden auf dem Audioserver 64 abgelegt und von dort aus an das Renderer-Modul übertragen. Gleichzeitig erhält das Renderer-Modul die Steuerdaten vom Authoring-Werkzeug, damit das Steuer-Renderer-Modul 62, das zentral ausgeführt ist, die Synthesesignale für die einzelnen Lautsprecher erzeugen kann. Das in Fig. 6 gezeigte Konzept ist in "Authoring System for Wave Field Synthesis", F. Melchior, T. Röder, S. Brix, S. Wabnik und C. Riegel, AES Convention Paper, 115. AES-Versammlung, 10. Oktober 2003, New York, beschrieben.FIG. 6 shows such a limited-capacity known wave-field synthesis concept including an
Wird dieses Wellenfeldsynthese-System mit mehreren Renderer-Modulen betrieben, so wird dabei jeder Renderer mit denselben Audiodaten versorgt, egal, ob der Renderer aufgrund der ihm zugeordneten begrenzten Zahl von Lautsprechern diese Daten für die Wiedergabe benötigt oder nicht. Da jeder der aktuellen Rechner in der Lage ist, 32 Audioquellen zu berechnen, stellt dies die Grenze für das System dar. Andererseits soll die Anzahl der im Gesamtsystem renderbaren Quellen effizient deutlich erhöht werden. Dies ist eine der wesentlichen Voraussetzungen für komplexe Anwendungen, wie beispielsweise Kinofilme, Szenen mit immersiven Atmosphären, wie beispielsweise Regen oder Applaus oder andere komplexe Audioszenen.If this wave field synthesis system is operated with several renderer modules, each renderer is supplied with the same audio data, regardless of whether the renderer needs this data for playback or not because of the limited number of speakers assigned to it. Since each of the current computers is capable of calculating 32 audio sources, this is the limit for the system. On the other hand, the number of renderable sources in the overall system should be significantly increased efficiently. This is one of the essential requirements for complex applications, such as movies, scenes with immersive atmospheres, such as rain or applause or other complex audio scenes.
Erfindungsgemäß wird eine Reduktion redundanter Datenübertragungsvorgänge und Datenverarbeitungsvorgänge in einem Wellenfeldsynthese-Mehr-Renderer-System erreicht, was zu einer Erhöhung der Rechenkapazität bzw. der Anzahl von gleichzeitig berechenbaren Audioquellen erreicht.According to the invention, a reduction of redundant data transfer operations and data processing operations in a wave field synthesis multi-renderer system is achieved, which leads to an increase in the computing capacity or the number of simultaneously computable audio sources.
Zur Reduktion der redundanten Übertragung und Verarbeitung von Audio- und Metadaten zum einzelnen Renderer des Mehr-Renderer-Systems wird der Audioserver um die Datenausgabeeinrichtung erweitert, welche in der Lage ist, zu ermitteln, welcher Renderer welche Audio- und Metadaten benötigt. Die Datenausgabeeinrichtung, gegebenenfalls unterstützt durch den Datenmanager benötigt bei einem bevorzugten Ausführungsbeispiel mehrere Informationen. Diese Informationen sind zunächst die Audiodaten, dann Zeit- und Positionsdaten der Quellen und schließlich die Konfiguration der Renderer, also Informationen über die verbundenen Lautsprecher und ihre Positionen sowie deren Kapazität. Mit Hilfe von Datenmanagementtechniken und der Definition von Ausgabebedingungen wird ein Ausgabe-Schedule durch die Datenausgabeeinrichtung mit einer zeitlichen und räumlichen Anordnung der Audioobjekte erzeugt. Aus der räumlichen Anordnung, dem zeitlichen Schedule und der Rendererkonfiguration berechnet das Datenmanagementmodul dann, welche Quelle für welche Renderer zu einem bestimmten Zeitpunkt von Relevanz sind.To reduce the redundant transmission and processing of audio and metadata to the single renderer of the multi-renderer system, the audio server is extended by the data output device, which is able to determine which renderer needs which audio and metadata. The data output device, possibly supported by the data manager, requires a plurality of information in a preferred embodiment. This information is initially the audio data, then the source and position data of the sources, and finally the configuration of the renderers, that is, information about the connected speakers and their positions and their capacity. Using data management techniques and the definition of output conditions, an output schedule is generated by the data output device with a temporal and spatial arrangement of the audio objects. From the spatial arrangement, the time schedule and the renderer configuration, the data management module then calculates which source for which renderers are relevant at any given time.
Ein bevorzugtes Gesamtkonzept ist in Fig. 5 dargestellt. Die Datenbank 22 ist ausgangsseitig um die Datenausgabeeinrichtung 24 ergänzt, wobei die Datenausgabeeinrichtung auch als Scheduler bezeichnet wird. Dieser Scheduler erzeugt dann an seinen Ausgängen 20a, 20b, 20c für die verschiedenen Renderer 50 die Renderer-Eingangssignale, damit die entsprechenden Lautsprecher der Lautsprecherarrays versorgt werden.A preferred overall concept is shown in FIG. 5. The database 22 is supplemented on the output side by the
Vorzugsweise wird der Scheduler 24 noch durch einen Storage-Manager 52 unterstützt, um mittels eines RAID-Systems und entsprechender Datenorganisationsvorgaben die Datenbank 42 zu konfigurieren.Preferably, the
Auf der Eingangsseite steht ein Daten-Erzeuger 54, welcher beispielsweise ein Tonmeister oder ein Audioingenieur sein kann, der eine Audioszene objektorientiert modellieren bzw. beschreiben soll. Hierbei gibt er eine Szenenbeschreibung vor, die entsprechende Ausgabebedingungen 56 umfasst, die dann gegebenenfalls nach einer Transformation 58 zusammen mit Audiodaten in der Datenbank 22 gespeichert werden. Die Audiodaten können mittels eines Insert/Update-Werkzeugs 59 manipuliert und aktualisiert werden.On the input side is a
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD, mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.Depending on the circumstances, the method according to the invention can be implemented in hardware or in software. The implementation may be on a digital storage medium, particularly a floppy disk or CD, with electronically readable control signals that may interact with a programmable computer system to perform the method. In general, the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method when the computer program product runs on a computer. In other In other words, the invention can be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.
Claims (14)
- Apparatus for controlling a wave field synthesis rendering means arranged in a wave field synthesis system (0), wherein the wave field synthesis rendering means is formed to generate, from audio objects, wherein an audio file for a virtual source arranged at a source position is associated with an audio object, synthesis signals for a plurality of loudspeakers coupled to the wave field synthesis rendering means, comprising:a means (1) for providing a scene description, wherein the scene description sets a temporal sequence of audio objects, wherein an audio object defines a temporal start or a temporal end for a virtual source associated with the audio object, wherein the audio object for the virtual source comprises a time span in which the start or the end of the audio object must be, or wherein the audio object comprises a location span in which a position of the virtual source must be;a monitor (2) for monitoring a utilization situation of the wave field synthesis system; andan audio object manipulation means (3) for varying an actual starting point or end point of the audio object to be considered by the wave field synthesis rendering means within the time span or an actual position of the virtual source within the location span, depending on a utilization situation of the wave field synthesis system (0).
- Apparatus according to claim 1, wherein the monitor is formed to monitor a utilization situation of a data connection between the audio object manipulation means (3) and the wave field synthesis rendering means; and wherein the audio object manipulation means (3) is formed to vary the actual starting point or end point of an audio object so that a utilization peak of the data connection is reduced as compared with no variation.
- Apparatus according to claim 1 or 2, wherein the monitor (2) is formed to monitor a utilization situation of the wave field synthesis rendering means, and
wherein the audio object manipulation means (3) is formed to vary the actual starting point or the actual end point so that a maximum number of sources to be processed at the same time given by the wave field synthesis rendering means is not exceeded at a time instant, or a number of audio objects to be processed at the same time by the wave field synthesis rendering means is reduced as compared with no variation. - Apparatus according to one of the preceding claims, wherein the monitor (2) is formed to predict the utilization situation of the wave field synthesis system (0) over a predetermined prediction time interval.
- Apparatus according to claim 4, wherein the wave field synthesis rendering means (0) comprises an input buffer, wherein the predetermined prediction time interval depends on a size of the input buffer.
- Apparatus according to one of the preceding claims, wherein the wave field synthesis rendering means comprises a plurality of renderer modules, with which loudspeakers arranged at different locations in a reproduction room are associated, and
wherein the audio object manipulation means (3) is formed to vary a current position of the virtual source within the location span so that a renderer module is not active for the generation of the synthesis signals, although the renderer module would have been active for another position within the location span. - Apparatus according to one of the preceding claims, wherein the audio object manipulation means (3) is formed to choose a current time instant within a first half of the time span in a case in which the monitor detects a utilization a predetermined threshold below the maximum utilization.
- Apparatus according to claim 7, wherein the audio object manipulation means is formed to choose an earliest time instant defined by the time span as starting point or end point in a case in which the monitor (2) signalizes a utilization lying a predetermined threshold below the maximum utilization.
- Apparatus according to one of the preceding claims,
wherein the means (1) for providing is formed to provide a scene description in which a temporal or spatial positioning of the audio objects relative to another audio object or relative to a reference audio object is defined, and
wherein the audio object manipulation means (3) is formed to compute an absolute starting point or an actual absolute position of the virtual source for each audio object. - Apparatus according to one of the preceding claims,
wherein the means (1) for providing is formed to provide a scene description in which a time span is indicated only for a group of sources, and in which a fixed starting point is indicated for other sources. - Apparatus according to claim 10, wherein the group of sources comprises a predetermined characteristic including a noise-like audio file of the virtual source.
- Apparatus according to claim 10 or 11, wherein the group of sources includes noise sources.
- Method for controlling a wave field synthesis rendering means arranged in a wave field synthesis system (0), wherein the wave field synthesis rendering means is formed to generate, from audio objects, wherein an audio file for a virtual source arranged at a source position is associated with an audio object, synthesis signals for a plurality of loudspeakers coupled to the wave field synthesis rendering means, comprising:providing (1) a scene description, wherein the scene description sets a temporal sequence of audio objects, wherein an audio object defines a temporal start or a temporal end for a virtual source associated with the audio object, wherein the audio object for the virtual source comprises a time span in which the start or the end of the audio object must be, or wherein the audio object comprises a location span in which a position of the virtual source must be;monitoring (2) a utilization situation of the wave field synthesis system; andvarying (3) an actual starting point or end point of the audio object to be considered by the wave field synthesis rendering means within the time span or an actual position of the virtual source within the location span, depending on a utilization situation of the wave field synthesis system (0).
- Computer program with program code for performing the method according to claim 13, when the program is executed on a computer.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005008333A DE102005008333A1 (en) | 2005-02-23 | 2005-02-23 | Control device for wave field synthesis rendering device, has audio object manipulation device to vary start/end point of audio object within time period, depending on extent of utilization situation of wave field synthesis system |
PCT/EP2006/001360 WO2006089667A1 (en) | 2005-02-23 | 2006-02-15 | Apparatus and method for controlling a wave field synthesis rendering device |
Publications (2)
Publication Number | Publication Date |
---|---|
EP1723825A1 EP1723825A1 (en) | 2006-11-22 |
EP1723825B1 true EP1723825B1 (en) | 2007-11-07 |
Family
ID=36169151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP06706963A Not-in-force EP1723825B1 (en) | 2005-02-23 | 2006-02-15 | Apparatus and method for controlling a wave field synthesis rendering device |
Country Status (7)
Country | Link |
---|---|
US (1) | US7668611B2 (en) |
EP (1) | EP1723825B1 (en) |
JP (1) | JP4547009B2 (en) |
CN (1) | CN101129086B (en) |
AT (1) | ATE377923T1 (en) |
DE (2) | DE102005008333A1 (en) |
WO (1) | WO2006089667A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005008342A1 (en) * | 2005-02-23 | 2006-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio-data files storage device especially for driving a wave-field synthesis rendering device, uses control device for controlling audio data files written on storage device |
DE102005033239A1 (en) * | 2005-07-15 | 2007-01-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for controlling a plurality of loudspeakers by means of a graphical user interface |
EP2255359B1 (en) * | 2008-03-20 | 2015-07-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device and method for acoustic indication |
EP2997573A4 (en) * | 2013-05-17 | 2017-01-18 | Nokia Technologies OY | Spatial object oriented audio apparatus |
WO2014199536A1 (en) | 2013-06-10 | 2014-12-18 | パナソニック株式会社 | Audio playback device and method therefor |
DE102014018858B3 (en) * | 2014-12-15 | 2015-10-15 | Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung | High-pressure resistant sample chamber for transmitted light microscopy and method for its production |
KR102087832B1 (en) * | 2015-06-30 | 2020-04-21 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | Method and device for generating a database |
CN105022024A (en) * | 2015-07-02 | 2015-11-04 | 哈尔滨工程大学 | Method for identifying noise source of structure based on Helmholtz integral equation |
US11212637B2 (en) * | 2018-04-12 | 2021-12-28 | Qualcomm Incorproated | Complementary virtual audio generation |
US10764701B2 (en) | 2018-07-30 | 2020-09-01 | Plantronics, Inc. | Spatial audio system for playing location-aware dynamic content |
CN113965842A (en) * | 2021-12-01 | 2022-01-21 | 费迪曼逊多媒体科技(上海)有限公司 | Variable acoustic home theater sound system based on WFS wave field synthesis technology |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL8800745A (en) * | 1988-03-24 | 1989-10-16 | Augustinus Johannes Berkhout | METHOD AND APPARATUS FOR CREATING A VARIABLE ACOUSTICS IN A ROOM |
JPH07303148A (en) * | 1994-05-10 | 1995-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Communication conference equipment |
EP0700180A1 (en) * | 1994-08-31 | 1996-03-06 | STUDER Professional Audio AG | Means for processing digital audio signals |
GB2294854B (en) * | 1994-11-03 | 1999-06-30 | Solid State Logic Ltd | Audio signal processing |
JPH10211358A (en) * | 1997-01-28 | 1998-08-11 | Sega Enterp Ltd | Game apparatus |
JPH1127800A (en) * | 1997-07-03 | 1999-01-29 | Fujitsu Ltd | Stereophonic processing system |
JP2000267675A (en) * | 1999-03-16 | 2000-09-29 | Sega Enterp Ltd | Acoustical signal processor |
JP2004007211A (en) * | 2002-05-31 | 2004-01-08 | Victor Co Of Japan Ltd | Transmitting-receiving system for realistic sensations signal, signal transmitting apparatus, signal receiving apparatus, and program for receiving realistic sensations signal |
US20060120534A1 (en) * | 2002-10-15 | 2006-06-08 | Jeong-Il Seo | Method for generating and consuming 3d audio scene with extended spatiality of sound source |
DE10254404B4 (en) * | 2002-11-21 | 2004-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio reproduction system and method for reproducing an audio signal |
US7706544B2 (en) * | 2002-11-21 | 2010-04-27 | Fraunhofer-Geselleschaft Zur Forderung Der Angewandten Forschung E.V. | Audio reproduction system and method for reproducing an audio signal |
JP4601905B2 (en) * | 2003-02-24 | 2010-12-22 | ソニー株式会社 | Digital signal processing apparatus and digital signal processing method |
DE10321980B4 (en) * | 2003-05-15 | 2005-10-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for calculating a discrete value of a component in a loudspeaker signal |
DE10321986B4 (en) * | 2003-05-15 | 2005-07-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for level correcting in a wave field synthesis system |
DE10344638A1 (en) * | 2003-08-04 | 2005-03-10 | Fraunhofer Ges Forschung | Generation, storage or processing device and method for representation of audio scene involves use of audio signal processing circuit and display device and may use film soundtrack |
-
2005
- 2005-02-23 DE DE102005008333A patent/DE102005008333A1/en not_active Withdrawn
-
2006
- 2006-02-15 JP JP2007556527A patent/JP4547009B2/en not_active Expired - Fee Related
- 2006-02-15 DE DE502006000163T patent/DE502006000163D1/en active Active
- 2006-02-15 CN CN2006800059390A patent/CN101129086B/en not_active Expired - Fee Related
- 2006-02-15 AT AT06706963T patent/ATE377923T1/en not_active IP Right Cessation
- 2006-02-15 WO PCT/EP2006/001360 patent/WO2006089667A1/en active IP Right Grant
- 2006-02-15 EP EP06706963A patent/EP1723825B1/en not_active Not-in-force
-
2007
- 2007-08-17 US US11/840,327 patent/US7668611B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US7668611B2 (en) | 2010-02-23 |
DE502006000163D1 (en) | 2007-12-20 |
ATE377923T1 (en) | 2007-11-15 |
CN101129086A (en) | 2008-02-20 |
CN101129086B (en) | 2011-08-03 |
JP2008532372A (en) | 2008-08-14 |
WO2006089667A1 (en) | 2006-08-31 |
DE102005008333A1 (en) | 2006-08-31 |
US20080008326A1 (en) | 2008-01-10 |
JP4547009B2 (en) | 2010-09-22 |
EP1723825A1 (en) | 2006-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1844628B1 (en) | Device and method for activating an electromagnetic field synthesis renderer device with audio objects | |
EP1723825B1 (en) | Apparatus and method for controlling a wave field synthesis rendering device | |
EP1844627B1 (en) | Device and method for simulating an electromagnetic field synthesis system | |
EP1851998B1 (en) | Device and method for delivering data in a multi-renderer system | |
DE10328335B4 (en) | Wavefield syntactic device and method for driving an array of loud speakers | |
DE10254404B4 (en) | Audio reproduction system and method for reproducing an audio signal | |
EP1652405B1 (en) | Device and method for the generation, storage or processing of an audio representation of an audio scene | |
EP1525776B1 (en) | Device for correcting the level in a wave field synthesis system | |
DE102006053919A1 (en) | Apparatus and method for generating a number of speaker signals for a speaker array defining a playback space | |
EP1789970B1 (en) | Device and method for storing audio files | |
WO2007101498A1 (en) | Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics | |
DE10321980B4 (en) | Apparatus and method for calculating a discrete value of a component in a loudspeaker signal | |
DE102012017296A1 (en) | Generation of multichannel sound from stereo audio signals | |
EP3756363A1 (en) | Apparatus and method for object-based spatial audio-mastering | |
DE10254470A1 (en) | Apparatus and method for determining an impulse response and apparatus and method for presenting an audio piece |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20060727 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
AX | Request for extension of the european patent |
Extension state: AL BA HR MK YU |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP |
|
REF | Corresponds to: |
Ref document number: 502006000163 Country of ref document: DE Date of ref document: 20071220 Kind code of ref document: P |
|
RIN2 | Information on inventor provided after grant (corrected) |
Inventor name: SATTLER, KAI-UWE, PROF. DR., Inventor name: REICHELT, KATRIN Inventor name: BRIX, SANDRA Inventor name: HEINRICH, THOMAS Inventor name: GATZSCHE, GABRIEL |
|
ET | Fr: translation filed | ||
GBT | Gb: translation of ep patent filed (gb section 77(6)(a)/1977) |
Effective date: 20080307 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080207 Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080218 |
|
NLV1 | Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act | ||
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080207 Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080307 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 |
|
BERE | Be: lapsed |
Owner name: TU ILMENAU Effective date: 20080228 Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FORDERUNG DER ANGEWAN Effective date: 20080228 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080407 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FD4D |
|
26N | No opposition filed |
Effective date: 20080808 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MC Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20080228 Ref country code: IE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080208 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20080228 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20080215 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20080215 Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20080508 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20071107 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20080229 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 11 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 12 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 13 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: GB Payment date: 20220221 Year of fee payment: 17 Ref country code: DE Payment date: 20220217 Year of fee payment: 17 Ref country code: CH Payment date: 20220221 Year of fee payment: 17 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20220221 Year of fee payment: 17 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R119 Ref document number: 502006000163 Country of ref document: DE |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: PL |
|
GBPC | Gb: european patent ceased through non-payment of renewal fee |
Effective date: 20230215 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LI Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230228 Ref country code: CH Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230228 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GB Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230215 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GB Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230215 Ref country code: FR Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230228 Ref country code: DE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230901 |