[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2006093145A1 - 音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム - Google Patents

音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム Download PDF

Info

Publication number
WO2006093145A1
WO2006093145A1 PCT/JP2006/303746 JP2006303746W WO2006093145A1 WO 2006093145 A1 WO2006093145 A1 WO 2006093145A1 JP 2006303746 W JP2006303746 W JP 2006303746W WO 2006093145 A1 WO2006093145 A1 WO 2006093145A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
rate
amplification factor
change
sounding
Prior art date
Application number
PCT/JP2006/303746
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Nakayama
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to US11/817,131 priority Critical patent/US20090023498A1/en
Priority to EP06714876A priority patent/EP1854516A4/en
Priority to CN2006800070243A priority patent/CN101132838B/zh
Publication of WO2006093145A1 publication Critical patent/WO2006093145A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Definitions

  • the present invention relates to an audio output device, an audio output method, and an audio output device suitable for output so as to enhance the sense of reality by clarifying the difference between the sounds of two sounding bodies moving in a virtual space.
  • the present invention relates to a computer-readable information recording medium that records a program to be realized and the program.
  • Patent Document 1 Japanese Patent No. 3455739
  • Patent Document 1 states that in a horse racing game race, priorities are assigned to the legs of horses in the order of closeness of viewpoint position power, the priority is low !, and footstep sounds emitted from the legs are grouped together as a group. A technique for suppressing the number of pronunciations used for the composite output is disclosed.
  • the technique for synthesizing and outputting the sound generated by the object moving in the virtual space is important from the viewpoint of allowing the user to perceive the state of the virtual space.
  • the present invention has been made in order to solve the above-described problems, and is a sound output device suitable for outputting a sound so as to enhance the sense of reality by clarifying the difference in sound between the two sounding bodies. It is an object of the present invention to provide an output method, a computer-readable information recording medium on which a program for realizing the above is recorded, and the program.
  • An audio output device includes a storage unit, a distance calculation unit, a change rate calculation unit, an amplification factor calculation unit, and a mixed output unit, and is configured as follows.
  • the storage unit stores the sound information and the volume coefficient associated with each of the two sounding bodies moving in the virtual space.
  • audio information is stored as a file such as PCM (Pulse Coded Modulation) format or MP3 (MPeg audit layer 3) format as a storage medium such as CD-ROM (Compact Disk Read Only Memory). Is remembered.
  • PCM Pulse Coded Modulation
  • MP3 MPeg audit layer 3
  • the volume coefficient is a coefficient related to the degree of “power” of the voice information, and is associated with the amount of energy of voice output by the sound generator, the average volume of the voice information, and the like.
  • the distance calculation unit calculates the distance between the predetermined attention point in the virtual space and each of the two sounding bodies.
  • the predetermined attention point typically corresponds to a viewpoint position in the case of displaying the three-dimensional graphics in the virtual space. Since the loudness of the sound produced by the sound generator decreases as the distance increases, the distance between the point of interest and the sound generator is calculated to take into account the effect of this distance. In addition to the normal distance (the magnitude of the difference in position beta), the “distance” includes the square distance (the square of the magnitude of the position vector difference) and the Manhattan distance (each element of the position vector difference). (The sum of absolute values) may be adopted. [0013] Further, the rate of change calculation unit calculates a rate of change in which the volume of the sound produced by each of the two sounding bodies changes when the sound volume is separated by a distance calculated for the sounding body.
  • the amplification factor calculation unit calculates an amplification factor larger than the change rate for the sound body associated with the larger one of the two volume factors, and out of the two volume factors. For the sound generator associated with the smaller one, an amplification factor smaller than the rate of change is calculated.
  • the larger volume coefficient adopts a larger amplification factor than the calculated change rate, and the smaller volume coefficient uses the smaller change rate.
  • the amplification factor is adopted.
  • the mixed output unit outputs a sound obtained by amplifying and adding the sound information associated with each of the two sounding bodies with the amplification factor calculated for the sounding body.
  • the sound information that can be heard at the point of interest is generated by amplifying each sound information at the amplification factor obtained for each sound source and adding the waveforms. .
  • the mixed output unit is provided in the virtual space.
  • the audio information associated with each of the two sounding bodies is amplified at the calculated change rate. If the predetermined condition is not satisfied, the audio information associated with each of the two sounding bodies is amplified by the amplification factor calculated for the sounding body and added. It is possible to configure so as to output the sound.
  • a stereo sound output or 5.1-channel sound output indicates the direction in which the sound of a sounding body is generated
  • the two sounding bodies that have been viewed with attention are placed in a virtual space. If the direction is far away, there may be no need to clarify the difference as described above. Therefore, in such a case, the two voice information is simply multiplied by the rate of change and then added.
  • the relationship between the position of the two sounding bodies and the position of the attention point is, for example, whether the angle formed by the first sounding body attention point or the second sounding body is smaller than a certain angle, It is possible to adopt various conditions such as whether the distance between the second sounding body and the second sounding body is smaller than a certain length.
  • the sound when there is little need to make the difference in the sound significant due to the positional relationship between the two sounding bodies, the sound is output without giving the effect of enhancing the contrast, and a natural impression is given. It is possible to provide an audio output device that is given to the user.
  • the amplification factor calculation unit may determine which of the two volume coefficients is greater than the greater of the two volume coefficients, and which of the two volume coefficients is greater than Amplification rate for a sounding body associated with the sound volume is obtained by multiplying the rate of change by the ratio, and an amplification rate for the sounding material associated with the smaller of the two volume coefficients is represented by the ratio to the rate of change. It can be configured to be multiplied by the inverse of.
  • the volume coefficient of one voice body is pi
  • the rate of change is cl
  • the gain is A1
  • the volume coefficient of the other voice body is p2
  • the rate of change is c2
  • the gain is A2
  • the present invention relates to a preferred embodiment of the above invention, and uses a volume coefficient.
  • the amplification factor can be easily calculated.
  • the amplification factor calculation unit has a larger one of the two volume coefficients by a predetermined power of a ratio of the larger one of the two volume coefficients to the smaller one.
  • the amplification factor for the sound generator associated with the sound source is obtained by multiplying the change rate by a predetermined power of the ratio, and the amplification factor for the sound generator associated with the smaller one of the two volume coefficients
  • the rate of change may be multiplied by the inverse of a predetermined power of the ratio.
  • the predetermined power is R power (where R ⁇ 1)
  • the present invention relates to a preferred embodiment of the above invention, and the amplification factor can be easily calculated by using the volume coefficient.
  • the mixed output unit can be configured to use saturation addition for addition of the audio information.
  • An audio output method uses a storage unit and includes a distance calculation step, a change rate calculation step, an amplification factor calculation step, and a mixed output step, and is configured as follows.
  • the storage unit stores audio information and volume coefficient associated with each of the two sounding bodies moving in the virtual space.
  • the distance calculation step the distance between a predetermined point of interest in the virtual space and each of the two sounding bodies is calculated.
  • the rate of change calculation step the volume level of the sound produced by each of the two sounding bodies, the rate of change that changes as the sounding body is separated by the calculated distance is calculated. calculate.
  • the amplification factor calculation step for the sound generator associated with the larger one of the two volume coefficients, an amplification factor larger than the rate of change is calculated, and one of the two volume coefficients is calculated. For the sound generator associated with the smaller one, an amplification factor smaller than the rate of change is calculated.
  • the sound information associated with each of the two sounding bodies is amplified by the amplification factor calculated for the sounding body and added to output the sound.
  • a program according to another aspect of the present invention is configured to cause a computer to function as the audio output device or to cause the computer to execute the audio output method.
  • the program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, a flexible disk, a hard disk, a magneto-optical disk, a digital video disk, a magnetic tape, and a semiconductor memory.
  • the above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed.
  • the information storage medium can be distributed and sold independently of the computer.
  • an audio output device, an audio output method, and a computer that realize a sound output that enhances the sense of reality by clarifying the difference between the sounds of the two sounding bodies are realized by a computer.
  • a computer-readable information recording medium in which a program to be recorded is recorded, and the program can be provided.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of a typical information processing device in which a sound output device according to one embodiment of the present invention is realized.
  • FIG. 2 is a schematic diagram showing a schematic configuration of an audio output device according to one embodiment of the present invention.
  • FIG. 3 is a flow chart showing the flow of control of audio output processing executed by the audio output device.
  • FIG. 4 Explanatory diagram showing the positional relationship between the point of interest and two sounding bodies placed in the virtual space It is.
  • Embodiments of the present invention will be described below.
  • an embodiment in which the present invention is applied to a game device that performs three-dimensional graphics display and audio output will be described.
  • various computers, PDAs (Personal Data Assistants), mobile phones The present invention can be similarly applied to such information processing apparatuses. That is, The embodiments described in the above are for explanation, and do not limit the scope of the present invention. Accordingly, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of a typical information processing device in which the audio output device of the present invention is realized.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of a typical information processing device in which the audio output device of the present invention is realized.
  • the information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, and an image processing unit 107.
  • a DVD-ROM storing game programs and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on, the program is executed, and the display device of this embodiment is realized. Is done.
  • the CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data.
  • the CPU 101 uses an arithmetic logic unit (ALU) (not shown), an arithmetic operation such as addition / subtraction / division / division, logical sum, logical product, etc. for a storage area called a register (not shown) that can be accessed at high speed.
  • ALU arithmetic logic unit
  • Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed.
  • the CPU 101 itself is configured and equipped with a coprocessor so that saturation operations such as addition, subtraction, multiplication, and division for multimedia processing and trigonometric functions can be performed at high speed. There is something to do.
  • the ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on. By executing this, the program recorded on the DVD-ROM is read to the RAM 103 and the CPU 101 Execution starts.
  • the ROM 102 stores an operating system program and various types of data necessary for operation control of the entire information processing apparatus 100.
  • the RAM 103 is for temporarily storing data and programs.
  • the program and data from which the OM capability is also read, and other data necessary for game progress and chat communication are retained.
  • the CPU 101 provides a variable area in the RAM 103 and performs an arithmetic operation by directly applying an ALU to the value stored in the variable, or stores the value stored in the RAM 103 in a register. Performs operations such as performing an operation on the register and writing the operation result back into the memory.
  • the controller 105 connected via the interface 104 receives an operation input performed by a user when executing a game such as a racing game.
  • the external memory 106 which is detachably connected via the interface 104, stores data indicating the playing status (such as past results) of the racing game, data indicating the progress of the game, and chat communication log (recording). ) Is stored in a rewritable manner. The user can appropriately record these data in the external memory 106 by inputting instructions via the controller 105.
  • a DVD-ROM loaded in the DVD-ROM drive 108 stores a program for realizing a game and image data and sound data associated with the game.
  • the DVD-ROM drive 108 Under the control of 01, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded in the DVD-ROM drive 108, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.
  • the image processing unit 107 performs cache processing on data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data.
  • the data is recorded in a frame memory (not shown) included in 107.
  • the image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107.
  • various image displays are possible.
  • the image processor can perform two-dimensional image overlay operations, transparency operations such as alpha blending, and various saturation operations at high speed.
  • Polygon information that is arranged in a virtual three-dimensional space and to which various texture information is added is rendered by the ⁇ buffer method, and polygons arranged in the virtual three-dimensional space from a predetermined viewpoint position are rendered. High-speed computation to obtain a rendering image viewed from a specific line of sight Execution is also possible.
  • the CPU 101 and image processor can work together to draw a character string as a two-dimensional image in the frame memory or on the surface of each polygon according to the font information that defines the character shape. is there.
  • the NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is used when configuring a LAN (Local Area Network).
  • a computer communication network such as the Internet
  • T modem analog modem for connecting to the Internet using a telephone line
  • ISDN Integrated Services Digital Network
  • ADSL Asymmetric Digital Subscriber Line
  • cable TV line A cable modem or the like for connecting to the Internet
  • an interface (not shown) for interfacing these with the CPU 101 are configured.
  • the audio processing unit 110 converts the audio data that has also been read from the DVD-ROM power into an analog audio signal, and outputs the analog audio signal from a speaker (not shown) connected thereto.
  • a speaker not shown
  • sound effects and music data to be generated during the progress of the game are generated, and the corresponding sound is output from the speaker.
  • the audio processing unit 110 converts the MIDI data into PCM data with reference to the sound source data included in the audio data. If the compressed audio data is in ADPCM format or Ogg Vorbis format, it is expanded and converted to PCM data.
  • the PCM data can be output as audio by performing DZA (Digital / Analog) conversion at the timing corresponding to the sampling frequency and outputting it to the speaker.
  • DZA Digital / Analog
  • the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk, and has the same function as a DVD-ROM or the like mounted in the ROM 102, RAM 103, external memory 106, or DVD-ROM drive 108. It may be configured to fulfill
  • FIG. 2 is a schematic diagram showing a schematic configuration of an audio output device according to one embodiment of the present invention.
  • the audio output apparatus is realized on the information processing apparatus 100 described above. Hereinafter, description will be given with reference to this figure.
  • the audio output device 201 includes a storage unit 202, a distance calculation unit 203, a change rate calculation unit 204, an amplification factor.
  • a calculation unit 205 and a mixed output unit 206 are provided.
  • the storage unit 202 stores audio information and a volume coefficient associated with each of two sounding bodies moving in the virtual space.
  • the audio information is a file such as PCM format or MP3 format.
  • the volume coefficient is a coefficient related to the degree of “power” of the sound information, and is associated with the amount of energy of sound output by the sounding body, the average sound volume of the sound information, and the like.
  • the volume coefficient may be obtained in advance and stored in the storage unit 202, or the audio information may be scanned as necessary.
  • the volume coefficient may be obtained in real time, and the result may be stored in the storage unit 202.
  • a large-capacity external storage device such as a DVD-ROM, a CD-ROM, or a hard disk attached to the RAM 103 and the DVD-ROM drive 108 functions as the storage unit 202.
  • the sound information of one sounding body is expressed as al (t), and the sound information of the other sounding body is expressed as a2 (t).
  • the volume coefficient can be arbitrarily determined as described above. Assuming that the audio information is repeatedly played with time lengths T and T ', when the volume coefficient is the average volume,
  • pl (1 / T) J T
  • volume coefficient is an average amplitude
  • the RAM 103 has an area for storing various sound parameters and various state parameters such as the position and speed of two sounding bodies and a point of interest (viewpoint for observing the virtual space) in the virtual space.
  • the virtual space is appropriately moved based on the input of the instruction and a predetermined algorithm.
  • FIG. 3 is a flowchart showing the flow of control of audio output processing executed by the audio output device.
  • description will be given with reference to this figure.
  • step S301 various state parameters such as a point of interest and positions of two sounding bodies are initialized (step S301).
  • the initialization is equivalent to initialization before the start of game play.
  • Each initial value may be a value stored in the DVD-ROM or the external memory 106, or may be a random number. It may be determined.
  • step S302 0 is set in an area for storing the amplification factors A1 and A2 prepared in the RAM 103 (step S302).
  • the mixed output unit 206 stores the audio information al (t) in A1 with reference to the amplification factors Al and A2 stored in the RAM 103 in the audio processing unit 110 of the information processing apparatus 100.
  • the voice information a2 (t) is amplified with the value stored in A2, mixed and output as voice (step S303). Audio amplification, mixing (mixing), and output by the audio processing unit 110 are performed in parallel with the subsequent processing.
  • the CPU 101 functions as the mixed output unit 206 in cooperation with the RAM 103 and the audio processing unit 110.
  • a saturation operation may be used as appropriate for the multiplication for a1 (a) amplification by a1 and the multiplication for a2 (t) amplification by A2 and the addition for mixing these results. If saturation calculation is used, an effect such as sound cracking when a loud sound is generated near the microphone can be obtained.
  • the state parameters after a predetermined minute time are determined from various state parameters such as the current attention point and the positions of the two sounding bodies. (Step S304), and the state parameters stored in the RAM 103 are updated with the calculated new values (step S305).
  • a state predetermined minute time For example, by adopting the vertical synchronization interrupt interval on the monitor screen, image blurring and flickering due to display differences can be suppressed.
  • the state parameters are calculated according to the physical laws set in the virtual space.
  • the instruction input given by the player using the controller 105 or the CPU 101 is based on a predetermined algorithm. It shall be updated based on the instruction input generated. For example, a technique similar to the technique for determining the action of a player character or a non-player character in a racing game or a horse racing game can be employed.
  • FIG. 4 is an explanatory diagram showing the positional relationship between a point of interest and two sounding bodies arranged in the virtual space at time t updated in this way.
  • description will be given with reference to this figure.
  • the position vector of the point of interest 405 is s (t)
  • the position vector of the sounding body 411 associated with the volume coefficient pi is rl (t)
  • the volume coefficient Let r2 (t) be the position vector of the sound generator 412 associated with p2.
  • u'v means the inner product of vector u and vector V.
  • the Manhattan distance can be obtained as a sum of absolute values of elements in the axial directions of x, y, and z of vectors rl (t) -s (t), etc. it can.
  • the distance calculation unit 203 calculates the distance between the predetermined attention point 405 in the virtual space 401 and each of the sounding body 411 and the sounding body 412. (Step S306).
  • the CPU 101 functions as the distance calculation unit 203 in cooperation with the RAM 103 and the like. These distances dl and d2 are also temporarily stored in the RAM 103.
  • the rate-of-change calculation unit 204 changes the rate of change cl, c2 when the volume of the sound produced by each of the sounding body 411 and the sounding body 412 is away from the point of interest 405 by distances dl and d2, respectively. Is calculated (step S307).
  • the function is typically a monotonically decreasing function, the closer it is (distance force, the smaller it is) and the farther it is (the greater the distance, the smaller it) .
  • Ks K-J X s (0 ⁇ s ⁇ K / J);
  • the rate of change is obtained. If the amplitude of the wave based on the sound information of the sounding body is simply multiplied by this change rate, the sound emitted by the sounding body in the normal virtual space 401 can be simulated.
  • the angle ⁇ or cos ⁇ at which the sounding body 411 and the sounding body 412 are viewed from the point of interest 405 is further calculated (step S308).
  • the CPU 101 determines whether or not the calculated angle ⁇ is smaller than the predetermined angle ⁇ (step S309).
  • the amplification factor calculation unit 205 corresponds to the larger pi of the two volume coefficients.
  • Amplification rate A1 larger than the rate of change cl for the sounding body 411 attached and an amplification rate A2 smaller than the rate of change c2 for the sounding material 412 associated with the smaller volume p2 of the two volume coefficients.
  • the calculation result is stored and updated in the above-mentioned area in the RAM 103 (step S310).
  • the mixed output unit 206 amplifies the audio information al (t) and a2 (5) associated with each of the sounding body 411 and the sounding body 412 with the calculated amplification factors Al and A2. Therefore, the difference between the sounds produced by the sound generators 411 and 412 can be made more prominent based on the volume coefficients pi and p2 assigned to them, and the contrast can be clarified. The user is able to understand the characteristics of the sounding body 411 and the sounding body 412 more clearly.
  • step S309 when it is determined that the angle ⁇ is equal to or greater than the predetermined angle ⁇ (step S309; No), the change rate cl is adopted as the amplification factor A1, and the change rate c2 is adopted as the amplification factor A2.
  • the RAM 103 is updated (step S311), and the process proceeds to step S312. This corresponds to the case where the sounding body 411 and the sounding body 412 are sufficiently separated from each other and it is not necessary to clarify the contrast between them.
  • sounding body 411 and sounding body 412 viewed from the point of interest 405 are arranged in the virtual space 401. If the direction is far away, it may not be necessary to clarify such differences.
  • step S310 is always performed. It is also possible that the process is done!
  • the audio information al (t) and a2 (t) to be mixed are set, and the amplification factors Al and A2 to be changed at a desired time are set. In some cases, it is intended to directly indicate. In such a case, instead of the process of storing and updating in the RAM 103, an instruction for designating the amplification factors Al and A2 may be issued to the hardware of the audio processing unit 110.
  • step S312 A three-dimensional graphics image is generated (step S312) and waits until a vertical synchronization interrupt occurs (step S313). When the vertical synchronization interrupt occurs, the generated graphics image is transferred to the frame memory (step S314). ), Return to step S304.
  • the difference between the sounds produced by the two sounding bodies can be made more prominent based on the volume coefficient assigned to them, and the contrast can be clarified.
  • the user of the audio output device will be able to understand the characteristics of the two sounding bodies more clearly.
  • the amplification factor Ai (3 ⁇ n) is determined so as to satisfy the following various relationships: There can be a method.
  • a sound output device, a sound output method, and a sound output method suitable for outputting the sound by clarifying the difference between the sounds of the two sounding bodies and enhancing the sense of reality A computer-readable information recording medium that records a program that realizes these on a computer, and the program can be provided to realize various competitive games on a game device, as well as educational purposes, etc. It can be applied to virtual reality technology that provides various virtual experiences.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 2つの発音体の音声の差異を明確にして臨場感を高めるため、音声出力装置(201)の記憶部(202)は、仮想空間内を移動する2つの発音体の音声情報および音量係数を記憶し、距離計算部(203)は、注目点と発音体のそれぞれとの距離を計算し、変化率計算部(204)は、発音体が発する音声の音量が、それぞれの距離だけ離れることによって変化する変化率を計算し、増幅率計算部(205)は、音量係数のうち大きい方に対してその変化率よりも大きい増幅率を計算し、音量係数のうち小さい方に対してその変化率よりも小さい増幅率を計算し、混合出力部(206)は、発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力する。

Description

明 細 書
音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム 技術分野
[0001] 本発明は、仮想空間を移動する 2つの発音体の音声の差異を明確にして臨場感を 高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、これらを コンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報記録媒 体、および、当該プログラムに関する。
背景技術
[0002] 従来から、 2次元平面や 3次元空間などの仮想空間内にバイク、自動車、飛行機な ど各種の乗物や地面を走ったりジャンプしたり、空を飛んだり、水の中を泳いだりする キャラクター(以下、まとめて「オブジェクト」という。)を、プレイヤーがコントローラを用 いて操作することによって当該仮想空間内を移動させたり、所定のアルゴリズムに応 じてオブジェ外を自動的に当該仮想空間内を移動させたりして、競争を行う技術が 提案されている。
[0003] また、この際に、オブジェクトが発すると想定される音声を生成して、よりリアルな環 境を提供する技術が提案されている。このように、仮想空間内で音声を発すると想定 されるオブジェクトを発音体とも呼ぶ。このような技術については、たとえば以下の文 献に開示がされている。
特許文献 1:特許第 3455739号公報
[0004] [特許文献 1]には、競馬ゲームのレースにおいて、視点位置力も近い順に馬の足に 優先順位をつけ、優先順位の低!、足から発せられる足音の音声はグループとしてひ とまとめにして、合成出力に用いる発音数を抑制する技術が開示されて 、る。
[0005] このように、仮想空間内を移動するオブジェクトが発する音声を合成出力する技術 は、ユーザに仮想空間の様子を知覚させる観点で重要である。
発明の開示
発明が解決しょうとする課題
[0006] このように仮想空間を提供する複数のオブジェクトが音声を発する場合に、これらの オブジェクトが発する音声の差異を極立たせて、ユーザに、オブジェクトの対比を明 確に知覚させたい場合がある。したがって、このような要望に対応するための技術が 求められている。
本発明は、上記のような課題を解決するためになされたもので、 2つの発音体の音 声の差異を明確にして臨場感を高めるように出力するのに好適な音声出力装置、音 声出力方法、ならびに、これらをコンピュータにて実現するプログラムを記録したコン ピュータ読取可能な情報記録媒体、および、当該プログラムを提供することを目的と する。
課題を解決するための手段
[0007] 以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する
[0008] 本発明の第 1の観点に係る音声出力装置は、記憶部、距離計算部、変化率計算部 、増幅率計算部、混合出力部を備え、以下のように構成する。
[0009] すなわち、記憶部は、仮想空間内を移動する 2つの発音体のそれぞれに対応付け られる音声情報および音量係数を記憶する。
[0010] 典型的には、音声情報は PCM (Pulse Coded Modulation)形式や MP3 (MPeg audi o layer 3)形式などのファイルとして CD— ROM (Compact Disk Read Only Memory) ゃノ、ードディスクなどの記憶媒体に記憶される。また、音量係数は、当該音声情報の 「迫力」の度合に関連する係数で、発音体による音声出力のエネルギー量や、音声 情報の平均音量などに対応付けられるものである。
[0011] 一方、距離計算部は、当該仮想空間内における所定の注目点と当該 2つの発音体 のそれぞれとの距離を計算する。
[0012] ここで、所定の注目点は、典型的には、仮想空間内を 3次元グラフィックス表示する 場合の視点位置に相当するものである。発音体が発する音声の大きさは、距離が離 れれば離れるほど小さくなるから、この距離による影響を考慮するために、注目点と 発音体との距離を計算するのである。なお、「距離」としては、通常の距離 (位置べタト ルの差の大きさ)のほか、自乗距離 (位置ベクトルの差の大きさの自乗)やマンハッタ ン距離 (位置ベクトルの差の各要素の絶対値の総和)を採用しても良い。 [0013] さらに、変化率計算部は、当該 2つの発音体のそれぞれが発する音声の音量が、 当該発音体について計算された距離だけ離れることによって変化する変化率を計算 する。
[0014] 上記のように、発音体とこれが発する音を聞く注目点の距離が離れれば離れるほど 、聞こえる音の大きさは小さくなるため、この小さくなる度合を示す変化率を求めるも のである。発音体の音声情報に基づく波動の振幅にこの変化率を単純に乗ずれば、 通常の仮想空間内における発音体が発する音のシミュレーションができることになる
[0015] そして、増幅率計算部は、当該 2つの音量係数のうち大きい方に対応付けられる発 音体に対して、その変化率よりも大きい増幅率を計算し、当該 2つの音量係数のうち 小さい方に対応付けられる発音体に対して、その変化率よりも小さい増幅率を計算 する。
[0016] 上記のように、単純に音声情報の振幅に変化率を乗じれば、仮想空間内における 発音体が発する音のシミュレーションを行うことができるのである力 2つの発音体が 発する音の差異を極立たせ、コントラストを明確にするために、音量係数が大きい方 は、求められた変化率よりもさらに大きな増幅率を採用し、音量係数が小さい方は、 求められた変化率よりもさらに小さな増幅率を採用するのである。計算の手法は種々 考えられ、その好適実施形態については後述する。
[0017] 一方、混合出力部は、当該 2つの発音体のそれぞれに対応付けられる音声情報を 当該発音体に対して計算された増幅率で増幅して加算した音声を出力する。
[0018] すなわち、 2つの発音体のそれぞれについて、それぞれの音声情報をそれぞれに ついて求められた増幅率で増幅して、その波形を加算することにより、注目点で聞こ える音声の波形を生成する。
[0019] 本発明によれば、 2つの発音体が発する音声の差異を、これらに割り当てられた音 量係数に基づいて、より極立たせてコントラストを明確にすることができ、本音声出力 装置のユーザは、 2つの発音体の特徴を、一層はっきりと把握することができるように なる。
[0020] また、本発明の音声出力装置において、混合出力部は、当該仮想空間内における 当該所定の注目点の位置と当該 2つの発音体の位置とが、所定の条件を満たす場 合は、当該 2つの発音体のそれぞれに対応付けられる音声情報を前記計算された変 化率で増幅して加算した音声を出力し、当該所定の条件を満たさない場合は、当該 2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計算さ れた増幅率で増幅して加算した音声を出力するように構成することができる。
[0021] たとえば、ステレオ音声出力や 5.1チャンネル音声出力で発音体の音が発生してい る方向を示すような場合には、注目点力 見た 2つの発音体が仮想空間内で配置さ れている方向が離れている場合には、上記のような差異の明確ィ匕が不要な場合もあ る。そこで、そのような場合には、単純に 2つの音声情報に変化率を乗じてから加算 するのである。
[0022] 2つの発音体の位置と注目点の位置の関係とは、たとえば、第 1の発音体 注目点 第 2の発音体がなす角が一定の角度より小さいか否力、あるいは、第 1の発音体と 第 2の発音体との距離が一定の長さより小さいか否か、等、種々の条件を採用するこ とがでさる。
[0023] 本発明によれば、 2つの発音体の位置関係によって音声の差異を極立たせる必要 が少ない場合には、コントラストを強調する効果を与えずに音声出力をして、自然な 印象をユーザに与えるような音声出力装置を提供することができる。
[0024] また、本発明に係る音声出力装置において、増幅率計算部は、当該 2つの音量係 数のうち大き 、方の小さ!/、方に対する比により、当該 2つの音量係数のうち大き 、方 に対応付けられる発音体に対する増幅率を、当該変化率に当該比を乗じたものとし 、当該 2つの音量係数のうち小さい方に対応付けられる発音体に対する増幅率を、 当該変化率に当該比の逆数を乗じたものとするように構成することができる。
[0025] たとえば、一方の音声体の音量係数を pi、変化率を cl、増幅率を A1他方の音声体 の音量係数を p2、変化率を c2、増幅率を A2とし、 pi > p2 > 0とした場合、
Al = cl X (pl/p2) > cl ;
A2 = c2 X (p2/pl) < c2
とするのである。
[0026] 本発明は、上記発明の好適実施形態に係るもので、音量係数を用いることによって 容易に増幅率の計算を行うことができるようになる。
[0027] また、本発明に係る音声出力装置において、増幅率計算部は、当該 2つの音量係 数のうち大きい方の小さい方に対する比の所定の羃乗により、当該 2つの音量係数 のうち大きい方に対応付けられる発音体に対する増幅率を、当該変化率に当該比の 所定の羃乗を乗じたものとし、当該 2つの音量係数のうち小さい方に対応付けられる 発音体に対する増幅率を、当該変化率に当該比の所定の羃乗の逆数を乗じたもの とするように構成することができる。
[0028] 上記の例と同様に考え、所定の羃乗を R乗 (ただし R≥ 1)とすると、
Al = cl X (pl/p2)R > cl ;
A2 = c2 X (p2/pl)R < c2
とするのである。
[0029] 本発明は、上記発明の好適実施形態に係るもので、音量係数を用いることによって 容易に増幅率の計算を行うことができるようになる。
[0030] また、本発明に係る音声出力装置において、混合出力部は、当該音声情報の加算 に飽和加算を用いるように構成することができる。
[0031] 特に、増幅率や変化率に基づいて音声情報を増幅する計算では、飽和乗算もしく は通常の乗算を採用し、加算の差異に飽和加算を用いるのである。
[0032] 本発明では、飽和加算を用いることにより、音量が極めて大きくなつた場合の「音割 れ」現象をシミュレートすることができるので、コントラストを強調して音声出力する場 合に、ユーザにより迫力のある音声を提供することができるようになる。
[0033] 本発明のその他の観点に係る音声出力方法は、記憶部を用い、距離計算工程、変 化率計算工程、増幅率計算工程、混合出力工程を備え、以下のように構成する。
[0034] すなわち、記憶部には、仮想空間内を移動する 2つの発音体のそれぞれに対応付 けられる音声情報および音量係数が記憶される。
[0035] 一方、距離計算工程では、当該仮想空間内における所定の注目点と当該 2つの発 音体のそれぞれとの距離を計算する。
[0036] さらに、変化率計算工程では、当該 2つの発音体のそれぞれが発する音声の音量 力 当該発音体について計算された距離だけ離れることによって変化する変化率を 計算する。
[0037] そして、増幅率計算工程では、当該 2つの音量係数のうち大きい方に対応付けられ る発音体に対して、その変化率よりも大きい増幅率を計算し、当該 2つの音量係数の うち小さい方に対応付けられる発音体に対して、その変化率よりも小さい増幅率を計 算する。
[0038] 一方、混合出力工程では、当該 2つの発音体のそれぞれに対応付けられる音声情 報を当該発音体に対して計算された増幅率で増幅して加算した音声を出力する。
[0039] 本発明のその他の観点に係るプログラムは、コンピュータを上記音声出力装置とし て機能させ、または、コンピュータに上記音声出力方法を実行させるように構成する。 また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディ スク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコン ピュータ読取可能な情報記憶媒体に記録することができる。
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ 通信網を介して配布 '販売することができる。また、上記情報記憶媒体は、コンビユー タとは独立して配布 ·販売することができる。
発明の効果
[0040] 本発明によれば、 2つの発音体の音声の差異を明確にして臨場感を高めるように出 力するのに好適な音声出力装置、音声出力方法、ならびに、これらをコンピュータに て実現するプログラムを記録したコンピュータ読取可能な情報記録媒体、および、当 該プログラムを提供することができる。
図面の簡単な説明
[0041] [図 1]本発明の実施形態の 1つに係る音声出力装置が実現される典型的な情報処理 装置の概要構成を示す説明図である。
[図 2]本発明の実施形態の一つに係る音声出力装置の概要構成を示す模式図であ る。
[図 3]当該音声出力装置にて実行される音声出力処理の制御の流れを示すフローチ ヤートである。
[図 4]仮想空間内に配置される注目点および 2つの発音体の位置関係を示す説明図 である。
符号の説明
100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD— ROMドライブ
109 NIC
110 音声処理部
201 音声出力装置
202 じ' 1思 p:[5
203 距離計算部
204 変化率計算部
205 増幅率計算部
206 混合出力部
401 仮想空間
405 注目点
411 発音体
412 発音体
発明を実施するための最良の形態
以下に本発明の実施形態を説明する。以下では、理解を容易にするため、三次元 グラフィックス表示と音声出力がされるゲーム装置に本発明が適用される実施形態を 説明するが、各種のコンピュータ、 PDA (Personal Data Assistants)、携帯電話など の情報処理装置においても同様に本発明を適用することができる。すなわち、以下 に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するもので はない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なも のに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明 の範囲に含まれる。
実施例 1
[0044] 図 1は、本発明の音声出力装置が実現される典型的な情報処理装置の概要構成 を示す説明図である。以下、本図を参照して説明する。
[0045] 情報処理装置 100は、 CPU (Central Processing Unit) 101と、 ROM 102と、 RA M (Random Access Memory) 103と、インターフェイス 104と、コントローラ 105と、外 咅メモリ 106と、画像処理部 107と、 DVD-ROM (Digital Versatile Disc ROM)ドラ イブ 108と、 NIC (Network Interface Card) 109と、音声処理部 110と、を備える。 ゲーム用のプログラムおよびデータを記憶した DVD— ROMを DVD— ROMドライ ブ 108に装着して、情報処理装置 100の電源を投入することにより、当該プログラム が実行され、本実施形態の表示装置が実現される。
[0046] CPU 101は、情報処理装置 100全体の動作を制御し、各構成要素と接続され制 御信号やデータをやりとりする。また、 CPU 101は、レジスタ(図示せず)という高速 アクセスが可能な記憶域に対して ALU (Arithmetic Logic Unit) (図示せず)を用いて 加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビ ット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さら に、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベタ トル演算などを高速に行えるように、 CPU 101自身が構成されているものや、コプロ セッサを備えて実現するものがある。
[0047] ROM 102には、電源投入直後に実行される IPL (Initial Program Loader)が記録 され、これが実行されることにより、 DVD— ROMに記録されたプログラムを RAM 1 03に読み出して CPU 101による実行が開始される。また、 ROM 102には、情報 処理装置 100全体の動作制御に必要なオペレーティングシステムのプログラムや各 種のデータが記録される。
[0048] RAM 103は、データやプログラムを一時的に記憶するためのもので、 DVD—R OM力も読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要 なデータが保持される。また、 CPU 101は、 RAM 103に変数領域を設け、当該 変数に格納された値に対して直接 ALUを作用させて演算を行ったり、 RAM 103 に格納された値をー且レジスタに格納してからレジスタに対して演算を行 、、演算結 果をメモリに書き戻す、などの処理を行う。
[0049] インターフェイス 104を介して接続されたコントローラ 105は、ユーザがレーシングゲ ームなどのゲーム実行の際に行う操作入力を受け付ける。
[0050] インターフェイス 104を介して着脱自在に接続された外部メモリ 106には、レーシン グゲーム等のプレイ状況 (過去の成績等)を示すデータ、ゲームの進行状態を示す データ、チャット通信のログ (記録)のデータなどが書き換え可能に記憶される。ユー ザは、コントローラ 105を介して指示入力を行うことにより、これらのデータを適宜外部 メモリ 106に記録することができる。
[0051] DVD— ROMドライブ 108に装着される DVD— ROMには、ゲームを実現するた めのプログラムとゲームに付随する画像データや音声データが記録される。 CPU 1
01の制御によって、 DVD— ROMドライブ 108は、これに装着された DVD— ROM に対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらは R AM 103等に一時的に記憶される。
[0052] 画像処理部 107は、 DVD— ROMから読み出されたデータを CPU 101や画像処 理部 107が備える画像演算プロセッサ(図示せず)によってカ卩ェ処理した後、これを 画像処理部 107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記 録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部 10 7に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能 となる。
画像演算プロセッサは、 2次元の画像の重ね合わせ演算や αブレンディング等の 透過演算、各種の飽和演算を高速に実行できる。
[0053] また、仮想 3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情 報を、 Ζバッファ法によりレンダリングして、所定の視点位置から仮想 3次元空間に配 置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速 実行も可能である。
さらに、 CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を 定義するフォント情報にしたがって、文字列を 2次元画像としてフレームメモリへ描画 したり、各ポリゴン表面へ描画することが可能である。
[0054] NIC 109は、情報処理装置 100をインターネット等のコンピュータ通信網(図示せ ず)に接続するためのものであり、 LAN (Local Area Network)を構成する際に用いら れる 10BASE—TZ100BASE—T規格にしたがうものや、電話回線を用いてインタ 一ネットに接続するためのアナログモデム、 ISDN (Integrated Services Digital Netwo rk)モデム、 ADSL (Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョ ン回線を用いてインターネットに接続するためのケーブルモデム等と、これらと CPU 101との仲立ちを行うインターフェース(図示せず)により構成される。
[0055] 音声処理部 110は、 DVD— ROM力も読み出した音声データをアナログ音声信号 に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、 CPU 101 の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、こ れに対応した音声をスピーカから出力させる。
音声処理部 110では、 DVD— ROMに記録された音声データが MIDIデータであ る場合には、これが有する音源データを参照して、 MIDIデータを PCMデータに変 換する。また、 ADPCM形式や Ogg Vorbis形式等の圧縮済音声データである場合に は、これを展開して PCMデータに変換する。 PCMデータは、そのサンプリング周波 数に応じたタイミングで DZA (Digital/Analog)変換を行って、スピーカに出力するこ とにより、音声出力が可能となる。
[0056] このほか、情報処理装置 100は、ハードディスク等の大容量外部記憶装置を用い て、 ROM 102、 RAM 103、外部メモリ 106、 DVD— ROMドライブ 108に装着さ れる DVD— ROM等と同じ機能を果たすように構成してもよ ヽ。
[0057] 図 2は、本発明の実施形態の一つに係る音声出力装置の概要構成を示す模式図 である。当該音声出力装置は、上記の情報処理装置 100上に実現される。以下、本 図を参照して説明する。
[0058] 音声出力装置 201は、記憶部 202、距離計算部 203、変化率計算部 204、増幅率 計算部 205、混合出力部 206を備える。
[0059] まず、記憶部 202は、仮想空間内を移動する 2つの発音体のそれぞれに対応付け られる音声情報および音量係数を記憶する。
[0060] 本実施形態では、音声情報は PCM形式や MP3形式などのファイルである。また、 音量係数は、当該音声情報の「迫力」の度合に関連する係数で、発音体による音声 出力のエネルギー量や、音声情報の平均音量などに対応付けられるものである。
[0061] 音量係数として音声情報の平均音量を採用する場合には、あらかじめ音量係数を 求めて記憶部 202に記憶することとしても良いし、音声情報を必要に応じて走査する こと〖こよって、リアルタイムに音量係数を求めることとし、その結果を記憶部 202に記 憶することとしても良い。
[0062] したがって、 RAM 103、 DVD— ROMドライブ 108に装着される DVD— ROMや CD-ROM,ハードディスク等の大容量外部記憶装置が、記憶部 202として機能す ることとなる。
[0063] さて、一方の発音体の音量係数を pi、他方の発音体の音量係数を p2とし、 pi > p2 > 0であるちのとする。
[0064] 経過時間 tにおける振幅により、一方の発音体の音声情報を al(t)と表現し、他方の 発音体の音声情報を、 a2(t)と表現することとする。
[0065] 音量係数は、上記のように、任意に定めることができる。当該音声情報が、それぞ れ時間長 T, T'で繰り返し再生されるものとすると、音量係数を平均音量とした場合に は、
pl = (1/T) J T |al(t)|2 dt ;
0
p2 = (Ι/Τ') J τ' |a2(t)|2 dt
0
力 それぞれ成立することとなる。
[0066] また、音量係数を平均振幅とした場合には、
|ρΐΓ = (1/Τ) ί T |al(t)|2 dt ;
0
|p2|2 = (Ι/Τ') J τ' |a2(t)|2 dt
0
により、それぞれ計算で求めることができる。ここで、当該積分は、 PCM波形等から 容易に計算することができる。 [0067] このほか、 RAM 103には、仮想空間内における 2つの発音体や注目点(仮想空 間を観察する視点)の位置や速度などの各種の状態パラメータを記憶する領域があ り、ユーザの指示入力や所定のアルゴリズムに基づいて、適宜仮想空間内を移動す る。
[0068] さて、このような音声情報と音声係数等が記憶部 202に記憶されている状態から、 音声出力装置 201において音声出力処理が開始される。図 3は、当該音声出力装 置にて実行される音声出力処理の制御の流れを示すフローチャートである。以下、 本図を参照して説明する。
[0069] まず、注目点および 2つの発音体の位置等の各種の状態パラメータを初期化する( ステップ S301)。当該初期化は、ゲームのプレイ開始前の初期化に相当するもので 、各初期値は、あら力じめ DVD— ROMや外部メモリ 106等に記憶されている値とし ても良いし、乱数により定めることとしても良い。
[0070] そして、 RAM 103内に用意された増幅率 A1、A2を記憶する領域に、 0をセットす る(ステップ S 302)。
[0071] さらに、混合出力部 206は、情報処理装置 100の音声処理部 110に、「RAM 10 3内に記憶される増幅率 Al、 A2を参照して音声情報 al(t)を A1に記憶される値で増 幅し、音声情報 a2(t)を A2に記憶される値で増幅して、ミキシングして音声出力する」 ように指示を出す (ステップ S303)。音声処理部 110による音声の増幅、ミキシング( 混合)、出力は、以降の処理と並行して行われる。
[0072] したがって、 CPU 101は、 RAM 103や音声処理部 110と共働して、混合出力 部 206として機能する。
[0073] なお、 al(t)を A1倍に増幅し、 a2(t)を A2倍に増幅するための乗算や、これらの結果 を混合する加算は、適宜飽和演算を用いても良い。飽和演算を用いると、マイクの近 くで大音量が発生した場合の音割れのような効果を得ることができる。
[0074] さて、音声の混合出力が並行して開始された後は、現在の注目点および 2つの発 音体の位置等の各種の状態パラメータから、所定の微小時間後のこれらの状態パラ メータを計算して (ステップ S304)、 RAM 103に記憶されるこれらの状態パラメータ を計算された新たな値で更新する (ステップ S305)。状態所定の微小時間としては、 たとえば、モニタ画面の垂直同期割り込みの間隔などを採用すると、表示の差異の 画像のブレやちらつきを抑えることができる。
[0075] また、状態パラメータの計算は、仮想空間内に設定された物理法則等にしたがうも のとし、プレイヤーがコントローラ 105を用いて与える指示入力や、 CPU 101が所 定のアルゴリズムに基づ 、て生成する指示入力に基づ 、て更新されるものとする。た とえば、レーシングゲームや競馬ゲームにおけるプレイヤーキャラクターや非プレイヤ 一キャラクターの動作を定める手法と同様の手法を採用することができる。
[0076] 図 4は、このようにして更新された時刻 tにおいて、仮想空間内に配置される注目点 および 2つの発音体の位置関係を示す説明図である。以下、本図を参照して説明す る。
[0077] 本図に示すように、仮想空間 401において、注目点 405の位置ベクトルを s(t)とし、 音量係数 piに対応付けられる発音体 411の位置ベクトルを rl(t)とし、音量係数 p2に 対応付けられる発音体 412の位置ベクトルを r2(t)とする。
[0078] このように、注目点 405、発音体 411、発音体 412が配置された場合、注目点 405 と発音体 411の自乗距離は、
|rl(t)-s(t)|2 = (rl(t)-s(t))-(rl(t)-s(t))
ユークリッド距離は、
|rl(t)-s(t)|
と、それぞれ表現できる。
[0079] 同様に、注目点 405と発音体 411の自乗距離は、
Ir2(t)-s(t)|2 = (r2(t)-s(t))-(r2(t)-s(t))
と、ユークリッド距離は、
Figure imgf000015_0001
と、それぞれ表現できる。ただし、 u'vは、ベクトル uとベクトル Vの内積を意味する。
[0080] また、マンハッタン距離は、ユークリッド座標系を採用した場合、ベクトル rl(t)- s(t)等 の x,y,zのそれぞれの軸方向の要素の絶対値の総和として求めることができる。
[0081] さて、上記のように更新された後、距離計算部 203は、当該仮想空間 401内におけ る所定の注目点 405と当該発音体 411、発音体 412のそれぞれとの距離を計算する (ステップ S 306)。
[0082] 「距離」として、自乗距離、ユークリッド距離、マンハッタン距離の ヽずれかを採用す るものとすれば、注目点 405と発音体 411の距離 dl、および、注目点 405と発音体 4 12の距離 d2は、上記のようなベクトル計算によって求めることができる。したがって、 CPU 101が RAM 103等と共働して、距離計算部 203として機能する。これらの 距離 dl、 d2も RAM 103内に一時的に記憶される。
[0083] ついで、変化率計算部 204は、当該発音体 411、発音体 412のそれぞれが発する 音声の音量が、それぞれ注目点 405から距離 dl、 d2だけ離れることによって変化す る変化率 cl、 c2を計算する (ステップ S307)。
[0084] この変化率 cl、 c2を求める関数 ¾ ( とおくと、
cl =細;
c2 = Kd2)
と書くことができる。関数 ·)は、典型的には単調減少関数であり、近くであればある ほど (距離力 、さければ小さ 、ほど)大きく、遠くであればあるほど (距離が大きけれ ば大きいほど)小さくなる。
[0085] たとえば、 Κ, Jを正の定数として、以下のような関数を採用することができる。
(1) Ks) = K-J X s (0≤s≤K/J) ;
= 0 (K/J≤s)
(2) Ks) = K/s ;
(3) Ks) = K/(s X s) ;
(4) Ks) = KX exp(-J X s)
[0086] 上記のように、発音体 411や発音体 412とこれらが発する音を聞く注目点 405の距 離が離れれば離れるほど、聞こえる音の大きさは小さくなるため、この小さくなる度合 を示す変化率を求めるものである。発音体の音声情報に基づく波動の振幅にこの変 化率を単純に乗ずれば、通常の仮想空間 401内における発音体が発する音のシミュ レーシヨンができることになる。
[0087] なお、本実施形態では、距離の計算と合わせて、注目点 405から発音体 411およ び発音体 412を見込む角 Θもしくは cos Θを、さらに計算する (ステップ S308)。すな わち、
cos θ = (rl(t)-s(t)) · (r2(t)-s(t))/(|rl(t)-s(t)| X |r2(t)-s(t)|);
Θ = arccos((rl(t)— s(t)) ' (r2(t)— s(t))/(|rl(t)— s(t)| X |r2(t)— s(t)|》
によって、 Θもしくは cos Θを計算する。注目点 405に到達する発音体 411起源の音 声と発音体 412起源の音声とが、どれぐらい異なる方向からやってくるか、を知ること ができる。この計算では、上記の距離の計算と共通する値を使用するので、適宜共 通する計算をまとめて行うのが効率的である。
[0088] ついで、 CPU 101は、計算された角 Θが所定の角度 φより小さいか否かを判定 する (ステップ S309)。所定の角度 φとしては、ある程度大きい角度が望ましいが、た とえば 90度 (= π /2)とすると、 Θや cos eを直接計算しなくとも、内積 (rl(t)- s(t)Hr2(t )-s(t))の正負によって判断ができるため、計算量を抑えることができて便利である。
[0089] 角 Θが所定の角度より小さいか否かは、 cos Θが対応する所定の値より大きいか否 力 によっても判断ができる。したがって、後者の判断を用いれば、計算コストが大き Vヽ arccos ( の計算を行わな!/、ですむ。
[0090] さて、判断の結果、角 Θが所定の角度 φより小さいと判断された場合 (ステップ S30 9 ; Yes)、増幅率計算部 205は、当該 2つの音量係数のうち大きい方 piに対応付け られる発音体 411に対する変化率 clよりも大きい増幅率 A1と、当該 2つの音量係数 のうち小さい方 p2に対応付けられる発音体 412に対する変化率 c2よりも小さい増幅 率 A2と、を計算して、計算結果を RAM 103内の上記の領域に記憶して更新する( ステップ S310)。
[0091] すなわち、 pi > p2であるときに、 Al > clを満たす A1と、 A2 < c2を満たす A2とを、そ れぞれ何らかの手法で計算するのである。
[0092] 上記のように、単純に音声情報の振幅に変化率を乗じれば、仮想空間 401内にお ける発音体が発する音のシミュレーションを行うことができるのである力 発音体 411 、発音体 412が発する音の差異を極立たせ、コントラストを明確にするために、音量 係数が大きい方は、求められた変化率よりもさらに大きな増幅率を採用し、音量係数 力 、さい方は、求められた変化率よりもさらに小さな増幅率を採用するのである。計 算の手法は種々考えられる力 たとえば、以下のような手法が考えられる。 [0093] (1) piと p2の比 pl/p2 > 1とその逆数 p2/pl < 1を用いて
Al = cl X (pl/p2) > cl ;
A2 = c2 X (p2/pl) < c2
とする。
[0094] (2) 上記(1)のほ力 さらに所定の 1以上の正整数 Rを用いて
Al = cl X (pl/p2)R > cl ;
A2 = c2 X (p2/pl)R < c2
とする。
[0095] (3) 1より大き!/、正定数 Pと 1より小さ!/、正定数 Qを用いて、
Al = cl X P > cl ;
A2 = c2 X Qく c2
とする。
[0096] 前述したように、混合出力部 206は、当該発音体 411、発音体 412のそれぞれに 対応付けられる音声情報 al(t), a2(5)を計算された増幅率 Al, A2で増幅して加算した 音声を出力するので、発音体 411、発音体 412が発する音声の差異を、これらに割り 当てられた音量係数 pi, p2に基づいて、より極立たせてコントラストを明確にすること ができ、ユーザは、発音体 411、発音体 412の特徴を、一層はっきりと把握することが でさるよう〖こなる。
[0097] Al, A2の計算と RAM 103への更新が終わったら、ステップ S312に進む。
[0098] 一方、角 Θが所定の角度 φ以上であると判断された場合 (ステップ S309 ;No)、増 幅率 A1として変化率 clを、増幅率 A2として変化率 c2をそれぞれ採用するように、 RA M 103内を更新して(ステップ S311)、ステップ S312に進む。これは、発音体 411 と発音体 412が十分に離れており、両者のコントラストを明確にする必要がない場合 に相当する。たとえば、ステレオ音声出力や 5.1チャンネル音声出力で発音体の音 が発生している方向を示すような場合には、注目点 405から見た発音体 411、発音 体 412が仮想空間 401内で配置されている方向が離れている場合には、このような 差異の明確化が不要な場合もある。
[0099] なお、 cos 0や 0の計算ならびに Θと φの比較を一切省略して、常にステップ S310 の処理が行われることとしても良!、。
[0100] また、見込む角 Θを用いるのではなぐ仮想空間 401内における発音体 411と発音 体 412の距離 |rl(t)-r2(t)|が所定の閾値よりも小さいか否かによって判断することとし ても良い。
[0101] なお、音声処理部 110のハードウェアの態様によっては、ミキシング対象の音声情 報 al(t), a2(t)を設定した上で、所望の時刻で変化させるべき増幅率 Al, A2を直接指 示することとしている場合もある。このような場合には、 RAM 103に記憶して更新す る処理にかえて、音声処理部 110のハードウェアに増幅率 Al, A2を指定する指示を 出すこととすれば良い。
[0102] さて、このようにして、 RAM 103内に記憶される増幅率 Al, A2が更新された後は 、これらの発音体 411、発音体 412を含む仮想空間 401を注目点 405から見た三次 元グラフィックス画像を生成して (ステップ S312)、垂直同期割り込みが生じるまで待 機し (ステップ S313)、垂直同期割り込みが生じたら生成されたグラフィックス画像を フレームメモリに転送して(ステップ S314)、ステップ S304に戻る。
[0103] このように、本実施形態によれば、 2つの発音体が発する音声の差異を、これらに 割り当てられた音量係数に基づいて、より極立たせてコントラストを明確にすることが でき、本音声出力装置のユーザは、 2つの発音体の特徴を、一層はっきりと把握する ことがでさるよう〖こなる。
実施例 2
[0104] 以下で説明する実施形態は、 3つ以上の発音体がある場合 (で、かつ、すべてにつ いてコントラストを明確ィ匕したい場合)に対応するものである。すなわち、発音体が n個 あり、その音量係数が pi, p2, P3, · ··, pnであり、
pi > p3 >… > pn > p2
t 、う関係がある場合を考える。
[0105] まず、音量係数力 ¾1, p2, p3, · ··, pnである発音体のそれぞれに対する変化率は、 上記実施例と同様に求めることができ、
cl, c2, c3, · ··, cn
となるちのとする。 [0106] 次に、音量係数力 ¾1, p2であるものの増幅率 Al, A2は上記実施形態と同様に求め る。
[0107] あとは、音量係数が p3, · ··, pnである発音体のそれぞれに対する増幅率 A3, · ··, A nをどのように定める力、ということとなる。
[0108] このような場合に、たとえば、音量係数が pi (3≤ n)である発音体について、以下 のような種々の関係を満たすように、増幅率 Ai (3≤ n)を定める、という手法がありう る。
(1) Al/cl: Ai/ci = Ai/ci: A2/c2 ;すなわち、 Ai = ci X (Al XA2/(cl X c2))1 2
(2) Al/cl: Ai/ci = pi: pi ;すなわち、 Ai = ci X pi X Al/(cl X pl)
(3) A2/c2: Ai/ci = p2: pi;すなわち、 Ai = ci X pi X A2/(c2 X p2)
(4) (Al/cl - Ai/ci):(Ai/ci - A2/c2) = (pi - pi):(pi - p2) ;すなわち、内分を行うの である。
[0109] このような手法を採用することにより、 3つ以上の発音体がある場合にも、これらに割 り当てられた音量係数に基づいて、より極立たせてコントラストを明確にすることがで きる。
[0110] なお、本願については、日本国特許出願 特願 2005— 060312号 を基礎とする 優先権を主張するものとし、当該基礎出願の内容を、すべて、本願の内容として取り 込むものとする。
産業上の利用可能性
[0111] 以上説明したように、本発明によれば、 2つの発音体の音声の差異を明確にして臨 場感を高めるように出力するのに好適な音声出力装置、音声出力方法、ならびに、こ れらをコンピュータにて実現するプログラムを記録したコンピュータ読取可能な情報 記録媒体、および、当該プログラムを提供することができ、ゲーム装置において各種 の競争ゲーム等を実現する場合のほか、教育目的等で各種の仮想体験を提供する バーチャルリアリティ技術に適用することができる。

Claims

請求の範囲
[1] 仮想空間内を移動する 2つの発音体のそれぞれに対応付けられる音声情報および 音量係数を記憶する記憶部(202)、
当該仮想空間内における所定の注目点と当該 2つの発音体のそれぞれとの距離を 計算する距離計算部 (203)、
当該 2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算さ れた距離だけ離れることによって変化する変化率を計算する変化率計算部(204)、 当該 2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化 率よりも大きい増幅率を計算し、当該 2つの音量係数のうち小さい方に対応付けられ る発音体に対して、その変化率よりも小さい増幅率を計算する増幅率計算部 (205) 当該 2つの発音体のそれぞれに対応付けられる音声情報を前記当該発音体に対 して計算された増幅率で増幅して加算した音声を出力する混合出力部 (206) を備えることを特徴とする音声出力装置 (201)。
[2] 請求項 1に記載の音声出力装置(201)であって、
前記混合出力部(206)は、当該仮想空間内における当該所定の注目点の位置と 当該 2つの発音体の位置とが、所定の条件を満たす場合は、当該 2つの発音体のそ れぞれに対応付けられる音声情報を前記計算された変化率で増幅して加算した音 声を出力し、当該所定の条件を満たさない場合は、当該 2つの発音体のそれぞれに 対応付けられる音声情報を当該発音体に対して計算された増幅率で増幅して加算 した音声を出力する
ことを特徴とする物。
[3] 請求項 1に記載の音声出力装置(201)であって、
前記増幅率計算部(205)は、当該 2つの音量係数のうち大きい方の小さい方に対 する比により、当該 2つの音量係数のうち大きい方に対応付けられる発音体に対する 増幅率を、当該変化率に当該比を乗じたものとし、当該 2つの音量係数のうち小さい 方に対応付けられる発音体に対する増幅率を、当該変化率に当該比の逆数を乗じ たものとする ことを特徴とする物。
[4] 請求項 1に記載の音声出力装置(201)であって、
前記増幅率計算部(205)は、当該 2つの音量係数のうち大きい方の小さい方に対 する比の所定の羃乗により、当該 2つの音量係数のうち大きい方に対応付けられる発 音体に対する増幅率を、当該変化率に当該比の所定の羃乗を乗じたものとし、当該 2つの音量係数のうち小さい方に対応付けられる発音体に対する増幅率を、当該変 化率に当該比の所定の羃乗の逆数を乗じたものとする
ことを特徴とする物。
[5] 請求項 1に記載の音声出力装置(201)であって、
前記混合出力部(206)は、当該音声情報の加算に飽和加算を用いる
ことを特徴とする物。
[6] 仮想空間内を移動する 2つの発音体のそれぞれに対応付けられる音声情報および 音量係数が記憶される記憶部を用いる音声出力方法であって、
当該仮想空間内における所定の注目点と当該 2つの発音体のそれぞれとの距離を 計算する距離計算工程、
当該 2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算さ れた距離だけ離れることによって変化する変化率を計算する変化率計算工程、 当該 2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化 率よりも大きい増幅率を計算し、当該 2つの音量係数のうち小さい方に対応付けられ る発音体に対して、その変化率よりも小さい増幅率を計算する増幅率計算工程、 当該 2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計 算された増幅率で増幅して加算した音声を出力する混合出力工程
を備えることを特徴とする方法。
[7] コンピュータを、
仮想空間内を移動する 2つの発音体のそれぞれに対応付けられる音声情報および 音量係数を記憶する記憶部(202)、
当該仮想空間内における所定の注目点と当該 2つの発音体のそれぞれとの距離を 計算する距離計算部 (203)、 当該 2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算さ れた距離だけ離れることによって変化する変化率を計算する変化率計算部(204)、 当該 2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化 率よりも大きい増幅率を計算し、当該 2つの音量係数のうち小さい方に対応付けられ る発音体に対して、その変化率よりも小さい増幅率を計算する増幅率計算部 (205) 当該 2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計 算された増幅率で増幅して加算した音声を出力する混合出力部 (206)
として機能させることを特徴とするプログラムを記録したコンピュータ読取可能な情 報記録媒体。
[8] コンピュータを、
仮想空間内を移動する 2つの発音体のそれぞれに対応付けられる音声情報および 音量係数を記憶する記憶部(202)、
当該仮想空間内における所定の注目点と当該 2つの発音体のそれぞれとの距離を 計算する距離計算部 (203)、
当該 2つの発音体のそれぞれが発する音声の音量が、当該発音体について計算さ れた距離だけ離れることによって変化する変化率を計算する変化率計算部(204)、 当該 2つの音量係数のうち大きい方に対応付けられる発音体に対して、その変化 率よりも大きい増幅率を計算し、当該 2つの音量係数のうち小さい方に対応付けられ る発音体に対して、その変化率よりも小さい増幅率を計算する増幅率計算部 (205) 当該 2つの発音体のそれぞれに対応付けられる音声情報を当該発音体に対して計 算された増幅率で増幅して加算した音声を出力する混合出力部 (206)
として機能させることを特徴とするプログラム。
PCT/JP2006/303746 2005-03-04 2006-02-28 音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム WO2006093145A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/817,131 US20090023498A1 (en) 2005-03-04 2006-02-28 Voice output device, voice output method, information recording medium and program
EP06714876A EP1854516A4 (en) 2005-03-04 2006-02-28 VOICE OUTPUT DEVICE, VOICE OUTPUT PROCEDURE, INFORMATION RECORDING MEDIUM AND PROGRAM
CN2006800070243A CN101132838B (zh) 2005-03-04 2006-02-28 声音输出装置及其声音输出方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-060312 2005-03-04
JP2005060312A JP3863165B2 (ja) 2005-03-04 2005-03-04 音声出力装置、音声出力方法、ならびに、プログラム

Publications (1)

Publication Number Publication Date
WO2006093145A1 true WO2006093145A1 (ja) 2006-09-08

Family

ID=36941174

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/303746 WO2006093145A1 (ja) 2005-03-04 2006-02-28 音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム

Country Status (7)

Country Link
US (1) US20090023498A1 (ja)
EP (1) EP1854516A4 (ja)
JP (1) JP3863165B2 (ja)
KR (1) KR100903500B1 (ja)
CN (1) CN101132838B (ja)
TW (1) TWI305705B (ja)
WO (1) WO2006093145A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2075041A1 (en) * 2006-10-18 2009-07-01 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1607840T3 (da) 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
JP4561766B2 (ja) * 2007-04-06 2010-10-13 株式会社デンソー 音データ検索支援装置、音データ再生装置、プログラム
CN102186544B (zh) * 2008-01-17 2014-05-14 维沃克斯公司 用于在采用每个具象的渲染环境的虚拟现实系统中提供实时的每个具象的流数据的可扩展技术
TWI563850B (en) * 2012-09-07 2016-12-21 Hon Hai Prec Ind Co Ltd Spot detection system and method
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US9143880B2 (en) 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US10430150B2 (en) 2013-08-23 2019-10-01 Tobii Ab Systems and methods for changing behavior of computer program elements based on gaze input
CN104715753B (zh) * 2013-12-12 2018-08-31 联想(北京)有限公司 一种数据处理的方法及电子设备
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
WO2017098772A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190624A (ja) * 2001-12-26 2003-07-08 Konami Co Ltd ゲーム装置、及びプログラム
JP2005046270A (ja) 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc ゲーム装置、コンピュータの制御方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2684833B2 (ja) * 1990-09-11 1997-12-03 ヤマハ株式会社 楽音信号発生装置
US5633993A (en) * 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system
JP3377272B2 (ja) * 1993-12-22 2003-02-17 株式会社ナムコ マルチプレーヤ型ゲーム装置
JPH1073525A (ja) * 1996-08-30 1998-03-17 Shimadzu Corp 比重測定装置
EP0961523B1 (en) * 1998-05-27 2010-08-25 Sony France S.A. Music spatialisation system and method
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
JP4226238B2 (ja) * 2001-09-18 2009-02-18 日本放送協会 音場再現装置
JP2004267433A (ja) 2003-03-07 2004-09-30 Namco Ltd 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
US7928311B2 (en) * 2004-12-01 2011-04-19 Creative Technology Ltd System and method for forming and rendering 3D MIDI messages

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190624A (ja) * 2001-12-26 2003-07-08 Konami Co Ltd ゲーム装置、及びプログラム
JP2005046270A (ja) 2003-07-31 2005-02-24 Konami Computer Entertainment Yokyo Inc ゲーム装置、コンピュータの制御方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1854516A4
vol. 1ST EDIT, IMPRESS CORP., article GOES DE J. ET AL: "DirectX 3d Game Programming Nyumon", XP003000794 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2075041A1 (en) * 2006-10-18 2009-07-01 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
EP2075041A4 (en) * 2006-10-18 2009-09-23 Konami Digital Entertainment GAME DEVICE, MESSAGE DISPLAY METHOD, INFORMATION RECORDING MEDIUM, AND PROGRAM
US8137191B2 (en) 2006-10-18 2012-03-20 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program

Also Published As

Publication number Publication date
US20090023498A1 (en) 2009-01-22
KR100903500B1 (ko) 2009-06-18
JP2006239211A (ja) 2006-09-14
TW200701824A (en) 2007-01-01
EP1854516A1 (en) 2007-11-14
EP1854516A4 (en) 2008-05-21
JP3863165B2 (ja) 2006-12-27
CN101132838A (zh) 2008-02-27
CN101132838B (zh) 2010-09-08
TWI305705B (en) 2009-01-21
KR20070104625A (ko) 2007-10-26

Similar Documents

Publication Publication Date Title
WO2006093145A1 (ja) 音声出力装置、音声出力方法、情報記録媒体、ならびに、プログラム
KR100995735B1 (ko) 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체
WO2007105689A1 (ja) ゲーム音出力装置、ゲーム音制御方法、情報記録媒体、および、プログラム
US7330769B2 (en) Parameterized interactive control of multiple wave table sound generation for video games and other applications
WO2007145209A1 (ja) ゲーム音出力装置、ゲーム音制御方法、情報記録媒体、および、プログラム
TWI322631B (en) Audio processing device, audio processing method, and information recording medium
WO2007122951A1 (ja) 画像生成装置、画像生成方法、情報記録媒体、ならびに、プログラム
JP4584203B2 (ja) 音声シミュレーション装置、音声シミュレーション方法、ならびに、プログラム
EP1795240B1 (en) Game machine, game machine control method, information recording medium, and program
WO2010084830A1 (ja) 音声処理装置、チャットシステム、音声処理方法、情報記憶媒体、ならびに、プログラム
JP4437993B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP5357805B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP2008241772A (ja) 音声画像処理装置、音声画像処理方法、ならびに、プログラム
JP2007166157A (ja) プログラム、情報記憶媒体、及びデータ再生システム
JP2011024648A (ja) ゲーム装置、ゲーム制御方法、ならびに、プログラム
JP2012249031A (ja) ゲーム装置、ゲーム処理方法、ならびに、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680007024.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006714876

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077019284

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11817131

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006714876

Country of ref document: EP