[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2011080878A1 - 画像再生装置及び表示装置 - Google Patents

画像再生装置及び表示装置 Download PDF

Info

Publication number
WO2011080878A1
WO2011080878A1 PCT/JP2010/007088 JP2010007088W WO2011080878A1 WO 2011080878 A1 WO2011080878 A1 WO 2011080878A1 JP 2010007088 W JP2010007088 W JP 2010007088W WO 2011080878 A1 WO2011080878 A1 WO 2011080878A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
speed
unit
data
content data
Prior art date
Application number
PCT/JP2010/007088
Other languages
English (en)
French (fr)
Inventor
島崎 浩昭
津田 賢治郎
重里 達郎
弘道 小野
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/387,198 priority Critical patent/US20120120207A1/en
Priority to JP2011547269A priority patent/JPWO2011080878A1/ja
Publication of WO2011080878A1 publication Critical patent/WO2011080878A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Definitions

  • the present invention relates to an image reproduction device and a display device for reproducing content data for allowing a viewer to view a stereoscopic image.
  • content data for allowing a viewer to view a stereoscopic video includes a left-eye image for viewing with the left eye and a right-eye image for viewing with the right eye.
  • the image for the left eye represents an image that appears in the field of view that expands with the viewer's left eye as the viewpoint
  • the image for the right eye represents an image that appears in the field of view that expands with the viewer's right eye as the viewpoint.
  • these images are displayed alternately on the display, for example.
  • the viewer wears a dedicated eyeglass device for viewing a stereoscopic image and views the image on the display. While the image for the left eye is displayed on the display, the eyeglass device blocks the transmission of light to the right eye and allows the transmission of light to the left eye. While the image for the right eye is displayed on the display, the eyeglass device blocks the transmission of light to the left eye and allows the transmission of light to the right eye.
  • the viewer processes the difference (parallax) between the images in the retina of the right eye and the left eye in the brain to perceive depth and pop-out.
  • the image is perceived as being close to the display surface, and if the amount of parallax is large, the image is perceived as being away from the display surface.
  • the viewer can perceive the object in the image projected on the display in a three-dimensional manner.
  • Patent Document 1 proposes a technique for displaying an image as a two-dimensional image during the high-speed playback mode in order to eliminate such a problem.
  • content data is reproduced as a two-dimensional video during the high-speed reproduction mode, so that the viewer can grasp the movement of the object in the content data relatively easily.
  • an image playback device such as a DVD player or a Blu-ray player
  • a playback of content data in a fast-view playback in addition to the playback of content data in the above-described standard playback and high-speed playback.
  • the content data is played back at a speed faster than the standard playback speed. It is played back at a speed slower than the speed, and sound is played back together with the video.
  • the viewer can grasp the content of the content in a shorter time than the standard playback speed while listening to the sound included in the content data that has not been played back at high speed playback.
  • a mode for playback at 1.3 times or 1.5 times the standard playback speed of content data is incorporated as a quick-view playback mode.
  • the present invention provides an image reproducing apparatus that allows a viewer to perceive an object in content data in a three-dimensional manner so that the viewer can grasp the content of the content in a relatively short time and can suppress fatigue on the viewer's eyes. And a display device.
  • An image reproduction device provides content data for stereoscopically perceiving video using video data including a first image for a first viewpoint and a second image for a second viewpoint.
  • a reproduction unit that reproduces the content data, a setting unit that sets a reproduction speed when reproducing the content data, and a gap between the first image and the second image according to the reproduction speed set by the setting unit.
  • An adjustment unit that adjusts parallax information related to the parallax.
  • a display device provides content data for stereoscopically perceiving video using video data including a first image for a first viewpoint and a second image for a second viewpoint.
  • a playback unit for playback According to the playback speed set by the setting unit, a playback unit for playback, a display unit for displaying the video data, a setting unit for setting a playback speed when the content data is played back, An adjustment unit that adjusts parallax information related to parallax between the image and the second image.
  • FIG. 1 is a schematic configuration diagram of a video system in which a television device including an image reproduction device according to a first embodiment is incorporated. It is a figure which illustrates roughly the amount of parallax between the images imaged from a different viewpoint.
  • FIG. 2 is a block diagram schematically showing a configuration of the image reproduction device shown in FIG. 1. It is a block diagram which shows schematically the structure of the spectacles apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG.
  • FIG. 4 It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of the image adjustment by the adjustment part of the image reproduction apparatus shown by FIG. It is a figure which shows roughly an example of audio
  • FIG. 1 schematically shows a video system including a television apparatus including an image reproduction apparatus according to the first embodiment.
  • the video system in FIG. 1 is merely an example, and is suitable for viewing other 3D stereoscopic video as compared to the video display method and the video viewing method. Any technique may be applied.
  • the video system 1 includes a television device 2 exemplified as a display device, and a glasses device 3 for assisting viewing of the video displayed by the television device 2.
  • the television device 2 includes a display device 21 for displaying video, an image playback device 23 for outputting a stereoscopic video signal to the display device 21, and a remote controller 25 for operating the image playback device 23 and / or the display device 21.
  • the remote controller 25 includes a plurality of buttons 251 for the viewer to input desired instructions to the image playback device 23 and / or the display device 21, and the instructions input by the viewer as control signals. And / or a transmitter 252 for transmitting to the display device 21.
  • control signal may be transmitted as an infrared signal or an RF signal, and an instruction desired by the viewer can be transmitted to the image reproduction device 23 and / or the display device 21. It may be transmitted by other techniques.
  • the viewer can operate the remote controller 25 to control the playback speed of the image playback device 23.
  • the image playback device 23 includes a storage unit 231 for storing a storage medium (not shown in FIG. 1) such as a DVD disc or a Blu-ray disc, and a receiving unit 232 for receiving a control signal from the remote controller 25.
  • Content data provided (viewed) to the viewer is stored in the storage medium.
  • the content data includes video data and / or audio data.
  • the image reproduction device 23 reproduces content data based on a control signal from the remote controller 25 and outputs a stereoscopic video signal and an audio signal to the display device 21.
  • the video data includes a left-eye image obtained by imaging an object in the left-eye field of view and a right-eye image obtained by imaging an object in the right-eye field of view.
  • the viewer's left eye is exemplified as the first viewpoint.
  • the right eye of the viewer is exemplified as the second viewpoint.
  • the viewer's right eye may be the first viewpoint
  • the viewer's left eye may be the second viewpoint.
  • an image created so as to be viewed with the left eye is exemplified as the first image.
  • An image created so as to be viewed with the right eye is exemplified as the second image.
  • an image created to be viewed with the right eye may be used as the first image
  • an image created to be viewed with the left eye may be used as the second image.
  • the objects represented in the left eye image and the right eye image are viewed by the viewer. Perceived three-dimensionally.
  • the display device 21 includes a display panel 211 that is used as a display unit that displays a stereoscopic video signal as a stereoscopic video, a speaker 212 that is used as an audio output unit that outputs an audio signal as audio, and an image displayed on the display panel 211. And a transmission unit 213 for outputting a synchronization signal for synchronizing the operation of the eyeglass device 3 to the frame.
  • the display panel 211 alternately displays a frame of an image for the right eye and a frame of an image for the left eye.
  • the speaker 212 outputs sound corresponding to the video displayed on the display panel 211.
  • the transmission unit 213 outputs a synchronization signal in synchronization with switching between a frame for the right eye image and a frame for the left eye image.
  • the display panel 211 include a plasma display panel, a liquid crystal panel, a device using a CRT, a device using organic electroluminescence, and other devices that allow a viewer to visually recognize a video based on a stereoscopic video signal. Used.
  • the synchronization signal may be transmitted as infrared rays, may be transmitted as an RF signal, or may be transmitted by any other method capable of transmitting the synchronization signal to the eyeglass device 3.
  • the eyeglass device 3 has the same shape as eyesight correction glasses.
  • the eyeglass device 3 includes an optical filter unit 33 including a left eye filter 31 disposed in front of the viewer's left eye wearing the eyeglass device 3 and a right eye filter 32 disposed in front of the viewer's right eye.
  • a receiving unit 34 disposed between the eye filter 31 and the right eye filter 32.
  • the left eye filter 31 and the right eye filter 32 can optically adjust the amount of light that is optically transmitted to the left eye and the right eye.
  • the left eye filter 31 and the right eye filter 32 may adjust the amount of light by blocking an optical path of light transmitted to the left eye and right eye, or may transmit light transmitted to the left eye and right eye.
  • the amount of light may be adjusted by deflecting.
  • a liquid crystal element is preferably used for the left eye filter 31 and the right eye filter 32.
  • the receiving unit 34 receives the synchronization signal transmitted from the display device 21.
  • the eyeglass device 3 controls the optical filter unit 33 based on the synchronization signal.
  • the eye filter 32 reduces the amount of light that reaches the viewer's right eye.
  • the right-eye image frame is displayed on the display panel 211, light from the image frame is transmitted to the viewer's right eye through the right-eye filter 32, while the left-eye filter 31 is viewed. The amount of light reaching the left eye of the person is reduced.
  • the viewer views the left-eye image frame with the left eye and the right-eye image frame with the right eye, and the left-eye image object included in the video data and The object of the image for the right eye is perceived three-dimensionally.
  • the three-dimensionally perceived object is perceived by the viewer as if it pops out from the display panel to the viewer side or retracts deeply with respect to the display panel.
  • FIG. 2 shows an example of a three-dimensional image.
  • FIG. 2A shows a left-eye image and a right-eye image when the amount of parallax between the left-eye image and the right-eye image is “0”, Or perceived video.
  • FIG. 2B shows a left-eye image and a right-eye image when the amount of parallax between the left-eye image and the right-eye image is “positive value”, and viewing by the viewer. And / or perceived video.
  • FIG. 2A shows a left-eye image and a right-eye image when the amount of parallax between the left-eye image and the right-eye image is “0”, Or perceived video.
  • FIG. 2B shows a left-eye image and a right-eye image when the amount of parallax between the left-eye image
  • FIG. 2C shows the left-eye image and the right-eye image when the amount of parallax between the left-eye image and the right-eye image is a “negative value”, and viewing by the viewer. And / or perceived video.
  • the definitions of “positive” and “negative” of the parallax amount described above are for clarity of explanation, and do not limit the principle of this embodiment. Therefore, the relationship between the image for the left eye and the image for the right eye shown in FIG. 2B is defined as a “negative value”, and the image for the left eye and the image for the right eye shown in FIG. The image relationship may be defined as a “positive value”.
  • FIG. 2 shows the object position on the display panel 211 and the position of the object perceived by the viewer with respect to the display panel 211.
  • the diagram shown in the middle part of FIG. 2 shows an image for the right eye displayed on the display panel 211.
  • the figure shown in the lower part of FIG. 2 shows an image for the left eye displayed on the display panel 211.
  • trees are shown as objects.
  • object used in the description of the present embodiment means an image of an object in an image perceived by a viewer.
  • symbol R shown by FIG. 2 shows a viewer's right eye, and the code
  • a symbol F shown in FIG. 2 indicates an object perceived stereoscopically by the viewer.
  • FIG. 2 (b) positioned on the right side area of the object O L display panel 211 in the image for the left eye, the left area of the object O R display panel 211 in the image for the right eye position, and left for convergence point (object O L between these objects O L, O when the difference between the position of R is "X 1" (X 1 is a positive value), the left eye L and right eye R
  • the intersection of the line of sight from the eye L and the line of sight from the right eye R with respect to the object OR is closer to the viewer than the display panel 211.
  • the object F is perceived by the viewer so as to exist on the convergence point closer to the viewer from the display panel 211.
  • a distance Y 1 between the object F and the display panel 211 shown in FIG. 2B is exemplified as the pop-out amount of the object F.
  • the left eye L and right eye R located in the left area of the object O L display panel 211 in the image for the left eye, the right area of the object O R display panel 211 in the image for the right eye position, and convergence point between these objects O L, O when the difference between the position of R is "X 2" (X 2 is a negative value), the left eye L and right eye R, from the display panel 211 Will be far from the viewer.
  • the object F is perceived by the viewer so that the object F exists on a convergence point farther from the viewer than the display panel 211.
  • Distance Y 2 between the object F and the display panel 211 shown in FIG. 2 (C) is exemplified as the pressed amount of the object F.
  • object O L As shown in FIG. 2, object O L, as the absolute value of the difference in the position of the O R increases, the distance from the display panel 211 to the object F is increased, the absolute of the difference between the position of the object O L, O R As the value decreases, the distance from the display panel 211 to the object F (the pop-out amount Y 1 or the pull-in amount Y 2 ) decreases.
  • the object O L the difference between X 1 of the position of the O R, X 2 (i.e., the parallax amount) is exemplified as the parallax information about the parallax.
  • the display panel 211 or the object O L other parameters for a viewer from the display surface for displaying an O R increases or decreases the distance to the object F to perceive may be used as the parallax information.
  • parameters (parallax information) other than the parallax amount may be adjusted in order to increase the distance from the display surface to the object F (the pop-out amount Y 1 or the pull-in amount Y 2 ).
  • parameters other than the parallax amount (disparity information) may be adjusted.
  • Examples of adjusting parameters other than the amount of parallax include, for example, adding a shadow to an object, changing the luminance of the object itself, and changing the color of the object through video signal processing. Using such various methods, the sense of distance perceived by the viewer may be adjusted.
  • the display device 21 uses an image frame for the left eye and an image frame for the right eye, for example, a frame rate of 120 Hz (an image frame for the left eye and an image frame for the right eye). In total, 120 frames are displayed per second).
  • the standard reproduction speed is defined as a reproduction speed at which each frame of the image signal on the recording medium is output and displayed without skipping / holding. In the present embodiment, the standard reproduction speed is exemplified as the first speed.
  • the reproduction of content data at the standard reproduction speed by the image reproduction device 23 is exemplified as the first mode.
  • the quick-play speed is defined as a playback speed that is 1.3 times the standard playback speed.
  • the quick-view playback speed may be defined as another playback speed that is faster than the standard playback speed and that allows the viewer to understand the content of the content data.
  • playback frames are skipped at a rate of 1 per 1.3 frames.
  • the normal speed 120 frames per second
  • 156 playback frames are obtained per second. Since one frame is skipped at a time, the display time of each playback frame is substantially equal to that of normal playback.
  • the output to the display device 21 is 120 frames per second.
  • the quick-view playback speed is exemplified as the second speed.
  • the reproduction of content data at the fast playback speed by the image playback device 23 is exemplified as the second mode.
  • the high-speed playback speed is defined as a playback speed that is twice the standard playback speed.
  • the fast playback speed may be defined as another playback speed that is faster than the fast-play playback speed.
  • playback frames are skipped at a rate of 1 per 2 frames.
  • the output to the display device 21 is 120 frames per second.
  • the reproduction of content data at a high reproduction speed by the image reproduction device 23 is exemplified as the third mode.
  • the speed increase from the standard playback speed to the fast playback speed or the high speed playback speed is achieved by skipping the playback frame.
  • the increase from the normal playback speed to the fast playback speed or the fast playback speed may be achieved by shortening the display time of each playback frame.
  • viewing of a stereoscopic video at a fast playback speed that is faster than the standard playback speed is greater than viewing of a stereoscopic video at the standard playback speed of the object F perceived by the viewer. Since the position fluctuates at high speed, the burden on the viewer's eyes increases.
  • FIG. 3 is a schematic block diagram illustrating the configuration of the display device 21 and the image playback device 23 shown in FIG.
  • the image reproduction device 23 is described with reference to FIGS. 1 to 3.
  • the storage unit 231 of the image playback device 23 accommodates a storage medium 233 (for example, a Blu-ray disc or a DVD disc) that stores content data such as movies and music videos.
  • the image reproduction device 23 includes a medium control unit 234 for controlling the storage medium 233.
  • the medium control unit 234 controls a reproduction protocol such as a drive device (not shown) for driving the storage medium 233 and a reproduction address setting procedure.
  • the receiving unit 232 receives a control signal from the remote controller 25 as described with reference to FIG.
  • the image playback device 23 includes a control unit 235.
  • the control unit 235 controls the entire image playback device 23.
  • the receiving unit 232 outputs a control signal including operation information input by the viewer to the control unit 235.
  • the image reproduction device 23 includes a reproduction unit 236 that reproduces content data stored in the storage medium 233, an image signal processing unit 237 that processes an image signal generated based on video data included in the content data, and an image signal processing unit 237.
  • the adjustment unit 238 that adjusts the amount of parallax between the left-eye image and the right-eye image (for example, the parallax amounts X 1 and X 2 described with reference to FIG. 2) based on the image signal processed by.
  • the audio signal processing unit 239 that processes the audio signal generated based on the audio data included in the content data, and the control signal output from the control unit 235, the medium control unit 234, the reproduction unit 236, the image signal processing unit 237, the adjustment A bus 240 for transmission to the unit 238 and the audio signal processing unit 239.
  • the control unit 235 controls each of the medium control unit 234, the reproduction unit 236, the image signal processing unit 237, the adjustment unit 238, and the audio signal processing unit 239 via the bus 240 based on the control signal from the reception unit 232. These control signals are transmitted to control these. As a result, the image reproduction device 23 performs an image reproduction process.
  • the control unit 235 controls the medium control unit 234 and the playback unit 236, and in accordance with the operation of the remote controller 25 by the viewer, the playback speed of the content data stored in the storage medium 233 is higher than the standard playback speed and the standard playback speed. It is possible to switch to the fast playback speed that is faster than the fast playback speed.
  • the control unit 235 is exemplified as a setting unit that sets a reproduction speed when reproducing content data. The control unit 235 selectively sets the playback mode at the standard playback speed, the playback mode at the fast playback speed, and the playback mode at the high speed playback speed according to the operation of the remote controller 25 by the viewer.
  • the adjustment unit 238 determines whether the image for the left eye and the image for the right eye are in accordance with the playback speed (standard playback speed, fast-play playback speed, high-speed playback speed) controlled by the control unit 235. Adjust the amount of parallax. Alternatively, the adjusting unit 238 adjusts another parameter (for adjusting the pop-out amount or the pull-in amount of the object F perceived by the viewer according to the playback speed (standard playback speed, fast-view playback speed, high-speed playback speed)). (Parallax information) may be adjusted.
  • the image reproduction device 23 may further include an image generation unit 241 for generating a menu image for the viewer to list the content data stored in the storage medium 233.
  • the image generation unit 241 receives a control signal from the control unit 235 via the bus 240. Thereafter, the image generation unit 241 generates a menu image based on the control signal.
  • the reproduction unit 236 reads image data to be reproduced from the video data of the content data stored in the storage medium 233. Thereafter, the reproduction unit 236 outputs image data 361 corresponding to the image for the left eye and image data 362 corresponding to the image for the right eye to the image signal processing unit 237 from the read image data. The reproduction unit 236 further reads out audio data to be reproduced from the content data stored in the storage medium 233. Thereafter, the reproduction unit 236 outputs the audio data to the audio signal processing unit 239. The reproduction unit 236 further reads auxiliary data related to the image data to be reproduced from the content data stored in the storage medium 233. Thereafter, the playback unit 236 outputs auxiliary data to the control unit 235 via the bus 240.
  • the image signal processing unit 237 is applied to the image data 361 corresponding to the image for the left eye and the image data 362 corresponding to the image for the right eye output from the reproduction unit 236, as necessary, at the time of recording.
  • a decompression process for compression encoding such as H.264 or a display image quality adjustment process may be applied.
  • the image data 371 corresponding to the left-eye image and the image data 372 corresponding to the right-eye image that have been subjected to these processes are output to the adjustment unit 238.
  • the menu image generated by the image generation unit 241 may be output to the image signal processing unit 237.
  • the image signal processing unit 237 may output the menu image to the adjustment unit 238 as it is.
  • the image signal processing unit 237 may multiplex the menu image with the image data 371 corresponding to the image for the left eye and the image data 372 corresponding to the image for the right eye and output the menu image to the adjustment unit 238. Good.
  • the adjustment unit 238 controls the parallax between the image data 371 corresponding to the left-eye image and the image data 372 corresponding to the right-eye image output from the image signal processing unit 237 under the control of the control unit 235. Adjust the amount.
  • the image data 381 corresponding to the image for the left eye and the image data 382 corresponding to the image for the right eye for which the parallax amount has been adjusted are output to the display panel 211 of the display device 21.
  • the audio signal processing unit 239 performs audio signal processing such as equalizer processing on the audio data output from the reproduction unit 236 as necessary. Thereafter, the audio signal processing unit 239 outputs the audio signal 390 after the audio signal processing to the speaker 212 of the display device 21.
  • the display device 21 includes a synchronization signal generation unit 215 used for synchronization control between the television device 2 and the eyeglass device 3.
  • the synchronization signal generation unit 215 generates a synchronization signal with the eyeglass device 3 based on the image signal output from the image reproduction device 23 to the display device 21, and outputs the synchronization signal to the transmission unit 213.
  • the transmission unit 213 outputs the synchronization signal generated by the synchronization signal generation unit 215 toward the reception unit 34 of the eyeglass device 3.
  • control unit 235 of the image reproduction device 23 may output the mode control signal 242 to the synchronization signal generation unit 215.
  • This mode control signal 242 may or may not be necessary depending on the glasses control method for high-speed playback described later.
  • the mode control signal 242 can be output, for example, according to inter-device control according to the HDMI CEC standard.
  • FIG. 4 is a block diagram illustrating the configuration of the eyeglass device 3 shown in FIG. The eyeglass device 3 will be described with reference to FIGS. 1 to 4.
  • the eyeglass device 3 includes a reception unit 34, an internal signal generation unit 38, an optical filter control unit 39, and an optical filter unit 33.
  • the reception unit 34 receives the synchronization signal transmitted from the transmission unit 213 of the display device 21, converts it into an electrical timing control signal, and outputs it to the internal signal generation unit 38.
  • the internal signal generation unit 38 generates an internal signal for controlling each unit in the eyeglass device 3 based on the timing control signal.
  • the optical filter control unit 39 controls the operations of the left eye filter 31 and the right eye filter 32 of the optical filter unit 33 based on the internal signal generated by the internal signal generation unit 38.
  • the left eye filter 31 allows transmission of light to the viewer's left eye
  • the right eye filter 31 The eye filter 32 reduces the amount of light transmitted to the viewer's right eye.
  • the right eye filter 32 allows light to be transmitted to the viewer's right eye while the left eye filter 32
  • the eye filter 31 reduces the amount of light transmitted to the viewer's right eye.
  • the control unit 235 via the bus 240, the playback unit 236, the image signal processing unit 237, the adjustment unit 238, medium control Control unit 234, image generation unit 241, and audio signal processing unit 239, and content data (video data and audio data) from storage medium 233 at a fast playback speed (for example, a playback speed 1.3 times the standard playback speed).
  • a fast playback speed for example, a playback speed 1.3 times the standard playback speed.
  • the image signal processing unit 237 thins out images in the video data and outputs the image data 371 and 372 to the adjustment unit 238. As a result, the temporal change in the amount of parallax increases.
  • the adjustment unit 238 executes a process for adjusting the parallax amount so as to reduce the temporal change in the parallax amount.
  • FIG. 5 is a diagram for explaining processing for adjusting the amount of parallax by the adjustment unit 238.
  • FIG. 5A shows a left-eye image and a right-eye image included in content data (video data) stored in the storage medium 233.
  • FIG. 5B shows a process of determining the shift amount by the adjustment unit 238.
  • FIG. 5C shows an image for the left eye and an image for the right eye after the amount of parallax is adjusted by the adjustment unit 238. In the upper part of FIG. 5, an image for the left eye is shown. In the lower part of FIG. 5, an image for the right eye is shown. Processing for adjusting the amount of parallax by the adjustment unit 238 will be described with reference to FIGS. 1 to 3 and FIG. 5.
  • the parallax amount between the image for the left eye and the image for the right eye contained in the content data stored in the storage medium 233 is indicated by a symbol “X 3 ” in FIG.
  • the adjustment unit 238 When the viewer operates the remote controller 25 and selects the standard playback speed, the adjustment unit 238 outputs video signals (image data 381, 382) to the display device 21 while maintaining the parallax amount.
  • the adjusting unit 238, as shown in FIG. 5B the trim region T L having a predetermined width from the left edge of the image for the left eye. and determining a trim region T R of a predetermined width from the right edge of the image for the right eye.
  • the adjustment unit 238 moves the area of the image for the left eye except trim region T L in an amount corresponding right width of the trim region T L.
  • the image data in the trim area T L disappears, but an area N L in which no image data having a width equal to the width of the trim area T L exists along the right edge of the image for the left eye.
  • supplemental image data may be embedded so as to be displayed in gray, for example.
  • the adjustment unit 238 moves the area of the image for the right eye than the trim region T R in an amount corresponding right width of the trim region T R.
  • the image data of the trim area T R While disappear, region N R occurs that the image data of width equal to the width of the trim region T R is absent along the left edge of the image for the right eye.
  • This area image data does not exist N R, for example, supplementary image data may be embedded so as to be displayed in gray.
  • the image and the right eye left eye The image is shifted.
  • the amount of parallax between the image for the image and a right eye for the left eye is To reduce.
  • the reduced amount of parallax is indicated by a symbol “X 4 ” in FIG. Therefore, the adjustment unit 238 can reduce the amount of parallax while the content data is being played at the fast playback speed, rather than the amount of parallax while the content data is being played at the standard playback speed. .
  • trim region T L, the width of the T R is preferably larger as the playback speed increases.
  • the parallax amount is adjusted to be smaller at a relatively fast preview playback speed, and the parallax amount is adjusted to be larger at a relatively slow preview playback speed.
  • Trim region T L, the width of the T R, using a predetermined arithmetic expression for the playback speed as a parameter may be computed and determined.
  • the trim region T L corresponding to each Hayami playback speed, the look-up table indicating the width of the T R may be provided.
  • Adjustment unit 238, trim area is prepared in the look-up table T L, the T R, trimmed region T L corresponding to a particular Hayami playback speed determined by the operation of the remote controller 25 by the viewer, the T R You may choose.
  • the width of the trim region T L with respect to the image for the left eye is preferably equal to the width of the trim region T R with respect to the image for the left eye.
  • FIG. 6 is a diagram for explaining another process for adjusting the amount of parallax by the adjustment unit 238.
  • FIG. 6A shows a left-eye image and a right-eye image included in the content data (video data) stored in the storage medium 233.
  • FIG. 6B shows a step of determining the reduction amount by the adjustment unit 238.
  • FIG. 6C shows an image for the left eye and an image for the right eye after the reduction amount is adjusted by the adjustment unit 238.
  • the upper part of FIG. 6 shows an image for the left eye, and the lower part shows an image for the right eye.
  • the process for adjusting the amount of parallax by the adjustment unit 238 will be described with reference to FIGS. 1 to 3 and FIG. 6.
  • the amount of parallax between the image for the left eye and the image for the right eye included in the content data stored in the storage medium 233 is indicated by a symbol “X 3 ” in FIG.
  • the adjustment unit 238 When the viewer operates the remote controller 25 and selects the standard playback speed, the adjustment unit 238 outputs video signals (image data 381, 382) to the display device 21 while maintaining the parallax amount.
  • the adjustment unit 238 determines the display area D of the reduced image as shown in FIG.
  • the display area D is an area having a similar shape to the display area of the left-eye image and the right-eye image included in the content data.
  • the position of the display area D is determined so that the center of the display area D coincides with the display area of the left-eye image and the right-eye image included in the content data.
  • the adjustment unit 238 reduces the left-eye image and the right-eye image to an area having a size determined by the display area D.
  • a region N in which no image data exists is generated along the periphery of the reduced image for the left eye and the image for the right eye.
  • supplemental image data may be embedded so as to be displayed in gray, for example.
  • the adjustment unit 238 can reduce the amount of parallax while the content data is being played at the fast playback speed, rather than the amount of parallax while the content data is being played at the standard playback speed.
  • the image reduction rate by the adjusting unit 238 is increased as the playback speed increases.
  • the parallax amount is adjusted to be smaller at a relatively fast preview playback speed, and the parallax amount is adjusted to be larger at a relatively slow preview playback speed.
  • the image reduction rate by the adjustment unit 238 may be calculated and determined using a predetermined calculation formula using the playback speed as a parameter. Alternatively, a look-up table indicating the image reduction rate corresponding to each fast-playing playback speed may be prepared.
  • the adjustment unit 238 may select an image reduction rate corresponding to a specific quick-view playback speed determined by the operation of the remote controller 25 by the viewer from the image reduction rate prepared in the lookup table.
  • FIG. 7 is a diagram for explaining another process for adjusting the amount of parallax by the adjustment unit 238.
  • FIG. 7A to FIG. 7D sequentially show processing performed by the adjustment unit 238.
  • the image shown in FIG. 7 is an image for the right eye.
  • the processing by the adjustment unit 238 described in relation to FIG. 7 can be similarly applied to the image for the left eye. Processing for adjusting the amount of parallax by the adjustment unit 238 will be described with reference to FIGS. 1 to 3 and FIGS. 5 to 7.
  • the adjustment unit 238 processes the entire image.
  • the adjustment unit 238 executes processing for each object in the image. Therefore, the adjustment unit 238 includes a segmentation unit that segments the first image and the second image, and a partition identification unit that identifies a partition contributing to the display of the object among the partitions obtained by the segmentation. And a changing unit that changes the display position of the image data included in the section identified by the identifying unit.
  • the segmenting unit segments the image into a plurality of rectangular sections as shown in FIG. Segment identifier portion identifies the partition contributing to display of the object O R in the image.
  • segment identifier unit determines whether each section of the image is contributed to the display of the object O R, a region C that contribute to the display of the object O R decide.
  • the changing unit then moves the display position of the image data included in the region C to the right.
  • the amount of movement of the display position of the image data included in the area C is appropriately determined according to the size of the fast-playing playback speed.
  • a region N in which no image data exists is generated on the left side of the region C.
  • complementary image data is embedded using the image data of the surrounding sections.
  • the adjustment unit 238 can reduce the amount of parallax while the content data is being played at the fast playback speed, rather than the amount of parallax while the content data is being played at the standard playback speed.
  • Changing unit further includes a reference convergence angle and theta r, object O L, O positional difference between R is X 1 or object O L, O positional difference between R is or convergence angle theta 1 when a X 2 theta 2 using the absolute value it has been described in connection with the object O L so it is smaller at the time of reproduction at Hayami playback speed than during reproduction at normal reproduction speed, the O R 7 method of the difference between Can be moved.
  • FIG. 8 is a diagram for explaining the movement of an object when there are a plurality of objects perceived in three dimensions. The movement of the object will be further described with reference to FIGS. 2, 3, 7 and 8.
  • the adjustment unit 238 may perform the image processing described with reference to FIG. 7 on a specific object among a plurality of objects displayed in the first image and the second image. For this reason, the adjustment unit 238 preferably includes an object identification unit that identifies a specific object. As shown in FIG. 8, when there are a plurality of objects F 1 to F 4 that are perceived three-dimensionally by the viewer, the object identification unit displays the object O in the image for the left eye and the image for the right eye. L, based on the position difference X 1 or X 2 in O R, to identify a second object that is perceived to reside farthest from the first object to be perceived to reside closest to the viewer it can.
  • the object identified as the first object code F 1 is attached to the object identified as the second object code F 4 are assigned.
  • the changing unit will be described with reference to FIGS. 2 and 7 as an object to which the object F 1 that is perceived to be located closest to the viewer and the object F 4 that is perceived to be located farthest are moved. These can be moved in the image using the proposed technique. Since the amount of projecting and / or pulling-in objects from the display panel 211 perceived by the viewer is reduced, the burden on the viewer's eyes is reduced.
  • FIG. 9 is a diagram for explaining another method of moving an object when there are a plurality of objects perceived stereoscopically. With reference to FIGS. 2, 3, 7, and 9, another method of moving the object is further described.
  • the object identification unit may select an object to be moved based on a threshold value provided for the distance from the display panel 211 to the object perceived by the viewer.
  • Figure 9 is a line representing a threshold value T 1 of the side pops out close to the only viewer side distance Y 3 from the display panel 211 position is indicated. Further, in FIG. 9, lines representing the threshold value T 2 pull side at a position spaced from the viewer from the display panel 211 by a distance Y 4 are shown.
  • FIG. 9 shows the objects F 1 and F 2 that are perceived in the region between the line representing the threshold value T 1 and the line representing the threshold value T 2 . Further, the objects F 3 and F 4 are shown at positions closer to the viewer side than the line representing the threshold value T 1 . Further, the objects F 5 and F 6 are shown at positions farther from the viewer than the line representing the threshold value T 2 .
  • the object discriminating unit moves the objects F 3 and F 4 closer to the viewer side than the line representing the threshold value T 1 and the objects F 5 and F 6 farther from the viewer than the line representing the threshold value T 2. Select as an object.
  • the changing unit changes the display position of the selected objects F 3 , F 4 , F 5 , and F 6 using the method described with reference to FIGS. 2 and 7. Since the amount of projecting and / or pulling-in objects from the display panel 211 perceived by the viewer is reduced, the burden on the viewer's eyes is reduced.
  • FIG. 10 is a diagram for explaining another method of moving an object when there are a plurality of objects perceived stereoscopically. With reference to FIGS. 2, 3, 7, and 10, another method of moving the object is further described.
  • the object identification unit may select an object to be transferred based on the display position of the object in the display panel 211. As shown in FIG. 10, the object identification unit may identify the display area of the object in the display panel 211 as three areas (left area, center area, and right area) divided in the horizontal direction.
  • the left side region, the object F 1 is displayed.
  • the object F 2 and F 3 is displayed.
  • the left side area, the object F 4 is displayed.
  • the object identification unit selects the objects F 2 and F 3 displayed in the central area as objects to be moved.
  • the changing unit changes the display positions of the selected objects F 2 and F 3 by using the method described with reference to FIGS.
  • the burden on the viewer's eyes is reduced if the amount of protrusion and / or pull-in of the object displayed in the central area is reduced. Is done.
  • FIG. 11 is a diagram for explaining another method of moving an object when there are a plurality of objects perceived three-dimensionally. With reference to FIGS. 2, 3, 7, and 11, another method of moving the object is further described.
  • the object identification unit may select an object to be transferred based on the display area of the object in the display panel 211.
  • the object identification unit may set a priority order with respect to the display area of the object, and may select two objects, for example. In this case, the object identification unit selects the objects F 1 and F 2 .
  • the changing unit changes the display positions of the selected objects F 1 and F 2 using the method described with reference to FIGS.
  • a viewer gazes at a large object displayed Therefore, when the amount of popping out and / or pulling in an object displayed relatively large is reduced, the burden on the viewer's eyes is reduced.
  • the priority setting by the object identification unit described with reference to FIG. 11 may be applied to the object movement method described with reference to FIGS. 9 and 10.
  • the change in the display position of the object described with reference to FIG. 9 is performed only for a predetermined number of objects that are largely displayed among the objects F 3 to F 6 identified by the threshold values T 1 and T 2 . May be executed.
  • the change in the display position of the object described with reference to FIG. 9 is the position displayed in the central area or close to the central area among the objects F 3 to F 6 identified by the threshold values T 1 and T 2 . It may be executed only for objects displayed on the screen.
  • the object identification unit selects a predetermined number of objects as objects to be moved based on the distance from the display panel 211 to the object perceived by the viewer, the display position of the object, and / or the display area of the object. May be.
  • FIG. 12 is a diagram for explaining the audio signal processing of the audio signal processing unit 239 at the time of quick playback.
  • FIG. 12A shows audio data (audio signal) at the standard reproduction speed of the content data stored in the storage medium 233.
  • FIG. 12B shows audio data (audio signal) output from the reproduction unit 236 to the audio signal processing unit 239 during quick-view reproduction.
  • FIG. 12C shows audio data (audio signal) after audio signal processing by the audio signal processing unit 239.
  • the audio signal processing by the audio signal processing unit 239 will be described with reference to FIGS. 1, 3, and 12.
  • the playback unit 236 plays back all of the audio data of the content data stored in the storage medium 233, as in playback at the standard playback speed.
  • the data is output to the signal processing unit 239.
  • the audio data reproduced at the fast playback speed is the same as the audio data reproduced at the standard reproduction speed.
  • the amount of data per second is increased.
  • the audio signal processing unit 239 performs speed conversion processing, reduces the amount of audio data to a data amount equivalent to that at the time of reproduction at the standard reproduction speed, and outputs the data amount to the display device 21.
  • the audio data is divided into a silent part, a silent part that represents a consonant of a human voice, and a voiced part that represents a vowel of a human voice.
  • the voiced part has an equally spaced periodicity (pitch period), and the audio signal processing unit 239 detects the pitch period P.
  • the audio data reproduced at the fast playback speed and output from the playback unit 236 to the audio signal processing unit 239 is compared with the audio data reproduced at the standard playback speed as described above.
  • the amount of data per second increases.
  • the pitch period P of the audio data reproduced at the fast playback speed becomes shorter than the pitch period P of the audio data reproduced at the standard reproduction speed. Therefore, when the audio data reproduced at the fast-viewing reproduction speed is output without being subjected to the speed conversion process, the viewer listens to the sound whose pitch is increased as the pitch period P is shortened. Also, the voice is too fast, making it difficult for the viewer to grasp the contents of the voice data.
  • the audio signal processing unit 239 performs the audio so that the silent part is shortened and the unvoiced part and the voiced part are lengthened in accordance with the fast playback speed during playback at the fast playback speed. Adjust the data. As a result, the voice speed is reduced, and the viewer can grasp the contents of the voice data relatively easily. Furthermore, the audio signal processing unit 239 thins out the voice data of the voiced part in units of the detected pitch period P, and makes the length of the pitch period P equal to or approximate to the pitch period of the audio data reproduced at the standard reproduction speed. . Further, the audio signal processing unit 239 thins out the audio data of the unvoiced part as appropriate.
  • the voice data of the unvoiced part and the voiced part are adjusted so as to have a waveform equal to or approximate to the voice data reproduced at the standard reproduction speed.
  • the sound output from the display device 21 is equal to or approximated to the sound reproduced at the standard reproduction speed.
  • the control unit 235 via the bus 240, the reproduction unit 236, the image signal processing unit 237, the adjustment unit 238, medium control Control unit 234, image generation unit 241, and audio signal processing unit 239 to play back content data (video data and audio data) from storage medium 233 at a high playback speed (for example, a playback speed that is twice the standard playback speed).
  • a high playback speed for example, a playback speed that is twice the standard playback speed.
  • the image signal processing unit 237 thins out images in the video data and outputs the image data 371 and 372 to the adjustment unit 238. As a result, the temporal change in the amount of parallax increases.
  • the adjustment unit 238 outputs one of the left-eye image data 381 and the right-eye image data 382 to the display device 21 during the reproduction of the content data at a high reproduction speed.
  • the display device 21 displays one of the image data 381 for the left eye and the image data 382 for the right eye.
  • the image signal processing unit 237 may output one of the left-eye image data 371 and the right-eye image data 372 to the adjustment unit 238.
  • the adjustment unit 238 outputs one of the left-eye image data 381 and the right-eye image data 382 to the display device 21, and the display device 21 outputs the left-eye image data 381 and the right-eye image data 381.
  • One of the image data 382 is displayed.
  • the adjustment unit 238 sets the parallax amount between the image for the left eye and the image for the right eye to “0” using the method described in relation to FIGS. The left-eye image and the right-eye image may be adjusted.
  • the audio signal processing unit 239 executes a process for stopping the output of the audio signal to the display device 21.
  • the reproduction unit 236 does not reproduce the audio data. As a result, the viewer perceives the image displayed on the display panel 211 two-dimensionally without listening to the sound.
  • the adjustment unit 238 outputs one of the left-eye image signal and the right-eye image signal, and sets the parallax amount to “0”. Therefore, if the display device 21 and the eyeglass device 3 perform the same operation as during normal playback and quick-playback, the viewer can see a two-dimensional image. At this time, the mode control signal 242 described with reference to FIG. 3 is not necessary. On the other hand, by connecting the mode control signal 242, it is possible to present an image without parallax to the viewer while the stereoscopic image signal with parallax is output from the adjustment unit 238. Hereinafter, in such a case, the operations of the display device 21 and the eyeglass device 3 will be described with reference to FIGS. 1, 3, and 4 again.
  • the synchronization signal generation unit 215 receives that the image playback device 23 is performing high-speed playback via the mode control signal 242, and generates a synchronization signal having a waveform different from that at the time of standard playback or fast playback.
  • the synchronization signal generation unit 215 generates a synchronization signal that causes the eyeglass device 3 to open and close the left eye filter 31 and the right eye filter 32 at the same timing during high-speed playback.
  • the transmission unit 213 transmits this synchronization signal to the reception unit 34 of the eyeglass device 3.
  • the internal signal generation unit 38 of the eyeglass device 3 generates an internal signal for causing the optical filter control unit 39 to execute control for viewing the same left and right images based on the waveform of the synchronization signal. Based on the internal signal, the optical filter control unit 39 performs control to open and close the left eye filter 31 and the right eye filter 32 at the same left and right timing. For example, by opening both at the timing synchronized with the left eye image, the viewer sees the left eye image with both the right eye and the left eye. As a result, the viewer perceives the image displayed on the display panel 211 two-dimensionally.
  • FIG. 13 is a flowchart for explaining the reproduction control by the control unit 235.
  • the control unit 235 may be an image reproduction program for executing reproduction control stored in the image reproduction device 23 in advance. The reproduction control by the control unit 235 will be described with reference to FIGS. 1, 3, and 13.
  • Step S100 When the viewer operates the remote controller 25 and transmits a control signal to the image playback device 23, the control unit 235 determines whether or not a high-speed playback instruction has been issued based on the control signal. If the control unit 235 determines that an instruction for high-speed playback has been given, step S110 is executed. If the control unit 235 determines that an instruction for high-speed playback has not been issued, step S120 is executed.
  • Step S110 When the control unit 235 determines that an instruction for high-speed reproduction has been given, the control unit 235 causes the reproduction unit 236, the image signal processing unit 237, the adjustment unit 238, the medium control unit 234, and the image generation unit 241 to be connected via the bus 240.
  • the content data stored in the storage medium 233 is played back at a high playback speed.
  • the image signal processing unit 237 thins out the left eye image data 371 and the right eye image data 372 under the control of the control unit 235.
  • the adjustment unit 238 outputs one of the left-eye image data 381 and the right-eye image data 382 to the display device 21 under the control of the control unit 235.
  • the image signal processing unit 237 may output one of the left-eye image data 371 and the right-eye image data 372 to the adjustment unit 238 under the control of the control unit 235.
  • the adjustment unit 238 outputs one of the left-eye image data 371 and the right-eye image data 372 output from the image signal processing unit 237 to the display device 21 under the control of the control unit 235. May be. As a result, the adjustment unit 238 outputs one of the image data 371 for the left eye and the image data 372 for the right eye to the display device 21.
  • the selection of the image data output from the adjustment unit 238 to the display device 21 may be determined in advance or may be determined through the operation of the remote controller 25 by the viewer.
  • the control unit 235 further controls the reproduction unit 236 so that the reproduction unit 236 does not reproduce the audio data.
  • the control unit 235 may perform control so that the audio signal processing unit 239 does not output audio data while the reproduction unit 236 performs reproduction of audio data.
  • the viewer perceives the image displayed on the display panel 211 in a two-dimensional manner without listening to the sound.
  • Step S120 When it is determined in step 100 that the control signal does not instruct high speed playback, step 120 is executed. In step 120, the control unit 235 determines whether or not the control signal instructs the reproduction of the content data at the fast playback speed. When the control unit 235 determines that an instruction for reproduction at the fast-viewing reproduction speed has been given, step 130 is executed. If the control unit 235 determines that the playback instruction at the fast playback speed has not been issued, step 140 is executed.
  • Step S130 The control unit 235 that determines that the playback instruction at the fast playback speed has been issued controls the playback unit 236, the image signal processing unit 237, the adjustment unit 238, the medium control unit 234, and the image generation unit 241 via the bus 240.
  • the content data (video data and / or audio data) stored in the storage medium 233 is played back at a fast playback speed.
  • the image signal processing unit 237 thins out the image data 371 for the left eye and the image data 372 for the right eye under the control of the control unit 235.
  • the adjustment unit 238 detects the amount of parallax between the image data 371 for the left eye and the image data 372 for the right eye, and reduces the amount of parallax. The reduction in the amount of parallax is performed using the technique described in relation to FIGS. Further, the control unit 235 causes the display unit 21 to output the image data 381 for the left eye and the image data 382 for the right eye adjusted to have the reduced parallax amount.
  • the control unit 235 further controls the audio signal processing unit 239 to adjust the audio signal.
  • the adjustment of the audio signal is performed using the technique described in connection with FIG. As a result, the viewer can perceive the video displayed on the display panel 211 three-dimensionally while listening to the sound.
  • the pop-out amount and / or pull-in amount of the object perceived by the viewer with respect to the display panel 211 is larger than the pop-out amount and / or pull-in amount of the object perceived at the time of reproduction at the standard reproduction speed as described above. Has been reduced. Therefore, the burden on the eyes of the viewer who views the video reproduced at the fast-viewing reproduction speed is reduced.
  • Step S140 In step S120, if the control unit 235 determines that the control signal does not instruct fast-playing, step S140 is executed. In step S140, the control unit 235 controls the reproduction unit 236, the image signal processing unit 237, the adjustment unit 238, the medium control unit 234, and the image generation unit 241 via the bus 240, and the content stored in the storage medium 233. Play data (video data and / or audio data) at the standard playback speed.
  • the image signal processing unit 237 skips each frame of the image signal on the recording medium under the control of the control unit 235. Without being output to the adjustment unit 238.
  • the adjustment unit 238 outputs left-eye image data 381 and right-eye image data 382 to the display device 21 under the control of the control unit 235.
  • the image signal processing unit 237 controls the left-eye image data 371 and the right-eye image under the control of the control unit 235.
  • the image data 372 is thinned out and output to the adjustment unit 238.
  • the adjustment unit 238 detects the amount of parallax between the image data 371 for the left eye and the image data 372 for the right eye, and reduces the amount of parallax. The reduction in the amount of parallax is performed using the technique described in relation to FIGS.
  • control unit 235 causes the display unit 21 to output the image data 381 for the left eye and the image data 382 for the right eye adjusted to have the reduced parallax amount.
  • the control unit 235 further controls the audio signal processing unit 239 to adjust the audio signal.
  • the adjustment of the audio signal is performed using the technique described in connection with FIG. As a result, the viewer can perceive the video displayed on the display panel 211 three-dimensionally while listening to the sound.
  • the pop-out amount and / or pull-in amount of the object perceived by the viewer with respect to the display panel 211 is larger than the pop-out amount and / or pull-in amount of the object perceived at the time of reproduction at the standard reproduction speed as described above. Has been reduced. Therefore, the burden on the eyes of the viewer who views the video reproduced at the fast-viewing reproduction speed is reduced.
  • the image signal processing unit 237 skips each frame of the image signal on the recording medium under the control of the control unit 235. Without being output to the adjustment unit 238.
  • the adjustment unit 238 outputs left-eye image data 381 and right-eye image data 382 to the display device 21 under the control of the control unit 235. At this time, the adjustment unit 238 does not adjust the parallax amount with respect to the image data 371 for the left eye and the image data 372 for the right eye input from the image signal processing unit 237.
  • FIG. 14 is a schematic block diagram illustrating the configuration of an image playback device 23A according to the second embodiment.
  • FIG. 15 shows image data 360 output from the reproduction unit 236A.
  • symbol is assigned with respect to the element similar to 1st Embodiment. Differences from the first embodiment will be described with reference to FIGS. 14 and 15.
  • image data 360 sent from the reproduction unit 236A to the adjustment unit 238A is different from the first embodiment.
  • the description which concerns on 1st Embodiment is used suitably with respect to the element which is not demonstrated below.
  • the playback unit 236A reads image data to be played back from video data of content data stored in the storage medium 233. Thereafter, the reproduction unit 236A outputs the read image data 360 to the image signal processing unit 237A.
  • the image data 360 includes parallax amount data “X” for generating left-eye image data 381 and right-eye image data 382 in addition to image data displayed on the display panel 211.
  • the image signal processing unit 237A performs MPEG-2 or H.264 on the image data 360 at the time of recording.
  • a decompression process for compression encoding such as H.264 and an image adjustment process for display are performed.
  • the image data 370 subjected to these processes is output to the adjustment unit 238A.
  • FIG. 16 shows the image data 370 output from the image signal processing unit 237A and the left-eye and right-eye image data 381 and 382 output from the adjustment unit 238A in the standard reproduction mode.
  • the generation of the image data 381 and 382 by the adjustment unit 238A will be described with reference to FIGS.
  • the adjustment unit 238A generates image data 381 for the left eye and image data 382 for the right eye based on the image data 370 output from the image signal processing unit 237A.
  • the adjustment unit 238A In the standard reproduction mode, the adjustment unit 238A generates image data 381 and 382 in which the display position of the object O in the image data 370 is shifted by the parallax amount “X” based on the parallax amount data included in the image data 370.
  • the direction in which the object is shifted differs between the left-eye image data 381 and the right-eye image data 382 in the horizontal direction.
  • FIG. 17 shows image data 370 output from the image signal processing unit 237A and left-eye and right-eye image data 381, 382 output from the adjustment unit 238A in the quick-view playback mode.
  • the generation of the image data 381 and 382 by the adjustment unit 238A will be described with reference to FIGS.
  • the adjustment unit 238A shifts the display position of the object O in the image data 370 in the horizontal direction by the parallax amount “Xa” smaller than the parallax amount “X” defined by the parallax amount data included in the image data 370 in the quick-view playback mode.
  • Generated image data 381 and 382 are generated.
  • the decreasing rate of the display position shift amount “Xa” of the object O in the quick-play mode with respect to the shift amount “X” of the display position of the object O in the standard playback mode is the playback speed in the standard playback mode and the playback speed in the fast-play mode. It is determined appropriately according to the difference.
  • the parallax amount data included in the image data 370 is exemplified as parallax information.
  • the method described in relation to FIGS. 5 to 11 is preferably used for adjusting the display position of the object in the quick-play mode.
  • the adjustment unit 238A may reduce the image data 381 and 382 so that the parallax amount “Xa” is reduced in the quick-play mode. Alternatively, if the parallax amount data is assigned to each of a plurality of objects included in the image data 370, the adjustment unit 238A may perform adjustment to shift the objects individually. Further alternatively, the adjustment unit 238A may select an object to be moved based on the parallax amount data assigned to each object.
  • the object O of the image data 370 is shifted left and right in the image data 381 and 382 based on the parallax amount data included in the image data 370.
  • the parallax amount data included in the image data 370 may represent a shift amount for one of the image data 381 and 382.
  • the parallax amount data of the image data 370 represents a shift amount of the object O L of the image data 381 for the left eye
  • adjustment section 238A when generating the image data 381 for the left eye
  • parallax amount data accordingly shifts the object O L, when generating the image data 382 for the right eye
  • the position approximately equal to the object O which is represented in the image data 370 may represent the object O R.
  • a speed twice or more that of the standard playback mode is defined as the high speed playback mode, and the display panel 211 displays a two-dimensional image in the high speed playback mode.
  • the parallax amount is reduced by using the method described in relation to FIGS. 5 to 11 even in low-speed high-speed playback such as twice the standard playback speed or four times the playback speed.
  • video may be provided to the viewer.
  • the video may be provided to the viewer so that the video is perceived two-dimensionally at a playback speed exceeding four times the standard playback speed.
  • the playback unit 236 reads all images from the storage medium 233 even during high-speed playback.
  • the playback unit 236 may selectively read one of the left-eye image data and the right-eye image data from the storage medium 233 during high-speed playback.
  • a shutter-type spectacle device is employed as the spectacle device 3 that assists viewing of a stereoscopic image.
  • a deflection-type eyeglass device may be employed as the eyeglass device 3 that assists viewing of a stereoscopic image.
  • the above-described image reproducing device 23 may include a CPU (Central Processing Unit), a system LSI (Large Scale Integration), a RAM (Random Access Memory), a ROM (Read Only Memory), a HDD (Hard Disk Drive), and a network interface. Good. Furthermore, the image playback device 23 may include a drive device that can read from or write to a portable recording medium such as a DVD-RAM, a Blu-ray disc, and an SD (Secure Digital) memory card.
  • a CPU Central Processing Unit
  • system LSI Large Scale Integration
  • RAM Random Access Memory
  • ROM Read Only Memory
  • HDD Hard Disk Drive
  • the content data shown in the above-described embodiments includes video data and / or audio data such as movies and videos stored in a storage medium such as a Blu-ray disc or a DVD disc.
  • the content data may be video data and / or audio data provided via the Internet, video data and / or audio data provided using broadcast radio waves, video data provided using other means, and It may also be audio data.
  • the image reproducing device shown in the above-described embodiment is a Blu-ray player or a DVD player for reproducing a storage medium such as a Blu-ray disc or a DVD disc.
  • the image reproduction device may be a personal computer that reproduces the provided content data or any other device having an image reproduction function without storing the content data.
  • a display device for displaying content data as a video and an image reproduction device are provided separately.
  • the television device may include a display device and an image reproducing device that are integrally configured.
  • the display device may be a television device having a function of tuning broadcast waves, a computer having a monitor, or any device capable of displaying an image.
  • the standard playback speed determined by the storage medium that stores the content data is indicated as the first speed.
  • the playback speed that can best provide the content data may be the first speed.
  • a relatively low playback speed among the playback speeds that can be provided by the image playback apparatus may be used as the first speed.
  • the fast playback speed that is higher than the first speed and that allows the viewer to grasp the content of the audio data is indicated as the second speed.
  • the second speed may be a playback speed that allows the viewer to grasp the object represented by the video data included in the content data in a three-dimensional manner.
  • the quick-view playback speed is a playback speed in the range of 1.3 to 1.5 times the standard playback speed.
  • the quick-view playback speed may be higher than the standard playback speed and less than twice the standard playback speed.
  • the high-speed playback speed that is faster than the playback speed at which the viewer can grasp the contents of the audio data is indicated as the third speed.
  • any playback speed that is faster than the second speed may be used as the third speed.
  • the high-speed playback speed is twice the standard playback speed.
  • the playback speed may be higher than twice the standard playback speed, or may be lower than twice the standard playback speed.
  • the playback speed may be increased or decreased continuously.
  • an arbitrary speed in a continuously changing playback speed range is set as the first speed
  • an arbitrary speed higher than the first speed is set as the second speed
  • an arbitrary speed higher than the second speed is set.
  • the speed is the third speed.
  • the image reproducing device 23 of the present embodiment constitutes the television device 2 together with the display device 21.
  • the image playback device 23 may be incorporated in any image processing device such as a digital video camera, a digital recorder, a digital television, a game machine, an IP phone, or a mobile phone.
  • the control unit 235 and / or other components of the image playback device 23 of the present embodiment are a program for controlling the image playback device 23 installed in an HDD or a ROM (hereinafter referred to as an image playback program). It may be realized as. Each function of the image reproduction device 23 may be realized by executing the image reproduction program.
  • the image reproduction program may be recorded on a recording medium readable by a hardware system such as a computer system or an embedded system. Further, the image reproduction program may be read out and executed by another hardware system via the recording medium. As a result, each function of the image reproduction device 23 is realized by using another hardware system.
  • a computer system-readable recording medium an optical recording medium (for example, CD-ROM), a magnetic recording medium (for example, hard disk), a magneto-optical recording medium (for example, MO), or a semiconductor memory (for example, memory card) ) Is exemplified.
  • the image reproduction program may be held in a hardware system connected to a network such as the Internet or a local area network. Furthermore, it may be downloaded to another hardware system via a network and executed. As a result, each function of the image reproduction device 23 is realized by using another hardware system.
  • the network include a terrestrial broadcasting network, a satellite broadcasting network, PLC (Power Line Communication), a mobile telephone network, a wired communication network (for example, IEEE802.3), and a wireless communication network (for example, IEEE802.11). .
  • Each function of the image reproduction device 23 may be realized by an image reproduction circuit implemented in the image reproduction device 23 of the present embodiment.
  • Image reproduction circuit is semi-custom LSI such as full custom LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), programmable logic device such as FPGA (Field Programmable Gate Array) and CPLD (Complex Programmable Logic Device), dynamic Alternatively, the circuit configuration may be formed as a rewritable dynamic reconfigurable device.
  • LSI Large Scale Integration
  • ASIC Application Specific Integrated Circuit
  • programmable logic device such as FPGA (Field Programmable Gate Array) and CPLD (Complex Programmable Logic Device)
  • the circuit configuration may be formed as a rewritable dynamic reconfigurable device.
  • the design data for forming each function of the image reproducing device 23 in the image reproducing circuit may be a program described in a hardware description language (hereinafter referred to as an HDL program).
  • the design data may be a gate level netlist obtained by logical synthesis of an HDL program.
  • the design data may be macro cell information in which arrangement information, process conditions, etc. are added to a gate level netlist.
  • the design data may be mask data in which dimensions, timing, and the like are defined.
  • examples of the hardware description language include VHDL (Very high speed integrated circuit Hardware Description Language), Verilog-HDL, and SystemC.
  • the design data may be recorded on a recording medium readable by a hardware system such as a computer system or an embedded system.
  • the design data may be read out and executed by another hardware system via the recording medium.
  • the design data read by the other hardware system via these recording media may be downloaded to the programmable logic device via the download cable.
  • Design data may be held in a hardware system connected to a network such as the Internet or a local area network. Furthermore, the design data may be downloaded to another hardware system via a network and executed. Design data obtained by other hardware systems via these networks may be downloaded to the programmable logic device via a download cable.
  • the design data may be recorded in a serial ROM so that it can be transferred to the FPGA when energized.
  • the design data recorded in the serial ROM may be downloaded directly to the FPGA when energized.
  • the design data may be generated by a microprocessor and downloaded to the FPGA when energized.
  • the embodiment described above mainly includes the following configuration.
  • the image reproduction device is a content for causing a video to be stereoscopically perceived using video data including the first image for the first viewpoint and the second image for the second viewpoint.
  • an adjustment unit that adjusts parallax information related to the parallax between them.
  • the content data played back by the playback unit causes video to be perceived stereoscopically using video data including the first image for the first viewpoint and the second image for the second viewpoint.
  • the setting unit sets a reproduction speed when reproducing the content data.
  • the adjustment unit adjusts the parallax information related to the parallax between the first image and the second image according to the reproduction speed set by the setting unit. Since disparity information is adjusted according to the playback speed, even if the content data is played back at a fast playback speed so that the viewer can grasp the content content in a relatively short time, the increase in fatigue to the viewer's eyes is suppressed. Is done.
  • the adjustment unit changes at least one perceived amount of an object pop-out amount or a pull-in amount perceived by a viewer who views the content data according to the playback speed. Is preferred.
  • the adjustment unit changes at least one perception amount of the pop-out amount or the pull-in amount of the object in the video data perceived by the viewer who views the content data according to the playback speed. . Therefore, even if the content data is reproduced at a high reproduction speed so that the viewer can grasp the content contents in a relatively short time, it is possible to suppress an increase in fatigue to the viewer's eyes.
  • the setting unit includes a first mode for reproducing the content data at a first speed, and a second mode for reproducing the content data at a second speed higher than the first speed; And the adjustment unit adjusts the parallax information so that a fluctuation amount of the perceptual amount in the second mode is smaller than a fluctuation amount of the perception amount in the first mode. preferable.
  • the setting unit selects a first mode for reproducing the content data at the first speed and a second mode for reproducing the content data at the second speed higher than the first speed.
  • the adjustment unit adjusts the parallax information so that the fluctuation amount of the perception amount in the second mode is smaller than the fluctuation amount of the perception amount in the first mode.
  • the fluctuation amount of the perception amount is reduced, and the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the adjustment unit shifts at least one of the first image and the second image.
  • the adjustment unit that adjusts the parallax information shifts at least one of the first image and the second image.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the adjustment unit reduces the first image and the second image.
  • the adjustment unit that adjusts the parallax information reduces the first image and the second image.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the adjustment unit changes at least one of a display position of the object in the first image and a display position of the object in the second image.
  • the adjustment unit that adjusts the parallax information changes at least one of the position of the object in the first image and the position of the object in the second image.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the object includes a plurality of objects
  • the adjustment unit includes the amount of the object protruding from the display surface on which the content data is displayed, the amount of the object drawn from the display surface, It is preferable to select an object whose display position is changed based on at least one of the display position of the object on the display surface and the display area of the object.
  • the adjustment unit selects an object whose display position should be changed.
  • the selection of the object is performed by selecting at least one of the pop-out amount of the object from the display surface on which the content data is displayed, the pull-in amount of the object from the display surface, the display position of the object on the display surface, and the display area of the object. Based. Therefore, the burden on the viewer's eyes is efficiently and effectively reduced.
  • the adjustment unit identifies a segmentation unit that segments each of the first image and the second image into a plurality of sections, and a section that contributes to the display of the object among the plurality of sections. It is preferable to include a section identifying unit that performs the change and a change unit that changes a display position of the image data included in the section that contributes to the display of the object.
  • the segmenting unit of the adjusting unit segments each of the first image and the second image into a plurality of sections.
  • the section identifying unit identifies a section contributing to the display of the object.
  • the changing unit changes the display position of the image data included in the section contributing to the display of the object.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the adjustment unit includes a reference convergence angle between the first viewpoint and the second viewpoint with respect to a display surface on which the content data is projected, and the object with respect to the object included in the first image and the second image. It is preferable to adjust the parallax information so that the absolute value of the difference between the first viewpoint and the convergence angle between the second viewpoint becomes small.
  • the adjustment unit includes the reference convergence angle between the first viewpoint and the second viewpoint with respect to the display surface on which the content data is projected, and the first viewpoint and the first viewpoint with respect to the objects included in the first image and the second image.
  • the parallax information is adjusted so that the absolute value of the difference from the convergence angle between the two viewpoints becomes small.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the parallax information includes information on a difference between a display position of the object in the first image and a display position of the object in the second image
  • the adjustment unit includes the first image and the first image. It is preferable to adjust the parallax information so that a difference in the display position of the object between two images is small.
  • the parallax information includes information regarding a difference between the display position of the object in the first image and the display position of the object in the second image.
  • the adjustment unit adjusts the parallax information so that the difference in the display position of the object between the first image and the second image becomes small.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the setting unit is configured to set a third mode for reproducing the content data at a third speed faster than the second speed
  • the adjustment unit is It is preferable to output one of the first image and the second image.
  • the adjustment unit outputs one of the first image and the second image, so that the content data is reproduced as a two-dimensional video.
  • the image reproduction device further includes an audio signal processing unit
  • the content data includes audio data
  • the setting unit sets the reproduction speed of the content data to the first mode or the second mode.
  • the playback unit plays back the audio data
  • the setting unit sets the playback speed of the content data to the second mode
  • the audio signal processing unit matches the second speed.
  • the reproduction unit preferably does not reproduce the audio data.
  • the playback unit plays back the audio data.
  • the audio signal processing unit adjusts the audio data in accordance with the second speed.
  • the reproduction unit does not reproduce the audio data. Therefore, the viewer can view the content data together with the audio data in the first mode or the second mode. In the third mode, the viewer views the 2D video without listening to the sound.
  • a display device is a content for causing a video to be stereoscopically perceived using video data including a first image for a first viewpoint and a second image for a second viewpoint.
  • a playback section that plays back data
  • a display section that displays the video data
  • a setting section that sets a playback speed when playing back the content data
  • An adjustment unit that adjusts parallax information related to parallax between the first image and the second image.
  • the display unit that displays the content data to be played back by the playback unit is stereoscopically displayed using video data including the first image for the first viewpoint and the second image for the second viewpoint.
  • the setting unit sets a reproduction speed when reproducing the content data.
  • the adjustment unit adjusts the parallax information related to the parallax between the first image and the second image according to the reproduction speed set by the setting unit. Since disparity information is adjusted according to the playback speed, even if the content data is played back at a fast playback speed so that the viewer can grasp the content content in a relatively short time, the increase in fatigue to the viewer's eyes is suppressed. Is done.
  • the setting unit includes a first mode for reproducing the content data at a first speed, and a second mode for reproducing the content data at a second speed higher than the first speed;
  • a third mode for reproducing the content data at a third speed higher than the second speed is selectively set, and the adjustment unit is configured to select the first image and the second image in the third mode. It is preferable to display only one of them on the display unit.
  • regenerates the content data for making a video perceive stereoscopically using the video data containing the 1st image for 1st viewpoints concerning the other situation of this invention, and the 2nd image for 2nd viewpoints
  • the reproduction program selects a first mode for reproducing the content data at a first speed or a second mode for reproducing at a second speed higher than the first speed, and the second mode.
  • an image reproducing apparatus for reproducing the content data.
  • the content data played back by the image playback program is perceived as a three-dimensional video using video data including the first image for the first viewpoint and the second image for the second viewpoint.
  • the image reproduction program enables selection of a first mode for reproducing content data at a first speed or a second mode for reproducing at a second speed faster than the first speed.
  • the viewer views the content data having a variation amount that is smaller than the variation amount of the perception amount in the first mode, so that the burden on the viewer's eyes is reduced.
  • a viewer who views the first image and the second image of the content data can perceive the content in a short time while perceiving the image stereoscopically.
  • the principle according to the above-described embodiment can be used as an image reproducing device that reproduces a three-dimensional image and sound recorded on a recording medium.
  • the above-described principle can be suitably used particularly as a video player that reproduces a three-dimensional image from a recording medium such as a semiconductor memory or an optical disk.
  • a video player according to the above-described principle can suppress temporal changes in the amount of parallax and suppress eye strain during fast-playing (for example, 1.3 ⁇ speed) and high-speed playback at low speed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

 第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、前記コンテンツデータを再生するときの再生速度を設定する設定部と、該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする画像再生装置。

Description

画像再生装置及び表示装置
 本発明は、立体画像を視聴者に視聴させるためのコンテンツデータを再生する画像再生装置及び表示装置に関する。
 近年の映像技術の進歩に伴い、立体的な映像を視聴者に提供するための技術の提案がなされている。一般的に、視聴者に立体的な映像を視聴させるためのコンテンツデータは、左眼で視聴されるための左眼用の画像と右眼で視聴されるための右眼用の画像とを含む。左眼用の画像は、例えば、視聴者の左眼を視点として拡がる視界に写る像を表現し、右眼用の画像は、視聴者の右眼を視点として拡がる視界に写る像を表現する。
 コンテンツデータが再生されると、これら画像は、例えば、ディスプレイ上に交互に表示される。この間、視聴者は、立体画像を視聴するための専用の眼鏡装置を着用し、ディスプレイ上の画像を視聴する。左眼用の画像がディスプレイに表示されている間、眼鏡装置は右眼への光の透過を遮断するとともに左眼への光の透過を許容する。右眼用の画像がディスプレイに表示されている間、眼鏡装置は左眼への光の透過を遮断するとともに右眼への光の透過を許容する。視聴者は、右眼と左眼の網膜に映った像の違い(視差)を脳内で処理して奥行き・飛び出しを知覚する。視差の量が少なければ、像はディスプレイ面に近い位置にあるものと知覚され、視差量が多ければ、像はディスプレイ面から離れた位置にあるものと知覚される。かくして、視聴者は、ディスプレイに映し出された画像中のオブジェクトを立体的に知覚することが可能となる。
 立体的な映像を視聴させるためのコンテンツデータの再生においても、通常の2次元映像を視聴させるためのコンテンツデータの再生と同様に、高速再生のニーズが存在する。通常再生で見るための再生箇所を検索する目的で行われる高速再生においては、コンテンツデータが記憶される記憶媒体によって定められる標準再生速度より速い速度で、音声を除いた映像のみのコンテンツデータの再生が行われる。このような高速再生モードにおいて立体画像をそのまま表示してしまうと、視差量の変動が非常に速くなるため、視聴者が立体的にコンテンツデータ中のオブジェクトを知覚することは困難になる。この結果、特にコンテンツデータが動画である場合に、コンテンツ中のオブジェクトの動きを視聴者が知覚しづらいという問題が生ずる。
 特許文献1は、このような不具合を解消するために、高速再生モード中、2次元画像として、映像を表示する技術を提案する。特許文献1の開示技術によれば、高速再生モードの間、2次元映像としてコンテンツデータが再生されるので、視聴者はコンテンツデータ中のオブジェクトの動きを比較的容易に把握可能である。
 DVDプレイヤやブルーレイプレイヤといった画像再生装置に対するニーズとして、上述の標準再生及び高速再生でのコンテンツデータの再生の他、早見再生でのコンテンツデータの再生を挙げられる。通常再生で見るための箇所を検索する目的ではなく、コンテンツの内容を視聴者が楽しむために用いられる早見再生モードでは、コンテンツデータは、標準再生速度より速い速度で再生されるが、一般に高速再生速度と比べて遅めの速度で再生されるとともに、映像とあわせて音声も再生される。視聴者は、早見再生モードにおいては、高速再生では再生されなかったコンテンツデータに含まれる音声を聞きながら、標準再生速度よりも短時間でコンテンツの内容を把握することができる。例えば、既存の画像再生装置において、コンテンツデータの標準再生速度に対して、1.3倍や1.5倍で再生するモードが早見再生モードとして組み込まれている。
 上述の特許文献1の技術では、視聴者が早見再生モードでコンテンツデータを再生しようとするとき、表示される映像は2次元映像となり、コンテンツデータが有する内容が視聴者に十分に提供されないこととなる。代替的に、コンテンツデータが有する内容のまま3次元映像としてコンテンツデータが再生された場合には、ディスプレイに表示される左眼用の画像フレームと右眼用の画像フレームとの間の視差量の時間変動が大きすぎ、視聴者に眼精疲労を生じさせる可能性がある。
特開2005-110121号公報
 本発明は、コンテンツデータ中のオブジェクトを立体的に視聴者に知覚させつつ、視聴者が比較的短時間でコンテンツ内容を把握できるとともに視聴者の眼に対する疲労を抑制することが可能な画像再生装置及び表示装置を提供することを目的とする。
 本発明の一の局面に係る画像再生装置は、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、前記コンテンツデータを再生するときの再生速度を設定する設定部と、該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする。
 本発明の他の局面に係る表示装置は、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、前記映像データを表示する表示部と、前記コンテンツデータを再生するときの再生速度を設定する設定部と、該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする。
第1実施形態に係る画像再生装置を含むテレビ装置が組み込まれた映像システムの概略構成図である。 異なる視点から撮像された画像間の視差量を概略的に説明する図である。 図1に示される画像再生装置の構成を概略的に示すブロック図である。 図1に示される眼鏡装置の構成を概略的に示すブロック図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の調整部による画像調整の一例を概略的に示す図である。 図3に示される画像再生装置の音声信号処理部による音声データ調整の一例を概略的に示す図である。 図3に示される画像再生装置の制御を概略的に示すフローチャートである。 第2実施形態に係る画像再生装置の構成を概略的に示すブロック図である。 第2実施形態に係る画像再生装置に用いられる画像データを示す図である。 第2実施形態に係る画像再生装置の調整部による画像調整の一例を概略的に示す図である。 第2実施形態に係る画像再生装置の調整部による画像調整の一例を概略的に示す図である。
 (第1実施形態)
 以下、第1実施形態に係る映像システムが図面を用いて説明される。図1は、第1実施形態に係る画像再生装置を含むテレビ装置を備える映像システムを概略的に示す。尚、図1の映像システムは、単に、例示的なものにすぎず、映像の表示手法や映像の視聴を補助するための手法に対して、他の3次元立体映像を視聴するために適切な任意の技術が適用されてもよい。
 映像システム1は、表示装置として例示されるテレビ装置2と、テレビ装置2が表示する映像の視聴を補助するための眼鏡装置3を含む。テレビ装置2は、映像を表示するためのディスプレイ装置21と、ディスプレイ装置21に立体映像信号を出力する画像再生装置23と、画像再生装置23及び/又はディスプレイ装置21を操作するためのリモートコントローラ25とを含む。リモートコントローラ25は、視聴者が、画像再生装置23及び/又はディスプレイ装置21に対する所望の指示を入力するための複数のボタン251と、視聴者が入力した指示を制御信号として、画像再生装置23及び/又はディスプレイ装置21に送信する送信部252とを含む。制御信号は、例えば、赤外線信号として送信されてもよいし、RF信号として送信されてもよいし、視聴者が所望する指示を画像再生装置23及び/又はディスプレイ装置21に伝達することが可能な他の手法によって送信されてもよい。本実施形態において、視聴者は、リモートコントローラ25を操作し、画像再生装置23の再生速度を制御することができる。
 画像再生装置23は、DVDディスクやブルーレイディスクといった記憶媒体(図1に示されず)を格納するための格納部231と、リモートコントローラ25からの制御信号を受信する受信部232とを含む。記憶媒体には、視聴者に提供(視聴)されるコンテンツデータが記憶されている。コンテンツデータは、映像データ及び/又は音声データを含む。画像再生装置23は、後述されるように、リモートコントローラ25からの制御信号に基づき、コンテンツデータを再生し、立体映像信号及び音声信号をディスプレイ装置21へ出力する。映像データは、左眼の視界中のオブジェクトを撮像して得られた左眼用の画像と、右眼の視界中のオブジェクトを撮像して得られた右眼用の画像とを含む。本実施形態では、視聴者の左眼は第1視点として例示される。また、視聴者の右眼は第2視点として例示される。代替的に、視聴者の右眼が第1視点であってもよく、視聴者の左眼が第2視点であってもよい。本実施形態において、左眼で視聴されるように作成された画像は、第1画像として例示される。また、右眼で視聴されるように作成された画像は、第2画像として例示される。代替的に、右眼で視聴されるように作成された画像が第1画像として用いられてもよく、左眼で視聴されるように作成された画像が第2画像として用いられてもよい。本実施形態では、左眼用の画像が左眼によって視聴され、右眼用の画像が右眼によって知覚されると、左眼用の画像及び右眼用の画像に表されたオブジェクトが視聴者に立体的に知覚される。
 ディスプレイ装置21は、立体映像信号を立体映像として表示する表示部として用いられる表示パネル211と、音声信号を音声として出力する音声出力部として用いられるスピーカ212と、表示パネル211に表示される映像のフレームに眼鏡装置3の動作を同期させるための同期信号を出力するための送信部213とを含む。表示パネル211は、例えば、右眼用の画像のフレームと左眼用の画像のフレームとを交互に表示する。スピーカ212は、表示パネル211に表示される映像に対応する音声を出力する。送信部213は、例えば、右眼用の画像のフレームと左眼用の画像のフレームとの間の切り換えに同期して、同期信号を出力する。表示パネル211として、例えば、プラズマディスプレイパネル、液晶パネル、CRTを用いた装置、有機エレクトロルミネッセンスを用いた装置や映像を立体映像信号に基づき、映像を視聴者に視認させることができる他の装置が用いられる。同期信号は、赤外線として送信されてもよいし、RF信号として送信されてもよいし、同期信号を眼鏡装置3へ伝達することが可能な他の任意の手法によって送信されてもよい。
 眼鏡装置3は、視力矯正用の眼鏡と同様の形状をなす。眼鏡装置3は、眼鏡装置3を装着した視聴者の左眼前に配設される左眼フィルタ31と視聴者の右眼前に配設される右眼フィルタ32とを含む光学フィルタ部33と、左眼フィルタ31と右眼フィルタ32との間に配設される受信部34とを含む。左眼フィルタ31及び右眼フィルタ32は、光学的に左眼及び右眼へ透過する光量を光学的に調整することが可能である。左眼フィルタ31及び右眼フィルタ32は、例えば、左眼及び右眼へ透過する光の光路を遮断することによって、光量の調節を行ってもよいし、左眼及び右眼へ透過する光を偏向させることによって、光量の調節を行ってもよい。このような左眼フィルタ31及び右眼フィルタ32に液晶素子が好適に用いられる。
 受信部34は、ディスプレイ装置21から送信された同期信号を受信する。眼鏡装置3は、同期信号に基づき、光学フィルタ部33を制御する。同期信号に基づく制御の結果、表示パネル211に左眼用の画像のフレームが表示されている間、左眼フィルタ31を通じて視聴者の左眼に画像フレームからの光が透過される一方で、右眼フィルタ32は視聴者の右眼へ到達する光の量を低減させる。また、表示パネル211に右眼用の画像のフレームが表示されている間、右眼フィルタ32を通じて視聴者の右眼に画像のフレームからの光が透過される一方で、左眼フィルタ31は視聴者の左眼へ到達する光の量を低減させる。この結果、視聴者は、左眼で左眼用の画像のフレームを視聴し、右眼で右眼用の画像のフレームを視聴することとなり、映像データに含まれる左眼用の画像のオブジェクト及び右眼用の画像のオブジェクトが立体的に知覚されることとなる。立体的に知覚されるオブジェクトは、表示パネルから視聴者側に飛び出るように或いは表示パネルに対して奥方に引っ込んだように視聴者に知覚されることとなる。
 図2は、3次元画像の一例を示す。図1及び図2を用いて、コンテンツデータに含まれる映像データの左眼用の画像及び右眼用の画像との間の視差量と、視聴者によって立体的に知覚される映像との関係が説明される。図2(a)は、左眼用の画像と右眼用の画像との間の視差量が「0」のときの左眼用の画像及び右眼用の画像と、視聴者に視聴及び/又は知覚される映像とを示す。図2(b)は、左眼用の画像と右眼用の画像との間の視差量が「正の値」のときの左眼用の画像及び右眼用の画像と、視聴者に視聴及び/又は知覚される映像とを示す。図2(c)は、左眼用の画像と右眼用の画像との間の視差量が「負の値」のときの左眼用の画像及び右眼用の画像と、視聴者に視聴及び/又は知覚される映像とを示す。尚、上述の視差量の「正」「負」に関する定義は、説明の明瞭化のためであり、本実施形態の原理を何ら限定するものではない。したがって、図2(b)に示される左眼用の画像及び右眼用の画像の関係が「負の値」として定義され、図2(c)に示される左眼用の画像及び右眼用の画像の関係が「正の値」として定義されてもよい。
 図2の上段に示される図は、表示パネル211上のオブジェクト位置と、表示パネル211に対する視聴者に知覚されるオブジェクトの位置を示す。図2の中段に示される図は、表示パネル211に表示される右眼用の画像を示す。図2の下段に示される図は、表示パネル211に表示される左眼用の画像を示す。
 図2に示される左眼用の画像及び右眼用の画像中には、樹木がオブジェクトとして示されている。尚、本実施形態の説明に用いられる「オブジェクト」との用語は、視聴者に知覚される画像中の物体の像を意味する。左眼用の画像中に表されるオブジェクトには、符号Oが付され、右眼用の画像中に表されるオブジェクトには、符号Oが付されている。また、図2に示される符号Rは、視聴者の右眼を示し、符号Lは視聴者の左眼を示す。図2に示される符号Fは、視聴者に立体的に知覚されるオブジェクトを示す。
 図2(a)に示される如く、左眼用の画像中のオブジェクトOと右眼用の画像中のオブジェクトOとが、表示パネル211中で等しい位置で映し出されるとき(即ち、視差量が「0」であるとき)、オブジェクトFは表示パネル211上に位置していると視聴者に知覚される。
 図2(b)に示されるように、左眼用の画像中のオブジェクトOが表示パネル211の右側領域に位置し、右眼用の画像中のオブジェクトOが表示パネル211の左側領域に位置し、これらオブジェクトO,Oの位置の差が「X」であるとき(Xは正の値)、左眼Lと右眼Rとの間の輻輳点(オブジェクトOに対する左眼Lからの視線と、オブジェクトOに対する右眼Rからの視線との交点)は、表示パネル211よりも視聴者に近い位置となる。オブジェクトFは、表示パネル211から視聴者寄りの輻輳点上に存在するように視聴者に知覚される。図2(b)に示されるオブジェクトFと表示パネル211との間の距離Yは、オブジェクトFの飛び出し量として例示される。
 図2(c)に示されるように、左眼用の画像中のオブジェクトOが表示パネル211の左側領域に位置し、右眼用の画像中のオブジェクトOが表示パネル211の右側領域に位置し、これらオブジェクトO,Oの位置の差が「X」であるとき(Xは負の値)、左眼Lと右眼Rとの間の輻輳点は、表示パネル211よりも視聴者に遠い位置となる。オブジェクトFは、表示パネル211よりも視聴者から離間した輻輳点上に存在するように視聴者に知覚される。図2(C)に示されるオブジェクトFと表示パネル211との間の距離Yは、オブジェクトFの引き込み量として例示される。
 図2に示される如く、オブジェクトO,Oの位置の差の絶対値が大きくなるにつれて、表示パネル211からオブジェクトFまでの距離は増大し、オブジェクトO,Oの位置の差の絶対値が小さくなるにつれて、表示パネル211からオブジェクトFまでの距離(飛び出し量Y又は引き込み量Y)は減少する。
 本実施形態において、オブジェクトO,Oの位置の差X,X(即ち、視差量)が視差に関する視差情報として例示される。代替的に、表示パネル211或いはオブジェクトO,Oを表示するための表示面から視聴者が知覚するオブジェクトFまで距離を増減させるための他のパラメータが視差情報として用いられてもよい。本実施形態において用いられる「視差量を大きくする」との用語は、オブジェクトO,Oの位置の差を増大させ、表示面からオブジェクトFまでの距離(飛び出し量Y又は引き込み量Y)を大きくすることを意味する。代替的に、表示面からオブジェクトFまでの距離(飛び出し量Y又は引き込み量Y)を大きくするために、視差量以外のパラメータ(視差情報)が調整されてもよい。本実施形態において用いられる「視差量を小さくする」との用語は、オブジェクトO,Oの位置の差を低減させ、表示面からオブジェクトFまでの距離(飛び出し量Y又は引き込み量Y)を小さくすることを意味する。代替的に、表示面からオブジェクトFまでの距離(飛び出し量Y又は引き込み量Y)を小さくするために、視差量以外のパラメータ(視差情報)が調整されてもよい。視差量以外のパラメータの調整として、例えば、映像信号処理を通じて、オブジェクトに影を付けること、オブジェクト自体の輝度を変更することやオブジェクトの色を変更することが例示される。このような様々な手法を用いて、視聴者に知覚される距離感が調整されてもよい。
 表示パネル211からオブジェクトFまでの距離の増大は、視聴者の眼に対する負担を大きくすることが経験的に知られている。また、図2(b)に示されるオブジェクトFの位置から図2(c)に示されるオブジェクトFの位置までオブジェクトFの位置を変動させるように左眼用の画像のフレーム及び右眼用の画像のフレームを表示パネル211に表示するとき、オブジェクトFの位置の変動速度の増大は、視聴者の眼に対する負担を大きくすることが経験的に知られている。
 本実施形態において、ディスプレイ装置21は、左眼用の画像のフレームと右眼用の画像のフレームとを、例えば、120Hzのフレームレート(左眼用の画像のフレーム及び右眼用の画像のフレームを合計して、1秒間当たり120枚のフレームが表示される)で表示する。標準再生速度は、記録媒体上の画像信号の各フレームがスキップ/ホールドすることなく出力並びに表示される再生速度として規定される。本実施形態において、標準再生速度は、第1速度として例示される。画像再生装置23による標準再生速度でのコンテンツデータの再生は、第1モードとして例示される。
 本実施形態において、早見再生速度は、標準再生速度の1.3倍の再生速度として規定される。代替的に、早見再生速度は、標準再生速度よりも速く、且つ、視聴者がコンテンツデータの内容を把握することができる他の再生速度として規定されてもよい。本実施形態において、早見再生モードにおいて、1.3枚につき1枚の割合で再生フレームがスキップされる。媒体上の各フレームが通常速度(1秒当たり120枚)の1.3倍の速度で再生されると、1秒当たり156枚の再生フレームが得られるが、早見再生モードにおいて、1.3枚につき1枚の割合でフレームがスキップされるので、各再生フレームの表示時間は、通常再生と略等しくなる。かくして、ディスプレイ装置21への出力は1秒間当たり120枚のフレームとなる。本実施形態において、早見再生速度は、第2速度として例示される。画像再生装置23による早見再生速度でのコンテンツデータの再生は、第2モードとして例示される。
 本実施形態において、高速再生速度は、標準再生速度の2倍の再生速度として規定される。代替的に、高速再生速度は、早見再生速度よりも速い他の再生速度として規定されてもよい。本実施形態において、高速再生モードにおいて、2枚につき1枚の割合で再生フレームがスキップされる。この結果、ディスプレイ装置21への出力は1秒間当たり120枚のフレームとなる。画像再生装置23による高速再生速度でのコンテンツデータの再生は、第3モードとして例示される。
 本実施形態において、標準再生速度から早見再生速度又は高速再生速度への増速は、再生フレームをスキップすることにより達成される。代替的に、標準再生速度から早見再生速度又は高速再生速度への増速は、再生フレームそれぞれの表示時間の短縮によって達成されてもよい。
 図2に関連して説明された如く、標準再生速度よりも速い早見再生速度での立体映像の視聴は、標準再生速度での立体映像の視聴と比較して、視聴者が知覚するオブジェクトFの位置が高速に変動するため、視聴者の眼に対する負担が大きくなる。
 図3は、図1に示されるディスプレイ装置21及び画像再生装置23の構成を説明する概略的なブロック図である。図1乃至図3を用いて、画像再生装置23が説明される。
 画像再生装置23の格納部231には、映画や音楽ビデオといったコンテンツデータが格納された記憶媒体233(例えば、ブルーレイディスクやDVDディスク)が収容される。画像再生装置23は、記憶媒体233を制御するための媒体制御部234を含む。媒体制御部234は、記憶媒体233を駆動するドライブ装置(図示せず)や再生アドレス設定手順といった再生プロトコルを制御する。
 受信部232は、図1に関連して説明された如く、リモートコントローラ25からの制御信号を受信する。画像再生装置23は、制御部235を含む。制御部235は、画像再生装置23全体の制御を司る。受信部232は、視聴者が入力した操作情報を含む制御信号を制御部235へ出力する。
 画像再生装置23は、記憶媒体233に記憶されたコンテンツデータを再生する再生部236、コンテンツデータが含む映像データに基づいて生成された画像信号を処理する画像信号処理部237、画像信号処理部237によって処理された画像信号に基づき、左眼用の画像と右眼用の画像との視差量(例えば、図2に関連して説明された視差量X,X)を調整する調整部238、コンテンツデータが含む音声データに基づいて生成された音声信号を処理する音声信号処理部239並びに制御部235から出力された制御信号を媒体制御部234、再生部236、画像信号処理部237、調整部238及び音声信号処理部239へ伝達するためのバス240を含む。制御部235は、受信部232からの制御信号に基づき、バス240を介して、媒体制御部234、再生部236、画像信号処理部237、調整部238及び音声信号処理部239それぞれを制御するための制御信号を送信し、これらを制御する。この結果、画像再生装置23は、画像再生処理を実行することとなる。
 制御部235は、媒体制御部234や再生部236を制御し、視聴者によるリモートコントローラ25の操作に従って、記憶媒体233に記憶されたコンテンツデータの再生速度を標準再生速度、標準再生速度より高速の早見再生速度及び早見再生速度よりも高速の高速再生速度に切り換えることができる。本実施形態において、制御部235は、コンテンツデータを再生するときの再生速度を設定する設定部として例示される。制御部235は、視聴者によるリモートコントローラ25の操作に従って、標準再生速度での再生モードと、早見再生速度での再生モードと、高速再生速度での再生モードとを選択的に設定する。
 本実施形態において、調整部238は、制御部235によって制御された再生速度(標準再生速度、早見再生速度、高速再生速度)に応じて左眼用の画像と右眼用の画像との間の視差量を調整する。代替的に、調整部238は、再生速度(標準再生速度、早見再生速度、高速再生速度)に応じて、視聴者に知覚されるオブジェクトFの飛び出し量或いは引き込み量を調整ための他のパラメータ(視差情報)を調整してもよい。
 画像再生装置23は更に、記憶媒体233に記憶されたコンテンツデータを視聴者が一覧するためのメニュー画像を生成するための画像生成部241を含んでもよい。画像生成部241は、バス240を介して、制御部235から制御信号を受け取る。その後、画像生成部241は、制御信号に基づいて、メニュー画像を生成する。
 再生部236は、記憶媒体233に記憶されたコンテンツデータの映像データから再生対象となる画像データを読み出す。その後、再生部236は、読み出された画像データから左眼用の画像に対応する画像データ361及び右眼用の画像に対応する画像データ362を画像信号処理部237に出力する。再生部236は更に、記憶媒体233に記憶されたコンテンツデータから再生対象となる音声データを読み出す。その後、再生部236は、音声データを音声信号処理部239へ出力する。再生部236は更に、記憶媒体233に記憶されたコンテンツデータから再生対象となる画像データに関連する補助データを読み出す。その後、再生部236は、バス240経由で補助データを制御部235へ出力する。
 画像信号処理部237は、再生部236から出力された左眼用の画像に対応する画像データ361及び右眼用の画像に対応する画像データ362に対して、必要に応じて、記録時に施されているMPEG-2やH.264といった圧縮符号化に対する伸長処理や、表示用画質調整処理を施与してもよい。これらの処理がなされた左眼用の画像に対応する画像データ371及び右眼用の画像に対応する画像データ372が調整部238へ出力される。
 画像生成部241が生成したメニュー画像が画像信号処理部237に出力されてもよい。画像信号処理部237は、メニュー画像をそのまま調整部238へ出力してもよい。代替的に、画像信号処理部237は、メニュー画像を左眼用の画像に対応する画像データ371及び右眼用の画像に対応する画像データ372に多重して、調整部238へ出力してもよい。
 調整部238は、制御部235の制御下で、画像信号処理部237から出力された左眼用の画像に対応する画像データ371及び右眼用の画像に対応する画像データ372との間の視差量を調整する。視差量の調整がなされた左眼用の画像に対応する画像データ381及び右眼用の画像に対応する画像データ382は、ディスプレイ装置21の表示パネル211へ出力される。
 音声信号処理部239は、必要に応じて、再生部236から出力された音声データにイコライザ処理といった音声信号処理を施す。その後、音声信号処理部239は、音声信号処理後の音声信号390をディスプレイ装置21のスピーカ212へ出力する。
 ディスプレイ装置21は、テレビ装置2と眼鏡装置3との間の同期制御のために用いられる同期信号生成部215を含む。同期信号生成部215は、画像再生装置23からディスプレイ装置21に出力された画像信号に基づき眼鏡装置3との同期信号を生成し、送信部213に出力する。送信部213は、同期信号生成部215によって生成された同期信号を眼鏡装置3の受信部34に向けて出力する。
 なお、画像再生装置23の制御部235は、モード制御信号242を同期信号生成部215に出力してもよい。このモード制御信号242は、後ほど説明される高速再生のときの眼鏡の制御方法によって、必要な場合と無くてもよい場合がある。なお、モード制御信号242は、例えば、HDMIのCEC規格による機器間制御にしたがって出力可能である。
 図4は、図1に示される眼鏡装置3の構成を説明するブロック図である。図1乃至図4を用いて、眼鏡装置3が説明される。
 眼鏡装置3は、受信部34、内部信号生成部38、光学フィルタ制御部39及び光学フィルタ部33を含む。受信部34は、ディスプレイ装置21の送信部213から送信された同期信号を受信し、電気的なタイミング制御信号に変換して内部信号生成部38に出力する。
 内部信号生成部38は、タイミング制御信号に基づいて、眼鏡装置3内部の各部を制御するための内部信号を生成する。光学フィルタ制御部39は、内部信号生成部38が生成した内部信号に基づいて、光学フィルタ部33の左眼フィルタ31,右眼フィルタ32の動作を制御する。この結果、表示パネル211が左眼用の画像に対応する画像データ381の映像信号を表示している間、左眼フィルタ31は視聴者の左眼への光の透過を許容する一方で、右眼フィルタ32は視聴者の右眼へ透過する光の量を減少させる。逆に、表示パネル211が右眼用の画像に対応する画像データ382の映像信号を表示している間、右眼フィルタ32は視聴者の右眼への光の透過を許容する一方で、左眼フィルタ31は視聴者の右眼へ透過する光の量を減少させる。かくして、視聴者は、図2に関連して説明されたように、画像データ381及び画像データ382中に表示されるオブジェクトO,Oを立体的に(オブジェクトFとして)知覚することとなる。
 図1及び図3を再度用いて、早見再生時における画像再生装置23の動作が説明される。
 視聴者がリモートコントローラ25を操作し、早見再生速度でのコンテンツデータの再生を指示すると、制御部235は、バス240を介して、再生部236、画像信号処理部237、調整部238、媒体制御部234、画像生成部241及び音声信号処理部239を制御し、記憶媒体233からコンテンツデータ(映像データ及び音声データ)を早見再生速度(例えば、標準再生速度の1.3倍の再生速度)で再生する。画像信号処理部237は、映像データ中の画像を間引いて調整部238へ画像データ371,372を出力する。この結果、視差量の時間変化は大きくなる。調整部238は、視差量の時間変化を小さくすべく、視差量を調整するための処理を実行する。
 図5は、調整部238による視差量を調整するための処理を説明する図である。図5(a)は、記憶媒体233に記憶されたコンテンツデータ(映像データ)に含まれる左眼用の画像及び右眼用の画像を示す。図5(b)は、調整部238によるシフト量を決定する工程を示す。図5(c)は、調整部238によって、視差量の調整がなされた後の左眼用の画像及び右眼用の画像を示す。図5の上段には、左眼用の画像が示されている。図5の下段には右眼用の画像が示されている。図1乃至図3並びに図5を用いて、調整部238による視差量を調整するための処理が説明される。
 記憶媒体233に記憶されたコンテンツデータに含まれる左眼用の画像と右眼用の画像との視差量は、図5(a)中、符号「X」で示されている。視聴者がリモートコントローラ25を操作し、標準再生速度を選択したとき、調整部238は視差量を維持したまま、ディスプレイ装置21に映像信号(画像データ381,382)を出力する。視聴者がリモートコントローラ25を操作し、早見再生速度を選択したとき、調整部238は、図5(b)に示される如く、左眼用の画像の左縁から所定の幅のトリム領域T及び右眼用の画像の右縁から所定の幅のトリム領域Tを決定する。その後、調整部238は、トリム領域T以外の左眼用の画像の領域をトリム領域Tの幅の分だけ右方に移動させる。この結果、トリム領域Tの画像データは消滅する一方で、左眼用の画像の右縁に沿ってトリム領域Tの幅と等しい幅の画像データが存在しない領域Nが生ずる。この画像データが存在しない領域Nには、例えば、灰色で表示されるように補足的な画像データが埋め込まれてもよい。同様に、調整部238は、トリム領域T以外の右眼用の画像の領域をトリム領域Tの幅の分だけ右方に移動させる。この結果、トリム領域Tの画像データは消滅する一方で、右眼用の画像の左縁に沿ってトリム領域Tの幅と等しい幅の画像データが存在しない領域Nが生ずる。この画像データが存在しない領域Nには、例えば、灰色で表示されるように補足的な画像データが埋め込まれてもよい。かくして、左眼用の画像の中に表されているオブジェクトOと右眼用の画像の中に表されているオブジェクトOとが互いに近づくように、左眼用の画像及び右眼用の画像のシフトがなされる。この結果、左眼用の画像と右眼用の画像との間の視差量(左眼用の画像中のオブジェクトOと右眼用の画像中のオブジェクトOとの間の位置差)が低減する。低減された視差量は、図5(c)において、符号「X」で示されている。したがって、調整部238は、標準再生速度でコンテンツデータの再生が行われている間の視差量よりも、早見再生速度でコンテンツデータの再生が行われている間の視差量を低減させることができる。
 早見再生速度として、画像再生装置23が複数の再生速度を用意している場合、トリム領域T,Tの幅は、再生速度が大きくなるにつれて大きくされることが好ましい。これにより、比較的速い早見再生速度では、視差量がより小さくなるように調整され、比較的遅い早見再生速度では、視差量がより大きくなるように調整されることとなる。トリム領域T,Tの幅は、再生速度をパラメータとする所定の演算式を用いて、演算並びに決定されてもよい。代替的に、早見再生速度それぞれに対応するトリム領域T,Tの幅を示すルックアップテーブルが用意されてもよい。調整部238は、ルックアップテーブル内に用意されたトリム領域T,Tから、視聴者によるリモートコントローラ25の操作によって決定された特定の早見再生速度に対応するトリム領域T,Tを選択してもよい。
 左眼用の画像に対するトリム領域Tの幅は、左眼用の画像に対するトリム領域Tの幅に等しいことが好ましい。これにより、標準再生速度での再生時において視聴者に立体的に知覚されるオブジェクトの位置と早見再生速度での再生時において視聴者に立体的に知覚されるオブジェクトの位置との間の差が少なくなる。必要に応じて、左眼用の画像及び右眼用の画像のうち一方に対してのみ、図5に関連して説明された画像のシフト処理が実行されてもよい。或いは、必要に応じて、互いに異なるシフト量で、左眼用の画像及び右眼用の画像に対し、シフト処理が実行されてもよい。
 図6は、調整部238による視差量を調整するための他の処理を説明する図である。図6(a)は、記憶媒体233に記憶されたコンテンツデータ(映像データ)に含まれる左眼用の画像及び右眼用の画像を示す。図6(b)は、調整部238による縮小量を決定する工程を示す。図6(c)は、調整部238によって、縮小量の調整がなされた後の左眼用の画像及び右眼用の画像を示す。図6の上段には、左眼用の画像が示され、下段には右眼用の画像が示されている。図1乃至図3並びに図6を用いて、調整部238による視差量を調整するための処理が説明される。
 記憶媒体233に記憶されたコンテンツデータに含まれる左眼用の画像と右眼用の画像との視差量は、図6(a)中、符号「X」で示されている。視聴者がリモートコントローラ25を操作し、標準再生速度を選択したとき、調整部238は視差量を維持したまま、ディスプレイ装置21に映像信号(画像データ381,382)を出力する。視聴者がリモートコントローラ25を操作し、早見再生速度を選択したとき、調整部238は、図6(b)に示される如く、縮小された画像の表示領域Dを決定する。表示領域Dは、コンテンツデータに含まれる左眼用の画像及び右眼用の画像の表示領域と相似形状の領域である。表示領域Dの中心が、コンテンツデータに含まれる左眼用の画像及び右眼用の画像の表示領域と一致するように、表示領域Dの位置が決定される。その後、調整部238は、左眼用の画像及び右眼用の画像を表示領域Dで定められる大きさの領域まで縮小する。この結果、縮小された左眼用の画像及び右眼用の画像の周縁に沿って、画像データが存在しない領域Nが生ずる。この画像データが存在しない領域Nには、例えば、灰色で表示されるように補足的な画像データが埋め込まれてもよい。かくして、調整部238による縮小処理により、左眼用の画像の中に表されているオブジェクトOと右眼用の画像の中に表されているオブジェクトOとが互いに近づくこととなる。この結果、左眼用の画像と右眼用の画像との間の視差量(左眼用の画像中のオブジェクトOと右眼用の画像中のオブジェクトOとの間の位置差)が低減する。低減された視差量は、図6(c)において、符号「X」で示されている。したがって、調整部238は、標準再生速度でコンテンツデータの再生が行われている間の視差量よりも、早見再生速度でコンテンツデータの再生が行われている間の視差量を低減させることができる。
 早見再生速度として、画像再生装置23が複数の再生速度を用意している場合、調整部238による画像縮小率は、再生速度が大きくなるにつれて大きくされることが好ましい。これにより、比較的速い早見再生速度では、視差量がより小さくなるように調整され、比較的遅い早見再生速度では、視差量がより大きくなるように調整されることとなる。調整部238による画像縮小率は、再生速度をパラメータとする所定の演算式を用いて、演算並びに決定されてもよい。代替的に、早見再生速度それぞれに対応する画像縮小率を示すルックアップテーブルが用意されてもよい。調整部238は、ルックアップテーブル内に用意された画像縮小率から、視聴者によるリモートコントローラ25の操作によって決定された特定の早見再生速度に対応する画像縮小率を選択してもよい。
 図7は、調整部238による視差量を調整するための他の処理を説明する図である。図7(a)乃至図7(d)は、調整部238が行う処理を順に示す。図7に示される画像は、右眼用の画像である。図7に関連して説明される調整部238による処理は、左眼用の画像に対しても同様に適用可能である。図1乃至図3並びに図5乃至図7を用いて、調整部238による視差量を調整するための処理が説明される。
 図5及び図6に示される処理において、調整部238は画像全体を処理しているが、図7に示される処理において、調整部238は画像中のオブジェクト単位で処理を実行する。このため、調整部238は、第1画像及び第2画像をセグメント化するセグメント化部と、セグメント化により得られた区画のうち、オブジェクトの表示に寄与している区画を識別する区画識別部と、識別部によって識別された区画に含まれる画像データの表示位置を変更する変更部とを備えることが好ましい。視聴者がリモートコントローラ25を操作し、早見再生速度を選択したとき、セグメント化部は、図7(a)に示される如く、画像を複数の矩形区画にセグメント化する。区画識別部は、画像中のオブジェクトOの表示に寄与している区画を識別する。オブジェクトOの識別には、輪郭抽出といった既知の画像処理技術が適用可能である。図7(b)に示されるように、区画識別部は、画像の各区画がオブジェクトOの表示に寄与しているか否かを判定し、オブジェクトOの表示に寄与している領域Cを決定する。図7(c)に示されるように、その後、変更部は、領域Cに含まれる画像データの表示位置を右方に移動させる。領域Cに含まれる画像データの表示位置の移動量は、早見再生速度の大きさに応じて、適宜定められる。領域Cに含まれる画像データの表示位置の変更に伴い、領域Cの左方に画像データが存在しない領域Nが発生する。各区画に生じた領域Nには、周囲の区画の画像データを用いて補完的な画像データが埋め込まれることとなる。例えば、オブジェクトOが右方に移動した分、左方の背景画像の続きが見えてくると仮定し、左方の隣接領域の画像データがコピーされてもよい。かくして、図7(d)に示されるように、早見再生速度でのコンテンツデータの再生時において、オブジェクトOを画像中で所定量だけ移動させ、左眼用の画像と右眼用の画像との間の視差量の低減が図られる。したがって、調整部238は、標準再生速度でコンテンツデータの再生が行われている間の視差量よりも、早見再生速度でコンテンツデータの再生が行われている間の視差量を低減させることができる。
 図2、図3及び図7を用いて、更に、画像中のオブジェクトの移動が説明される。
 コンテンツデータに含まれる左眼用の画像及び右眼用の画像中のオブジェクトO,O間の位置差X又はXに基づき、変更部は、表示パネル211上にオブジェクトFが知覚されるときの左眼Lと右眼Rとの間の基準輻輳角θを算出することができる。また、変更部は、オブジェクトO,O間の位置差X又はXに基づき、オブジェクトO,O間の位置差がX或いはオブジェクトO,O間の位置差がXであるときの左眼Lと右眼Rとの間の輻輳角θ又はθを算出することができる。変更部は更に、基準輻輳角θと、オブジェクトO,O間の位置差がX或いはオブジェクトO,O間の位置差がXであるときの輻輳角θ又はθとの差の絶対値が標準再生速度での再生時よりも早見再生速度での再生時の方が小さくなるようにオブジェクトO,Oを図7に関連して説明された手法を用いて移動させることができる。
 図8は、立体的に知覚されるオブジェクトが複数存在するときのオブジェクトの移動を説明する図である。図2、図3、図7及び図8を参照しつつ、オブジェクトの移動が更に説明される。
 調整部238は、第1画像及び第2画像中に表示される複数のオブジェクトのうち特定のオブジェクトに対して、図7に関連して説明された画像処理を実行してもよい。このため、調整部238は、特定のオブジェクトを識別するオブジェクト識別部を備えることが好ましい。図8に示されるように、視聴者に立体的に知覚される複数のオブジェクトF乃至Fが存在するとき、オブジェクト識別部は、左眼用の画像及び右眼用の画像中のオブジェクトO,Oの位置差X又はXに基づいて、視聴者に最も近い位置に存すると知覚される第1オブジェクトと最も遠い位置に存すると知覚される第2オブジェクトとを識別することができる。図8において、第1オブジェクトとして識別されるオブジェクトには符号Fが付され、第2オブジェクトとして識別されるオブジェクトには符号Fが付されている。変更部は、視聴者に最も近い位置に存すると知覚されるオブジェクトF及び最も遠い位置に存すると知覚されるオブジェクトFを移動させる対象のオブジェクトとして、図2及び図7に関連して説明された手法を用いて、これらを画像中で移動させることができる。視聴者が知覚する表示パネル211からのオブジェクトの飛び出し量及び/又は引き込み量が低減されるので、視聴者の眼への負担が緩和される。
 図9は、立体的に知覚されるオブジェクトが複数存在するときのオブジェクトの移動の他の手法を説明する図である。図2、図3、図7及び図9を参照しつつ、オブジェクトの移動の他の手法が更に説明される。
 オブジェクト識別部は、表示パネル211から視聴者に知覚されるオブジェクトまでの距離に対して設けられた閾値に基づいて、移動対象となるオブジェクトを選択してもよい。図9には、表示パネル211から距離Yだけ視聴者側に接近した位置に飛び出し側の閾値Tを表す線が示されている。また、図9には、表示パネル211から距離Yだけ視聴者から離間した位置に引き込み側の閾値Tを表す線が示されている。
 図9には、閾値Tを表す線と閾値Tを表す線との間の領域で知覚されるオブジェクトF及びFが示されている。また、閾値Tを表す線よりも視聴者側に近接した位置にオブジェクトF及びFが示されている。更に、閾値Tを表す線よりも視聴者から離間した位置にオブジェクトF及びFが示されている。
 オブジェクト識別部は、閾値Tを表す線よりも視聴者側に近接したオブジェクトF及びF並びに閾値Tを表す線よりも視聴者から離間したオブジェクトF及びFを移動対象となるオブジェクトとして選択する。変更部は、図2及び図7に関連して説明された手法を用いて、選択されたオブジェクトF、F、F、Fの表示位置を変更する。視聴者が知覚する表示パネル211からのオブジェクトの飛び出し量及び/又は引き込み量が低減されるので、視聴者の眼への負担が緩和される。
 図10は、立体的に知覚されるオブジェクトが複数存在するときのオブジェクトの移動の他の手法を説明する図である。図2、図3、図7及び図10を参照しつつ、オブジェクトの移動の他の手法が更に説明される。
 オブジェクト識別部は、表示パネル211中のオブジェクトの表示位置に基づいて、異動対象となるオブジェクトを選択してもよい。図10に示される如く、オブジェクト識別部は、表示パネル211中のオブジェクトの表示領域を水平方向に分割された3つの領域(左側領域、中央領域及び右側領域)として識別してもよい。
 図10において、左側領域中には、オブジェクトFが表示される。中央領域中には、オブジェクトF及びFが表示される。左側領域中には、オブジェクトFが表示される。
 オブジェクト識別部は、中央領域に表示されるオブジェクトF及びFを移動対象となるオブジェクトとして選択する。変更部は、図2及び図7に関連して説明された手法を用いて、選択されたオブジェクトF及びFの表示位置を変更する。一般的に、視聴者は、中央領域に表示されるオブジェクトを注視するので、中央領域に表示されるオブジェクトの飛び出し量及び/又は引き込み量が低減されると、視聴者の眼への負担が緩和される。
 図11は、立体的に知覚されるオブジェクトが複数存在するときのオブジェクトの移動の他の手法を説明する図である。図2、図3、図7及び図11を参照しつつ、オブジェクトの移動の他の手法が更に説明される。
 オブジェクト識別部は、表示パネル211中のオブジェクトの表示面積に基づいて、異動対象となるオブジェクトを選択してもよい。図11には、最も大きく表示されるオブジェクトFと、オブジェクトFの次に大きく表示されるオブジェクトFと、オブジェクトFの次に大きく表示されるオブジェクトFと、最も大きく表示されるオブジェクトFとが示されている。オブジェクト識別部は、オブジェクトの表示面積に対して優先順位を設定し、例えば、2つのオブジェクトを選択してもよい。この場合、オブジェクト識別部は、オブジェクトF及びFを選択する。
 変更部は、図2及び図7に関連して説明された手法を用いて、選択されたオブジェクトF及びF表示位置を変更する。一般的に、視聴者は、大きく表示されるオブジェクトを注視する。したがって、比較的大きく表示されるオブジェクトの飛び出し量及び/又は引き込み量が低減されると、視聴者の眼への負担が緩和される。
 図11に関連して説明されたオブジェクト識別部による優先順位の設定は、図9及び図10に関連して説明されたオブジェクトの移動手法に適用されてもよい。例えば、図9に関連して説明されたオブジェクトの表示位置の変更は、閾値T及びTによって識別されたオブジェクトF乃至Fのうち、大きく表示される所定数のオブジェクトに対してのみ実行されてもよい。或いは、図9に関連して説明されたオブジェクトの表示位置の変更は、閾値T及びTによって識別されたオブジェクトF乃至Fのうち、中央領域に表示される或いは中央領域に近い位置に表示されるオブジェクトにのみ実行されてもよい。代替的に、オブジェクト識別部は、表示パネル211から視聴者に知覚されるオブジェクトまでの距離、オブジェクトの表示位置及び/又はオブジェクトの表示面積に基づいて、所定数のオブジェクトを移動対象のオブジェクトとして選択してもよい。
 図12は、早見再生時における音声信号処理部239の音声信号処理を説明する図である。図12(a)は、記憶媒体233が記憶するコンテンツデータの標準再生速度での音声データ(音声信号)を示す。図12(b)は、早見再生時において再生部236から音声信号処理部239へ出力される音声データ(音声信号)を示す。図12(c)は、音声信号処理部239による音声信号処理後の音声データ(音声信号)を示す。図1、図3及び図12を用いて、音声信号処理部239による音声信号処理が説明される。
 視聴者がリモートコントローラ25を操作して、早見再生を指示すると、標準再生速度での再生時と同様に、再生部236は、記憶媒体233が記憶するコンテンツデータの音声データ全てを再生し、音声信号処理部239へ出力する。図12(a)に示される音声データと図12(b)に示される音声データとを比較すると明らかな如く、早見再生速度で再生された音声データは、標準再生速度で再生された音声データと比較して、1秒当たりのデータ量が多くなっている。音声信号処理部239は、速度変換処理を行い、音声データの量を標準再生速度での再生時と同等のデータ量に低減し、ディスプレイ装置21へ出力する。
 図12(a)に示される如く、音声データは、無音部と、人間の声の子音を表す無声部と、人間の声の母音を表す有声部とに分割される。有声部には、等間隔の周期性(ピッチ周期)が認められ、音声信号処理部239は、ピッチ周期Pを検出する。
 図12(b)に示される如く、早見再生速度で再生され、再生部236から音声信号処理部239へ出力される音声データは、上述の如く、標準再生速度で再生される音声データと比較して、1秒当たりのデータ量が多くなる。この結果、早見再生速度で再生された音声データのピッチ周期Pは、標準再生速度で再生された音声データのピッチ周期Pよりも短くなる。したがって、早見再生速度で再生された音声データが速度変換処理を受けることなく出力された場合、視聴者はピッチ周期Pが短くなった分だけ音程が高くなった音声を聴くこととなる。また、音声が速すぎ、視聴者は音声データの内容を把握しづらくなる。
 図12(c)に示される如く、音声信号処理部239は、早見再生速度での再生時の間、早見再生速度に合わせて、無音部を短くするとともに、無声部及び有声部を長くするように音声データを調整する。この結果、音声速度が低減され、視聴者は、音声データの内容を比較的容易に把握することが可能となる。更に、音声信号処理部239は、検出されたピッチ周期Pの単位で有声部の音声データを間引き、ピッチ周期Pの長さを標準再生速度で再生された音声データのピッチ周期と等しく或いは近似させる。更に、音声信号処理部239は無声部の音声データを適宜間引く。その後、無声部及び有声部の音声データを、標準再生速度で再生された音声データと等しい或いは近似した波形となるように調整する。この結果、ディスプレイ装置21から出力された音声は、標準再生速度で再生された音声と等しくなる或いは近似することとなる。
 図1及び図3を再度用いて、高速再生時における画像再生装置23の動作が説明される。
 視聴者がリモートコントローラ25を操作し、高速再生速度でのコンテンツデータの再生を指示すると、制御部235は、バス240を介して、再生部236、画像信号処理部237、調整部238、媒体制御部234、画像生成部241及び音声信号処理部239を制御し、記憶媒体233からコンテンツデータ(映像データ及び音声データ)を高速再生速度(例えば、標準再生速度の2倍の再生速度)で再生する。画像信号処理部237は、映像データ中の画像を間引いて調整部238へ画像データ371,372を出力する。この結果、視差量の時間変化は大きくなる。
 調整部238は、高速再生速度でのコンテンツデータの再生の間、左眼用の画像データ381及び右眼用の画像データ382のうち一方をディスプレイ装置21へ出力する。この結果、ディスプレイ装置21は、左眼用の画像データ381及び右眼用の画像データ382のうち一方を表示することとなる。代替的に、画像信号処理部237が、左眼用の画像データ371及び右眼用の画像データ372のうち一方を調整部238へ出力してもよい。この結果、調整部238は、左眼用の画像データ381及び右眼用の画像データ382のうち一方をディスプレイ装置21へ出力し、ディスプレイ装置21は、左眼用の画像データ381及び右眼用の画像データ382のうち一方を表示することとなる。更に代替的に、調整部238は、図5乃至図11に関連して説明された手法を用いて、左眼用の画像と右眼用の画像との視差量を「0」とするように、左眼用の画像と右眼用の画像とを調整してもよい。
 高速再生速度でコンテンツデータが再生されると、音声信号処理部239はディスプレイ装置21への音声信号の出力を停止する処理を実行する。或いは、高速再生速度でコンテンツデータが再生されると、再生部236は音声データを再生しない。この結果、視聴者は、音声を聴くことなく、表示パネル211上に表示される映像を2次元的に知覚する。
 高速再生時には、上記にて説明した通り、調整部238は、左眼用の画像信号及び右眼用の画像信号のうち一方の画像信号を出力し、視差量を「0」にする。したがって、ディスプレイ装置21及び眼鏡装置3が通常再生時及び早見再生時と同じ動作をするならば、視聴者は2次元の画像を見ることができる。このときは、図3に関連して説明されたモード制御信号242は必要ない。一方、モード制御信号242が接続されることで、調整部238からは視差のある立体画像信号を出力したままで、視聴者には視差の無い画像を提示することが可能である。以下、このような場合について、図1、図3及び図4を再度参照しつつ、ディスプレイ装置21及び眼鏡装置3の動作が説明される。
 同期信号生成部215は、画像再生装置23が高速再生を行っていることをモード制御信号242経由で受け取り、標準再生時或いは早見再生時と異なる波形の同期信号を生成する。同期信号生成部215は、高速再生時において、眼鏡装置3に左眼フィルタ31と右眼フィルタ32とを同じタイミングで開閉させる同期信号を生成する。送信部213は、この同期信号を眼鏡装置3の受信部34へ送信する。
 眼鏡装置3の内部信号生成部38は、同期信号の波形に基づき、左右同一の画像を視聴するための制御を光学フィルタ制御部39に実行させるための内部信号を生成する。光学フィルタ制御部39は、当該内部信号に基づいて、左眼フィルタ31及び右眼フィルタ32を、左右同一タイミングで開閉する制御を実行する。例えば、両方が左眼画像に同期したタイミングで開くようにすることで、視聴者は右眼でも左眼でも左眼画像を見ることになる。この結果、視聴者は表示パネル211上に表示される映像を2次元的に知覚することとなる。
 図13は、制御部235による再生制御を説明するフローチャートである。尚、本実施形態において、制御部235は、画像再生装置23に予め記憶された再生制御実行用の画像再生プログラムであってもよい。図1、図3及び図13を用いて、制御部235による再生制御が説明される。
 (ステップS100)
 視聴者が、リモートコントローラ25を操作し、制御信号を画像再生装置23へ送信すると、制御部235は、制御信号に基づき、高速再生の指示がなされたか否かを判定する。制御部235が高速再生の指示がなされたと判定すると、ステップS110が実行される。制御部235が高速再生の指示がなされていないと判定すると、ステップS120が実行される。
 (ステップS110)
 制御部235が、高速再生の指示がなされたと判定すると、制御部235は、バス240を介して、再生部236、画像信号処理部237、調整部238、媒体制御部234及び画像生成部241を制御し、記憶媒体233に記憶されたコンテンツデータを高速再生速度で再生する。
 上述の如く、コンテンツデータが高速再生速度で再生されると、画像信号処理部237は、制御部235の制御下で、左眼用の画像データ371及び右眼用の画像データ372それぞれを間引いて、調整部238に出力する。調整部238は、制御部235の制御下で、左眼用の画像データ381及び右眼用の画像データ382のうち一方の画像データをディスプレイ装置21に出力する。代替的に、画像信号処理部237は、制御部235の制御下で、左眼用の画像データ371及び右眼用の画像データ372のうち一方を調整部238に出力してもよい。調整部238は、制御部235の制御下で、画像信号処理部237から出力された左眼用の画像データ371及び右眼用の画像データ372のうち一方の画像データをディスプレイ装置21に出力してもよい。この結果、調整部238は、左眼用の画像データ371及び右眼用の画像データ372のうち一方の画像データをディスプレイ装置21に出力することとなる。調整部238からディスプレイ装置21へ出力される画像データの選択は、予め定められてもよいし、視聴者のリモートコントローラ25の操作を通じて決定されてもよい。
 制御部235は、更に、再生部236を制御し、再生部236に音声データの再生を実行させない。代替的に、制御部235は、再生部236に音声データの再生を実行させる一方で、音声信号処理部239に音声データの出力をさせない制御を実行してもよい。この結果、視聴者は、音声を聴くことなく、表示パネル211上に表示される映像を2次元的に知覚することとなる。
 (ステップS120)
 ステップ100において、制御信号が高速再生を指示していないと判定するとき、ステップ120が実行される。ステップ120において、制御部235は、制御信号が早見再生速度でのコンテンツデータの再生を指示しているか否かを判定する。制御部235が、早見再生速度での再生の指示がなされたと判定すると、ステップ130が実行される。制御部235が、早見再生速度での再生の指示がなされていないと判定すると、ステップ140が実行される。
 (ステップS130)
 早見再生速度での再生の指示がなされたと判定した制御部235は、バス240を介して、再生部236、画像信号処理部237、調整部238、媒体制御部234及び画像生成部241を制御し、記憶媒体233に記憶されたコンテンツデータ(映像データ及び/又は音声データ)を早見再生速度で再生する。
 上述の如く、コンテンツデータが早見再生速度で再生されると、画像信号処理部237は、制御部235の制御下で、左眼用の画像データ371及び右眼用の画像データ372それぞれを間引いて、調整部238に出力する。その後、調整部238は、制御部235の制御下で、左眼用の画像データ371と右眼用の画像データ372との間の視差量を検出し、視差量を減少させる。視差量の減少は、図5乃至図11に関連して説明された手法を用いて実行される。更に、制御部235は、調整部238に減少された視差量を有するように調整された左眼用の画像データ381と右眼用の画像データ382とをディスプレイ装置21に出力させる。制御部235は更に、音声信号処理部239を制御し、音声信号の調整を行う。音声信号の調整は、図12に関連して説明された手法を用いて実行される。この結果、視聴者は、音声を聴きつつ、表示パネル211上に表示される映像を3次元的に知覚することとなる。このとき、表示パネル211に対して視聴者が知覚するオブジェクトの飛び出し量及び/又は引っ込み量は、上述の如く、標準再生速度での再生時に知覚されるオブジェクトの飛び出し量及び/又は引き込み量よりも低減されている。したがって、早見再生速度で再生された映像を視聴する視聴者の眼への負担が軽減されることとなる。
 (ステップS140)
 ステップS120において、制御部235が、制御信号が早見再生を指示していないと判定するならば、ステップS140が実行される。ステップS140において、制御部235は、バス240を介して、再生部236、画像信号処理部237、調整部238、媒体制御部234及び画像生成部241を制御し、記憶媒体233に記憶されたコンテンツデータ(映像データ及び/又は音声データ)を標準再生速度で再生する。
 (高速再生モードから標準再生モードへのモード変更)
 視聴者がリモートコントローラ25を操作し、高速再生モードから標準再生モードへモード変更を行うと、画像信号処理部237は、制御部235の制御下で、記録媒体上の画像信号の各フレームをスキップすることなく、調整部238に出力する。調整部238は、制御部235の制御下で、左眼用の画像データ381及び右眼用の画像データ382をディスプレイ装置21に出力する。
 (高速再生モードから早見再生モードへのモード変更)
 視聴者がリモートコントローラ25を操作し、高速再生モードから早見再生モードへモード変更を行うと、画像信号処理部237は、制御部235の制御下で、左眼用の画像データ371及び右眼用の画像データ372それぞれを間引いて、調整部238に出力する。その後、調整部238は、制御部235の制御下で、左眼用の画像データ371と右眼用の画像データ372との間の視差量を検出し、視差量を減少させる。視差量の減少は、図5乃至図11に関連して説明された手法を用いて実行される。更に、制御部235は、調整部238に減少された視差量を有するように調整された左眼用の画像データ381と右眼用の画像データ382とをディスプレイ装置21に出力させる。制御部235は更に、音声信号処理部239を制御し、音声信号の調整を行う。音声信号の調整は、図12に関連して説明された手法を用いて実行される。この結果、視聴者は、音声を聴きつつ、表示パネル211上に表示される映像を3次元的に知覚することとなる。このとき、表示パネル211に対して視聴者が知覚するオブジェクトの飛び出し量及び/又は引っ込み量は、上述の如く、標準再生速度での再生時に知覚されるオブジェクトの飛び出し量及び/又は引き込み量よりも低減されている。したがって、早見再生速度で再生された映像を視聴する視聴者の眼への負担が軽減されることとなる。
 (早見再生モードから標準再生モードへのモード変更)
 視聴者がリモートコントローラ25を操作し、早見再生モードから高速再生モードへモード変更を行うと、画像信号処理部237は、制御部235の制御下で、記録媒体上の画像信号の各フレームをスキップすることなく、調整部238に出力する。調整部238は、制御部235の制御下で、左眼用の画像データ381及び右眼用の画像データ382をディスプレイ装置21に出力する。このとき、調整部238は、画像信号処理部237から入力された左眼用の画像データ371及び右眼用の画像データ372に対して、視差量の調整を行わない。したがって、調整部238から出力される左眼用の画像データ381及び右眼用の画像データ382との間には、記憶媒体233中のコンテンツデータに従う視差量が存在することとなる。かくして、標準再生モードにおいて、視聴者は、早見再生モードと比べて、大きな飛び出し量及び/又は引き込み量のオブジェクトを知覚することができる。
 (第2実施形態)
 図14は、第2実施形態に係る画像再生装置23Aの構成を説明する概略的なブロック図である。図15は、再生部236Aから出力される画像データ360を示す。第1実施形態と同様の要素に対して、同様の符号が割り当てられている。図14及び図15を用いて、第1実施形態との相違点が説明される。本実施形態において、再生部236Aから調整部238Aへ送られる画像データ360が第1実施形態と相違する。以下において説明されない要素に対し、第1実施形態に係る説明が好適に援用される。
 第1実施形態に関連して説明された再生部236と同様に、再生部236Aは、記憶媒体233に記憶されたコンテンツデータの映像データから再生対象となる画像データを読み出す。その後、再生部236Aは、読み出された画像データ360を画像信号処理部237Aへ出力する。画像データ360は、表示パネル211に表示される画像のデータに加えて、左眼用の画像データ381と右眼用の画像データ382とを生成するための視差量データ「X」を含む。
 第1実施形態に関連して説明された画像信号処理部237と同様に、画像信号処理部237Aは、画像データ360に対して、記録時に施されているMPEG-2やH.264といった圧縮符号化に対する伸長処理や、表示用の画像調整処理を施与する。これらの処理がなされた画像データ370は、調整部238Aに出力される。
 図16は、画像信号処理部237Aから出力される画像データ370と、標準再生モードにおいて調整部238Aから出力される左眼用及び右眼用の画像データ381,382とを示す。図14及び図16を用いて、調整部238Aによる画像データ381,382の生成が説明される。
 調整部238Aは、画像信号処理部237Aから出力される画像データ370に基づき、左眼用の画像データ381と右眼用の画像データ382とを生成する。調整部238Aは、標準再生モードにおいて、画像データ370が含む視差量データに基づき、画像データ370中のオブジェクトOの表示位置が視差量「X」だけずらされた画像データ381,382を生成する。左眼用の画像データ381と右眼用の画像データ382との間で、オブジェクトがずらされる方向は水平方向に異なる。
 図17は、画像信号処理部237Aから出力される画像データ370と、早見再生モードにおいて調整部238Aから出力される左眼用及び右眼用の画像データ381,382とを示す。図14、図16及び図17を用いて、調整部238Aによる画像データ381,382の生成が説明される。
 調整部238Aは、早見再生モードにおいて、画像データ370が含む視差量データが規定する視差量「X」よりも小さな視差量「Xa」だけ画像データ370中のオブジェクトOの表示位置が水平方向にずらされた画像データ381,382を生成する。標準再生モードにおけるオブジェクトOの表示位置のズレ量「X」に対する早見再生モードにおけるオブジェクトOの表示位置のズレ量「Xa」の減少率は、標準再生モードにおける再生速度と早見再生モードにおける再生速度との差に応じて、適宜決定される。本実施形態において、画像データ370に含まれる視差量データは、視差情報として例示される。早見再生モードにおけるオブジェクトの表示位置の調整に対して、図5乃至図11に関連して説明された手法が好適に用いられる。
 調整部238Aは、早見再生モード時に、低減された視差量「Xa」となるように画像データ381,382を縮小してもよい。代替的に、視差量データが画像データ370中に含まれる複数のオブジェクトそれぞれに割り当てられているならば、調整部238Aは、オブジェクトを個別にずらす調整をしてもよい。更に代替的に、調整部238Aは、オブジェクトそれぞれに対して割り当てられた視差量データに基づき、移動対象となるオブジェクトを選択してもよい。
 第2実施形態において、画像データ370に含まれる視差量データに基づき、画像データ370のオブジェクトOは、画像データ381,382において左右にずらされている。代替的に、画像データ370に含まれる視差量データは、画像データ381,382のうち一方に対するシフト量を表してもよい。例えば、画像データ370の視差量データが左眼用の画像データ381のオブジェクトOのシフト量を表すならば、調整部238Aは、左眼用の画像データ381を生成するときに、視差量データに従って、オブジェクトOをシフトさせ、右眼用の画像データ382を生成するときに、画像データ370に表現されたオブジェクトOと略等しい位置にオブジェクトOを表現してもよい。
 上記の実施形態においては、標準再生モードの2倍以上の速度が高速再生モードとして規定され、高速再生モードにおいて、表示パネル211は2次元画像を表示する。代替的に、標準再生速度の2倍の再生速度や4倍の再生速度といった低倍速高速再生においても、図5乃至図11に関連して説明された手法を用いて、視差量が低減された上で、映像が視聴者に提供されてもよい。また、標準再生速度の4倍を超える再生速度において、上述の如く、2次元的に映像が知覚されるように、視聴者に映像が提供されてもよい。
 第1実施形態において、高速再生時においても、再生部236は記憶媒体233から全ての画像を読み込んでいる。代替的に、高速再生時において、再生部236は記憶媒体233から左眼用の画像データ及び右眼用の画像データのうちいずれか一方を選択的に読み込んでもよい。
 上記の実施形態において、立体映像の視聴を補助する眼鏡装置3として、シャッタ方式の眼鏡装置が採用されている。代替的に、立体映像の視聴を補助する眼鏡装置3として、偏向方式の眼鏡装置が採用されてもよい。
 上述の画像再生装置23は、CPU(Central Processing Unit)、システムLSI(Large Scale Integration)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、ネットワークインターフェースを備えてもよい。更に、画像再生装置23は、DVD-RAM、Blu-rayディスク、SD(Secure Digital)メモリカードのような可搬性の記録媒体に対して読み出し、又は、読み書き可能なドライブ装置を備えてもよい。
 尚、上記説明における図面に示される構成、配置或いは形状等並びに図面に関連する記載は、上述された実施形態の原理を容易に理解させることを目的とするものであり、上述された実施形態の原理を何ら限定するものではない。上述された実施形態において示されるコンテンツデータは、ブルーレイディスクやDVDディスクといった記憶媒体に格納された映画、ビデオなどの映像データ及び/又は音声データを含む。代替的に、コンテンツデータは、インターネット経由で提供される映像データ及び/又は音声データ、放送電波を用いて提供される映像データ及び/又は音声データや他の手段を用いて提供される映像データ及び/又は音声データであってもよい。上述された実施形態において示される画像再生装置は、ブルーレイディスクやDVDディスクといった記憶媒体を再生するためのブルーレイプレイヤやDVDプレイヤである。代替的に、画像再生装置は、提供されたコンテンツデータを、記憶し或いは記憶することなしに、再生するパーソナルコンピュータや他の画像再生機能を有する任意の装置であってもよい。上述された実施形態において、表示装置として示されるテレビ装置では、コンテンツデータを映像として表示するためのディスプレイ装置と画像再生装置とが別体に設けられている。代替的に、テレビ装置は、一体的に構成されたディスプレイ装置と画像再生装置とを含んでもよい。また、表示装置は、放送波をチューニングする機能を有するテレビ装置の他、モニタを有するコンピュータや画像を表示することが可能な任意の装置であってもよい。
 上述された実施形態において、コンテンツデータを格納する記憶媒体によって定められる標準再生速度が第1速度として示される。代替的に、コンテンツデータを最も良好に提供することができる再生速度が第1速度とされてもよい。更に代替的に、画像再生装置が提供可能な再生速度のうち、比較的低い再生速度が第1速度として用いられてもよい。上述された実施形態において、第1速度より速い再生速度であって、視聴者が音声データの内容を把握できる程度の早見再生速度が第2速度として示される。代替的に、コンテンツデータが含む映像データによって表されるオブジェクトを立体的に視聴者が把握できる程度の再生速度が第2速度とされてもよい。上述された実施形態において、早見再生速度は、標準再生速度の1.3倍乃至1.5倍の範囲の再生速度である。代替的に、早見再生速度は、標準再生速度よりも速く且つ標準再生速度の2倍未満の再生速度とされてもよい。上述された実施形態において、視聴者が音声データの内容を把握できる程度の再生速度よりも速い高速再生速度が第3速度として示される。代替的に、第2速度よりも速い任意の再生速度が第3速度として用いられてもよい。上述された実施形態において、高速再生速度は、標準再生速度の2倍の再生速度である。代替的に、標準再生速度の2倍を超える再生速度であってもよく、標準再生速度の2倍を下回る再生速度であってもよい。更に、代替的に、連続的に再生速度が増減されてもよい。この場合、連続的に変化する再生速度の変化帯の任意の速度が第1速度とされ、該第1速度よりも速い任意の速度が第2の速度とされ、該第2速度より速い任意の速度が第3速度とされる。
 本実施形態の画像再生装置23は、ディスプレイ装置21を伴って、テレビ装置2を構成している。代替的に、画像再生装置23は、デジタルビデオカメラ、デジタルレコーダ、デジタルテレビ、ゲーム機、IP電話機や携帯電話機といった任意の画像処理装置に組み込まれてもよい。
 本実施形態の画像再生装置23の制御部235及び/又は他の構成要素は、HDDまたはROMなどにインストールされた画像再生装置23を制御するためのプログラム(以下、画像再生プログラムと称される)として実現されてもよい。画像再生プログラムが実行されることによって、画像再生装置23の各機能が実現されてもよい。
 画像再生プログラムは、コンピュータシステムや組み込みシステムといったハードウェアシステムに読み取り可能な記録媒体に記録されてもよい。さらに、画像再生プログラムが、記録媒体を介して他のハードウェアシステムに読み出されて実行されてもよい。これにより、画像再生装置23の各機能が他のハードウェアシステムを用いて実現されることとなる。ここで、コンピュータシステム読み取り可能な記録媒体として、光学記録媒体(例えば、CD-ROM)、磁気記録媒体(例えば、ハードディスク)、光磁気記録媒体(例えば、MOなど)や半導体メモリ(例えば、メモリカード)が例示される。
 画像再生プログラムは、インターネット、ローカルエリアネットワークといったネットワークに接続されたハードウェアシステムに保持されてもよい。さらに、ネットワークを介して他のハードウェアシステムにダウンロードされて実行されてもよい。これによって、画像再生装置23の各機能を他のハードウェアシステムを用いて実現されることとなる。ここで、ネットワークとして、地上放送網、衛星放送網、PLC(Power Line Communication)、移動電話網、有線通信網(例えば、IEEE802.3)、無線通信網(例えば、IEEE802.11)が例示される。
 本実施形態の画像再生装置23に実装される画像再生回路によって、画像再生装置23の各機能が実現されてもよい。
 画像再生回路は、フルカスタムLSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)といったセミカスタムLSI、FPGA(Field Programmable Gate Array)やCPLD(Complex Programmable Logic Device)といったプログラマブル・ロジック・デバイス、動的に回路構成が書き換え可能なダイナミック・リコンフィギュラブル・デバイスに形成されてもよい。
 画像再生装置23の各機能を画像再生回路に形成する設計データは、ハードウェア記述言語によって記述されたプログラム(以下、HDLプログラムと称される)であってもよい。代替的に、設計データは、HDLプログラムを論理合成して得られるゲート・レベルのネットリストであってもよい。また、設計データは、ゲート・レベルのネットリストに、配置情報、プロセス条件等を付加したマクロセル情報であってもよい。設計データは、寸法、タイミング等が規定されたマスクデータとしてもよい。ここで、ハードウェア記述言語として、VHDL(Very high speed integrated circuit Hardware Description Language)、Verilog-HDLやSystemCが例示される。
 さらに、設計データは、コンピュータシステム、組み込みシステムなどのようなハードウェアシステムに読み取り可能な記録媒体に記録されてもよい。設計データは、記録媒体を介して他のハードウェアシステムに読み出されて実行されてもよい。これらの記録媒体を介して他のハードウェアタシステムに読み取られた設計データは、ダウンロードケーブルを介して、プログラマブル・ロジック・デバイスにダウンロードされてもよい。
 設計データは、インターネット、ローカルエリアネットワークなどのようなネットワークに接続されているハードウェアシステムに保持されてもよい。さらに、設計データは、ネットワークを介して他のハードウェアシステムにダウンロードされて実行されてもよい。これらのネットワークを介して他のハードウェアシステムに取得された設計データは、ダウンロードケーブルを介して、プログラマブル・ロジック・デバイスにダウンロードされてもよい。
 代替的に、設計データは、通電時にFPGAに転送され得るように、シリアルROMに記録されてもよい。シリアルROMに記録された設計データは、通電時に、直接、FPGAにダウンロードされてもよい。
 設計データは、通電時に、マイクロプロセッサによって生成され、FPGAにダウンロードされてもよい。
 上述された実施形態は、以下の構成を主に備える。
 上述の実施形態の一局面に係る画像再生装置は、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、前記コンテンツデータを再生するときの再生速度を設定する設定部と、該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする。
 上記構成によれば、再生部が再生するコンテンツデータは、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させる。設定部は、コンテンツデータを再生するときの再生速度を設定する。調整部は、設定部により設定された再生速度に応じて第1画像と第2画像との間の視差に関する視差情報を調整する。再生速度に応じて視差情報が調整されるため、視聴者が比較的短時間でコンテンツ内容を把握できるように速い再生速度でコンテンツデータを再生しても、視聴者の眼に対する疲労の増大が抑制される。
 上記構成において、前記調整部は、前記コンテンツデータを視聴する視聴者に知覚される前記映像データ中のオブジェクトの飛び出し量又は引き込み量のうち少なくとも一方の知覚量を前記再生速度に応じて変更することが好ましい。
 上記構成によれば、調整部は、前記コンテンツデータを視聴する視聴者に知覚される前記映像データ中のオブジェクトの飛び出し量又は引き込み量のうち少なくとも一方の知覚量を前記再生速度に応じて変更する。したがって、視聴者が比較的短時間でコンテンツ内容を把握できるように速い再生速度でコンテンツデータを再生しても、視聴者の眼に対する疲労の増大を抑制することが可能となる。
 上記構成において、前記設定部は、前記コンテンツデータを第1速度で再生するための第1モードと、前記コンテンツデータを前記第1速度よりも速い第2速度で再生するための第2モードと、を選択的に設定し、前記調整部は、前記第2モードにおける前記知覚量の変動量が、前記第1モードにおける前記知覚量の変動量よりも小さくなるように前記視差情報を調整することが好ましい。
 上記構成によれば、設定部は、コンテンツデータを第1速度で再生するための第1モードと、コンテンツデータを第1速度よりも速い第2速度で再生するための第2モードと、を選択的に設定する。調整部は、第2モードにおける知覚量の変動量が、第1モードにおける知覚量の変動量よりも小さくなるように視差情報を調整する。第2モードにおいて、知覚量の変動量が小さくなり、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記調整部は、前記第1画像及び前記第2画像のうち少なくとも一方をシフトさせることが好ましい。
 上記構成によれば、視差情報を調整する調整部は、第1画像及び第2画像のうち少なくとも一方をシフトさせる。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記調整部は、前記第1画像及び前記第2画像を縮小することが好ましい。
 上記構成によれば、視差情報を調整する調整部は、第1画像及び第2画像を縮小する。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記調整部は、前記第1画像中の前記オブジェクトの表示位置及び前記第2画像中の前記オブジェクトの表示位置のうち少なくとも一方を変更することが好ましい。
 上記構成によれば、視差情報を調整する調整部は、第1画像中のオブジェクトの位置及び第2画像中のオブジェクトの位置のうち少なくとも一方を変更する。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記オブジェクトは、複数のオブジェクトを含み、前記調整部は、前記コンテンツデータが表示される表示面からの前記オブジェクトの前記飛び出し量、前記表示面からの前記オブジェクトの前記引き込み量、前記表示面中の前記オブジェクトの表示位置及び前記オブジェクトの表示面積のうち少なくともいずれか1つに基づき、前記表示位置が変更されるオブジェクトを選択することが好ましい。
 上記構成によれば、第1画像及び第2画像が複数のオブジェクトを表示しているとき、調整部は、表示位置の変更が行われるべきオブジェクトを選択する。オブジェクトの選択は、コンテンツデータが表示される表示面からのオブジェクトの飛び出し量、表示面からのオブジェクトの引き込み量、表示面中のオブジェクトの表示位置及びオブジェクトの表示面積のうち少なくともいずれか1つに基づく。したがって、視聴者の眼に対する負担が効率的且つ効果的に軽減される。
 上記構成において、前記調整部は、前記第1画像及び前記第2画像それぞれを複数の区画にセグメント化するセグメント化部と、前記複数の区画のうち前記オブジェクトの表示に寄与している区画を識別する区画識別部と、前記オブジェクトの表示に寄与している区画に含まれる画像データの表示位置を変更する変更部と、を含むことが好ましい。
 上記構成によれば、調整部のセグメント化部は、第1画像及び第2画像それぞれを複数の区画にセグメント化する。区画識別部は、オブジェクトの表示に寄与している区画を識別する。変更部は、オブジェクトの表示に寄与している区画に含まれる画像データの表示位置を変更する。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記調整部は、前記コンテンツデータが映し出される表示面に対する前記第1視点及び前記第2視点間の基準輻輳角と、前記第1画像及び前記第2画像に含まれる前記オブジェクトに対する前記第1視点及び前記第2視点間の輻輳角との差の絶対値が小さくなるように、前記視差情報を調整することが好ましい。
 上記構成によれば、調整部は、コンテンツデータが映し出される表示面に対する第1視点及び前記第2視点間の基準輻輳角と、第1画像及び第2画像に含まれるオブジェクトに対する第1視点及び第2視点間の輻輳角との差の絶対値が小さくなるように、視差情報を調整する。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記視差情報は、前記第1画像中のオブジェクトの表示位置と前記第2画像中のオブジェクトの表示位置との差に関する情報を含み、前記調整部は、前記第1画像と前記第2画像との間での前記オブジェクトの前記表示位置の差が小さくなるように、前記視差情報を調整することが好ましい。
 上記構成によれば、視差情報は、第1画像中のオブジェクトの表示位置と第2画像中のオブジェクトの表示位置との差に関する情報を含む。調整部は、第1画像と第2画像との間でのオブジェクトの表示位置の差が小さくなるように、視差情報を調整する。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上記構成において、前記設定部は、前記コンテンツデータを前記第2速度よりも速い第3速度で再生するための第3モードを設定するように形成され、前記調整部は、前記第3モードにおいて、前記第1画像及び前記第2画像のうちいずれか一方の画像を出力することが好ましい。
 上記構成によれば、第3モードにおいて、調整部は、第1画像及び第2画像のうちいずれか一方の画像を出力するので、コンテンツデータは、2次元映像として再生される。
 上記構成において、画像再生装置は、音声信号処理部を更に備え、前記コンテンツデータは、音声データを含み、前記設定部が、前記コンテンツデータの前記再生速度を前記第1モード又は前記第2モードに設定するとき、前記再生部は、前記音声データを再生し、前記設定部が、前記コンテンツデータの前記再生速度を前記第2モードに設定するとき、前記音声信号処理部は前記第2速度に合わせて、前記音声データを調整し、前記設定部が、前記コンテンツデータの前記再生速度を前記第3モードに設定するとき、前記再生部は前記音声データを再生しないことが好ましい。
 上記構成によれば、設定部が、コンテンツデータの再生速度を第1モード又は第2モードに設定するとき、再生部は、音声データを再生する。制御部がコンテンツデータの再生速度を第2モードに設定するとき、音声信号処理部は、第2速度に合わせて、音声データを調整する。制御部が、コンテンツデータの再生速度を第3モードに設定するとき、再生部は音声データを再生しない。したがって、視聴者は第1モード又は第2モードにおいて音声データとともにコンテンツデータを視聴することができる。第3モードにおいて、視聴者は音声を聴くことなく2次元映像を視聴する。
 上述の実施形態の他の局面に係る表示装置は、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、前記映像データを表示する表示部と、前記コンテンツデータを再生するときの再生速度を設定する設定部と、該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする。
 上記構成によれば、再生部が再生するコンテンツデータを表示する表示部は、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させる。設定部は、コンテンツデータを再生するときの再生速度を設定する。調整部は、設定部により設定された再生速度に応じて第1画像と第2画像との間の視差に関する視差情報を調整する。再生速度に応じて視差情報が調整されるため、視聴者が比較的短時間でコンテンツ内容を把握できるように速い再生速度でコンテンツデータを再生しても、視聴者の眼に対する疲労の増大が抑制される。
 上記構成において、前記設定部は、前記コンテンツデータを第1速度で再生するための第1モードと、前記コンテンツデータを前記第1速度よりも速い第2速度で再生するための第2モードと、前記コンテンツデータを前記第2速度よりも速い第3速度で再生するための第3モードと、選択的に設定し、前記調整部は、前記第3モードにおいて、前記第1画像及び前記第2画像のうちいずれか一方のみを前記表示部に表示させることが好ましい。
 上記構成によれば、第3速度でコンテンツデータが再生されるとき、視聴者は2次元的にコンテンツデータを知覚することができる。
 本発明の更に他の局面に係る第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する画像再生プログラムは、前記コンテンツデータを第1速度で再生するための第1モード又は前記第1速度よりも速い第2速度で再生するための第2モードとを選択する機能と、前記第2モードにおける前記コンテンツデータを視聴する視聴者に知覚される前記映像データ中のオブジェクトの飛び出し量又は引き込み量のうち少なくとも一方の知覚量の変動量が、前記第1モードにおける前記変動量よりも小さくする機能と、を前記コンテンツデータを再生する画像再生装置に発揮させることを特徴とする。
 上記構成によれば、画像再生プログラムによって再生されるコンテンツデータは、第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚される。画像再生プログラムは、コンテンツデータを第1速度で再生するための第1モード又は前記第1速度よりも速い第2速度で再生するための第2モードの選択を可能にする。視聴者は、第2モードにおいて、第1モードにおける知覚量の変動量よりも低減された変動量のコンテンツデータを視聴するので、視聴者の眼に対する負担が軽減される。また、第2モードにおいて、コンテンツデータの第1画像及び第2画像を視聴する視聴者は、立体的に映像を知覚しつつ、短時間でコンテンツ内容を把握することができる。
 上述の実施形態に係る原理は、記録媒体に記録した3次元画像及び音声を再生する画像再生装置として利用可能である。上述の原理は、特に、半導体メモリや光ディスクといった記録媒体から3次元画像を再生するビデオプレーヤとして、好適に利用可能である。上述の原理に従うビデオプレーヤは、早見再生(例えば、1.3倍速)や低倍速の高速再生の際に、視差量の時間変化を抑え、眼精疲労を抑制することができる。

Claims (13)

  1.  第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、
     前記コンテンツデータを再生するときの再生速度を設定する設定部と、
     該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする画像再生装置。
  2.  前記調整部は、前記コンテンツデータを視聴する視聴者に知覚される前記映像データ中のオブジェクトの飛び出し量又は引き込み量のうち少なくとも一方の知覚量を前記再生速度に応じて変更することを特徴とする請求項1に記載の画像再生装置。
  3.  前記設定部は、前記コンテンツデータを第1速度で再生するための第1モードと、前記コンテンツデータを前記第1速度よりも速い第2速度で再生するための第2モードと、を選択的に設定し、
     前記調整部は、前記第2モードにおける前記知覚量の変動量が、前記第1モードにおける前記知覚量の変動量よりも小さくなるように前記視差情報を調整することを特徴とする請求項2に記載の画像再生装置。
  4.  前記調整部は、前記第1画像及び前記第2画像のうち少なくとも一方をシフトさせることを特徴とする請求項3に記載の画像再生装置。
  5.  前記調整部は、前記第1画像及び前記第2画像を縮小することを特徴とする請求項3に記載の画像再生装置。
  6.  前記調整部は、前記第1画像中の前記オブジェクトの表示位置及び前記第2画像中の前記オブジェクトの表示位置のうち少なくとも一方を変更することを特徴とする請求項3に記載の画像再生装置。
  7.  前記オブジェクトは、複数のオブジェクトを含み、
     前記調整部は、前記コンテンツデータが表示される表示面からの前記オブジェクトの前記飛び出し量、前記表示面からの前記オブジェクトの前記引き込み量、前記表示面中の前記オブジェクトの表示位置及び前記オブジェクトの表示面積のうち少なくともいずれか1つに基づき、前記表示位置が変更されるオブジェクトを選択することを特徴とする請求項6に記載の画像再生装置
  8.  前記調整部は、前記第1画像及び前記第2画像それぞれを複数の区画にセグメント化するセグメント化部と、
     前記複数の区画のうち前記オブジェクトの表示に寄与している区画を識別する区画識別部と、
     前記オブジェクトの表示に寄与している区画に含まれる画像データの表示位置を変更する変更部と、を含むことを特徴とする請求項6又は7に記載の画像再生装置。
  9.  前記調整部は、前記コンテンツデータが映し出される表示面に対する前記第1視点及び前記第2視点間の基準輻輳角と、前記第1画像及び前記第2画像に含まれる前記オブジェクトに対する前記第1視点及び前記第2視点間の輻輳角との差の絶対値が小さくなるように、前記視差情報を調整することを特徴とする請求項3乃至8いずれか1項に記載の画像再生装置。
  10.  前記視差情報は、前記第1画像中のオブジェクトの表示位置と前記第2画像中のオブジェクトの表示位置との差に関する情報を含み、
     前記調整部は、前記第1画像と前記第2画像との間での前記オブジェクトの前記表示位置の差が小さくなるように、前記視差情報を調整することを特徴とする請求項3乃至9いずれか1項に記載の画像再生装置。
  11.  前記設定部は、前記コンテンツデータを前記第2速度よりも速い第3速度で再生するための第3モードを設定するように形成され、
     前記調整部は、前記第3モードにおいて、前記第1画像及び前記第2画像のうちいずれか一方の画像を出力することを特徴とする請求項3乃至10いずれか1項に記載の画像再生装置。
  12.  第1視点用の第1画像と、第2視点用の第2画像とを含む映像データを用いて立体的に映像を知覚させるためのコンテンツデータを再生する再生部と、
     前記映像データを表示する表示部と、
     前記コンテンツデータを再生するときの再生速度を設定する設定部と、
     該設定部により設定された前記再生速度に応じて、前記第1画像と前記第2画像との間の視差に関する視差情報を調整する調整部と、を備えることを特徴とする表示装置。
  13.  前記設定部は、前記コンテンツデータを第1速度で再生するための第1モードと、前記コンテンツデータを前記第1速度よりも速い第2速度で再生するための第2モードと、前記コンテンツデータを前記第2速度よりも速い第3速度で再生するための第3モードと、選択的に設定し、
     前記調整部は、前記第3モードにおいて、前記第1画像及び前記第2画像のうちいずれか一方のみを前記表示部に表示させることを特徴とする請求項12記載の表示装置。
PCT/JP2010/007088 2009-12-28 2010-12-06 画像再生装置及び表示装置 WO2011080878A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/387,198 US20120120207A1 (en) 2009-12-28 2010-12-06 Image playback device and display device
JP2011547269A JPWO2011080878A1 (ja) 2009-12-28 2010-12-06 画像再生装置及び表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-298202 2009-12-28
JP2009298202 2009-12-28

Publications (1)

Publication Number Publication Date
WO2011080878A1 true WO2011080878A1 (ja) 2011-07-07

Family

ID=44226307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/007088 WO2011080878A1 (ja) 2009-12-28 2010-12-06 画像再生装置及び表示装置

Country Status (3)

Country Link
US (1) US20120120207A1 (ja)
JP (1) JPWO2011080878A1 (ja)
WO (1) WO2011080878A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054877A (ja) * 2010-09-03 2012-03-15 Canon Inc 立体動画像再生装置及びその制御方法
JP2013183323A (ja) * 2012-03-02 2013-09-12 Sharp Corp 立体映像表示装置、立体映像表示方法およびプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349183B1 (en) * 2006-12-28 2016-05-24 David Byron Douglas Method and apparatus for three dimensional viewing of images
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
KR20140066546A (ko) * 2012-11-23 2014-06-02 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9406253B2 (en) * 2013-03-14 2016-08-02 Broadcom Corporation Vision corrective display
US9438193B2 (en) * 2013-06-05 2016-09-06 Sonos, Inc. Satellite volume control
KR20150009252A (ko) * 2013-07-16 2015-01-26 삼성전자주식회사 멀티 콘텐츠 뷰 디스플레이 장치 및 멀티 콘텐츠 뷰 디스플레이 방법
CN110177299B (zh) * 2018-08-30 2021-04-30 深圳市野生动物园有限公司 视频播放速率调整平台
US20230298250A1 (en) * 2022-03-16 2023-09-21 Meta Platforms Technologies, Llc Stereoscopic features in virtual reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2005110121A (ja) * 2003-10-01 2005-04-21 Sharp Corp 画像データ表示装置
JP2008103820A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263885B2 (ja) * 1994-08-29 2002-03-11 ソニー株式会社 再生装置、再生方法
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP4121888B2 (ja) * 2003-04-28 2008-07-23 シャープ株式会社 コンテンツ表示装置およびコンテンツ表示プログラム
EP2274920B1 (en) * 2008-05-12 2019-01-16 InterDigital Madison Patent Holdings System and method for measuring potential eyestrain of stereoscopic motion pictures
EP2348747A4 (en) * 2008-11-18 2013-08-28 Panasonic Corp REPRODUCTION DEVICE, INTEGRATED CIRCUIT, AND REPRODUCTION METHOD WHEREAS SPECIALIZED REPRODUCTION
WO2010076846A1 (ja) * 2008-12-29 2010-07-08 パナソニック株式会社 記録媒体、再生装置、及び集積回路
KR20110025123A (ko) * 2009-09-02 2011-03-09 삼성전자주식회사 비디오 영상 배속 재생 방법 및 장치
JP2011109294A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、情報処理方法、表示制御装置、表示制御方法、およびプログラム
JP5610933B2 (ja) * 2010-09-03 2014-10-22 キヤノン株式会社 再生装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355808A (ja) * 1998-06-04 1999-12-24 Olympus Optical Co Ltd 映像システム
JP2005110121A (ja) * 2003-10-01 2005-04-21 Sharp Corp 画像データ表示装置
JP2008103820A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054877A (ja) * 2010-09-03 2012-03-15 Canon Inc 立体動画像再生装置及びその制御方法
US9077967B2 (en) 2010-09-03 2015-07-07 Canon Kabushiki Kaisha Image reproduction apparatus and control method therefor
JP2013183323A (ja) * 2012-03-02 2013-09-12 Sharp Corp 立体映像表示装置、立体映像表示方法およびプログラム

Also Published As

Publication number Publication date
US20120120207A1 (en) 2012-05-17
JPWO2011080878A1 (ja) 2013-05-09

Similar Documents

Publication Publication Date Title
WO2011080878A1 (ja) 画像再生装置及び表示装置
KR101569150B1 (ko) 3차원 영상기기 및 이에 적용되는 osd 제공방법
JP6846130B2 (ja) 3dビデオ上に3dグラフィックスをオーバレイするための方法及び装置
JP4742174B1 (ja) 3次元映像再生方法、および3次元映像再生装置
CN102137270B (zh) 字幕的3d显示处理
EP2320669B1 (en) Stereoscopic image reproduction method in case of pause mode and stereoscopic image reproduction apparatus using same
WO2011135857A1 (ja) 画像変換装置
MX2012001103A (es) Cambio entre video tridimensional y video bidimensional.
JP5387399B2 (ja) 情報処理装置および情報処理方法
JP2011109294A (ja) 情報処理装置、情報処理方法、表示制御装置、表示制御方法、およびプログラム
JP4996720B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP2011138354A (ja) 情報処理装置および情報処理方法
JP2011211657A (ja) 電子機器及び画像出力方法
JP2011114472A (ja) 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置
JP5550520B2 (ja) 再生装置及び再生方法
EP2408214A2 (en) Playback apparatus, playback method, and program
WO2011065191A1 (ja) 表示制御装置、表示制御方法、表示制御プログラム、コンピュータ読み取り可能な記録媒体、上記表示制御装置を備えた記録再生装置、音声出力装置、及び音声出力装置を備えた記録再生装置
US20110310222A1 (en) Image distributing apparatus, display apparatus, and image distributing method thereof
US8582961B2 (en) Electronic apparatus, reproduction system, reproduction method, and program
KR101674688B1 (ko) 입체영상 재생 장치 및 입체영상 재생 방법
JP5367031B2 (ja) 情報処理方法、および情報処理装置
JP2006128842A (ja) 立体映像信号生成装置
JP5335022B2 (ja) 映像再生装置
JP2014225736A (ja) 画像処理装置
JP2011223640A (ja) 電子機器及び画像出力方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10840738

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011547269

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13387198

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10840738

Country of ref document: EP

Kind code of ref document: A1