WO2019130626A1 - 表示装置および表示方法 - Google Patents
表示装置および表示方法 Download PDFInfo
- Publication number
- WO2019130626A1 WO2019130626A1 PCT/JP2018/025427 JP2018025427W WO2019130626A1 WO 2019130626 A1 WO2019130626 A1 WO 2019130626A1 JP 2018025427 W JP2018025427 W JP 2018025427W WO 2019130626 A1 WO2019130626 A1 WO 2019130626A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- eotf
- unit
- range
- code value
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 133
- 238000000605 extraction Methods 0.000 claims abstract description 106
- 210000003127 knee Anatomy 0.000 claims description 56
- 239000000284 extract Substances 0.000 claims description 17
- 238000012546 transfer Methods 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000010365 information processing Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/2092—Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G3/2096—Details of the interface to the display terminal specific for a flat panel
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/005—Adapting incoming signals to the display format of the display terminal
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/391—Resolution modifying circuits, e.g. variable screen formats
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0271—Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/066—Adjustment of display parameters for control of contrast
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0673—Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0428—Gradation resolution change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/141—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light conveying information used for selecting or modulating the light emitting or modulating element
- G09G2360/142—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light conveying information used for selecting or modulating the light emitting or modulating element the light being detected by light detection means within each pixel
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/16—Calculation or use of calculated indices related to luminance levels in display data
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
Definitions
- the present disclosure relates to a display device and a display method for displaying HDR video data obtained by converting HDR video data.
- Patent Document 1 discloses an apparatus for converting image data for display on a target display according to a transfer function.
- the present disclosure provides a display device and the like that can effectively suppress the reduction in sharpness of an HDR video obtained by converting HDR video data.
- the display device in the present disclosure uses an acquisition unit for acquiring HDR (High Dynamic Range) video data in which the luminance of each pixel is represented by a code value, and the HDR video data using a first Electro-optical Transfer Function (EOTF).
- the display device in the present disclosure can effectively adjust the sharpness gain of the HDR video obtained by converting the HDR video data.
- FIG. 1 is a schematic view of a video system according to the present embodiment.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus according to the present embodiment.
- FIG. 3 is a block diagram showing an example of the hardware configuration of the display device according to the present embodiment.
- FIG. 4 is a block diagram showing an example of the configuration of the delivery side apparatus according to the present embodiment.
- FIG. 5 is a diagram showing an example of the OETF according to the present embodiment.
- FIG. 6 is a block diagram showing an example of a functional configuration of the display device according to the present embodiment.
- FIG. 7 is a diagram showing an example of the first EOTF and the second EOTF.
- FIG. 8 is a diagram for describing a knee point code calculation method.
- FIG. 8 is a diagram for describing a knee point code calculation method.
- FIG. 9 is a diagram showing an example of tone mapping.
- FIG. 10 is a block diagram showing an example of a detailed configuration of the region extraction unit and the adjustment unit.
- FIG. 11 is a diagram showing an example of the sharpness gain and the sharpness gain after adjustment in each range.
- FIG. 12 is a flowchart showing an example of a display method by the display device according to the embodiment.
- FIG. 13 is a flowchart showing an example of extraction processing for extracting a region.
- FIG. 14 is a flowchart showing an example of adjustment processing for adjusting the sharpness gain.
- a display device that displays HDR video obtained by decoding HDR video data that has been OETF (Optical Electrical Transfer Function) converted and encoded in advance on the master video data on the distribution side and then converting it using the first EOTF.
- Luminance data high frequency components of video data may be lost due to the influence of encoding and decoding processes.
- the brightness relative to the increase width of the code value is higher than the second range not less than the predetermined code value corresponding to the high brightness area. The increase is small.
- the present disclosure discloses a display device and a display method that can effectively suppress the reduction in sharpness of an HDR video obtained by converting HDR video data.
- Embodiment The embodiment will be described below with reference to FIGS. 1 to 14.
- FIG. 1 is a schematic view of a video system according to the present embodiment.
- the video system 1 includes a distribution device 200 that distributes distribution data including video data, and a display device 100 that receives the distributed distribution data.
- the distribution apparatus 200 is configured of a camera 201 and an information processing apparatus 202.
- the information processing apparatus 202 converts video captured by a camera 201 such as a video camera into distribution data for transmission to the display apparatus 100, and transmits distribution data to the display apparatus 100 via a transmission unit.
- the transmission means may be means for transmitting a broadcast wave according to a predetermined television broadcast standard, means for distributing to a network such as the Internet according to a predetermined communication protocol, or recording in a predetermined package medium. And means for selling the predetermined package media.
- a predetermined television broadcast standard is used as the transmission means.
- the display device 100 receives the distribution data, and displays a video represented by the video data included in the received distribution data.
- the display device 100 has the appearance of a general flat panel display in which a display device including a display panel is stored in a housing.
- the display device 100 is, for example, a liquid crystal display, an organic EL display, or the like.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus according to the present embodiment.
- the information processing apparatus 202 has a hardware configuration including a processor 203, a main memory 204, a storage 205, a communication IF (Interface) 106, an input IF (Interface) 207, and a display 208. Equipped with
- the processor 203 is a processor that executes a program stored in the storage 205 or the like.
- the main memory 204 is a volatile storage area used as a work area used when the processor 203 executes a program.
- the storage 205 is a non-volatile storage area that holds various data such as programs.
- the communication IF 206 is a communication interface that communicates with an external device via a communication network.
- the communication IF 206 is, for example, a wired LAN interface.
- the communication IF 206 may be a wireless LAN interface.
- the communication IF 206 is not limited to the LAN interface, and may be any communication interface as long as it can establish communication connection with the communication network.
- the input IF 207 is an interface for receiving input from a person.
- the input IF 205 may be a pointing device such as a mouse, a touch pad, a touch panel, or a trackball, or may be a keyboard.
- the display 208 is a master monitor that displays for mastering a video.
- the display 208 is a liquid crystal display, an organic EL display, or the like.
- FIG. 3 is a block diagram showing an example of the hardware configuration of the display device according to the present embodiment.
- the display device 100 includes a tuner 101, a decoder 102, a control circuit 103, a memory 104, and a display device 105.
- the tuner 101 converts an analog signal constituting a broadcast wave received by an antenna (not shown) into encoded data which is a digital signal, and outputs the encoded data obtained by the conversion to the decoder 102.
- the decoder 102 decodes the encoded data acquired from the tuner 101 and outputs video data obtained by decoding to the control circuit 103.
- the decoder 102 may acquire metadata, which is additional data of the video data, from the tuner 101 together with the video data and decode the metadata.
- the decoded metadata is temporarily written in the memory 104 by the control circuit 103 described later. Metadata is added to video data in advance by the distribution side and transmitted.
- the control circuit 103 performs image processing on the video data output by the decoder 102 according to the characteristic information indicating the characteristic of the display device 105 stored in the memory 104 and the metadata.
- the control circuit 103 outputs an image obtained by performing the image processing to the display device 105.
- the display device 105 can display an image matched to the characteristics of the display device 105 and the metadata.
- the decoder 102 and the control circuit 103 may be realized by the same circuit.
- the control circuit 103 may be realized by a general-purpose processor such as a CPU that executes a predetermined program, or may be realized by a dedicated circuit. That is, the functions of the display device 100 may be realized by software or hardware.
- the memory 104 stores characteristic information and metadata.
- the memory 104 may further store a control program.
- the memory 104 is, for example, a non-volatile memory.
- the display device 105 displays an image output by the control circuit 103.
- the display device 105 is a display panel, and includes, for example, a liquid crystal panel, an organic EL panel, or the like.
- FIG. 4 is a block diagram showing an example of the configuration of the delivery side apparatus according to the present embodiment.
- the distribution apparatus 200 includes a capture unit 210, a mastering unit 220, an opto-electronic transfer function (OETF) conversion unit 230, and an encoder 240.
- OETF opto-electronic transfer function
- the capture unit 210 captures an object of video data, converts the image into digital video data, and outputs the digital video data.
- the capture unit 210 is realized by, for example, the camera 201.
- the mastering unit 220 executes a process of adjusting the video to the luminance or color tone intended by the producer according to the input from the producer of the video. Then, master data, which is video data indicating a video for distribution, is generated.
- the mastering unit 220 is realized by, for example, the processor 203, the main memory 204, the storage 205, the input IF 207, and the display 208 of the information processing apparatus 202.
- the OETF conversion unit 230 performs OETF conversion to convert luminance data, which is applied in the case of delivery as HDR video data, into code values using the OETF shown in FIG. 5.
- the OETF conversion unit 230 may execute OETF conversion when the distribution apparatus 200 distributes HDR video data, or may perform OETF conversion in advance before the distribution apparatus 200 distributes HDR video data. It is also good. In the latter case, the converted HDR video data is stored in the storage 205.
- the OETF conversion has the inverse conversion characteristic of the EOTF conversion described later.
- FIG. 5 is a diagram showing an example of the OETF according to the present embodiment.
- the OETF is, for example, an inverse conversion curve of a PQ curve, as shown in FIG.
- the PQ curve is an EOTF curve defined in the SMPTE 2084 standard.
- the OETF converter 230 performs OETF conversion on the master data generated by the mastering unit 220, and outputs the converted HDR video data.
- the OETF converter 230 is realized by, for example, the processor 203, the main memory 204, and the storage 205 of the information processing apparatus 202.
- the encoder 240 compresses the HDR video data converted by the OETF converter 230 according to the video compression standard, and outputs distribution data obtained by the compression to the transmission path.
- the compressed distribution data output from the encoder 240 may include data other than video data such as audio data and metadata.
- the encoder 240 is realized by, for example, the processor 203, the main memory 204, the storage 205, and the communication IF 206 of the information processing apparatus 202.
- FIG. 6 is a block diagram showing an example of a functional configuration of the display device according to the present embodiment.
- the display device 100 has a functional configuration including an acquisition unit 110, a control unit 120, a storage unit 130, an area extraction unit 140, an adjustment unit 150, a conversion unit 170, and a display unit 180. And
- the acquisition unit 110 acquires distribution data via the transmission unit. Then, the acquisition unit 110 acquires HDR (High Dynamic Range) video data by decoding the distribution data. That is, the acquisition unit 110 acquires HDR video data that is OETF-converted on the distribution side and in which the luminance of each pixel is represented by a code value.
- the acquisition unit 110 is realized by, for example, the tuner 101, the decoder 102, and the like.
- the acquisition unit 110 may acquire the metadata together with the video data.
- the control unit 120 adjusts a first electro-optical transfer function (EOTF) for converting the code value included in the HDR video data into the luminance of the HDR video so that the HDR video can be displayed on the display device 105 (that is, tone mapping). )
- EOTF electro-optical transfer function
- the first EOTF is, for example, a PQ curve.
- the PQ curve is an EOTF defined in the SMPTE 2084 standard.
- the second EOTF can be obtained, for example, by tone mapping the first EOTF so that the maximum value (for example, 10,000 nit) of the luminance of the HDR video becomes the display maximum luminance that is the maximum luminance that the display device 105 can display.
- the second EOTF converts HDR video data having a code value corresponding to a luminance exceeding the display maximum luminance indicating the maximum luminance displayable by the display unit 180 into an HDR image having the display maximum luminance as the maximum luminance.
- the second EOTF has a curve different from the first EOTF in a range where the code value exceeds the knee point code, specifically, a curve having a smaller luminance than the first EOTF.
- FIG. 7 is a diagram showing an example of the first EOTF and the second EOTF.
- HLG Hybrid Log Gamma
- the first EOTF and the second EOTF indicate the correspondence between the code value and the luminance, and are for converting the code value into the luminance. That is, the first EOTF and the second EOTF are relationship information indicating correspondences between a plurality of code values and luminance.
- the first EOTF and the second EOTF may be represented by an equation representing a curve shown in FIG. 7 or may be represented by a table. For example, when the luminance of a video corresponding to HDR is expressed by a code value of 10-bit gradation, the luminance in the luminance range of HDR up to 10,000 nit is quantized to 1024 integers from 0 to 1023. Mapped to a number.
- the HDR video data is 10 bits obtained by quantizing the luminance of the video in the luminance range up to 10,000 nit (the luminance of the video corresponding to the HDR) based on the OETF which is the inverse function of the EOTF. It contains the HDR signal which is a code value.
- HDR EOTFs EOTFs compatible with HDR
- SDR EOTFs SDR compatible EOTFs
- the maximum value of luminance (peak luminance) is 10,000 nit.
- the maximum value of the HDR brightness is larger than the maximum value of the SDR brightness.
- HDR has a dynamic range in which the maximum value is expanded from 100 nit, which is the maximum value of SDR, to the maximum value (for example, 10,000 nit) of the luminance of HDR.
- the control unit 120 analyzes the video data acquired from the acquisition unit 110 to generate luminance characteristic information indicating luminance characteristics of the video data used for image processing. Specifically, control unit 120 generates a plurality of threshold values including knee point code C1 and delta point codes C2 to C4 as luminance characteristic information, and outputs the plurality of generated threshold values to region extraction unit 140. The control unit 120 calculates knee point codes C1 and delta point codes C2 to C4 as a plurality of threshold values as follows.
- FIG. 8 is a diagram for describing a knee point code calculation method.
- the control unit 120 is, for example, a code value in each of a plurality of pictures of HDR video data, and the number of a predetermined ratio of all the pixels when arranging a plurality of pixels of the picture in ascending order of code values.
- the code value of the pixel corresponding to the order of may be calculated, and the calculated code value may be generated as the knee point code C1.
- the control unit 120 generates, for each of a plurality of pictures, a luminance histogram which is counted for each Index value corresponding to the code value of the pixel of the picture.
- the control unit 120 sets the code value corresponding to 80% of all pixels as the accumulated value of the luminance histogram, that is, the maximum code value when pixels with small luminance are extracted up to 80% of all pixels as the knee point code C1.
- a histogram of video data may be generated in advance, a knee point code C1 may be similarly generated, and the knee point code C1 may be added to metadata and transmitted.
- the delta point codes C2 to C4 are code values corresponding to a point at which the slope of the tangent at a point on the EOTF is a predetermined slope, as shown in FIG. In FIG. 7, a straight line with a predetermined inclination is shown by a broken line.
- the control unit 120 calculates, as the delta point code C2, a code value corresponding to one point whose inclination of the tangent at a point on the first EOTF is a predetermined inclination.
- the first EOTF is characterized in that the slope of the tangent at the point on the first EOTF increases as the code value increases.
- the features of the first EOTF span the range of all code values of the first EOTF.
- the gamma correction curve is characterized in that the slope of the tangent decreases as the code value increases.
- the features of this gamma correction curve span the range of all code values of the gamma correction curve. That is, the gamma correction curve has a feature opposite to that of the first EOTF.
- control unit 120 calculates code values corresponding to two points whose inclination of the tangent at a point on the second EOTF is a predetermined inclination as delta point codes C3 and C4.
- Delta point code C3 is a point on the second EOTF, and corresponds to a first point (change point) in which the slope of the tangent changes from less than a predetermined slope to a predetermined slope or more as the code value increases.
- the delta point code C4 is a point on the second EOTF, and corresponds to a second point (change point) in which the slope of the tangent changes from a predetermined slope or more to a predetermined slope or less as the code value increases.
- the predetermined inclination is, for example, one.
- the predetermined slope may not be 1 as long as it has a value of 0.9 to 1.1.
- control unit 120 determines that there is no code value that matches a point having a predetermined slope, that is, a point having a predetermined slope is between two code values. In some cases, the closer code value may be calculated as the corresponding code value, or the larger code value may be calculated as the corresponding code value, or the smaller code value is the corresponding code value. It may be calculated as
- FIG. 9 is a diagram showing an example of tone mapping.
- the control unit 120 uses the knee point of HDR video and MaxCLL (Maximum Content Light Level) of metadata of HDR video data in tone mapping, and the luminance below the knee point is equal before and after conversion, MaxCLL
- the second EOTF is generated from the first EOTF by adjusting the luminance only for the luminance higher than the vicinity.
- the control unit 120 displays the luminance of the HDR video data without converting the luminance of the HDR video data.
- a second EOTF to be displayed on the device 105 is generated.
- the control unit 120 when the luminance of the HDR video data is MaxCLL or more, the control unit 120 generates a second EOTF in which the luminance of the HDR video data is the display maximum luminance.
- the knee point is the luminance associated with the knee point code C1 in the first EOTF.
- MaxCLL is a value indicating the maximum luminance of a pixel in all pictures in the content. That is, MaxCLL is the maximum luminance of the video or the peak luminance of the video.
- the MaxCLL and the knee point may be pre-generated on the delivery side and transmitted as metadata.
- control unit 120 acquires the sharpness gain for correcting the contour of the image and the storage unit 130 indicating a predetermined correction value (see below), and acquires the acquired sharpness gain and the calculated knee point code C1.
- Sharpness gain curves may be generated.
- the sharpness gain indicates a reference value used for image contour correction, and the sharpness gain curve indicates a value after the reference value used for image contour correction is adjusted.
- the sharpness gain curve is a first sharpness gain curve used when the HDR video data is converted using the first EOTF, and a second sharpness gain curve used when the HDR video data is converted using the second EOTF including.
- the control unit 120 is realized by, for example, the control circuit 103.
- the storage unit 130 stores a display maximum luminance, a sharpness gain, and a predetermined correction value.
- the storage unit 130 may store other display characteristics of the display device 100.
- the storage unit 130 is realized by, for example, the memory 104.
- the area extraction unit 140 extracts an area by determining code values of all the pixels constituting each of the plurality of pictures of the HDR video data. Specifically, in the EOTF used by conversion unit 170, region extraction unit 140 corresponds to a code value corresponding to a point at which the slope of the tangent at the point on the EOTF is a predetermined slope (that is, delta point codes C2 to C4). For each of a plurality of ranges divided with the knee point code C1 as a boundary, pixels having code values included in the ranges are extracted as the same area. That is, the area extraction unit 140 extracts the areas corresponding to each of the plurality of ranges. Each of the plurality of regions is extracted in each picture.
- Each of the plurality of regions may include no pixel, may include only one pixel, or may include a plurality of pixels.
- a plurality of regions can be said to be information obtained by labeling each pixel with a difference in code value range. Specific processing of the region extraction unit 140 will be described later.
- the area extraction unit 140 is realized by, for example, the control circuit 103.
- the adjusting unit 150 adjusts the sharpness in the region based on the plurality of regions extracted by the region extracting unit 140 with the sharpness gain associated with each region.
- the adjustment unit 150 emphasizes the contour of the image so as to intensify the sharpness effect.
- the adjustment unit 150 is an inclination of a tangent at a point on the EOTF used by the conversion unit 170 in the HDR video data, and the inclination of the tangent at a point corresponding to the code value of the pixel is predetermined.
- the sharpness gain of the HDR video data is adjusted by increasing the sharpness gain of the region including the pixel less than the slope more than the sharpness gain of the region including the pixel whose slope of the tangent is equal to or greater than the predetermined slope.
- Specific processing of the adjustment unit 150 will be described later.
- the adjustment unit 150 is realized by, for example, the control circuit 103.
- the luminance data high frequency component of the master data generated by the distribution apparatus 200 may be lost due to the influence of the encoding process or the decoding process.
- the characteristic of the OETF used in the distribution apparatus 200 is characterized in that the slope of the tangent at the point on the OETF increases as the luminance value decreases. That is, the video data after OETF conversion has a large increase width of the code value with respect to the increase width of the luminance value on the low luminance side and contains many high frequency components. In many cases.
- the EOTF used in the display device 100 is for the increase width of the code value in the area less than the predetermined code value corresponding to the low luminance area than in the area equal to or higher than the predetermined code value corresponding to the high luminance area. It has a feature that the increase in luminance is small. Therefore, when image processing is performed with the common sharpness gain on the entire OETF-converted HDR image (here, an image of one picture), the image after image processing has lower brightness than the image of the master data. Since the sharpness effect of the area is relatively lower than the sharpness effect of the high luminance area, one picture has a plurality of areas different in appearance.
- the adjustment unit 150 sets a tangent slope at a point on the EOTF used by the conversion unit 170 in the HDR video data.
- the sharpness gain of a region including a pixel whose slope of the tangent at a point corresponding to the code value of the pixel is less than a predetermined slope
- the sharpness of the region including a pixel whose slope of the tangent is greater than or equal to a predetermined slope An adjustment is made to increase the gain more and to emphasize the outline of the low luminance part.
- the conversion unit 170 converts the HDR video data into an HDR video using the first EOTF. Specifically, the conversion unit 170 converts the HDR video data represented by the code value into luminance corresponding to each code value in the first EOTF. In addition, the conversion unit 170 may selectively switch between conversion using the first EOTF and conversion using the second EOTF in accordance with MaxCLL, which is the maximum luminance of the HDR video data. Specifically, the conversion unit 170 compares MaxCLL with the display maximum luminance of the display device 105, and performs conversion using the second EOTF when MaxCLL is larger than the display maximum luminance, and MaxCLL is less than the display maximum luminance. , Perform conversion using the first EOTF.
- the converting unit 170 determines MaxCLL, which is the maximum luminance of the video represented by the video data included as metadata in the video data, and the display maximum luminance, which is the maximum luminance of the display device 105 stored in the storage unit 130.
- MaxCLL the maximum luminance of the video represented by the video data included as metadata in the video data
- display maximum luminance which is the maximum luminance of the display device 105 stored in the storage unit 130.
- the conversion unit 170 may perform the above switching for each picture of the HDR video data using the maximum luminance for each picture instead of MaxCLL, or the HDR video data using the maximum luminance for each scene instead of MaxCLL The above switching may be performed for each scene of.
- the conversion unit 170 is realized by, for example, the control circuit 103.
- the display unit 180 displays the HDR video obtained by being converted by the converting unit 170 using the adjustment data obtained by being adjusted by the adjusting unit 150. If the video data acquired by the acquisition unit 110 is SDR video data, the display unit 180 may display an SDR video.
- the display unit 180 is realized by, for example, the display device 105.
- FIG. 10 is a block diagram showing an example of a detailed configuration of the region extraction unit and the adjustment unit.
- FIG. 118 is a diagram illustrating an example of the sharpness gain and the sharpness gain after adjustment in each range.
- the region extraction unit 140 has a first extraction unit 141, a second extraction unit 142, a third extraction unit 143, and a fourth extraction unit 144.
- the first to fourth extraction units 141 to 144 use the video data acquired by the acquisition unit 110 and one of the knee point code C1 and the delta point codes C2 to C4 calculated by the control unit 120 to execute the following: Perform each process.
- the first extraction unit 141 uses the HDR video data to generate an area including pixels smaller than the knee point code C1 even when the conversion unit 170 performs conversion using the first EOTF and conversion using the second EOTF. Is extracted as area A. That is, the first extraction unit 141 extracts a pixel having a code value included in the first range in FIG. As can be seen from FIG. 7, the area A is the area with the lowest luminance.
- the second extraction unit 142 extracts an area including pixels with knee point code C1 or more and less than delta point code C2 as the area B, using the HDR video data. That is, in this case, the second extraction unit 142 extracts a pixel having a code value included in the second range in FIG.
- the second extraction unit 142 extracts an area including pixels with knee point code C1 or more and less than delta point code C3 as the area B using HDR video data. Do. That is, in this case, the second extraction unit 142 extracts a pixel having a code value included in the second range and the third range in FIG. Region B is a region where the luminance is higher than region A.
- the third extracting unit 143 extracts an area including pixels of delta point code C2 or more as the area C using the HDR video data. That is, in this case, the third extraction unit 143 extracts, as the region C, the pixels having the code values included in the third range, the fourth range, and the fifth range in FIG.
- the third extraction unit 143 extracts an area including pixels with a delta point code C3 or more and less than a delta point code C4 as the area C using HDR video data. Do. That is, in this case, the third extraction unit 143 extracts a pixel having a code value included in the fourth range in FIG. Region C is a region where the luminance is higher than region B.
- the fourth extraction unit 144 does not perform processing when the conversion unit 170 performs conversion using the first EOTF. Further, when the converting unit 170 performs conversion using the second EOTF, the fourth extracting unit 144 extracts an area including pixels of delta point code C4 or more as the area D using the HDR video data. That is, in this case, the fourth extraction unit 144 extracts a pixel having a code value included in the fifth range in FIG.
- the region D is a region where the luminance is higher than the region C in the second EOTF.
- the region extraction unit 140 performs, for each pixel of the HDR video data, a range A where the code value of the pixel is less than the knee point code C1 (that is, 3) or within the range B below knee point code C1 and below delta point code C2 (that is, within the fourth range) or within the range C to E of delta point code C2 or above (ie, the second range) Determine if it is included in Then, according to the determination result, the region extraction unit 140 includes a region A including pixels included in the range A (that is, a third region) and a region B including a pixel included in the range B (fourth region). A region C (that is, a second region) including pixels included in the range C to E is extracted.
- the region extraction unit 140 for each pixel of the HDR video data, the range A where the code value of the pixel is less than the knee point code C1 (that is, the ninth range ) Is included in the range B, C (more specifically, the tenth range) is included in the knee point code C1 or more and less than the delta point code C3, or D is included in the range D (more than delta point code C3 and less than delta point code C4). It is determined whether it is included in the range 6) or included in the range E of the delta point code C4 or more (that is, the eighth range).
- the region extraction unit 140 selects the region A including the pixels included in the range A (that is, the ninth region) and the region B including the pixels included in the ranges B and C (that is, the tenth region).
- An area C), an area C including pixels included in the range D (i.e., a sixth area), and an area D including pixels included in the range E (i.e., an eighth area) are extracted.
- Each area A, B, C, D can be divided according to the level of luminance, so that the code value of the input video data and the knee point code C1 and the delta point codes C2, C3, C4 as each threshold can be compared and extracted. It is possible.
- the adjustment unit 150 includes a first adjustment unit 151, a second adjustment unit 152, a third adjustment unit 153, a fourth adjustment unit 154, a fifth adjustment unit 155, and a fifth adjustment unit.
- a first setting unit 156, a second setting unit 157, a third setting unit 158, a fourth setting unit 159, and a fifth setting unit 160 are included.
- the first to fifth setting units 156 to 160 perform the following processing using the sharpness gain and the sharpness gain curve output from the control unit 120.
- the first setting unit 156 uses the sharpness gain and the first sharpness gain curve or the second sharpness gain curve both when the conversion unit 170 performs conversion using the first EOTF and when performing conversion using the second EOTF.
- Te the gain a, sets the difference value .DELTA.G B from baseline in the region a.
- the gain A is a positive value.
- the first adjustment unit 151 adjusts the sharpness gain of the area A using the gain A, and outputs the adjusted data A.
- the second setting unit 157 when performing conversion the conversion unit 170 using the first 1EOTF, with sharpness gain and the first sharpness gain curve setting, the gain B, the difference value .DELTA.G A from the reference value in the region B Do.
- the gain B is a positive value.
- the second adjustment unit 152 adjusts the sharpness gain of the area B using the gain B, and outputs the adjusted data B.
- the second setting unit 157 uses the sharpness gain and the second sharpness gain curve to calculate the gain B as a difference value from the reference value in the ranges B and C. set to ⁇ G B.
- the gain B is a positive value.
- the second adjustment unit 152 adjusts the sharpness gain of the area B using the gain B, and outputs the adjusted data B.
- the third setting unit 158 uses the sharpness gain and the first sharpness gain curve to set the gain C to a difference value ⁇ G D from the reference value in the range C to E.
- Set to The gain C is a negative value.
- the third adjustment unit 153 adjusts the sharpness gain of the area C using the gain C, and outputs the adjusted data C.
- the third setting unit 158 uses the sharpness gain and the second sharpness gain curve to set the gain C to a difference value ⁇ G C from the reference value in the range D.
- Set to The gain C is a negative value.
- the third adjustment unit 153 adjusts the sharpness gain of the area C using the gain C, and outputs the adjusted data C.
- the fourth setting unit 159 and the fourth adjustment unit 154 do not perform processing when the conversion unit 170 performs conversion using the first EOTF.
- the fourth setting unit 159 uses the sharpness gain and the second sharpness gain curve to set the gain D to a difference value ⁇ G B from the reference value in the range E.
- Set to The gain D is a positive value.
- the fourth adjustment unit 154 adjusts the sharpness gain of the area D using the gain D, and outputs the adjusted data D.
- the fifth setting unit 160 sets the sharpness gain as the reference value as the gain E whether the conversion unit 170 performs the conversion using the first EOTF or the conversion using the second EOTF.
- the fifth adjustment unit 155 adjusts the sharpness gain of the entire region of the HDR video data using the gain E, and outputs the adjusted data E.
- the adjustment unit 150 is data obtained by adjusting the sharpness gain at each of the areas A to C by the gains A to C corresponding to the areas. Adjustment data obtained by adding A to C to each region A to C of data E obtained by adjusting the sharpness gain of the entire region with the reference value is output.
- the adjusting unit 150 is obtained by adjusting the sharpness gain with respect to each of the areas A to D with the gains A to D corresponding to the areas. Adjustment data obtained by adding each of the data A to D to each of the regions A to D of the data E obtained by adjusting the sharpness gain of the entire region with the reference value is output.
- the adjusting unit 150 calculates the sharpness gain of the area A (that is, the third area) from the reference value to the difference value ⁇ G B (that is, the first value). ) only increased, the area B (i.e., the sharpness gain of the fourth region) from the reference value, the difference value .DELTA.G B is smaller than the difference value .DELTA.G a (i.e., second value) only increased, the area C (that is, the The sharpness gain in area 2) is decreased from the reference value by the difference value ⁇ G D (that is, the third value).
- the inclination of the tangent at the delta point code C2 is 1.0 and the code value is 0 on the first EOTF.
- the average of the slopes of the tangents in the range A up to 0.05 is 0.05, and the average of the slopes of the tangents in the range B from the knee point code C1 to the delta point code C2 is 0.33;
- the average of the slopes of the tangents in the range C to E up to the value C5 can be considered to be 3.3.
- the number of tangents assigned to each of the range A, the range B and the range C to E may be one or four.
- the slope of the tangent assigned to each of the range A, the range B and the range C to E may be determined as a representative value selected from among the assigned tangents, or an average of a plurality of selected slopes. The value may be determined as the representative value.
- the slopes of the tangents of each of the range A, the range B, and the ranges C to E thus calculated become basic data for calculation of the sharpness gain curve of the region to which the ranges correspond.
- the sharpness gain curve in the delta point code C2 is defined as 1.0 equal to the sharpness gain
- each difference value ⁇ G A , ⁇ G B , ⁇ G D is set by the sharpness gain curve obtained by multiplying the sharpness gain curve of the reference delta point code C2 by the inclination of each tangent.
- the calculated value of the sharpness gain obtained may be used as it is, a limiter may be provided to determine the upper limit value and the lower limit value, or each difference value may be rounded.
- the sharpness gain curve is 5.0 in the range A and 3.0 in the range B, The value becomes 0.4 in the range C, and values for finally realizing these sharpness gains are set as the difference values ⁇ G A , ⁇ G B and ⁇ G D.
- the sharpness gain curve in FIG. 11 has an offset-free shape in the knee point code C1 and the delta point code C2, but not limited to this, the knee point code C1 and the delta point code are not limited to this.
- the point code C2 may have a shape having an inclination.
- the sharpness gain curve sets the sharpness gain delta point code C2 to the same value as the sharpness gain, with a constant slope without raising the knee point code C1 side immediately .DELTA.G A than the delta point code C2 It may have a gently rising shape, and the delta point code C3 side of the delta point code C2 may also have a shape gently falling with a certain slope without immediately lowering to ⁇ G D.
- the display device 100 further divides the first area into the third area and the fourth area with the knee point code as the boundary, and the sharpness of the third area By increasing the gain more than the sharpness gain in the fourth region, the rate of change in sharpness gain between different pixels is made uniform.
- the sharpness effect of the third area can be made close to the sharpness effect of the fourth area as the high luminance area. Therefore, it is possible to effectively suppress the reduction in the sharpness of the HDR video obtained by converting the HDR video data using the first EOTF.
- the adjusting unit 150 sets the sharpness gain of the region A (that is, the ninth region) from the reference value to the difference value ⁇ G B (that is, the fourth value). increases, region B (i.e., 10 regions) the sharpness gain difference value .DELTA.G B from the reference value (that is, the fourth value) only increased, the area C (that is, the sixth region) reference value sharpness gain of Then, the difference value ⁇ G C (that is, the fifth value) is decreased, and the sharpness gain of the region D (that is, the eighth region) is increased from the reference value by the difference value ⁇ G B (that is, the fourth value).
- the inclination of the tangent at the delta point code C3 and the delta point code C4 on the second EOTF is 1.0.
- the average of the tangent slopes in the range A is 0.05
- the average of the tangent slopes in the range B to C from the knee point code C1 to the delta point code C3 is 0.22
- the delta point code C3 The average of the tangent slopes in the range D from D to the delta point code C4 is 1.5
- the average of the tangent slopes in the range E from the delta point code C4 to the maximum code value C5 is 0.5 Can.
- the slopes of the tangents of each of the range A, the range B to C, the range D, and the range E become basic data of the sharpness gain curve calculation of the region to which the range corresponds.
- the sharpness gain curve in the delta point codes C3 and C4 is defined as 1.0 equal to the sharpness gain
- ⁇ G C corresponding to 0.6 is set.
- each difference value is set by the sharpness gain curve obtained by multiplying the sharpness gain curve of the reference delta point code C3 or C4 by the slope of each tangent.
- the calculated value of the sharpness gain obtained may be used as it is, a limiter may be provided to determine the upper limit value and the lower limit value, or each difference value may be rounded. For example, if a limiter with a maximum of 5.0 (that is, the upper limit) and a minimum of 0.7 (that is, the lower limit) is provided and the difference from the first EOTF difference is 1.5 or less, the sharpness gain is rounded.
- the curve is 5.0 in the range A, 5.0 in the range B to C, 0.6 in the range D, 2.0 in the range E, and the final values for realizing these sharpness gains are differences.
- the values are set as values ⁇ G B and ⁇ G C.
- the sharpness gain curve in FIG. 11 has a shape in which offset is not offset in the delta point codes C3 and C4, but not limited to this, a shape in which the slope is in the delta point codes C3 and C4 You may have.
- the sharpness gain curve sets the sharpness gain delta point code C3 to the same value as the sharpness gain, with a constant slope without immediately raising the .DELTA.G B is knee point code C1 side from the delta point code C3 It may have a gently rising shape, and the delta point code C4 side of the delta point code C3 may also have a shape that gently falls with a certain slope without immediately lowering to ⁇ G C.
- the sharpness gain of the delta point code C4 is set to be the same value as the sharpness gain, and the delta point code C3 side is more than the delta point code C4. It may have a shape that gently drops with a constant slope without immediately lowering to ⁇ G C, and a shape that gradually rises with a constant slope without immediately raising to ⁇ G B the maximum code value C5 side more than delta point code C4. May be included.
- the display device 100 adjusts the sharpness gain in accordance with the slope of the tangent, as in the case of using the first EOTF. Therefore, it is possible to effectively suppress the reduction in sharpness of the HDR video obtained by converting the HDR video data using the second EOTF.
- the display device 100 is also tangential as in the case of using the first EOTF. Adjust the sharpness gain according to the slope. Therefore, it is possible to effectively suppress the reduction in sharpness of the HDR video obtained by converting the HDR video data using the second EOTF.
- the same processing is performed in the region A even when using the first EOTF or when using the second EOTF. That is, even when the first EOTF is used or the second EOTF is used, the first extraction unit 141, the first adjustment unit 151, and the second setting unit 157 can be shared. Therefore, the number of components can be reduced, and the cost increase can be suppressed.
- the sharpness gain including the code value in the range B is made different between the case where the first EOTF is used and the case where the second EOTF is used. That is, it is possible to make the sharpness gains different from each other based on the knee point between the case of using the first EOTF and the case of using the second EOTF, and it is possible to effectively suppress the reduction of the sharpness of the HDR video. Also, even when the distribution side generates the knee point code and transmits it as metadata, the display device uses the first EOTF and the second EOTF based on the knee point code generated by the distribution side. Sharpness gain can be made different from each other.
- the second adjusting unit 152 adjusts the sharpness gain of the region B (that is, the fourth region) when the converting unit 170 performs conversion using the first EOTF, and the converting unit 170 adjusts the second EOTF.
- the sharpness gain of the region B (that is, the tenth region) is adjusted.
- the second extraction unit 142 extracts different regions as the region B, and the second setting unit
- the second adjustment unit 152 can be shared because the value 157 sets a different value as the gain B.
- the third adjustment unit 153 adjusts the sharpness gain of the region C (that is, the second region) when the conversion unit 170 performs conversion using the first EOTF, and the conversion unit 170 performs the second EOTF In the case of performing conversion using Y, the sharpness gain of the region C (that is, the sixth region) is adjusted.
- the third extraction unit 143 extracts different regions as the region C, and the third setting unit The third adjustment unit 153 can be shared because the value 158 is set to a different value as the gain C.
- the second adjustment unit 152 and the third adjustment unit 153 can be shared even when using the first EOTF or when using the second EOTF. Therefore, the number of components can be reduced, and the cost increase can be suppressed.
- FIG. 12 is a flowchart showing an example of a display method by the display device according to the embodiment.
- the acquisition unit 110 acquires video data (S10).
- the acquisition unit 110 may acquire metadata along with video data.
- the conversion unit 170 converts the video data into a video using the EOTF (S20). Specifically, when the video data is HDR video data, the conversion unit 170 converts the video into an HDR video using an EOTF corresponding to the HDR. For example, when MaxCLL of the HDR video data is equal to or less than the display maximum luminance, the conversion unit 170 converts the HDR video data into an HDR video using the first EOTF. For example, when MaxCLL of the HDR video data exceeds the display maximum luminance, the conversion unit 170 converts the HDR video data into the HDR video using the second EOTF. When the video data is SDR video data, the conversion unit 170 converts the video data into an SDR video using an EOTF corresponding to the SDR.
- the region extraction unit 140 determines the code values of all the pixels that make up each of the plurality of pictures of the HDR video data to obtain the plurality of regions A to D. Extraction processing is performed (S30). Details of the extraction process will be described later.
- the adjustment unit 150 performs an adjustment process of adjusting the sharpness in the region with the sharpness gain associated with each region based on the plurality of regions A to D extracted by the region extraction unit 140 (S50) ). Details of the adjustment process will be described later.
- the region extraction unit 140 and the adjustment unit 150 may not perform the processing.
- the display unit 180 displays the HDR image obtained by the conversion in the conversion unit 170 using the adjustment data obtained by the adjustment by the adjustment unit 150 (S60).
- the display unit 180 may display the SDR video obtained by the conversion in the conversion unit 170.
- step S20, step S30 and step S50 may be performed in parallel, or may be performed in a time zone that does not overlap each other.
- FIG. 13 is a flowchart showing an example of extraction processing for extracting a region.
- the region extraction unit 140 of the display device 100 determines whether the conversion unit 170 has performed conversion using the first EOTF (S31).
- loop 1 is executed for each of a plurality of pixels forming each of a plurality of pictures of HDR video data Do.
- the area extraction unit 140 determines whether the code value of the pixel is less than the knee point code C1 (S32).
- the region extraction unit 140 determines that the pixel is a pixel included in the region A (S33).
- the area extraction unit 140 may store the extraction result in which the pixel is the area A in the storage unit 130. Specifically, the first extraction unit 141 described above performs the process of step S33.
- the area extraction unit 140 determines whether the code value is less than the delta point code C2 (S34).
- the region extraction unit 140 determines that the pixel is a pixel included in the region B (S35).
- the area extraction unit 140 may store the extraction result in which the pixel is the area B in the storage unit 130.
- the second extraction unit 142 described above performs the process of step S35.
- the region extraction unit 140 determines that the pixel is a pixel included in the region C (S36).
- the area extraction unit 140 may store the extraction result in which the pixel is the area C in the storage unit 130.
- the third extraction unit 143 described above performs the process of step S36.
- the region extraction unit 140 determines that the conversion unit 170 performs the conversion using the second EOTF (No in S31), the loop is performed for each of the plurality of pixels forming each of the plurality of pictures of the HDR video data.
- the area extraction unit 140 determines whether the code value of the pixel is less than the knee point code C1 (S37).
- the region extraction unit 140 determines that the pixel is a pixel included in the region A (S38).
- the area extraction unit 140 may store the extraction result in which the pixel is the area A in the storage unit 130. Specifically, the first extraction unit 141 described above performs the process of step S38.
- the region extraction unit 140 determines whether the code value is less than the delta point code C3 (S39).
- the region extraction unit 140 determines that the pixel is a pixel included in the region B (S40).
- the area extraction unit 140 may store the extraction result in which the pixel is the area B in the storage unit 130.
- the second extraction unit 142 described above performs the process of step S40.
- the region extraction unit 140 determines whether the code value is less than the delta point code C4 (S41).
- the region extraction unit 140 determines that the pixel is a pixel included in the region C (S42).
- the area extraction unit 140 may store the extraction result in which the pixel is the area C in the storage unit 130.
- the third extraction unit 143 described above performs the process of step S42.
- the region extraction unit 140 determines that the pixel is a pixel included in the region D (S43).
- the area extraction unit 140 may store the extraction result in which the pixel is the area D in the storage unit 130.
- the fourth extraction unit 144 described above performs the process of step S43.
- the area extraction unit 140 ends loop 2 when loop 2 is executed for each of all the pixels.
- the region extraction unit 140 ends the extraction processing.
- FIG. 14 is a flowchart showing an example of adjustment processing for adjusting the sharpness gain.
- the adjustment unit 150 of the display device 100 determines whether the conversion unit 170 has performed conversion using the first EOTF (S51).
- the adjusting unit 150 determines that the converting unit 170 has performed conversion using the first EOTF (Yes in S51), the adjusting unit 150 executes loop 3 for each of the plurality of areas A to C extracted in the extraction process.
- the adjustment unit 150 determines which of the regions A to C the region is (S52). Note that if information indicating whether each region extracted in the region extraction unit 140 is a region converted by using the first EOTF or a region converted by using the second EOTF is stored together with the extraction result, A determination process may be performed by combining the processes of steps S51 and S52.
- Adjustment unit 150 if the region is determined to be the region A (region A in S52), thereby the sharpness gain in this region is increased difference ⁇ G B (S53). Specifically, the first adjustment unit 151 and the first setting unit 156 of the adjustment unit 150 described above perform the process of step S53. Thus, data A is obtained.
- Adjustment unit 150 (region B in S52) if the region is determined to be the region B, thereby the sharpness gain in this region is increased the difference value ⁇ G A (S54). Specifically, the second adjustment unit 152 and the second setting unit 157 of the adjustment unit 150 described above perform the process of step S54. Thus, data B is obtained.
- the adjusting unit 150 determines that the region is the region C (region C in S52), the adjusting unit 150 decreases the sharpness gain in the region by the difference value ⁇ G D (S55). Specifically, the third adjustment unit 153 and the third setting unit 158 of the adjustment unit 150 described above perform the process of step S55. Thus, data C is obtained.
- the adjustment unit 150 ends the loop 3 when the loop 3 is executed for each of all the regions.
- adjustment unit 150 executes loop 4 for each of the plurality of areas A to D extracted in the extraction process. .
- the adjustment unit 150 determines which of the areas A to D the area is (S56). Note that if information indicating whether each region extracted in the region extraction unit 140 is a region converted by using the first EOTF or a region converted by using the second EOTF is stored together with the extraction result, A determination process in which the processes of step S51 and step S56 are combined may be performed.
- Adjustment unit 150 if the region is determined to be the region A (region A in S56), thereby the sharpness gain in this region is increased difference ⁇ G B (S57). Specifically, the first adjustment unit 151 and the first setting unit 156 of the adjustment unit 150 described above perform the process of step S57. Thus, data A is obtained.
- Adjustment unit 150 if the region is determined to be the area B (S56 in region B), thereby the sharpness gain in this region is increased difference ⁇ G B (S58). Specifically, the second adjustment unit 152 and the second setting unit 157 of the adjustment unit 150 described above perform the process of step S58. Thus, data B is obtained.
- Adjustment unit 150 if the region is determined to be the region C (region C in S56), thereby the sharpness gain in the region is reduced difference value .DELTA.G C (S59). Specifically, the third adjustment unit 153 and the third setting unit 158 of the adjustment unit 150 described above perform the process of step S59. Thus, data C is obtained.
- Adjustment unit 150 if the region is determined to be the region D (a region D in S56), thereby the sharpness gain in this region is increased difference ⁇ G B (S60). Specifically, the fourth adjusting unit 154 and the fourth setting unit 159 of the adjusting unit 150 described above perform the process of step S60. Thus, data D is obtained.
- the adjustment unit 150 ends the loop 4 when the loop 4 is executed for each of all the regions.
- adjustment unit 150 sets the fifth adjustment unit 155 and the fifth setting on the result of loop 3 (that is, data A to C) or the result of loop 4 (that is, data A to D).
- the adjustment data obtained by adding and adding the processing result (that is, data E) by the unit 160 is output (S61).
- the display device 100 includes an acquisition unit 110, a conversion unit 170, an area extraction unit 140, an adjustment unit 150, and a display unit 180.
- the acquisition unit 110 acquires HDR video data in which the luminance of each pixel is represented by a code value.
- the conversion unit 170 converts the HDR video data into an HDR video using the first EOTF.
- the region extraction unit 140 corresponds to a first point where the code value of the pixel of the HDR video data changes from less than a predetermined inclination to a predetermined inclination or more in the code value of the pixel in the HDR video data It is determined whether it is included in a first range less than the first code value or included in a second range greater than or equal to the first code value.
- the region extraction unit 140 extracts a first region including pixels whose code value is included in the first range and a second region including pixels whose code value is included in the second range.
- the adjusting unit 150 adjusts the sharpness gain of the HDR video data by increasing the sharpness gain of the first area of the HDR video data more than the sharpness gain of the second area.
- the display unit 180 displays the HDR video obtained by being converted by the converting unit 170 using the adjustment data obtained by being adjusted by the adjusting unit 150.
- the sharpness gain of the first area is made larger than the sharpness gain of the second area in consideration of the case where the luminance data high frequency component of the master video data is lost due to the influence of encoding and decoding processes.
- the rate of change in sharpness gain between different pixels is made uniform.
- the sharpness effect of the first area as the low luminance area can be made close to the sharpness effect of the second area as the high luminance area. Therefore, it is possible to effectively suppress the reduction in the sharpness of the HDR video obtained by converting the HDR video data.
- the display device 100 includes the control unit 120 as a functional configuration in the above embodiment, the display unit 100 may not necessarily include the control unit 120. That is, the information calculated by the control unit 120 may be acquired from the outside or may be stored in advance by the storage unit 130.
- the knee point code may be included as metadata in video data.
- the delta point code may be stored in advance by the storage unit 130.
- the adjustment unit 150 may set the correction value using the predetermined correction value stored in the storage unit 130 as it is, instead of calculating the correction value using the sharpness gain curve and the sharpness gain.
- the storage unit 130 may store the second EOTF in advance.
- the region extraction unit 140 determines whether the code value of the pixel is less than the knee point code C1 for each of the plurality of pixels. Although it is determined that the processing of extracting two regions in the range less than the delta point code C3 is performed, it is not necessary to divide into the region A less than the knee point code C1 and the region B greater than the knee point. In this case, the adjustment unit 150, extracted by the area extracting unit 140 may perform processing for sharpness gain increasing difference value .DELTA.G B to a region composed of pixels of the code values below the delta point code C3.
- the region extraction unit 140 and the adjustment unit 150 determine whether the conversion in the conversion unit 170 is performed using the first EOTF or the second EOTF, the present invention is not limited to this.
- processing may be performed when conversion using the second EOTF is always performed.
- the area extraction unit 140 divides the area before and after the knee point code C1, but the area before and after the knee point code C1 There is no need to divide the Therefore, the adjustment unit 150 may not make the sharpness gains different before and after the knee point code C1.
- the display device 100 is configured to include the tuner 101, and the acquisition unit 110 is realized by the tuner 101.
- the acquisition unit 110 may acquire HDR video data by reading out HDR video data recorded on a recording medium (predetermined package medium) such as an optical disc.
- the acquisition unit 110 may be realized by an electrical device such as an optical pickup that reads an optical disc.
- the acquisition unit 110 may acquire HDR video data from an external server via a network such as the Internet.
- the acquisition unit 110 may be realized by a communication IF for communicating with an external server.
- the present disclosure is useful as a display device, a display method, and the like that can effectively adjust the sharpness gain of an HDR video obtained by converting HDR video data.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Picture Signal Circuits (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
各画素の輝度がコード値で表されているHDR映像データを取得する取得部(110)と、HDR映像データを第1EOTFを用いてHDR映像に変換する変換部(170)と、HDR映像データの各画素について、当該画素のコード値が第1EOTF上の点における接線の傾きが所定の傾きとなる第1の点に対応する第1コード値未満の第1範囲に含まれるか第1コード値以上の第2範囲に含まれるかを判定することで、コード値が第1範囲に含まれる画素を含む第1領域と、第2範囲に含まれる画素を含む第2領域とを抽出する領域抽出部(140)と、HDR映像データのうちの第1領域のシャープネスゲインを第2領域よりも増加させる調整部(150)と、調整後の調整データを用いてHDR映像を表示する表示部(180)とを備える。
Description
本開示は、HDR映像データを変換することにより得られたHDR映像データを表示する表示装置および表示方法に関する。
特許文献1には、ターゲットディスプレイ上への表示のための画像データを伝達関数に従って変換する装置について開示されています。
本開示は、HDR映像データを変換して得られたHDR映像のシャープネスが低減することを効果的に抑制することができる表示装置などを提供する。
本開示における表示装置は、各画素の輝度がコード値で表されているHDR(High Dynamic Range)映像データを取得する取得部と、前記HDR映像データを第1EOTF(Electro-optical Transfer Function)を用いてHDR映像に変換する変換部と、前記HDR映像データの各画素について、当該画素のコード値が、前記第1EOTF上の点における接線の傾きが所定の傾きとなる第1の点に対応する第1コード値未満の第1範囲に含まれるか前記第1コード値以上の第2範囲に含まれるかを判定することで、前記コード値が前記第1範囲に含まれる画素を含む第1領域と、前記コード値が前記第2範囲に含まれる画素を含む第2領域とを抽出する領域抽出部と、前記HDR映像データのうちの前記第1領域のシャープネスゲインを前記第2領域のシャープネスゲインよりも増加させることで前記HDR映像データのシャープネスゲインを調整する調整部と、前記調整部により調整されることで得られた調整データを用いて、前記変換部において変換されることにより得られた前記HDR映像を表示する表示部と、を備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示における表示装置は、HDR映像データを変換して得られたHDR映像のシャープネスゲインを効果的に調整することができる。
(発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、表示装置に関し、以下の問題が生じることを見出した。
本発明者は、「背景技術」の欄において記載した、表示装置に関し、以下の問題が生じることを見出した。
予め配信側にてマスター映像データに対してOETF(Optical Electrical Transfer Function)変換しエンコードしたHDR映像データを、デコードした後第1EOTFを用いて変換して得られるHDR映像を表示させる表示装置において、マスター映像データの輝度データ高周波成分がエンコード、デコード処理の影響により欠損する場合がある。当該表示装置の第1EOTFにおいて低輝度領域に相当する所定のコード値未満の第1範囲では、高輝度領域に相当する所定のコード値以上の第2範囲よりも、コード値の増加幅に対する輝度の増加幅が小さい。このため、マスター映像データのシャープネスを再現するべくHDR映像(ここでは1ピクチャの映像)の全体に共通するシャープネスゲインで画像処理すると、第1範囲のコード値を有する画素を含む第1領域と、第2範囲のコード値を有する画素を含む第2領域とで、得られるシャープネス効果の強さが異なってしまう。つまり、第1領域は第2領域よりもシャープネス効果の強さが弱くなる。
このように、HDR映像では、低輝度領域としての第1領域と、高輝度領域としての第2領域とでシャープネス効果が異なるため、1枚のピクチャにおいて見え方が異なる領域が生じてしまう。そこで、本開示は、HDR映像データを変換して得られたHDR映像のシャープネスが低減することを効果的に抑制することができる表示装置および表示方法を開示する。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態)
以下、図1~図14を用いて、実施の形態を説明する。
以下、図1~図14を用いて、実施の形態を説明する。
[1.構成]
図1は、本実施の形態に係る映像システムの概略を示す図である。
図1は、本実施の形態に係る映像システムの概略を示す図である。
図1に示すように、映像システム1は、映像データを含む配信用データを配信する配信側装置200と、配信された配信用データを受信する表示装置100とを備える。
配信側装置200は、カメラ201と、情報処理装置202とにより構成される。情報処理装置202は、ビデオカメラなどのカメラ201によって撮像された映像を表示装置100に伝送させるための配信用データに変換し、伝送手段を介して表示装置100に配信用データを送信する。
ここで、伝送手段は、所定のテレビジョン放送規格での放送波を送出するための手段、所定の通信プロトコルでのインターネットのようなネットワークに配信するための手段、または、所定のパッケージメディアに記録し、当該所定のパッケージメディアを販売するための手段である。本実施の形態では、伝送手段として、所定のテレビジョン放送規格での放送波を送出するための手段を用いる場合を例に説明する。
表示装置100は、配信用データを受信し、受信した配信用データに含まれる映像データが示す映像を表示する。表示装置100は、表示パネルを含む表示デバイスを筐体内に格納した、一般的なフラットパネルディスプレイの外観を有している。表示装置100は、例えば、液晶ディスプレイ、有機ELディスプレイなどである。
図2は、本実施の形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
図2に示すように、情報処理装置202は、ハードウェア構成として、プロセッサ203と、メインメモリ204と、ストレージ205と、通信IF(Interface)106と、入力IF(Interface)207と、ディスプレイ208とを備える。
プロセッサ203は、ストレージ205等に記憶されたプログラムを実行するプロセッサである。
メインメモリ204は、プロセッサ203がプログラムを実行するときに使用するワークエリアとして用いられる揮発性の記憶領域である。
ストレージ205は、プログラムなどの各種データを保持する不揮発性の記憶領域である。
通信IF206は、通信ネットワークを介して外部機器と通信する通信インタフェースである。通信IF206は、例えば、有線LANインタフェースである。なお、通信IF206は、無線LANインタフェースであってもよい。また、通信IF206は、LANインタフェースに限らずに、通信ネットワークとの通信接続を確立できる通信インタフェースであれば、どのような通信インタフェースであってもよい。
入力IF207は、人からの入力を受け付けるためのインタフェースである。入力IF205は、マウス、タッチパッド、タッチパネル、トラックボールなどのポインティングデバイスであってもよいし、キーボードであってもよい。
ディスプレイ208は、映像をマスタリングするために表示するマスターモニタである。例えば、ディスプレイ208は、液晶ディスプレイ、有機ELディスプレイなどである。
図3は、本実施の形態に係る表示装置のハードウェア構成の一例を示すブロック図である。
図3に示すように、表示装置100は、チューナ101と、デコーダ102と、制御回路103と、メモリ104と、表示デバイス105とを備える。
チューナ101は、図示しないアンテナにより受信した放送波を構成するアナログ信号をデジタル信号である符号化データへ変換し、変換することで得られた符号化データをデコーダ102に出力する。
デコーダ102は、チューナ101から取得した符号化データを復号し、復号することで得られた映像データを制御回路103に出力する。デコーダ102は、映像データとともに映像データの付加データであるメタデータをチューナ101から取得し、復号しても良い。復号されたメタデータは後述する制御回路103がメモリ104に一旦書き込む。メタデータは予め配信側により映像データに付加されて送信される。
制御回路103は、デコーダ102により出力された映像データに対して、メモリ104に記憶されている表示デバイス105の特性を示す特性情報とメタデータとに応じて画像処理を行う。制御回路103は、画像処理を行うことで得られた映像を、表示デバイス105に出力する。これにより、表示デバイス105は、表示デバイス105の特性とメタデータとに合わせた映像を表示させることができる。なお、デコーダ102と制御回路103とは、同一の回路で実現されていてもよい。また、制御回路103は、所定のプログラムを実行するCPUなどの汎用のプロセッサにより実現されていてもよいし、専用回路により実現されていてもよい。つまり、表示装置100の機能は、ソフトウェアにより実現されていてもよいし、ハードウェアにより実現されていてもよい。
メモリ104は、特性情報とメタデータとを記憶している。メモリ104は、さらに制御プログラムを記憶していてもよい。メモリ104は、例えば、不揮発性メモリである。
表示デバイス105は、制御回路103により出力された映像を表示する。表示デバイス105は、表示パネルであり、例えば、液晶パネル、有機ELパネルなどにより構成される。
図4は、本実施の形態に係る配信側装置の構成の一例を示すブロック図である。
図4に示すように、配信側装置200は、キャプチャ部210と、マスタリング部220と、OETF(Opto-Electronic Transfer Function)変換部230と、エンコーダ240とを備える。
キャプチャ部210は、映像データの被写体を撮影してデジタル映像データに変換して出力する。キャプチャ部210は、例えば、カメラ201により実現される。
マスタリング部220は、キャプチャ部210から得られた映像データをマスターモニタに表示しつつ、映像の制作者からの入力に応じて制作者が意図した輝度や色合いに映像を調整する処理を実行することで、配信用の映像を示す映像データであるマスターデータを生成する。マスタリング部220は、例えば、情報処理装置202の、プロセッサ203、メインメモリ204、ストレージ205、入力IF207およびディスプレイ208により実現される。
OETF変換部230は、HDR映像データで配信する場合に適応される輝度データを、図5に示すOETFを用いて、コード値に変換するOETF変換を実行する。OETF変換部230は、配信側装置200がHDR映像データを配信する場合にOETF変換を実行してもよいし、配信側装置200がHDR映像データを配信する前に事前にOETF変換を実行してもよい。後者の場合、変換後のHDR映像データは、ストレージ205に記憶される。OETF変換は、後述するEOTF変換の逆変換特性を持つ。
図5は、本実施の形態に係るOETFの一例を示す図である。
OETFは、図5に示すように、例えばPQカーブの逆変換カーブである。PQカーブは、SMPTE 2084規格で定義されているEOTFカーブである。OETF変換部230は、マスタリング部220において生成されたマスターデータに対して、OETF変換し、変換後のHDR映像データを出力する。OETF変換部230は、例えば、情報処理装置202の、プロセッサ203、メインメモリ204およびストレージ205により実現される。
エンコーダ240は、OETF変換部230において変換された後のHDR映像データに対し、映像圧縮規格による圧縮を実行し、圧縮により得られた配信用データを伝送路へ出力する。なお、図示していないが、エンコーダ240が出力する圧縮された配信用データは、音声データ、メタデータなどの映像データ以外のデータを含んでいてもよい。エンコーダ240は、例えば、情報処理装置202の、プロセッサ203、メインメモリ204、ストレージ205、通信IF206により実現される。
次に、表示装置の機能構成について説明する。
図6は、本実施の形態に係る表示装置の機能構成の一例を示すブロック図である。
図6に示すように、表示装置100は、機能構成として、取得部110と、制御部120と、記憶部130と、領域抽出部140と、調整部150と、変換部170と、表示部180とを備える。
取得部110は、伝送手段を介して配信用データを取得する。そして、取得部110は、配信用データをデコードすることにより、HDR(High Dynamic Range)映像データを取得する。つまり、取得部110は、配信側にてOETF変換されており、各画素の輝度がコード値で表されているHDR映像データを取得する。取得部110は、例えば、チューナ101、デコーダ102などにより実現される。取得部110は映像データとともにメタデータを取得しても良い。
制御部120は、HDR映像データが含むコード値を、HDR映像の輝度に変換するための第1EOTF(Electro-optical Transfer Function)を、HDR映像を表示デバイス105で表示できるように調整(つまりトーンマッピング)することで、図7に示すような第2EOTFを生成してもよい。第1EOTFは、例えば、PQカーブである。PQカーブは、SMPTE 2084規格で定義されているEOTFである。第2EOTFは、例えば、HDR映像の輝度の最大値(例えば、10,000nit)を表示デバイス105が表示可能な最大輝度である表示最大輝度となるように、第1EOTFをトーンマッピングすることにより得られる、コード値と輝度との関係を示す曲線である。つまり、第2EOTFは、表示部180が表示可能な最大輝度を示す表示最大輝度を超えた輝度に対応するコード値を有するHDR映像データを、表示最大輝度を最大輝度とするHDR映像に変換するためのEOTFである。第2EOTFは、コード値がニーポイントコードを超える範囲において第1EOTFとは異なる曲線、具体的には、第1EOTFよりも輝度が小さい曲線を有する。なお、図7は、第1EOTFおよび第2EOTFの一例を示す図である。PQカーブ以外にHLG(Hybrid Log Gamma)カーブもあるが、HDR映像がPQカーブあるいはHLGカーブでOETF(Opto-Electronic Transfer Function)変換されているかどうかは、メタデータに記述されており、メタデータを参照することで分かる。
図7に示すように、第1EOTFおよび第2EOTFは、コード値と輝度との対応を示し、コード値を輝度に変換するためのものである。つまり、第1EOTFおよび第2EOTFは、複数のコード値と輝度との対応関係を示す関係情報である。第1EOTFおよび第2EOTFは、図7に示す曲線を表す式で表されてもよいし、テーブルで表されてもよい。例えば、HDRに対応した映像の輝度を10ビットの階調のコード値で表現する場合、10,000nitまでのHDRの輝度範囲における輝度は、量子化されて、0~1023までの1024個の整数値にマッピングされる。
つまり、HDR映像データは、10,000nitまでの輝度範囲の映像の輝度(HDRに対応した映像の輝度)が、EOTFの逆関数であるOETFに基づいて量子化されることで得られる10ビットのコード値であるHDR信号を含む。HDRに対応したEOTF(以下、「HDRのEOTF」という。)においては、SDRに対応したEOTF(以下、「SDRのEOTF」という。)よりも高い輝度を表現することが可能であり、例えば、図7においては、輝度の最大値(ピーク輝度)は、10,000nitである。HDRの輝度の最大値は、SDRの輝度の最大値より大きい。HDRは、SDRの最大値である100nitから、HDRの輝度の最大値(例えば10,000nit)まで、最大値を拡大したダイナミックレンジを有する。
制御部120は、取得部110から得られた映像データを解析することで、画像処理に用いる映像データの輝度特性を示す輝度特性情報を生成する。制御部120は、具体的には、輝度特性情報として、ニーポイントコードC1およびデルタポイントコードC2~C4を含む複数の閾値を生成し、生成した複数の閾値を領域抽出部140に出力する。制御部120は、複数の閾値としての、ニーポイントコードC1およびデルタポイントコードC2~C4を次に示すように算出する。
図8は、ニーポイントコードの算出方法について説明するための図である。
制御部120は、例えば、HDR映像データの複数のピクチャのそれぞれにおけるコード値であって、当該ピクチャの複数の画素を、コード値が小さい画素から順に並べたときの全画素の所定の割合の数の順位に対応する画素のコード値を算出し、算出したコード値をニーポイントコードC1として生成してもよい。制御部120は、図8に示すように、複数のピクチャのそれぞれについて、当該ピクチャが有する画素のコード値に応じたIndex値ごとにカウントした輝度ヒストグラムを生成する。そして、制御部120は、輝度ヒストグラムの累積値が全画素の80%に対応するコード値、つまり、輝度が小さい画素を全画素の80%まで抽出した場合の最大コード値をニーポイントコードC1として生成する。配信側にて、予め映像データのヒストグラムを生成し同様にニーポイントコードC1を生成して、ニーポイントコードC1をメタデータに付加して送信しても良い。
デルタポイントコードC2~C4は、図7に示すように、EOTF上の点における接線の傾きが所定の傾きとなる点に対応するコード値である。図7では、所定の傾きとなる直線が破線で示されている。
制御部120は、第1EOTF上の点における接線の傾きが所定の傾きである1点に対応するコード値をデルタポイントコードC2として算出する。第1EOTFは、コード値が大きくなるに従って、第1EOTF上の点における接線の傾きが大きくなる特徴を有する。この第1EOTFの特徴は、第1EOTFの全てのコード値の範囲にわたっている。ディスプレイの輝度特性を補正するためのガンマ補正と比較すると、ガンマ補正カーブは、コード値が大きくなるに従って、接線の傾きが小さくなる特徴を有する。このガンマ補正カーブの特徴は、ガンマ補正カーブの全てのコード値の範囲にわたっている。つまり、ガンマ補正カーブは、第1EOTFとは逆の特徴となる。
また、制御部120は、第2EOTF上の点における接線の傾きが所定の傾きである2点に対応するコード値をデルタポイントコードC3、C4として算出する。なお、デルタポイントコードC3は、第2EOTF上の点であって、コード値が大きくなるに従って、接線の傾きが所定の傾き未満から所定の傾き以上に変化する第1の点(変化点)に対応するコード値である。また、デルタポイントコードC4は、第2EOTF上の点であって、コード値が大きくなるに従って、接線の傾きが所定の傾き以上から所定の傾き未満に変化する第2の点(変化点)に対応するコード値である。つまり、第2EOTFは、第1の点および第2の点である2つの変化点を有する。
所定の傾きは、例えば、1である。所定の傾きは、0.9から1.1までの値であれば1でなくてもよい。
なお、制御部120は、デルタポイントコードC2~C4を算出する場合において、所定の傾きである点に一致するコード値が無い場合、つまり、所定の傾きである点が2つのコード値の間にある場合、より近い方のコード値を対応するコード値として算出してもよいし、大きい方のコード値を対応するコード値として算出してもよいし、小さい方のコード値を対応するコード値として算出してもよい。
図9は、トーンマッピングの一例を示す図である。
制御部120は、トーンマッピングにおいて、HDR映像データのメタデータのうちのHDR映像のニーポイントとMaxCLL(Maximum Content Light Level)とを用い、ニーポイント以下の輝度は、変換の前後で同一とし、MaxCLL付近以上の輝度に対してのみ輝度を調整することで、第1EOTFから第2EOTFを生成する。
つまり、制御部120は、図9に示すように、トーンマッピングにおいて、HDR映像データの輝度がニーポイント以下の場合、当該HDR映像データの輝度を変換せず、当該HDR映像データの輝度を、表示デバイス105に表示させる輝度とする第2EOTFを生成する。また、制御部120は、当該HDR映像データの輝度がMaxCLL以上の場合、当該HDR映像データの輝度を、表示最大輝度とする第2EOTFを生成する。
なお、ニーポイントとは、第1EOTFにおいてニーポイントコードC1に対応付けられている輝度である。MaxCLLとは、コンテンツ内の全ピクチャにおける、画素の最大輝度を示す値である。つまり、MaxCLLは、映像の最大輝度または映像のピーク輝度である。MaxCLLとニーポイントとは、配信側にて予め生成され、メタデータとして送信された物を使用しても良い。
また、制御部120は、映像の輪郭を補正するためのシャープネスゲインおよび所定の補正値(後述参照)を示す記憶部130から取得し、取得したシャープネスゲイン、および、算出したニーポイントコードC1に基づいてシャープネスゲインカーブを生成してもよい。なお、シャープネスゲインは、映像の輪郭補正に用いられる基準値を示し、シャープネスゲインカーブは、映像の輪郭補正に用いられる基準値が調整された後の値を示す。シャープネスゲインカーブは、HDR映像データが第1EOTFを用いて変換される場合に用いられる第1シャープネスゲインカーブと、HDR映像データが第2EOTFを用いて変換される場合に用いられる第2シャープネスゲインカーブとを含む。
なお、制御部120は、例えば、制御回路103により実現される。
記憶部130は、表示最大輝度、シャープネスゲイン、および、所定の補正値を記憶している。記憶部130は、表示装置100の他の表示特性を記憶していてもよい。記憶部130は、例えば、メモリ104により実現される。
領域抽出部140は、HDR映像データの複数のピクチャのそれぞれを構成する全画素のそれぞれのコード値を判定することで、領域を抽出する。領域抽出部140は、具体的には、変換部170が用いるEOTFにおいて、当該EOTF上の点における接線の傾きが所定の傾きとなる点に対応するコード値(つまり、デルタポイントコードC2~C4)と、ニーポイントコードC1とを境界として分割される複数の範囲のそれぞれについて、当該範囲に含まれるコード値を有する画素を同じ領域として抽出する。つまり、領域抽出部140は、複数の範囲のそれぞれに対応する領域を抽出する。複数の領域のそれぞれは、各ピクチャにおいて抽出される。複数の領域のそれぞれは、1つも画素を含まない場合もあれば、1つの画素だけを含む場合もあれば、複数の画素を含む場合もある。複数の領域は、画素毎にコード値の範囲の違いでラベリングすることにより得られる情報であるとも言える。領域抽出部140の具体的な処理は後述する。領域抽出部140は、例えば、制御回路103により実現される。
調整部150は、領域抽出部140において抽出された複数の領域に基づいて、当該領域におけるシャープネスを、領域ごとに対応付けられたシャープネスゲインで調整する。調整部150は、シャープネスゲインが高い場合、シャープネス効果を強くするように、映像の輪郭を強調する。具体的には、調整部150は、HDR映像データのうちで、変換部170が用いるEOTF上の点における接線の傾きであって、当該画素のコード値が対応する点における接線の傾きが所定の傾き未満である画素を含む領域のシャープネスゲインを、当該接線の傾きが所定の傾き以上である画素を含む領域のシャープネスゲインよりも増加させることでHDR映像データのシャープネスゲインを調整する。調整部150の具体的な処理は後述する。調整部150は、例えば、制御回路103により実現される。
シャープネスゲインを調整する理由を説明する。配信側装置200で生成されたマスターデータの輝度データ高周波成分は、エンコード処理またはデコード処理の影響により欠損する場合がある。配信側装置200で用いられるOETFの特性は、輝度値が低くなるに従って、OETF上の点における接線の傾きが大きくなる特徴を有する。つまり、OETF変換後の映像データは、低輝度側の方が、輝度値の増加幅に対するコード値の増加幅が大きく高周波成分を多く含むことから、エンコード処理またはデコード処理の影響により高周波成分を欠損する場合が多い。さらに、表示装置100で用いられるEOTFは、低輝度領域に相当する所定のコード値未満の領域においては、高輝度領域に相当する所定のコード値以上の領域においてよりも、コード値の増加幅に対する輝度の増加幅が小さい特徴を有する。このため、OETF変換されたHDR映像(ここでは1ピクチャの映像)の全体に対して、共通するシャープネスゲインで画像処理すると、画像処理後の映像は、マスターデータの映像と比較して、低輝度領域のシャープネス効果が高輝度領域のシャープネス効果より相対的に低くなるため、1枚のピクチャにおいて互いに見え方が異なる複数の領域を有することとなる。そこで、1枚のピクチャに、互いに見え方が異なる複数の領域が生じることを抑制するために、調整部150は、HDR映像データのうちで、変換部170が用いるEOTF上の点における接線の傾きであって、当該画素のコード値が対応する点における接線の傾きが所定の傾き未満である画素を含む領域のシャープネスゲインを、当該接線の傾きが所定の傾き以上である画素を含む領域のシャープネスゲインよりも増加させ、低輝度部の輪郭をより強調する調整を行う。
変換部170は、HDR映像データを第1EOTFを用いてHDR映像に変換する。具体的には、変換部170は、コード値で表されているHDR映像データを、第1EOTFにおいて各コード値に対応する輝度に変換する。また、変換部170は、第1EOTFを用いた変換と、第2EOTFを用いた変換とを、HDR映像データの最大輝度であるMaxCLLに応じて選択的に切り替えて行ってもよい。具体的には、変換部170は、MaxCLLと表示デバイス105の表示最大輝度とを比較し、MaxCLLが表示最大輝度よりも大きい場合に、第2EOTFを用いた変換を行い、MaxCLLが表示最大輝度以下の場合に、第1EOTFを用いた変換を行う。このように、変換部170は、映像データにメタデータとして含まれる映像データが示す映像の最大輝度であるMaxCLLと、記憶部130に記憶されている表示デバイス105の最大輝度である表示最大輝度とを比較し、表示最大輝度よりも映像の最大輝度が大きい場合に、第2EOTFを用いた変換を行うことで、映像の最大輝度を表示最大輝度に合わせた輝度に調整することができる。
変換部170は、MaxCLLの代わりにピクチャごとの最大輝度を用いて、HDR映像データのピクチャごとに上記の切り替えを行ってもよいし、MaxCLLの代わりにシーンごとの最大輝度を用いてHDR映像データのシーンごとに上記の切り替えを行ってもよい。
変換部170は、例えば、制御回路103により実現される。
表示部180は、調整部150により調整されることで得られた調整データを用いて、変換部170において変換されることにより得られたHDR映像を表示する。表示部180は、取得部110により取得された映像データがSDR映像データである場合には、SDR映像を表示してもよい。表示部180は、例えば、表示デバイス105により実現される。
次に、領域抽出部140および調整部150の具体的な処理について図10および図11を用いて説明する。
図10は、領域抽出部および調整部の詳細な構成の一例を示すブロック図である。図118は、シャープネスゲインと各範囲において調整された後のシャープネスゲインとの一例を示す図である。
図10に示すように、領域抽出部140は、第1抽出部141と、第2抽出部142と、第3抽出部143と、第4抽出部144とを有する。第1~第4抽出部141~144は、取得部110により取得された映像データと、制御部120により算出されたニーポイントコードC1およびデルタポイントコードC2~C4のいずれかとを用いて、以下の各処理を行う。
第1抽出部141は、変換部170が第1EOTFを用いた変換を行う場合も、第2EOTFを用いた変換を行う場合も、HDR映像データを用いて、ニーポイントコードC1未満の画素を含む領域を領域Aとして抽出する。つまり、第1抽出部141は、図11における第1範囲に含まれるコード値を有する画素を領域Aとして抽出する。図7から分かるように、領域Aは輝度が最も低い領域である。
第2抽出部142は、変換部170が第1EOTFを用いた変換を行う場合、HDR映像データを用いて、ニーポイントコードC1以上デルタポイントコードC2未満の画素を含む領域を領域Bとして抽出する。つまり、この場合、第2抽出部142は、図11における第2範囲に含まれるコード値を有する画素を領域Bとして抽出する。
また、第2抽出部142は、変換部170が第2EOTFを用いた変換を行う場合、HDR映像データを用いて、ニーポイントコードC1以上デルタポイントコードC3未満の画素を含む領域を領域Bとして抽出する。つまり、この場合、第2抽出部142は、図11における第2範囲および第3範囲に含まれるコード値を有する画素を領域Bとして抽出する。領域Bは領域Aより輝度が高い領域である。
第3抽出部143は、変換部170が第1EOTFを用いた変換を行う場合、HDR映像データを用いて、デルタポイントコードC2以上の画素を含む領域を領域Cとして抽出する。つまり、この場合、第3抽出部143は、図11における第3範囲、第4範囲および第5範囲に含まれるコード値を有する画素を領域Cとして抽出する。
また、第3抽出部143は、変換部170が第2EOTFを用いた変換を行う場合、HDR映像データを用いて、デルタポイントコードC3以上デルタポイントコードC4未満の画素を含む領域を領域Cとして抽出する。つまり、この場合、第3抽出部143は、図11における第4範囲に含まれるコード値を有する画素を領域Cとして抽出する。領域Cは領域Bより輝度が高い領域である。
第4抽出部144は、変換部170が第1EOTFを用いた変換を行う場合、処理を行わない。また、第4抽出部144は、変換部170が第2EOTFを用いた変換を行う場合、HDR映像データを用いて、デルタポイントコードC4以上の画素を含む領域を領域Dとして抽出する。つまり、この場合、第4抽出部144は、図11における第5範囲に含まれるコード値を有する画素を領域Dとして抽出する。領域Dは、第2EOTFにおいて、領域Cより輝度が高い領域である。
このように、領域抽出部140は、変換部170が第1EOTFを用いた変換を行う場合、HDR映像データの各画素について、当該画素のコード値がニーポイントコードC1未満の範囲A(つまり、第3範囲)に含まれるか、ニーポイントコードC1以上デルタポイントコードC2未満の範囲B(つまり、第4範囲)に含まれるか、デルタポイントコードC2以上の範囲C~E(つまり、第2範囲)に含まれるかを判定する。そして、領域抽出部140は、判定結果に応じて、範囲Aに含まれる画素を含む領域A(つまり、第3領域)と、範囲Bに含まれる画素を含む領域B(第4領域)と、範囲C~Eに含まれる画素を含む領域C(つまり、第2領域)とを抽出する。
また、領域抽出部140は、変換部170が第2EOTFを用いた変換を行う場合、HDR映像データの各画素について、当該画素のコード値がニーポイントコードC1未満の範囲A(つまり、第9範囲)に含まれるか、ニーポイントコードC1以上デルタポイントコードC3未満の範囲B、C(つまり、第10範囲)に含まれるか、デルタポイントコードC3以上デルタポイントコードC4未満の範囲D(つまり、第6範囲)に含まれるか、デルタポイントコードC4以上の範囲E(つまり、第8範囲)に含まれるかを判定する。そして、領域抽出部140は、判定結果に応じて、範囲Aに含まれる画素を含む領域A(つまり、第9領域)と、範囲B、Cに含まれる画素を含む領域B(つまり、第10領域)と、範囲Dに含まれる画素を含む領域C(つまり、第6領域)と、範囲Eに含まれる画素を含む領域D(つまり、第8領域)とを抽出する。
各領域A、B、C、Dは輝度の高低により分割できることから、入力映像データのコード値と各閾値としてのニーポイントコードC1およびデルタポイントコードC2、C3、C4を比較して抽出することが可能である。
また、図10に示すように、調整部150は、第1調整部151と、第2調整部152と、第3調整部153と、第4調整部154と、第5調整部155と、第1設定部156と、第2設定部157と、第3設定部158と、第4設定部159と、第5設定部160とを有する。第1~第5設定部156~160は、制御部120により出力されたシャープネスゲインおよびシャープネスゲインカーブを用いて、以下の各処理を行う。
第1設定部156は、変換部170が第1EOTFを用いた変換を行う場合も、第2EOTFを用いた変換を行う場合も、シャープネスゲインと、第1シャープネスゲインカーブまたは第2シャープネスゲインカーブを用いて、ゲインAを、範囲Aにおける基準値からの差分値ΔGBに設定する。ゲインAは、正の値である。第1調整部151は、ゲインAを用いて領域Aのシャープネスゲインを調整し、調整後のデータAを出力する。
第2設定部157は、変換部170が第1EOTFを用いた変換を行う場合、シャープネスゲインおよび第1シャープネスゲインカーブを用いて、ゲインBを、範囲Bにおける基準値からの差分値ΔGAに設定する。ゲインBは、正の値である。第2調整部152は、ゲインBを用いて領域Bのシャープネスゲインを調整し、調整後のデータBを出力する。
また、第2設定部157は、変換部170が第2EOTFを用いた変換を行う場合、シャープネスゲインおよび第2シャープネスゲインカーブを用いて、ゲインBを、範囲B、Cにおける基準値からの差分値ΔGBに設定する。ゲインBは、正の値である。第2調整部152は、ゲインBを用いて領域Bのシャープネスゲインを調整し、調整後のデータBを出力する。
第3設定部158は、変換部170が第1EOTFを用いた変換を行う場合、シャープネスゲインおよび第1シャープネスゲインカーブを用いて、ゲインCを、範囲C~Eにおける基準値からの差分値ΔGDに設定する。ゲインCは、負の値である。第3調整部153は、ゲインCを用いて領域Cのシャープネスゲインを調整し、調整後のデータCを出力する。
また、第3設定部158は、変換部170が第2EOTFを用いた変換を行う場合、シャープネスゲインおよび第2シャープネスゲインカーブを用いて、ゲインCを、範囲Dにおける基準値からの差分値ΔGCに設定する。ゲインCは、負の値である。第3調整部153は、ゲインCを用いて領域Cのシャープネスゲインを調整し、調整後のデータCを出力する。
第4設定部159および第4調整部154は、変換部170が第1EOTFを用いた変換を行う場合、処理を行わない。また、第4設定部159は、変換部170が第2EOTFを用いた変換を行う場合、シャープネスゲインおよび第2シャープネスゲインカーブを用いて、ゲインDを、範囲Eにおける基準値からの差分値ΔGBに設定する。ゲインDは、正の値である。第4調整部154は、ゲインDを用いて領域Dのシャープネスゲインを調整し、調整後のデータDを出力する。
第5設定部160は、変換部170が第1EOTFを用いた変換を行う場合も、第2EOTFを用いた変換を行う場合も、ゲインEとして、基準値のままのシャープネスゲインを設定する。第5調整部155は、ゲインEを用いてHDR映像データの全領域のシャープネスゲインを調整し、調整後のデータEを出力する。
調整部150は、変換部170が第1EOTFを用いた変換を行う場合には、領域A~Cのそれぞれについて、当該領域に対応するゲインA~Cでシャープネスゲインを調整することにより得られたデータA~Cを、それぞれ、全領域のシャープネスゲインを基準値で調整することにより得られたデータEの各領域A~Cに加算した調整データを出力する。また、調整部150は、変換部170が第2EOTFを用いた変換を行う場合には、領域A~Dのそれぞれについて、当該領域に対応するゲインA~Dでシャープネスゲインを調整することにより得られたデータA~Dを、それぞれ、全領域のシャープネスゲインを基準値で調整することにより得られたデータEの各領域A~Dに加算した調整データを出力する。
このように、調整部150は、変換部170が第1EOTFを用いた変換を行う場合、領域A(つまり、第3領域)のシャープネスゲインを基準値から差分値ΔGB(つまり、第1の値)だけ増加させ、領域B(つまり、第4領域)のシャープネスゲインを基準値から、差分値ΔGBより小さい差分値ΔGA(つまり、第2の値)だけ増加させ、領域C(つまり、第2領域)のシャープネスゲインを基準値から差分値ΔGD(つまり、第3の値)だけ減少させる。
なお、図7においてΔ輝度/Δコード値を1点における傾きとすると、第1EOTF上において、デルタポイントコードC2における接線の傾きが1.0であり、コード値が0の点からニーポイントコードC1までの範囲Aにおける接線の傾きの平均が0.05であり、ニーポイントコードC1からデルタポイントコードC2までの範囲Bにおける接線の傾きの平均が0.33であり、デルタポイントコードC2から最大コード値C5までの範囲C~Eにおける接線の傾きの平均が3.3であるとみなすことができる。範囲A、範囲Bおよび範囲C~Eのそれぞれに割り当てられる接線の数は1つでも良いし4つでも良い。範囲A、範囲Bおよび範囲C~Eのそれぞれに割り当てられる接線の傾きは、それら割り当てられた接線の中から単一選択したものを代表値として決定されても良く、あるいは複数選択した傾きの平均値を代表値として決定されても良い。このように算出された、範囲A、範囲Bおよび範囲C~Eそれぞれの接線の傾きが、当該範囲が対応する領域のシャープネスゲインカーブ算出の基礎データとなる。
例えば、デルタポイントコードC2におけるシャープネスゲインカーブをシャープネスゲインと同一となる1.0と定義すると、範囲Aにおける接線の傾きの平均が0.05であるため、範囲Aのシャープネスゲインカーブは、1.0×(1/0.05)=20.0となる。よって、範囲Aには、20.0に相当するΔGBが設定される。また、同様に、範囲Bの場合は、範囲Bにおける接線の傾きの平均が0.33であるため、範囲Bのシャープネスゲインカーブは、1.0×(1/0.33)=3.0となり、3.0に相当するΔGAが設定される。同様に、範囲C~Eの場合は、範囲C~Eにおける接線の傾きの平均が3.3であるため、範囲C~Eのシャープネスゲインカーブは、1.0×(1/3.3)=0.3となり、0.3に相当するΔGD(1.0以下であるためマイナス値)が設定される。
以上のように各差分値ΔGA、ΔGB、ΔGDは基準となるデルタポイントコードC2のシャープネスゲインカーブと各接線の傾きとの掛け算により求められたシャープネスゲインカーブにより設定される。求められたシャープネスゲインの計算値をそのまま使用しても良いし、リミッターを設けて上限値および下限値を決めても良いし、それぞれの差分値を丸めても良い。例えば最大5.0(つまり上限値)、および、最小0.4(つまり下限値)のリミッターを設けた場合、シャープネスゲインカーブは、範囲Aにおいて5.0となり、範囲Bにおいて3.0となり、範囲Cにおいて0.4となり、最終的にこれらのシャープネスゲインを実現する値が差分値ΔGA、ΔGB、ΔGDとして設定される。
また、図11のシャープネスゲインカーブは、ニーポイントコードC1、および、デルタポイントコードC2において、傾きがないオフセットする形状を有しているが、これに限らずに、ニーポイントコードC1、および、デルタポイントコードC2において傾きがある形状を有していても良い。例えば、シャープネスゲインカーブは、デルタポイントコードC2のシャープネスゲインをシャープネスゲインと同じ値となるように設定し、デルタポイントコードC2よりもニーポイントコードC1側は直ちにΔGAに上げずに一定の傾きをもってなだらかに上がる形状を有していても良く、デルタポイントコードC2よりもデルタポイントコードC3側も直ちにΔGDに下げずに一定の傾きをもってなだらかに下がる形状を有していても良い。
このように、表示装置100では、第1EOTFを用いて得られるHDR映像を表示する場合、第1領域においてさらにニーポイントコードを境界として第3領域および第4領域に分割し、第3領域のシャープネスゲインを、第4領域のシャープネスゲインよりも増加させることで、異なる画素間のシャープネスゲインの変化率の均一化を図っている。これにより、第1領域においても、第3領域のシャープネス効果を、高輝度領域としての第4領域のシャープネス効果に近づけることができる。よって、第1EOTFを用いてHDR映像データを変換することで得られたHDR映像のシャープネスが低減することを効果的に抑制することができる。
また、調整部150は、変換部170が第2EOTFを用いた変換を行う場合、領域A(つまり、第9領域)のシャープネスゲインを基準値から差分値ΔGB(つまり、第4の値)だけ増加させ、領域B(つまり、第10領域)のシャープネスゲインを基準値から差分値ΔGB(つまり、第4の値)だけ増加させ、領域C(つまり、第6領域)のシャープネスゲインを基準値から差分値ΔGC(つまり、第5の値)だけ減少させ、領域D(つまり、第8領域)のシャープネスゲインを基準値から差分値ΔGB(つまり、第4の値)だけ増加させる。
なお、第1EOTFの場合と同様に、図7においてΔ輝度/Δコード値を1点における傾きとすると、第2EOTF上のデルタポイントコードC3、および、デルタポイントコードC4における接線の傾きが1.0であり、範囲Aにおける接線の傾きの平均が0.05であり、ニーポイントコードC1からデルタポイントコードC3までの範囲B~Cにおける接線の傾きの平均が0.22であり、デルタポイントコードC3からデルタポイントコードC4までの範囲Dにおける接線の傾きの平均が1.5であり、デルタポイントコードC4から最大コード値C5までの範囲Eにおける接線の傾きの平均が0.5であるとみなすことができる。範囲A、範囲B~C、範囲Dおよび範囲Eそれぞれの接線の傾きが、当該範囲が対応する領域のシャープネスゲインカーブ算出の基礎データとなる。
例えば、デルタポイントコードC3、C4におけるシャープネスゲインカーブをシャープネスゲインと同一となる1.0と定義すると、範囲Aにおける接線の傾きの平均が0.05であるため、範囲Aのシャープネスゲインカーブは、1.0×(1/0.05)=20.0となる。よって、範囲Aには、20.0に相当するΔGBが設定される。また、同様に、範囲B~Cの場合は、範囲B~Cにおける接線の傾きの平均が0.22であるため、範囲B~Cのシャープネスゲインカーブは、1.0×(1/0.22)=4.5となり、4.5に相当するΔGBが設定される。同様に、範囲Dの場合は、範囲Dにおける接線の傾きの平均が1.5であるため、範囲Dのシャープネスゲインカーブは、1.0×(1/1.5)=0.6となり、0.6に相当するΔGCが設定される。同様に、範囲Eの場合は、範囲Eにおける接線の傾きの平均が0.5であるため、範囲Eのシャープネスゲインカーブは、1.0×(1/0.5)=2.0となり、2.0に相当するΔGBが設定される。
以上のように各差分値は基準となるデルタポイントコードC3、C4のシャープネスゲインカーブと各接線の傾きとの掛け算により求められたシャープネスゲインカーブにより設定される。求められたシャープネスゲインの計算値をそのまま使用しても良いし、リミッターを設けて上限値および下限値を決めても良いし、それぞれの差分値を丸めても良い。例えば最大5.0(つまり上限値)、および、最小0.7(つまり下限値)のリミッターを設け、第1EOTFの差分値との差が1.5以下の差分値を丸めた場合、シャープネスゲインカーブは、範囲Aにおいて5.0となり、範囲B~Cにおいて5.0となり、範囲Dにおいて0.6となり、範囲Eにおいて2.0となり、最終的にこれらのシャープネスゲインを実現する値が差分値ΔGB、ΔGCとして設定される。
また、図11のシャープネスゲインカーブは、デルタポイントコードC3、C4において、傾きがないオフセットする形状を有しているが、これに限らずに、デルタポイントコードC3、C4においてに傾きがある形状を有していても良い。例えば、シャープネスゲインカーブは、デルタポイントコードC3のシャープネスゲインをシャープネスゲインと同じ値となるように設定し、デルタポイントコードC3よりもニーポイントコードC1側は直ちにΔGBに上げずに一定の傾きをもってなだらかに上がる形状を有していても良く、デルタポイントコードC3よりもデルタポイントコードC4側も直ちにΔGCに下げずに一定の傾きをもってなだらかに下がる形状を有していても良い。また、デルタポイントコードC4についても同様に、例えば、シャープネスゲインカーブは、デルタポイントコードC4のシャープネスゲインをシャープネスゲインと同じ値となるように設定し、デルタポイントコードC4よりもデルタポイントコードC3側は直ちにΔGCに下げずに一定の傾きをもってなだらかに下がる形状を有していても良く、デルタポイントコードC4よりも最大コード値C5側も直ちにΔGBに上げずに一定の傾きをもってなだらかに上がる形状を有していても良い。
このように、表示装置100では、第2EOTFを用いて得られるHDR映像を表示する場合においても、第1EOTFを用いる場合と同様に接線の傾きに応じてシャープネスゲインの調整を行う。このため、第2EOTFを用いてHDR映像データを変換することで得られたHDR映像のシャープネスが低減することを効果的に抑制することができる。
また、表示装置100では、第1の点および第2の点である2つの変化点を有する第2EOTFを用いて得られるHDR映像を表示する場合においても、第1EOTFを用いる場合と同様に接線の傾きに応じてシャープネスゲインの調整を行う。このため、第2EOTFを用いてHDR映像データを変換することで得られたHDR映像のシャープネスが低減することを効果的に抑制することができる。
また、表示装置100では、第1EOTFを用いる場合でも、第2EOTFを用いる場合でも、領域Aにおいては同じ処理を行う。つまり、第1EOTFを用いる場合でも、第2EOTFを用いる場合でも、第1抽出部141、第1調整部151および第2設定部157を共用できる。よって、構成要素を少なくすることができ、コストアップを抑制することができる。
また、表示装置100では、第1EOTFを用いる場合と、第2EOTFを用いる場合とで、範囲Bのコード値を含むシャープネスゲインを異ならせている。つまり、第1EOTFを用いる場合と、第2EOTFを用いる場合とで、ニーポイントを基準としてシャープネスゲインを互いに異ならせることができ、HDR映像のシャープネスが低減することを効果的に抑制することができる。また、配信側がニーポイントコードを生成してメタデータで送信する場合においても、表示装置において、配信側が生成するニーポイントコードを基準にして、第1EOTFを用いる場合と、第2EOTFを用いる場合とで、シャープネスゲインを互いに異ならせることができる。
また、調整部150では、変換部170が第1EOTFを用いた変換を行う場合において領域B(つまり、第4領域)のシャープネスゲインを調整する第2調整部152が、変換部170が第2EOTFを用いた変換を行う場合においては、領域B(つまり、第10領域)のシャープネスゲインを調整する。上述したように、変換部170が第1EOTFを用いた変換を行う場合も、第2EOTFを用いた変換を行う場合も、第2抽出部142が異なる領域を領域Bとして抽出し、第2設定部157が異なる値をゲインBとして設定するため、第2調整部152を共用することができる。
同様に、調整部150では、変換部170が第1EOTFを用いた変換を行う場合において領域C(つまり、第2領域)のシャープネスゲインを調整する第3調整部153が、変換部170が第2EOTFを用いた変換を行う場合においては、領域C(つまり、第6領域)のシャープネスゲインを調整する。上述したように、変換部170が第1EOTFを用いた変換を行う場合も、第2EOTFを用いた変換を行う場合も、第3抽出部143が異なる領域を領域Cとして抽出し、第3設定部158が異なる値をゲインCとして設定するため、第3調整部153を共用することができる。
このように、表示装置100では、第1EOTFを用いる場合でも、第2EOTFを用いる場合でも、第2調整部152および第3調整部153を共用できる。よって、構成要素を少なくすることができ、コストアップを抑制することができる。
[2.動作]
次に、表示装置100の動作について図12~図14を用いて説明する。
次に、表示装置100の動作について図12~図14を用いて説明する。
図12は、実施の形態に係る表示装置による表示方法の一例を示すフローチャートである。
表示装置100では、取得部110が映像データを取得する(S10)。取得部110は、映像データとともにメタデータを取得してもよい。
次に、変換部170がEOTFを用いて映像データを映像に変換する(S20)。変換部170は、具体的には、映像データがHDR映像データである場合には、HDRに対応したEOTFを用いてHDR映像に変換する。変換部170は、例えば、HDR映像データのMaxCLLが表示最大輝度以下である場合には、第1EOTFを用いてHDR映像データをHDR映像に変換する。変換部170は、例えば、HDR映像データのMaxCLLが表示最大輝度を超えている場合には、第2EOTFを用いてHDR映像データをHDR映像に変換する。また、変換部170は、映像データがSDR映像データである場合には、SDRに対応したEOTFを用いてSDR映像に変換する。
一方で、領域抽出部140は、映像データがHDR映像データである場合、HDR映像データの複数のピクチャのそれぞれを構成する全画素のそれぞれのコード値を判定することで、複数の領域A~Dを抽出する抽出処理を行う(S30)。抽出処理の詳細は、後述する。
次に、調整部150は、領域抽出部140により抽出された複数の領域A~Dに基づいて、当該領域におけるシャープネスを、領域ごとに対応付けられたシャープネスゲインで調整する調整処理を行う(S50)。調整処理の詳細は、後述する。
なお、映像データがSDR映像データである場合、領域抽出部140および調整部150は、処理を行わなくてもよい。
最後に、表示部180は、調整部150により調整されることで得られた調整データを用いて、変換部170において変換されることにより得られたHDR映像を表示する(S60)。また、表示部180は、映像データがSDR映像データである場合、変換部170において変換されることにより得られたSDR映像を表示してもよい。
なお、ステップS20と、ステップS30およびステップS50とは、並列で行われてもよいし、互いに重ならない時間帯で行われてもよい。
次に、領域を抽出する抽出処理の詳細について図13を用いて説明する。
図13は、領域を抽出する抽出処理の一例を示すフローチャートである。
表示装置100の領域抽出部140は、抽出処理が開始されると、変換部170が第1EOTFを用いた変換を行ったか否かを判定する(S31)。
領域抽出部140は、変換部170が第1EOTFを用いた変換を行ったと判定した場合(S31でYes)、HDR映像データの複数のピクチャのそれぞれを構成する複数の画素のそれぞれについてループ1を実行する。
ループ1が開始されると、領域抽出部140は、当該画素のコード値がニーポイントコードC1未満であるか否かを判定する(S32)。
領域抽出部140は、当該画素のコード値がニーポイントコードC1未満である場合(S32でYes)、当該画素を領域Aに含まれる画素であると判定する(S33)。領域抽出部140は、当該画素を領域Aとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第1抽出部141がステップS33の処理を行う。
領域抽出部140は、当該画素のコード値がニーポイントコードC1以上である場合(S32でNo)、当該コード値がデルタポイントコードC2未満であるか否かを判定する(S34)。
領域抽出部140は、当該画素のコード値がデルタポイントコードC2未満である場合(S34でYes)、当該画素を領域Bに含まれる画素であると判定する(S35)。領域抽出部140は、当該画素を領域Bとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第2抽出部142がステップS35の処理を行う。
領域抽出部140は、当該画素のコード値がデルタポイントコードC2以上である場合(S34でNo)、当該画素を領域Cに含まれる画素であると判定する(S36)。領域抽出部140は、当該画素を領域Cとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第3抽出部143がステップS36の処理を行う。
領域抽出部140は、全ての画素のそれぞれについてループ1を実行すると、ループ1を終了する。
一方で、領域抽出部140は、変換部170が第2EOTFを用いた変換を行ったと判定した場合(S31でNo)、HDR映像データの複数のピクチャのそれぞれを構成する複数の画素のそれぞれについてループ2を実行する。
ループ2が開始されると、領域抽出部140は、当該画素のコード値がニーポイントコードC1未満であるか否かを判定する(S37)。
領域抽出部140は、当該画素のコード値がニーポイントコードC1未満である場合(S37でYes)、当該画素を領域Aに含まれる画素であると判定する(S38)。領域抽出部140は、当該画素を領域Aとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第1抽出部141がステップS38の処理を行う。
領域抽出部140は、当該画素のコード値がニーポイントコードC1以上である場合(S37でNo)、当該コード値がデルタポイントコードC3未満であるか否かを判定する(S39)。
領域抽出部140は、当該画素のコード値がデルタポイントコードC3未満である場合(S39でYes)、当該画素を領域Bに含まれる画素であると判定する(S40)。領域抽出部140は、当該画素を領域Bとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第2抽出部142がステップS40の処理を行う。
領域抽出部140は、当該画素のコード値がデルタポイントコードC3以上である場合(S39でNo)、当該コード値がデルタポイントコードC4未満であるか否かを判定する(S41)。
領域抽出部140は、当該画素のコード値がデルタポイントコードC4未満である場合(S41でYes)、当該画素を領域Cに含まれる画素であると判定する(S42)。領域抽出部140は、当該画素を領域Cとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第3抽出部143がステップS42の処理を行う。
領域抽出部140は、当該画素のコード値がデルタポイントコードC4以上である場合(S41でNo)、当該画素を領域Dに含まれる画素であると判定する(S43)。領域抽出部140は、当該画素を領域Dとした抽出結果を、記憶部130に記憶させてもよい。具体的には、上述した第4抽出部144がステップS43の処理を行う。
領域抽出部140は、全ての画素のそれぞれについてループ2を実行すると、ループ2を終了する。
領域抽出部140は、ループ1またはループ2が終了すると、抽出処理を終了する。
次に、シャープネスゲインを調整する調整処理の詳細について図14を用いて説明する。
図14は、シャープネスゲインを調整する調整処理の一例を示すフローチャートである。
表示装置100の調整部150は、調整処理が開始されると、変換部170が第1EOTFを用いた変換を行ったか否かを判定する(S51)。
調整部150は、変換部170が第1EOTFを用いた変換を行ったと判定した場合(S51でYes)、抽出処理において抽出された複数の領域A~Cのそれぞれについてループ3を実行する。
ループ3が開始されると、調整部150は、当該領域が領域A~Cのいずれであるかを判定する(S52)。なお、領域抽出部140において抽出された各領域が第1EOTFを用いた変換での領域であるか第2EOTFを用いた変換での領域であるかを示す情報が抽出結果と共に記憶されていれば、上記ステップS51およびステップS52の処理を合わせた判定処理を行ってもよい。
調整部150は、当該領域が領域Aであると判定した場合(S52で領域A)、当該領域におけるシャープネスゲインを差分値ΔGB増加させる(S53)。具体的には、上述した調整部150の第1調整部151および第1設定部156がステップS53の処理を行う。これにより、データAが得られる。
調整部150は、当該領域が領域Bであると判定した場合(S52で領域B)、当該領域におけるシャープネスゲインを差分値ΔGA増加させる(S54)。具体的には、上述した調整部150の第2調整部152および第2設定部157がステップS54の処理を行う。これにより、データBが得られる。
調整部150は、当該領域が領域Cであると判定した場合(S52で領域C)、当該領域におけるシャープネスゲインを差分値ΔGD減少させる(S55)。具体的には、上述した調整部150の第3調整部153および第3設定部158がステップS55の処理を行う。これにより、データCが得られる。
調整部150は、全ての領域のそれぞれについてループ3を実行すると、ループ3を終了する。
一方で、調整部150は、変換部170が第2EOTFを用いた変換を行ったと判定した場合(S51でNo)、抽出処理において抽出された複数の領域A~Dのそれぞれについてループ4を実行する。
ループ4が開始されると、調整部150は、当該領域が領域A~Dのいずれであるかを判定する(S56)。なお、領域抽出部140において抽出された各領域が第1EOTFを用いた変換での領域であるか第2EOTFを用いた変換での領域であるかを示す情報が抽出結果と共に記憶されていれば、上記ステップS51およびステップS56の処理を合わせた判定処理を行ってもよい。
調整部150は、当該領域が領域Aであると判定した場合(S56で領域A)、当該領域におけるシャープネスゲインを差分値ΔGB増加させる(S57)。具体的には、上述した調整部150の第1調整部151および第1設定部156がステップS57の処理を行う。これにより、データAが得られる。
調整部150は、当該領域が領域Bであると判定した場合(S56で領域B)、当該領域におけるシャープネスゲインを差分値ΔGB増加させる(S58)。具体的には、上述した調整部150の第2調整部152および第2設定部157がステップS58の処理を行う。これにより、データBが得られる。
調整部150は、当該領域が領域Cであると判定した場合(S56で領域C)、当該領域におけるシャープネスゲインを差分値ΔGC減少させる(S59)。具体的には、上述した調整部150の第3調整部153および第3設定部158がステップS59の処理を行う。これにより、データCが得られる。
調整部150は、当該領域が領域Dであると判定した場合(S56で領域D)、当該領域におけるシャープネスゲインを差分値ΔGB増加させる(S60)。具体的には、上述した調整部150の第4調整部154および第4設定部159がステップS60の処理を行う。これにより、データDが得られる。
調整部150は、全ての領域のそれぞれについてループ4を実行すると、ループ4を終了する。
調整部150は、ループ3またはループ4が終了すると、ループ3の結果(つまり、データA~C)またはループ4の結果(つまり、データA~D)に、第5調整部155および第5設定部160による処理結果(つまり、データE)を加算し、加算することにより得られた調整データを出力する(S61)。
[3.効果など]
本実施の形態に係る表示装置100は、取得部110と、変換部170と、領域抽出部140と、調整部150と、表示部180とを備える。取得部110は、各画素の輝度がコード値で表されているHDR映像データを取得する。変換部170は、HDR映像データを第1EOTFを用いてHDR映像に変換する。領域抽出部140は、HDR映像データの各画素について、当該画素のコード値が、第1EOTF上の点における接戦の傾きが所定の傾き未満から所定の傾き以上に変化する第1の点に対応する第1コード値未満の第1範囲に含まれるか第1コード値以上の第2範囲に含まれるかを判定する。領域抽出部140は、この判定を行うことで、コード値が第1範囲に含まれる画素を含む第1領域と、コード値が第2範囲に含まれる画素を含む第2領域とを抽出する。調整部150は、HDR映像データのうちの第1領域のシャープネスゲインを第2領域のシャープネスゲインよりも増加させることでHDR映像データのシャープネスゲインを調整する。表示部180は、調整部150により調整されることで得られた調整データを用いて、変換部170において変換されることにより得られたHDR映像を表示する。
本実施の形態に係る表示装置100は、取得部110と、変換部170と、領域抽出部140と、調整部150と、表示部180とを備える。取得部110は、各画素の輝度がコード値で表されているHDR映像データを取得する。変換部170は、HDR映像データを第1EOTFを用いてHDR映像に変換する。領域抽出部140は、HDR映像データの各画素について、当該画素のコード値が、第1EOTF上の点における接戦の傾きが所定の傾き未満から所定の傾き以上に変化する第1の点に対応する第1コード値未満の第1範囲に含まれるか第1コード値以上の第2範囲に含まれるかを判定する。領域抽出部140は、この判定を行うことで、コード値が第1範囲に含まれる画素を含む第1領域と、コード値が第2範囲に含まれる画素を含む第2領域とを抽出する。調整部150は、HDR映像データのうちの第1領域のシャープネスゲインを第2領域のシャープネスゲインよりも増加させることでHDR映像データのシャープネスゲインを調整する。表示部180は、調整部150により調整されることで得られた調整データを用いて、変換部170において変換されることにより得られたHDR映像を表示する。
このため、表示装置100では、マスター映像データの輝度データ高周波成分がエンコード、デコード処理の影響により欠損する場合を考慮して、第1領域のシャープネスゲインを、第2領域のシャープネスゲインよりも増加させることで、異なる画素間のシャープネスゲインの変化率の均一化を図っている。これにより、低輝度領域としての第1領域のシャープネス効果を、高輝度領域としての第2領域のシャープネス効果に近づけることができる。よって、HDR映像データを変換することで得られたHDR映像のシャープネスが低減することを効果的に抑制することができる。
[4.変形例]
上記実施の形態では、表示装置100は、機能構成として制御部120を備えるとしたが、必ずしも制御部120を備えていなくてもよい。つまり、制御部120が算出するとした情報は、外部から取得してもよいし、記憶部130が予め記憶していてもよい。例えば、ニーポイントコードは映像データにメタデータとして含まれていてもよい。また、デルタポイントコードは記憶部130が予め記憶していてもよい。また、調整部150はシャープネスゲインカーブおよびシャープネスゲインを用いて補正値を算出するのではなく記憶部130に記憶されている所定の補正値をそのまま用いて補正値を設定してもよい。また、第2EOTFは、記憶部130が予め記憶していてもよい。
上記実施の形態では、表示装置100は、機能構成として制御部120を備えるとしたが、必ずしも制御部120を備えていなくてもよい。つまり、制御部120が算出するとした情報は、外部から取得してもよいし、記憶部130が予め記憶していてもよい。例えば、ニーポイントコードは映像データにメタデータとして含まれていてもよい。また、デルタポイントコードは記憶部130が予め記憶していてもよい。また、調整部150はシャープネスゲインカーブおよびシャープネスゲインを用いて補正値を算出するのではなく記憶部130に記憶されている所定の補正値をそのまま用いて補正値を設定してもよい。また、第2EOTFは、記憶部130が予め記憶していてもよい。
上記実施の形態では、領域抽出部140は、変換部170が第2EOTFを用いた変換を行った場合、複数の画素のそれぞれについて当該画素のコード値がニーポイントコードC1未満であるか否かを判定しており、デルタポイントコードC3未満の範囲において2つの領域を抽出する処理を行うとしたが必ずしもニーポイントコードC1未満である領域Aおよびニーポイント以上である領域Bに分けなくてもよい。この場合、調整部150は、領域抽出部140において抽出された、デルタポイントコードC3未満のコード値の画素からなる領域に対してシャープネスゲインを差分値ΔGB増加させる処理を行ってもよい。
上記実施の形態では、領域抽出部140および調整部150は、変換部170における変換が第1EOTFを用いて行われたか第2EOTFを用いて行われたかを判定するとしたが、これに限らない。例えば、表示装置が第2EOTFを必ず用いた変換を行う場合には、常に第2EOTFを用いた変換を行う場合の処理を行ってもよい。
上記実施の形態では、変換部170が第1EOTFを用いた変換を行う場合には、領域抽出部140は、ニーポイントコードC1の前後で領域を分割するとしたが、ニーポイントコードC1の前後で領域を分割しなくてもよい。よって、調整部150は、ニーポイントコードC1の前後でシャープネスゲインを異ならせなくてもよい。
上記実施の形態では、表示装置100では、チューナ101を備える構成であり、取得部110は、チューナ101により実現されるとしたが、これに限らない。取得部110は、光ディスクなどの記録媒体(所定のパッケージメディア)に記録されているHDR映像データを読み出すことでHDR映像データを取得してもよい。この場合、取得部110は、光ディスクを読み出す光ピックアップなどの電気機器により実現されてもよい。また、取得部110は、インターネットなどのネットワークを介して外部サーバからHDR映像データを取得してもよい。この場合、取得部110は、外部サーバとの間で通信を行うための通信IFにより実現されてもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、HDR映像データを変換して得られたHDR映像のシャープネスゲインを効果的に調整することができる表示装置、表示方法などとして有用である。
1 映像システム
100 表示装置
101 チューナ
102 デコーダ
103 制御回路
104 メモリ
105 表示デバイス
110 取得部
120 制御部
130 記憶部
140 領域抽出部
141 第1抽出部
142 第2抽出部
143 第3抽出部
144 第4抽出部
150 調整部
151 第1調整部
152 第2調整部
153 第3調整部
154 第4調整部
155 第5調整部
156 第1設定部
157 第2設定部
158 第3設定部
159 第4設定部
160 第5設定部
170 変換部
180 表示部
200 配信側装置
201 カメラ
202 情報処理装置
203 プロセッサ
204 メインメモリ
205 ストレージ
206 通信IF
210 キャプチャ部
220 マスタリング部
230 OETF変換部
240 エンコーダ
ΔGA~ΔGD 差分値
C1 ニーポイントコード
C2~C4 デルタポイントコード
100 表示装置
101 チューナ
102 デコーダ
103 制御回路
104 メモリ
105 表示デバイス
110 取得部
120 制御部
130 記憶部
140 領域抽出部
141 第1抽出部
142 第2抽出部
143 第3抽出部
144 第4抽出部
150 調整部
151 第1調整部
152 第2調整部
153 第3調整部
154 第4調整部
155 第5調整部
156 第1設定部
157 第2設定部
158 第3設定部
159 第4設定部
160 第5設定部
170 変換部
180 表示部
200 配信側装置
201 カメラ
202 情報処理装置
203 プロセッサ
204 メインメモリ
205 ストレージ
206 通信IF
210 キャプチャ部
220 マスタリング部
230 OETF変換部
240 エンコーダ
ΔGA~ΔGD 差分値
C1 ニーポイントコード
C2~C4 デルタポイントコード
Claims (8)
- 各画素の輝度がコード値で表されているHDR(High Dynamic Range)映像データを取得する取得部と、
前記HDR映像データを第1EOTF(Electro-optical Transfer Function)を用いてHDR映像に変換する変換部と、
前記HDR映像データの各画素について、当該画素のコード値が、前記第1EOTF上の点における接線の傾きが所定の傾きとなる第1の点に対応する第1コード値未満の第1範囲に含まれるか前記第1コード値以上の第2範囲に含まれるかを判定することで、前記コード値が前記第1範囲に含まれる画素を含む第1領域と、前記コード値が前記第2範囲に含まれる画素を含む第2領域とを抽出する領域抽出部と、
前記HDR映像データのうちの前記第1領域のシャープネスゲインを前記第2領域のシャープネスゲインよりも増加させることで前記HDR映像データのシャープネスゲインを調整する調整部と、
前記調整部により調整されることで得られた調整データを用いて、前記変換部において変換されることにより得られた前記HDR映像を表示する表示部と、を備える
表示装置。 - 前記変換部は、前記第1EOTFを用いた変換と、コード値がニーポイントコードを超える範囲において前記第1EOTFとは異なる曲線を有する第2EOTFであって、前記表示部が表示可能な最大輝度を示す表示最大輝度を超えた輝度に対応するコード値を有するHDR映像データを、前記表示最大輝度を最大輝度とするHDR映像に変換するための第2EOTFを用いた変換とを、前記HDR映像データの最大輝度に応じて選択的に切り替えて行い、
前記変換部が前記第1EOTFを用いた変換を行う場合、
前記領域抽出部は、さらに、前記第1領域のうちで、前記コード値が前記ニーポイントコード未満の第3範囲に含まれる画素を含む第3領域と、前記コード値が前記ニーポイントコード以上の第4範囲に含まれる画素を含む第4領域とを抽出し、
前記調整部は、前記第3領域のシャープネスゲインを基準値から第1の値だけ増加させ、前記第4領域のシャープネスゲインを前記基準値から前記第1の値よりも小さい第2の値だけ増加させ、前記第2領域のシャープネスゲインを前記基準値から第3の値だけ減少させる
請求項1に記載の表示装置。 - 前記第2EOTFは、前記HDR映像データの複数の画素を、コード値が小さい画素から順に並べたとき全画素の所定の割合の数の順位に対応する画素のコード値を前記ニーポイントコードとするEOTFである
請求項2に記載の表示装置。 - 前記変換部が前記第2EOTFを用いた変換を行う場合、
前記領域抽出部は、前記HDR映像データの各画素について、当該画素のコード値が、前記第2EOTF上の点における接線の傾きが前記所定の傾き未満のコード値の範囲である第5範囲に含まれるか前記所定の傾き以上のコード値の範囲である第6範囲に含まれるかを判定することで、前記コード値が前記第5範囲に含まれる画素を含む第5領域と、前記コード値が前記第6範囲に含まれる画素を含む第6領域とを抽出し、
前記調整部は、前記第5領域のシャープネスゲインを前記基準値から第4の値だけ増加させ、前記第6領域のシャープネスゲインを前記基準値から第5の値だけ減少させる
請求項2または3に記載の表示装置。 - 前記第2EOTFは、コード値が大きくなるに従って、前記接線の傾きが前記所定の傾き未満から前記所定の傾き以上に変化する第2の点、および、前記接線の傾きが前記所定の傾き以上から前記所定の傾き未満に変化する第3の点である2つの変化点を有し、
前記領域抽出部は、
さらに、前記第5領域のうちで、前記コード値が前記第2の点に対応する第2コード値未満の第7範囲に含まれる画素を含む第7領域と、前記コード値が前記第3の点に対応する第3コード値以上の第8範囲に含まれる画素を含む第8領域とを抽出し、
前記第2コード値以上、かつ、前記第3コード値未満の範囲を前記第6範囲とし、当該第6範囲に含まれる画素を含む領域を前記第6領域として抽出する
請求項4に記載の表示装置。 - 前記変換部が前記第2EOTFを用いた変換を行う場合、
前記領域抽出部は、さらに、前記第7領域のうちで、前記コード値が前記ニーポイントコード未満の第9範囲に含まれる画素を含む第9領域と、前記コード値が前記ニーポイントコード以上の第10範囲に含まれる画素を含む第10領域とを抽出し、
前記調整部は、前記第9領域および前記第10領域のシャープネスゲインを基準値から、前記第1の値と同じ前記第4の値だけ増加させる
請求項5に記載の表示装置。 - 前記調整部は、第1調整部と、前記第1調整部とは異なる第2調整部とを備え、
前記変換部が前記第1EOTFを用いた変換を行う場合に前記第4領域のシャープネスゲインを調整する第1調整部が、前記変換部が前記第2EOTFを用いた変換を行う場合においては、前記第8領域のシャープネスゲインを調整し、
前記変換部が前記第1EOTFを用いた変換を行う場合に前記第2領域のシャープネスゲインを調整する第2調整部が、前記変換部が前記第2EOTFを用いた変換を行う場合においては、前記第6領域のシャープネスゲインを調整する
請求項6に記載の表示装置。 - 各画素の輝度がコード値で表されているHDR(High Dynamic Range)映像データを取得し、
前記HDR映像データを第1EOTF(Electro-optical Transfer Function)を用いてHDR映像に変換し
前記HDR映像データの各画素について、当該画素のコード値が、前記第1EOTF上の点における接線の傾きが所定の傾きとなる第1の点に対応する第1コード値未満の第1範囲に含まれるか前記第1コード値以上の第2範囲に含まれるかを判定することで、前記コード値が前記第1範囲に含まれる画素を含む第1領域と、前記コード値が前記第2範囲に含まれる画素を含む第2領域とを抽出し、
前記HDR映像データのうちの前記第1領域のシャープネスゲインを前記第2領域のシャープネスゲインよりも増加させることで前記HDR映像データのシャープネスゲインを調整し、
調整することで得られた調整データを用いて、変換することで得られた前記HDR映像を表示する
表示方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/475,967 US11270661B2 (en) | 2017-12-27 | 2018-07-05 | Display apparatus and display method |
EP18889941.3A EP3734954B1 (en) | 2017-12-27 | 2018-07-05 | Display device and display method |
JP2019516554A JP6712822B2 (ja) | 2017-12-27 | 2018-07-05 | 表示装置および表示方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017251571 | 2017-12-27 | ||
JP2017-251571 | 2017-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019130626A1 true WO2019130626A1 (ja) | 2019-07-04 |
Family
ID=67063034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/025427 WO2019130626A1 (ja) | 2017-12-27 | 2018-07-05 | 表示装置および表示方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11270661B2 (ja) |
EP (1) | EP3734954B1 (ja) |
JP (1) | JP6712822B2 (ja) |
WO (1) | WO2019130626A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235138A1 (ja) * | 2020-05-22 | 2021-11-25 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理方法、映像生成装置、映像生成方法およびプログラム |
US20230230617A1 (en) * | 2020-06-03 | 2023-07-20 | Dolby Laboratories Licensing Corporation | Computing dynamic metadata for editing hdr content |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0591324A (ja) * | 1991-09-27 | 1993-04-09 | Dainippon Screen Mfg Co Ltd | 基準濃度点の設定方法 |
JP2000115534A (ja) * | 1998-09-30 | 2000-04-21 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びに記録媒体 |
JP2014512740A (ja) | 2011-03-15 | 2014-05-22 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 画像データ変換のための方法及び装置 |
JP2017139511A (ja) * | 2014-06-25 | 2017-08-10 | パナソニックIpマネジメント株式会社 | コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法 |
JP2017220690A (ja) * | 2014-10-21 | 2017-12-14 | パナソニックIpマネジメント株式会社 | 再生装置、表示装置および伝送方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0534430B1 (en) | 1991-09-27 | 1996-12-27 | Dainippon Screen Mfg. Co., Ltd. | Method of and apparatus for converting image signal representing image having gradation |
JP2005260517A (ja) | 2004-03-11 | 2005-09-22 | Sanyo Electric Co Ltd | 画像信号処理装置 |
ES2550782T3 (es) * | 2011-03-24 | 2015-11-12 | Koninklijke Philips N.V. | Aparato y método para analizar gradaciones de imágenes |
EP4421797A2 (en) * | 2011-09-27 | 2024-08-28 | Koninklijke Philips N.V. | Apparatus and method for dynamic range transforming of images |
JP5165802B1 (ja) * | 2012-02-17 | 2013-03-21 | シャープ株式会社 | 映像表示装置およびテレビ受信装置 |
CN110460744B (zh) * | 2014-06-10 | 2022-03-08 | 松下知识产权经营株式会社 | 亮度变换装置和亮度变换方法 |
JP5914902B1 (ja) * | 2014-06-10 | 2016-05-11 | パナソニックIpマネジメント株式会社 | 変換方法および変換装置 |
EP3739894A1 (en) * | 2014-06-27 | 2020-11-18 | Panasonic Intellectual Property Management Co., Ltd. | Data output device, data output method, and data generation method |
WO2016063474A1 (ja) * | 2014-10-21 | 2016-04-28 | パナソニックIpマネジメント株式会社 | 再生装置、表示装置および伝送方法 |
JP6731722B2 (ja) * | 2015-05-12 | 2020-07-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示方法および表示装置 |
RU2726290C2 (ru) * | 2015-07-16 | 2020-07-10 | ИНТЕРДИДЖИТАЛ ВиСи ХОЛДИНГЗ, ИНК. | Способ и устройство для тонального отображения изображения посредством использования параметрической функции тональной регулировки |
JP2017092604A (ja) * | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | 映像信号処理装置、映像信号処理方法、及びプログラム |
EP3512188B1 (en) * | 2016-09-06 | 2020-09-30 | Sony Corporation | Image processing apparatus and image processing method, and program |
WO2019053917A1 (ja) * | 2017-09-13 | 2019-03-21 | パナソニックIpマネジメント株式会社 | 輝度特性生成方法 |
-
2018
- 2018-07-05 WO PCT/JP2018/025427 patent/WO2019130626A1/ja unknown
- 2018-07-05 US US16/475,967 patent/US11270661B2/en active Active
- 2018-07-05 JP JP2019516554A patent/JP6712822B2/ja active Active
- 2018-07-05 EP EP18889941.3A patent/EP3734954B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0591324A (ja) * | 1991-09-27 | 1993-04-09 | Dainippon Screen Mfg Co Ltd | 基準濃度点の設定方法 |
JP2000115534A (ja) * | 1998-09-30 | 2000-04-21 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びに記録媒体 |
JP2014512740A (ja) | 2011-03-15 | 2014-05-22 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 画像データ変換のための方法及び装置 |
JP2017139511A (ja) * | 2014-06-25 | 2017-08-10 | パナソニックIpマネジメント株式会社 | コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法 |
JP2017220690A (ja) * | 2014-10-21 | 2017-12-14 | パナソニックIpマネジメント株式会社 | 再生装置、表示装置および伝送方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3734954A4 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235138A1 (ja) * | 2020-05-22 | 2021-11-25 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理方法、映像生成装置、映像生成方法およびプログラム |
EP4156170A4 (en) * | 2020-05-22 | 2023-12-06 | Panasonic Intellectual Property Management Co., Ltd. | VIDEO PROCESSING APPARATUS, VIDEO PROCESSING METHOD, VIDEO PRODUCING APPARATUS, VIDEO PROCESSING METHOD AND PROGRAM |
US20230230617A1 (en) * | 2020-06-03 | 2023-07-20 | Dolby Laboratories Licensing Corporation | Computing dynamic metadata for editing hdr content |
Also Published As
Publication number | Publication date |
---|---|
EP3734954A4 (en) | 2021-01-27 |
US20200410957A1 (en) | 2020-12-31 |
JP6712822B2 (ja) | 2020-06-24 |
EP3734954A1 (en) | 2020-11-04 |
US11270661B2 (en) | 2022-03-08 |
JPWO2019130626A1 (ja) | 2019-12-26 |
EP3734954B1 (en) | 2023-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10992898B2 (en) | Display method and display device | |
JP7568182B2 (ja) | 異なる表示機能の間で知覚ルミナンス非線形性ベースの画像データ交換を改善する装置および方法 | |
RU2643485C2 (ru) | Устройство и способ для преобразования динамического диапазона изображений | |
US10032262B2 (en) | Block-based content-adaptive reshaping for high dynamic range images | |
US10419762B2 (en) | Content-adaptive perceptual quantizer for high dynamic range images | |
JP5833233B2 (ja) | 様々なレベルのメタデータを含む色管理を制御するスケーラブルシステム | |
US20180061026A1 (en) | Display method and display device | |
US11100888B2 (en) | Methods and apparatuses for tone mapping and inverse tone mapping | |
US11341624B2 (en) | Reducing banding artifacts in HDR imaging via adaptive SDR-to-HDR reshaping functions | |
US10165275B2 (en) | Content-adaptive reshaping for high dynamic range images | |
US20200035198A1 (en) | Adjusting device, adjusting method, and program | |
JP2018506916A (ja) | Hdrピクチャをsdrピクチャにマッピングする方法およびデバイスならびに対応するsdrからhdrへのマッピング方法およびデバイス | |
WO2015128603A1 (en) | Method and apparatus for signal processing for high dynamic range video | |
WO2019130626A1 (ja) | 表示装置および表示方法 | |
JP7394407B2 (ja) | 制御装置及び制御方法 | |
US7760243B2 (en) | Imaging apparatus and method of processing image signal | |
WO2021235138A1 (ja) | 映像処理装置、映像処理方法、映像生成装置、映像生成方法およびプログラム | |
EP4058976A1 (en) | Device and method for pre-processing image data for a computer vision application | |
TW202404342A (zh) | 產生高動態範圍影像的方法及影像處理系統 | |
CN118266205A (zh) | 影像处理方法、影像处理装置及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2019516554 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18889941 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2018889941 Country of ref document: EP Effective date: 20200727 |