KR20200098316A - Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint - Google Patents
Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint Download PDFInfo
- Publication number
- KR20200098316A KR20200098316A KR1020190016306A KR20190016306A KR20200098316A KR 20200098316 A KR20200098316 A KR 20200098316A KR 1020190016306 A KR1020190016306 A KR 1020190016306A KR 20190016306 A KR20190016306 A KR 20190016306A KR 20200098316 A KR20200098316 A KR 20200098316A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- portrait
- evaluation
- unit
- evaluation unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000002996 emotional effect Effects 0.000 title claims abstract description 73
- 238000011156 evaluation Methods 0.000 claims abstract description 260
- 239000000203 mixture Substances 0.000 claims abstract description 58
- 230000014509 gene expression Effects 0.000 claims abstract description 46
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 230000008921 facial expression Effects 0.000 claims description 18
- 230000005484 gravity Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000007935 neutral effect Effects 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 20
- 235000019646 color tone Nutrition 0.000 description 44
- 230000008451 emotion Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 19
- 239000000047 product Substances 0.000 description 17
- 230000001815 facial effect Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000011160 research Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 11
- 238000011161 development Methods 0.000 description 10
- 230000018109 developmental process Effects 0.000 description 10
- 230000006397 emotional response Effects 0.000 description 10
- 210000001508 eye Anatomy 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000006866 deterioration Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000007547 defect Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 210000000887 face Anatomy 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000013441 quality evaluation Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 238000010422 painting Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 208000027534 Emotional disease Diseases 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 235000006732 Torreya nucifera Nutrition 0.000 description 1
- 244000111306 Torreya nucifera Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000000540 analysis of variance Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 239000000839 emulsion Substances 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000036211 photosensitivity Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 235000015067 sauces Nutrition 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0278—Product appraisal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0623—Item investigation
- G06Q30/0625—Directed, with specific intent or strategy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 인물사진 평가 시, 객관적 요소와 주관적 요소를 체계적으로 결합하여 감상자 선호도 기반의 자동 인물사진 평가 장치 및 방법에 관한 기술로서, 인물사진에서 얼굴을 인식하는 얼굴인식부, 얼굴인식부가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하는 구도평가부, 얼굴인식부가 인식한 얼굴에서 표정을 인식하고, 표정과 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 감정색상평가부, 구도평가부 및 감정색상평가부의 평가 결과를 이용하여 종합 평가를 연산하는 연산부, 연산부에서 연산된 종합 평가를 출력하는 표시부를 포함한다.The present invention is a technology related to an automatic portrait photo evaluation device and method based on viewer preference by systematically combining objective and subjective factors when evaluating a portrait. A face recognition unit that recognizes a face in a portrait photo, a face recognition unit recognized A composition evaluation unit that evaluates whether the composition of the face corresponds to the preference composition, and an emotional color evaluation unit that evaluates the degree of matching between the expression and the color tone of the portrait photograph, recognizing expressions from the face recognized by the face recognition unit, and composition And a calculation unit that calculates a comprehensive evaluation using the evaluation results of the evaluation unit and the emotional color evaluation unit, and a display unit that outputs the comprehensive evaluation calculated by the calculation unit.
Description
본 발명은 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치 및 방법에 관한 것으로서, 보다 상세하게는 인물사진 평가 시, 객관적 요소와 주관적 요소를 체계적으로 결합하여 감상자 선호도 기반의 자동 인물사진 평가 장치 및 방법에 관한 기술이다.The present invention relates to an apparatus and method for evaluating the emotional preference of a portrait photograph using an expert perspective, and more particularly, an automatic portrait photograph based on the viewer preference by systematically combining an objective element and a subjective element when evaluating a portrait photograph. It is a description of an evaluation device and method.
카메라의 어원은 화가들이 스케치를 위해 사용하던 카메라 옵스큐라(Camera obscura)로부터 출발하였다. 19세기에 들어 화학적 방법으로 빛 에너지를 고착시키기 위한 실험이 시작되었으며, 1826년 조셉 니엡스(Joseph Niepce)는 최초로 사진을 인화하였고, 은염감광유제를 이용함으로서 사진의 저변이 확대되었다. 20세기 들어 코닥사의 디지털카메라 개발은 사진의 범위를 확대시켜 누구나 손쉽게 사용할 수 있는 기술로 발전하였다. 이후, 디지털카메라는 다양한 제조사들에 의하여 높은 품질과 낮은 가격으로 빠르게 소비자들에게 확산되었다. 최근에는 휴대폰에도 디지털카메라 못지않은 품질의 카메라가 장착되어 현대인들에게 없어서는 안 될 생활필수품으로 자리하게 되었다. The etymology of the camera originated from the camera obscura, which painters used for sketching. In the 19th century, experiments to fix light energy by chemical methods began, and in 1826, Joseph Niepce first printed photographs, and the base of photographs was enlarged by using silver dyeing emulsion. In the 20th century, Kodak's digital camera development expanded the scope of photography and developed into a technology that anyone can use easily. Since then, digital cameras have rapidly spread to consumers with high quality and low prices by various manufacturers. In recent years, mobile phones are equipped with cameras of comparable quality to digital cameras, making them an indispensable daily necessity for modern people.
디지털카메라와 같은 이미지 기반 제품들의 입지가 변화한 것에 따라서, 소비자들의 제품 선택 기준에도 변화가 나타났다. 과거의 소비자들은 이미지 기반 제품의 선택 기준을 가격, 스펙의 객관적 수치 등 객관적인 재현 성능 관점에 비중을 두었다. 이에 따라 제조사들도 다양한 매체들을 통하여 객관적으로 높은 품질과 제품의 우수성을 강조하는 마케팅을 했다. 하지만, 최근 소비자들은 사진의 미학적인 요소, 감성적 요소 등과 같은 주관적 화질을 더 비중 있게 고려하여 제품을 선택하고 있다. 이처럼 소비자들의 수요에 따라서, 제조사들도 고객 지향 품질 만족을 우선적으로 고려하며 제품을 개발하는 방향으로 진화하고 있다. As the position of image-based products such as digital cameras changed, consumers' product selection criteria also changed. In the past, consumers placed emphasis on the objective reproducibility perspective, such as price and objective figures of specifications, for the selection criteria for image-based products. Accordingly, manufacturers also conducted marketing objectively emphasizing high quality and product excellence through various media. However, recently, consumers are choosing products with more weight on subjective image quality such as aesthetic elements and emotional elements of photography. As such, according to consumer demand, manufacturers are evolving in the direction of developing products, prioritizing customer-oriented quality satisfaction.
제품의 이미지 재현 성능이 실제 소비자가 선호하는 화질과 직접적인 관계가 있다고 보기는 어렵다. 왜냐하면 소비자들의 이미지 화질 평가 과정에는 이미지의 객관적인 속성의 인지와 정신 물리학적 인지 과정이 함께 작용하고, 그에 따른 주관적인 반응이 화질에 대한 최종 선호도로 나타나기 때문이다(Clark, 2006; Li, 2011). 그렇기 때문에 이미지 기반 제품의 객관적인 재현 성능만으로 화질을 판단하는 것은 무리가 있다. It is difficult to say that the product's image reproduction performance has a direct relationship with the image quality that consumers prefer. This is because the perception of objective attributes of images and psychophysical cognitive processes work together in the process of consumers' image quality evaluation, and subjective reactions accordingly appear as final preference for image quality (Clark, 2006; Li, 2011). Therefore, it is unreasonable to judge image quality only by objective reproduction performance of image-based products.
이미지 분야의 전문가들은 이러한 문제들을 해결하기 위하여 이미지의 객관적 요소를 통해 감상자들의 주관적인 선호도 분석을 시도하였다. 국제표준화기구(International Organization for Standardization)에서는 사진의 객관적인 화질 요소들을 규정하여 객관적인 관점에서 이미지를 평가할 수 있는 지표를 만들었다. 박형주(2013)는 사전 연구 결과를 기반으로 화질 평가 항목들을 다이내믹 레인지, 컬러, 콘트라스트 총 3가지의 중요도 높은 항목으로 규정하여 일반 감상자들이 선호하는 디지털 이미지 화질의 재현 성능 범위를 구체화하였다. 노연숙(2012)은 감상자의 관점에서 화질 만족도에 영향을 미치는 요소들을 언어를 이용한 방법으로 분석하여, 이미지를 주관적 관점에서 평가할 수 있도록 하였다. 그는 어떠한 개념에 대한 정서적 의미를 이끌어내는데 언어를 활용하면 명확한 설명이 어려운 측면에 대해 비교적 명확한 해석적 의미를 부여할 수 있어 연구의 객관성을 확보할 수 있다고 하였다. 이러한 사전 연구들의 결과들을 통하여 이전과 비교하였을 때 보다 이미지에 대한 더욱 정확한 선호도 분석이 가능해졌고, 소비자들이 선호하는 사진의 품질을 개발자들이 이해하고 이미지 기반 제품에 적용할 수 있는 많은 방법들이 제안되었다. 하지만 이러한 연구들은 특정한 몇 가지 요소만으로 제한하여 실험을 진행하였고, 이들의 상관관계를 규명하는 정도의 결과를 가지는 연구였다. 또한, 정신적 요인과 외부 환경적 요인으로 인해 감상자 개인의 판단 기준이 흔들릴 수 있다는 점을 고려하지 않았기 때문에 온전히 감상자들의 감성을 분석할 수 있었다고 보기에는 무리가 있었다.In order to solve these problems, experts in the field of image tried to analyze the subjective preferences of viewers through the objective elements of the image. The International Organization for Standardization (International Organization for Standardization) defined objective image quality factors of photographs and created an index to evaluate images from an objective point of view. Based on the results of prior research, Hyungju Park (2013) defined the quality evaluation items as three highly important items in total, dynamic range, color, and contrast, specifying the range of reproducing performance of digital image quality preferred by ordinary viewers. Roh Yeon-suk (2012) analyzed the factors affecting the image quality satisfaction from the viewer's point of view by using language, so that the image can be evaluated from a subjective point of view. He said that if language is used to derive emotional meanings for certain concepts, relatively clear interpretive meanings can be given to aspects that are difficult to explain, thereby securing objectivity of research. Through the results of these preliminary studies, it is possible to analyze the preferences of images more accurately than before, and many methods have been proposed to allow developers to understand the quality of photos preferred by consumers and apply them to image-based products. However, these studies were limited to a few specific factors, and the experiments were conducted, and the results were of the degree to which the correlation between them was investigated. In addition, it was unreasonable to say that it was possible to fully analyze the emotions of the viewers because it did not take into account that the individual's judgment criterion could be shaken due to mental and external environmental factors.
이에 본 발명은 상기와 같은 종래의 제반 문제점을 해소하기 위해 제안된 것으로, 본 발명의 목적은 인물사진 평가 시, 객관적 요소와 주관적 요소를 체계적으로 결합하여 감상자 선호도 기반의 자동 인물사진 평가 장치 및 방법을 제공하는 것을 과제로 한다.Accordingly, the present invention has been proposed in order to solve the problems of the related art as described above, and an object of the present invention is an apparatus and method for automatic portrait photo evaluation based on viewer preference by systematically combining objective and subjective elements when evaluating a portrait. The task is to provide
상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치는 인물사진에서 얼굴을 인식하는 얼굴인식부; 상기 얼굴인식부가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하는 구도평가부; 상기 얼굴인식부가 인식한 얼굴에서 표정을 인식하고, 상기 표정과 상기 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 감정색상평가부; 상기 구도평가부 및 상기 감정색상평가부의 평가 결과를 이용하여 종합 평가를 연산하는 연산부; 및 상기 연산부에서 연산된 종합 평가를 출력하는 표시부를 포함하는 것을 특징으로 한다.In order to achieve the above object, an apparatus for evaluating the emotional preference of a portrait photo using an expert perspective according to the technical idea of the present invention includes: a face recognition unit for recognizing a face in a portrait photo; A composition evaluation unit that evaluates whether the composition of the face recognized by the face recognition unit corresponds to a preference composition; An emotional color evaluation unit for recognizing an expression on the face recognized by the face recognition unit and evaluating a degree of matching between the expression and a color tone of the portrait photograph; An operation unit that calculates a comprehensive evaluation using the evaluation results of the composition evaluation unit and the emotional color evaluation unit; And a display unit for outputting the comprehensive evaluation calculated by the operation unit.
상기 구도평가부는, CLM-Framework 알고리즘을 이용하여 상기 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 상기 얼굴의 회전, 좌우 기울임 및 전후 기울임의 값을 산출하는 것을 특징으로 할 수 있다.The composition evaluation unit may set a plurality of feature points on the face using a CLM-Framework algorithm, and calculate values of rotation, left and right tilt, and front and rear tilt of the face using the feature points.
또한, 상기 감정색상평가부는, 상기 표정을 긍정, 중립, 부정으로 분류하는 것을 특징으로 할 수 있다.In addition, the emotional color evaluation unit may be characterized in that the expression is classified into positive, neutral, and negative.
또한, 상기 감정색상평가부는, 상기 표정이 긍정이고, 상기 컬러 톤이 웜-톤(Warm tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 할 수 있다.In addition, when the expression is positive and the color tone is a warm tone, the emotional color evaluation unit may determine that the expression and the color tone of the portrait photo match.
또한, 상기 감정색상평가부는, 상기 표정이 부정이고, 상기 컬러 톤이 쿨-톤(Cool tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 할 수 있다.In addition, when the expression is negative and the color tone is a cool tone, the emotional color evaluation unit may determine that the expression and the color tone of the portrait photo match.
또한, 상기 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트를 평가하는 콘트라스트평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 콘트라스트평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, a contrast evaluation unit for evaluating the contrast by analyzing the portrait photo by RSC (Retinal-like Subsampling Contrast) may be further included, and the operation unit may further use an evaluation result of the contrast evaluation unit during a comprehensive evaluation operation. .
또한, 상기 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가하는 동적영역평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 동적영역평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, it further comprises a dynamic region evaluation unit for evaluating the dynamic range (dynamic range) using the photoelectric conversion function of the portrait, the calculation unit further using the evaluation result of the dynamic region evaluation unit in the comprehensive evaluation calculation. I can.
또한, 상기 얼굴인식부가 인식한 얼굴의 노출 정도를 평가하는 노출평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 노출평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, an exposure evaluation unit for evaluating an exposure degree of the face recognized by the face recognition unit may be further included, and the operation unit may further use an evaluation result of the exposure evaluation unit during a comprehensive evaluation operation.
또한, 상기 노출평가부는, 상기 인물사진을 RGB 색 공간을 YCbCr 좌표계로 변경하여 Y값을 획득하고, 상기 Y값을 존 시스템의 원리를 이용하여 단계화 하는 것으로 노출 정도를 평가하는 것을 특징으로 할 수 있다.In addition, the exposure evaluation unit is characterized in that the exposure degree is evaluated by changing the portrait photo into a YCbCr coordinate system to obtain a Y value, and stepping the Y value using the principle of a zone system. I can.
또한, 상기 인물사진에서 상기 얼굴인식부가 인식한 얼굴의 크기 비중을 평가하는 비중평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 비중평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, a weight evaluation unit for evaluating the weight of the size of the face recognized by the face recognition unit in the portrait photograph may be further included, and the calculation unit may further use an evaluation result of the weight evaluation unit during a comprehensive evaluation operation.
또한, 상기 비중평가부는, 상기 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 상기 인물사진의 샷 종류에 대응하여 상기 크기 비중을 평가하는 것을 특징으로 할 수 있다.In addition, the weight evaluation unit, after classifying the portrait photo into one of a long shot, a full shot, a medium shot, and a close-up shot, Correspondingly, it may be characterized in that the size specific gravity is evaluated.
또한, 상기 얼굴인식부가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가하는 위치평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 위치평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, a position evaluation unit for evaluating whether the position of the face recognized by the face recognition unit corresponds to a position of the third division law, and the operation unit may further use an evaluation result of the position evaluation unit during a comprehensive evaluation operation. .
또한, 상기 얼굴인식부가 인식한 얼굴의 피사계심도를 인식하여 상기 얼굴의 선명함 정도를 평가하는 포커스평가부를 더 포함하고, 상기 연산부는 종합 평가 연산 시 상기 포커스평가부의 평가 결과를 더 이용하는 것을 특징으로 할 수 있다.In addition, it further comprises a focus evaluation unit for evaluating the sharpness of the face by recognizing the depth of field of the face recognized by the face recognition unit, wherein the calculation unit further uses the evaluation result of the focus evaluation unit when performing a comprehensive evaluation operation. I can.
한편, 상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법은 얼굴인식부가 인물사진에서 얼굴을 인식하는 단계; 평가부가 상기 얼굴인식부가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하고, 상기 얼굴의 표정과 상기 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 단계; 연산부가 상기 평가부의 평가 결과를 이용하여 종합 평가를 연산하는 단계; 및 표시부가 상기 연산부에서 연산된 종합 평가를 출력하는 단계를 포함하는 것을 특징으로 한다.On the other hand, in order to achieve the above object, a method for evaluating the emotional preference of a portrait photo using an expert perspective according to the technical idea of the present invention includes the steps of: recognizing a face in the portrait photo by a face recognition unit; Evaluating whether a composition of the face recognized by the face recognition unit corresponds to a preference composition, and evaluating a degree of matching between the facial expression and the color tone of the portrait photograph; Calculating a comprehensive evaluation using the evaluation result of the evaluation unit; And outputting, by the display unit, the comprehensive evaluation calculated by the calculation unit.
또한, 상기 평가부는, CLM-Framework 알고리즘을 이용하여 상기 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 상기 얼굴의 회전, 좌우 기울임 및 전후 기울임의 값을 산출하여 상기 얼굴의 구도를 수치화 하는 것을 특징으로 할 수 있다.In addition, the evaluation unit sets a plurality of feature points on the face using the CLM-Framework algorithm, and calculates values of rotation, left and right tilt, and front and rear tilt of the face using the feature points to quantify the composition of the face. It can be characterized.
또한, 상기 평가부는, 상기 표정을 긍정, 중립, 부정으로 분류하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that the expression is classified as positive, neutral, or negative.
또한, 상기 평가부는, 상기 표정이 긍정이고, 상기 컬러 톤이 웜-톤(Warm tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may determine that if the expression is positive and the color tone is a warm tone, it is determined that the expression and the color tone of the portrait photo match.
또한, 상기 평가부는, 상기 표정이 부정이고, 상기 컬러 톤이 쿨-톤(Cool tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 할 수 있다.In addition, when the expression is negative and the color tone is a cool tone, the evaluation unit may determine that the expression and the color tone of the portrait photo match.
또한, 상기 평가부는 상기 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트를 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that the contrast is evaluated by analyzing the portrait photo by RSC (Retinal-like Subsampling Contrast).
또한, 상기 평가부는 상기 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that the dynamic range is evaluated using a photoelectric conversion function for the portrait picture.
또한, 상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 노출 정도를 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that it evaluates the degree of exposure of the face recognized by the face recognition unit.
또한, 상기 평가부는 상기 인물사진을 RGB 색 공간을 YCbCr 좌표계로 변경하여 Y값을 획득하고, 상기 Y값을 존 시스템의 원리를 이용하여 단계화 하는 것으로 노출 정도를 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that the exposure degree is evaluated by changing the portrait photo to a YCbCr coordinate system to obtain a Y value, and stepping the Y value using a principle of a zone system. .
또한, 상기 평가부는 상기 인물사진에서 상기 얼굴인식부가 인식한 얼굴의 크기 비중을 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that the weight of the size of the face recognized by the face recognition unit in the portrait picture is evaluated.
또한, 상기 평가부는 상기 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 상기 인물사진의 샷 종류에 대응하여 상기 크기 비중을 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit classifies the portrait photo into one of a long shot, a full shot, a medium shot, and a close-up shot, and then corresponds to the type of shot of the portrait photo. It may be characterized by evaluating the size specific gravity.
또한, 상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized in that it evaluates whether the position of the face recognized by the face recognition unit corresponds to the position of the third division law.
또한, 상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 피사계심도를 인식하여 상기 얼굴의 선명함 정도를 평가하는 것을 특징으로 할 수 있다.In addition, the evaluation unit may be characterized by evaluating the degree of sharpness of the face by recognizing the depth of field of the face recognized by the face recognition unit.
본 발명에 의한 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치 및 방법에 따르면,According to the apparatus and method for evaluating the emotional preference of a portrait photograph using an expert perspective according to the present invention,
첫째, 본 발명을 이용하여 객관적인 요소와 주관적인 요소를 결합하여 이미지를 평가하고, 모든 요소를 중요도에 따라 적절한 점수 배합 방식으로 합산하므로, 사전연구들의 결과보다 더 정확한 감상자들의 선호도 결과를 나타낼 수 있게 된다.First, by using the present invention, an image is evaluated by combining an objective element and a subjective element, and all elements are summed in an appropriate score combination method according to their importance, so that more accurate viewers' preference results can be expressed than the results of prior studies. .
둘째, 사진 전문가들이 인물사진을 평가할 때 고려하는 요소들을 새롭게 추가하여 프로그램의 전문성과 완성도를 높일 수 있다.Second, the professionalism and completeness of the program can be enhanced by adding new elements that photography experts consider when evaluating portrait photography.
셋째, 본 발명은 전문 사진가들의 시각을 반영하여 실제로 그들이 사진작업을 할 때 거치는 프로세스를 기반으로 하므로 소비자들이 선호하는 이미지와 어떠한 점으로 인하여 감상자들이 선호하는 결과를 가져왔는지, 무엇을 보완하면 더욱 좋은 사진으로 거듭날 수 있을지 등을 수치로 제시하여 이 프로그램을 이용하는 사용자들에게 구체적으로 사진에 대한 피드백을 줄 수 있게 된다.Third, the present invention reflects the perspectives of professional photographers and is based on the process they go through when they actually work on photography. Therefore, it is better to supplement the images that consumers prefer and what results the viewers prefer. It is possible to give specific feedback on photos to users who use this program by presenting numerical values such as whether they can be reborn as photos.
도 1은 본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치의 구성도.
도 2는 다이내믹 레인지가 상이한 카메라로 동일한 장면을 촬영하여 발생된 톤의 범위를 나타낸 예시 도면.
도 3은 삼등분할법칙으로 등분된 인물사진을 나타낸 도면.
도 4는 카메라를 이용하여 피사체에 초점을 맞출 때, 빛이 센서 표면에 정확히 한 영역의 점으로 초점이 맞지 않아 심도영역이 형성되는 것을 나타낸 도면.
도 5는 초점 여부에 대한 대비 집단 모형의 분포도.
도 6은 CDF와 확률분포(Probability Distribution)를 이용하여 범위(Range)만을 나타낼 수 있는 함수에서 특정 값의 확률을 나타내는 것을 나타낸 도면.
도 7은 CLM-Framework 알고리즘이 인물사진의 얼굴에 복수의 특징점을 설정하고, 특징점을 이용하여 얼굴의 회전(Turn), 좌우 기울임(Tilt) 및 전후 기울임(Up/Down)의 값을 산출한 결과를 나타낸 도면.
도 8은 HSV 색상 모델을 나타낸 도면.
도 9는 AU(Action Unit)의 분류와, AU의 조합으로 표정을 구분하는 것을 나타내는 도면.
도 10은 컬러 톤의 분류를 나타낸 도면.
도 11은 피사체에 대한 아웃포커스 여부를 판단하기 위하여 사람이 차지하고 있는 영역과 나머지 영역과의 초점 수준 정도를 비교하여 아웃포커스 여부를 판단하는 것을 나타낸 예시 도면.
도 12는 본 발명의 실시예에 따른 표시부의 구성을 나타낸 도면.
도 13은 본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법을 나타낸 도면.
도 14는 플리커(Flickr)에서 다수의 추천을 받은 인물사진 10개의 종합 평가 결과를 나타낸 도면.
도 15는 플리커(Flickr)에서 저조한 추천을 받은 인물사진 10개의 종합 평가 결과를 나타낸 도면.
도 16 및 17은 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 얼굴 초점 및 초점의 수치를 나타낸 도면.
도 18 및 19는 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 RSC와 다이내믹 레인지(D/R) 결과를 나타낸 도면.
도 20 및 21은 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 얼굴 노출과 노출 수치를 나타낸 도면.
도 22 및 23은 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 삼등분할법칙 충족 여부, 얼굴 비중 및 비중 수치를 나타낸 도면.
도 24 및 25는 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 피사체 초점 수치 및 배경 초점 수치를 나타낸 도면.
도 26 및 27은 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 얼굴 구도 값, 최적 구도 해당 여부 파단 결과를 나타낸 도면.
도 28 및 29는 다수의 추천을 받은 인물사진 10개와 저조한 추천을 받은 인물사진 10개의 인물사진의 컬러 톤과 인물의 감정의 매칭 결과를 나타낸 도면.1 is a configuration diagram of an apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention.
2 is an exemplary diagram showing a range of tones generated by photographing the same scene with cameras having different dynamic ranges.
3 is a diagram showing a portrait photograph divided into equal parts by the rule of third division.
FIG. 4 is a diagram illustrating that when a subject is focused using a camera, light is not focused to exactly one point on the sensor surface, thereby forming a depth region.
5 is a distribution diagram of a group model compared to whether or not focus is present.
6 is a diagram showing the probability of a specific value in a function capable of representing only a range using CDF and a probability distribution.
7 is a result of the CLM-Framework algorithm setting a plurality of feature points on a face of a portrait, and calculating values of the face rotation (Turn), left and right tilt (Tilt), and front and rear tilt (Up/Down) using the feature points. Figure showing.
8 is a diagram showing an HSV color model.
9 is a diagram showing classification of an AU (Action Unit) and classification of an expression by a combination of AUs.
10 is a diagram showing classification of color tones.
FIG. 11 is an exemplary diagram illustrating determining whether to be out of focus by comparing a level of focus between an area occupied by a person and a rest area in order to determine whether a subject is out of focus.
12 is a diagram showing a configuration of a display unit according to an embodiment of the present invention.
13 is a view showing a method of evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention.
14 is a diagram showing the results of comprehensive evaluation of 10 portrait photos that received a number of recommendations from Flickr.
15 is a view showing the overall evaluation results of 10 portrait photos that received poor recommendation from Flickr.
16 and 17 are diagrams showing face focus and focus values of 10 portrait photos that received multiple recommendations and 10 portrait photos that received poorly recommended recommendations.
18 and 19 are diagrams showing RSC and dynamic range (D/R) results of 10 portrait photos that received multiple recommendations and 10 portrait photos that received poorly recommended recommendations.
20 and 21 are views showing face exposure and exposure values of 10 portrait photos that received a number of recommendations and 10 portrait photos that received poorly recommended recommendations.
22 and 23 are diagrams showing whether or not the rule of third division of 10 portrait photos that received a number of recommendations and 10 portrait photos that received poor recommendations, and face weight and weight values.
24 and 25 are diagrams showing subject focus values and background focus values of 10 portrait photos that received a number of recommendations and 10 portrait photos that received poorly recommended recommendations.
26 and 27 are diagrams showing face composition values of 10 portrait photos that received a number of recommendations, and 10 portrait photos that received poor recommendations, and a fracture result of whether or not the optimal composition corresponds.
28 and 29 are diagrams showing a result of matching color tones and emotions of 10 portrait photos that received a number of recommendations and 10 portrait photos that received poor recommendations.
첨부한 도면을 참조하여 본 발명의 실시예들에 의한 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치 및 방법에 대하여 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.With reference to the accompanying drawings, an apparatus and method for evaluating the emotional preference of a portrait photo using an expert perspective according to embodiments of the present invention will be described in detail. Since the present invention can apply various changes and have various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific form of disclosure, and it should be understood that all changes, equivalents, and substitutes included in the spirit and scope of the present invention are included. In describing each drawing, similar reference numerals have been used for similar elements.
또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치는 하나의 컴퓨터 장치에 설치 운영되거나, 복수의 컴퓨터 장치에 분산 설치되고 유선 또는 무선으로 각 컴퓨터 장치가 서로 연결되어 연동되는 것으로 실시될 수 있다.The apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention is installed and operated in one computer device, or distributedly installed in a plurality of computer devices, and each computer device is connected to each other by wire or wirelessly. It can be implemented as being interlocked.
도 1을 참조하면, 이 실시예는 인물사진에서 얼굴을 인식하는 얼굴인식부(110), 얼굴인식부(110)가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하는 구도평가부(135), 얼굴인식부(110)가 인식한 얼굴에서 표정을 인식하고, 표정과 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 감정색상평가부(136), 구도평가부(135) 및 감정색상평가부(136)의 평가 결과를 이용하여 종합 평가를 연산하는 연산부(160), 연산부(160)에서 연산된 종합 평가를 출력하는 표시부(180)를 포함한다.Referring to FIG. 1, in this embodiment, a
이 실시예는 인물사진 평가 시, 크게 객관적 요소와 주관적 요소를 체계적으로 결합하여 감상자 선호도 기반의 새로운 자동 인물사진 평가를 제공 한다.This embodiment provides a new automatic portrait photo evaluation based on viewer preference by systematically combining objective and subjective factors when evaluating a portrait.
객관적 요소로는 RSC(Retinal-Like Subsampling Contrast)와 다이내믹 레인지(Dynamic Range)가 포함된다. RSC는 감상자의 지각적 콘트라스트를 의미하며, 감상자의 이미지에 대한 전반적인 인상과 인간의 시각을 반영한 방법으로 콘트라스트를 측정할 수 있도록 한다. 다이내믹 레인지는 이미지의 톤의 범위라고 정의할 수 있으며, 다이내믹 레인지가 넓은 카메라는 가장 밝은 부분에서 가장 어두운 부분까지의 범위를 인간의 시각에 가깝게 표현해낼 수 있다. 이는 통계적인 방법인 CDF(Cumulative Distribution Function)를 이용하여 각 이미지로부터 도출된 객관적 화질 평가 항목을 평가할 수 있다. CDF는 확률밀도함수를 적분한 형태로, 확률분포 상에서 확률범위만을 나타낼 수 있는 함수에서 특정 값의 확률을 나타낼 수 있는 방법이다.Objective factors include RSC (Retinal-Like Subsampling Contrast) and dynamic range. RSC stands for the viewer's perceptual contrast, and allows the contrast to be measured in a way that reflects the viewer's overall impression of the image and the human perspective. The dynamic range can be defined as the range of the tones of an image, and a camera with a wide dynamic range can express the range from the brightest to the darkest parts close to human vision. It is possible to evaluate objective quality evaluation items derived from each image using a statistical method, Cumulative Distribution Function (CDF). The CDF is a form of integrating a probability density function, and is a method that can represent the probability of a specific value in a function that can only represent a probability range on a probability distribution.
주관적 요소는 얼굴의 노출, 비중, 위치, 구도, 아웃 포커스, 컬러 톤을 얼굴 인식과 이미지에 대한 전체적인 인상을 기반으로 분석한다. 얼굴의 노출은 감상자들의 감성 반응 데이터를 활용하고, 디지털 존 시스템(Digital Zone System)의 기본 원리와 휴대폰 카메라의 자동 노출 설정 기능을 적용하여 평가한다. 인물사진에서 얼굴의 위치와 비중, 구도 그리고 아웃포커스 또한 감상자들의 감성 반응 데이터를 활용한다. 컬러 톤은 HSV색상 모델 분석을 통하여, 색조에 따른 감성반응을 파악할 수 있도록 한다. 이는 감상자의 감정과 상관성이 높은 색조를 조합할 수 있으며 일반적인 이미지의 감성 선호도를 평가할 수 있다. [표 1]은 객관적 평가 항목과 주관적 평가 항목의 분류이다.The subjective element analyzes face exposure, weight, position, composition, out-of-focus, and color tone based on face recognition and the overall impression of the image. The exposure of the face is evaluated by utilizing the emotional response data of the viewers and applying the basic principles of the Digital Zone System and the automatic exposure setting function of the mobile phone camera. The position, weight, composition, and out of focus of the face in a portrait photo are also utilized by viewers' emotional response data. Color tone allows you to grasp the emotional response according to the color tone through the analysis of the HSV color model. This can combine a color tone that is highly correlated with the viewer's emotion, and can evaluate the emotional preference of a general image. [Table 1] shows the classification of objective evaluation items and subjective evaluation items.
이미지는 다양한 요소의 결합으로 감상자들에게 영향을 미친다. 그리고 각 요소들은 서로 유기적으로 작용하여 감상자들의 최종적인 선호도에 영향을 미친다.Image influences viewers by combining various elements. And each element works organically with each other and influences the final preference of the viewers.
객관적, 주관적 평가 항목에 분류된 평가 항목들은 이 실시예에서 설정된 연산 방법으로 수치 측정을 실시한다. 도출된 평가 항목 별 수치 값을 감상자들의 선호도에 기반하여 설계된 평가 항목 우선순위 산정법에 적용시켜 이미지의 총 점수를 산출할 수 있다.Evaluation items classified in the objective and subjective evaluation items are numerically measured by the calculation method set in this embodiment. The total score of the image can be calculated by applying the derived numerical values for each evaluation item to the evaluation item priority calculation method designed based on the preferences of viewers.
이미지의 품질은 카메라, 모니터, 프린터 등 이미지를 재현하는 장비의 성능을 의미하며, 제품이나 서비스 사용에 있어 소비자의 기대에 부응하는 마케팅, 기술 제조 및 안전에 관한 여러 특성을 전체적으로 포괄하는 구성을 의미한다. 이러한 포괄적 구성은 제품 간의 상이한 기술차이로 많은 문제점을 야기할 수 있고, 이미지 품질 저하의 요인으로 작용할 수 있다.Image quality refers to the performance of equipment that reproduces images such as cameras, monitors, and printers, and refers to a composition that encompasses various characteristics related to marketing, technology manufacturing, and safety that meet consumer expectations when using products or services. do. This comprehensive configuration may cause many problems due to different technology differences between products, and may act as a factor of image quality deterioration.
이미지 품질 저하는 이미지 생성 및 획득(Acquisition) 과정에서 발생될 수 있다. 디포커싱(Defocusing), 적정하지 않은 노출 수준 또는 모션 블러(Motion Blur)와 같은 문제들은 일반인에게도 잘 알려진 이미지 품질 저하의 원인이다. 또한, 빛의 회절(Diffraction), 왜곡(Distortion), 색수차(Chromatic aberration), 센서 노이즈(Noise) 등 광학적, 전자적 문제로 인하여 이미지 품질 저하가 발생할 수 있다. 이러한 원인들은 이미지 생성 및 획득 과정에서의 시간과 노력, 비용투자를 통하여 일정수준 이상의 품질로 향상시키는 것이 가능하다.Deterioration in image quality may occur during the image generation and acquisition (Acquisition) process. Problems such as defocusing, improper exposure level or motion blur are the causes of image quality deterioration that are well known to the public. In addition, image quality deterioration may occur due to optical and electronic problems such as light diffraction, distortion, chromatic aberration, and sensor noise. These causes can be improved to a certain level of quality through investment of time, effort, and cost in the process of image creation and acquisition.
또한, 이미지 품질 저하는 이미지 처리(Image Processing) 중 발생될 수 있다. 이미지 처리과정을 거치는 순간 원본데이터와 상이한 정보가 되며 품질 저하의 요인으로 이어지게 된다. 대표적인 예로 이미지 압축 저장이 있을 수 있으며, 밝기 및 콘트라스트 조절 과정에서는 디지털화 과정에서 복귀될 수 없는 정보 손실이 발생할 수 있다.In addition, image quality deterioration may occur during image processing. The moment it goes through the image processing process, the information becomes different from the original data, leading to a factor of quality degradation. As a representative example, image compression may be stored, and information loss that cannot be recovered during the digitization process may occur in the process of adjusting brightness and contrast.
또한, 이미지 품질 저하는 이미지 재생산(Reproduction) 중 발생될 수 있다. 감상자가 이미지를 감상할 때, 모니터의 디스플레이, 해상도의 제한점, 휘도 및 색상 손실 등이 이미지 품질 저하의 요인이 된다.Also, image quality deterioration may occur during image reproduction. When the viewer enjoys an image, the display of the monitor, the limitation of resolution, loss of brightness and color, etc. contribute to the deterioration of image quality.
크고 작은 원인들로 인하여 이미징 시스템에서 이미지 품질의 저하가 발생될 수 있다. 이러한 문제들은 당대 최고의 첨단 기술을 투입한다면 해결 가능하다. 하지만 모든 문제들을 고려하며 항상 값비싼 기술 및 부품으로 제품을 생산하는 것은 현실적으로 한계가 있다. 그러므로 개발자는 항상 이미지 품질과 이미지 재현 시스템의 구현 비용 간의 균형을 염두하고 시스템을 최적화하여 최소한의 비용으로 최대의 이미지 품질을 제공하는 것이 중요하다. 예를 들어, DVD의 품질은 아날로그 VHS의 품질보다 우수한 것이 일반적이다. DVD의 품질이 결점 없는 완벽한 제품이라고 하기에 어렵지만, 첨단 기술의 진보로 이미지의 왜곡과 화질 저하가 최소한으로 줄어들었기 때문이다. 그 결과, DVD의 화질이 향상되었지만, 일반 대중은 VHS보다 더 많은 비용을 지불하게 되었다.Small and large causes may cause image quality degradation in the imaging system. These problems can be solved by putting the most advanced technology of the time. However, it is practically limited to always produce products with expensive technology and parts taking into account all the issues. Therefore, it is important that developers always keep in mind the balance between image quality and the cost of implementing an image reproduction system and optimize the system to provide the maximum image quality at a minimum cost. For example, the quality of DVD is generally superior to that of analog VHS. It is difficult to say that the quality of DVD is a flawless and perfect product, but it is because the distortion and deterioration of the image have been reduced to a minimum due to the advancement of advanced technology. As a result, the picture quality of DVDs improved, but the general public paid more than VHS.
Keelan(2002)는 이미지의 품질은 단지 감상자들이 이미지를 어떠한 특정 인상으로 받아들이거나 판단하는 것이라고 정의하였다. 또한, Yendrikhovskij(2002)는 이미지 품질은 곧 감상자의 주관적 인상(Subjective Impression)이라고 정의하였는데, 그는 이미지를 구성하는 요소들이 얼마나 완벽한 조화를 이루는지에 따른 변화가 이미지 품질을 좌우할 수 있다고 주장하였다. Keelan (2002) defined that the quality of an image is merely that viewers accept or judge an image as a certain impression. In addition, Yendrikhovskij (2002) defined image quality as subjective impression of the viewer, and he argued that the change according to how perfectly the elements constituting the image are in harmony can influence the image quality.
ISO 20462(2004)는 이미지 화질에 영향을 미치는 속성을 인공적 결함 속성(Artifactual attribute)과 우선적 속성(preferential attribute)으로 구분하였다. 인공적 결함 속성은 이미지에서 보이는 객관적인 결점을 의미하며, 이미지의 전체적인 화질 저하를 야기한다. 우선적 속성은 특정 이미지에서의 분명한 화질 속성을 의미하며, 색상, 채도, 대비와 같이 감상자에게 우선적인 영향을 미칠 수 있는 속성을 말한다.ISO 20462 (2004) classifies the attributes that affect image quality into an artificial defect attribute and a preferential attribute. The artificial defect property means an objective defect seen in an image and causes the overall image quality to deteriorate. The preferential attribute refers to the attribute of clear image quality in a specific image, and refers to attributes that can have a preferential effect on the viewer, such as hue, saturation, and contrast.
이미지의 품질 속성은 인공적 결함 속성, 선호적 속성, 미적 속성, 개인적 속성으로 구분할 수 있다. [표 2]는 각 속성 내에서 이미지의 품질을 객관적으로 평가하기 위한 점수표이다.Image quality attributes can be classified into artificial defect attributes, preferred attributes, aesthetic attributes, and personal attributes. [Table 2] is a score table for objectively evaluating the quality of images within each attribute.
인공적 결함 속성에는 흐릿함, 입자성, 적목 현상, 디지털 결함이 있다. 선호적 속성에는 색상 균형, 대비, 색상 선명도, 기억색 재현이 있다. 미적 속성에는 조명의 광질, 구도가 있다. 개인적 속성에는 추억의 보존, 정보 전달이 있다.Artificial defect properties include blurriness, graininess, red eye, and digital defects. Preferred attributes include color balance, contrast, color clarity, and memory color reproduction. The aesthetic properties include the light quality and composition of the lighting. Personal attributes include preservation of memories and transmission of information.
이와 같이, 이미지 품질의 영향을 미치는 요소는 다양하며, 객관적 속성과 같이 영상처리의 관점에서 측정할 수 있는 요소와 그렇지 못한 요소들이 서로 상호작용을 통하여 최종적인 이미지 품질을 나타낸다.In this way, there are various factors that affect image quality, and factors that can be measured from the viewpoint of image processing, such as objective attributes, and those that do not interact with each other represent the final image quality.
Solso(2000)는 시각 정보 처리가 세 단계를 가지는 것으로 정의 하였다.Solso (2000) defined visual information processing as having three stages.
첫 번째는 특정 물체에 반사된 빛이 눈의 수정체를 통과, 굴절되어 망막에 초점이 맺어지는 단계이다. 이는 기초적인 지각과정으로, 여러 전기화학적인 작용과 반응을 통하여 신경 에너지로 변환된다.The first is a step in which light reflected from a specific object passes through the lens of the eye and is refracted to focus on the retina. This is a basic perception process, and it is converted into nerve energy through various electrochemical actions and reactions.
두 번째는 시각적 자극 중에서 점, 선, 면과 같은 세부적인 특징들을 분석한 후 신경망을 통하여 상기 특징들을 관장하는 부위의 두뇌로 전달되는 단계이다.The second step is to analyze detailed features such as points, lines, and planes among the visual stimuli, and then transmit them to the brain in the area responsible for the features through a neural network.
세 번째는 전달된 신호가 다른 부위의 두뇌로 전달되어 기존의 인간의 두뇌에 저장되어있는 지식과 함께 연합되어가는 단계이다. Solso는 이러한 시각 정보에 기존의 지식 정보, 새로운 시각 정보가 연합되어 반영되기 때문에, 사람이 인지하는 감성의 해석 방식에 대하여 중점적으로 이해할 필요가 있다고 주장한다.The third is the step in which the transmitted signal is transmitted to the brain in another area and is associated with the knowledge stored in the existing human brain. Solso argues that since existing knowledge information and new visual information are allied and reflected in such visual information, it is necessary to focus on understanding the interpretation method of human perception.
상기 시각 정보 처리의 세 단계의 중 첫 번째 및 두 번째 단계를 인지 심리학에서는 상향 처리라고 하며, 세 번째 단계를 하향 처리라고 한다(노연숙, 2010). 시각적 정보를 인지하는 단계 후, 개인의 최종적인 감성이 결정된다.Among the three stages of visual information processing, the first and second stages are referred to as upward processing in cognitive psychology, and the third stage is referred to as downward processing (Yeon-suk Ro, 2010). After the step of recognizing visual information, the individual's final emotion is determined.
감성(Sensitivity)은 이성(Rationality)과는 반대되는 개념으로, 어떠한 자극에 대한 인간의 감각적 내면의 반응을 의미한다. 그러므로 특정한 자극은 직관적이며 반사적인 사고 반응을 이끌어낼 수 있다. 또한, 감성은 항상 외부의 모든 자극으로부터 영향을 받을 수 있기 때문에 개인의 사고 변화와 이미지에 대한 생각 전반에 영향을 미치는 요소이다. 이와 같이, 감성의 의미는 사람의 외면과 내면의 반응이 융합되어 두드러지는 행동적 변화로 나타나지 않으며, 감성의 변화를 개인이 파악하여 규명하는 것이 어려웠기 때문에, 학문적인 접근 뿐 만이 아니라 사용자 중심의 제품 개발 측면에서도 감성의 영역은 쉽게 접근하지 못하였던 경향이 있다. 즉, 사진의 관점에서, 사진 프레임 내에 포함되는 감성유발 요소에 따라 사용자에게 긍정적이거나 부정적인 감성을 유발할 수 있다. 따라서, 항상 외부의 모든 자극에 영향을 받아 사고의 전환에 영향을 미칠 수 있는 인간의 전반적인 감성에 대하여 파악하고 있어야할 필요가 있다.Sensitivity is the opposite of rationality, and refers to a human's sensuous inner response to a certain stimulus. Therefore, certain stimuli can elicit intuitive and reflexive thought responses. In addition, since emotion can always be influenced by all external stimuli, it is a factor that affects changes in individual thinking and overall thinking about images. As such, the meaning of emotion does not appear as a remarkable behavioral change due to the fusion of a person's outer and inner reactions, and it was difficult for individuals to grasp and identify the change in emotion, so not only an academic approach but also a user-centered In terms of product development, the area of sensibility tends to be inaccessible. That is, from the viewpoint of a photo, a positive or negative emotion may be induced to a user according to an emotion inducing factor included in the photo frame. Therefore, it is necessary to be aware of the overall human sensibility that can affect the shift of thinking by being influenced by all external stimuli at all times.
지각 심리학에서는 감성 측정의 어려움과 애매모호함을 과학적으로 규명하고자 인간의 감각기관의 특성과 생리적 반응 자료를 바탕으로 생리적, 물리학적, 인지 심리적 접근으로 구분하여 연구를 진행하였다(Myers, 2002). 이러한 연구들은 인간의 시각적 특성을 이해하고 분류 체계화하는데 이용될 수 있고, 이미지 품질 개선, 평가 및 개발을 통하여 이미징 제품의 사용률과 만족도를 높이기 위한 사전 연구결과로 사용되었다. 하지만 정확한 감성 측정을 위한 필요 시간, 비용과 기준 측정의 어려움 등 현실적인 문제들로 인하여 현실에 적용하기가 어려운 실정이다.In perceptual psychology, research was conducted by dividing into physiological, physical, and cognitive psychological approaches based on the characteristics of human sensory organs and physiological response data to scientifically identify the difficulty and ambiguity of emotion measurement (Myers, 2002). These studies can be used to understand and classify human visual characteristics, and have been used as preliminary research results to increase the use rate and satisfaction of imaging products through image quality improvement, evaluation, and development. However, it is difficult to apply it to reality due to realistic problems such as the time required for accurate emotional measurement, cost and difficulty in measuring standards.
지상현(2002)은 의미 분별 척도법을 활용하여 '밝은, 어두운', '단순한, 복잡한'과 같은 단어를 이용하여 감상자에게서 이끌어낼 수 있는 감성반응에 대한 연구를 진행하였다. 또한 신수진(2004)은 특정 사진이 가지는 사진 기법의 시각적인 효과와 감성을 정량적으로 분석하였다. 그는 총 180장의 사진을 약 200명의 피 실험자가 형용사 어휘로 평가하도록 하였다. 이 실험으로 그는 피사체의 위치, 비중, 색상, 채도 등 변화의 조합에 따라 강렬함, 고요함 등 다양한 감성을 유발할 수 있다고 주장하였다.Sang-Hyeon Ji (2002) conducted a study on the emotional response that can be elicited from the viewer by using words such as'bright, dark' and'simple, complex' using the semantic discrimination scale. In addition, Shin Soo-jin (2004) quantitatively analyzed the visual effects and sensibility of photographic techniques of specific photos. He asked about 200 test subjects to evaluate a total of 180 pictures as adjective vocabulary. With this experiment, he argued that depending on the combination of changes such as the location, weight, hue, and saturation of the subject, it can induce various sensibilities such as intensity and quietness.
정우현(2006)은 사진의 밝기, 대비, 색조의 변화가 감상자의 감성반응에 어떠한 영향을 미치는지 연구하였다. 그는 사진의 밝기가 어두워질수록 부정적인 반응을 이끌어낸다고 하였고, 반대인 경우에는 감상자들의 긍정적인 반응을 이끌어낸다고 하였다. 위 연구들은 형용사 어휘와 사진과의 관계를 정량적으로 분석하고, 사진의 구성 요소들의 변화와 조합이 감상자의 감성 반응에 영향을 미친다는 것을 증명하였다는 면에서 의미가 있다.Woo-Hyun Jung (2006) studied how changes in brightness, contrast, and hue of photographs affect the viewer's emotional response. He said that the darker the picture's brightness, the more negative reactions it elicits, and in the opposite case, it elicits a positive reaction from the viewers. The above studies are meaningful in that they quantitatively analyze the relationship between adjective vocabulary and photography, and prove that changes and combinations of elements of photography influence the emotional response of the viewer.
선행 연구 결과를 고려할 때, 사진기법, 사진의 구성 요소 등 사진을 이루고 있는 많은 요소가 감상자에게 어떠한 감성 반응을 이끌어내는지 알 수 있다. 또한, 여러 요소를 조합할 때 체계적인 감성 반응 체계를 구성할 수 있다는 사실도 알 수 있다. 특정 요소에 대한 사용자의 감성 반응 데이터를 활용하면 일반 사용자가 만족할 수 있는 제품 개발이 가능할 수 있음을 판단할 수 있다.Considering the results of previous studies, it is possible to see what kind of emotional reaction the many elements that make up the photo, such as photography techniques and the components of the photo, elicit the viewer's emotional response. In addition, it can be seen that a systematic emotional response system can be formed when several factors are combined. If the user's emotional response data for a specific element is used, it can be determined that it is possible to develop a product that satisfies general users.
얼굴인식부(110)가 실시하는 얼굴 인식 기술은 사람이 개별적으로 가진 특징 정보를 추출하여 구분하고, 확인하는 기술이다. 최근, 첨단 기기의 발전으로 보안성과 편리성을 주요한 요소로 기술적 발전이 이루어지고 있다. 또한 얼굴인식 기술은 이미지 재현 업계에서 각광을 받고 있는데, 현재 DSLR 카메라에서부터 휴대폰 카메라에 이르기까지 대부분의 이미징 시스템에서 얼굴인식을 지원하고 있다. 이로 인해서 새로운 기술들의 출현은 일반 대중들에게 이전보다 쉽게 카메라를 조작할 수 있고, 그 결과 빠르고 좋은 품질의 이미지를 얻을 수 있게 되었다.The face recognition technology implemented by the
얼굴 인식 과정은 크게 얼굴 영역의 검출, 얼굴 특징의 추출, 얼굴의 인식 혹은 확인으로 나누어 볼 수 있다(문현준, 2013). 먼저, 얼굴로 판단되는 영역의 영상을 획득한 후 그 영역 내에서 얼굴 영역만을 따로 분리하는 과정이 필요하다. 이 과정으로 얼굴 영역이 정확히 추출되어야 인식률 높은 얼굴 인식 시스템을 구축할 수 있다. 얼굴 검출 단계 후 조명과 각종 변형의 조건에서 정규화 과정을 거친 얼굴 영역의 영상은 인식 알고리즘을 통하여 최종적으로 누구의 얼굴인지 판별될 수 있다.The facial recognition process can be broadly divided into detection of a face region, extraction of facial features, and recognition or confirmation of faces (Moon, 2013). First, after acquiring an image of an area determined as a face, it is necessary to separate only the face area within the area. In this process, a face recognition system with a high recognition rate can be constructed only when the face area is accurately extracted. After the face detection step, the image of the face region that has undergone a normalization process under conditions of illumination and various modifications can be finally determined whose face is through a recognition algorithm.
최신 이미지 재현 제품의 얼굴 인식 기능을 사용하기 위해서는 먼저 명확한 얼굴 영역 추출 과정이 필요하다. 카메라로 예를 들면, 정확한 얼굴의 영역을 추출해야 얼굴의 노출과 초점, 아웃포커스 등 얼굴 인식을 통해서 제공되는 기술들을 원활하게 사용할 수 있기 때문이다. 최근 얼굴 인식 기술의 발전으로 매우 다양한 환경에서도 얼굴 영역 검출이 가능하지만, 아직 많은 보완이 필요하다. 그 이유는 얼굴 영역을 검출할 때 사람의 표정, 포즈, 방향의 변화 등과 같은 내적요인과 자연 및 인공조명의 변호와 같은 외적요인 등으로 인하여 추출 정확도가 낮아질 수 있기 때문이다(문현준, 2013).In order to use the face recognition function of the latest image reproduction products, a clear face region extraction process is first required. This is because technologies provided through facial recognition, such as exposure, focus, and out-of-focus, can be used smoothly only when an accurate face area is extracted with a camera. With the recent advancement of face recognition technology, it is possible to detect a face area even in a wide variety of environments, but many supplements are still required. The reason for this is that the extraction accuracy may be lowered due to internal factors such as changes in facial expressions, poses, and directions of humans and external factors such as defense of natural and artificial lighting when detecting facial areas (Moon, 2013).
얼굴 템플릿(Template) 정합 방법은 얼굴의 표준 템플릿과 입력되는 얼굴 영상과 비교하여 얼굴 영역을 찾는 방법이다. 이 방법은 두 가지로 구분되는데, 첫 번째는 기계학습에 많은 양의 얼굴 샘플 모델 영상을 학습시키고, 입력되는 얼굴 영상이 학습된 모델과 얼마나 일치하는 지 확인한다. 두 번째 방법은 첫 번째 방법과 반대되는 방법으로, 기계학습에 얼굴이 없는 많은 양의 영상을 학습시킨다. 그 후, 입력되는 영상과 비교하여 얼굴 영역을 확인한다.The face template matching method is a method of finding a face area by comparing a standard template of a face with an input face image. This method is divided into two types. The first is to train a large amount of face sample model images in machine learning, and check how much the input face image matches the trained model. The second method is the opposite of the first method, and learns a large amount of images without faces in machine learning. After that, the face area is checked by comparing it with the input image.
일반적으로 사람의 얼굴색은 다른 물체 혹은 배경과 구분될 수 있는 특징 색을 가지고 있다. 따라서 얼굴인식부(110)는 빠른 추출 및 인식을 위해 사람의 전형적인 얼굴색을 설정하여 실시간으로 얼굴 영역을 추출할 수 있다.In general, a person's face color has a characteristic color that can be distinguished from other objects or backgrounds. Accordingly, the
얼굴인식부(110)는 얼굴 영역의 특징을 추출한다. 얼굴 영역의 특징 추출은 눈, 눈썹, 코, 입 등과 같이 얼굴 특징 요소를 우선적으로 추출한다. 그 후, 얼굴 특징 요소들 간의 벡터 값을 계산하여 얼굴 영역을 검출한다. 얼굴 영역의 검출결과를 토대로 개인의 얼굴 특징 요소들을 찾게 된다. 이 요소들은 얼굴 영역의 검출 후 인식단계에 활용될 수 있는 단서로 활용된다.The
얼굴인식부(110)는 PCA(Principal Component Analysis)을 이용한다. PCA는 고차원의 신호를 낮은 차원의 신호로 낮춰주는 통계적인 방법이다. 이 방법은 얼굴 인식 기술 개발의 초기에 사용되던 방법이며 상관계수로 정의된 산란 행렬로 구성하여 학습한다. 이 방법은 얼굴 고유 공간(Eigen Space)을 얻으며, 이 공간에 해당하는 벡터를 고유 얼굴(EigenFace)이라 한다(Yang, 2016). 이 고유 얼굴은 학습 영상들의 공분산 행렬에 대해서 선형 대수학에서의 고유 값, 고유벡터 문제를 풀어서 계산된다(문현준, 2013). 그러므로 PCA 방법을 EigenFace라고 부르기도 한다.The
얼굴인식부(110)는 LDA(Linear Discriminant Analysis)를 이용한다. LDA는 신원의 변화와 다른 원인에 의한 변화를 구분할 수 있는 방법으로, 등록된 얼굴에 대하여 여러 조명의 인식과정을 시도하고, 조명의 변화에 대한 인식 특성을 높여 동일인 확인을 가능하게 한다. 이 방법은 서로 다른 신원 집단에 속하는 얼굴 영상 간의 분산이 최소가 되게 하는 변환을 통하여 구할 수 있다(Hagen, 2018). 그러므로, 한 사람의 다양한 영상을 필요로 한다. 예를 들어, 다양한 조명 아래서 얼굴 영상과 다양한 표정으로 말할 수 있다. PCA와 LDA 방법의 알고리즘은 계산 속도가 신속한 장점이 있다.The
얼굴인식부(110)는 얼굴의 특징 추출 단계 완료 후 추출된 특징 벡터들을 분류기를 이용하여 얼굴 인식을 확인한다. NNC(Nearest Neighbor Classifiers), SVM(Support Vector Machines)을 활용할 수 있고, 얼굴 영상의 획득, 전처리 및 특징 추출 등 각각의 모듈에 최적화된 최근접 분류기 사용을 통해 전체 시스템 성능의 최적화를 얻을 수 있다(강현우, 2017).After completing the facial feature extraction step, the
또한, 얼굴인식부(110)는 더 정확한 얼굴의 노출, 위치, 비중, 구도와 아웃포커스 해당 유무를 판단하기 위하여 활용 범위가 넓은 OpenFace 라이브러리와 CLM-Framework Algorithm을 이용한다. 이 얼굴 검출 알고리즘과 라이브러리는 딥러닝 기반의 얼굴 인식 알고리즘이며 총 68개의 특징 점을 추출할 수 있다. 이를 통하여 Head Pose(Orientation and Motion), Facial Expressions, 그리고 Eye gaze를 추적 및 분석 가능하다. 이러한 양상들은 개별적으로 혹은 함께 인간의 행동 분석에 중요한 역할을 할 수 있다. OpenFace의 라이브러리에는 인종, 나이, 성별 뿐 아니라 조명, 표정 자세 별로 다른 다양한 얼굴들이 포함되어 있는 FaceScrub과 CASIA-WebFace의 모델이 학습된다.In addition, the
이 실시예는 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트를 평가하는 콘트라스트평가부(123)를 더 포함한다. 또한 연산부(160)는 종합 평가 연산 시 콘트라스트평가부(123)의 평가 결과를 더 이용한다.This embodiment further includes a
콘트라스트는 한 물체와 배경을 구별할 수 있게 만들어주는 시각적인 특성 차이다. 실제 인간의 시각에서 콘트라스트는 물체간의 색과 밝기의 차이로 결정된다(Michelson, 1927). 이처럼 감상자로서 이미지에 대한 전반적인 인상과 인간의 시각을 반영한 방법으로 콘트라스트를 측정하기 위하여 Rizzi(2008)는 감상자의 지각적 콘트라스트인 RSC(Retinal-Like Subsampling Contrast)를 개발하였다. RSC에 관하여 일반인과 전문가를 대상으로 콘트라스트 화질 평가를 수행한 결과, RSC와 콘트라스트가 0.84의 높은 상관계수를 나타내었다. 이 수치에 따라, RSC는 매우 정확한 이미지 콘트라스트 측정 방법으로 판단할 수 있다. RSC는 인간의 시지각 과정을 기반으로 하고, 이미지의 국부적 정보와 전체적인 인상을 고려한다. RSC 측정 알고리즘은 CIE LAB 색공간의 색도 좌표 값인 a, b를 반영하여 이미지의 밝기와 컬러 특성을 고려한다(수학식 1 참조). Contrast is the difference in visual characteristics that makes it possible to distinguish an object from a background. In real human vision, contrast is determined by the difference in color and brightness between objects (Michelson, 1927). In this way, Rizzi (2008) developed RSC (Retinal-Like Subsampling Contrast), which is the viewer's perceptual contrast, in order to measure the contrast in a way that reflects the overall impression of the image and the human perspective. As a result of performing contrast image quality evaluation on RSC for the general public and experts, RSC and contrast showed a high correlation coefficient of 0.84. According to this number, RSC can be judged as a very accurate method of measuring image contrast. RSC is based on the human visual perception process and takes into account the local information and the overall impression of the image. The RSC measurement algorithm considers the brightness and color characteristics of the image by reflecting the chromaticity coordinate values a and b of the CIE LAB color space (see Equation 1).
[수학식 1][Equation 1]
는 RGB의 각 채널, 는 Difference Of Gaussian, 은 레벨 값, 과 은 가로와 세로의 레벨 값, 는 주변의 너비, x,y는 픽셀의 좌표, L*a*b는 CIEL*a*b의 색공간 좌표의 값, 는 각 채널에 가중되는 상수이다(박형주, 2016). Is each channel of RGB, Is the Difference Of Gaussian, Is the level value, and Is the horizontal and vertical level values, Is the surrounding width, x,y are the coordinates of the pixels, L*a*b is the value of the color space coordinates of CIEL*a*b, Is a constant weighted to each channel (Hyungju Park, 2016).
또한, 이 실시예는 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가하는 동적영역평가부(124)를 더 포함한다. 연산부(160)는 종합 평가 연산 시 동적영역평가부(124)의 평가 결과를 더 이용한다.In addition, this embodiment further includes a dynamic
다이내믹 레인지는 한 이미지의 톤 범위로 정의할 수 있다(한승연, 2016). 즉, 이미지에서 톤의 범위는 가장 밝은 부분에서 가장 어두운 부분까지의 범위를 얼마나 넓게 표현할 수 있는가의 명암 폭을 의미한다. 다이내믹 레인지가 넓은 센서를 가지는 디지털 카메라는 아주 밝은 곳에서 아주 어두운 곳까지 시각적으로 자연스럽게 표현이 가능하다. 또한 디지털 사진에서는 이미지의 계조를 식별할 수 있는 최소 휘도와 최대 휘도의 비중으로 정의할 수 있으며, 아날로그 사진에서 노출관용도(Exposure Latitude)와 같은 의미로서 EV(Exposure Value)값으로 나타낼 수 있다(오세철, 2011). 이러한 내용은 ISO 14524에서 광전변환함수를 이용하여 규격화 되었다. 수학식 2는 다이내믹 레인지를 측정하는 공식이며, 도 2는 다이내믹 레인지가 상이한 카메라로 동일한 장면을 촬영하여 나타나는 톤의 범위를 나타낸 예시이다.Dynamic range can be defined as the tonal range of an image (Seungyeon Han, 2016). In other words, the range of tones in an image refers to the width and darkness of how wide the range from the brightest part to the darkest part can be expressed. A digital camera with a sensor with a wide dynamic range can visually express naturally from very bright to very dark places. In addition, in digital photos, it can be defined as the weight of the minimum and maximum luminance that can identify the gradation of an image, and can be expressed as an EV (Exposure Value) value, which has the same meaning as exposure latitude in an analog photo. Oh Se-cheol, 2011). These contents were standardized in ISO 14524 using photoelectric conversion functions.
[수학식 2][Equation 2]
또한, 이 실시예는 얼굴인식부(110)가 인식한 얼굴의 노출 정도를 평가하는 노출평가부(132)를 더 포함한다. 연산부(160)는 종합 평가 연산 시 노출평가부(132)의 평가 결과를 더 이용한다.In addition, this embodiment further includes an
사진(Photography)은 빛(Photo)과 그리다(Graph)의 합성어로 '빛으로 그린다'는 의미이다. 사진에서 빛은 매우 중요한 요소이며, 빛의 조절을 이용하여 사진의 노출 수준을 결정할 수 있다. 카메라를 이용한 노출 결정은 조리개와 셔터 스피드의 조작으로 빛의 물리적 양을 조절할 수 있다. 빛의 양이 적절하게 조절이 되어 촬영되었을 때를 적정노출, 빛의 양이 많을 때는 노출과다, 빛의 양이 적을 때는 노출부족으로 표현한다. 이러한 노출 수준에 따라 감상자들의 감성 선호도에 영향을 미친다는 것은 사전 연구 결과를 통하여 밝혀져 있다. 정우현(2006)은 노출 값이 낮은 이미지일수록 부정적 반응을 나타내고, 노출이 적정하거나 높은 수준의 노출을 가지는 이미지일수록 노출이 낮은 경우와 반대되는 반응을 나타낸다는 연구결과를 발표하였다. 최근 출시되는 카메라는 사용자가 노출조절에 대한 부담 없이 촬영할 수 있게 빛의 양을 적절하게 조절해주는 자동노출 설정 기능을 탑재하고 있다. 인물사진에서 얼굴의 적정 노출 수준은 감상자들에게 가장 중요한 시각적 속성이다. 또한 인물사진에서 가장 중요한 피사체는 모델의 얼굴이기 때문에 배경의 노출이 적정하더라도, 인물의 노출이 적정하지 않으면 감상자의 높은 평가를 기대하기 어렵다.Photography is a compound word of light and graph, meaning'drawn with light'. Light is a very important factor in photography, and you can determine the exposure level of a picture by controlling the light. Exposure determination using a camera can control the physical amount of light by manipulating the aperture and shutter speed. When the amount of light is properly adjusted and the shot is taken, it is expressed as appropriate exposure, when the amount of light is high, it is overexposed, and when the amount of light is small, it is expressed as underexposure. It has been revealed through preliminary research that this level of exposure affects the emotional preferences of viewers. Woo-Hyun Jung (2006) published a study that showed that an image with a lower exposure value exhibited a negative reaction, and an image with an appropriate exposure or a high level of exposure exhibited the opposite reaction to the lower exposure. Recently released cameras are equipped with an automatic exposure setting function that properly adjusts the amount of light so that users can shoot without the burden of exposure control. In portrait photography, the proper level of exposure of the face is the most important visual attribute for viewers. In addition, since the most important subject in a portrait photography is the model's face, even if the background exposure is adequate, it is difficult to expect a high evaluation of the viewer if the exposure of the person is not appropriate.
또한, 이 실시예는 인물사진에서 얼굴인식부(110)가 인식한 얼굴의 크기 비중을 평가하는 비중평가부(133)를 더 포함한다. 연산부(160)는 종합 평가 연산 시 비중평가부(133)의 평가 결과를 더 이용한다.In addition, this embodiment further includes a
인물사진에서 얼굴의 크기가 차지하는 비중은 감상자들의 선호도에 큰 영향을 미친다. 그러므로 전문 사진가들은 얼굴의 비중을 항상 고려하여 촬영을 진행한다. 김종무(2012)는 이미지 프레임 내에서 얼굴의 크기에 따른 비중의 차이가 있는 5 종류의 실험 이미지를 제작하였다. 그리고 얼굴의 크기와 비중에 관련된 감성어휘를 설정하고, 이에 따른 감상자의 선호도 변화를 평가하였다. 또한 박형주(2016)는 인물사진의 비중을 10% 단위로 나누어 감상자의 선호도 변화를 측정하였다. 이러한 사전 연구들을 통하여 인물사진을 감상하는 일반인들이 선호하는 인물의 비중을 알 수 있었다.The proportion of face size in portrait photography greatly influences the preference of viewers. Therefore, professional photographers always take into account the weight of the face. Jong-Moo Kim (2012) produced five types of experimental images with differences in weight according to the size of the face within the image frame. In addition, the emotional vocabulary related to the size and weight of the face was set, and the change in the viewer's preference was evaluated accordingly. In addition, Hyungjoo Park (2016) measured the change in the viewer's preference by dividing the proportion of portrait photos by 10%. Through these preliminary studies, it was possible to find out the proportion of people who prefer portraits by ordinary people.
비중평가부(133)는 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 인물사진의 샷 종류에 대응하여 상기 크기 비중을 평가한다.The
인물사진에서 샷은 이미지 프레임 내에서 피사체가 어느 정도의 크기로 나타나는지를 기준으로 나누어진다. 샷의 종류에 따라 얼굴의 비중이 상이하므로, 이를 이용하여 표현하고자 하는 바를 다양하게 나타낼 수 있다. 일반적으로 인물을 촬영하는 방법에는 롱샷, 풀샷, 미디엄샷, 클로즈업 등이 있다.In portrait photography, shots are divided based on how large the subject appears within the image frame. Since the weight of the face is different depending on the type of shot, the expression to be expressed can be expressed in various ways by using this. In general, there are long shots, full shots, medium shots, and close-ups for shooting people.
롱샷은 인물보다 배경에 중점을 두고 촬영하는 샷으로서, 이미지 프레임 내에 존재하는 인물과 배경과의 관련성을 이해하고 감상할 수 있게 한다. 특히 롱샷은 인물끼리의 관계 혹은 배경과 인물의 관계 등 다양한 정보를 제공한다.Long shots are shots that focus on the background rather than the person, and allow you to understand and appreciate the relationship between the person and the background in the image frame. In particular, the long shot provides a variety of information such as the relationship between people or the relationship between background and people.
풀샷은 인물의 전신을 촬영하는 샷으로서, 주로 인물 간의 관계 혹은 인물의 행동을 직접적으로 나타내고자 할 때 사용된다. 얼굴 비중이 롱샷과 유사한 샷이기 때문에 인물의 표정을 관찰하기 어렵고, 인물의 동작을 통하여 제작자가 표현하고자 하는 상황을 제시할 수 있다.A full shot is a shot that takes a person's whole body, and is mainly used when trying to directly express the relationship between people or their actions. Since the weight of the face is similar to the long shot, it is difficult to observe the facial expression of the person, and the situation that the producer wants to express can be presented through the movement of the person.
미디엄샷은 인물의 상반신을 촬영한 샷이다. 주로 주 피사체인 인물과 주변의 분위기를 표현할 때 사용된다. 미디엄샷은 인물의 동작이나 행위를 설명하는데 적합하다.The medium shot is a shot of a person's upper body. It is mainly used to express the main subject, the person and the surrounding atmosphere. The medium shot is suitable for describing a person's motion or behavior.
클로즈업 샷은 주로 인물의 얼굴을 강조하며, 얼굴의 디테일과 표정을 보다 잘 나타낼 수 있기 때문에 감상자들을 더 집중시킬 수 있다. 따라서 촬영자가 표현하고자 하는 감정을 명확하게 나타낼 수 있다. 클로즈업 샷은 감상자의 감정이입을 효과적으로 이끌어낼 수 있다.Close-up shots mainly emphasize a person's face, and because it can better reveal the details and expressions of the face, it can focus the viewers more. Therefore, the emotion that the photographer wants to express can be clearly expressed. Close-up shots can effectively elicit the listener's empathy.
또한, 이 실시예는 얼굴인식부(110)가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가하는 위치평가부(134)를 더 포함한다. 연산부(160)는 종합 평가 연산 시 위치평가부(134)의 평가 결과를 더 이용한다.In addition, this embodiment further includes a
인물사진은 얼굴의 위치에 따라 감성적인 선호도의 차이를 보이는 경향이 있다. 따라서 전문 사진가들은 인물사진을 촬영할 때, 이미지 프레임 안에서 얼굴의 위치를 끊임없이 고민하고 시험한다. 얼굴의 위치는 사진가의 의도와 주제를 정확하게 전달하는 역할을 하며, 인물사진을 촬영할 때 사진을 구성하는 선과 형을 묶어 피사체의 크기와 원근감, 명암, 질감, 운동, 시간, 방향, 감정 등을 표현한다. 전문 사진가들은 감상자에게 가장 안정감을 줄 수 있는 삼등분할법칙(Rule of Third)을 주로 이용한다.Portrait photography tends to show a difference in emotional preference depending on the position of the face. Therefore, professional photographers constantly consider and test the position of the face in the image frame when taking a portrait. The position of the face plays a role in accurately conveying the photographer's intention and subject, and when taking a portrait, it binds the lines and shapes that make up the photo to express the size and perspective, contrast, texture, motion, time, direction, and emotion of the subject. do. Professional photographers mainly use the Rule of Third, which can give the viewer the most stability.
삼등분할법칙은 주어진 특정 길이를 가장 이상적으로 나누는 비율이다. 이 법칙은 본래 미술에서 기원된 기법으로, 사진, 영상, 디자인 등 다양한 분야에서 널리 이용되고 있다. 또한 모든 2D 평면과 3D 공간에 적용될 수 있다. 도 3과 같이 이미지 프레임 내에서 상하좌우를 가상의 선으로 삼등분할하고, 그 선들이 만나는 4개의 점에 피사체가 위치하였을 때, 삼등분할법칙이 충족되는 것으로 볼 수 있다. 그리고 피사체가 점 영역에 위치할 때, 사람은 시각적으로 안정적이고 편안한 구성으로 느낀다(김종무 2009).The rule of third division is the ratio that ideally divides a given length. This law originally originated in art, and is widely used in various fields such as photography, video, and design. It can also be applied to all 2D planes and 3D spaces. As shown in FIG. 3, when the top, bottom, left, and right are divided into virtual lines in an image frame, and the subject is positioned at four points where the lines meet, the rule of third division is satisfied. And when the subject is located in the dot area, people feel visually stable and comfortable composition (Kim Jong-moo 2009).
구도평가부(135)는 얼굴인식부(110)가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가한다.The
김설희(2016)는 인물사진을 감상할 때, 사람들이 선호하는 얼굴의 각도에 대한 연구를 실시하였다. 그는 약 30~45도 사이의 얼굴 기울임 각도가 가장 선호되는 것을 확인하였다. 고전 회화 또는 사진도 이러한 얼굴의 기울임 각도를 가진 작품들의 비율이 높다는 것을 알 수 있다. 예를 들어, 약 1세기부터 19세기 사이 한국 초상화를 모아 놓은 역사인물초상화대전은 30도 내외로 측면을 바라보고 있는 얼굴의 초상화가 정면을 바라보는 초상화보다 압도적으로 많다. 측면을 보는 그림은 240개이고, 정면을 보는 그림은 24개이다. 또한, 서양 초상화를 모아놓은 REMBRANDT-The painter at work에는 초상화 183개 중, 측면을 바라보고 있는 그림이 131개, 정면을 바라보는 그림이 33개이다. Kim Seol-hee (2016) conducted a study on the angle of face that people prefer when viewing portraits. He found that the angle of inclination of the face between about 30 and 45 degrees was the most preferred. It can be seen that classical paintings or photographs also have a high proportion of works with such a tilt angle of the face. For example, in the Historical Portrait Portrait Exhibition, a collection of Korean portraits from about the 1st century to the 19th century, there are overwhelmingly more portraits of faces facing the side at around 30 degrees than portraits facing the front. There are 240 pictures facing the side and 24 pictures facing the front. In addition, REMBRANDT-The painter at work, a collection of Western portraits, out of 183 portraits, has 131 paintings facing the side and 33 paintings facing the front.
인물사진을 감상하는 사람들이 느끼는 감성은 피사체가 같은 사람임에도 불구하고 얼굴의 각도, 구도 변화에 따라 달라진다. 최근 인터넷 기술의 보급과 발전으로 소셜미디어(Social Media)라는 새로운 디지털 문화와 함께 이용자 본인의 셀프-포트레이트(Self Portrait)가 유행하고 있다. 이로 인해 최근, 자신의 사진을 어떻게 잘 촬영할 수 있는지에 대한 방법이 이슈가 되기도 하였으며, 약 45도의 회전된 얼굴 사진이 가장 매력적이고 선호도가 높은 얼굴의 구도로 알려지게 되었다. 이처럼 얼굴의 촬영 구도는 감상자에게 인물사진의 선호도에 영향을 미칠 수 있는 평가 항목이라는 것을 알 수 있다.Even though the subject is the same person, the sensibility felt by people who appreciate portrait photography varies depending on the angle and composition of the face. Recently, with the spread and development of Internet technology, users' self-portraits are in vogue along with a new digital culture called social media. For this reason, recently, the method of how to take a picture of yourself has become an issue, and a face picture rotated by about 45 degrees has become known as the most attractive and preferred composition of the face. In this way, it can be seen that the composition of the face is an evaluation item that can affect the preference of a portrait to the viewer.
또한, 이 실시예는 얼굴인식부(110)가 인식한 얼굴의 피사계심도를 인식하여 얼굴의 선명함 정도를 평가하는 포커스평가부(137)를 더 포함한다. 연산부(160)는 종합 평가 연산 시 포커스평가부(137)의 평가 결과를 더 이용한다.In addition, this embodiment further includes a
사진 촬영 시 피사체에 초점을 맞출 때, 초점이 맞는 영역 및 면적을 조절할 수 있는데, 이것을 피사계심도(Depth of Field)라 한다. 일반적으로 얕은 심도, 깊은 심도로 표현하며 광학적 특성 변화에 따라 범위가 결정된다. 도 4는 카메라를 이용하여 피사체에 초점을 맞출 때, 빛이 센서 표면에 정확하게 한 영역의 점으로 초점이 맞지 않고 앞 또는 뒤의 영역에 초점이 맞게 되어 심도영역이 형성되는 것을 보여준다. 심도 영역 밖에 벗어난 피사체의 빛은 센서에서 원 형태로 맺히게 되며, 이를 착란원이라 부른다. 착란원 반경이 작을수록 상의 선명도는 높아지지만, 초점이 맞지 않는 영역은 흐릿하게 나타나게 된다. 이것이 인간의 눈으로 구분할 수 있을 정도로 커지면 허용착란원이라고 하며, 피사계심도를 결정하는 중요한 요소가 된다. 이러한 피사계심도 조절은 촬영자가 표현하고자하는 피사체만 도드라지게 나타낼 수 있으며, 인물사진 촬영에서 아웃포커스를 구현하여 감상자들의 선호도를 높일 수 있다. When focusing on a subject when taking a picture, you can adjust the area and area in focus, which is called the depth of field. In general, it is expressed as a shallow depth or a deep depth, and the range is determined according to changes in optical properties. FIG. 4 shows that when focusing on a subject using a camera, light is not accurately focused on a single area point on the sensor surface, but is focused on a front or rear area to form a depth area. Light from a subject outside the depth of field is condensed by the sensor in a circle shape, which is called a confusion circle. The smaller the radius of the confusion circle, the higher the image clarity, but the out-of-focus area appears blurry. When this is large enough to be distinguished by the human eye, it is called a permissible source of confusion and becomes an important factor in determining the depth of field. Such depth-of-field adjustment can show only the subject that the photographer wants to express, and can enhance the preference of viewers by realizing out-of-focus in portrait photography.
전문가들은 인물사진 촬영 시 인물과 배경을 분리시켜 사람에게 더욱 집중시킬 수 있는 아웃포커스 기법을 주로 이용한다. 아웃포커스를 이용하기 위해서는 피사계심도(Depth of Field)를 얕게 만들어 촬영을 해야 하는데, 주로 낮은 조리개 수치나 망원렌즈를 이용하여 촬영이 가능하다. 최근에는 첨단 기술의 발전으로 휴대폰 카메라에서도 구현이 가능해져 누구나 손쉽게 아웃 포커스 효과를 시도해볼 수 있게 되었다.Experts mainly use the out-of-focus technique to focus more on the person by separating the person from the background when taking a portrait photo. In order to use out-of-focus, the depth of field should be made shallow, but it is usually possible to shoot with a low aperture value or a telephoto lens. In recent years, with the development of advanced technology, it can be implemented in mobile phone cameras, so anyone can easily try out the focus effect.
인포커스는 피사체와 배경의 특수한 관계를 설명하거나 다른 피사체와의 관계를 표현할 때 사용되는 기법이다. 인포커스는 배경에 초점을 맞추어 주 피사체가 흐려지게끔 촬영되는 방식이며, 초점이 맞는 주체가 바뀌었다는 점에서 아웃포커스와 반대되는 개념이다.Infocus is a technique used to describe a special relationship between a subject and a background or to express a relationship with another subject. Infocus is a method in which the main subject is photographed so that the main subject is blurred by focusing on the background, and it is a concept opposite to defocus in that the subject in focus has changed.
피사계심도가 깊은 사진은 팬포커스에 해당하며, 아웃포커스와 인포커스를 활용한 사진에 비해 중심 피사체에 대한 주목성이 떨어진다. 하지만 모든 사물이 선명하게 드러나기 때문에 현실감이 상승된다. 팬포커스를 위하여 광각 렌즈와 같은 단초점 렌즈가 이용되며, 사실성과 정확함을 극대화시켜야하는 보도 사진 및 영상에서 주로 이용된다.A photo with a deep depth of field corresponds to the pan focus, and the focus on the central subject is less than that of a photo using out-of-focus and in-focus. However, since everything is clearly revealed, the sense of reality is raised. For pan focus, a single focus lens such as a wide-angle lens is used, and is mainly used in news reports and videos that must maximize realism and accuracy.
이 실시예의 감정색상평가부(136)는 얼굴인식부(110)가 인식한 얼굴에서 표정을 인식하고, 표정과 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가한다.The emotional
컬러 톤은 색을 구성하는 3가지 요소인 색상, 명도, 채도로 구성되어 있다. 감상자가 이미지를 판단할 때, 컬러 톤이 전체적인 감성 콘텐츠에 영향을 미친다는 것을 여러 사전 연구에서 찾아볼 수 있다(Kaya, 2004; 서수웅, 2013). 문은배(2011)는 색조 변화에 따른 감성 반응을 감성 형용사 어휘를 이용하여 실험하였고, 색상이 배제되었을 때 전반적인 감성 평가 수치가 감소하였다. 또한, 조형물의 색상이 감상하는 사람의 감성에 많은 영향을 미치는 것으로 나타났다. 이와 같이 컬러 톤은 이미지의 감성 콘텐츠를 좌우할 수 있는 영향력 있는 감상자 기반 이미지 평가 항목이기 때문에, 특정 색상이 어떤 감성 콘텐츠를 유발하는지 인지할 필요가 있다. 노연숙(2015)과 이연란(2015)은 설문조사로 색채의 속성에 따라 이미지가 어떠한 감성 콘텐츠를 유발하는지에 대해 데이터를 수집하였다. 색채의 속성에 따라 난색, 한색, 중성색으로 크게 3가지로 색채를 분류할 수 있다(김문주, 2006). 또한 노연숙(2010)은 이미지에 대한 주관적 화질 평가 모형을 수립하기 위하여 화질에 영향을 미치는 항목 요소들을 정립하였다. 그는 화질에 영향을 미치는 항목 요소를 이미지의 세부묘사 능력, 톤 재현 능력, 색 재현 능력으로 결정하고, 이 항목 요소들이 상호 영향을 주는 가정을 하였다. 그 후, 요인 분석과 구조 방정식 모델을 이용하여 주관적 화질 평가 모형을 구성하였다. 이 세 항목 요소들 간의 상관관계를 분석한 결과, 세부 묘사력과 톤 재현력 간의 상관계수는 0.468, 세부 묘사력과 색 재현력 간의 상관 계수는 0.572, 톤 재현력과 색 재현력간의 상관계수는 0.421로 나타나, 모두 상관관계가 있는 것으로 나타났다. 즉, 세부 묘사력과 톤 재현력, 색 재현력이 이미지 화질에 대한 주관적 화질 선호도에 영향을 끼치는 것을 알 수 있었다.Color tone is composed of three elements that make up color: hue, brightness, and saturation. When the viewer judges the image, it can be found in several preliminary studies that color tone affects the overall emotional content (Kaya, 2004; Suwoong Seo, 2013). Eun-Bae Moon (2011) experimented with emotional response according to color tone change using emotional adjective vocabulary, and the overall emotional evaluation value decreased when colors were excluded. In addition, it was found that the color of the sculpture has a great influence on the sensibility of the viewer. As described above, since color tone is an influential viewer-based image evaluation item that can influence the emotional content of an image, it is necessary to recognize which emotional content a specific color causes. Noh Yeon-sook (2015) and Lee Yeon-ran (2015) collected data on which emotional content the image induces according to the color properties through a survey. Colors can be classified into three broad categories: warm, cold, and neutral colors according to the color properties (Moon-Ju Kim, 2006). In addition, Roh Yeon-suk (2010) established item factors that affect image quality in order to establish a subjective quality evaluation model for images. He determined the item elements that influence the image quality as the image detailing ability, tone reproduction ability, and color reproduction ability, and made an assumption that these item elements influence each other. After that, a subjective image quality evaluation model was constructed using factor analysis and structural equation model. As a result of analyzing the correlation between these three factors, the correlation coefficient between detail and tone reproduction power was 0.468, the correlation coefficient between detail and color reproduction power was 0.572, and the correlation coefficient between tone reproduction power and color reproduction power was 0.421. It turned out to be related In other words, it was found that the power of detail description, tone reproduction, and color reproduction influence the subjective preference for image quality.
사람의 감정은 매우 다양하기 때문에 이를 정의하고 분류하는 것이 어렵다. Ekman(2002)은 보편적인 6가지 감성에 대한 얼굴 표정을 행복, 슬픔, 분노, 두려움, 놀람, 역겨움으로 정의하고, 이를 이용하여 표정에 관여하는 안면근을 분석하는 것으로 FACS(Facial Action Coding System)를 개발하였다. 또한, 얼굴의 구성 요소를 이마, 눈썹, 눈, 코, 입, 턱과 연결된 안면근과 형태로 나누어 AU(Action Unit)로 분류하고, 표정의 강도 등급을 5단계로 나누어 정의하였다(Ekman, 2005). 그러나 문화권에 따라 정서적 차이로 인해 동일한 감성이라도 표정에 사용되는 AU의 표현 강도에 차이가 있는 것으로 보인다(Matsumoto, Kasri, & Kooken, 1999). 이러한 차이를 보완하기 위해 Matsumoto와 함께 JACFEE(Japanese and Caucasian Facial Expression of Emotion)를 제작하게 되었고, 현재까지도 많은 분야에서 기본적인 연구 데이터로 사용되고 있다(Matsumoto, 1999).Human emotions are so diverse that it is difficult to define and categorize them. Ekman (2002) defines facial expressions for six common emotions as happiness, sadness, anger, fear, surprise, and disgust, and uses them to analyze the facial muscles involved in facial expressions, using the FACS (Facial Action Coding System). Developed. In addition, facial components were classified into AU (Action Unit) by dividing the facial components into the forehead, eyebrows, eyes, nose, mouth, and chin-connected facial muscles, and the intensity of facial expressions was divided into 5 levels (Ekman, 2005). . However, there seems to be a difference in the intensity of expression of AU used for facial expressions even with the same emotion due to emotional differences according to cultures (Matsumoto, Kasri, & Kooken, 1999). In order to compensate for this difference, the Japanese and Caucasian Facial Expression of Emotion (JACFEE) was created with Matsumoto, and it is still used as basic research data in many fields (Matsumoto, 1999).
노연숙(2012)은 촬영 거리, 인물의 표정 변화, 색상, 노출, 대비, 선명도, 셔터 스피드, 채도, 피사계 심도 등의 변화를 이용한 실험으로 감상자들의 감성 반응을 살펴보았다. 특히 사진의 전체적인 인식에 있어 기쁨, 우울과 같은 감수성이 가장 중요한 요인으로 작용한다는 사실은 사진의 감성적 특수성을 명확하게 보여주는 의미 있는 결과였다.Roh Yeon-suk (2012) examined the emotional reactions of viewers by experimenting with changes in shooting distance, changes in facial expressions, colors, exposure, contrast, sharpness, shutter speed, saturation, and depth of field. In particular, the fact that sensibilities such as joy and depression act as the most important factors in the overall perception of photographs was a meaningful result showing clearly the emotional specificity of photographs.
정우현(2006)은 전반적인 색조의 변화가 감성 반응에 영향을 주는지 확인하는 실험을 진행하였다. 또한, 후속 연구로 각 색조의 변화가 특정 감성에 영향을 미친다는 연구를 발표하였는데, 초록 색조와 파란 색조는 각각 차갑고 어두운 느낌을 주어 부정적인 감성에 영향을 미치는 것으로 나타났다.Woo-Hyun Jung (2006) conducted an experiment to check whether the change in overall color tone affects the emotional response. In addition, as a follow-up study, a study was published that the change of each hue affects a specific sensibility, and the green hue and the blue hue gave a cold and dark feeling, respectively, and were found to affect negative sensibility.
이 실시예는 얼굴인식부(110)가 인물사진에서 인식한 얼굴의 초점을 평가하는 초점평가부(122)를 더 포함한다.This embodiment further includes a
얼굴의 초점은 인물사진에서 가장 중요한 요소이기 때문에 전문 사진가들이 가장 중요하게 고려하여 촬영하는 항목이다. 다른 항목을 평가하기에 앞서, 얼굴에 대한 초점 여부가 반드시 확인되어야한다. 초점평가부(122)는 얼굴 인식 알고리즘으로 검출된 영역의 초점 수준을 산출하기 위해 초점 측정 연산자를 이용하였다. 초점 측정 연산자의 목적은 이미지 픽셀의 선명도 또는 초점 정도를 평가한다. 특정 영역의 이미지 픽셀의 초점 정도를 측정하기 위해 라플라시안 기반 연산자(Laplacian-based operators)를 이용하였다(수학식 3 참조). 라플라시안 기반 연산자는 초점이 맞은 이미지 영역은 초점이 맞지 않은 이미지 영역 보다 선명한 가장자리를 가진다는 점을 이용한다. 라플라시안 기반 연산자는 이미지의 콘트라스트, 채도, 노이즈와 인접 픽셀들을 종합적으로 평가한다.Since the focus of the face is the most important factor in portrait photography, it is the item that professional photographers consider the most important. Before evaluating other items, the focus on the face must be checked. The
[수학식 3][Equation 3]
이 실시예는 초점 여부를 확인하기 위한 기준 수치 값을 설정하기 위해 총 250세트의 인물사진을 분석하였다. 1세트는 총 두 장의 인물사진으로 이루어져있으며, 한 세트의 인물사진은 동일한 모델과 배경을 가지며, 얼굴에 초점이 맞은 사진과 맞지 않은 사진으로 구성하였다.In this example, a total of 250 sets of portrait photos were analyzed in order to set a reference numerical value for confirming whether or not focus is present. One set consists of a total of two portrait photos, and one set of portrait photos has the same model and background, and is composed of a photo with a focus on the face and a photo with an out of focus.
준거지향기준 설정 방법을 이용하여 얼굴 초점의 최소 기준 수치 값을 특정하였다. 준거지향기준 설정 방법은 주로 어떠한 검사를 통해 특정 기준에 따라 서로 다른 집단을 분류하여 의미를 두려는 때에 이용한다(정연성, 2006). 도 5는 초점 여부에 대한 대비 집단 모형의 분포도이다. 이와 같은 분포도를 이용하여 예상 기준점을 도출할 수 있다. 예상 기준점의 타당도를 검증하기 위하여 분류정확확률, 타당도 계수를 산출하여 검증한다.The minimum standard numerical value of the face focus was specified using the reference-oriented standard setting method. The reference-oriented standard setting method is mainly used when trying to give meaning by classifying different groups according to specific criteria through a certain test (Yeonseong Jeong, 2006). 5 is a distribution diagram of a comparison group model for whether or not focus is on. Using such a distribution map, an expected reference point can be derived. To verify the validity of the expected reference point, the classification accuracy and validity coefficients are calculated and verified.
P(TN) = TN/(M+N), P(FN) = FN/(M+N)P(TM) = TM/(M+N), P(FM) = FM/(M+N)
P(TN) = TN/(M+N), P(FN) = FN/(M+N)
분류정확확률 는 과 의 합으로 나타낼 수 있다. 타당도 계수는 수식을 통해 산출하여 나타낼 수 있다. 또한 BR(base rate)은 으로 나타낼 수 있으며, 모집단 중, 진완수자와 오미수자의 비율을 의미한다. SR(selection rate)은 으로 나타낼 수 있으며, 모집단 중 진완수자와 오완수자의 비율을 의미한다.Classification accuracy Is and It can be expressed as the sum of The validity factor is It can be calculated and expressed through an equation. Also, the base rate (BR) is It can be expressed as, and it means the ratio of true Wansui and Missiles among the population. SR (selection rate) is It can be expressed as, and it refers to the ratio of true and wrong complete players among the population.
[수학식 4][Equation 4]
한편, 콘트라스트평가부(123)가 이용하는 CDF는 확률밀도함수(Probabiltity Density Function)를 한번 적분한 것이다. 도 6을 참조하면, CDF를 이용하여 확률분포(Probability Distribution)를 통해 범위(Range)만을 나타낼 수 있는 함수에서 특정 값의 확률을 나타낼 수 있다. CDF의 수식에서 는 형상모수(Shape Parameter)이고, 는 척도모수(Scale Parameter)이며, 이 실시예는 평균과 표준편차로 정의하였다.On the other hand, the CDF used by the
[수학식 5][Equation 5]
이 실시예의 노출평가부(132)는 얼굴의 노출을 정확하게 평가하기 위하여 휴대폰 카메라에 적용되는 자동 노출 설정 알고리즘과 안셀 애덤스의 존 시스템의 특징을 이용하였다. 자동 노출 설정 알고리즘은 이미지의 휘도성분을 이용하여 노출을 판단하며, RGB 색 공간을 YCbCr 좌표계로 변경하여 휘도 값인 Y값을 획득한다. 또한 존 시스템의 원리를 이용하여 휘도 값 Y를 단계화하였고, 얼굴의 노출 점수를 산출하였다.The
[수학식 6] [Equation 6]
이 실시예의 비중평가부(133)는 얼굴 인식 알고리즘을 이용하여 얼굴 영역을 추출한 후, 전체 이미지의 픽셀과 얼굴 영역의 픽셀의 수를 비교한다. 비교 과정을 이용하여 이미지 내에서 얼굴이 차지하는 비중을 정확히 산출할 수 있게 적용하였다.After extracting the face region using a face recognition algorithm, the
박형주(2016)는 인물사진 1000장을 얼굴 비중에 따라 10% 단위로 나누어 감상자들의 선호도를 측정하였다. 그 결과, 얼굴 비중이 11~20%일 때, 가장 선호도가 높았고, 비중이 점차 높아짐에 따라 선호도가 급격히 낮아지는 경향성을 볼 수 있었다. 이와 같은 사전 연구의 결과와 사진 전문가들의 의견을 참고하여 이 실시예에 적용하였다. 11~30%, 31~50%, 51~70%, 71~90%로 점수 평가 범위를 나누었고, 극단적인 비중인 0~10%와 91~100%는 감성 선호도에 좋지 않은 영향을 주는 것으로 판단하여 최하점의 점수를 부여하도록 설정하였다.Hyungju Park (2016) measured the preferences of viewers by dividing 1000 portrait photos into 10% units according to the proportion of their faces. As a result, when the weight of the face was 11-20%, the preference was the highest, and as the weight gradually increased, the preference could be seen a tendency to decrease rapidly. The results of such preliminary research and opinions of photography experts were referred to and applied to this example. The score evaluation range was divided into 11~30%, 31~50%, 51~70%, and 71~90%, and extreme proportions of 0~10% and 91~100% were judged to have a negative effect on emotional preference. Therefore, it was set to give the lowest score.
이 실시예의 위치평가부(134)는 얼굴 인식 알고리즘을 이용하여 얼굴 영역을 추출한 후, 이미지 내에서 얼굴이 어디에 위치하는지 판단한다. 이 후, 얼굴 위치에 따른 감성 선호도를 반영하기 위하여 삼등분할법칙을 이용하였다. 이미지를 가로방향과 세로방향으로 삼등분하고, 가로방향과 세로방향으로 등분하는 선이 직교하는 네 점을 도출하였다. 선행연구(박형주, 2016)에 따르면 인물의 얼굴이 네 점에 위치할 때 가장 안정감을 느끼는 것을 확인하였으므로 전문적인 화면구성을 평가하는데 이용할 수 있다.The
얼굴의 구도는 사람이 인물사진을 감상할 때, 피사체의 매력에 큰 영향을 미치는 항목 중 하나이다. 도 7을 참조하면, 이 실시예의 구도평가부(135)는 CLM-Framework 알고리즘을 이용하여 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 얼굴의 회전(Turn), 좌우 기울임(Tilt) 및 전후 기울임(Up/Down)의 값을 산출한다. CLM-Framework 알고리즘은 CLNF(Constrained Local Neural Fields)라는 기계학습 기술을 이용하여 설계되었다. 먼저, 얼굴 검출을 위하여 SVM(Support Vector Machine)으로 얼굴에서 68개의 특징점을 감지한다. 추출된 특징점을 이용하여 턱선, 입술, 코, 눈썹 등의 인식이 가능하다. 특징점들의 조합으로 Turn, Up/Down, Tilt에 대한 3차원 공간의 수치 값을 산출한다. 또한 추출된 얼굴에 대한 적합성을 반영하기 위하여 각 특징점들의 조합을 바탕으로 신뢰도 값이 산출된다. 이로써 추출된 얼굴의 구도는 3차원 공간상의 수치 값을 얻을 수 있다.The composition of the face is one of the items that greatly affects the attractiveness of a subject when a person appreciates a portrait. Referring to FIG. 7, the
컬러 톤에 따른 감상자들의 감성 변화에 관한 연구들을 통하여 '따뜻하고 밝은', '차갑고 어두운'등의 감성과 관련성이 높은 컬러 톤에 대하여 알 수 있었다. 이를 이용하여, 이 실시예의 감정색상평가부(136)는 인물 사진의 얼굴에서 나타나는 감정과 컬러 톤에서 불러일으키는 감성 반응이 일치할 때, 가산점을 부여하였다.Through the studies on the change in the emotions of the viewers according to the color tone, it was possible to know the color tones that are highly related to the emotions such as'warm and bright' and'cold and dark'. Using this, the emotional
도 8을 참조하면, 이 실시예의 감정색상평가부(136)는 사진의 전체 컬러 톤을 판단하기 위하여 RGB정보를 색상, 명도, 채도로 이루어진 HSV 색상 모델로 변환하여 색채의 속성에 따라 컬러 톤을 자동 측정하고, 감성 콘텐츠에 따라 점수 산정을 할 수 있게 구현하였다(수학식 7 참조).Referring to FIG. 8, the emotional
[수학식 7][Equation 7]
사람의 표정은 감정에 따라서 빠르고 미묘한 변화를 나타낸다. 이 실시예의 감정색상평가부(136)는 감정을 분류하기 위하여 각 감정을 나타내는 표정의 특징 점들을 파악하고 분류한다. 도 9를 참조하면, 특징 점들은 AU(Action Unit)으로 명명하였으며 이들의 조합을 통하여 표정을 구분할 수 있다(Pertuz, Puig, &Garcia, 2013).Human facial expressions show quick and subtle changes according to emotions. In this embodiment, the emotion
이 실시예의 감정색상평가부(136)는 감정의 분류를 크게 긍정, 중립, 부정으로 나누어 분류하였다. 긍정은 AU6, AU12의 조합으로 나타내었다. 중립은 AU1, AU2, AU4, AU5, AU 25의 조합으로 나타내었다. 부정은 세 가지의 감정의 합으로 나타내었고, 슬픔, 공포, 분노로 구성되어져있다. 슬픔은 AU1, AU4, AU15의 조합으로 나타내었다. 공포는 AU1, AU2, AU4, AU6, AU7, AU20, AU26의 조합으로 나타내었다. 분노는 AU4, AU5, AU7, AU23의 조합으로 나타내었다.The emotional
이 실시예는 슬픔, 공포, 분노가 하나의 집단인 부정의 감정에 분류되어 각 변인 간에 어떠한 상관관계가 있는지 알아보고자 Pearson의 이변량 상관분석을 실시하였다. 이 분석을 진행하기 위하여 와일드한 환경 조건에서 감정을 추출한 이미지 데이터 셋인 AM-FED와 JAFFE DATABASE를 통하여 세 가지 감정의 분류를 진행하였다. 표 5를 참조하면, 감정의 하위요인별 상관관계를 분석한 결과, 모든 변수 간 상관관계가 매우 유의한 것으로 확인되었다.In this example, sadness, fear, and anger were classified into one group of negative emotions, and Pearson's bivariate correlation analysis was performed to find out what kind of correlation exists between the variables. To proceed with this analysis, three emotions were classified through AM-FED and JAFFE DATABASE, image data sets extracted from emotions under wild environmental conditions. Referring to Table 5, as a result of analyzing the correlation for each sub-factor of emotion, it was confirmed that the correlation between all variables was very significant.
감정색상평가부(136)는 얼굴의 표정이 긍정이고, 컬러 톤이 웜-톤(Warm tone)이면, 표정과 인물사진의 컬러 톤이 어울리는 것으로 판단하고 가산점을 부여하였다. 또한, 표정이 부정이고, 컬러 톤이 쿨-톤(Cool tone)이면, 표정과 인물사진의 컬러 톤이 어울리는 것으로 판단하고 가산점을 부여하였다. 도 10을 참조하면, 웜-톤(웜 컬러)은 난색에 해당되는 색채이고, 쿨-톤(쿨 컬러)은 한색에 해당되는 색채이다.If the facial expression is positive and the color tone is a warm tone, the emotional
또한, 감정색상평가부(136)는 인물사진의 세부묘사 능력, 톤 재현 능력, 색 재현 능력의 항목을 평가하고, 각 항목의 평가 결과가 기 설정된 기준보다 높은 경우 가중치를 부여하였다.In addition, the emotional
아웃포커스는 인물사진 전문가들이 인물과 배경을 분리시켜 사람에게 집중시키기 위하여 주로 사용하는 사진 기술이다. 이 기술을 사용하였을 때, 감상자들의 선호도가 높은 것을 알 수 있었다(이창섭, 2018). 도 11을 참조하면, 이 실시예의 포커스평가부(137)는 피사체에 대한 아웃포커스 여부를 판단하기 위하여 얼굴의 초점 여부를 판단할 때 이용하였던 초점 측정 연산자를 적용하였다. 이 연산자를 이용하면 사람이 차지하고 있는 영역과 나머지 영역과의 초점 수준 정도를 비교하여 아웃포커스 여부를 판단할 수 있다.Defocus is a photography technique mainly used by portrait photography professionals to separate the person from the background and focus on the person. When this technology was used, it was found that the preference of the listeners was high (Lee Chang-seop, 2018). Referring to FIG. 11, the
본 발명의 일 실시예에 따른 연산부(160)는 사전 연구 결과와 사진 전문가들이 사진을 촬영하는 기본적인 프로세스를 종합하여 평가 요소들을 우선순위로 설정하였다. 연산부(160)는 얼굴을 기준으로 측정한 요소들을 주로 높은 우선순위로 설정하였다. 그 이유는 인물사진에서 가장 중요한 요소인 얼굴에 따라 감상자들의 선호도가 분명하게 나뉠 수 있기 때문이다.The
노출평가부(132)가 평가한 얼굴의 노출 정도가 가장 높은 선호 순위로 선택되었다. 얼굴의 노출은 인물사진을 감상하는 감상자들에게 가장 중요한 시각적 속성 중에 하나이다. 얼굴을 제외한 나머지 영역에 적정한 노출을 가지고 있는 인물사진이라고 할지라도, 얼굴에 노출이 부족 혹은 과다라면 감상자들에게 좋은 선호도를 기대하기 어렵다.The degree of facial exposure evaluated by the
다음으로, 위치평가부(134)가 평가한 얼굴의 위치가 두 번째 순위로 선택되었다. 얼굴의 위치 또한, 감상자들에게 중요한 시각적 속성 중에 하나이다. 프레임을 가지고 있는 대부분의 예술 분야에서는 삼등분할법칙을 사용하여 작업을 하며, 이에 벗어난 위치에 주 피사체가 위치해 있다면 감상자들에게 좋은 선호도를 기대하기 어렵다.Next, the position of the face evaluated by the
다음으로, 콘트라스트평가부(123)가 RSC를 이용하여 평가한 콘트라스트가 세 번째 순위로 선택되었다. 콘트라스트평가부(123)는 이 실시예에서 인물사진 이미지 전체를 RSC로 측정하여 객관적 수치를 산출할 수 있도록 하였다. RSC는 실제 인간의 시각을 이용하여 물체간의 색과 밝기를 측정하며, RSC의 강하고 약함에 따라 선호도가 극명하게 갈릴 수 있기 때문에 얼굴만의 RSC를 측정하지 않지만 세 번째 순위로 설정하였다.Next, the contrast evaluated by the
다음으로, 비중평가부(133)가 평가하는 얼굴의 크기 비중을 네 번째 순위로 설정하였다. 선행 연구에서 인물과 배경이 전체적으로 표현될 수 있는 11~20%의 비중을 가지는 사진의 선호도가 가장 높고, 50%를 초과하면 선호도가 떨어지는 경향을 보인다는 점을 이용하였다.Next, the weight of the face size evaluated by the
다음으로, 동적영역평가부(124)가 평가하는 다이내믹 레인지를 다섯 번째 순위로 설정하였다. 동적영역평가부(124)는 이 실시예에서 이미지 전체를 다이내믹 레인지로 측정하여 객관적 수치를 산출할 수 있도록 하였다. 또한 사전연구들을 통해 다른 요소들에 비하여 표준편차 수치가 낮은 것으로 미루어보았을 때, 대부분의 인물사진이 특정 다이내믹 레인지 수치 영역대에 분포하고 있는 것을 알 수 있었다(박형주, 2013; 이창섭, 2018). 그리고 최근, 이미징 기술의 발전으로 휴대폰으로 촬영된 이미지도 다이내믹 레인지 표현 능력이 향상되어 매우 넓은 범위의 밝기 정보를 표현할 수 있음에 따라 다섯 가지의 요소들 중 가장 낮은 우선순위를 부여하였다.Next, the dynamic range evaluated by the dynamic
또한, 그 외 구도평가부(135), 감정색상평가부(136), 포커스평가부(137)의 평가 결과를 종합 평가 연산 시 반영하였다.In addition, the evaluation results of the
연산부(160)는 설정된 우선순위 요소들을 순위중심화법(Ranking Order Centroid Method)을 이용하여 평가 요소 별 가중치를 적용시켰다. 순위중심화법은 설정된 순위를 이용하여 합리적인 가중치를 계산하는 방법으로 n개의 속성에 대해 각 속성의 가중치 를 수학식 8과 같이 계산할 수 있다(송방원, 2017).The
[수학식 8][Equation 8]
이때, 는 번째 순위의 가중치, 은 속성의 개수이다.At this time, Is Weight of the first rank, Is the number of attributes.
이 실시예의 연산부(160)는 평가하는 요소들을 우선순위에 따라 표 6과 같이 가중치를 부여하였다. 그 외의 평가 항목은 가중치를 부여하지 않았다.The
레인지Dynamic
range
본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치는 인물사진 평가의 전 과정을 자동화하여 첨단 이미지 재현 제품 개발을 위한 새로운 인물사진 선호도 측정 프로그램의 모형을 제시하려는데 목표를 두었다. 이 실시예는 선호도에 영향을 미치는 주관적 평가 항목, 객관적 평가 항목을 감성 반응 데이터 결과와 사진 전문가들의 의견을 기반으로 개발되었다.The apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention is intended to present a model of a new portrait preference measurement program for the development of advanced image reproduction products by automating the entire process of the portrait evaluation. I set a goal. In this example, subjective evaluation items and objective evaluation items affecting preference were developed based on the results of emotional response data and opinions of photographic experts.
첫 번째 단계로, 얼굴인식부(110)가 인물사진에서 가장 중요한 얼굴에 초점이 맞았는지를 우선 판단한다. 얼굴의 초점 수준을 판단하기 위하여 얼굴 인식 알고리즘을 이용하였다. 검출된 얼굴 영역은 초점 측정 연산자를 통하여 초점이 맞았는지에 대한 여부를 확인한다.As a first step, the
객관적 요소는 콘트라스트평가분의 RSC, 동적영역평가부(124)의 다이내믹 레인지를 선정하였다. 두 가지의 객관적 요소를 통계적으로 평가하기 위하여 이미지 업로드 소셜 미디어인 Flickr(www.flickr.com)에서 추천 수 100회 이상의 인물사진 500장을 선정하였다. 그 후, 두 항목을 객관적인 수치로 나타내었고, CDF함수를 이용하여 평가하고자 하는 이미지를 점수화 할 수 있었다.As an objective factor, the RSC for the contrast evaluation and the dynamic range of the dynamic
주관적 요소는 얼굴의 노출, 위치, 비중, 구도, 표정과 컬러 톤의 어울림, 아웃포커스로 설정하였다.The subjective elements were set as face exposure, position, weight, composition, matching of expression and color tone, and out of focus.
노출평가부(132)의 얼굴의 노출 항목은 디지털 존 시스템의 원리와 휴대폰 카메라에 적용되어있는 자동 노출 설정 알고리즘을 이용하였다. 이를 이용하여 평가하고자 하는 인물사진을 노출 단계별로 측정하고 구체화할 수 있다.The exposure item of the face of the
위치평가부(134)의 얼굴의 위치 항목은 삼등분할법칙을 이용하였다. 이미지 프레임에서 상하좌우를 가상의 선으로 삼등분할 한 후에 생기는 네 접점 영역과 이미지의 가운데 영역을 포함하여 총 다섯 가지 영역으로 해당 평가 항목을 구성하였다.The position item of the face of the
비중평가부(133)의 얼굴의 비중 항목은 얼굴 인식 알고리즘을 통하여 얼굴 영역을 정확하게 나타낼 수 있었다. 그리고 평가하는 인물 사진의 전체 픽셀 수와 얼굴 영역의 픽셀 수의 비를 이용하여 해당 항목을 계산할 수 있다. 위 항목들은 인물사진을 촬영하는 방법에 따라 선호도의 차이가 존재한다. 이러한 인물사진 촬영 방법과 연구 결과를 종합하여 총 4단계로 점수 클래스를 나누었다.The weight item of the face of the
구도평가부(135)의 얼굴의 구도 항목은 CLM-Framework을 이용하여 얼굴의 Up/Down, Tilt, Turn의 수치를 추출하였다. 사전 연구 결과와 사진 전문가들의 의견을 종합하여, 가장 선호도가 높을 때의 얼굴의 구도 수치 범위를 설정하였다. 평가하고자 하는 인물사진이 본 연구에서 설정한 범위 조건에 충족될 때 가산점을 부여하였다.As for the composition item of the face of the
포커스평가부(137)의 아웃포커스 항목은 인물사진에서 사람의 영역에 대한 초점 수준과 사람 영역을 제외한 나머지 영역의 초점 수준을 비교하여 아웃포커스 해당 유무를 판단하도록 하였고, 아웃포커스가 해당할 때 가산점을 부여하였다.The out-of-focus item of the
감정색상평가부(136)의 컬러 톤과 감정에 대한 항목은 이미지를 감상할 때 사람이 느끼는 감성과 관련성이 높은 컬러 톤을 선별하여, 감성 반응이 일치할 때, 가산점을 부여하였다.As for the color tone and emotion items of the emotional
이처럼, 주관적 평가 항목, 객관적 평가 항목과 같이 실질적으로 사람이 인물사진을 평가할 때, 고려하는 사항들을 체계적으로 규합하여 프로그램을 설계하였다.As such, the program was designed by systematically gathering the items that people consider when evaluating portraits, such as subjective evaluation items and objective evaluation items.
도 12를 참조하면, 본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치는 촬영된 인물사진을 불러오고, 적용되어 있는 항목의 평가를 실행하며, 그 결과를 분석할 수 있는 데이터 저장 기능을 포함한다. 그렇기 때문에 이 실시예의 표시부(180)는 인물사진과 분석하고자 하는 평가 항목을 한 화면에 제시하여 사용자가 한 눈에 평가 결과를 살펴볼 수 있고, 직관적이며 단순한 GUI를 설계하였다. 원본의 인물 사진을 기반으로 평가 분석된 항목을 가시화하여 나타내었고, 이에 따른 항목 별 수치와 분석 결과를 구성하였다.Referring to FIG. 12, the apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention loads a photographed portrait photograph, performs evaluation of applied items, and calculates the result. It includes the ability to store data that can be analyzed. Therefore, the
이 실시예의 표시부(180)는 좌측 상단에 원본 인물사진(181), 원본 인물사진의 우측에 분석된 얼굴의 구도(182), 원본 인물사진 및 얼굴의 구도 하단에 분석된 얼굴의 위치(183), 분석된 얼굴의 포커스(184), 분석된 얼굴의 표정(185)의 결과를 표시하였다.In this embodiment, the
또한, 얼굴의 구도 우측에 인물사진의 컬러 톤과 관련되는 컬러 히스토그램 및 RGB 색상 공간(186), 분석된 RSC 값의 그래프(187)를 표시하였다.In addition, a color histogram related to the color tone of a portrait photograph, an
또한, 가장 우측에는 각 평가 항목 별 평가 결과를 나열하고(188), 하단에 종합 평가 값(189)을 표시하였다.In addition, the evaluation results for each evaluation item are listed on the right side (188), and the overall evaluation value (189) is displayed on the bottom.
이어서, 본 발명의 실시예에 따른 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법을 설명한다.Next, a method of evaluating the emotional preference of a portrait photograph using an expert perspective according to an embodiment of the present invention will be described.
도 13을 참조하면, 이 실시예는 얼굴인식부(110)가 인물사진에서 얼굴을 인식하는 단계(S120), 평가부가 얼굴인식부(110)가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하고, 얼굴의 표정과 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 단계(S140), 연산부(160)가 평가부의 평가 결과를 이용하여 종합 평가를 연산하는 단계(S160) 및 표시부(180)가 연산부(160)에서 연산된 종합 평가를 출력하는 단계(S180)를 포함한다.Referring to FIG. 13, in this embodiment, the
평가부는 얼굴의 구도 평가 시 CLM-Framework 알고리즘을 이용하여 상기 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 상기 얼굴의 회전, 좌우 기울임 및 전후 기울임의 값을 산출하여 상기 얼굴의 구도를 수치화한다.When evaluating the composition of the face, the evaluation unit sets a plurality of feature points on the face using the CLM-Framework algorithm, and calculates values of rotation, left and right tilt, and front and rear tilt of the face using the feature points to quantify the composition of the face. do.
또한, 평가부는 표정과 컬러 톤의 어울림 평가 시 표정을 긍정, 중립, 부정으로 분류한다.In addition, the evaluation unit classifies the expression as positive, neutral, and negative when evaluating the matching of the expression and color tone.
평가부는 표정이 긍정이고, 컬러 톤이 웜-톤(Warm tone)이면, 표정과 인물사진의 컬러 톤이 어울리는 것으로 판단하여 가중치를 부여한다. 또한, 표정이 부정이고, 컬러 톤이 쿨-톤(Cool tone)이면, 표정과 인물사진의 컬러 톤이 어울리는 것으로 판단하여 가중치를 부여한다.If the expression is positive and the color tone is warm tone, the evaluation unit determines that the expression and the color tone of the portrait photo match and assigns a weight. In addition, if the expression is negative and the color tone is a cool tone, it is determined that the color tone of the expression and the portrait photo match and weight is given.
평가부는 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트도 평가한다.The evaluation unit also evaluates the contrast by analyzing the portrait photo by RSC (Retinal-like Subsampling Contrast).
평가부는 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가한다.The evaluation unit evaluates the dynamic range of the portrait by using a photoelectric conversion function.
평가부는 얼굴인식부(110)가 인식한 얼굴의 노출 정도를 평가한다. 평가부는 인물사진을 RGB 색 공간을 YCbCr 좌표계로 변경하여 Y값을 획득하고, Y값을 존 시스템의 원리를 이용하여 단계화 하는 것으로 노출 정도를 평가한다.The evaluation unit evaluates the degree of exposure of the face recognized by the
평가부는 인물사진에서 얼굴인식부(110)가 인식한 얼굴의 크기 비중을 평가한다. 평가부는 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 인물사진의 샷 종류에 대응하여 크기 비중을 평가한다.The evaluation unit evaluates the proportion of the size of the face recognized by the
평가부는 얼굴인식부(110)가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가한다.The evaluation unit evaluates whether the position of the face recognized by the
평가부는 얼굴인식부(110)가 인식한 얼굴의 피사계심도를 인식하여 얼굴의 선명함 정도를 평가한다.The evaluation unit evaluates the degree of sharpness of the face by recognizing the depth of field of the face recognized by the
실험.Experiment.
실험으로서 이 실시예를 이용하여 일반인 감상자들이 선호하는 인물사진을 평가하였다.As an experiment, portrait photographs preferred by ordinary viewers were evaluated using this example.
이 실시예는 ISO에서 정의한 이미지의 객관적 평가 항목에 대한 내용을 준수하고, 이미지의 주관적 평가 항목에 대한 사전 연구 및 사진 전문가들의 의견을 통합하여, 총 9가지의 항목을 평가할 수 있도록 하였다.This example complies with the content of objective evaluation items of images defined by ISO, and integrates prior research on subjective evaluation items of images and opinions of photographic experts, so that a total of nine items can be evaluated.
실험에서는 선호도 높은 사진과 상대적으로 선호도가 낮은 사진 그룹을 설정하여 두 그룹간의 점수 측정차이가 나타나는지 확인하도록 하였다.In the experiment, a photo group with high preference and a photo group with relatively low preference were set to check whether there was a difference in score measurement between the two groups.
실험을 위하여 이미지 업로드 소셜미디어인 플리커(Flickr)에서 추천 수 100회 이상 의 인물사진 10장과 추천 수 10회 미만의 인물사진 10장을 선정하여 일반적인 선호도가 높은 사진과 그 반대되는 사진 그룹으로 나누었다.For the experiment, 10 portrait photos with more than 100 recommendations and 10 portrait photos with less than 10 recommendations were selected from Flickr, a social media that uploads images for the experiment, and divided them into groups of photos with high general preference and the opposite photo group. .
또한, 개발 과정에서 설정한 평가 항목 우선순위의 타당성을 확인하고자 통계분석을 실시하였다.In addition, statistical analysis was conducted to confirm the validity of the evaluation item priority set during the development process.
이 실시예는 독립변수의 수가 3개 이상일 경우, 독립변수에 따른 집단 간에 종속변수의 평균차이가 있는 지를 검정하는 다원분산분석(Multi-way ANOVA)을 적용하였다.In this example, when the number of independent variables is 3 or more, multi-way ANOVA is applied to test whether there is a difference in the mean of the dependent variable between groups according to the independent variable.
도 14 내지 도 29를 참조하면, 실험에 선정된 인물사진은 준거지향기준 설정 방법에 의하여 특정된 얼굴의 초점 수치인 0.03을 초과함으로서, 20장의 인물사진 모두 얼굴의 초점이 맞는 것으로 나타났으며, 인물사진을 평가할 때 필요한 주관적 평가 항목과 객관적 평가항목을 분석할 수 있었다.Referring to FIGS. 14 to 29, the portrait photos selected for the experiment exceeded 0.03, which is the focal value of the face specified by the reference-oriented criteria setting method, and thus all 20 portrait photos were found to be in focus. When evaluating portrait photography, the subjective evaluation items and objective evaluation items needed were analyzed.
객관적 평가 항목인 RSC와 다이내믹 레인지는 통계적인 수치 분석 방법인 CDF로 산출하였다. 주관적 평가 항목인 얼굴의 노출은 세 단계로 나누어 평가가 진행되도록 설계하였다.RSC and dynamic range, which are objective evaluation items, were calculated using CDF, a statistical numerical analysis method. The subjective evaluation item, face exposure, was designed to be evaluated in three stages.
적정 노출 해당 범위를 A라고 설정하였다. A에 해당하는 범위는 사전 연구 결과와 사진 전문가들의 의견을 통하여 적정 노출 혹은 3 Stop 초과 수준 범위에 해당하도록 설계하였다. 또한, 이 범위에 해당하지 않는 노출 수준 범위를 하위 노출 단계인 B, C로 단계화하였다. 이러한 단계를 통하여 측정한 결과는 A 범위가 16회로 나타났으며 B 범위가 4회로 나타났다(도 20 및 도 21 참조). B 등급으로 측정된 사진은 선호도가 낮은 그룹의 사진들이었고, 실제 육안으로 확인하였을 때에도 적정 노출 범위에 해당하는 것을 확인할 수 있었기 때문에, 정확도가 높은 것을 알 수 있었다.The appropriate exposure range was set as A. The range of A was designed to be within the range of the appropriate exposure or 3 stops exceeding the prior research results and opinions of photography experts. In addition, the exposure level range that does not fall within this range was stepped into the lower exposure steps B and C. As a result of measuring through this step, the range A was found 16 times and the range B was 4 times (see FIGS. 20 and 21). The photos measured with the B grade were those of the group with low preference, and it was confirmed that the photos corresponded to the appropriate exposure range even when viewed with the naked eye, so that the accuracy was high.
얼굴의 위치는 삼등분할의 법칙에 따라 A, B, C, D 영역에 위치한다고 구분하여 평가할 수 있도록 설계하였다(도 22 및 도 23 참조). 측정 결과는 A, B, C가 16회, D가 4회로 나타났으며, 두 그룹에서 두 장의 사진씩 D 등급을 부여받았다. 또한, 전문 사진가들과 사진 감상자들이 선호하는 위치인 A, B, C영역에 위치한 사진이 많은 비중을 차지하고 있는 것을 알 수 있었다.The position of the face was designed to be evaluated by classifying that it is located in areas A, B, C, and D according to the rule of three divisions (see FIGS. 22 and 23). As for the measurement results, A, B, C were found 16 times, D was 4 times, and two groups were given D grade. In addition, it was found that photographs located in areas A, B, and C, which are the preferred positions of professional photographers and photo viewers, occupy a large proportion.
얼굴의 비중은 인물사진의 전체 이미지 픽셀 수와 얼굴 영역의 픽셀 수의 비를 통하여 산출할 수 있었다(도 21 및 도 22 참조). 측정 결과는 A 비중이 13회, B 비중이 2회, C 비중이 5회로 나타났으며, 주로 10~40%의 얼굴 비중이 다수를 차지하였다. 얼굴의 비중 항목은 선호도가 낮은 그룹의 사진들이 낮은 등급을 받는 경향성을 보였고, 실제 육안으로 확인하였을 때에도 동일한 비중을 가지는 것으로 나타났기 때문에, 평가 항목의 정확도가 높은 것을 알 수 있었다.The specific gravity of the face could be calculated through the ratio of the total number of pixels in the image of the portrait and the number of pixels in the face area (see FIGS. 21 and 22). As a result of the measurement, the proportion of A was 13 times, the proportion of B was 2 times, and the proportion of C was 5 times, mainly 10 to 40% of faces accounted for the majority. As for the specific gravity of the face, the photos of the group with low preference showed a tendency to receive a low rating, and it was found that the pictures of the group with low preference had the same weight even when actually checked with the naked eye, so the accuracy of the evaluation items was high.
아웃포커스는 14장의 인물사진이 아웃포커스 기법이 활용된 사진으로 판단하였으며, 선호도가 낮은 그룹의 사진 중, 6장의 사진이 아웃포커스 기법이 활용되지 않은 사진으로 분석되었다(도 24 및 도 25 참조). 반대로 선호도가 높은 그룹의 사진 모두 전문 사진가들이 즐겨 사용하는 아웃포커스 기법이 활용된 사진으로 판단하였으며, 실제 육안으로 확인하였을 때에도 동일한 결과를 나타내었다. 이를 통하여 이 실시예가 피사체인 사람과 그 외의 영역인 배경을 구분하여 아웃포커스 여부를 정확하게 판단한다는 것을 알 수 있었다.As for the out-of-focus, 14 portrait photos were determined as the photos using the out-of-focus technique, and among the photos of the group with low preference, 6 photos were analyzed as those without the out-of-focus technique (see FIGS. 24 and 25). . On the contrary, all photos of the group with high preference were judged to be photos using the out-of-focus technique, which professional photographers like to use, and the same results were shown when actually checked with the naked eye. Through this, it can be seen that this embodiment accurately determines whether or not to be out of focus by distinguishing a person as a subject and a background as another area.
얼굴의 구도는 인물사진을 감상할 때, 사람들이 선호하는 각도 범위 수치에 해당하는 사례는 8회로 나타났다(도 26 및 도 27 참조). 선호도가 높은 그룹에서는 5장, 낮은 그룹에서는 3장씩 선호하는 각도 범위에 해당하는 것을 알 수 있었고, 실제 육안으로 판단하였을 때에도 피사체가 취하고 있는 얼굴의 구도가 동일한 결과를 나타낸다는 것을 확인하였다.When viewing a portrait, the composition of the face corresponds to the value of the angle range preferred by people in 8 cases (see FIGS. 26 and 27). It was found that 5 sheets in the group with high preference and 3 sheets in the low group corresponded to the preferred angle range, and it was confirmed that the composition of the face taken by the subject showed the same result even when judged with the naked eye.
컬러 톤은 웜-톤이 13회, 쿨-톤이 7회로 나타났으며, 감정은 중립 17회, 긍정 2회, 부정 1회로 나타났다(도 28 및 도 29 참조). 인물 사진이 가지고 있는 감정과 상관성을 이루는 컬러 톤을 가지는 사례는 3회로 나타났으며, 실제 육안으로 판단하였을 때에도 동일한 결과를 나타낸다는 것을 확인하였다. 이러한 결과를 평가 항목 별 가중치 적용 방법인 순위중심화법을 통하여 총 100점 만점의 점수로 환산하여 총점을 나타낼 수 있었다.As for the color tone, 13 warm-tones and 7 cool-tones appeared, and 17 neutral, 2 positive, and 1 negative emotions (see FIGS. 28 and 29). There were 3 cases with color tones that correlate with emotions in portrait photography, and it was confirmed that the same result was shown even when judged with the naked eye. The total score could be expressed by converting these results into a total score of 100 points through the ranking centering method, a method of applying weights for each evaluation item.
도 14를 참조하면, 선호도가 높은 인물사진은 위에서부터 순서대로 94.50, 94.36, 93.92, 91.11, 90.79, 90.71, 89.59, 84.94, 84.82, 83.82로 나타났다. 도 15를 참조하면, 선호도가 낮은 그룹은 위에서부터 순서대로 71.70, 77.66, 72.03, 66.54, 62.55, 61.55, 60.85, 59.13, 54.63, 54.51로 나타났다.Referring to FIG. 14, portrait photos with high preference were shown as 94.50, 94.36, 93.92, 91.11, 90.79, 90.71, 89.59, 84.94, 84.82, and 83.82 in order from the top. Referring to FIG. 15, the groups with low preference were found to be 71.70, 77.66, 72.03, 66.54, 62.55, 61.55, 60.85, 59.13, 54.63, 54.51 in order from the top.
이 실시예를 이용하여 평가된 종합 평가의 값은 객관적 항목, 주관적 항목이 결합된 감상자들의 감성 선호도 수치를 나타낸다.The value of the comprehensive evaluation evaluated using this example represents the emotional preference value of the viewers in which the objective item and the subjective item are combined.
아울러, 소셜 미디어 플리커(Flickr)에서 추천 수 100회 이상의 인물사진 500장을 이용하여 통계검증을 실시하였다.In addition, statistical verification was conducted using 500 portrait photos of 100 or more recommended times on social media Flickr.
표 8은 다원분산분석 실시 결과이다.Table 8 shows the results of multi-factor variance analysis.
먼저, 얼굴의 노출*얼굴의 위치*RSC*얼굴의 비중*다이내믹 레인지를 통하여 평가 항목 요소가 최종 점수에 상호작용효과가 미치고 있는 것을 알 수 있었다.First, through the exposure of the face * the position of the face * the RSC * the specific gravity of the face * the dynamic range, it was found that the evaluation item element had an interactive effect on the final score.
F 값이 72.926이고, 유의확률이 .000이므로 유의수준 내에 있다.The F value is 72.926 and the significance probability is .000, so it is within the significance level.
또한, 이 실시예에서 설정한 평가 항목 우선순위의 타당성을 확인하기 위하여 각 항목의 F값과 유의확률을 참고하였다. 얼굴의 노출, 얼굴의 위치, RSC, 얼굴의 비중, 다이내믹 레인지의 F값과 유의확률은 모두 유의수준 내에 있으며 유의확률은 낮을수록, F 값은 높을수록 집단 간의 차이가 있다는 의미이므로 얼굴의 노출, 얼굴의 위치, RSC, 얼굴의 비중, 다이내믹 레인지순으로 이 실시예에서 설정한 우선순위와 일치하는 것을 알 수 있었다.In addition, in order to confirm the validity of the evaluation item priority set in this example, the F value and the significance probability of each item were referenced. Face exposure, face position, RSC, face weight, and dynamic range F value and significance probability are all within the significance level, and the lower the significance probability, the higher the F value, the greater the difference between groups. It can be seen that the position of the face, RSC, the specific gravity of the face, and the dynamic range match the priority set in this example.
이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 다음 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.Although the preferred embodiment of the present invention has been described above, the present invention can use various changes, modifications, and equivalents. It is clear that the present invention can be applied in the same manner by appropriately modifying the above embodiments. Therefore, the above description does not limit the scope of the present invention determined by the limits of the following claims.
100 : 인물사진 감성 선호도 평가 장치
110 : 얼굴인식부
120 : 객관평가부
122 : 초점평가부
123 : 콘트라스트평가부
124 : 동적영역평가부
130 : 주관평가부
132 : 노출평가부
133 : 비중평가부
134 : 위치평가부
135 : 구도평가부
136 : 감정색상평가부
137 : 포커스평가부
160 : 연산부
180 : 표시부100: portrait photo sensitivity preference evaluation device
110: face recognition unit 120: objective evaluation unit
122: focus evaluation unit 123: contrast evaluation unit
124: dynamic domain evaluation unit 130: supervised evaluation unit
132: exposure evaluation unit 133: weight evaluation unit
134: location evaluation unit 135: composition evaluation unit
136: emotional color evaluation unit 137: focus evaluation unit
160: operation unit 180: display unit
Claims (26)
상기 얼굴인식부가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하는 구도평가부;
상기 얼굴인식부가 인식한 얼굴에서 표정을 인식하고, 상기 표정과 상기 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 감정색상평가부;
상기 구도평가부 및 상기 감정색상평가부의 평가 결과를 이용하여 종합 평가를 연산하는 연산부; 및
상기 연산부에서 연산된 종합 평가를 출력하는 표시부를 포함하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.A face recognition unit that recognizes a face in a portrait photo;
A composition evaluation unit that evaluates whether the composition of the face recognized by the face recognition unit corresponds to a preference composition;
An emotional color evaluation unit for recognizing an expression on the face recognized by the face recognition unit and evaluating a degree of matching between the expression and a color tone of the portrait photograph;
An operation unit that calculates a comprehensive evaluation using the evaluation results of the composition evaluation unit and the emotional color evaluation unit; And
And a display unit that outputs the comprehensive evaluation calculated by the calculation unit. The apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective.
CLM-Framework 알고리즘을 이용하여 상기 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 상기 얼굴의 회전, 좌우 기울임 및 전후 기울임의 값을 산출하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1, wherein the composition evaluation unit,
Using the CLM-Framework algorithm, a plurality of feature points are set on the face, and values of rotation, left and right tilt, and front and rear tilt of the face are calculated using the feature points. A device to evaluate emotional preferences.
상기 표정을 긍정, 중립, 부정으로 분류하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1, wherein the emotional color evaluation unit,
An apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective, characterized in that the expression is classified into positive, neutral, and negative.
상기 표정이 긍정이고, 상기 컬러 톤이 웜-톤(Warm tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 3, wherein the emotional color evaluation unit,
If the expression is positive and the color tone is a warm tone, it is determined that the expression and the color tone of the portrait picture match. Device.
상기 표정이 부정이고, 상기 컬러 톤이 쿨-톤(Cool tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 3, wherein the emotional color evaluation unit,
If the expression is negative and the color tone is a cool tone, it is determined that the expression and the color tone of the portrait photo match. Device.
상기 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트를 평가하는 콘트라스트평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 콘트라스트평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising a contrast evaluation unit for evaluating the contrast by analyzing the portrait photo RSC (Retinal-like Subsampling Contrast),
The apparatus for evaluating the emotional preference of a portrait photograph using the expert viewpoint, wherein the calculation unit further uses an evaluation result of the contrast evaluation unit during a comprehensive evaluation operation.
상기 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가하는 동적영역평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 동적영역평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising a dynamic region evaluation unit for evaluating a dynamic range (dynamic range) using the photoelectric conversion function of the portrait,
The calculating unit further uses the evaluation result of the dynamic region evaluation unit when calculating the comprehensive evaluation. The apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective.
상기 얼굴인식부가 인식한 얼굴의 노출 정도를 평가하는 노출평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 노출평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising an exposure evaluation unit for evaluating the exposure degree of the face recognized by the face recognition unit,
The calculating unit is an apparatus for evaluating the emotional preference of a portrait photograph using an expert viewpoint, characterized in that the evaluation result of the exposure evaluation unit is further used during a comprehensive evaluation operation.
상기 인물사진을 RGB 색 공간을 YCbCr 좌표계로 변경하여 Y값을 획득하고, 상기 Y값을 존 시스템의 원리를 이용하여 단계화 하는 것으로 노출 정도를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 8, wherein the exposure evaluation unit,
A person using a professional perspective, characterized in that the exposure degree is evaluated by changing the portrait photo by changing the RGB color space to the YCbCr coordinate system to obtain a Y value, and stepping the Y value using the principle of a zone system A device that evaluates the emotional preference of photos.
상기 인물사진에서 상기 얼굴인식부가 인식한 얼굴의 크기 비중을 평가하는 비중평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 비중평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising a weight evaluation unit for evaluating the weight of the size of the face recognized by the face recognition unit in the portrait photo,
The calculating unit is an apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective, characterized in that the evaluation result of the weight evaluation unit is further used when calculating a comprehensive evaluation.
상기 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 상기 인물사진의 샷 종류에 대응하여 상기 크기 비중을 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 10, wherein the specific gravity evaluation unit,
After classifying the portrait photo into one of a long shot, a full shot, a medium shot, and a close-up shot, the proportion of the size is evaluated according to the shot type of the portrait photo. A device for evaluating the emotional preference of a portrait photograph using a professional perspective.
상기 얼굴인식부가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가하는 위치평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 위치평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising a position evaluation unit for evaluating whether the position of the face recognized by the face recognition unit corresponds to the position of the third division law,
The calculating unit is an apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective, characterized in that the calculation unit further uses the evaluation result of the position evaluation unit during a comprehensive evaluation operation.
상기 얼굴인식부가 인식한 얼굴의 피사계심도를 인식하여 상기 얼굴의 선명함 정도를 평가하는 포커스평가부를 더 포함하고,
상기 연산부는 종합 평가 연산 시 상기 포커스평가부의 평가 결과를 더 이용하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 장치.The method of claim 1,
Further comprising a focus evaluation unit for evaluating the degree of sharpness of the face by recognizing the depth of field of the face recognized by the face recognition unit,
The operation unit further uses the evaluation result of the focus evaluation unit during a comprehensive evaluation operation. The apparatus for evaluating the emotional preference of a portrait photograph using an expert perspective.
평가부가 상기 얼굴인식부가 인식한 얼굴의 구도가 선호구도와 대응되는지 평가하고, 상기 얼굴의 표정과 상기 인물사진의 컬러 톤(color tone)의 어울림 정도를 평가하는 단계;
연산부가 상기 평가부의 평가 결과를 이용하여 종합 평가를 연산하는 단계; 및
표시부가 상기 연산부에서 연산된 종합 평가를 출력하는 단계를 포함하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.Recognizing a face in a portrait photo by a face recognition unit;
Evaluating whether a composition of the face recognized by the face recognition unit corresponds to a preference composition, and evaluating a degree of matching between the facial expression and the color tone of the portrait photograph;
Calculating a comprehensive evaluation using the evaluation result of the evaluation unit; And
A method for evaluating the emotional preference of a portrait photograph using a professional perspective, comprising the step of: the display unit outputting the comprehensive evaluation calculated by the calculation unit.
CLM-Framework 알고리즘을 이용하여 상기 얼굴에 복수의 특징점을 설정하고, 상기 특징점을 이용하여 상기 얼굴의 회전, 좌우 기울임 및 전후 기울임의 값을 산출하여 상기 얼굴의 구도를 수치화 하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14, wherein the evaluation unit,
Professional characterized in that a plurality of feature points are set on the face using a CLM-Framework algorithm, and values of rotation, left and right tilt, and front and rear tilt of the face are calculated using the feature points to quantify the composition of the face. A method of evaluating the emotional preference of a portrait photo using a point of view.
상기 표정을 긍정, 중립, 부정으로 분류하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14, wherein the evaluation unit,
A method for evaluating the emotional preference of a portrait photo using a professional perspective, characterized in that the expression is classified into positive, neutral, and negative.
상기 표정이 긍정이고, 상기 컬러 톤이 웜-톤(Warm tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 16, wherein the evaluation unit,
If the expression is positive and the color tone is a warm tone, it is determined that the expression and the color tone of the portrait picture match. How to.
상기 표정이 부정이고, 상기 컬러 톤이 쿨-톤(Cool tone)이면, 상기 표정과 상기 인물사진의 컬러 톤이 어울리는 것으로 판단하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 16, wherein the evaluation unit,
If the expression is negative and the color tone is a cool tone, it is determined that the expression and the color tone of the portrait photo match. How to.
상기 평가부는 상기 인물사진을 RSC(Retinal-like Subsampling Contrast)로 분석하여 콘트라스트를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit evaluates the emotional preference of a portrait picture using a professional perspective, characterized in that the evaluation unit analyzes the portrait picture by RSC (Retinal-like Subsampling Contrast) to evaluate the contrast.
상기 평가부는 상기 인물사진을 광전변환함수를 이용하여 다이내믹 레인지(dynamic range)를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit evaluates a dynamic range of the portrait photograph using a photoelectric conversion function. A method of evaluating the emotional preference of a portrait photograph using an expert perspective.
상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 노출 정도를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit evaluates the degree of exposure of the face recognized by the face recognition unit. A method of evaluating the emotional preference of a portrait photograph using an expert perspective.
상기 평가부는 상기 인물사진을 RGB 색 공간을 YCbCr 좌표계로 변경하여 Y값을 획득하고, 상기 Y값을 존 시스템의 원리를 이용하여 단계화 하는 것으로 노출 정도를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 21,
The evaluation unit obtains the Y value by changing the RGB color space of the portrait photo to the YCbCr coordinate system, and evaluates the degree of exposure by stepping the Y value using the principle of a zone system. How to evaluate the emotional preference of portrait photos
상기 평가부는 상기 인물사진에서 상기 얼굴인식부가 인식한 얼굴의 크기 비중을 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit is a method of evaluating the emotional preference of a portrait picture using a professional perspective, characterized in that the evaluation unit evaluates the proportion of the size of the face recognized by the face recognition unit in the portrait picture.
상기 평가부는 상기 인물사진을 롱샷(long shot), 풀샷(full shot), 미디엄샷(medium), 클로즈업샷(close-up shot) 중 하나로 분류한 후, 상기 인물사진의 샷 종류에 대응하여 상기 크기 비중을 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 23,
The evaluation unit classifies the portrait picture into one of a long shot, a full shot, a medium shot, and a close-up shot, and then the size corresponding to the shot type of the portrait picture. A method of evaluating the emotional preference of a portrait photo using an expert perspective, characterized by evaluating the specific gravity.
상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 위치가 삼등분할법칙 위치에 대응되는지 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit evaluates whether the position of the face recognized by the face recognition unit corresponds to the position of the rule of third division.
상기 평가부는 상기 얼굴인식부가 인식한 얼굴의 피사계심도를 인식하여 상기 얼굴의 선명함 정도를 평가하는 것을 특징으로 하는 전문가적 관점을 이용하여 인물사진의 감성 선호도를 평가하는 방법.The method of claim 14,
The evaluation unit evaluates the sensitivity preference of a portrait photograph using an expert perspective, characterized in that the evaluation unit recognizes the depth of field of the face recognized by the face recognition unit and evaluates the degree of sharpness of the face.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190016306A KR20200098316A (en) | 2019-02-12 | 2019-02-12 | Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190016306A KR20200098316A (en) | 2019-02-12 | 2019-02-12 | Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200098316A true KR20200098316A (en) | 2020-08-20 |
Family
ID=72293023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190016306A KR20200098316A (en) | 2019-02-12 | 2019-02-12 | Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200098316A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112907438A (en) * | 2021-03-01 | 2021-06-04 | 中国科学院半导体研究所 | Portrait generation method and device, electronic equipment and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100983007B1 (en) | 2008-03-28 | 2010-09-17 | 나한길 | System and method for examining person pictures quality |
-
2019
- 2019-02-12 KR KR1020190016306A patent/KR20200098316A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100983007B1 (en) | 2008-03-28 | 2010-09-17 | 나한길 | System and method for examining person pictures quality |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112907438A (en) * | 2021-03-01 | 2021-06-04 | 中国科学院半导体研究所 | Portrait generation method and device, electronic equipment and storage medium |
CN112907438B (en) * | 2021-03-01 | 2024-05-31 | 中国科学院半导体研究所 | Portrait generation method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110678875B (en) | System and method for guiding a user to take a self-photograph | |
CN102576461B (en) | The aesthetic quality of assessment digital picture | |
US8781175B2 (en) | On-site composition and aesthetics feedback through exemplars for photographers | |
JP4335476B2 (en) | Method for changing the number, size, and magnification of photographic prints based on image saliency and appeal | |
Aydın et al. | Automated aesthetic analysis of photographic images | |
Redi et al. | The beauty of capturing faces: Rating the quality of digital portraits | |
US10679041B2 (en) | Hybrid deep learning method for recognizing facial expressions | |
US8189916B2 (en) | Image processing method, system, and computer readable medium | |
CN103945104B (en) | Information processing method and electronic equipment | |
US20150189186A1 (en) | Automatic photographing method and system thereof | |
CN105608700B (en) | Photo screening method and system | |
CN111008971B (en) | A method for evaluating the aesthetic quality of group photo images and a real-time shooting guidance system | |
Wei et al. | How smart does your profile image look? Estimating intelligence from social network profile images | |
US20220270404A1 (en) | Hybrid deep learning method for recognizing facial expressions | |
CN109948564A (en) | It is a kind of based on have supervision deep learning quality of human face image classification and appraisal procedure | |
Abeln et al. | Preference for well-balanced saliency in details cropped from photographs | |
US20160140748A1 (en) | Automated animation for presentation of images | |
Maleš et al. | Aesthetic quality assessment of headshots | |
US10909351B2 (en) | Method of improving image analysis | |
Gao et al. | Quality-guided skin tone enhancement for portrait photography | |
KR20200098316A (en) | Apparatus and method for evaluating the emotional preference of portrait images using an expert viewpoint | |
Roth | Making skin visible through liberatory design | |
KR102565225B1 (en) | System for the mode recommendation and selection based on face recognition, and Imaging apparatus using the same | |
Zhang et al. | The aesthetic appeal of depth of field in photographs | |
JP2023078857A (en) | Eyewear virtual try-on system, eyewear selection system, eyewear try-on system, and eyewear classification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190212 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200723 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20210210 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20200723 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |