RU2697627C1 - Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ - Google Patents
Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ Download PDFInfo
- Publication number
- RU2697627C1 RU2697627C1 RU2018128206A RU2018128206A RU2697627C1 RU 2697627 C1 RU2697627 C1 RU 2697627C1 RU 2018128206 A RU2018128206 A RU 2018128206A RU 2018128206 A RU2018128206 A RU 2018128206A RU 2697627 C1 RU2697627 C1 RU 2697627C1
- Authority
- RU
- Russia
- Prior art keywords
- image
- illumination
- model
- key points
- mask
- Prior art date
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 166
- 238000000034 method Methods 0.000 title claims abstract description 58
- 239000013598 vector Substances 0.000 claims abstract description 24
- 238000009499 grossing Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 15
- 210000001331 nose Anatomy 0.000 claims description 9
- 210000004709 eyebrow Anatomy 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 claims description 7
- 210000000214 mouth Anatomy 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 15
- 239000000126 substance Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/44—Colour synchronisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
Abstract
Изобретение относится к вычислительной технике. Технический результат – повышение эффективности и качества обработки изображений в последовательности изображений в реальном масштабе времени. Способ корректировки освещенности объекта на изображении в последовательности изображений содержит ввод изображения, получение заданного вектора направления света, обнаружение ключевых точек объекта и особенностей изображения, обрезание изображения по ключевым точкам объекта для получения изображения объекта, преобразование изображения объекта в формат с яркостной и цветоразностными компонентами (YUV), создание модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, формирование модели адаптированной освещенности объекта, извлечение фактической освещенности объекта на изображении, замену фактической освещенности объекта на изображении адаптированной освещенностью объекта и вывод изображения в последовательности изображений. 2 н. и 6 з.п. ф-лы, 14 ил.
Description
Область техники
[0001] Настоящее изобретение относится к области корректировки освещенности объектов на изображениях, и более конкретно к способу корректировки освещенности объекта на изображении в последовательности изображений и вычислительному устройству пользователя, реализующему упомянутый способ.
Уровень техники
[0002] В уровне техники известны различные способы корректировки освещенности объекта на изображении. Такие способы, как правило, включают в себя этапы (см. фигуру 1), на которых: вводят изображение объекта, обнаруживают ключевые точки объекта, извлекают текстуру и освещение объекта, корректируют освещение объекта, смешивают текстуру и скорректированное освещение объекта, применяют смешанные текстуру и скорректированное освещение объекта к изображению объекта.
[0003] В патенте США US 7,324,688 B2 (29.01.2008, MITSUBISHI ELECTRIC RESEARCH LABORATORIES, INC), озаглавленном «Face relighting for normalization of directional lighting», раскрыт способ корректировки освещенности, использующий алгоритм поблочной оптимизации для извлечения карт текстуры и освещенности для дальнейшей нормализации освещенности лица. Главным недостатком раскрытого в патенте `688 подхода является изменение уникальных лицевых особенностей в результате применения такого способа корректировки освещенности к изображению лица. В силу этого лицо на изображении, которое подвергнуто такому способу корректировки освещенности, начинает походить на среднестатистическое лицо, использованное для такой корректировки освещенности.
[0004] Другой патент США US 8,582,896 B2 (12.11.2013, DIGITALOPTICS CORPORATION EUROPE LIMIT и др.), озаглавленный «Separating directional lighting variability in statistical face modelling based on texture space decomposition», раскрывает способ разложения изображения на текстуру и освещенность с использованием базовой лицевой модели, созданной проекциями метода главных компонент (PCA) в подпространство с равномерным распределением света, обученное на базе данных произвольных изображений. Данный документ может быть рассмотрен в качестве документа ближайшего уровня техники. Согласно тексту самого патента `896 раскрытый в нем подход способен удалять освещенность лишь до некоторой степени. Кроме того, раскрытый в патенте `896 подход не в состоянии удалить цветную освещенность и не предназначен для обработки лицевых изображений в высоком разрешении.
[0005] Другой патент США US 7,433,807 B2 (07.10.2008, MICROSOFT CORPORATION), озаглавленный «Facial image processing», раскрывает способ обработки лицевых изображений, который использует несколько вспышек для создания трехмерной лицевой модели и отделения текстуры от освещенности на основе нормалей этой трехмерной модели. Раскрытый в патенте `807 подход требует большого количества оборудования, которое внедрить в вычислительное устройство пользователя не представляется возможным. Кроме того, описанный в патенте `807 алгоритм вынужден анализировать несколько разных изображений, что приводит в результате к интенсивным вычислениям, реализация которых не может быть осуществлена в реальном масштабе времени.
[0006] Еще один патент США US 9,858,654 B2 (02.01.2018, ANTHROPICS TECHNOLOGY LIMITED), озаглавленный «Image manipulation», раскрывает способ обработки изображений, который формирует основанную на PCA двумерную модель, которая сливается с исходным лицевым изображением, для получения в результате изображения с новой освещенностью, которой управляют на основе PCA-коэффициентов. Раскрытый в патенте `654 подход не в состоянии удалять резкие тени и приводит в результате своей работы к изменению уникальных лицевых особенностей лица на изображении. Кроме того, предложенный в патенте `654 подход является достаточно медленным (согласно работе соответствующей программы PortraitPro) и не может быть осуществлен в реальном масштабе времени.
[0007] Различные другие реализации известны в данной области техники, но, насколько можно разумно установить из их доступной документации, эти реализации не могут адекватно решить все вышеуказанные проблемы, решаемые описанным в данной заявке изобретением.
Проблемы, решаемые настоящим изобретением
[0008] Таким образом, в решениях уровня техники существует ряд следующих проблем, требующих эффективного решения: отсутствие возможности обработки изображений высокого разрешения в реальном масштабе времени, отсутствие дополнительной стабилизации для видеообработки, отсутствие возможности обработки цветной освещенности, непреднамеренное изменение уникальных особенностей объекта на изображении и отсутствие обработки резких теней на изображении.
Средства решения проблем
[0009] В первом аспекте настоящего изобретения обеспечен способ корректировки освещенности объекта на изображении в последовательности изображений, содержащий этапы, на которых: вводят изображение и получают заданный вектор направления света; обнаруживают ключевые точки объекта и особенности изображения; обрезают изображение по ключевым точкам объекта для получения изображения объекта; преобразуют изображение объекта в формат с яркостной и цветоразностными компонентами (YUV); создают модель освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света; формируют модель адаптированной освещенности объекта; извлекают фактическую освещенность объекта на изображении; заменяют фактическую освещенность объекта на изображении адаптированной освещенностью объекта, определенной моделью адаптированной освещенности объекта; и выводят изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта.
[0010] В упомянутом способе этап формирования модели адаптированной освещенности объекта содержит этапы, на которых: растягивают края растеризованной модели освещенности объекта до краев обрезанного изображения объекта; вычисляют Y-, U- и V-гистограммы растеризованной модели освещенности объекта с растянутыми краями; вычисляют Y-, U- и V-гистограммы обрезанного изображения объекта; корректируют предопределенную маску поверхности объекта под обрезанное изображение объекта путем удаления из маски поверхности объекта светлых и темных участков обрезанного изображения объекта, которые определяются соответствующими пороговыми значениями яркости; удаляют из полученных U- и V- гистограмм растеризованной модели освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения объекта значения, которые попали в удаленные светлые и темные участки обрезанного изображения объекта, и осуществляют эквализацию упомянутых U- и V- гистограмм; корректируют яркость, контраст и цвет растеризованной модели освещенности объекта с растянутыми краями посредством оценки Y-гистограмм обрезанного изображения объекта и растеризованной модели освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм для формирования модели адаптированной освещенности объекта; и сглаживают на сформированной модели адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта.
[0011] В упомянутом способе маску поверхности объекта формируют на основе ключевых точек объекта посредством создания маски лицевой поверхности объекта, оценки цветового коэффициента по обрезанному изображению объекта и нахождения области поверхности объекта.
[0012] В упомянутом способе заданным вектором направления света является вектор направления света по умолчанию или предопределенный пользователем вектор направления света; объектом является лицо; поверхностью объекта является кожа лица; blobs-компоненты содержат брови, глаза, нос и рот.
[0013] В упомянутом способе этап извлечения фактической освещенности объекта на изображении содержит этапы, на которых: обнаруживают по ключевым точкам объекта и маске поверхности объекта blobs-компоненты объекта и обнаруживают яркостные переходы объекта на обрезанном изображении объекта, при этом обнаруженные blobs-компоненты объекта и яркостные переходы объекта составляют особенности объекта; формируют на основе обнаруженных особенностей объекта λ-карту, представляющую по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию; и проводят учитывающее особенности объекта быстрое глобальное сглаживание (FGS), применяя FGS-фильтр с λ-картой к обрезанному изображению объекта, для извлечения фактической освещенности объекта на изображении. Проведение учитывающего особенности объекта быстрого глобального сглаживания (FGS) позволяет удалить/сгладить резкие тени на изображении с сохранением уникальных особенностей объекта.
[0014] В упомянутом способе этап замены фактической освещенности объекта на изображении адаптированной освещенностью объекта содержит этапы, на которых: принимают сформированную маску поверхности объекта; проводят стабилизированное FGS, применяя фильтр стабилизированного FGS к сформированной маске поверхности объекта путем решения обратной задачи с регуляризатором, причем решение обратной задачи с регуляризатором содержит следующие подэтапы, на которых: вычисляют значения регуляризатора с использованием сохраненных данных о сглаженной маске поверхности объекта, полученной для предыдущего изображения в последовательности изображений, и разностной карты; применяют фильтр стабилизированного FGS к сформированной маске поверхности объекта с использованием регуляризатора, значения которого равны вычисленным значениям регуляризатора; обновляют разностную карту путем попиксельного применения рекурсивного фильтра; сохраняют сглаженную маску поверхности объекта для текущего изображения; и нормализуют значения сглаженной маски поверхности объекта для текущего изображения в диапазоне 0..1; оценивают вероятности некорректного обнаружения ключевых точек объекта с помощью признаков объекта, представленного в текущем изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек; и врисовывают адаптированную освещенность объекта, определенную моделью адаптированной освещенности объекта, в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта.
[0015] В упомянутом способе этап создания модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, содержит этапы, на которых: подгоняют общий трехмерный каркас объекта под обнаруженные ключевые точки объекта, представленного на текущем изображении в последовательности изображений; и осуществляют рендеринг трехмерной модели объекта c использованием трехмерного каркаса объекта, подогнанного под ключевые точки объекта, заданного вектора направления света и общей текстуры поверхности объекта для получения растеризованной модели освещенности объекта.
[0016] Во втором аспекте настоящего изобретения обеспечено вычислительное устройство пользователя или мобильное устройство, содержащее процессор, камеру и память, хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение способа корректировки освещенности объекта на изображении в последовательности изображений согласно вышеупомянутому первому аспекту настоящего изобретения.
Благоприятные эффекты настоящего изобретения
[0017] Предложенный в настоящей заявке способ позволяет сохранить уникальные особенности объекта на изображении и удалить резкие тени вследствие использования в нем учитывающего особенности объекта быстрого глобального сглаживания (FGS). Кроме того, предложенный в настоящей заявке способ позволяет осуществлять обработку цветной освещенности объектов и сохраняет уникальный цвет объекта за счет использования в нем модели адаптированной освещенности объекта. Дополнительно, предложенный в настоящей заявке способ выполнен с возможностью непрерывной видеообработки в реальном масштабе времени за счет использования в нем фильтра стабилизированного FGS. Таким образом, настоящим изобретением достигается повышение общей эффективности и качества обработки изображений в последовательности изображений в реальном масштабе времени, а сама обработка является пригодной для реализации на вычислительном устройстве пользователя или мобильном устройстве.
Краткое описание чертежей
[0018] Другие достоинства настоящего изобретения станут очевидны специалисту в данной области техники после ознакомления с нижеследующим подробным описанием различных вариантов его осуществления, а также с чертежами, на которых:
[Фиг. 1] Фигура 1 иллюстрирует общую схему способа корректировки освещенности объекта на изображении согласно решению в уровне техники.
[Фиг. 2] Фигура 2 иллюстрирует схему последовательности операций варианта осуществления способ корректировки освещенности объекта на изображении в последовательности изображений согласно настоящему изобретению.
[Фиг. 3] Фигура 3 иллюстрирует схему последовательности операций варианта осуществления этапа формирования модели (40) адаптированной освещенности объекта согласно настоящему изобретению.
[Фиг. 4] Фигура 4 иллюстрирует схему последовательности операций варианта осуществления этапа извлечения фактической освещенности объекта на изображении согласно настоящему изобретению.
[Фиг. 5] Фигура 5 иллюстрирует схему последовательности операций варианта осуществления этапа замены фактической освещенности объекта на изображении адаптированной освещенностью объекта согласно настоящему изобретению.
[Фиг. 6] Фигура 6 иллюстрирует схему последовательности операций варианта осуществления этапа создания модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, согласно настоящему изобретению.
[Фиг. 7] Фигура 7 иллюстрирует блок-схему варианта осуществления вычислительного устройства пользователя, реализующего способ корректировки освещенности объекта на изображении согласно настоящему изобретению.
[Фиг. 8] Фигура 8 иллюстрирует пример обнаружения ключевых точек L на входном изображении.
[Фиг. 9] Фигура 9 иллюстрирует пример обрезанного по ключевым точкам изображения.
[Фиг. 10] Фигура 10 иллюстрирует пример создания растеризованной модели (25) освещенности объекта.
[Фиг. 11] Фигура 11 иллюстрирует пример выполнения растяжения растеризованной модели (25) освещенности объекта.
[Фиг. 12] Фигура 12 иллюстрирует пример сформированной модели (40) адаптированной освещенности объекта со сглаженными участками, заданными предопределенными blobs-компонентами объекта.
[Фиг. 13] Фигура 13 иллюстрирует пример обнаруженных особенностей (45) объекта, т.е. blobs-компонентов (50) объекта и яркостных переходов (55) объекта, а также формируемой на их основе λ-карты (60) для обрезанного изображения (5) объекта.
[Фиг. 14] Фигура 14 иллюстрирует пример результатов проведения быстрого глобального сглаживания (FGS), учитывающего особенности (45) объекта.
Подробное описание вариантов осуществления изобретения
[0019] Предпочтительные варианты осуществления настоящего изобретения теперь будут описаны более подробно со ссылкой на чертежи, на которых идентичные элементы на разных фигурах, по возможности, идентифицируются одинаковыми ссылочными позициями. Эти варианты осуществления представлены посредством пояснения настоящего изобретения, которое, однако, не следует ими ограничивать. Специалисты в данной области техники поймут после ознакомления с настоящим подробным описанием и чертежами, что могут быть сделаны различные модификации и варианты.
[0020] Фигура 2 иллюстрирует схему последовательности операций варианта осуществления способ корректировки освещенности объекта на изображении в последовательности изображений согласно настоящему изобретению. На этапе S100 может быть введено изображение и может быть получен заданный вектор направления света. Заданным вектором направления света может быть вектор направления света по умолчанию или предопределенный пользователем вектор направления света. В предпочтительном варианте настоящего изобретения объектом на вводимом изображении является, но без ограничения упомянутым, лицо, а поверхностью объекта является кожа лица. Тем не менее следует понимать, что раскрытый способ корректировки освещенности также может быть успешно применен к изображениям, на которых содержится любой другой объект(ы). Для этого, алгоритм нахождения ключевых точек, использующий, например, машину опорных векторов (SVM) или любой другой алгоритм машинного обучения, может быть обучен на ключевых точках объекта, корректировка освещенности которого раскрытым способом представляет интерес. Затем, может быть подготовлен трехмерный каркас этого объекта, и ключевые точки, относящиеся к blobs-компонентам этого объекта, могут быть помечены.
[0021] Настоящее изобретение основано на законе диффузного отражения Ламберта , где - получаемое в результате изображение, - освещенность, - текстура (альбедо), а число пикселей изображения. Таким образом, целью является отделение текстуры от освещенности и замена карты исходной освещенности картой желаемой освещенности. На этапе S105 во входном изображении могут быть обнаружены ключевые точки объекта и особенности изображения. Пример обнаружения ключевых точек проиллюстрирован на фигуре 8. Значение n отражает число ключевых точек и может быть предопределенно равным, но без ограничения упомянутым конкретным значением, 68. Под ключевыми точками объекта в настоящей заявке следует понимать спроецированные на плоскость изображения объекта точки, соответствующие центрам опорных областей объекта, предопределенных в соответствии с обобщенным трехмерным представлением последнего, например, кончик носа, уголки губ и глаз, центры зрачков и т.д. Под особенностями изображения в настоящей заявке следует понимать уникальные свойства текстуры объекта, которые отсутствуют у обобщенной модели объекта.
[0022] На этапе S110 изображение может быть обрезано по ключевым точкам объекта для получения изображения объекта так, чтобы обрезанное изображение (5) включало в себя весь объект и его ключевые точки. Пример обрезанного по ключевым точкам изображения (5) проиллюстрирован на фигуре 9. Данный этап позволяет снизить вычислительную сложность способа на последующих этапах, исключая из входного изображения области, которые обрабатывать не следует. На этапе S115 изображение (5) объекта может быть преобразовано в формат с яркостной и цветоразностными компонентами, например, но без ограничения упомянутым, YUV NV21.
[0023] На этапе S120 модель освещенности объекта может быть создана с использованием ключевых точек объекта для получения растеризованной модели (25) освещенности объекта, в которой освещенность определена заданным вектором (10) направления света. Для этого получают базовый трехмерный каркас (15) объекта и подгоняют его под обнаруженные ключевые точки L объекта. Значение m отражает число вершин трехмерного каркаса и может быть предопределенно равным, но без ограничения упомянутым конкретным значением, 3448. К подогнанному трехмерному каркасу (15) объекта может быть применена освещенность, определенная заданным вектором (10) направления света. Затем, могут быть осуществлены рендеринг с применением базовой текстуры объекта (20) и растеризация скорректированного трехмерного каркаса (15) объекта для получения растеризованной модели (25) освещенности объекта. Другими словами, при обработке последовательности изображений, подгоняют под L и осуществляют рендеринг каждого t ого (может быть 1, 2 или 4) изображения трехмерного каркаса (15) объекта, используя и , для получения модели (25) освещенности объекта. Таким образом, при обработке видео рендеринг нового изображения трехмерной модели может быть осуществлен не на каждом кадре, а с пропусками некоторого числа кадров, используя одно и то же изображение для промежуточных кадров, что экономит вычислительные ресурсы, требуемые для реализации способа. Пример создания растеризованной модели (25) освещенности объекта проиллюстрирован на фигуре 10. На примере с фигуры 10 объектом на изображении является лицо, трехмерным каркасом (15) объекта является трехмерный каркас головы, базовой текстурой объекта (20) является базовая текстура лица, растеризованной моделью (25) освещенности объекта является растеризованная модель освещенности лица.
[0024] На этапе S125 может быть сформирована модель (40) адаптированной освещенности объекта. Подробности данного этапа S125 проиллюстрированы на фигуре 3. Целью этапов S120 и S125 является рендеринг целевой модели освещенности объекта на основе созданного трехмерного каркаса объекта, форма и цвет которого подгоняются под входное изображение объекта. На этапе S125.1 края растеризованной модели (25) освещенности объекта могут быть растянуты до краев обрезанного изображения объекта, т.е. растягивают изображение для получения изображения . Для этого, в одном варианте осуществления настоящего изобретения, для каждого пикселя некоторого края изображения находят первый ненулевой пиксель на линии, представляющей строку пикселей или столбец пикселей изображения , которая ортогональна упомянутому краю. Если пиксель существует, проходят по некоторому количеству ненулевых пикселей (вплоть до 9 пикселей) в направлении для получения внутреннего пикселя и осуществляют интерполяцию пикселей в пиксели. Данный этап выполняется для того, чтобы исключить из изображения растеризованной модели (25) освещенности объекта черную область за пределами объекта, полученную в результате рендеринга модели (25) освещенности объекта, и обеспечить более легкую врисовку изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений. Этот этап S125.1 также обеспечивает возможность обрабатывать видеопоток высокого разрешения посредством раскрытого способа в режиме реального времени, поскольку сложность врисовки изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений существенно снижена в сравнении с решениями, известными из уровня техники. Пример выполнения растяжения растеризованной модели (25) освещенности объекта для получения растеризованной модели (30) освещенности объекта с растянутыми краями проиллюстрирован на фигуре 11.
[0025] На этапах S125.2 и S125.3 могут быть вычислены, соответственно, Y-, U- и V-гистограммы () растеризованной модели (30) освещенности объекта с растянутыми краями и Y-, U- и V-гистограммы () обрезанного изображения (5) объекта. Вычисление данных гистограмм может быть выполнено любым из известных в уровне техники способов. На этапе S125.4 предопределенная маска (35) поверхности объекта может быть скорректирована под обрезанное изображение (5) объекта путем удаления из маски (35) поверхности объекта светлых и темных участков обрезанного изображения (5) объекта, которые определяются соответствующими пороговыми значениями яркости. Для этого, в одном варианте осуществления настоящего изобретения, корректируют маску поверхности объекта для получения скорректированной маски поверхности объекта, при этом:
Предопределенная маска (35) поверхности объекта представляет собой бинарную маску поверхности объекта, построенную путем закрашивания всех областей, находящихся внутри выпуклого многоугольника, образованного ключевыми точками объекта. Предопределенная маска (35) поверхности объекта используется для нахождения области изображения, содержащей поверхность объекта. Удаление светлых и темных участков обрезанного изображения (5) объекта из маски (35) поверхности объекта выполняют для того, чтобы исключить участки поверхности объекта, содержащие недостоверную информацию об освещенности и цвете объекта. Соответствующие пороговые значениями яркости для удаления из маски (35) поверхности объекта светлых и темных участков могут быть определены эмпирически.
[0026] В одном варианте осуществления настоящего изобретения маска (35) поверхности объекта может быть сформирована на основе ключевых точек L объекта посредством создания маски лицевой поверхности объекта с использованием ключевых точек L объекта за исключением ключевых точек, которые соответствуют бровям, рту и носу. Затем по сформированной маске лицевой поверхности и обрезанному изображению (5) объекта может выть проведена оценка цветового коэффициента. Эта оценка может быть проведена посредством создания пробной маски поверхности объекта, которая является маской лицевой поверхности, из которой удалено все, что находится ниже носа и выше бровей, сглаживания изображения лицевой поверхности объекта с помощью усредняющего квадратного фильтра, имеющего размер 5, но без ограничения этим конкретным значением, и вычисления цветового коэффициента согласно следующему:
Область поверхности объекта, определяющая искомую маску (35) поверхности объекта, в результате может быть найдена следующим образом: .
В варианте осуществления настоящего изобретения, когда объектом является произвольный объект, а не лицо, маска (35) поверхности такого объекта, т.е. бинарная маска поверхности объекта, может быть предопределена путем закрашивания всех областей, находящихся внутри выпуклого многоугольника, образованного ключевыми точками, предопределенными для такого произвольного объекта, представляющего интерес.
[0027] На этапе S125.5 из полученных U- и V- гистограмм растеризованной модели (30) освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения (5) объекта могут быть удалены значения, которые попали в удаленные светлые и темные участки обрезанного изображения (5) объекта, определяемые скорректированной маской поверхности объекта. Другими словами, на данном этапе S125.5 из UV-гистограмм удаляют нулевые пиксели в и осуществляют эквализацию гистограмм. Удаление значении, которые попали в удаленные светлые и темные участки обрезанного изображения (5) объекта, из полученных Y-, U- и V- гистограмм выполняют для того, чтобы исключить области поверхности объекта, содержащие недостоверную информацию об освещенности и цвете объекта.
[0028] На этапе S125.6 яркость, контраст и цвет растеризованной модели (30) освещенности объекта с растянутыми краями могут быть скорректированы посредством оценки Y-гистограмм обрезанного изображения (5) объекта и растеризованной модели (30) освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм тех же самых изображений, т.е. изображения растеризованной модели (30) освещенности объекта с растянутыми краями и обрезанного изображения (5) объекта, для формирования модели (40) адаптированной освещенности объекта, обеспечивающей перекрашенную освещенность. Вышеупомянутое применение подвергнутых эквализации U- и V-гистограмм для формирования модели (40) адаптированной освещенности объекта содержит использование их значений для модификации цветов изображения модели освещенности. Другими словами, для формирования модели (40) адаптированной освещенности объекта, в одном варианте осуществления настоящего изобретения яркость регулируют и подвергнутые эквализации U- и V-гистограммы применяют согласно следующему:
[0029] Этапы S125.2-S125.6 также обеспечивают более легкую врисовку изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений. Кроме того, этапы S125.2-S125.6 адаптируют целевую модель освещенности под яркость и цвет конкретного входного изображения объекта, что позволяет получить модель (40) адаптированной освещенности объекта, которая обеспечивает реалистичную скорректированную освещенность, при которой уникальные особенности объекта будут сохранены на изображении объекта, получаемом в результате выполнения раскрытого способа, которое будет врисовываться в соответствующее изображение в последовательности изображений.
[0030] На этапе S125.7 на сформированной модели (40) адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта, могут быть сглажены. Другими словами, в одном варианте осуществления настоящего изобретения blobs-компоненты объекта могут быть сглажены на данном этапе S125.7 согласно следующему:
представляет собой модель (40) адаптированной освещенности объекта со сглаженными blobs-компонентами объекта. представляют собой усредняющие квадратные фильтры, имеющие размеры , соответственно. Под blobs-компонентами объекта в настоящей заявке понимаются области определенные заранее размеченными ключевыми точками объекта, соответствующие высоко текстурированным областям, например, глаза, рот, брови, кончик носа и т.д. В варианте осуществления настоящего изобретения, в котором объектом является лицо, blobs-компоненты содержат, но без ограничения упомянутым, брови, глаза, нос и рот. Упомянутое сглаживание выполняется для того, чтобы предотвратить удаление blobs-компонентов на последующем этапе врисовки изображения со скорректированной освещенностью в исходную последовательность изображений. Пример сформированной модели (40) адаптированной освещенности объекта со сглаженными участками, заданными предопределенными blobs-компонентами объекта, проиллюстрирован на фигуре 12.
[0031] На этапе S130 фактическая I (70) освещенность объекта на изображении может быть извлечена. Подробности данного этапа S130 проиллюстрированы на фигуре 4. Целью этапа S130 является извлечение фактической освещенности объекта, используя фильтр быстрого глобального сглаживания (FGS), сохраняющий края объекта, который выявляет низкочастотные яркостные переходы и сохраняет резкие тени, подлежащие последующему удалению на этапе врисовки изображения со скорректированной освещенностью в исходную последовательность изображений. На этапе S130.1 по ключевым точкам L объекта и маске (35) поверхности объекта могут быть обнаружены blobs-компоненты (50) объекта и на обрезанном изображении (5) объекта могут быть обнаружены яркостные переходы (55) объекта, при этом обнаруженные blobs-компоненты (50) объекта и яркостные переходы (55) объекта составляют особенности (45) объекта. Яркостные переходы (55) объекта определяют уникальные свойства объекта. В варианте осуществления, в котором объектом является лицо, blobs-компоненты (50) содержат, но без ограничения упомянутым, брови, глаза, нос и рот. Для удобства и ускорения дальнейшей обработки blobs-компонентов (50) объекта, на данном этапе S130.1 из blobs-компонентов (50) объекта может быть дополнительно сформирована маска blobs-компонентов объекта. В варианте осуществления настоящего изобретения, в котором дополнительно формируют маску blobs-компонентов объекта, получаемая в результате маска blobs-компонентов объекта может содержать по аналогии с самими blobs-компонентами (50) объекта, но без ограничения упомянутым, брови, глаза, нос и рот. Обнаружение яркостных переходов (55) объекта на данном этапе S130.1 может быть выполнено согласно следующему:
где
[0032] На этапе S130.2 на основе обнаруженных особенностей (45) объекта может быть сформирована λ-карта (60), представляющая по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию. Формирование λ-карты (60) на данном этапе S130.2 может быть выполнено следующим образом:
Пример обнаруженных особенностей (45) объекта, т.е. blobs-компонентов (50) объекта и яркостных переходов (55) объекта, а также формируемой на их основе λ-карты (60) для обрезанного изображения (5) объекта проиллюстрирован на фигуре 13.
[0033] На этапе S130.3 быстрое глобальное сглаживание (FGS), учитывающее особенности (45) объекта, может быть проведено посредством применения FGS-фильтра (65) с λ-картой (60) к обрезанному изображению (5) объекта для извлечения фактической освещенности (70) объекта на изображении. Фактическая освещенность (70) объекта может быть представлена в форме отдельного изображения I фактической освещенности объекта. На данном этапе S130.3 быстрое глобальное сглаживание (FGS), учитывающее особенности (45) объекта, может быть проведено посредством решения проблемы оптимизации с использованием подхода с, но без ограничения упомянутым, FGS-фильтром (или аналогичным) для извлечения фактической I (70) освещенность объекта:
В качестве примера, реализация данного этапа описана в документе [1] Min et al. "Fast global image smoothing based on weighted least squares." IEEE Transactions on Image Processing 23.12 (2014): 5638-5653. Пример результатов проведения быстрого глобального сглаживания (FGS), учитывающего особенности (45) объекта, проиллюстрирован на фигуре 14.
[0034] На этапе S135 фактическая освещенность I (70) объекта на изображении (5) может быть заменена адаптированной освещенностью объекта, определенной моделью (40) адаптированной освещенности объекта. Подробности данного этапа S135 проиллюстрированы на фигуре 5. Целью данного этапа является корректировка освещенности объекта на изображении и врисовка переосвещенного объекта в текущее изображение (кадр) в последовательности изображений (видео) с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта. Данный этап позволяет провести стабилизированную врисовку переосвещенного изображения объекта в исходный видеокадр на основе сформированной маски (35) поверхности объекта, фильтра стабилизированного FGS и блока проверки на ошибки. Этот этап S135 обеспечивает возможность беспрерывной видеообработки в режиме реального времен без заметного мерцания и артефактов, связанных с критическими углами поворота лицевой поверхности объекта на изображении. Кроме того, этот этап S135 обеспечивает улучшенную производительность раскрытого способа корректировки освещенности вследствие легковесного алгоритма врисовки, который позволяет использовать раскрытый в заявке способ даже на мобильном устройстве с ограниченными вычислительными мощностями для обработки видео в режиме реального времени.
[0035] На этапе S135.1 cформированная маска (35) поверхности объекта, определяемая областью поверхности объекта, может быть принята/введена. На этапе S135.2 стабилизированное FGS может быть проведено посредством применения фильтра стабилизированного FGS к маске (35) поверхности объекта путем решения следующей проблемы оптимизации (обратной задачи) с регуляризатором:
для нахождения , решение которой может быть найдено в замкнутой матричной форме (см. вышеуказанный документ [1]):
[0036] Более конкретно, решение проблемы оптимизации с регуляризатором может содержать: добавление регуляризатора к маске поверхности объекта - может быть равно 0,8, но без ограничения данным конкретным значением; применение фильтра стабилизированного FGS посредством решения вышеуказанной проблемы (1) для получения ; обновление разностной карты - ; обновление маски поверхности объекта ; нормализацию маски для получения сглаженной маски .
[0037] На этапе S135.3 вероятность некорректного обнаружения ключевых точек объекта может быть оценена с помощью признаков объекта, представленного в текущем обрабатываемом изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек. Этап обучения машины опорных векторов (SVM) на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек, может быть проведен заблаговременно. Обучение SVM может быть проведено любым известным из уровня техники способом. Вероятность некорректного обнаружения ключевых точек объекта может быть оценена посредством применения к некоторым особенностям X текущего изображения предварительно обученной SVM.
[0038] На этапе S135.4 адаптированная освещенность объекта, определенная моделью адаптированной освещенности объекта, может врисовываться в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта. В одном варианте осуществления данная врисовка может быть осуществлена согласно следующему:
где
представляет собой результат врисовки изображения адаптированная освещенность объекта в исходное изображение ,
представляет собой карту яркостных переходов объекта, представляющую уникальные особенности данного объекта;
представляет собой модель (40) адаптированной освещенности объекта со сглаженными blobs-компонентами объекта;
I представляет собой изображение фактической освещенности объекта.
Данный этап врисовки выполняется для удаления резких теней объекта с сохранением уникальных особенностей объекта. Резкие тени удаляются за счет применения Ламбертовской модели с заменой фактической освещенности объекта адаптированной освещенностью, при этом уникальные особенности объекта сохраняются за счет применения на данном этапе карты яркостных переходов объекта, которые должны быть сохранены. На этапе S140 изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта, может быть выведено.
[0039] На фигуре 7 проиллюстрирована блок-схема вычислительного устройства/мобильного устройства (75) пользователя. Устройство (75), на котором может быть реализован раскрытый выше способ, может содержать, но без ограничения упомянутым, процессор (75.1), камеру (75.2) и память (75.3), хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение любого этапа(этапов) раскрытого способа корректировки освещенности объекта. Устройство (75) может содержать другие не показанные на фигуре 15 компоненты и представлять собой, например, смартфон, планшет, очки виртуальной реальности, очки дополненной реальности, ПК, ноутбук, умные часы и т.д. В альтернативном варианте осуществления вычислительного устройства/мобильного устройства (75) пользователя, упомянутое устройство может содержать отдельные аппаратные блоки. В этом варианте осуществления, каждый аппаратный блок может отвечать за выполнение соответствующего этапа или подэтапа способа и именоваться соответствующим образом, например, аппаратный блок устройства, ответственный за введение изображения (см. этап S100) может именоваться блок ввода изображения и т.д. Однако, заявленное изобретение не следует ограничивать только такой структурой блоков, поскольку специалисту будут понятны другие возможные структуры блоков в устройстве, при которых, в качестве примера, один аппаратный блок может отвечать за выполнение нескольких этапов или подэтапов раскрытого способа, или выполнение нескольких этапов или подэтапов раскрытого способа может быть разделено между двумя или более блоками. Кроме того, способ, раскрытый в данной заявке, может быть реализован посредством процессора, интегральной схемы специального назначения (ASIC), программируемой пользователем вентильной матрицы (FPGA), или - в некоторых вариантах осуществления - как система на кристалле (SoC). Кроме того, способ, раскрытый в данной заявке, может быть реализован посредством считываемого компьютером носителя, на котором хранятся исполняемые компьютером инструкции, которые, при исполнении процессором компьютера, побуждают компьютер к выполнению раскрытого способа.
[0040] Используемые в данной заявке ссылочные позиции не следует интерпретировать как однозначно определяющие последовательность этапов, поскольку, после ознакомления с вышеуказанным раскрытием, специалисту станут понятны другие модифицированные последовательности вышеописанных этапов. Ссылочные позиции использовались в этом описании и используются в нижеследующей формуле лишь в качестве сквозного указателя на соответствующий элемент заявки, который облегчает ее восприятие и гарантирует соблюдение единства терминологии.
[0041] Хотя данное изобретение было описано с определенной степенью детализации, следует понимать, что настоящее раскрытие было сделано только в качестве иллюстрации и что к многочисленным изменениям в деталях конструкций, компоновке частей устройства или этапов и содержания способов можно прибегать, не выходя за рамки объема изобретения, который определяется нижеследующей формулой изобретения.
Промышленная применимость
[0042] Настоящее изобретение может применяться в промышленности для корректировки освещенности объекта на изображении в видеопоследовательности. Могут быть созданы различные устройства, средства, блоки, микросхемы, которые эту корректировку реализуют. Кроме того, упомянутая корректировка может быть обеспечена как новая функциональная возможность существующих на данный момент приложений/устройств.
Список позиционных обозначений
10 - заданный вектор направления света
15 - трехмерный каркас объекта
20 - базовая текстура объекта
25 - растеризованная модель освещенности объекта
30 - растеризованная модель освещенности объекта с растянутыми краями
35 - маска поверхности объекта
40 - модель адаптированной освещенности объекта
45 - особенности объекта
50 - blobs-компоненты
55 - яркостные переходы объекта
60 - λ-карта объекта
65 - FGS-фильтр
70 - фактическая освещенность объекта
Claims (41)
1. Способ корректировки освещенности объекта на изображении в последовательности изображений, содержащий этапы, на которых:
вводят (S100) изображение и получают заданный вектор направления света;
обнаруживают (S105) ключевые точки объекта и особенности изображения;
обрезают изображение (S110) по ключевым точкам объекта для получения изображения объекта;
преобразуют (S115) изображение объекта в формат с яркостной и цветоразностными компонентами (YUV);
создают (S120) модель освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света;
формируют (S125) модель адаптированной освещенности объекта;
извлекают (S130) фактическую освещенность объекта на изображении;
заменяют (S135) фактическую освещенность объекта на изображении адаптированной освещенностью объекта, определенной моделью адаптированной освещенности объекта; и
выводят (S140) изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта.
2. Способ по п. 1, в котором этап формирования (S125) модели адаптированной освещенности объекта содержит этапы, на которых:
растягивают (S125.1) края растеризованной модели освещенности объекта до краев обрезанного изображения объекта;
вычисляют (S125.2) Y-, U- и V-гистограммы растеризованной модели освещенности объекта с растянутыми краями;
вычисляют (S125.3) Y-, U- и V-гистограммы обрезанного изображения объекта;
корректируют (S125.4) предопределенную маску поверхности объекта под обрезанное изображение объекта путем удаления из маски поверхности объекта светлых и темных участков обрезанного изображения объекта, которые определяются соответствующими пороговыми значениями яркости;
удаляют (S125.5) из полученных U- и V-гистограмм растеризованной модели освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения объекта значения, которые попали в удалённые светлые и темные участки обрезанного изображения объекта, и осуществляют эквализацию упомянутых U- и V-гистограмм;
корректируют (S125.6) яркость, контраст и цвет растеризованной модели освещенности объекта с растянутыми краями посредством оценки Y-гистограмм обрезанного изображения объекта и растеризованной модели освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм для формирования модели адаптированной освещенности объекта и
сглаживают (S125.7) на сформированной модели адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта.
3. Способ по п. 2, в котором маску поверхности объекта формируют на основе ключевых точек объекта посредством создания маски лицевой поверхности объекта, оценки цветового коэффициента по обрезанному изображению объекта и нахождения области поверхности объекта.
4. Способ по любому из пп. 1-3, в котором заданным вектором направления света является вектор направления света по умолчанию или предопределенный пользователем вектор направления света;
объектом является лицо;
поверхностью объекта является кожа лица;
blobs-компоненты содержат брови, глаза, нос и рот.
5. Способ по п. 1, в котором этап извлечения (S130) фактической освещенности объекта на изображении содержит этапы, на которых:
обнаруживают (S130.1) по ключевым точкам объекта и маске поверхности объекта blobs-компоненты объекта и обнаруживают яркостные переходы объекта на обрезанном изображении объекта, при этом обнаруженные blobs-компоненты объекта и яркостные переходы объекта составляют особенности объекта;
формируют (S130.2) на основе обнаруженных особенностей объекта λ-карту, представляющую по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию; и
проводят (S130.3) учитывающее особенности объекта быстрое глобальное сглаживание (FGS), применяя FGS-фильтр с λ-картой к обрезанному изображению объекта, для извлечения фактической освещенности объекта на изображении.
6. Способ по п. 1 или 3, в котором этап замены (S135) фактической освещенности объекта на изображении адаптированной освещенностью объекта содержит этапы, на которых:
принимают (S135.1) сформированную маску поверхности объекта;
проводят (S135.2) стабилизированное FGS, применяя фильтр стабилизированного FGS к сформированной маске поверхности объекта путем решения обратной задачи с регуляризатором, причем решение обратной задачи с регуляризатором содержит следующие подэтапы, на которых:
вычисляют значения регуляризатора с использованием сохранённых данных о сглаженной маске поверхности объекта, полученной для предыдущего изображения в последовательности изображений, и разностной карты;
применяют фильтр стабилизированного FGS к сформированной маске поверхности объекта с использованием регуляризатора, значения которого равны вычисленным значениям регуляризатора;
обновляют разностную карту путём попиксельного применения рекурсивного фильтра;
сохраняют сглаженную маску поверхности объекта для текущего изображения и
нормализуют значения сглаженной маски поверхности объекта для текущего изображения в диапазоне 0..1;
оценивают (S135.3) вероятности некорректного обнаружения ключевых точек объекта с помощью признаков объекта, представленного в текущем изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек; и
врисовывают (S135.4) адаптированную освещенность объекта, определенную моделью адаптированной освещенности объекта, в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта.
7. Способ по п. 1, в котором этап создания (S120) модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, содержит этапы, на которых:
подгоняют (S120.1) общий трехмерный каркас объекта под обнаруженные ключевые точки объекта, представленного на текущем изображении в последовательности изображений; и
осуществляют рендеринг (S120.2) трехмерной модели объекта c использованием трехмерного каркаса объекта, подогнанного под ключевые точки объекта, заданного вектора направления света и общей текстуры поверхности объекта для получения растеризованной модели освещенности объекта.
8. Вычислительное устройство (75) пользователя для корректировки освещенности объекта на изображении в последовательности изображений, содержащее процессор (75.1), камеру (75.2) и память (75.3), хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение способа корректировки освещенности объекта на изображении в последовательности изображений по любому из пп. 1-7.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018128206A RU2697627C1 (ru) | 2018-08-01 | 2018-08-01 | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ |
US16/524,671 US11238302B2 (en) | 2018-08-01 | 2019-07-29 | Method and an apparatus for performing object illumination manipulation on an image |
PCT/KR2019/009562 WO2020027584A1 (en) | 2018-08-01 | 2019-07-31 | Method and an apparatus for performing object illumination manipulation on an image |
EP19844746.8A EP3776348A4 (en) | 2018-08-01 | 2019-07-31 | METHOD AND DEVICE FOR PERFORMING OBJECT LIGHTING MANIPULATION ON AN IMAGE |
CN201980044340.5A CN112384928A (zh) | 2018-08-01 | 2019-07-31 | 对图像执行对象照明操纵的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018128206A RU2697627C1 (ru) | 2018-08-01 | 2018-08-01 | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2697627C1 true RU2697627C1 (ru) | 2019-08-15 |
Family
ID=67640637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2018128206A RU2697627C1 (ru) | 2018-08-01 | 2018-08-01 | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ |
Country Status (5)
Country | Link |
---|---|
US (1) | US11238302B2 (ru) |
EP (1) | EP3776348A4 (ru) |
CN (1) | CN112384928A (ru) |
RU (1) | RU2697627C1 (ru) |
WO (1) | WO2020027584A1 (ru) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
KR20200084164A (ko) * | 2019-01-02 | 2020-07-10 | 엘지이노텍 주식회사 | 사육장 환경 관리 장치 |
CN112183551A (zh) * | 2019-07-02 | 2021-01-05 | 佳能株式会社 | 光照颜色预测方法、图像处理方法、装置及存储介质 |
US11461970B1 (en) * | 2021-03-15 | 2022-10-04 | Tencent America LLC | Methods and systems for extracting color from facial image |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007685A1 (en) * | 2001-04-26 | 2003-01-09 | Yao-Hong Tsai | Methods and system for illuminant-compensation |
US7227977B1 (en) * | 2003-01-10 | 2007-06-05 | L-I Identity Solutions, Inc. | Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions |
US7324688B2 (en) * | 2005-02-14 | 2008-01-29 | Mitsubishi Electric Research Laboratories, Inc. | Face relighting for normalization of directional lighting |
US7433807B2 (en) * | 2000-08-30 | 2008-10-07 | Microsoft Corporation | Facial image processing |
US20090003661A1 (en) * | 2007-02-28 | 2009-01-01 | Fotonation Vision Limited | Separating a Directional Lighting Variability In Statistical Face Modelling Based On Texture Space Decomposition |
CN101425179A (zh) * | 2008-11-18 | 2009-05-06 | 清华大学 | 一种人脸图像重光照的方法及装置 |
RU2402811C2 (ru) * | 2004-07-29 | 2010-10-27 | Майкрософт Корпорейшн | Обработка изображений с помощью линейных параметров светоустановки и других усовершенствований обработки изображений |
US9858654B2 (en) * | 2013-08-02 | 2018-01-02 | Anthropics Technology Limited | Image manipulation |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6028960A (en) | 1996-09-20 | 2000-02-22 | Lucent Technologies Inc. | Face feature analysis for automatic lipreading and character animation |
US6950104B1 (en) | 2000-08-30 | 2005-09-27 | Microsoft Corporation | Methods and systems for animating facial features, and methods and systems for expression transformation |
US6774869B2 (en) | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
KR100399286B1 (ko) | 2001-03-20 | 2003-09-26 | 주식회사 디엔엠 테크놀로지 | 상품 색상 변경 방법 및 시스템 |
EP1495437B1 (en) | 2002-04-12 | 2008-12-03 | Agency for Science, Technology and Research | Robust face registration via multiple face prototypes synthesis |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US20110102553A1 (en) | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
US7609860B2 (en) | 2005-06-14 | 2009-10-27 | Mitsubishi Electric Research Laboratories, Inc. | Bilinear illumination model for robust face recognition |
US8090161B2 (en) | 2006-06-19 | 2012-01-03 | Christiane Kaplan | Systems and method for signature verification |
KR100876786B1 (ko) | 2007-05-09 | 2009-01-09 | 삼성전자주식회사 | 조명 마스크를 이용하는 사용자 얼굴 검증 시스템 및 방법 |
US8009880B2 (en) | 2007-05-11 | 2011-08-30 | Microsoft Corporation | Recovering parameters from a sub-optimal image |
KR100897385B1 (ko) | 2007-06-27 | 2009-05-14 | 성균관대학교산학협력단 | 조명 정규화 방법 및 장치 |
US8090160B2 (en) | 2007-10-12 | 2012-01-03 | The University Of Houston System | Automated method for human face modeling and relighting with application to face recognition |
US8064653B2 (en) | 2007-11-29 | 2011-11-22 | Viewdle, Inc. | Method and system of person identification by facial image |
US9017080B1 (en) | 2008-08-29 | 2015-04-28 | Otto J. Placik | System and method for teaching injection techniques of the human head and face |
EP2339534A1 (en) * | 2009-11-18 | 2011-06-29 | Panasonic Corporation | Specular reflection compensation |
US8315461B2 (en) | 2010-01-25 | 2012-11-20 | Apple Inc. | Light source detection from synthesized objects |
KR101643612B1 (ko) | 2010-01-29 | 2016-07-29 | 삼성전자주식회사 | 촬영 방법 및 장치와 그 기록 매체 |
US8447098B1 (en) | 2010-08-20 | 2013-05-21 | Adobe Systems Incorporated | Model-based stereo matching |
US8792679B2 (en) | 2011-09-09 | 2014-07-29 | Imprivata, Inc. | Low-light face detection |
CN102509346A (zh) * | 2011-09-30 | 2012-06-20 | 北京航空航天大学 | 基于边缘保持的对象光照迁移方法 |
CN102360513B (zh) * | 2011-09-30 | 2013-02-06 | 北京航空航天大学 | 基于梯度操作的对象光照迁移方法 |
KR102357340B1 (ko) * | 2014-09-05 | 2022-02-03 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
US20160070952A1 (en) * | 2014-09-05 | 2016-03-10 | Samsung Electronics Co., Ltd. | Method and apparatus for facial recognition |
EP3259704B1 (en) | 2015-02-16 | 2023-08-23 | University Of Surrey | Three dimensional modelling |
US9232189B2 (en) | 2015-03-18 | 2016-01-05 | Avatar Merger Sub Ii, Llc. | Background modification in video conferencing |
US9679192B2 (en) | 2015-04-24 | 2017-06-13 | Adobe Systems Incorporated | 3-dimensional portrait reconstruction from a single photo |
US10395421B2 (en) | 2015-07-21 | 2019-08-27 | Dolby Laboratories Licensing Corporation | Surround ambient light sensing, processing and adjustment |
KR102459851B1 (ko) * | 2015-09-17 | 2022-10-28 | 삼성전자주식회사 | 이미지의 밝기를 조절하는 방법 및 장치 |
US9922452B2 (en) * | 2015-09-17 | 2018-03-20 | Samsung Electronics Co., Ltd. | Apparatus and method for adjusting brightness of image |
GB2543775B (en) * | 2015-10-27 | 2018-05-09 | Imagination Tech Ltd | System and methods for processing images of objects |
JP6786850B2 (ja) * | 2016-04-07 | 2020-11-18 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US10521892B2 (en) * | 2016-08-31 | 2019-12-31 | Adobe Inc. | Image lighting transfer via multi-dimensional histogram matching |
CN107506714B (zh) * | 2017-08-16 | 2021-04-02 | 成都品果科技有限公司 | 一种人脸图像重光照的方法 |
-
2018
- 2018-08-01 RU RU2018128206A patent/RU2697627C1/ru active
-
2019
- 2019-07-29 US US16/524,671 patent/US11238302B2/en active Active
- 2019-07-31 CN CN201980044340.5A patent/CN112384928A/zh active Pending
- 2019-07-31 WO PCT/KR2019/009562 patent/WO2020027584A1/en unknown
- 2019-07-31 EP EP19844746.8A patent/EP3776348A4/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7433807B2 (en) * | 2000-08-30 | 2008-10-07 | Microsoft Corporation | Facial image processing |
US20030007685A1 (en) * | 2001-04-26 | 2003-01-09 | Yao-Hong Tsai | Methods and system for illuminant-compensation |
US7227977B1 (en) * | 2003-01-10 | 2007-06-05 | L-I Identity Solutions, Inc. | Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions |
RU2402811C2 (ru) * | 2004-07-29 | 2010-10-27 | Майкрософт Корпорейшн | Обработка изображений с помощью линейных параметров светоустановки и других усовершенствований обработки изображений |
US7324688B2 (en) * | 2005-02-14 | 2008-01-29 | Mitsubishi Electric Research Laboratories, Inc. | Face relighting for normalization of directional lighting |
US20090003661A1 (en) * | 2007-02-28 | 2009-01-01 | Fotonation Vision Limited | Separating a Directional Lighting Variability In Statistical Face Modelling Based On Texture Space Decomposition |
US8582896B2 (en) * | 2007-02-28 | 2013-11-12 | DigitalOptics Corporation Europe Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
CN101425179A (zh) * | 2008-11-18 | 2009-05-06 | 清华大学 | 一种人脸图像重光照的方法及装置 |
US9858654B2 (en) * | 2013-08-02 | 2018-01-02 | Anthropics Technology Limited | Image manipulation |
Also Published As
Publication number | Publication date |
---|---|
EP3776348A1 (en) | 2021-02-17 |
WO2020027584A1 (en) | 2020-02-06 |
EP3776348A4 (en) | 2021-06-09 |
CN112384928A (zh) | 2021-02-19 |
US11238302B2 (en) | 2022-02-01 |
US20200042820A1 (en) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106022221B (zh) | 一种图像处理方法及处理系统 | |
CN106778928B (zh) | 图像处理方法及装置 | |
CN107771336B (zh) | 基于颜色分布的图像中的特征检测和掩模 | |
RU2697627C1 (ru) | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ | |
CN108229276B (zh) | 神经网络训练及图像处理方法、装置和电子设备 | |
Zhu et al. | Estimating spatially varying defocus blur from a single image | |
CN111383232B (zh) | 抠图方法、装置、终端设备及计算机可读存储介质 | |
CN109815881A (zh) | 行为识别模型的训练方法、行为识别方法、装置及设备 | |
US20240212161A1 (en) | Foreground data generation method and method for applying same, related apparatus, and system | |
Luan et al. | Fast single image dehazing based on a regression model | |
CN111489322B (zh) | 给静态图片加天空滤镜的方法及装置 | |
CN113436284B (zh) | 一种图像处理方法、装置、计算机设备和存储介质 | |
CN114170227B (zh) | 产品表面缺陷检测方法、装置、设备及存储介质 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
WO2009120830A1 (en) | Methods and apparatus for visual sub-band decomposition of signals | |
CN113592776A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
US20190197204A1 (en) | Age modelling method | |
CN112308944A (zh) | 仿真唇妆的扩增实境显示方法 | |
CN106530309A (zh) | 一种基于移动平台的视频抠图方法及系统 | |
CN111179287A (zh) | 人像实例分割方法、装置、设备及存储介质 | |
CN110738678B (zh) | 脸部细纹检测方法、装置、电子设备及可读存储介质 | |
US20220398704A1 (en) | Intelligent Portrait Photography Enhancement System | |
Khan et al. | A deep hybrid few shot divide and glow method for ill-light image enhancement | |
CN113379623B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111754431A (zh) | 一种图像区域替换方法、装置、设备及存储介质 |