[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

RU2697627C1 - Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ - Google Patents

Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ Download PDF

Info

Publication number
RU2697627C1
RU2697627C1 RU2018128206A RU2018128206A RU2697627C1 RU 2697627 C1 RU2697627 C1 RU 2697627C1 RU 2018128206 A RU2018128206 A RU 2018128206A RU 2018128206 A RU2018128206 A RU 2018128206A RU 2697627 C1 RU2697627 C1 RU 2697627C1
Authority
RU
Russia
Prior art keywords
image
illumination
model
key points
mask
Prior art date
Application number
RU2018128206A
Other languages
English (en)
Inventor
Сергей Станиславович Завалишин
Владимир Геннадьевич КУРМАНОВ
Артем Сергеевич Мигукин
Иван Олегович КАРАЧАРОВ
Алексей Михайлович ГРУЗДЕВ
Дмитрий Валерьевич ПОЛУБОТКО
Илья Васильевич Курилин
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2018128206A priority Critical patent/RU2697627C1/ru
Priority to US16/524,671 priority patent/US11238302B2/en
Priority to PCT/KR2019/009562 priority patent/WO2020027584A1/en
Priority to EP19844746.8A priority patent/EP3776348A4/en
Priority to CN201980044340.5A priority patent/CN112384928A/zh
Application granted granted Critical
Publication of RU2697627C1 publication Critical patent/RU2697627C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/44Colour synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Изобретение относится к вычислительной технике. Технический результат – повышение эффективности и качества обработки изображений в последовательности изображений в реальном масштабе времени. Способ корректировки освещенности объекта на изображении в последовательности изображений содержит ввод изображения, получение заданного вектора направления света, обнаружение ключевых точек объекта и особенностей изображения, обрезание изображения по ключевым точкам объекта для получения изображения объекта, преобразование изображения объекта в формат с яркостной и цветоразностными компонентами (YUV), создание модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, формирование модели адаптированной освещенности объекта, извлечение фактической освещенности объекта на изображении, замену фактической освещенности объекта на изображении адаптированной освещенностью объекта и вывод изображения в последовательности изображений. 2 н. и 6 з.п. ф-лы, 14 ил.

Description

Область техники
[0001] Настоящее изобретение относится к области корректировки освещенности объектов на изображениях, и более конкретно к способу корректировки освещенности объекта на изображении в последовательности изображений и вычислительному устройству пользователя, реализующему упомянутый способ.
Уровень техники
[0002] В уровне техники известны различные способы корректировки освещенности объекта на изображении. Такие способы, как правило, включают в себя этапы (см. фигуру 1), на которых: вводят изображение объекта, обнаруживают ключевые точки объекта, извлекают текстуру и освещение объекта, корректируют освещение объекта, смешивают текстуру и скорректированное освещение объекта, применяют смешанные текстуру и скорректированное освещение объекта к изображению объекта.
[0003] В патенте США US 7,324,688 B2 (29.01.2008, MITSUBISHI ELECTRIC RESEARCH LABORATORIES, INC), озаглавленном «Face relighting for normalization of directional lighting», раскрыт способ корректировки освещенности, использующий алгоритм поблочной оптимизации для извлечения карт текстуры и освещенности для дальнейшей нормализации освещенности лица. Главным недостатком раскрытого в патенте `688 подхода является изменение уникальных лицевых особенностей в результате применения такого способа корректировки освещенности к изображению лица. В силу этого лицо на изображении, которое подвергнуто такому способу корректировки освещенности, начинает походить на среднестатистическое лицо, использованное для такой корректировки освещенности.
[0004] Другой патент США US 8,582,896 B2 (12.11.2013, DIGITALOPTICS CORPORATION EUROPE LIMIT и др.), озаглавленный «Separating directional lighting variability in statistical face modelling based on texture space decomposition», раскрывает способ разложения изображения на текстуру и освещенность с использованием базовой лицевой модели, созданной проекциями метода главных компонент (PCA) в подпространство с равномерным распределением света, обученное на базе данных произвольных изображений. Данный документ может быть рассмотрен в качестве документа ближайшего уровня техники. Согласно тексту самого патента `896 раскрытый в нем подход способен удалять освещенность лишь до некоторой степени. Кроме того, раскрытый в патенте `896 подход не в состоянии удалить цветную освещенность и не предназначен для обработки лицевых изображений в высоком разрешении.
[0005] Другой патент США US 7,433,807 B2 (07.10.2008, MICROSOFT CORPORATION), озаглавленный «Facial image processing», раскрывает способ обработки лицевых изображений, который использует несколько вспышек для создания трехмерной лицевой модели и отделения текстуры от освещенности на основе нормалей этой трехмерной модели. Раскрытый в патенте `807 подход требует большого количества оборудования, которое внедрить в вычислительное устройство пользователя не представляется возможным. Кроме того, описанный в патенте `807 алгоритм вынужден анализировать несколько разных изображений, что приводит в результате к интенсивным вычислениям, реализация которых не может быть осуществлена в реальном масштабе времени.
[0006] Еще один патент США US 9,858,654 B2 (02.01.2018, ANTHROPICS TECHNOLOGY LIMITED), озаглавленный «Image manipulation», раскрывает способ обработки изображений, который формирует основанную на PCA двумерную модель, которая сливается с исходным лицевым изображением, для получения в результате изображения с новой освещенностью, которой управляют на основе PCA-коэффициентов. Раскрытый в патенте `654 подход не в состоянии удалять резкие тени и приводит в результате своей работы к изменению уникальных лицевых особенностей лица на изображении. Кроме того, предложенный в патенте `654 подход является достаточно медленным (согласно работе соответствующей программы PortraitPro) и не может быть осуществлен в реальном масштабе времени.
[0007] Различные другие реализации известны в данной области техники, но, насколько можно разумно установить из их доступной документации, эти реализации не могут адекватно решить все вышеуказанные проблемы, решаемые описанным в данной заявке изобретением.
Проблемы, решаемые настоящим изобретением
[0008] Таким образом, в решениях уровня техники существует ряд следующих проблем, требующих эффективного решения: отсутствие возможности обработки изображений высокого разрешения в реальном масштабе времени, отсутствие дополнительной стабилизации для видеообработки, отсутствие возможности обработки цветной освещенности, непреднамеренное изменение уникальных особенностей объекта на изображении и отсутствие обработки резких теней на изображении.
Средства решения проблем
[0009] В первом аспекте настоящего изобретения обеспечен способ корректировки освещенности объекта на изображении в последовательности изображений, содержащий этапы, на которых: вводят изображение и получают заданный вектор направления света; обнаруживают ключевые точки объекта и особенности изображения; обрезают изображение по ключевым точкам объекта для получения изображения объекта; преобразуют изображение объекта в формат с яркостной и цветоразностными компонентами (YUV); создают модель освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света; формируют модель адаптированной освещенности объекта; извлекают фактическую освещенность объекта на изображении; заменяют фактическую освещенность объекта на изображении адаптированной освещенностью объекта, определенной моделью адаптированной освещенности объекта; и выводят изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта.
[0010] В упомянутом способе этап формирования модели адаптированной освещенности объекта содержит этапы, на которых: растягивают края растеризованной модели освещенности объекта до краев обрезанного изображения объекта; вычисляют Y-, U- и V-гистограммы растеризованной модели освещенности объекта с растянутыми краями; вычисляют Y-, U- и V-гистограммы обрезанного изображения объекта; корректируют предопределенную маску поверхности объекта под обрезанное изображение объекта путем удаления из маски поверхности объекта светлых и темных участков обрезанного изображения объекта, которые определяются соответствующими пороговыми значениями яркости; удаляют из полученных U- и V- гистограмм растеризованной модели освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения объекта значения, которые попали в удаленные светлые и темные участки обрезанного изображения объекта, и осуществляют эквализацию упомянутых U- и V- гистограмм; корректируют яркость, контраст и цвет растеризованной модели освещенности объекта с растянутыми краями посредством оценки Y-гистограмм обрезанного изображения объекта и растеризованной модели освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм для формирования модели адаптированной освещенности объекта; и сглаживают на сформированной модели адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта.
[0011] В упомянутом способе маску поверхности объекта формируют на основе ключевых точек объекта посредством создания маски лицевой поверхности объекта, оценки цветового коэффициента по обрезанному изображению объекта и нахождения области поверхности объекта.
[0012] В упомянутом способе заданным вектором направления света является вектор направления света по умолчанию или предопределенный пользователем вектор направления света; объектом является лицо; поверхностью объекта является кожа лица; blobs-компоненты содержат брови, глаза, нос и рот.
[0013] В упомянутом способе этап извлечения фактической освещенности объекта на изображении содержит этапы, на которых: обнаруживают по ключевым точкам объекта и маске поверхности объекта blobs-компоненты объекта и обнаруживают яркостные переходы объекта на обрезанном изображении объекта, при этом обнаруженные blobs-компоненты объекта и яркостные переходы объекта составляют особенности объекта; формируют на основе обнаруженных особенностей объекта λ-карту, представляющую по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию; и проводят учитывающее особенности объекта быстрое глобальное сглаживание (FGS), применяя FGS-фильтр с λ-картой к обрезанному изображению объекта, для извлечения фактической освещенности объекта на изображении. Проведение учитывающего особенности объекта быстрого глобального сглаживания (FGS) позволяет удалить/сгладить резкие тени на изображении с сохранением уникальных особенностей объекта.
[0014] В упомянутом способе этап замены фактической освещенности объекта на изображении адаптированной освещенностью объекта содержит этапы, на которых: принимают сформированную маску поверхности объекта; проводят стабилизированное FGS, применяя фильтр стабилизированного FGS к сформированной маске поверхности объекта путем решения обратной задачи с регуляризатором, причем решение обратной задачи с регуляризатором содержит следующие подэтапы, на которых: вычисляют значения регуляризатора с использованием сохраненных данных о сглаженной маске поверхности объекта, полученной для предыдущего изображения в последовательности изображений, и разностной карты; применяют фильтр стабилизированного FGS к сформированной маске поверхности объекта с использованием регуляризатора, значения которого равны вычисленным значениям регуляризатора; обновляют разностную карту путем попиксельного применения рекурсивного фильтра; сохраняют сглаженную маску поверхности объекта для текущего изображения; и нормализуют значения сглаженной маски поверхности объекта для текущего изображения в диапазоне 0..1; оценивают вероятности некорректного обнаружения ключевых точек объекта с помощью признаков объекта, представленного в текущем изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек; и врисовывают адаптированную освещенность объекта, определенную моделью адаптированной освещенности объекта, в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта.
[0015] В упомянутом способе этап создания модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, содержит этапы, на которых: подгоняют общий трехмерный каркас объекта под обнаруженные ключевые точки объекта, представленного на текущем изображении в последовательности изображений; и осуществляют рендеринг трехмерной модели объекта c использованием трехмерного каркаса объекта, подогнанного под ключевые точки объекта, заданного вектора направления света и общей текстуры поверхности объекта для получения растеризованной модели освещенности объекта.
[0016] Во втором аспекте настоящего изобретения обеспечено вычислительное устройство пользователя или мобильное устройство, содержащее процессор, камеру и память, хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение способа корректировки освещенности объекта на изображении в последовательности изображений согласно вышеупомянутому первому аспекту настоящего изобретения.
Благоприятные эффекты настоящего изобретения
[0017] Предложенный в настоящей заявке способ позволяет сохранить уникальные особенности объекта на изображении и удалить резкие тени вследствие использования в нем учитывающего особенности объекта быстрого глобального сглаживания (FGS). Кроме того, предложенный в настоящей заявке способ позволяет осуществлять обработку цветной освещенности объектов и сохраняет уникальный цвет объекта за счет использования в нем модели адаптированной освещенности объекта. Дополнительно, предложенный в настоящей заявке способ выполнен с возможностью непрерывной видеообработки в реальном масштабе времени за счет использования в нем фильтра стабилизированного FGS. Таким образом, настоящим изобретением достигается повышение общей эффективности и качества обработки изображений в последовательности изображений в реальном масштабе времени, а сама обработка является пригодной для реализации на вычислительном устройстве пользователя или мобильном устройстве.
Краткое описание чертежей
[0018] Другие достоинства настоящего изобретения станут очевидны специалисту в данной области техники после ознакомления с нижеследующим подробным описанием различных вариантов его осуществления, а также с чертежами, на которых:
[Фиг. 1] Фигура 1 иллюстрирует общую схему способа корректировки освещенности объекта на изображении согласно решению в уровне техники.
[Фиг. 2] Фигура 2 иллюстрирует схему последовательности операций варианта осуществления способ корректировки освещенности объекта на изображении в последовательности изображений согласно настоящему изобретению.
[Фиг. 3] Фигура 3 иллюстрирует схему последовательности операций варианта осуществления этапа формирования модели (40) адаптированной освещенности объекта согласно настоящему изобретению.
[Фиг. 4] Фигура 4 иллюстрирует схему последовательности операций варианта осуществления этапа извлечения фактической освещенности объекта на изображении согласно настоящему изобретению.
[Фиг. 5] Фигура 5 иллюстрирует схему последовательности операций варианта осуществления этапа замены фактической освещенности объекта на изображении адаптированной освещенностью объекта согласно настоящему изобретению.
[Фиг. 6] Фигура 6 иллюстрирует схему последовательности операций варианта осуществления этапа создания модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, согласно настоящему изобретению.
[Фиг. 7] Фигура 7 иллюстрирует блок-схему варианта осуществления вычислительного устройства пользователя, реализующего способ корректировки освещенности объекта на изображении согласно настоящему изобретению.
[Фиг. 8] Фигура 8 иллюстрирует пример обнаружения ключевых точек L на входном изображении.
[Фиг. 9] Фигура 9 иллюстрирует пример обрезанного по ключевым точкам изображения.
[Фиг. 10] Фигура 10 иллюстрирует пример создания растеризованной модели (25) освещенности объекта.
[Фиг. 11] Фигура 11 иллюстрирует пример выполнения растяжения растеризованной модели (25) освещенности объекта.
[Фиг. 12] Фигура 12 иллюстрирует пример сформированной модели (40) адаптированной освещенности объекта со сглаженными участками, заданными предопределенными blobs-компонентами объекта.
[Фиг. 13] Фигура 13 иллюстрирует пример обнаруженных особенностей (45) объекта, т.е. blobs-компонентов (50) объекта и яркостных переходов (55) объекта, а также формируемой на их основе λ-карты (60) для обрезанного изображения (5) объекта.
[Фиг. 14] Фигура 14 иллюстрирует пример результатов проведения быстрого глобального сглаживания (FGS), учитывающего особенности (45) объекта.
Подробное описание вариантов осуществления изобретения
[0019] Предпочтительные варианты осуществления настоящего изобретения теперь будут описаны более подробно со ссылкой на чертежи, на которых идентичные элементы на разных фигурах, по возможности, идентифицируются одинаковыми ссылочными позициями. Эти варианты осуществления представлены посредством пояснения настоящего изобретения, которое, однако, не следует ими ограничивать. Специалисты в данной области техники поймут после ознакомления с настоящим подробным описанием и чертежами, что могут быть сделаны различные модификации и варианты.
[0020] Фигура 2 иллюстрирует схему последовательности операций варианта осуществления способ корректировки освещенности объекта на изображении в последовательности изображений согласно настоящему изобретению. На этапе S100 может быть введено изображение и может быть получен заданный вектор направления света. Заданным вектором направления света может быть вектор направления света по умолчанию или предопределенный пользователем вектор направления света. В предпочтительном варианте настоящего изобретения объектом на вводимом изображении является, но без ограничения упомянутым, лицо, а поверхностью объекта является кожа лица. Тем не менее следует понимать, что раскрытый способ корректировки освещенности также может быть успешно применен к изображениям, на которых содержится любой другой объект(ы). Для этого, алгоритм нахождения ключевых точек, использующий, например, машину опорных векторов (SVM) или любой другой алгоритм машинного обучения, может быть обучен на ключевых точках объекта, корректировка освещенности которого раскрытым способом представляет интерес. Затем, может быть подготовлен трехмерный каркас этого объекта, и ключевые точки, относящиеся к blobs-компонентам этого объекта, могут быть помечены.
[0021] Настоящее изобретение основано на законе диффузного отражения Ламберта
Figure 00000001
, где
Figure 00000002
- получаемое в результате изображение,
Figure 00000003
- освещенность,
Figure 00000004
- текстура (альбедо), а
Figure 00000005
число пикселей изображения. Таким образом, целью является отделение текстуры от освещенности и замена карты исходной освещенности картой желаемой освещенности. На этапе S105 во входном изображении могут быть обнаружены ключевые точки объекта
Figure 00000006
и особенности изображения. Пример обнаружения ключевых точек проиллюстрирован на фигуре 8. Значение n отражает число ключевых точек и может быть предопределенно равным, но без ограничения упомянутым конкретным значением, 68. Под ключевыми точками объекта в настоящей заявке следует понимать спроецированные на плоскость изображения объекта точки, соответствующие центрам опорных областей объекта, предопределенных в соответствии с обобщенным трехмерным представлением последнего, например, кончик носа, уголки губ и глаз, центры зрачков и т.д. Под особенностями изображения в настоящей заявке следует понимать уникальные свойства текстуры объекта, которые отсутствуют у обобщенной модели объекта.
[0022] На этапе S110 изображение может быть обрезано
Figure 00000007
по ключевым точкам объекта для получения изображения объекта так, чтобы обрезанное изображение (5) включало в себя весь объект и его ключевые точки. Пример обрезанного по ключевым точкам изображения (5) проиллюстрирован на фигуре 9. Данный этап позволяет снизить вычислительную сложность способа на последующих этапах, исключая из входного изображения области, которые обрабатывать не следует. На этапе S115 изображение (5) объекта может быть преобразовано в формат с яркостной и цветоразностными компонентами, например, но без ограничения упомянутым, YUV NV21.
[0023] На этапе S120 модель освещенности объекта может быть создана с использованием ключевых точек объекта для получения растеризованной модели (25) освещенности объекта, в которой освещенность определена заданным вектором (10) направления света. Для этого получают базовый трехмерный каркас (15) объекта
Figure 00000008
и подгоняют его под обнаруженные ключевые точки L объекта. Значение m отражает число вершин трехмерного каркаса и может быть предопределенно равным, но без ограничения упомянутым конкретным значением, 3448. К подогнанному трехмерному каркасу (15) объекта может быть применена освещенность, определенная заданным вектором
Figure 00000009
(10) направления света. Затем, могут быть осуществлены рендеринг с применением базовой текстуры
Figure 00000010
объекта (20) и растеризация скорректированного трехмерного каркаса (15) объекта для получения растеризованной модели (25) освещенности объекта. Другими словами, при обработке последовательности изображений, подгоняют
Figure 00000011
под L и осуществляют рендеринг каждого t ого (может быть 1, 2 или 4) изображения трехмерного каркаса (15) объекта, используя
Figure 00000012
и
Figure 00000013
, для получения модели
Figure 00000014
(25) освещенности объекта. Таким образом, при обработке видео рендеринг нового изображения трехмерной модели может быть осуществлен не на каждом кадре, а с пропусками некоторого числа кадров, используя одно и то же изображение для промежуточных кадров, что экономит вычислительные ресурсы, требуемые для реализации способа. Пример создания растеризованной модели (25) освещенности объекта проиллюстрирован на фигуре 10. На примере с фигуры 10 объектом на изображении является лицо, трехмерным каркасом (15) объекта является трехмерный каркас головы, базовой текстурой объекта (20) является базовая текстура лица, растеризованной моделью (25) освещенности объекта является растеризованная модель освещенности лица.
[0024] На этапе S125 может быть сформирована модель
Figure 00000015
(40) адаптированной освещенности объекта. Подробности данного этапа S125 проиллюстрированы на фигуре 3. Целью этапов S120 и S125 является рендеринг целевой модели освещенности объекта на основе созданного трехмерного каркаса объекта, форма и цвет которого подгоняются под входное изображение объекта. На этапе S125.1 края растеризованной модели (25) освещенности объекта могут быть растянуты до краев обрезанного изображения объекта, т.е. растягивают изображение
Figure 00000016
для получения изображения
Figure 00000017
. Для этого, в одном варианте осуществления настоящего изобретения, для каждого пикселя
Figure 00000018
некоторого края изображения
Figure 00000016
находят первый ненулевой пиксель
Figure 00000019
на линии, представляющей строку пикселей или столбец пикселей изображения
Figure 00000016
, которая ортогональна упомянутому краю. Если пиксель
Figure 00000019
существует, проходят по некоторому количеству ненулевых пикселей (вплоть до 9 пикселей) в направлении
Figure 00000020
для получения внутреннего пикселя
Figure 00000021
и осуществляют интерполяцию
Figure 00000022
пикселей в
Figure 00000023
пиксели. Данный этап выполняется для того, чтобы исключить из изображения растеризованной модели (25) освещенности объекта черную область за пределами объекта, полученную в результате рендеринга модели (25) освещенности объекта, и обеспечить более легкую врисовку изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений. Этот этап S125.1 также обеспечивает возможность обрабатывать видеопоток высокого разрешения посредством раскрытого способа в режиме реального времени, поскольку сложность врисовки изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений существенно снижена в сравнении с решениями, известными из уровня техники. Пример выполнения растяжения растеризованной модели (25) освещенности объекта для получения растеризованной модели (30) освещенности объекта с растянутыми краями проиллюстрирован на фигуре 11.
[0025] На этапах S125.2 и S125.3 могут быть вычислены, соответственно, Y-, U- и V-гистограммы (
Figure 00000024
) растеризованной модели
Figure 00000017
(30) освещенности объекта с растянутыми краями и Y-, U- и V-гистограммы (
Figure 00000025
) обрезанного изображения
Figure 00000026
(5) объекта. Вычисление данных гистограмм может быть выполнено любым из известных в уровне техники способов. На этапе S125.4 предопределенная маска
Figure 00000027
(35) поверхности объекта может быть скорректирована под обрезанное изображение (5) объекта путем удаления из маски (35) поверхности объекта светлых и темных участков обрезанного изображения (5) объекта, которые определяются соответствующими пороговыми значениями яркости. Для этого, в одном варианте осуществления настоящего изобретения, корректируют маску
Figure 00000028
поверхности объекта для получения скорректированной маски
Figure 00000029
поверхности объекта, при этом:
Figure 00000030
Figure 00000031
,
Figure 00000032
,
Figure 00000033
Предопределенная маска (35) поверхности объекта представляет собой бинарную маску поверхности объекта, построенную путем закрашивания всех областей, находящихся внутри выпуклого многоугольника, образованного ключевыми точками объекта. Предопределенная маска (35) поверхности объекта используется для нахождения области изображения, содержащей поверхность объекта. Удаление светлых и темных участков обрезанного изображения (5) объекта из маски (35) поверхности объекта выполняют для того, чтобы исключить участки поверхности объекта, содержащие недостоверную информацию об освещенности и цвете объекта. Соответствующие пороговые значениями яркости для удаления из маски (35) поверхности объекта светлых и темных участков могут быть определены эмпирически.
[0026] В одном варианте осуществления настоящего изобретения маска
Figure 00000028
(35) поверхности объекта может быть сформирована на основе ключевых точек L объекта посредством создания маски
Figure 00000034
лицевой поверхности объекта с использованием ключевых точек L объекта за исключением ключевых точек, которые соответствуют бровям, рту и носу. Затем по сформированной маске
Figure 00000034
лицевой поверхности и обрезанному изображению (5) объекта может выть проведена оценка цветового коэффициента. Эта оценка может быть проведена посредством создания пробной маски
Figure 00000035
поверхности объекта, которая является маской лицевой поверхности, из которой удалено все, что находится ниже носа и выше бровей, сглаживания изображения лицевой поверхности объекта
Figure 00000036
с помощью усредняющего квадратного фильтра, имеющего размер 5, но без ограничения этим конкретным значением, и вычисления цветового коэффициента согласно следующему:
Figure 00000037
,
Figure 00000038
где
Figure 00000039
может быть равно 1,1.
Область
Figure 00000040
поверхности объекта, определяющая искомую маску
Figure 00000028
(35) поверхности объекта, в результате может быть найдена следующим образом:
Figure 00000041
.
В варианте осуществления настоящего изобретения, когда объектом является произвольный объект, а не лицо, маска (35) поверхности такого объекта, т.е. бинарная маска поверхности объекта, может быть предопределена путем закрашивания всех областей, находящихся внутри выпуклого многоугольника, образованного ключевыми точками, предопределенными для такого произвольного объекта, представляющего интерес.
[0027] На этапе S125.5 из полученных U- и V- гистограмм растеризованной модели (30) освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения (5) объекта могут быть удалены значения, которые попали в удаленные светлые и темные участки обрезанного изображения (5) объекта, определяемые скорректированной маской
Figure 00000042
поверхности объекта. Другими словами, на данном этапе S125.5 из UV-гистограмм удаляют нулевые пиксели в
Figure 00000042
и осуществляют эквализацию
Figure 00000043
гистограмм. Удаление значении, которые попали в удаленные светлые и темные участки обрезанного изображения (5) объекта, из полученных Y-, U- и V- гистограмм выполняют для того, чтобы исключить области поверхности объекта, содержащие недостоверную информацию об освещенности и цвете объекта.
[0028] На этапе S125.6 яркость, контраст и цвет растеризованной модели (30) освещенности объекта с растянутыми краями могут быть скорректированы посредством оценки Y-гистограмм обрезанного изображения (5) объекта и растеризованной модели (30) освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм тех же самых изображений, т.е. изображения растеризованной модели (30) освещенности объекта с растянутыми краями и обрезанного изображения (5) объекта, для формирования модели (40) адаптированной освещенности объекта, обеспечивающей перекрашенную освещенность. Вышеупомянутое применение подвергнутых эквализации U- и V-гистограмм для формирования модели (40) адаптированной освещенности объекта содержит использование их значений для модификации цветов изображения модели освещенности. Другими словами, для формирования модели
Figure 00000044
(40) адаптированной освещенности объекта, в одном варианте осуществления настоящего изобретения яркость
Figure 00000045
регулируют и подвергнутые эквализации U- и V-гистограммы применяют согласно следующему:
Figure 00000046
,
Figure 00000047
,
Figure 00000048
,
Figure 00000049
,
Figure 00000050
,
Figure 00000051
.
[0029] Этапы S125.2-S125.6 также обеспечивают более легкую врисовку изображения объекта со скорректированной освещенностью, получаемого в результате выполнения раскрытого способа, в соответствующее изображение в исходной последовательности изображений. Кроме того, этапы S125.2-S125.6 адаптируют целевую модель освещенности под яркость и цвет конкретного входного изображения объекта, что позволяет получить модель (40) адаптированной освещенности объекта, которая обеспечивает реалистичную скорректированную освещенность, при которой уникальные особенности объекта будут сохранены на изображении объекта, получаемом в результате выполнения раскрытого способа, которое будет врисовываться в соответствующее изображение в последовательности изображений.
[0030] На этапе S125.7 на сформированной модели (40) адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта, могут быть сглажены. Другими словами, в одном варианте осуществления настоящего изобретения blobs-компоненты объекта могут быть сглажены на данном этапе S125.7 согласно следующему:
Figure 00000052
,
Figure 00000053
представляет собой модель (40) адаптированной освещенности объекта со сглаженными blobs-компонентами объекта.
Figure 00000054
представляют собой усредняющие квадратные фильтры, имеющие размеры
Figure 00000055
, соответственно. Под blobs-компонентами объекта в настоящей заявке понимаются области определенные заранее размеченными ключевыми точками объекта, соответствующие высоко текстурированным областям, например, глаза, рот, брови, кончик носа и т.д. В варианте осуществления настоящего изобретения, в котором объектом является лицо, blobs-компоненты содержат, но без ограничения упомянутым, брови, глаза, нос и рот. Упомянутое сглаживание выполняется для того, чтобы предотвратить удаление blobs-компонентов на последующем этапе врисовки изображения со скорректированной освещенностью в исходную последовательность изображений. Пример сформированной модели (40) адаптированной освещенности объекта со сглаженными участками, заданными предопределенными blobs-компонентами объекта, проиллюстрирован на фигуре 12.
[0031] На этапе S130 фактическая I (70) освещенность объекта на изображении может быть извлечена. Подробности данного этапа S130 проиллюстрированы на фигуре 4. Целью этапа S130 является извлечение фактической освещенности объекта, используя фильтр быстрого глобального сглаживания (FGS), сохраняющий края объекта, который выявляет низкочастотные яркостные переходы и сохраняет резкие тени, подлежащие последующему удалению на этапе врисовки изображения со скорректированной освещенностью в исходную последовательность изображений. На этапе S130.1 по ключевым точкам L объекта и маске
Figure 00000028
(35) поверхности объекта могут быть обнаружены blobs-компоненты (50) объекта и на обрезанном изображении (5) объекта могут быть обнаружены яркостные переходы (55) объекта, при этом обнаруженные blobs-компоненты (50) объекта и яркостные переходы (55) объекта составляют особенности (45) объекта. Яркостные переходы (55) объекта определяют уникальные свойства объекта. В варианте осуществления, в котором объектом является лицо, blobs-компоненты (50) содержат, но без ограничения упомянутым, брови, глаза, нос и рот. Для удобства и ускорения дальнейшей обработки blobs-компонентов (50) объекта, на данном этапе S130.1 из blobs-компонентов (50) объекта может быть дополнительно сформирована маска
Figure 00000056
blobs-компонентов объекта. В варианте осуществления настоящего изобретения, в котором дополнительно формируют маску blobs-компонентов объекта, получаемая в результате маска blobs-компонентов объекта может содержать по аналогии с самими blobs-компонентами (50) объекта, но без ограничения упомянутым, брови, глаза, нос и рот. Обнаружение яркостных переходов (55) объекта на данном этапе S130.1 может быть выполнено согласно следующему:
Figure 00000057
,
где
Figure 00000058
- карта яркостных переходов объекта, представляющая уникальные особенности данного объекта;
Figure 00000059
представляет собой Y канал обрезанного изображения
Figure 00000026
(5) объекта;
Figure 00000060
представляет собой усредняющий квадратный фильтр, имеющий размер
Figure 00000061
,
Figure 00000062
представляет собой ширину лица;
Figure 00000063
представляют собой разностные операторы
Figure 00000064
Figure 00000065
имеющие размер
Figure 00000066
.
Затем, могут быть выполнены насыщение значений
Figure 00000058
до
Figure 00000067
и нормализация в интервале [0; 1].
[0032] На этапе S130.2 на основе обнаруженных особенностей (45) объекта может быть сформирована λ-карта (60), представляющая по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию. Формирование λ-карты (60) на данном этапе S130.2 может быть выполнено следующим образом:
Figure 00000068
.
Пример обнаруженных особенностей (45) объекта, т.е. blobs-компонентов (50) объекта и яркостных переходов (55) объекта, а также формируемой на их основе λ-карты (60) для обрезанного изображения (5) объекта проиллюстрирован на фигуре 13.
[0033] На этапе S130.3 быстрое глобальное сглаживание (FGS), учитывающее особенности (45) объекта, может быть проведено посредством применения FGS-фильтра (65) с λ-картой (60) к обрезанному изображению (5) объекта для извлечения фактической освещенности (70) объекта на изображении. Фактическая освещенность (70) объекта может быть представлена в форме отдельного изображения I фактической освещенности объекта. На данном этапе S130.3 быстрое глобальное сглаживание (FGS), учитывающее особенности (45) объекта, может быть проведено посредством решения проблемы оптимизации с использованием подхода с, но без ограничения упомянутым, FGS-фильтром (или аналогичным) для извлечения фактической I (70) освещенность объекта:
Figure 00000069
.
В качестве примера, реализация данного этапа описана в документе [1] Min et al. "Fast global image smoothing based on weighted least squares." IEEE Transactions on Image Processing 23.12 (2014): 5638-5653. Пример результатов проведения быстрого глобального сглаживания (FGS), учитывающего особенности (45) объекта, проиллюстрирован на фигуре 14.
[0034] На этапе S135 фактическая освещенность I (70) объекта на изображении (5) может быть заменена адаптированной освещенностью объекта, определенной моделью (40) адаптированной освещенности объекта. Подробности данного этапа S135 проиллюстрированы на фигуре 5. Целью данного этапа является корректировка освещенности объекта на изображении и врисовка переосвещенного объекта в текущее изображение (кадр) в последовательности изображений (видео) с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта. Данный этап позволяет провести стабилизированную врисовку переосвещенного изображения объекта в исходный видеокадр на основе сформированной маски (35) поверхности объекта, фильтра стабилизированного FGS и блока проверки на ошибки. Этот этап S135 обеспечивает возможность беспрерывной видеообработки в режиме реального времен без заметного мерцания и артефактов, связанных с критическими углами поворота лицевой поверхности объекта на изображении. Кроме того, этот этап S135 обеспечивает улучшенную производительность раскрытого способа корректировки освещенности вследствие легковесного алгоритма врисовки, который позволяет использовать раскрытый в заявке способ даже на мобильном устройстве с ограниченными вычислительными мощностями для обработки видео в режиме реального времени.
[0035] На этапе S135.1 cформированная маска
Figure 00000028
(35) поверхности объекта, определяемая областью
Figure 00000040
поверхности объекта, может быть принята/введена. На этапе S135.2 стабилизированное FGS может быть проведено посредством применения фильтра стабилизированного FGS к маске
Figure 00000028
(35) поверхности объекта путем решения следующей проблемы оптимизации (обратной задачи) с регуляризатором:
Figure 00000070
для нахождения
Figure 00000040
, решение которой может быть найдено в замкнутой матричной форме (см. вышеуказанный документ [1]):
Figure 00000071
(1), где
Figure 00000072
представляет собой матрицу Лапласа,
Figure 00000073
.
[0036] Более конкретно, решение проблемы оптимизации с регуляризатором может содержать: добавление регуляризатора к маске поверхности объекта -
Figure 00000074
может быть равно 0,8, но без ограничения данным конкретным значением; применение фильтра стабилизированного FGS посредством решения вышеуказанной проблемы (1) для получения
Figure 00000075
; обновление разностной карты -
Figure 00000076
; обновление маски поверхности объекта
Figure 00000077
; нормализацию маски
Figure 00000075
для получения сглаженной маски
Figure 00000078
.
[0037] На этапе S135.3 вероятность некорректного обнаружения ключевых точек объекта может быть оценена с помощью признаков объекта, представленного в текущем обрабатываемом изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек. Этап обучения машины опорных векторов (SVM) на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек, может быть проведен заблаговременно. Обучение SVM может быть проведено любым известным из уровня техники способом. Вероятность
Figure 00000079
некорректного обнаружения ключевых точек объекта может быть оценена посредством применения к некоторым особенностям X текущего изображения предварительно обученной SVM.
[0038] На этапе S135.4 адаптированная освещенность объекта, определенная моделью адаптированной освещенности объекта, может врисовываться в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности
Figure 00000079
некорректного обнаружения ключевых точек объекта. В одном варианте осуществления данная врисовка может быть осуществлена согласно следующему:
Figure 00000080
,
где
Figure 00000081
представляет собой результат врисовки изображения адаптированная освещенность объекта в исходное изображение
Figure 00000082
,
Figure 00000083
представляет собой область поверхности объекта,
Figure 00000058
представляет собой карту яркостных переходов объекта, представляющую уникальные особенности данного объекта;
Figure 00000053
представляет собой модель (40) адаптированной освещенности объекта со сглаженными blobs-компонентами объекта;
I представляет собой изображение фактической освещенности объекта.
Данный этап врисовки выполняется для удаления резких теней объекта с сохранением уникальных особенностей объекта. Резкие тени удаляются за счет применения Ламбертовской модели с заменой
Figure 00000084
фактической освещенности объекта адаптированной освещенностью, при этом уникальные особенности объекта сохраняются за счет применения на данном этапе карты яркостных переходов объекта, которые должны быть сохранены. На этапе S140 изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта, может быть выведено.
[0039] На фигуре 7 проиллюстрирована блок-схема вычислительного устройства/мобильного устройства (75) пользователя. Устройство (75), на котором может быть реализован раскрытый выше способ, может содержать, но без ограничения упомянутым, процессор (75.1), камеру (75.2) и память (75.3), хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение любого этапа(этапов) раскрытого способа корректировки освещенности объекта. Устройство (75) может содержать другие не показанные на фигуре 15 компоненты и представлять собой, например, смартфон, планшет, очки виртуальной реальности, очки дополненной реальности, ПК, ноутбук, умные часы и т.д. В альтернативном варианте осуществления вычислительного устройства/мобильного устройства (75) пользователя, упомянутое устройство может содержать отдельные аппаратные блоки. В этом варианте осуществления, каждый аппаратный блок может отвечать за выполнение соответствующего этапа или подэтапа способа и именоваться соответствующим образом, например, аппаратный блок устройства, ответственный за введение изображения (см. этап S100) может именоваться блок ввода изображения и т.д. Однако, заявленное изобретение не следует ограничивать только такой структурой блоков, поскольку специалисту будут понятны другие возможные структуры блоков в устройстве, при которых, в качестве примера, один аппаратный блок может отвечать за выполнение нескольких этапов или подэтапов раскрытого способа, или выполнение нескольких этапов или подэтапов раскрытого способа может быть разделено между двумя или более блоками. Кроме того, способ, раскрытый в данной заявке, может быть реализован посредством процессора, интегральной схемы специального назначения (ASIC), программируемой пользователем вентильной матрицы (FPGA), или - в некоторых вариантах осуществления - как система на кристалле (SoC). Кроме того, способ, раскрытый в данной заявке, может быть реализован посредством считываемого компьютером носителя, на котором хранятся исполняемые компьютером инструкции, которые, при исполнении процессором компьютера, побуждают компьютер к выполнению раскрытого способа.
[0040] Используемые в данной заявке ссылочные позиции не следует интерпретировать как однозначно определяющие последовательность этапов, поскольку, после ознакомления с вышеуказанным раскрытием, специалисту станут понятны другие модифицированные последовательности вышеописанных этапов. Ссылочные позиции использовались в этом описании и используются в нижеследующей формуле лишь в качестве сквозного указателя на соответствующий элемент заявки, который облегчает ее восприятие и гарантирует соблюдение единства терминологии.
[0041] Хотя данное изобретение было описано с определенной степенью детализации, следует понимать, что настоящее раскрытие было сделано только в качестве иллюстрации и что к многочисленным изменениям в деталях конструкций, компоновке частей устройства или этапов и содержания способов можно прибегать, не выходя за рамки объема изобретения, который определяется нижеследующей формулой изобретения.
Промышленная применимость
[0042] Настоящее изобретение может применяться в промышленности для корректировки освещенности объекта на изображении в видеопоследовательности. Могут быть созданы различные устройства, средства, блоки, микросхемы, которые эту корректировку реализуют. Кроме того, упомянутая корректировка может быть обеспечена как новая функциональная возможность существующих на данный момент приложений/устройств.
Список позиционных обозначений
10 - заданный вектор направления света
15 - трехмерный каркас объекта
20 - базовая текстура объекта
25 - растеризованная модель освещенности объекта
30 - растеризованная модель освещенности объекта с растянутыми краями
35 - маска поверхности объекта
40 - модель адаптированной освещенности объекта
45 - особенности объекта
50 - blobs-компоненты
55 - яркостные переходы объекта
60 - λ-карта объекта
65 - FGS-фильтр
70 - фактическая освещенность объекта

Claims (41)

1. Способ корректировки освещенности объекта на изображении в последовательности изображений, содержащий этапы, на которых:
вводят (S100) изображение и получают заданный вектор направления света;
обнаруживают (S105) ключевые точки объекта и особенности изображения;
обрезают изображение (S110) по ключевым точкам объекта для получения изображения объекта;
преобразуют (S115) изображение объекта в формат с яркостной и цветоразностными компонентами (YUV);
создают (S120) модель освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света;
формируют (S125) модель адаптированной освещенности объекта;
извлекают (S130) фактическую освещенность объекта на изображении;
заменяют (S135) фактическую освещенность объекта на изображении адаптированной освещенностью объекта, определенной моделью адаптированной освещенности объекта; и
выводят (S140) изображение в последовательности изображений, в котором фактическая освещенность объекта заменена адаптированной освещенностью объекта.
2. Способ по п. 1, в котором этап формирования (S125) модели адаптированной освещенности объекта содержит этапы, на которых:
растягивают (S125.1) края растеризованной модели освещенности объекта до краев обрезанного изображения объекта;
вычисляют (S125.2) Y-, U- и V-гистограммы растеризованной модели освещенности объекта с растянутыми краями;
вычисляют (S125.3) Y-, U- и V-гистограммы обрезанного изображения объекта;
корректируют (S125.4) предопределенную маску поверхности объекта под обрезанное изображение объекта путем удаления из маски поверхности объекта светлых и темных участков обрезанного изображения объекта, которые определяются соответствующими пороговыми значениями яркости;
удаляют (S125.5) из полученных U- и V-гистограмм растеризованной модели освещенности объекта с растянутыми краями и U- и V-гистограмм обрезанного изображения объекта значения, которые попали в удалённые светлые и темные участки обрезанного изображения объекта, и осуществляют эквализацию упомянутых U- и V-гистограмм;
корректируют (S125.6) яркость, контраст и цвет растеризованной модели освещенности объекта с растянутыми краями посредством оценки Y-гистограмм обрезанного изображения объекта и растеризованной модели освещенности объекта с растянутыми краями и применения подвергнутых эквализации U- и V-гистограмм для формирования модели адаптированной освещенности объекта и
сглаживают (S125.7) на сформированной модели адаптированной освещенности объекта участки, заданные предопределенными blobs-компонентами объекта.
3. Способ по п. 2, в котором маску поверхности объекта формируют на основе ключевых точек объекта посредством создания маски лицевой поверхности объекта, оценки цветового коэффициента по обрезанному изображению объекта и нахождения области поверхности объекта.
4. Способ по любому из пп. 1-3, в котором заданным вектором направления света является вектор направления света по умолчанию или предопределенный пользователем вектор направления света;
объектом является лицо;
поверхностью объекта является кожа лица;
blobs-компоненты содержат брови, глаза, нос и рот.
5. Способ по п. 1, в котором этап извлечения (S130) фактической освещенности объекта на изображении содержит этапы, на которых:
обнаруживают (S130.1) по ключевым точкам объекта и маске поверхности объекта blobs-компоненты объекта и обнаруживают яркостные переходы объекта на обрезанном изображении объекта, при этом обнаруженные blobs-компоненты объекта и яркостные переходы объекта составляют особенности объекта;
формируют (S130.2) на основе обнаруженных особенностей объекта λ-карту, представляющую по меньшей мере одну область, которая будет подвергаться наибольшему сглаживанию, по меньшей мере одну область, которая будет подвергаться наименьшему сглаживанию, и нуль или более областей, которые будут подвергаться сглаживанию в диапазоне от наибольшего сглаживания к наименьшему сглаживанию; и
проводят (S130.3) учитывающее особенности объекта быстрое глобальное сглаживание (FGS), применяя FGS-фильтр с λ-картой к обрезанному изображению объекта, для извлечения фактической освещенности объекта на изображении.
6. Способ по п. 1 или 3, в котором этап замены (S135) фактической освещенности объекта на изображении адаптированной освещенностью объекта содержит этапы, на которых:
принимают (S135.1) сформированную маску поверхности объекта;
проводят (S135.2) стабилизированное FGS, применяя фильтр стабилизированного FGS к сформированной маске поверхности объекта путем решения обратной задачи с регуляризатором, причем решение обратной задачи с регуляризатором содержит следующие подэтапы, на которых:
вычисляют значения регуляризатора с использованием сохранённых данных о сглаженной маске поверхности объекта, полученной для предыдущего изображения в последовательности изображений, и разностной карты;
применяют фильтр стабилизированного FGS к сформированной маске поверхности объекта с использованием регуляризатора, значения которого равны вычисленным значениям регуляризатора;
обновляют разностную карту путём попиксельного применения рекурсивного фильтра;
сохраняют сглаженную маску поверхности объекта для текущего изображения и
нормализуют значения сглаженной маски поверхности объекта для текущего изображения в диапазоне 0..1;
оценивают (S135.3) вероятности некорректного обнаружения ключевых точек объекта с помощью признаков объекта, представленного в текущем изображении в последовательности изображений, причем оценка содержит проверку этих выделенных признаков объекта машиной опорных векторов, предварительно обученной на выборке, состоящей из признаков произвольных изображений и соответствующих этим признакам вероятностей некорректного обнаружения ключевых точек; и
врисовывают (S135.4) адаптированную освещенность объекта, определенную моделью адаптированной освещенности объекта, в текущее изображение в последовательности изображений с применением сглаженной маски поверхности объекта и учетом вероятности некорректного обнаружения ключевых точек объекта.
7. Способ по п. 1, в котором этап создания (S120) модели освещенности объекта с использованием ключевых точек объекта для получения растеризованной модели освещенности объекта, в которой освещенность определена заданным вектором направления света, содержит этапы, на которых:
подгоняют (S120.1) общий трехмерный каркас объекта под обнаруженные ключевые точки объекта, представленного на текущем изображении в последовательности изображений; и
осуществляют рендеринг (S120.2) трехмерной модели объекта c использованием трехмерного каркаса объекта, подогнанного под ключевые точки объекта, заданного вектора направления света и общей текстуры поверхности объекта для получения растеризованной модели освещенности объекта.
8. Вычислительное устройство (75) пользователя для корректировки освещенности объекта на изображении в последовательности изображений, содержащее процессор (75.1), камеру (75.2) и память (75.3), хранящую исполняемые процессором инструкции, которые, при исполнении процессором, дают команду процессору на выполнение способа корректировки освещенности объекта на изображении в последовательности изображений по любому из пп. 1-7.
RU2018128206A 2018-08-01 2018-08-01 Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ RU2697627C1 (ru)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2018128206A RU2697627C1 (ru) 2018-08-01 2018-08-01 Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ
US16/524,671 US11238302B2 (en) 2018-08-01 2019-07-29 Method and an apparatus for performing object illumination manipulation on an image
PCT/KR2019/009562 WO2020027584A1 (en) 2018-08-01 2019-07-31 Method and an apparatus for performing object illumination manipulation on an image
EP19844746.8A EP3776348A4 (en) 2018-08-01 2019-07-31 METHOD AND DEVICE FOR PERFORMING OBJECT LIGHTING MANIPULATION ON AN IMAGE
CN201980044340.5A CN112384928A (zh) 2018-08-01 2019-07-31 对图像执行对象照明操纵的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018128206A RU2697627C1 (ru) 2018-08-01 2018-08-01 Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ

Publications (1)

Publication Number Publication Date
RU2697627C1 true RU2697627C1 (ru) 2019-08-15

Family

ID=67640637

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018128206A RU2697627C1 (ru) 2018-08-01 2018-08-01 Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ

Country Status (5)

Country Link
US (1) US11238302B2 (ru)
EP (1) EP3776348A4 (ru)
CN (1) CN112384928A (ru)
RU (1) RU2697627C1 (ru)
WO (1) WO2020027584A1 (ru)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
KR20200084164A (ko) * 2019-01-02 2020-07-10 엘지이노텍 주식회사 사육장 환경 관리 장치
CN112183551A (zh) * 2019-07-02 2021-01-05 佳能株式会社 光照颜色预测方法、图像处理方法、装置及存储介质
US11461970B1 (en) * 2021-03-15 2022-10-04 Tencent America LLC Methods and systems for extracting color from facial image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030007685A1 (en) * 2001-04-26 2003-01-09 Yao-Hong Tsai Methods and system for illuminant-compensation
US7227977B1 (en) * 2003-01-10 2007-06-05 L-I Identity Solutions, Inc. Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions
US7324688B2 (en) * 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
US7433807B2 (en) * 2000-08-30 2008-10-07 Microsoft Corporation Facial image processing
US20090003661A1 (en) * 2007-02-28 2009-01-01 Fotonation Vision Limited Separating a Directional Lighting Variability In Statistical Face Modelling Based On Texture Space Decomposition
CN101425179A (zh) * 2008-11-18 2009-05-06 清华大学 一种人脸图像重光照的方法及装置
RU2402811C2 (ru) * 2004-07-29 2010-10-27 Майкрософт Корпорейшн Обработка изображений с помощью линейных параметров светоустановки и других усовершенствований обработки изображений
US9858654B2 (en) * 2013-08-02 2018-01-02 Anthropics Technology Limited Image manipulation

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028960A (en) 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6950104B1 (en) 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
KR100399286B1 (ko) 2001-03-20 2003-09-26 주식회사 디엔엠 테크놀로지 상품 색상 변경 방법 및 시스템
EP1495437B1 (en) 2002-04-12 2008-12-03 Agency for Science, Technology and Research Robust face registration via multiple face prototypes synthesis
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US20110102553A1 (en) 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
US7609860B2 (en) 2005-06-14 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Bilinear illumination model for robust face recognition
US8090161B2 (en) 2006-06-19 2012-01-03 Christiane Kaplan Systems and method for signature verification
KR100876786B1 (ko) 2007-05-09 2009-01-09 삼성전자주식회사 조명 마스크를 이용하는 사용자 얼굴 검증 시스템 및 방법
US8009880B2 (en) 2007-05-11 2011-08-30 Microsoft Corporation Recovering parameters from a sub-optimal image
KR100897385B1 (ko) 2007-06-27 2009-05-14 성균관대학교산학협력단 조명 정규화 방법 및 장치
US8090160B2 (en) 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8064653B2 (en) 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
US9017080B1 (en) 2008-08-29 2015-04-28 Otto J. Placik System and method for teaching injection techniques of the human head and face
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
US8315461B2 (en) 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
KR101643612B1 (ko) 2010-01-29 2016-07-29 삼성전자주식회사 촬영 방법 및 장치와 그 기록 매체
US8447098B1 (en) 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
US8792679B2 (en) 2011-09-09 2014-07-29 Imprivata, Inc. Low-light face detection
CN102509346A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 基于边缘保持的对象光照迁移方法
CN102360513B (zh) * 2011-09-30 2013-02-06 北京航空航天大学 基于梯度操作的对象光照迁移方法
KR102357340B1 (ko) * 2014-09-05 2022-02-03 삼성전자주식회사 얼굴 인식 방법 및 장치
US20160070952A1 (en) * 2014-09-05 2016-03-10 Samsung Electronics Co., Ltd. Method and apparatus for facial recognition
EP3259704B1 (en) 2015-02-16 2023-08-23 University Of Surrey Three dimensional modelling
US9232189B2 (en) 2015-03-18 2016-01-05 Avatar Merger Sub Ii, Llc. Background modification in video conferencing
US9679192B2 (en) 2015-04-24 2017-06-13 Adobe Systems Incorporated 3-dimensional portrait reconstruction from a single photo
US10395421B2 (en) 2015-07-21 2019-08-27 Dolby Laboratories Licensing Corporation Surround ambient light sensing, processing and adjustment
KR102459851B1 (ko) * 2015-09-17 2022-10-28 삼성전자주식회사 이미지의 밝기를 조절하는 방법 및 장치
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
GB2543775B (en) * 2015-10-27 2018-05-09 Imagination Tech Ltd System and methods for processing images of objects
JP6786850B2 (ja) * 2016-04-07 2020-11-18 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US10521892B2 (en) * 2016-08-31 2019-12-31 Adobe Inc. Image lighting transfer via multi-dimensional histogram matching
CN107506714B (zh) * 2017-08-16 2021-04-02 成都品果科技有限公司 一种人脸图像重光照的方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433807B2 (en) * 2000-08-30 2008-10-07 Microsoft Corporation Facial image processing
US20030007685A1 (en) * 2001-04-26 2003-01-09 Yao-Hong Tsai Methods and system for illuminant-compensation
US7227977B1 (en) * 2003-01-10 2007-06-05 L-I Identity Solutions, Inc. Lighting correction for the outdoor environment with extension to the self adjusting algorithm for general lighting conditions
RU2402811C2 (ru) * 2004-07-29 2010-10-27 Майкрософт Корпорейшн Обработка изображений с помощью линейных параметров светоустановки и других усовершенствований обработки изображений
US7324688B2 (en) * 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
US20090003661A1 (en) * 2007-02-28 2009-01-01 Fotonation Vision Limited Separating a Directional Lighting Variability In Statistical Face Modelling Based On Texture Space Decomposition
US8582896B2 (en) * 2007-02-28 2013-11-12 DigitalOptics Corporation Europe Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
CN101425179A (zh) * 2008-11-18 2009-05-06 清华大学 一种人脸图像重光照的方法及装置
US9858654B2 (en) * 2013-08-02 2018-01-02 Anthropics Technology Limited Image manipulation

Also Published As

Publication number Publication date
EP3776348A1 (en) 2021-02-17
WO2020027584A1 (en) 2020-02-06
EP3776348A4 (en) 2021-06-09
CN112384928A (zh) 2021-02-19
US11238302B2 (en) 2022-02-01
US20200042820A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
CN106022221B (zh) 一种图像处理方法及处理系统
CN106778928B (zh) 图像处理方法及装置
CN107771336B (zh) 基于颜色分布的图像中的特征检测和掩模
RU2697627C1 (ru) Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ
CN108229276B (zh) 神经网络训练及图像处理方法、装置和电子设备
Zhu et al. Estimating spatially varying defocus blur from a single image
CN111383232B (zh) 抠图方法、装置、终端设备及计算机可读存储介质
CN109815881A (zh) 行为识别模型的训练方法、行为识别方法、装置及设备
US20240212161A1 (en) Foreground data generation method and method for applying same, related apparatus, and system
Luan et al. Fast single image dehazing based on a regression model
CN111489322B (zh) 给静态图片加天空滤镜的方法及装置
CN113436284B (zh) 一种图像处理方法、装置、计算机设备和存储介质
CN114170227B (zh) 产品表面缺陷检测方法、装置、设备及存储介质
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
WO2009120830A1 (en) Methods and apparatus for visual sub-band decomposition of signals
CN113592776A (zh) 图像处理方法及装置、电子设备、存储介质
US20190197204A1 (en) Age modelling method
CN112308944A (zh) 仿真唇妆的扩增实境显示方法
CN106530309A (zh) 一种基于移动平台的视频抠图方法及系统
CN111179287A (zh) 人像实例分割方法、装置、设备及存储介质
CN110738678B (zh) 脸部细纹检测方法、装置、电子设备及可读存储介质
US20220398704A1 (en) Intelligent Portrait Photography Enhancement System
Khan et al. A deep hybrid few shot divide and glow method for ill-light image enhancement
CN113379623B (zh) 图像处理方法、装置、电子设备及存储介质
CN111754431A (zh) 一种图像区域替换方法、装置、设备及存储介质