[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

RU2625523C1 - Method for determining protectability of designations as trademarks - Google Patents

Method for determining protectability of designations as trademarks Download PDF

Info

Publication number
RU2625523C1
RU2625523C1 RU2016129029A RU2016129029A RU2625523C1 RU 2625523 C1 RU2625523 C1 RU 2625523C1 RU 2016129029 A RU2016129029 A RU 2016129029A RU 2016129029 A RU2016129029 A RU 2016129029A RU 2625523 C1 RU2625523 C1 RU 2625523C1
Authority
RU
Russia
Prior art keywords
neural network
image
neurons
images
input
Prior art date
Application number
RU2016129029A
Other languages
Russian (ru)
Inventor
Павел Алексеевич Ляхов
Original Assignee
Общество с ограниченной ответственностью "Онлайн патент"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Онлайн патент" filed Critical Общество с ограниченной ответственностью "Онлайн патент"
Priority to RU2016129029A priority Critical patent/RU2625523C1/en
Application granted granted Critical
Publication of RU2625523C1 publication Critical patent/RU2625523C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

FIELD: physics.
SUBSTANCE: method uses an artificial neural network consisting of artificial neurons with nonlinear activation functions, as well as an algorithm for converting the input image to the R, G, B and Gray matrices for input to the neural network input.
EFFECT: improving the quality of determining the similarity or difference of images to the degree of mixing and the entry of image elements into the composition of comparative samples.
3 dwg

Description

Изобретение относится к вычислительной технике и может быть использовано в компьютерных системах для определения охраноспособности обозначений в качестве товарных знаков.The invention relates to computer technology and can be used in computer systems to determine the protection of designations as trademarks.

Установление охраноспособности обозначения на основе сравнения его с массивом ранее зарегистрированных товарных знаков представляет собой сложную задачу распознавания и классификации образов, в настоящее время разрешаемую с использованием ручной системы классификации элементов изображений (Венской классификации), корректное использование которой возможно только при достаточно высокой квалификации специалиста-исполнителя.Establishing the protection of a designation by comparing it with an array of previously registered trademarks is a difficult task of recognizing and classifying images, currently resolved using a manual system for classifying image elements (Vienna classification), the correct use of which is possible only with a sufficiently high qualification of a specialist specialist .

Существующие методы и алгоритмы машинного распознавания образов не могут быть корректно применены к задаче установления охраноспособности обозначения ввиду специфических условий и ограничений, таких как необходимость установления схожести изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.Existing methods and algorithms for machine pattern recognition cannot be correctly applied to the task of establishing the protection of a designation due to specific conditions and limitations, such as the need to establish the similarity of images to the degree of confusion and the inclusion of image elements in the composition of comparative samples.

Известен способ и система поиска нарушений авторских прав на изображения (патент WO 2014031022 A1), основанный на расчете и сравнении дескрипторов для сравниваемых изображений. Однако такой подход не позволяет проводить нелинейный анализ сравниваемых изображений, что ухудшает качество сравнения изображений на практике.A known method and system for searching for copyright infringement on images (patent WO 2014031022 A1), based on the calculation and comparison of descriptors for the compared images. However, this approach does not allow non-linear analysis of the compared images, which affects the quality of image comparison in practice.

Техническим результатом настоящего изобретения является улучшение качества определения сходства или различия изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.The technical result of the present invention is to improve the quality of determining the similarity or difference of images to the extent of mixing and the inclusion of image elements in the composition of the comparative samples.

Предлагаемый способ состоит из вычисления степени сходства изображения, тестируемого на наличие признака охраноспособности, с каждым изображением из базы зарегистрированных изображений.The proposed method consists of calculating the degree of similarity of the image being tested for the presence of a sign of eligibility, with each image from the database of registered images.

Степень сходства двух изображений определяется в два этапа.The degree of similarity of the two images is determined in two stages.

1 этап.Stage 1.

На этом этапе изображение считывается из файла и подготавливается для последующей обработки. Считанное изображение должно быть преобразовано путем масштабирования к разрешению x×y пикселей, заданному пользователем (х - ширина изображения, у - высота изображения). Для этого используется алгоритм бикубической интерполяции.At this stage, the image is read from the file and prepared for further processing. The read image must be converted by scaling to the resolution x × y pixels specified by the user (x is the image width, y is the image height). For this, the bicubic interpolation algorithm is used.

Для полученного массива х×y пикселей формируются следующие матрицы размера х×y: R - матрица уровня красного цвета пикселей изображения (компонента Red в RGB представлении); G - матрица уровня зеленого цвета пикселей изображения (компонента Green в RGB представлении); В - матрица уровня синего цвета пикселей изображения (компонента Blue в RGB представлении); Gray - матрица уровня серого цвета пикселей изображения (уровень яркости пикселя при отображении изображения в оттенках серого Grayscale), рассчитываемая по формуле Gray=0,2989R+0,5870G+0,1140B.For the resulting x × y pixel array, the following x × y matrices are formed: R is the matrix of the red level of the image pixels (the Red component in the RGB representation); G - matrix of the green level of the pixels of the image (Green component in the RGB representation); B - matrix of the level of blue color of the image pixels (Blue component in the RGB representation); Gray - a matrix of the gray level of the pixels of the image (the brightness level of the pixel when displaying the image in Grayscale grayscale), calculated by the formula Gray = 0.2989R + 0.5870G + 0.1140B.

Элементы подготовленных матрицы R, G, В и Gray имеют целочисленные значения без знака (формат unsigned integer 8 bit - целочисленные данные, изменяющиеся в диапазоне от 0 до 255).Elements of the prepared matrices R, G, B, and Gray have unsigned integer values (unsigned integer 8 bit format - integer data that varies in the range from 0 to 255).

После этого элементы матриц R, G, В и Gray преобразуются к вещественному формату путем деления на 256, то есть преобразованные элементы матриц изменяются в пределах от 0 до 1. Полученные преобразованные матрицы поступают на вход нейронной сети.After that, the elements of the matrices R, G, B and Gray are converted to the real format by dividing by 256, that is, the converted matrix elements vary from 0 to 1. The resulting converted matrices are fed to the input of the neural network.

2 этап.2 stage.

Две группы матриц R, G, В и Gray одного размера, сформированные для двух сравниваемых изображений при помощи последовательности действий, описанных на этапе 1, поступают на вход нейронной сети.Two groups of matrices R, G, B and Gray of the same size, formed for two compared images using the sequence of steps described in step 1, are input to the neural network.

Нейронная сеть из элементарных компонент - нейронов, изображенных на фиг. 1. Изображенный на рисунке 1 нейрон функционирует следующим образом. На входы нейрона поступают сигналы со входов 1-1, 1-2, …, 1-n. Сигнал с каждого входа умножается на соответствующий весовой коэффициент 2-1, 2-2, …, 2-n при помощи блоков умножения 3-1, 3-2, …, 3-n. Все полученные результаты умножений складываются в сумматоре 4. Результат умножения преобразуется функцией активации 5. Полученный результат поступает на выход нейрона 6. Все входы нейрона, весовые коэффициенты и выход нейрона должны иметь вещественное значения, изменяющиеся от 0 до 1.A neural network of elementary components - neurons depicted in FIG. 1. The neuron depicted in Figure 1 operates as follows. The inputs of the neuron receive signals from inputs 1-1, 1-2, ..., 1-n. The signal from each input is multiplied by the corresponding weight coefficient 2-1, 2-2, ..., 2-n using multiplication blocks 3-1, 3-2, ..., 3-n. All the obtained multiplication results are added up in the adder 4. The multiplication result is converted by the activation function 5. The result is sent to the output of the neuron 6. All inputs of the neuron, weighting coefficients and the output of the neuron must have real values, varying from 0 to 1.

Функция активации может иметь один из следующих видов.The activation function may have one of the following types.

A. Линейная функция активацииA. Linear activation function

Figure 00000001
Figure 00000001

Б. Пороговая передаточная функцияB. Threshold transfer function

Figure 00000002
Figure 00000002

где Т - величина порога (вещественная), задаваемая пользователем.where T is the threshold value (real) specified by the user.

B. Сигмоидальная функцияB. Sigmoid function

Figure 00000003
Figure 00000003

где А, В - вещественные параметры, задаваемые пользователем.where A, B are real parameters specified by the user.

Г. Гиперболический тангенсG. Hyperbolic tangent

Figure 00000004
Figure 00000004

где А, В - вещественные параметры, задаваемые пользователем.where A, B are real parameters specified by the user.

Весовые коэффициенты 2-1, 2-2, …, 2-n определяются до начала работы, в процессе обучения нейронной сети.Weighting factors 2-1, 2-2, ..., 2-n are determined before the start of work, in the process of training a neural network.

На фиг. 2 изображена архитектура нейронной сети. Изображенная на рисунке 2 архитектура нейронной сети содержит входной слой нейронов 8, состоящий из нейронов 9-1, 9-2, …, 9-х; первый скрытый слой нейронов 10, состоящий из нейронов 11-1, 11-2, …, 11-у; второй скрытый слой нейронов 12, состоящий из нейронов 13-1, 13-2, …, 13-z; и выходной слой нейронов 14, состоящий из одного нейрона 15. Каждый нейрон 9-1, 9-2, …, 9-х, 11-1, 11-2, …, 11-у, 13-1, 13-2, …, 13-z представляет собой устройство, изображенное на фиг. 1. Каждый слой нейронов связан только с двумя слоями: предшествующим и последующим. Связь между двумя соседними слоями осуществляется следующим образом: единственный выход каждого нейрона предыдущего слоя подается на вход каждому нейрону последующего слоя. Количество нейронов во входном слое, а также в каждом из скрытых слоев определяется пользователем до начала использования работы изобретения. Выход 16 нейрона 15 считается выходом всей сети и является результатом ее работы. На входы нейронов 9-1, 9-2, …, 9-х входного слоя нейронов 8 поступает информация о двух сравниваемых изображениях в соответствии со схемой, изображенной на рисунке 3.In FIG. 2 shows the architecture of a neural network. The neural network architecture depicted in Figure 2 contains an input layer of neurons 8, consisting of neurons 9-1, 9-2, ..., 9s; the first hidden layer of neurons 10, consisting of neurons 11-1, 11-2, ..., 11th; the second hidden layer of neurons 12, consisting of neurons 13-1, 13-2, ..., 13-z; and the output layer of neurons 14, consisting of one neuron 15. Each neuron 9-1, 9-2, ..., 9th, 11-1, 11-2, ..., 11th, 13-1, 13-2, ..., 13-z is the device shown in FIG. 1. Each layer of neurons is associated with only two layers: the previous and the next. The connection between two adjacent layers is as follows: the only output of each neuron of the previous layer is fed to the input of each neuron of the next layer. The number of neurons in the input layer, as well as in each of the hidden layers, is determined by the user before using the work of the invention. The output 16 of neuron 15 is considered the output of the entire network and is the result of its work. At the inputs of neurons 9-1, 9-2, ..., 9th input layer of neurons 8 receives information about the two compared images in accordance with the circuit shown in Figure 3.

На рисунке 3 изображено подробно описание входного слоя 8 и его взаимодействие с поступающими на вход 7 матрицами пикселей изображений модуля, сформированными на первом этапе. Все нейроны входного слоя 8 делятся на 4 группы: группа нейронов 21 для обработки матриц R двух сравниваемых изображений, подаваемых через входы 17-1 и 17-2, соответственно; группа нейронов 22 для обработки матриц G двух сравниваемых изображений, подаваемых через входы 18-1 и 18-2, соответственно; группа нейронов 23 для обработки матриц В двух сравниваемых изображений, подаваемых через входы 19-1 и 19-2, соответственно; группа нейронов 24 для обработки матриц Gray двух сравниваемых изображений, подаваемых через входы 20-1 и 20-2, соответственно. Количество нейронов каждой группы определяется пользователем в отдельности до начала использования работы изобретения. Нейроны каждой группы должны обрабатывать все элементы двух матриц двух сравниваемых изображений. Это означает, что каждый нейрон из группы 21 получает на вход все элементы матрицы R первого изображения и все элементы матрицы R второго изображения; каждый нейрон из группы 22 получает на вход все элементы матрицы G первого изображения и все элементы матрицы G второго изображения; каждый нейрон из группы 23 получает на вход все элементы матрицы В первого изображения и все элементы матрицы В второго изображения; каждый нейрон из группы 24 получает на вход все элементы матрицы Gray первого изображения и все элементы матрицы Gray второго изображения. Если подготовленные на первом этапе матрицы R, G, В, Gray каждого изображения имели х×у элементов, то каждый нейрон групп 21-24 должен иметь 2xy входов и 2xy весовых коэффициентов для них.Figure 3 depicts in detail the description of the input layer 8 and its interaction with the input image pixel arrays of the module images generated at the first stage. All neurons of the input layer 8 are divided into 4 groups: a group of neurons 21 for processing the matrices R of two compared images supplied through the inputs 17-1 and 17-2, respectively; a group of neurons 22 for processing matrixes G of two compared images supplied through inputs 18-1 and 18-2, respectively; a group of neurons 23 for processing the matrices B of two compared images supplied through the inputs 19-1 and 19-2, respectively; a group of neurons 24 for processing Gray matrices of two compared images supplied through inputs 20-1 and 20-2, respectively. The number of neurons of each group is determined by the user individually before using the work of the invention. Neurons of each group must process all elements of two matrices of two compared images. This means that each neuron from group 21 receives at the input all the elements of the matrix R of the first image and all the elements of the matrix R of the second image; each neuron from group 22 receives at the input all the elements of the matrix G of the first image and all the elements of the matrix G of the second image; each neuron from group 23 receives at the input all the elements of the matrix B of the first image and all the elements of the matrix B of the second image; each neuron from group 24 receives at the input all the elements of the Gray matrix of the first image and all the elements of the Gray matrix of the second image. If the matrices R, G, B, Gray prepared at the first stage of each image had x × elements, then each neuron of groups 21-24 should have 2xy inputs and 2xy weighting factors for them.

Результатом данного этапа является значение 16, полученное на выходе нейронной сети, которое изменяется от 0 до 1.The result of this stage is a value of 16 obtained at the output of the neural network, which varies from 0 to 1.

Результатом применения нейронной сети является числовое значение от 0 до 1, показывающее степень схожести сравниваемых изображений. Для определения охраноспособности изображения необходимо произвести сравнение тестируемого изображения с каждым изображением из базы зарегистрированных изображений. Изображение считается охраноспособным, если ни для какой пары сравниваемых изображений не было превышено пороговое значение степени сходства, заданное до начала использования работы изобретения.The result of the use of a neural network is a numerical value from 0 to 1, showing the degree of similarity of the compared images. To determine the image protection, it is necessary to compare the tested image with each image from the database of registered images. An image is considered to be protectable if, for any pair of compared images, the threshold value of the degree of similarity set before using the invention was not exceeded.

Предложенный способ позволяет осуществлять нелинейное сравнение изображений за счет искусственной нейронной сети, нейроны которой имеют нелинейные функции активации. Результатом такого подхода является улучшение качества определения сходства или различия изображений, в том числе установление схожести изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.The proposed method allows non-linear comparison of images due to an artificial neural network, the neurons of which have non-linear activation functions. The result of this approach is to improve the quality of determining the similarity or difference of images, including the establishment of similarity of images to the degree of mixing and the inclusion of image elements in the composition of comparative samples.

Claims (1)

Способ определения сходства изображений, заключающийся в использовании искусственной нейронной сети, состоящей из слоев нейронов с нелинейными функциями активации, на вход которой поступают значения элементов матриц компонентов красного, зеленого, синего и серого цветов двух сравниваемых изображений одинаковой размерности, которые обрабатывают нейроны входного слоя искусственной нейронной сети, выходы которых соединены со входами нейронов первого скрытого слоя искусственной нейронной сети, выходы которых соединены со входами нейронов второго скрытого слоя искусственной нейронной сети, выходы которых соединены со входами нейрона выходного слоя искусственной нейронной сети, на выходе которого, являющегося выходом искусственной нейронной сети, представлено число, изменяющееся от 0 до 1 и показывающее степень сходства двух сравниваемых изображений.A method for determining the similarity of images, which consists in using an artificial neural network consisting of layers of neurons with non-linear activation functions, the input of which receives the values of the matrix elements of components of red, green, blue and gray colors of two compared images of the same dimension, which process the neurons of the input layer of an artificial neural networks, the outputs of which are connected to the inputs of the neurons of the first hidden layer of the artificial neural network, the outputs of which are connected to the inputs of the neur of the second hidden layer of the artificial neural network, the outputs of which are connected to the neuron inputs of the output layer of the artificial neural network, the output of which, which is the output of the artificial neural network, is represented by a number varying from 0 to 1 and showing the degree of similarity of the two compared images.
RU2016129029A 2016-07-15 2016-07-15 Method for determining protectability of designations as trademarks RU2625523C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2016129029A RU2625523C1 (en) 2016-07-15 2016-07-15 Method for determining protectability of designations as trademarks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2016129029A RU2625523C1 (en) 2016-07-15 2016-07-15 Method for determining protectability of designations as trademarks

Publications (1)

Publication Number Publication Date
RU2625523C1 true RU2625523C1 (en) 2017-07-14

Family

ID=59495619

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016129029A RU2625523C1 (en) 2016-07-15 2016-07-15 Method for determining protectability of designations as trademarks

Country Status (1)

Country Link
RU (1) RU2625523C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2708348C1 (en) * 2019-05-28 2019-12-05 Андрей Александрович Курило Method of determining guardability of notations as trademarks while maintaining a level of database resolution

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050207633A1 (en) * 2003-04-02 2005-09-22 Nick Arini Method of, and computer software for, classification of cells into subpopulations
US20100166320A1 (en) * 2008-12-26 2010-07-01 Paquier Williams J F Multi-stage image pattern recognizer
RU2515706C2 (en) * 2012-08-21 2014-05-20 Общество с ограниченной ответственностью "Кузнеч" ООО "Кузнеч" Method and system for searching for copyright infringements on image
RU2524869C1 (en) * 2013-01-09 2014-08-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Device for colouring black and white image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050207633A1 (en) * 2003-04-02 2005-09-22 Nick Arini Method of, and computer software for, classification of cells into subpopulations
US20100166320A1 (en) * 2008-12-26 2010-07-01 Paquier Williams J F Multi-stage image pattern recognizer
RU2515706C2 (en) * 2012-08-21 2014-05-20 Общество с ограниченной ответственностью "Кузнеч" ООО "Кузнеч" Method and system for searching for copyright infringements on image
RU2524869C1 (en) * 2013-01-09 2014-08-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Device for colouring black and white image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2708348C1 (en) * 2019-05-28 2019-12-05 Андрей Александрович Курило Method of determining guardability of notations as trademarks while maintaining a level of database resolution

Similar Documents

Publication Publication Date Title
Yang et al. Source camera identification based on content-adaptive fusion residual networks
US9344690B2 (en) Image demosaicing
Güera et al. A counter-forensic method for CNN-based camera model identification
EP3261017A1 (en) Image processing system to detect objects of interest
US20120224789A1 (en) Noise suppression in low light images
CN106203461B (en) Image processing method and device
CN105139385A (en) Image visual saliency region detection method based on deep automatic encoder reconfiguration
CN113963041A (en) Image texture recognition method and system
CN115496740A (en) Lens defect detection method and system based on convolutional neural network
JP7463186B2 (en) Information processing device, information processing method, and program
US20220414827A1 (en) Training apparatus, training method, and medium
TWI792696B (en) Methods and apparatuses of contrastive learning for color constancy
RU2625523C1 (en) Method for determining protectability of designations as trademarks
CN115578590A (en) Image identification method and device based on convolutional neural network model and terminal equipment
CN111047618A (en) Multi-scale-based non-reference screen content image quality evaluation method
Shreya Digital Image Processing and Recognition Using Python
Buzzelli et al. Consensus-driven illuminant estimation with GANs
Yuan et al. Color image quality assessment with multi deep convolutional networks
Shumilov et al. On binarization of images at the pavement defects recognition
CN111027573A (en) Image authenticity identification method based on blind evidence obtaining technology
Moradi-Gharghani et al. A new block-based copy-move forgery detection method in digital images
CN108322723B (en) Color distortion compensation method and device and television
CN110199297B (en) Method and apparatus for color similarity assessment
Zhengming et al. Skin detection in color images
CN114821098A (en) High-speed pavement damage detection algorithm based on gray gradient fusion characteristics and CNN