RU2625523C1 - Method for determining protectability of designations as trademarks - Google Patents
Method for determining protectability of designations as trademarks Download PDFInfo
- Publication number
- RU2625523C1 RU2625523C1 RU2016129029A RU2016129029A RU2625523C1 RU 2625523 C1 RU2625523 C1 RU 2625523C1 RU 2016129029 A RU2016129029 A RU 2016129029A RU 2016129029 A RU2016129029 A RU 2016129029A RU 2625523 C1 RU2625523 C1 RU 2625523C1
- Authority
- RU
- Russia
- Prior art keywords
- neural network
- image
- neurons
- images
- input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
Изобретение относится к вычислительной технике и может быть использовано в компьютерных системах для определения охраноспособности обозначений в качестве товарных знаков.The invention relates to computer technology and can be used in computer systems to determine the protection of designations as trademarks.
Установление охраноспособности обозначения на основе сравнения его с массивом ранее зарегистрированных товарных знаков представляет собой сложную задачу распознавания и классификации образов, в настоящее время разрешаемую с использованием ручной системы классификации элементов изображений (Венской классификации), корректное использование которой возможно только при достаточно высокой квалификации специалиста-исполнителя.Establishing the protection of a designation by comparing it with an array of previously registered trademarks is a difficult task of recognizing and classifying images, currently resolved using a manual system for classifying image elements (Vienna classification), the correct use of which is possible only with a sufficiently high qualification of a specialist specialist .
Существующие методы и алгоритмы машинного распознавания образов не могут быть корректно применены к задаче установления охраноспособности обозначения ввиду специфических условий и ограничений, таких как необходимость установления схожести изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.Existing methods and algorithms for machine pattern recognition cannot be correctly applied to the task of establishing the protection of a designation due to specific conditions and limitations, such as the need to establish the similarity of images to the degree of confusion and the inclusion of image elements in the composition of comparative samples.
Известен способ и система поиска нарушений авторских прав на изображения (патент WO 2014031022 A1), основанный на расчете и сравнении дескрипторов для сравниваемых изображений. Однако такой подход не позволяет проводить нелинейный анализ сравниваемых изображений, что ухудшает качество сравнения изображений на практике.A known method and system for searching for copyright infringement on images (patent WO 2014031022 A1), based on the calculation and comparison of descriptors for the compared images. However, this approach does not allow non-linear analysis of the compared images, which affects the quality of image comparison in practice.
Техническим результатом настоящего изобретения является улучшение качества определения сходства или различия изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.The technical result of the present invention is to improve the quality of determining the similarity or difference of images to the extent of mixing and the inclusion of image elements in the composition of the comparative samples.
Предлагаемый способ состоит из вычисления степени сходства изображения, тестируемого на наличие признака охраноспособности, с каждым изображением из базы зарегистрированных изображений.The proposed method consists of calculating the degree of similarity of the image being tested for the presence of a sign of eligibility, with each image from the database of registered images.
Степень сходства двух изображений определяется в два этапа.The degree of similarity of the two images is determined in two stages.
1 этап.
На этом этапе изображение считывается из файла и подготавливается для последующей обработки. Считанное изображение должно быть преобразовано путем масштабирования к разрешению x×y пикселей, заданному пользователем (х - ширина изображения, у - высота изображения). Для этого используется алгоритм бикубической интерполяции.At this stage, the image is read from the file and prepared for further processing. The read image must be converted by scaling to the resolution x × y pixels specified by the user (x is the image width, y is the image height). For this, the bicubic interpolation algorithm is used.
Для полученного массива х×y пикселей формируются следующие матрицы размера х×y: R - матрица уровня красного цвета пикселей изображения (компонента Red в RGB представлении); G - матрица уровня зеленого цвета пикселей изображения (компонента Green в RGB представлении); В - матрица уровня синего цвета пикселей изображения (компонента Blue в RGB представлении); Gray - матрица уровня серого цвета пикселей изображения (уровень яркости пикселя при отображении изображения в оттенках серого Grayscale), рассчитываемая по формуле Gray=0,2989R+0,5870G+0,1140B.For the resulting x × y pixel array, the following x × y matrices are formed: R is the matrix of the red level of the image pixels (the Red component in the RGB representation); G - matrix of the green level of the pixels of the image (Green component in the RGB representation); B - matrix of the level of blue color of the image pixels (Blue component in the RGB representation); Gray - a matrix of the gray level of the pixels of the image (the brightness level of the pixel when displaying the image in Grayscale grayscale), calculated by the formula Gray = 0.2989R + 0.5870G + 0.1140B.
Элементы подготовленных матрицы R, G, В и Gray имеют целочисленные значения без знака (формат unsigned integer 8 bit - целочисленные данные, изменяющиеся в диапазоне от 0 до 255).Elements of the prepared matrices R, G, B, and Gray have unsigned integer values (
После этого элементы матриц R, G, В и Gray преобразуются к вещественному формату путем деления на 256, то есть преобразованные элементы матриц изменяются в пределах от 0 до 1. Полученные преобразованные матрицы поступают на вход нейронной сети.After that, the elements of the matrices R, G, B and Gray are converted to the real format by dividing by 256, that is, the converted matrix elements vary from 0 to 1. The resulting converted matrices are fed to the input of the neural network.
2 этап.2 stage.
Две группы матриц R, G, В и Gray одного размера, сформированные для двух сравниваемых изображений при помощи последовательности действий, описанных на этапе 1, поступают на вход нейронной сети.Two groups of matrices R, G, B and Gray of the same size, formed for two compared images using the sequence of steps described in
Нейронная сеть из элементарных компонент - нейронов, изображенных на фиг. 1. Изображенный на рисунке 1 нейрон функционирует следующим образом. На входы нейрона поступают сигналы со входов 1-1, 1-2, …, 1-n. Сигнал с каждого входа умножается на соответствующий весовой коэффициент 2-1, 2-2, …, 2-n при помощи блоков умножения 3-1, 3-2, …, 3-n. Все полученные результаты умножений складываются в сумматоре 4. Результат умножения преобразуется функцией активации 5. Полученный результат поступает на выход нейрона 6. Все входы нейрона, весовые коэффициенты и выход нейрона должны иметь вещественное значения, изменяющиеся от 0 до 1.A neural network of elementary components - neurons depicted in FIG. 1. The neuron depicted in Figure 1 operates as follows. The inputs of the neuron receive signals from inputs 1-1, 1-2, ..., 1-n. The signal from each input is multiplied by the corresponding weight coefficient 2-1, 2-2, ..., 2-n using multiplication blocks 3-1, 3-2, ..., 3-n. All the obtained multiplication results are added up in the
Функция активации может иметь один из следующих видов.The activation function may have one of the following types.
A. Линейная функция активацииA. Linear activation function
Б. Пороговая передаточная функцияB. Threshold transfer function
где Т - величина порога (вещественная), задаваемая пользователем.where T is the threshold value (real) specified by the user.
B. Сигмоидальная функцияB. Sigmoid function
где А, В - вещественные параметры, задаваемые пользователем.where A, B are real parameters specified by the user.
Г. Гиперболический тангенсG. Hyperbolic tangent
где А, В - вещественные параметры, задаваемые пользователем.where A, B are real parameters specified by the user.
Весовые коэффициенты 2-1, 2-2, …, 2-n определяются до начала работы, в процессе обучения нейронной сети.Weighting factors 2-1, 2-2, ..., 2-n are determined before the start of work, in the process of training a neural network.
На фиг. 2 изображена архитектура нейронной сети. Изображенная на рисунке 2 архитектура нейронной сети содержит входной слой нейронов 8, состоящий из нейронов 9-1, 9-2, …, 9-х; первый скрытый слой нейронов 10, состоящий из нейронов 11-1, 11-2, …, 11-у; второй скрытый слой нейронов 12, состоящий из нейронов 13-1, 13-2, …, 13-z; и выходной слой нейронов 14, состоящий из одного нейрона 15. Каждый нейрон 9-1, 9-2, …, 9-х, 11-1, 11-2, …, 11-у, 13-1, 13-2, …, 13-z представляет собой устройство, изображенное на фиг. 1. Каждый слой нейронов связан только с двумя слоями: предшествующим и последующим. Связь между двумя соседними слоями осуществляется следующим образом: единственный выход каждого нейрона предыдущего слоя подается на вход каждому нейрону последующего слоя. Количество нейронов во входном слое, а также в каждом из скрытых слоев определяется пользователем до начала использования работы изобретения. Выход 16 нейрона 15 считается выходом всей сети и является результатом ее работы. На входы нейронов 9-1, 9-2, …, 9-х входного слоя нейронов 8 поступает информация о двух сравниваемых изображениях в соответствии со схемой, изображенной на рисунке 3.In FIG. 2 shows the architecture of a neural network. The neural network architecture depicted in Figure 2 contains an input layer of
На рисунке 3 изображено подробно описание входного слоя 8 и его взаимодействие с поступающими на вход 7 матрицами пикселей изображений модуля, сформированными на первом этапе. Все нейроны входного слоя 8 делятся на 4 группы: группа нейронов 21 для обработки матриц R двух сравниваемых изображений, подаваемых через входы 17-1 и 17-2, соответственно; группа нейронов 22 для обработки матриц G двух сравниваемых изображений, подаваемых через входы 18-1 и 18-2, соответственно; группа нейронов 23 для обработки матриц В двух сравниваемых изображений, подаваемых через входы 19-1 и 19-2, соответственно; группа нейронов 24 для обработки матриц Gray двух сравниваемых изображений, подаваемых через входы 20-1 и 20-2, соответственно. Количество нейронов каждой группы определяется пользователем в отдельности до начала использования работы изобретения. Нейроны каждой группы должны обрабатывать все элементы двух матриц двух сравниваемых изображений. Это означает, что каждый нейрон из группы 21 получает на вход все элементы матрицы R первого изображения и все элементы матрицы R второго изображения; каждый нейрон из группы 22 получает на вход все элементы матрицы G первого изображения и все элементы матрицы G второго изображения; каждый нейрон из группы 23 получает на вход все элементы матрицы В первого изображения и все элементы матрицы В второго изображения; каждый нейрон из группы 24 получает на вход все элементы матрицы Gray первого изображения и все элементы матрицы Gray второго изображения. Если подготовленные на первом этапе матрицы R, G, В, Gray каждого изображения имели х×у элементов, то каждый нейрон групп 21-24 должен иметь 2xy входов и 2xy весовых коэффициентов для них.Figure 3 depicts in detail the description of the
Результатом данного этапа является значение 16, полученное на выходе нейронной сети, которое изменяется от 0 до 1.The result of this stage is a value of 16 obtained at the output of the neural network, which varies from 0 to 1.
Результатом применения нейронной сети является числовое значение от 0 до 1, показывающее степень схожести сравниваемых изображений. Для определения охраноспособности изображения необходимо произвести сравнение тестируемого изображения с каждым изображением из базы зарегистрированных изображений. Изображение считается охраноспособным, если ни для какой пары сравниваемых изображений не было превышено пороговое значение степени сходства, заданное до начала использования работы изобретения.The result of the use of a neural network is a numerical value from 0 to 1, showing the degree of similarity of the compared images. To determine the image protection, it is necessary to compare the tested image with each image from the database of registered images. An image is considered to be protectable if, for any pair of compared images, the threshold value of the degree of similarity set before using the invention was not exceeded.
Предложенный способ позволяет осуществлять нелинейное сравнение изображений за счет искусственной нейронной сети, нейроны которой имеют нелинейные функции активации. Результатом такого подхода является улучшение качества определения сходства или различия изображений, в том числе установление схожести изображений до степени смешения и вхождения элементов изображения в состав сравнительных образцов.The proposed method allows non-linear comparison of images due to an artificial neural network, the neurons of which have non-linear activation functions. The result of this approach is to improve the quality of determining the similarity or difference of images, including the establishment of similarity of images to the degree of mixing and the inclusion of image elements in the composition of comparative samples.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2016129029A RU2625523C1 (en) | 2016-07-15 | 2016-07-15 | Method for determining protectability of designations as trademarks |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2016129029A RU2625523C1 (en) | 2016-07-15 | 2016-07-15 | Method for determining protectability of designations as trademarks |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2625523C1 true RU2625523C1 (en) | 2017-07-14 |
Family
ID=59495619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016129029A RU2625523C1 (en) | 2016-07-15 | 2016-07-15 | Method for determining protectability of designations as trademarks |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2625523C1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2708348C1 (en) * | 2019-05-28 | 2019-12-05 | Андрей Александрович Курило | Method of determining guardability of notations as trademarks while maintaining a level of database resolution |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050207633A1 (en) * | 2003-04-02 | 2005-09-22 | Nick Arini | Method of, and computer software for, classification of cells into subpopulations |
US20100166320A1 (en) * | 2008-12-26 | 2010-07-01 | Paquier Williams J F | Multi-stage image pattern recognizer |
RU2515706C2 (en) * | 2012-08-21 | 2014-05-20 | Общество с ограниченной ответственностью "Кузнеч" ООО "Кузнеч" | Method and system for searching for copyright infringements on image |
RU2524869C1 (en) * | 2013-01-09 | 2014-08-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") | Device for colouring black and white image |
-
2016
- 2016-07-15 RU RU2016129029A patent/RU2625523C1/en active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050207633A1 (en) * | 2003-04-02 | 2005-09-22 | Nick Arini | Method of, and computer software for, classification of cells into subpopulations |
US20100166320A1 (en) * | 2008-12-26 | 2010-07-01 | Paquier Williams J F | Multi-stage image pattern recognizer |
RU2515706C2 (en) * | 2012-08-21 | 2014-05-20 | Общество с ограниченной ответственностью "Кузнеч" ООО "Кузнеч" | Method and system for searching for copyright infringements on image |
RU2524869C1 (en) * | 2013-01-09 | 2014-08-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") | Device for colouring black and white image |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2708348C1 (en) * | 2019-05-28 | 2019-12-05 | Андрей Александрович Курило | Method of determining guardability of notations as trademarks while maintaining a level of database resolution |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Source camera identification based on content-adaptive fusion residual networks | |
US9344690B2 (en) | Image demosaicing | |
Güera et al. | A counter-forensic method for CNN-based camera model identification | |
EP3261017A1 (en) | Image processing system to detect objects of interest | |
US20120224789A1 (en) | Noise suppression in low light images | |
CN106203461B (en) | Image processing method and device | |
CN105139385A (en) | Image visual saliency region detection method based on deep automatic encoder reconfiguration | |
CN113963041A (en) | Image texture recognition method and system | |
CN115496740A (en) | Lens defect detection method and system based on convolutional neural network | |
JP7463186B2 (en) | Information processing device, information processing method, and program | |
US20220414827A1 (en) | Training apparatus, training method, and medium | |
TWI792696B (en) | Methods and apparatuses of contrastive learning for color constancy | |
RU2625523C1 (en) | Method for determining protectability of designations as trademarks | |
CN115578590A (en) | Image identification method and device based on convolutional neural network model and terminal equipment | |
CN111047618A (en) | Multi-scale-based non-reference screen content image quality evaluation method | |
Shreya | Digital Image Processing and Recognition Using Python | |
Buzzelli et al. | Consensus-driven illuminant estimation with GANs | |
Yuan et al. | Color image quality assessment with multi deep convolutional networks | |
Shumilov et al. | On binarization of images at the pavement defects recognition | |
CN111027573A (en) | Image authenticity identification method based on blind evidence obtaining technology | |
Moradi-Gharghani et al. | A new block-based copy-move forgery detection method in digital images | |
CN108322723B (en) | Color distortion compensation method and device and television | |
CN110199297B (en) | Method and apparatus for color similarity assessment | |
Zhengming et al. | Skin detection in color images | |
CN114821098A (en) | High-speed pavement damage detection algorithm based on gray gradient fusion characteristics and CNN |