[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7532159B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7532159B2
JP7532159B2 JP2020154594A JP2020154594A JP7532159B2 JP 7532159 B2 JP7532159 B2 JP 7532159B2 JP 2020154594 A JP2020154594 A JP 2020154594A JP 2020154594 A JP2020154594 A JP 2020154594A JP 7532159 B2 JP7532159 B2 JP 7532159B2
Authority
JP
Japan
Prior art keywords
data
information
information processing
annotation
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154594A
Other languages
Japanese (ja)
Other versions
JP2022048648A (en
Inventor
慶尚 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020154594A priority Critical patent/JP7532159B2/en
Publication of JP2022048648A publication Critical patent/JP2022048648A/en
Application granted granted Critical
Publication of JP7532159B2 publication Critical patent/JP7532159B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

機械学習に用いられる学習データを作成するためのプログラムとして、対象となるデータに対して学習すべき正解情報(正解ラベル)を付与するアノテーションツールが利用されている。機械学習に用いられる学習データに対しては、付与される正解情報の精度がより高いことと、そのデータの数がより多いことが求められている。これは、高精度かつデータ量が多い学習データが学習に用いられることで、より高性能な機械学習モデル(例えば、推定結果の精度がより高い機械学習モデル)を作成可能となるためである。 Annotation tools that assign correct answer information (correct answer labels) to target data to be learned are used as programs for creating training data used in machine learning. There is a demand for higher accuracy of the assigned correct answer information and for a larger amount of data to be used for training data used in machine learning. This is because using highly accurate and large amount of training data for training makes it possible to create a higher performance machine learning model (for example, a machine learning model with more accurate estimation results).

アノテーションツールには、例えば、対象となるデータに対してより高精度な正解情報を効率的に付与するための機能が用意されている場合がある。例えば、事前に別の学習データを用いて学習済みの類似タスク向けの機械学習モデルを利用して、アノテーションの対象となるデータを解析し、当該解析の結果に基づき、アノテーションとして付与する正解情報の候補を自動的に提示する機能が挙げられる。また、他の一例として、特許文献1に開示された機能が挙げられる。この機能は、アノテーションの付与に係る作業の信頼度を複数の指標から算出し、信頼度が閾値以下の場合にはアノテーションの付与に係る作業のやり直しを提案する。この機能を利用して、アノテーションの付与に係る作業の精度を向上させることで、付与された正解情報の精度がより高い学習データを作成することが可能となる。 Annotation tools may have a function for efficiently assigning more accurate correct answer information to target data, for example. For example, a function may be provided that uses a machine learning model for a similar task that has been trained in advance using other training data to analyze data to be annotated, and automatically presents candidates for correct answer information to be assigned as annotations based on the results of the analysis. Another example is the function disclosed in Patent Literature 1. This function calculates the reliability of the work related to the annotation from multiple indicators, and suggests redoing the work related to the annotation if the reliability is below a threshold. By using this function to improve the accuracy of the work related to the annotation, it is possible to create training data in which more accurate correct answer information is assigned.

特開2019-101560号公報JP 2019-101560 A

ところで、大量のデータに対してアノテーションを付与する作業には、より多くの工数(人的コスト)が割かれる傾向にあるため、近年では、アノテーションの付与に係る作業の外部委託サービスが提供されている。このように、アノテーションの付与に係る作業に外部委託サービスが利用される状況下では、例えば、アノテーションの付与結果に関する妥当性をレビューすることで、学習データの精度(例えば、付与された正解情報の確からしさ)を保証する場合がある。 However, since the task of annotating large amounts of data tends to require a large amount of labor (human costs), in recent years, outsourcing services for annotation tasks have been provided. In such a situation where outsourcing services are used for annotation tasks, the accuracy of the training data (e.g., the reliability of the correct answer information added) may be guaranteed, for example, by reviewing the validity of the annotation results.

一方で、アノテーションの付与結果の妥当性についてのレビューの難易度が、当該レビューの対象となるデータに応じて異なる場合がある。このような状況下では、例えば、レビューに係る習熟度の低いレビュー作業者に対して、レビューの難易度が高いアノテーションの付与結果が割り当てられることで、より正確なレビューを行うことが困難となり、ひいては学習データの精度が低下する場合がある。このような背景から、アノテーションの付与結果の妥当性についてのレビューに係る難易度を推定可能とすることで、当該レビューに係る作業の効率化と、学習データの精度の向上とを両立可能とする仕組みの導入が求められている。 On the other hand, the difficulty of reviewing the validity of annotation results may vary depending on the data being reviewed. In such a situation, for example, a reviewer with low review proficiency may be assigned annotation results with high review difficulty, making it difficult for them to perform a more accurate review, which may result in a decrease in the accuracy of the training data. In light of this, there is a need for a mechanism that can estimate the difficulty of reviewing the validity of annotation results, thereby making it possible to both improve the efficiency of the review work and the accuracy of the training data.

本発明は上記の問題を鑑み、アノテーションの付与結果の妥当性についてのレビューに係る難易度をより好適な態様で推定可能とすることを目的とする。 In consideration of the above problems, the present invention aims to make it possible to estimate the difficulty of reviewing the validity of annotation results in a more suitable manner.

本発明に係る情報処理装置は、アノテーションが付与されたデータから、当該データに対するアノテーションの付与結果の妥当性についてのレビューの難易度の指標に関する情報を抽出する抽出手段と、前記データから抽出された前記情報に基づき、前記難易度を計算する計算手段と、を備えることを特徴とする。 The information processing device according to the present invention is characterized by comprising an extraction means for extracting information from annotated data, the information relating to an index of the difficulty of reviewing the validity of the annotation results for the data, and a calculation means for calculating the difficulty based on the information extracted from the data.

本発明によれば、アノテーションの付与結果の妥当性についてのレビューに係る難易度をより好適な態様で推定することが可能となる。 According to the present invention, it is possible to estimate the difficulty of reviewing the validity of annotation results in a more suitable manner.

情報処理装置のハードウェア構成の一例を示した図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device. 情報処理装置の機能構成の一例を示したブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of an information processing device. ユーザインタフェースの一例を示した図である。FIG. 11 is a diagram showing an example of a user interface. 正解情報ファイルの一例を示した図である。FIG. 13 is a diagram showing an example of a correct answer information file. パラメータの保管に係るデータベースの構造の一例を示した図である。FIG. 2 is a diagram showing an example of a structure of a database related to parameter storage. 情報処理装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing by an information processing device. 情報処理装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing by an information processing device. 情報処理装置の処理の一例を示したフローチャートである。11 is a flowchart showing an example of processing by an information processing device. 情報処理装置の機能構成の他の一例を示したブロック図である。FIG. 11 is a block diagram showing another example of a functional configuration of the information processing device. 情報処理装置の処理の他の一例を示したフローチャートである。10 is a flowchart showing another example of the process of the information processing device. 情報処理装置の処理の他の一例を示したフローチャートである。10 is a flowchart showing another example of the process of the information processing device.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 A preferred embodiment of the present disclosure will be described in detail below with reference to the attached drawings. Note that in this specification and drawings, components having substantially the same functional configuration are designated by the same reference numerals to avoid redundant description.

また、本開示では、既存の学習済みの機械学習モデルを「事前学習モデル」とも称する。また、作業者によるアノテーション作業の対象となるデータを「アノテーション対象データ」とも称する。また、アノテーション作業により、アノテーション対象データに付与されたアノテーションの情報を「正解情報」とも称する。また、アノテーション対象データと正解情報とを合わせたものを、「アノテーション作業結果データ」とも称する。 In addition, in this disclosure, an existing trained machine learning model is also referred to as a "pre-trained model." Data that is the subject of annotation work by an operator is also referred to as "annotation target data." Annotation information that is assigned to annotation target data through annotation work is also referred to as "correct answer information." The combination of annotation target data and correct answer information is also referred to as "annotation work result data."

また、以降で説明する本実施形態に係る情報処理方法は、例えば、図1を参照して説明する情報処理装置(コンピュータ)が所定のプログラムを実行することで実現され得る。また、本実施形態に係る情報処理方法は、単一の情報処理装置により実現されてもよいし、複数の情報処理装置が協働することで実現されてもよい。複数の情報処理装置が協働することで本実施形態に係る情報処理方法が実現される場合には、例えば、当該情報処理方法を実現するための各機能が複数の情報処理装置に分散するように割り当てられてもよい。また、他の一例として、本実施形態に係る情報処理方法を実現するための各機能のうち少なくとも一部の機能の実現に係る処理の負荷が複数の情報処理装置に分散されてもよい。 The information processing method according to the present embodiment, which will be described below, can be realized, for example, by an information processing device (computer) described with reference to FIG. 1 executing a predetermined program. The information processing method according to the present embodiment may be realized by a single information processing device, or may be realized by multiple information processing devices working together. When the information processing method according to the present embodiment is realized by multiple information processing devices working together, for example, the functions for realizing the information processing method may be assigned so as to be distributed among multiple information processing devices. As another example, the processing load related to the realization of at least some of the functions for realizing the information processing method according to the present embodiment may be distributed among multiple information processing devices.

また、複数の情報処理装置が協働して動作する場合には、当該複数の情報処理装置は、所定のネットワークを介して互いに情報を送受信可能に接続される。なお、この場合には、複数の情報処理装置間を接続することが可能であれば、当該ネットワークの種別は特に限定されない。具体的な一例として、上記ネットワークとして、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)、公衆回線(例えば、電話回線、移動体通信回線等)等が適用されてもよい。また、他の一例として、上記ネットワークとして、専用線、ATM(Asynchronous Transfer Mode)やフレームリレー回線、ケーブルテレビ回線、データ放送用無線通信回線等が適用されてもよい。また、上記ネットワークは、無線のネットワークであってもよく、有線のネットワークであってもよい。また、上記ネットワークは、複数種類の異なるネットワークを含んでもよい。具体的な一例として、複数の情報処理装置間の通信が、他の通信装置により中継されてもよい。この場合において、当該他の通信装置と、複数の情報処理装置それぞれとの間の通信に対して、互いに異なる種別のネットワークが適用されてもよい。 In addition, when multiple information processing devices operate in cooperation with each other, the multiple information processing devices are connected to each other via a predetermined network so that they can transmit and receive information to each other. In this case, the type of the network is not particularly limited as long as it is possible to connect the multiple information processing devices to each other. As a specific example, the above network may be the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), a public line (e.g., a telephone line, a mobile communication line, etc.), etc. As another example, the above network may be a dedicated line, an ATM (Asynchronous Transfer Mode), a frame relay line, a cable television line, a wireless communication line for data broadcasting, etc. In addition, the above network may be a wireless network or a wired network. In addition, the above network may include multiple different types of networks. As a specific example, communication between multiple information processing devices may be relayed by another communication device. In this case, different types of networks may be applied to the communications between the other communication device and each of the multiple information processing devices.

<ハードウェア構成>
図1を参照して、本開示の一実施形態に係る情報処理装置100のハードウェア構成の一例について説明する。図1に示すように、本実施形態に係る情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103とを含む。また、情報処理装置100は、補助記憶装置104と、入力デバイスインタフェース105と、出力デバイスインタフェース106と、ネットワークインタフェース107とを含む。CPU101と、ROM102と、RAM103と、補助記憶装置104と、入力デバイスインタフェース105と、出力デバイスインタフェース106と、ネットワークインタフェース107とは、バス108を介して相互に接続されている。
<Hardware Configuration>
An example of a hardware configuration of an information processing device 100 according to an embodiment of the present disclosure will be described with reference to Fig. 1. As shown in Fig. 1, the information processing device 100 according to the embodiment includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103. The information processing device 100 also includes an auxiliary storage device 104, an input device interface 105, an output device interface 106, and a network interface 107. The CPU 101, the ROM 102, the RAM 103, the auxiliary storage device 104, the input device interface 105, the output device interface 106, and the network interface 107 are connected to each other via a bus 108.

CPU101は、情報処理装置100の各種動作を制御する中央演算装置である。例えば、CPU101は、情報処理装置100全体の動作を制御してもよい。ROM102は、CPU101で実行可能な制御プログラムやブートプログラムなどを記憶する。RAM103は、CPU101の主記憶メモリであり、ワークエリア又は各種プログラムを展開するための一時記憶領域として用いられる。 The CPU 101 is a central processing unit that controls various operations of the information processing device 100. For example, the CPU 101 may control the operation of the entire information processing device 100. The ROM 102 stores control programs and boot programs that can be executed by the CPU 101. The RAM 103 is the main storage memory of the CPU 101, and is used as a work area or a temporary storage area for expanding various programs.

補助記憶装置104は、各種データや各種プログラムを記憶する。補助記憶装置104は、例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)に代表される不揮発性メモリ等のような、各種データを一時的または持続的に記憶可能な記憶デバイスにより実現される。また、他の一例として、補助記憶装置104は、フレキシブルディスク(FD:Flexible Disk)やコンパクトディスク(CD:Compact Disk)等の光ディスク、磁気や光カード、ICカード、メモリカード等により実現されてもよい。 The auxiliary storage device 104 stores various data and programs. The auxiliary storage device 104 is realized by a storage device capable of temporarily or persistently storing various data, such as a non-volatile memory such as a hard disk drive (HDD) or a solid state drive (SSD). As another example, the auxiliary storage device 104 may be realized by an optical disk such as a flexible disk (FD) or a compact disk (CD), a magnetic or optical card, an IC card, a memory card, or the like.

入力デバイスインタフェース105は、ユーザから各種指示を受け付ける入力デバイス109を情報処理装置100に接続するためのインタフェースである。入力デバイス109は、例えば、ポインティングデバイス、キーボード、及びタッチパネル等が適用され得る。なお、入力デバイス109として適用されるデバイスは、ユーザからの指示を認識する方法に応じて適宜変更されてもよい。具体的な一例として、ユーザが発話した音声によりユーザからの指示が認識される場合には、マイクロフォン等のような当該音声を集音するための集音デバイスが入力デバイス109として適用されてもよい。また、入力デバイス109として複数種類のデバイスが適用されてもよい。 The input device interface 105 is an interface for connecting an input device 109 that receives various instructions from a user to the information processing device 100. For example, a pointing device, a keyboard, a touch panel, etc. may be applied as the input device 109. Note that the device applied as the input device 109 may be changed as appropriate depending on the method for recognizing instructions from the user. As a specific example, when instructions from a user are recognized by the voice spoken by the user, a sound collection device for collecting the voice, such as a microphone, may be applied as the input device 109. Also, multiple types of devices may be applied as the input device 109.

出力デバイスインタフェース106は、ユーザに対して各種情報を提示する出力デバイス110を情報処理装置100に接続するためのインタフェースである。出力デバイス110は、例えば、ディスプレイ等のような各種情報を視認可能に表示することで当該情報をユーザに提示する表示デバイスにより実現され得る。なお、出力デバイス110として適用されるデバイスは、ユーザに対して情報を提示する方法に応じて適宜変更されてもよい。具体的な一例として、出力デバイス110は、音声や電子音等の音響によりユーザに情報が提示される場合には、当該音響を出力可能なスピーカやヘッドホン等のような音響出力デバイスが出力デバイス110として適用されてもよい。また、出力デバイス110として複数種類のデバイスが適用されてもよい。 The output device interface 106 is an interface for connecting an output device 110, which presents various information to the user, to the information processing device 100. The output device 110 may be realized, for example, by a display device such as a display that presents various information to the user by visually displaying the information. The device applied as the output device 110 may be changed as appropriate depending on the method of presenting information to the user. As a specific example, when information is presented to the user by sound such as voice or electronic sound, an audio output device such as a speaker or headphones capable of outputting the sound may be applied as the output device 110. Furthermore, multiple types of devices may be applied as the output device 110.

ネットワークインタフェース107は、外部の装置とのネットワーク111(例えば、インターネット等)を介した通信に利用される。なお、ネットワークインタフェース107として適用されるデバイスは、通信経路の種別や適用される通信方式に応じて適宜変更されてもよい。 The network interface 107 is used for communication with an external device via a network 111 (e.g., the Internet, etc.). The device used as the network interface 107 may be changed as appropriate depending on the type of communication path and the communication method applied.

CPU101が、ROM102または補助記憶装置104に記憶されたプログラムをRAM103に展開し、このプログラムを実行することで、図2及び図9に示す機能構成や、図6~図8、図10、及び図11にフローチャートとして示す処理が実現される。
上記プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、及び光磁気ディスク等を利用することが可能である。また、記憶媒体の他の一例として、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード、ROM、DVD等を利用することも可能である。
また、上記プログラムは、コンピュータにより直接実行されてもよいし、コンピュータ上で動作するOS(Operating System)等のような基盤となるソフトウェアによる管理の元で実行されてもよい。
また、記憶媒体から読み出されたプログラムが、コンピュータに装着された機能拡張ボードや、コンピュータに接続された機能拡張ユニット等によって処理されてもよい。
The CPU 101 deploys a program stored in the ROM 102 or the auxiliary storage device 104 in the RAM 103 and executes this program, thereby realizing the functional configurations shown in Figures 2 and 9 and the processes shown as flowcharts in Figures 6 to 8, 10, and 11.
As a storage medium for supplying the above-mentioned program, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, etc. As other examples of the storage medium, it is also possible to use a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, a DVD, etc.
Furthermore, the above programs may be executed directly by a computer, or may be executed under the management of underlying software such as an OS (Operating System) that runs on the computer.
Furthermore, the program read from the storage medium may be processed by a function expansion board mounted on the computer, a function expansion unit connected to the computer, or the like.

<第1の実施形態>
本開示の第1の実施形態として、対象となるデータに対するアノテーションの付与結果の妥当性についてのレビューの難易度を推定する情報処理装置の一例について以下に説明する。
First Embodiment
As a first embodiment of the present disclosure, an example of an information processing device that estimates a degree of difficulty of reviewing the validity of an annotation result for target data will be described below.

(機能構成)
まず、図2を参照して、本実施形態に係る情報処理装置の機能構成の一例について説明する。なお、以降では、本実施形態に係る情報処理装置を、他の実施形態に係る情報処理装置と区別するために、便宜上「情報処理装置200」とも称する。
(Functional configuration)
First, an example of the functional configuration of an information processing device according to this embodiment will be described with reference to Fig. 2. In the following, the information processing device according to this embodiment will also be referred to as "information processing device 200" for convenience in order to distinguish it from information processing devices according to other embodiments.

情報処理装置200は、データ入力部201と、指標抽出部202と、パラメータ保管部203と、レビュー難易度計算部204とを含む。 The information processing device 200 includes a data input unit 201, an index extraction unit 202, a parameter storage unit 203, and a review difficulty calculation unit 204.

データ入力部201は、アノテーションの付与の対象となるデータ(例えば、画像)と、当該データに対してアノテーションとして付与された正解情報とを含む一連のデータ(以降では、「アノテーション作業結果データ」とも称する)の入力を受け付ける。アノテーション作業結果データの入力には、例えば、ユーザからの指示を受け付けるユーザインタフェースが用いられる。 The data input unit 201 accepts input of a series of data (hereinafter also referred to as "annotation work result data") including data to be annotated (e.g., an image) and correct answer information that has been annotated to the data. For example, a user interface that accepts instructions from a user is used to input the annotation work result data.

例えば、図3は、アノテーション作業結果データの入力を受け付けるためのユーザインタフェース300の一例を示した図である。ユーザインタフェース300は、入力領域301及び302と、決定ボタン303とを含む。
入力領域301は、アノテーションの対象となるデータに対する正解情報の付与結果に関するファイル(以下、「正解情報ファイル」とも称する)のパスの指定をユーザから受け付けるための入力領域である。
入力領域302は、アノテーションの対象となるデータ(例えば、画像等)に対応するファイルのパスの指定をユーザから受け付けるための入力領域である。
決定ボタン303は、入力領域301及び302それぞれに入力された情報の確定に係る指示をユーザから受け付けるボタンである。
3 is a diagram showing an example of a user interface 300 for receiving input of annotation work result data. The user interface 300 includes input areas 301 and 302 and an enter button 303.
The input area 301 is an input area for receiving, from the user, the specification of the path of a file related to the result of adding correct answer information to data to be annotated (hereinafter, also referred to as a "correct answer information file").
The input area 302 is an input area for receiving, from the user, a specification of a path of a file corresponding to data (such as an image) to be annotated.
The enter button 303 is a button for accepting an instruction from the user to confirm the information input in the input areas 301 and 302, respectively.

データ入力部201は、入力領域301及び302それぞれに対してファイルへのパスが入力された状態で、ポインタ310の操作に基づき決定ボタン303が押下されると、当該入力領域301及び302それぞれに入力された情報(パス)を取得する。そのうえで、データ入力部201は、入力領域301に入力された情報(パス)に基づき正解情報ファイルを読み出すことで、アノテーションの対象となるデータに対する正解情報の付与結果を取得する。また、データ入力部201は、入力領域302に入力された情報(パス)に基づきアノテーションの対象となるデータのファイルを読み出すことで、当該データを取得する。以上のようにして、データ入力部201は、ユーザから指定されたアノテーション作業結果データを取得する。 When the confirm button 303 is pressed based on the operation of the pointer 310 with the file paths input into the input areas 301 and 302, the data input unit 201 acquires the information (paths) input into the input areas 301 and 302. The data input unit 201 then acquires the result of assigning correct answer information to the data to be annotated by reading out the correct answer information file based on the information (path) input into the input area 301. The data input unit 201 also acquires the data by reading out the file of the data to be annotated based on the information (path) input into the input area 302. In this way, the data input unit 201 acquires the annotation work result data specified by the user.

なお、ポインタ310の操作は、例えば、入力デバイス109として情報処理装置200に接続されたポインティングデバイス等により実現され得る。もちろん、ポインタ310の操作を実現することが可能であれば、その方法は必ずしもポインティングデバイスを利用した方法には限定されない。
また、図3に示す例では、アノテーションの対象となるデータに対応するファイルと、正解情報ファイルとのそれぞれのパスが個別に指定される場合の一例について説明したが、これらのファイルを読み出すことが可能であればその指定方法は限定されない。例えば、図4を参照して後述する例では、正解情報ファイルがアノテーションの対象となるデータに対応するファイルのパスに関する情報を含んでいる。この場合には、正解情報ファイルのパスの指定を受け付けることで、当該正解情報ファイルと、当該正解情報ファイルに含まれるパスに関する情報により指定されたアノテーションの対象となるデータのファイルとが読み出されてもよい。
The operation of the pointer 310 can be realized, for example, by a pointing device connected to the information processing device 200 as the input device 109. Of course, as long as it is possible to realize the operation of the pointer 310, the method is not necessarily limited to a method using a pointing device.
In addition, in the example shown in Fig. 3, an example of a case where the paths of the file corresponding to the data to be annotated and the correct answer information file are specified separately has been described, but the method of specification is not limited as long as these files can be read. For example, in an example described later with reference to Fig. 4, the correct answer information file includes information regarding the path of the file corresponding to the data to be annotated. In this case, by accepting the specification of the path of the correct answer information file, the correct answer information file and the file of the data to be annotated specified by the information regarding the path included in the correct answer information file may be read.

ここで、図4を参照して、正解情報ファイルの一例について説明する。図4に示す正解情報ファイル400は、xmlと称されるマークアップ言語により、アノテーションの対象となるデータに対する正解情報の付与結果に関する各種情報が記録されている。
具体的には、正解情報ファイル400は、annotation要素によりこのファイルがアノテーションの付与結果に関する情報を含むことを示している。図4に示す例では、folder要素及びfilename要素により、アノテーションの対象となるデータ(例えば、画像)に対応するファイルが指定されている。具体的には、図4に示す例では、画像をアノテーションの対象となるデータとしており、当該画像のファイルがfolder要素及びfilename要素により指定されている。
また、size要素では、アノテーションの対象となるデータのサイズ(画像の大きさ)が指定されている。具体的には、width要素によりアノテーションの対象となるデータの幅が指定されている。また、height要素によりアノテーションの対象となるデータの高さが指定されている。
また、оbject要素により、アノテーションの対象となるデータに対して付与された正解情報に関する各種情報が指定されている。具体的には、name要素によりどのような正解情報(対象が何を示しているかを示す情報)が付与されたかが示されている。また、bndbox要素により、アノテーションの対象となるデータ(例えば、画像)中のどの領域に、name要素で指定したアノテーション(正解情報)を付与したバウンディングボックスを配置したかを示している。例えば、図4に示す例では、xmin要素及びxmax要素によりバウンディングボックスが配置されるx方向(幅方向)の領域が示されており、ymin要素及びymax要素によりバウンディングボックスが配置されるy方向(高さ方向)の領域が示されている。
An example of a correct answer information file will now be described with reference to Fig. 4. In the correct answer information file 400 shown in Fig. 4, various information related to the result of assigning correct answer information to data to be annotated is recorded in a markup language called XML.
Specifically, the correct answer information file 400 indicates by the annotation element that this file contains information on the annotation result. In the example shown in Fig. 4, the folder element and the filename element specify a file corresponding to the data (e.g., an image) to be annotated. Specifically, in the example shown in Fig. 4, an image is set as the data to be annotated, and the file of the image is specified by the folder element and the filename element.
The size element specifies the size of the data to be annotated (image size). Specifically, the width element specifies the width of the data to be annotated. The height element specifies the height of the data to be annotated.
In addition, the object element specifies various information related to the correct answer information given to the data to be annotated. Specifically, the name element indicates what correct answer information (information indicating what the target indicates) has been given. In addition, the bndbox element indicates in which area of the data to be annotated (e.g., an image) the bounding box to which the annotation (correct answer information) specified by the name element has been given is placed. For example, in the example shown in FIG. 4, the xmin element and the xmax element indicate the area in the x direction (width direction) where the bounding box is placed, and the ymin element and the ymax element indicate the area in the y direction (height direction) where the bounding box is placed.

もちろん、上記はあくまで一例であり、アノテーションの対象となるデータと、当該データに対する正解情報の付与結果とをデータ入力部201が取得することが可能であれば、その方法は上記に説明した例に限定はされない。
具体的な一例として、アノテーションの対象となるデータが画像ファイルとして取得され、当該データに対する正解情報の付与結果が所謂txt形式のデータとして取得されてもよい。
また、他の一例として、アノテーションの対象となるデータと、当該データに対する正解情報の付与結果とが所謂データベースに格納されていてもよい。この場合には、データ入力部201は、当該データベースから、所定の条件(例えば、ユーザから指定された条件)を満たすアノテーションの対象となるデータと、当該データに対する正解情報の付与結果とを取得すればよい。
また、正解情報ファイルのデータ形式についても特に限定はされない。具体的な一例として、正解情報ファイルのデータ形式として、YOLO形式やPASCAL VOC形式が採用されていてもよい。
Of course, the above is merely one example, and as long as the data input unit 201 is capable of acquiring the data to be annotated and the result of assigning correct answer information to the data, the method is not limited to the example described above.
As a specific example, data to be annotated may be acquired as an image file, and the result of adding correct answer information to the data may be acquired as data in a so-called txt format.
As another example, data to be annotated and the result of adding correct answer information to the data may be stored in a so-called database. In this case, the data input unit 201 may obtain data to be annotated that satisfies a predetermined condition (e.g., a condition specified by a user) and the result of adding correct answer information to the data from the database.
The data format of the correct answer information file is not particularly limited. As a specific example, the YOLO format or PASCAL VOC format may be adopted as the data format of the correct answer information file.

指標抽出部202は、対象となるデータ(例えば、データ入力部201が入力を受け付けたデータ)に対して所定の解析処理を施すことで、当該データからアノテーションの付与結果の妥当性についてのレビューの難易度の指標に関する情報を抽出する。なお、当該指標に関する情報の一例については詳細を別途後述する。 The index extraction unit 202 performs a predetermined analysis process on the target data (e.g., data received by the data input unit 201) to extract information about an index of the difficulty of reviewing the validity of the annotation results from the data. An example of the information about the index will be described in detail later.

パラメータ保管部203は、アノテーションの付与結果の妥当性についてのレビューの難易度の計算に係るパラメータに関する情報を保管する。なお、当該パラメータに関する情報を保管する方法については特に限定はされない。具体的な一例として、当該パラメータに関する情報の保管に所謂データベースが利用されてもよい。 The parameter storage unit 203 stores information about parameters related to the calculation of the difficulty of reviewing the validity of the annotation result. Note that there is no particular limitation on the method of storing the information about the parameters. As a specific example, a so-called database may be used to store the information about the parameters.

例えば、図5は、アノテーションの付与結果の妥当性についてのレビューの難易度の計算に係るパラメータに関する情報の保管に係るデータベース構造の一例を示した図である。図5に示す例では、パラメータ名と、当該パラメータに設定される値とが関連付けられて保管されている。
具体的な一例として、1行目のデータは、パラメータ名がバウンディングボックスの個数に対する重みであり、その値が0.1であることを示している。また、2行目のデータは、パラメータ名が他との重畳があるバウンディングボックスの個数に対する重みであり、その値が0.3であることを示している。また、3行目のデータは、パラメータ名がバウンディングボックスの総重畳面積に対する重みであり、その値が0.4であることを示している。
For example, Fig. 5 is a diagram showing an example of a database structure for storing information related to parameters for calculating the review difficulty level regarding the validity of the annotation result. In the example shown in Fig. 5, parameter names and values set for the parameters are stored in association with each other.
As a specific example, the data in the first line indicates that the parameter name is the weight for the number of bounding boxes and that the value is 0.1, the data in the second line indicates that the parameter name is the weight for the number of bounding boxes that overlap with others and that the value is 0.3, and the data in the third line indicates that the parameter name is the weight for the total overlap area of the bounding boxes and that the value is 0.4.

なお、図5に示す例はあくまで一例であり、上記パラメータに関する情報を保管することが可能であれば、当該保管に係る方法は特に限定はされない。具体的な一例として、上記に例示した各種パラメータに関する情報が、txt形式やxml形式の設定ファイルに保持されてもよい。
また、図5に挙げられたパラメータはあくまで一例であり、アノテーションの付与結果の妥当性についてのレビューの難易度の計算に利用可能であれば、当該難易度の計算に適用されるパラメータは特に限定はされない。また、図5に示す例では、3つのパラメータが示されているが、上記レビューの難易度の計算に利用されるパラメータの数は必ずしも3つには限定されない。具体的な一例として、上記レビューの難易度の計算に利用されるパラメータの数が、図5に示す例に比べてより多くてもよいし、より少なくてもよい。
5 is merely an example, and the method of storing the information on the parameters is not particularly limited as long as the information on the parameters can be stored. As a specific example, the information on the various parameters exemplified above may be stored in a setting file in txt format or xml format.
In addition, the parameters listed in Fig. 5 are merely examples, and the parameters applied to the calculation of the difficulty level are not particularly limited as long as they can be used to calculate the difficulty level of the review regarding the validity of the annotation result. In addition, although three parameters are shown in the example shown in Fig. 5, the number of parameters used to calculate the difficulty level of the review is not necessarily limited to three. As a specific example, the number of parameters used to calculate the difficulty level of the review may be more or less than the example shown in Fig. 5.

レビュー難易度計算部204は、対象となるデータに対するアノテーションの付与結果の妥当性についてのレビューの難易度を、指標抽出部202により当該データから抽出された指標に関する情報に基づき計算する。また、この際に、レビュー難易度計算部204は、パラメータ保管部203により保管されたパラメータを利用して、上記レビューの難易度を計算してもよい。具体的な一例として、レビュー難易度計算部204は、指標抽出部202により抽出された上記指標に関する情報に対して、パラメータ保管部203により保管されたパラメータに基づき重み付けを行うことで、上記レビューの難易度を計算してもよい。 The review difficulty calculation unit 204 calculates the difficulty of reviewing the validity of the annotation results for the target data based on information related to the indexes extracted from the data by the index extraction unit 202. In addition, at this time, the review difficulty calculation unit 204 may calculate the difficulty of the review by using parameters stored in the parameter storage unit 203. As a specific example, the review difficulty calculation unit 204 may calculate the difficulty of the review by weighting the information related to the indexes extracted by the index extraction unit 202 based on the parameters stored in the parameter storage unit 203.

(処理)
次いで、図6~図8を参照して、本実施形態に係る情報処理装置200の処理の一例について説明する。
(process)
Next, an example of processing by the information processing device 200 according to this embodiment will be described with reference to FIGS.

まず、図6を参照して、本実施形態に係る情報処理装置200の全体的な処理の流れの一例について説明する。
S601において、データ入力部201は、アノテーション作業結果データの入力を受け付けることで、当該アノテーション作業結果データを取得する。
S602において、指標抽出部202は、S601において取得されたアノテーション作業結果データに対して所定の解析処理を施すことで、当該データからアノテーションの付与結果の妥当性についてのレビューの難易度の指標に関する情報を抽出する。なお、S602の処理の詳細については、図7を参照して別途後述する。
S603において、対象となるデータに対するアノテーションの付与結果の妥当性についてのレビューの難易度を、S602において抽出された指標に関する情報に基づき計算する。なお、S603の処理の詳細については、図8を参照して別途後述する。
First, an example of the overall processing flow of the information processing device 200 according to this embodiment will be described with reference to FIG.
In S601, the data input unit 201 receives input of annotation work result data, thereby acquiring the annotation work result data.
In S602, the index extraction unit 202 performs a predetermined analysis process on the annotation work result data acquired in S601, thereby extracting information on an index of the difficulty of reviewing the validity of the annotation result from the data. Details of the process of S602 will be described separately later with reference to FIG. 7.
In S603, the degree of difficulty of reviewing the validity of the annotation result for the target data is calculated based on the information on the index extracted in S602. Note that details of the process of S603 will be described separately later with reference to FIG.

次いで、図7を参照して、図6におけるS602の処理の詳細について一例を説明する。
S701において、指標抽出部202は、図6のS601において取得されたアノテーション作業結果データから、バウンディングボックスの個数に関する情報を取得する。例えば、指標抽出部202は、アノテーション作業結果データが図4に示すxml形式のデータの場合には、当該データに設定されたbodbox要素の個数を、バウンディングボックスの個数に関する情報として取得してもよい。
もちろん、上記はあくまで一例であり、アノテーション作業結果データから、バウンディングボックスの個数に関する情報を取得することが可能であれば、その方法は限定されない。
Next, an example of the details of the process of S602 in FIG. 6 will be described with reference to FIG.
In S701, the index extraction unit 202 acquires information regarding the number of bounding boxes from the annotation work result data acquired in S601 of Fig. 6. For example, when the annotation work result data is data in the XML format shown in Fig. 4, the index extraction unit 202 may acquire the number of bodbox elements set in the data as information regarding the number of bounding boxes.
Of course, the above is merely an example, and the method is not limited as long as it is possible to obtain information regarding the number of bounding boxes from the annotation work result data.

S702において、指標抽出部202は、上記アノテーション作業結果データから、他のバウンディングボックスと重畳するバウンディングボックスの個数に関する情報を取得する。
具体的な一例として、指標抽出部202は、アノテーション作業結果データが図4に示すxml形式のデータの場合には、各bndbox要素以下のxmin、ymin、xmax、ymax要素に基づき、設定されたバウンディングボックスを認識してもよい。この場合には、例えば、指標抽出部202は、まず一部のbndbox要素について、xminを最小とし、xmaxを最大とするx軸範囲と、yminを最小とし、ymaxを最大とするy軸範囲を設定する。そのうえで、指標抽出部202は、他のbndbox要素のxminまたはxmaxが上記x軸範囲中に存在し、かつyminまたはymaxが上記y軸範囲中に存在する場合に、2つのバインディングが重畳していると認識してもよい。
また、他の一例として、指標抽出部202は、アノテーションの対象となるデータである画像の各画素に対して、当該画素が範囲内に含まれるバウンディングボックスのIDを付与したうえで、複数のバウンディンボックスのIDが付与された画素を抽出してもよい。この場合には、指標抽出部202は、抽出された各画素に対して付与されたバウンディングボックスのIDの組み合わせを抽出することで、重畳しているバウンディングボックスの組み合わせの数を抽出してもよい。この際に抽出される組み合わせの数が、他のバウンディングボックスと重畳するバウンディングボックスの個数に相当する。
もちろん上記はあくまで一例であり、アノテーション作業結果データから、他のバウンディングボックスと重畳するバウンディングボックスの個数に関する情報を取得することが可能であれば、その方法は限定されない。
In S702, the metric extraction unit 202 acquires information regarding the number of bounding boxes that overlap with other bounding boxes from the annotation work result data.
As a specific example, when the annotation work result data is data in the XML format shown in Fig. 4, the index extraction unit 202 may recognize the bounding box set based on the xmin, ymin, xmax, and ymax elements below each bndbox element. In this case, for example, the index extraction unit 202 first sets an x-axis range with xmin as the minimum and xmax as the maximum, and a y-axis range with ymin as the minimum and ymax as the maximum, for some bndbox elements. Then, the index extraction unit 202 may recognize that two bindings overlap when the xmin or xmax of another bndbox element is within the x-axis range and the ymin or ymax is within the y-axis range.
As another example, the index extraction unit 202 may assign, to each pixel of an image that is the data to be annotated, the ID of a bounding box that includes the pixel within its range, and then extract pixels to which multiple bounding box IDs have been assigned. In this case, the index extraction unit 202 may extract the number of combinations of overlapping bounding boxes by extracting combinations of bounding box IDs assigned to each extracted pixel. The number of combinations extracted at this time corresponds to the number of bounding boxes that overlap with other bounding boxes.
Of course, the above is merely an example, and the method is not limited as long as it is possible to obtain information regarding the number of bounding boxes that overlap with other bounding boxes from the annotation work result data.

S703において、指標抽出部202は、上記アノテーション作業結果データから、複数のバウンディングボックスが重畳する部分の面積(例えば、複数のバウンディングボックスが重畳する部分の総面積)に関する情報を取得する。
具体的な一例として、指標抽出部202は、S702において重畳していると認識した2つのバインディングボックスの各xmin及びxmaxのうち、最大でも最小でもない2つの値を、面積を求める対象範囲の一辺の両端として抽出する。同様にして、指標抽出部202は、上記2つのバインディングボックスの各ymin及びymaxのうち、最大でも最小でもない2つの値を、面積を求める対象範囲の他の一辺の両端として抽出する。そのうえで、指標抽出部202は、抽出した辺により規定される領域の面積を、上記2つのバインディングボックスが重畳する部分の面積として計算してもよい。以上のようにして、指標抽出部202は、重畳していると認識したバウンディンボックスの組それぞれについて上述した面積の計算を行う。そのうえで、指標抽出部202は、各組について計算した面積を合算した値を、複数のバウンディングボックスが重畳する部分の面積に関する情報として取得してもよい。
また、他の一例として、指標抽出部202は、複数のバウンディンボックスが重畳する部分の画素をカウントすることで、当該部分の面積に関する情報を取得してもよい。具体的には、指標抽出部202は、まずアノテーションの対象となるデータである画像の各画素に対して、当該画素が範囲内に含まれるバウンディングボックスのIDを付与する。次いで、指標抽出部202は、S702において重畳していると認識した一連のバインディングボックスの組合せに対して、当該組合せに含まれる各バウンディンボックスのIDが付与された画素の数を計上する。そのうえで、指標抽出部202は、各組み合わせについて計上した画素の数を合算した値に基づき、複数のバウンディングボックスが重畳する部分の面積を算出してもよい。
もちろん上記はあくまで一例であり、アノテーション作業結果データから、複数のバウンディングボックスが重畳する部分の面積に関する情報を取得することが可能であれば、その方法は限定されない。
In S703, the index extraction unit 202 acquires information on the area of the portion where a plurality of bounding boxes overlap (for example, the total area of the portion where a plurality of bounding boxes overlap) from the annotation work result data.
As a specific example, the index extraction unit 202 extracts two values that are neither maximum nor minimum among the xmin and xmax of the two binding boxes recognized as overlapping in S702 as both ends of one side of the target range for which the area is to be calculated. Similarly, the index extraction unit 202 extracts two values that are neither maximum nor minimum among the ymin and ymax of the two binding boxes as both ends of the other side of the target range for which the area is to be calculated. Then, the index extraction unit 202 may calculate the area of the region defined by the extracted sides as the area of the portion where the two binding boxes overlap. In this manner, the index extraction unit 202 calculates the above-mentioned area for each pair of bounding boxes recognized as overlapping. Then, the index extraction unit 202 may acquire a value obtained by adding up the areas calculated for each pair as information on the area of the portion where multiple bounding boxes overlap.
As another example, the index extraction unit 202 may count pixels in a portion where multiple bounding boxes overlap, thereby acquiring information on the area of the portion. Specifically, the index extraction unit 202 first assigns, to each pixel of an image that is data to be annotated, the ID of a bounding box in which the pixel is included. Next, for a series of binding box combinations that were recognized as overlapping in S702, the index extraction unit 202 counts the number of pixels to which the ID of each bounding box included in the combination is assigned. Then, the index extraction unit 202 may calculate the area of the portion where multiple bounding boxes overlap, based on the total value of the number of pixels counted for each combination.
Of course, the above is merely one example, and the method is not limited as long as it is possible to obtain information regarding the area of the portion where multiple bounding boxes overlap from the annotation work result data.

次いで、図8を参照して、図6におけるS603の処理の詳細について一例を説明する。
S801において、レビュー難易度計算部204は、パラメータ保管部203により保管されているパラメータを取得する。
S802において、レビュー難易度計算部204は、図6のS602において抽出された指標に関する情報と、S801において取得したパラメータとに基づき、対象となるデータに対するアノテーションの付与結果の妥当性についてのレビューの難易度を計算する。具体的な一例として、レビュー難易度計算部204は、各指標に対して上記パラメータを重みとして掛け合わせ、重みが掛け合わされた各指標を合算した結果に基づき、上記レビューの難易度を計算してもよい。
もちろん上記はあくまで一例であり、上記指標や上記パラメータに基づき上記レビューの難易度を計算することが可能であればその方法は特に限定されない。
Next, an example of the details of the process of S603 in FIG. 6 will be described with reference to FIG.
In S801, the review difficulty level calculation unit 204 acquires the parameters stored in the parameter storage unit 203.
In S802, the review difficulty calculation unit 204 calculates the difficulty of a review regarding the validity of the annotation result for the target data, based on the information on the indexes extracted in S602 of Fig. 6 and the parameters acquired in S801. As a specific example, the review difficulty calculation unit 204 may multiply each index by the above parameters as a weight, and calculate the difficulty of the review based on the result of adding up each index multiplied by the weight.
Of course, the above is merely an example, and the method is not particularly limited as long as it is possible to calculate the difficulty of the review based on the above indicators and parameters.

<第2の実施形態>
次いで、本開示の第2の実施形態として、対象となるデータに対するアノテーションの付与結果の妥当性についてのレビューの難易度を推定する情報処理装置の他の一例について以下に説明する。本実施形態に係る情報処理装置は、上記レビューの難易度の推定に、事前の機械学習に基づき構築された事前学習モデルを利用する点で、前述した第1の実施形態に係る情報処理装置200と異なる。そこで、以降では、本実施形態に係る情報処理装置について、特に前述した第1の実施形態に係る情報処理装置200と異なる部分に着目して説明することとし、当該情報処理装置200と実質的に同様の部分については詳細な説明は省略する。
Second Embodiment
Next, as a second embodiment of the present disclosure, another example of an information processing device that estimates the difficulty of a review regarding the validity of the annotation result for the target data will be described below. The information processing device according to this embodiment differs from the information processing device 200 according to the first embodiment described above in that a pre-learning model constructed based on prior machine learning is used to estimate the difficulty of the review. Therefore, hereinafter, the information processing device according to this embodiment will be described with a focus on the parts that are different from the information processing device 200 according to the first embodiment described above, and a detailed description of the parts that are substantially similar to the information processing device 200 will be omitted.

(機能構成)
まず、図9を参照して、本実施形態に係る情報処理装置の機能構成の一例について説明する。なお、以降では、本実施形態に係る情報処理装置を、他の実施形態に係る情報処理装置と区別するために、便宜上「情報処理装置900」とも称する。
(Functional configuration)
First, an example of the functional configuration of an information processing device according to this embodiment will be described with reference to Fig. 9. In the following, the information processing device according to this embodiment will also be referred to as an "information processing device 900" for convenience in order to distinguish it from information processing devices according to other embodiments.

情報処理装置900は、学習モデル読込部901と、推定部902とを含む点で、図2を参照して説明した情報処理装置200と異なる。そこで、以降では、情報処理装置900の機能構成について、特に、図2を参照して説明した情報処理装置200の機能構成と異なる部分に着目して説明し、当該情報処理装置200と実質的に同様の部分については詳細な説明は省略する。 The information processing device 900 differs from the information processing device 200 described with reference to FIG. 2 in that it includes a learning model reading unit 901 and an estimation unit 902. Therefore, hereinafter, the functional configuration of the information processing device 900 will be described, focusing in particular on the parts that differ from the functional configuration of the information processing device 200 described with reference to FIG. 2, and detailed descriptions of parts that are substantially similar to the information processing device 200 will be omitted.

学習モデル読込部901は、対象となるデータに対するアノテーションの付与に係る機械学習に基づき事前に構築された事前学習モデルの読み込みを行う。読み込まれた事前学習モデルは、所定の記憶領域(例えば、情報処理装置900が備えるRAM103や補助記憶装置104等の記憶領域)に保持される。 The learning model reading unit 901 reads a pre-learning model that has been constructed in advance based on machine learning related to adding annotations to target data. The read pre-learning model is stored in a predetermined storage area (for example, a storage area such as the RAM 103 or auxiliary storage device 104 provided in the information processing device 900).

推定部902は、読み込まれた事前学習モデルを利用して、入力を受け付けられたアノテーション作業結果データ(特に、アノテーションの付与の対象となるデータ)に対して、アノテーションとして付与されるラベルの推定を行う。 The estimation unit 902 uses the loaded pre-learning model to estimate the labels to be assigned as annotations to the annotation work result data (particularly, the data to be annotated) that has been accepted as input.

また、本実施形態では、パラメータ保管部203は、パラメータに関する情報として、事前学習モデルを利用した推定結果があいまいな数に対する重みに係るパラメータに関する情報を保管する。また、パラメータ保管部203は、パラメータに関する情報として、アノテーション結果データと事前学習モデルの推定結果との間に差異があるものの数に対する重みに係るパラメータに関する情報を保管する。もちろん上記はあくまで一例であり、パラメータ保管部203は、上記に例示したパラメータ以外の他のパラメータを保持してもよい。 In addition, in this embodiment, the parameter storage unit 203 stores, as information on parameters, information on parameters related to the weighting of numbers for which the estimation result using the pre-learning model is ambiguous. In addition, the parameter storage unit 203 stores, as information on parameters, information on parameters related to the weighting of numbers for which there is a difference between the annotation result data and the estimation result of the pre-learning model. Of course, the above is merely an example, and the parameter storage unit 203 may hold parameters other than the parameters exemplified above.

(処理)
次いで、図10及び図11を参照して、本実施形態に係る情報処理装置900の処理の一例について説明する。
(process)
Next, an example of processing of the information processing device 900 according to this embodiment will be described with reference to FIGS.

まず、図10を参照して、本実施形態に係る情報処理装置900の全体的な処理の流れの一例について説明する。図10に示す例は、S1001の処理を含む点と、S602の処理の内容とが、図6を参照して説明した例と異なり、S601及びS603の処理については図6を参照して説明した例と実質的に同様である。そこで、以降では、情報処理装置900の全体の処理について、特に、図6を参照して説明した情報処理装置200の処理と異なる部分に着目して説明し、当該情報処理装置200と実質的に同様の部分については詳細な説明は省略する。 First, an example of the overall processing flow of the information processing device 900 according to this embodiment will be described with reference to FIG. 10. The example shown in FIG. 10 differs from the example described with reference to FIG. 6 in that it includes processing of S1001 and the content of processing of S602, but the processing of S601 and S603 is substantially similar to the example described with reference to FIG. 6. Therefore, hereinafter, the overall processing of the information processing device 900 will be described, focusing in particular on the parts that differ from the processing of the information processing device 200 described with reference to FIG. 6, and detailed descriptions of the parts that are substantially similar to the information processing device 200 will be omitted.

S1001において、推定部902は、学習モデル読込部901が読み込んだ事前学習モデルを利用して、データ入力部201が入力を受け付けたアノテーション作業結果データに対して、アノテーションとして付与されるラベルの推定を行う。
具体的な一例として、推定部902は、図4を参照して説明した正解情報ファイル400(xmlファイル)に規定されたobject要素それぞれについてbndbox要素により指定された範囲を切り抜いた画像データを上記推定の対象としてもよい。
もちろん、上記はあくまで一例であり、事前学習モデルを利用したアノテーションとして付与されるラベルの推定の対象は特に限定はされない。例えば、アノテーションの対象となるデータである画像データ全体に対して、事前学習モデルを利用したアノテーションとして付与されるラベルの推定が行われてもよい。
In S1001, the estimation unit 902 uses the pre-learning model read by the learning model reading unit 901 to estimate a label to be assigned as an annotation to the annotation work result data received as input by the data input unit 201.
As a specific example, the estimation unit 902 may use image data cut out from the range specified by the bndbox element for each object element defined in the correct answer information file 400 (XML file) described with reference to Figure 4 as the subject of the above estimation.
Of course, the above is merely an example, and the target of the estimation of the label to be assigned as the annotation using the pre-learning model is not particularly limited. For example, the estimation of the label to be assigned as the annotation using the pre-learning model may be performed for the entire image data that is the data to be annotated.

続いて、図11を参照して、図10に示すS602の処理の詳細について一例を説明する。なお、図11に示す例は、S1101及びS1102の処理を含む点が図7を参照して説明した例と異なり、S701~S703の処理については図7を参照して説明した例と実質的に同様である。そこで、以降では、図10に示すS602の処理について、特に、図7を参照して説明した情報処理装置200の処理と異なる部分に着目して説明し、当該情報処理装置200と実質的に同様の部分については詳細な説明は省略する。 Next, referring to FIG. 11, an example of the details of the processing of S602 shown in FIG. 10 will be described. Note that the example shown in FIG. 11 differs from the example described with reference to FIG. 7 in that it includes processing of S1101 and S1102, but the processing of S701 to S703 is substantially similar to the example described with reference to FIG. 7. Therefore, hereinafter, the processing of S602 shown in FIG. 10 will be described, focusing in particular on the parts that differ from the processing of the information processing device 200 described with reference to FIG. 7, and a detailed description of the parts that are substantially similar to the information processing device 200 will be omitted.

S1101において、指標抽出部202は、S1001における推定結果に基づき、あいまいな推定結果の数に関する情報を取得する。具体的には、指標抽出部202は、対象となる一連のバウンディンボックスのうち、事前学習モデルに基づきアノテーションとして付与されるラベルの推定結果の確からしさに係るスコアが閾値以下となるバウンディンボックスの数に関する情報を取得してもよい。 In S1101, the index extraction unit 202 acquires information on the number of ambiguous estimation results based on the estimation results in S1001. Specifically, the index extraction unit 202 may acquire information on the number of bounding boxes for which the score related to the likelihood of the estimation result of the label assigned as an annotation based on the pre-learning model is equal to or less than a threshold, out of the series of target bounding boxes.

S1102において、指標抽出部202は、S1001における推定結果と、S601において取得されたアノテーション作業結果データとを比較し、双方の間で差異のあるラベル(アノテーションとして付与されるラベル)の数に関する情報を取得する。具体的には、指標抽出部202は、各バウンディンボックスを対象として、当該バウンディンボックスに対してアノテーションとして付与されたラベルと、当該バウンディンボックスを対象としたアノテーションとして付与されるラベルの推定結果とを比較する。そして、指標抽出部202は、付与されたラベルと、上記推定結果のうちよりスコアの高いラベル(例えば、スコアの最も高いラベル)の推定結果と、の間の差異がある場合には、双方の間で差異があると判定する。 In S1102, the index extraction unit 202 compares the estimation result in S1001 with the annotation work result data acquired in S601, and acquires information regarding the number of labels (labels assigned as annotations) that differ between the two. Specifically, for each bounding box, the index extraction unit 202 compares the label assigned as an annotation to the bounding box with the estimation result of the label assigned as an annotation for the bounding box. Then, when there is a difference between the assigned label and the estimation result of the label with a higher score (e.g., the label with the highest score) among the estimation results, the index extraction unit 202 determines that there is a difference between the two.

もちろん上記はあくまで一例であり、S1001における推定結果と、S601において取得されたアノテーション作業結果データと、の間の差異の有無を判定することが可能であれば、その方法は特に限定はされない。具体的な一例として対象となるデータに対するユーザによるアノテーションの付与に先駆けて、事前学習モデルを利用した当該データに対してアノテーションとして付与するラベルの推定結果に基づき、当該データに対してアノテーションの付与が行われてもよい。そのうえで、ユーザが上記データに対してアノテーションを付与した後に、上記推定結果に基づき付与されたアノテーションが修正されたか否かの判定結果に応じた情報が保持されてもよい。これにより、保持された当該情報に基づき、事前学習モデルを利用したアノテーションとして付与されるラベルの推定結果と、ユーザによりアノテーションとして付与されたラベルと、の間における差異の有無を判定することが可能となる。 Of course, the above is merely an example, and the method is not particularly limited as long as it is possible to determine whether there is a difference between the estimation result in S1001 and the annotation work result data acquired in S601. As a specific example, prior to the user annotating the target data, the data may be annotated based on the estimation result of the label to be annotated to the data using a pre-learning model. After the user annotates the data, information according to the determination result of whether the annotation assigned based on the estimation result has been corrected may be retained. This makes it possible to determine whether there is a difference between the estimation result of the label to be assigned as an annotation using the pre-learning model and the label assigned as an annotation by the user based on the retained information.

以上のようにして、指標抽出部202は、事前学習モデルを利用したアノテーションとして付与されるラベルの推定結果と、ユーザによりアノテーションとして付与されたラベルと、の間で差異があると判定されたバウンディンボックスの数に関する情報を取得する。 In this way, the index extraction unit 202 obtains information regarding the number of bounding boxes that are determined to be different between the estimated result of the label to be assigned as an annotation using the pre-training model and the label assigned as an annotation by the user.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a recording medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) for implementing one or more of the functions.

100、200 情報処理装置
202 指標抽出部
203 パラメータ保管部
204 レビュー難易度計算部
100, 200 Information processing device 202 Index extraction unit 203 Parameter storage unit 204 Review difficulty calculation unit

Claims (19)

アノテーションが付与されたデータから、当該データに対するアノテーションの付与結果の妥当性についてのレビューの難易度の指標に関する情報を抽出する抽出手段と、
前記データから抽出された前記情報に基づき、前記難易度を計算する計算手段と、
を備えることを特徴とする情報処理装置。
An extraction means for extracting information relating to an index of difficulty of reviewing the validity of the annotation result for the data from the annotated data;
A calculation means for calculating the difficulty level based on the information extracted from the data;
An information processing device comprising:
前記計算手段は、前記データから抽出された前記情報と、あらかじめ設定された前記難易度の計算に係るパラメータと、に基づき、当該難易度を計算する、
ことを特徴とする請求項1に記載の情報処理装置。
The calculation means calculates the difficulty level based on the information extracted from the data and a parameter related to the calculation of the difficulty level that is set in advance.
2. The information processing apparatus according to claim 1,
前記抽出手段は、前記データからバウンディングボックスの数に関する情報を抽出し、
前記計算手段は、抽出された前記バウンディングボックスの数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項1または2に記載の情報処理装置。
The extraction means extracts information relating to a number of bounding boxes from the data;
The calculation means calculates the difficulty level based on information regarding the number of the extracted bounding boxes.
3. The information processing apparatus according to claim 1, wherein the information processing apparatus is a computer.
前記抽出手段は、前記データから他のバウンディングボックスと重畳するバウンディングボックスの数に関する情報を抽出し、
前記計算手段は、抽出された前記バウンディングボックスの数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
The extraction means extracts information regarding the number of bounding boxes that overlap with other bounding boxes from the data;
The calculation means calculates the difficulty level based on information regarding the number of the extracted bounding boxes.
4. The information processing device according to claim 1, wherein the information processing device is a computer.
前記抽出手段は、前記データから複数のバウンディンボックスが重畳する部分の面積に関する情報を抽出し、
前記計算手段は、抽出された前記面積に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。
The extraction means extracts information regarding an area of an overlapping portion of a plurality of bounding boxes from the data;
The calculation means calculates the degree of difficulty based on the extracted information about the area.
5. The information processing device according to claim 1, wherein the information processing device is a computer.
学習済みの機械学習モデルを読み込む読み込み手段と、
読み込まれた前記機械学習モデルに基づき、前記データに対してアノテーションとして付与されるラベルの推定を行う推定手段と、
を備えることを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
A means for loading a trained machine learning model;
an estimation means for estimating a label to be assigned as an annotation to the data based on the loaded machine learning model;
6. The information processing device according to claim 1, further comprising:
前記抽出手段は、前記ラベルの推定結果のうち、前記ラベルがアノテーションの対象を示していることの確からしさに関するスコアが閾値以下であるものの個数に関する情報を抽出し、
前記計算手段は、抽出された前記スコアが閾値以下である前記ラベルの推定結果の個数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項6に記載の情報処理装置。
The extraction means extracts information on the number of estimation results of the labels that have a score on a likelihood that the labels indicate annotation targets that is equal to or less than a threshold; and
The calculation means calculates the difficulty level based on information regarding the number of estimation results of the label for which the extracted score is equal to or less than a threshold.
7. The information processing apparatus according to claim 6,
前記抽出手段は、前記データにアノテーションとして付与されたラベルと、前記機械学習モデルに基づく当該データに対してアノテーションとして付与されるラベルの推定結果と、の間の差異に関する情報を抽出し、
前記計算手段は、抽出された前記差異に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項6または7に記載の情報処理装置。
The extraction means extracts information regarding a difference between a label assigned as an annotation to the data and an estimation result of a label assigned as an annotation to the data based on the machine learning model;
The calculation means calculates the degree of difficulty based on the extracted information on the difference.
8. The information processing apparatus according to claim 6, wherein the information processing apparatus is a computer.
前記データの入力を受け付ける受け付け手段を備え、
前記抽出手段は、入力が受け付けられた前記データから前記指標に関する情報を抽出する、
ことを特徴とする請求項1~8のいずれか1項に記載の情報処理装置。
a receiving means for receiving an input of the data,
The extraction means extracts information regarding the index from the data whose input has been accepted.
9. The information processing device according to claim 1,
コンピュータが、
アノテーションが付与されたデータから、当該データに対するアノテーションの付与結果の妥当性についてのレビューの難易度の指標に関する情報を抽出する抽出ステップと、
前記データから抽出された前記情報に基づき、前記難易度を計算する計算ステップと、
を含むことを特徴とする情報処理方法。
The computer
an extraction step of extracting information from the annotated data relating to an index of difficulty of reviewing the validity of the annotation result for the data;
a calculation step of calculating the difficulty level based on the information extracted from the data;
13. An information processing method comprising:
前記計算ステップは、前記データから抽出された前記情報と、あらかじめ設定された前記難易度の計算に係るパラメータと、に基づき、当該難易度を計算する、
ことを特徴とする請求項10に記載の情報処理方法。
The calculation step calculates the difficulty level based on the information extracted from the data and a parameter related to the calculation of the difficulty level that is set in advance.
11. The information processing method according to claim 10.
前記抽出ステップは、前記データからバウンディングボックスの数に関する情報を抽出し、
前記計算ステップは、抽出された前記バウンディングボックスの数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項10または11に記載の情報処理方法。
The extracting step includes extracting information about a number of bounding boxes from the data;
The calculation step calculates the difficulty level based on information regarding the number of the extracted bounding boxes.
12. The information processing method according to claim 10 or 11.
前記抽出ステップは、前記データから他のバウンディングボックスと重畳するバウンディングボックスの数に関する情報を抽出し、
前記計算ステップは、抽出された前記バウンディングボックスの数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項10~12のいずれか1項に記載の情報処理方法。
The extracting step extracts information about the number of bounding boxes that overlap with other bounding boxes from the data;
The calculation step calculates the difficulty level based on information regarding the number of the extracted bounding boxes.
13. The information processing method according to claim 10, wherein the first and second information processing units are connected to each other.
前記抽出ステップは、前記データから複数のバウンディンボックスが重なっている部分の面積に関する情報を抽出し、
前記計算ステップは、抽出された前記面積に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項10~13のいずれか1項に記載の情報処理方法。
The extraction step includes extracting information relating to an area of overlapping portions of a plurality of bounding boxes from the data;
The calculation step calculates the degree of difficulty based on the extracted information about the area.
14. The information processing method according to claim 10,
学習済みの機械学習モデルを読み込む読み込みステップと、
読み込まれた前記機械学習モデルに基づき、前記データに対してアノテーションとして付与されるラベルの推定を行う推定ステップと、
を含むことを特徴とする請求項10~14のいずれか1項に記載の情報処理方法。
An import step to import a trained machine learning model;
an estimation step of estimating a label to be assigned as an annotation to the data based on the loaded machine learning model;
The information processing method according to any one of claims 10 to 14, further comprising:
前記抽出ステップは、前記ラベルの推定結果のうち、前記ラベルがアノテーションの対象を示していることの確からしさに関するスコアが閾値以下であるものの個数に関する情報を抽出し、
前記計算ステップは、抽出された前記スコアが閾値以下である前記ラベルの推定結果の個数に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項15に記載の情報処理方法。
The extraction step includes extracting information on the number of estimation results of the labels that have a score on a likelihood that the labels indicate annotation targets that is equal to or less than a threshold;
The calculation step calculates the difficulty level based on information regarding the number of estimation results of the label whose extracted score is equal to or less than a threshold.
16. The information processing method according to claim 15,
前記抽出ステップは、前記データにアノテーションとして付与されたラベルと、前記機械学習モデルに基づく当該データに対してアノテーションとして付与されるラベルの推定結果と、の間の差異に関する情報を抽出し、
前記計算ステップは、抽出された前記差異に関する情報に基づき、前記難易度を計算する、
ことを特徴とする請求項15または16に記載の情報処理方法。
The extraction step extracts information regarding a difference between a label annotated to the data and an estimation result of a label to be annotated to the data based on the machine learning model;
The calculation step calculates the degree of difficulty based on the extracted information about the difference.
17. The information processing method according to claim 15 or 16.
前記データの入力を受け付ける受け付けステップを含み、
前記抽出ステップは、入力が受け付けられた前記データから前記指標に関する情報を抽出する、
ことを特徴とする請求項10~17のいずれか1項に記載の情報処理方法。
A receiving step of receiving an input of the data,
The extraction step extracts information about the index from the data whose input has been accepted.
The information processing method according to any one of claims 10 to 17.
コンピュータを、請求項1~9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of an information processing device according to any one of claims 1 to 9.
JP2020154594A 2020-09-15 2020-09-15 Information processing device, information processing method, and program Active JP7532159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154594A JP7532159B2 (en) 2020-09-15 2020-09-15 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154594A JP7532159B2 (en) 2020-09-15 2020-09-15 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022048648A JP2022048648A (en) 2022-03-28
JP7532159B2 true JP7532159B2 (en) 2024-08-13

Family

ID=80844204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154594A Active JP7532159B2 (en) 2020-09-15 2020-09-15 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7532159B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185617A1 (en) 2015-05-21 2016-11-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2018537798A (en) 2015-10-02 2018-12-20 トラクタブル リミテッドTractable Ltd. Semi-automatic labeling of datasets
JP2018200685A (en) 2017-05-05 2018-12-20 ダッソー システムズDassault Systemes Forming of data set for fully supervised learning
WO2019003485A1 (en) 2017-06-30 2019-01-03 株式会社Abeja Computer system and method for machine learning or inference
JP2020077231A (en) 2018-11-08 2020-05-21 富士通株式会社 Position detection program, position detection method and position detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185617A1 (en) 2015-05-21 2016-11-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2018537798A (en) 2015-10-02 2018-12-20 トラクタブル リミテッドTractable Ltd. Semi-automatic labeling of datasets
JP2018200685A (en) 2017-05-05 2018-12-20 ダッソー システムズDassault Systemes Forming of data set for fully supervised learning
WO2019003485A1 (en) 2017-06-30 2019-01-03 株式会社Abeja Computer system and method for machine learning or inference
JP2020077231A (en) 2018-11-08 2020-05-21 富士通株式会社 Position detection program, position detection method and position detection device

Also Published As

Publication number Publication date
JP2022048648A (en) 2022-03-28

Similar Documents

Publication Publication Date Title
CN109522538B (en) Automatic listing method, device, equipment and storage medium for table contents
CN106971009B (en) Voice database generation method and device, storage medium and electronic equipment
US8107727B2 (en) Document processing apparatus, document processing method, and computer program product
CN101099147B (en) Dialogue supporting apparatus
KR20140009295A (en) Associating captured image data with a spreadsheet
JP6812381B2 (en) Voice recognition accuracy deterioration factor estimation device, voice recognition accuracy deterioration factor estimation method, program
JP6737151B2 (en) Synonym expression extraction device, synonym expression extraction method, and synonym expression extraction program
US11462018B2 (en) Representative image generation
CN113505082B (en) Application program testing method and device
JP7532159B2 (en) Information processing device, information processing method, and program
CN111078915B (en) Click-to-read content acquisition method in click-to-read mode and electronic equipment
CN118280385B (en) Problem data processing method, device, equipment and medium based on semantic analysis model
JP2019040260A (en) Information processing apparatus and program
US20210374147A1 (en) Information processing apparatus, information processing method, and storage medium
US9286036B2 (en) Computer-readable recording medium storing program for managing scripts, script management device, and script management method
CN113672758A (en) Singing list generation method, device, medium and computing equipment
CN111832254A (en) Drawing label display processing method and device
CN112308055B (en) Evaluation method and device of face retrieval system, electronic equipment and storage medium
CN116302269A (en) Product operation guiding method and device, storage medium and electronic equipment
CN111221777B (en) Data record matching method and device
JP2012095231A (en) Form image management system, form image management method, and program
JP4579638B2 (en) Data search apparatus and data search method
JP6317280B2 (en) Same form file selection device, same form file selection method, and same form file selection program
CN111415655B (en) Language model construction method, device and storage medium
JP5644247B2 (en) Character recognition device, character recognition method, and character recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240731

R150 Certificate of patent or registration of utility model

Ref document number: 7532159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150