JP7454630B2 - ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 - Google Patents
ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 Download PDFInfo
- Publication number
- JP7454630B2 JP7454630B2 JP2022192347A JP2022192347A JP7454630B2 JP 7454630 B2 JP7454630 B2 JP 7454630B2 JP 2022192347 A JP2022192347 A JP 2022192347A JP 2022192347 A JP2022192347 A JP 2022192347A JP 7454630 B2 JP7454630 B2 JP 7454630B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- label
- vector
- interest
- recommendation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 232
- 238000000034 method Methods 0.000 title claims description 86
- 239000013598 vector Substances 0.000 claims description 226
- 239000000463 material Substances 0.000 claims description 93
- 238000013528 artificial neural network Methods 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000003542 behavioural effect Effects 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 14
- 230000006399 behavior Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 11
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 230000003190 augmentative effect Effects 0.000 claims 2
- 238000012935 Averaging Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003442 weekly effect Effects 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000000275 quality assurance Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241001093575 Alma Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Mathematical Physics (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Marketing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するステップと、意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るステップと、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップと、前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップと、を含む。
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するステップと、意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るステップと、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るステップと、前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップと、を含む。
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するように構成される取得モジュールと、意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュールと、前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュールと、を含む。
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュールと、意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュールと、前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュールと、を含む。
少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が記憶されており、前記指令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが第1の態様又は第2の態様に記載の方法を実行できる。
ユーザトレーニング素材の収集指示を受信したことに応答し、トレーニング素材を収集するように構成される取得モジュール101と、意味拡張表現フレームワークを利用してトレーニング素材の特徴を表現し、関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークをトレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュール102と、トレーニング符号化ベクトルを入力として関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュール103と、を含むことができる。
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュール201と、意味拡張表現フレームワークを利用して素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュール202と、符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュール203と、を含むことができる。
Claims (19)
- ラベル推奨モデルのトレーニング方法であって、
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するステップと、
意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るステップと、
ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップと、
前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップと、を含む、
ことを特徴とするラベル推奨モデルのトレーニング方法。 - 前記トレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含み、
意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、関心ラベルを含むトレーニング意味ベクトルを得るステップは、
前記意味拡張表現フレームワークに基づいて、前記行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、前記サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現するステップと、
前記トレーニング行動ベクトルを平均化した後、前記トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップは、
ソーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定するステップと、
前記親密値を行列における要素の取り得る値として隣接行列を構築するステップと、
前記隣接行列における各行の前記要素の重みの和が1であることを条件として、前記要素に重みを割り当てるステップであって、前記隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きいステップと、
前記隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいて前記トレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記トレーニング符号化ベクトルを入力して前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップは、
前記トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力として前記フィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得るステップと、
前記新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として前記全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得るステップと、
前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るステップは、
活性化関数を利用して前記トレーニングラベルベクトルを解析し、前記トレーニングラベルベクトルに含まれる関心ラベルを得るステップと、
前記関心ラベルにおいて、前記関心ラベルに対応する第1の関心ラベルを決定し、前記関心ラベルに占める前記第1の関心ラベルの割合を計算し、ラベル推奨モデルの確率閾値を決定し、出力ラベル確率が前記確率閾値以上であるラベル推奨モデルを得るステップと、を含む、
ことを特徴とする請求項4に記載の方法。 - ラベル取得方法であって、
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するステップと、
意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るステップと、
ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るステップと、
前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップと、を含む、
ことを特徴とするラベル取得方法。 - 前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップは、
前記符号化ベクトルを前記ラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得るステップと、
前記新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得るステップと、
前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するステップと、を含む、
ことを特徴とする請求項6に記載の方法。 - 前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するステップは、
前記ラベル推奨モデルにおける活性化関数に基づいて前記ラベルベクトルを解析し、複数のラベルを得るステップと、
前記複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定するステップと、を含む、
ことを特徴とする請求項7に記載の方法。 - ラベル推奨モデルのトレーニング装置であって、
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するように構成される取得モジュールと、
意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュールと、
前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュールと、を含む、
ことを特徴とするラベル推奨モデルのトレーニング装置。 - 前記トレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含み、
前記処理モジュールは、
前記意味拡張表現フレームワークに基づいて、前記行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、前記サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現し、
前記トレーニング行動ベクトルを平均化した後、前記トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得るように構成される、
ことを特徴とする請求項9に記載の装置。 - 前記処理モジュールは、
ソーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定し、
前記親密値を行列における要素の取り得る値として隣接行列を構築し、
前記隣接行列における各行の前記要素の重みの和が1であることを条件として、前記要素に重みを割り当て、前記隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きく、
前記隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいて前記トレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得るようにも構成される、
ことを特徴とする請求項9に記載の装置。 - 前記トレーニングモジュールは、
前記トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力として前記フィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得て、
前記新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として前記全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得て、
前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るように構成される、
ことを特徴とする請求項9に記載の装置。 - 前記トレーニングモジュールは、
活性化関数を利用して前記トレーニングラベルベクトルを解析し、前記トレーニングラベルベクトルに含まれる関心ラベルを得て、
前記関心ラベルにおいて、前記関心ラベルに対応する第1の関心ラベルを決定し、前記関心ラベルに占める前記第1の関心ラベルの割合を計算し、画像モデルの確率閾値を決定し、出力ラベル確率が前記確率閾値以上であるラベル推奨モデルを得るように構成される、
ことを特徴とする請求項12に記載の装置。 - ラベル取得装置であって、
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュールと、
意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュールと、
前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュールと、を含む、
ことを特徴とするラベル取得装置。 - 前記予測モジュールは、
前記符号化ベクトルを前記ラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得て、
前記新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得て、
前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するように構成される、
ことを特徴とする請求項14に記載の装置。 - 前記予測モジュールは、
前記ラベル推奨モデルにおける活性化関数に基づいて前記ラベルベクトルを解析し、複数のラベルを得て、
前記複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定するように構成される、
ことを特徴とする請求項15に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が記憶されており、前記指令は、前記少なくとも1つのプロセッサが請求項1~5のいずれかに記載の方法を実行できるか、又は前記少なくとも1つのプロセッサが請求項6~8のいずれかに記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ指令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ指令は、前記コンピュータに請求項1~5のいずれかに記載の方法を実行させるために使用されるか、又は前記コンピュータ指令は、前記コンピュータに請求項6~8のいずれかに記載の方法を実行させるために使用される、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータに実行される場合、前記コンピュータに請求項1~5のいずれかに記載の方法を実行させるか、又は、前記コンピュータに請求項6~8のいずれかに記載の方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111446672.1 | 2021-11-30 | ||
CN202111446672.1A CN114169418B (zh) | 2021-11-30 | 2021-11-30 | 标签推荐模型训练方法及装置、标签获取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023025147A JP2023025147A (ja) | 2023-02-21 |
JP7454630B2 true JP7454630B2 (ja) | 2024-03-22 |
Family
ID=80481939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192347A Active JP7454630B2 (ja) | 2021-11-30 | 2022-11-30 | ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230085599A1 (ja) |
EP (1) | EP4116884A3 (ja) |
JP (1) | JP7454630B2 (ja) |
KR (1) | KR20220166761A (ja) |
CN (1) | CN114169418B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114840745B (zh) * | 2022-03-30 | 2024-10-15 | 达观数据有限公司 | 一种基于图表征学习和深度语义匹配模型的个性化推荐方法及系统 |
CN116486195B (zh) * | 2023-03-22 | 2024-04-16 | 北京百度网讯科技有限公司 | 视频推荐模型的训练方法、视频推荐方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190136A (ja) | 2017-05-01 | 2018-11-29 | トヨタ自動車株式会社 | 興味判定装置、興味判定方法、及びプログラム |
US20210027146A1 (en) | 2018-10-23 | 2021-01-28 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for determining interest of user for information item |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120084657A1 (en) * | 2010-09-30 | 2012-04-05 | Yahoo! Inc. | Providing content to a user from multiple sources based on interest tag(s) that are included in an interest cloud |
CN102867016A (zh) * | 2012-07-18 | 2013-01-09 | 北京开心人信息技术有限公司 | 一种基于标签的社交网络用户兴趣挖掘方法与装置 |
CN104021233B (zh) * | 2014-06-30 | 2017-02-15 | 电子科技大学 | 一种基于社区发现的社交网络好友推荐方法 |
CN105260410A (zh) * | 2015-09-22 | 2016-01-20 | 天津大学 | 基于亲密度和影响力的微博社交兴趣圈挖掘方法及其装置 |
CN105844508B (zh) * | 2016-03-22 | 2020-04-17 | 天津中科智能识别产业技术研究院有限公司 | 一种基于动态周期神经网络的商品推荐方法 |
CN108268556A (zh) * | 2017-01-03 | 2018-07-10 | 南宁富桂精密工业有限公司 | 信息推荐方法及信息推送端 |
US20210150565A1 (en) * | 2019-11-19 | 2021-05-20 | Affinio Inc. | Method and apparatus for directing acquisition of information in a social network |
CN112825076B (zh) * | 2019-11-20 | 2024-03-01 | 北京搜狗科技发展有限公司 | 一种信息推荐方法、装置和电子设备 |
CN111460302B (zh) * | 2020-03-31 | 2023-08-08 | 拉扎斯网络科技(上海)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN111260493A (zh) * | 2020-04-27 | 2020-06-09 | 深圳市爱聊科技有限公司 | 基于亲密度的用户交友分组方法、电子装置及存储介质 |
CN112084427A (zh) * | 2020-09-15 | 2020-12-15 | 辽宁工程技术大学 | 一种基于图神经网络的兴趣点推荐方法 |
CN112559749B (zh) * | 2020-12-18 | 2024-04-09 | 深圳赛安特技术服务有限公司 | 在线教育师生智能匹配方法、装置及存储介质 |
CN113434762A (zh) * | 2021-06-28 | 2021-09-24 | 平安银行股份有限公司 | 基于用户信息的关联推送方法、装置、设备及存储介质 |
CN113626704A (zh) * | 2021-08-10 | 2021-11-09 | 平安国际智慧城市科技股份有限公司 | 基于word2vec模型的推荐信息方法、装置及设备 |
CN113590854B (zh) * | 2021-09-29 | 2021-12-31 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、设备以及计算机可读存储介质 |
-
2021
- 2021-11-30 CN CN202111446672.1A patent/CN114169418B/zh active Active
-
2022
- 2022-11-21 US US18/057,560 patent/US20230085599A1/en active Pending
- 2022-11-22 EP EP22208688.6A patent/EP4116884A3/en not_active Withdrawn
- 2022-11-30 KR KR1020220163970A patent/KR20220166761A/ko unknown
- 2022-11-30 JP JP2022192347A patent/JP7454630B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190136A (ja) | 2017-05-01 | 2018-11-29 | トヨタ自動車株式会社 | 興味判定装置、興味判定方法、及びプログラム |
US20210027146A1 (en) | 2018-10-23 | 2021-01-28 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for determining interest of user for information item |
Also Published As
Publication number | Publication date |
---|---|
EP4116884A3 (en) | 2023-05-24 |
KR20220166761A (ko) | 2022-12-19 |
JP2023025147A (ja) | 2023-02-21 |
EP4116884A2 (en) | 2023-01-11 |
US20230085599A1 (en) | 2023-03-16 |
CN114169418A (zh) | 2022-03-11 |
CN114169418B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102472572B1 (ko) | 사용자 의도 프로파일링 방법 및 이를 위한 장치 | |
US9213996B2 (en) | System and method for analyzing social media trends | |
KR101939554B1 (ko) | 일시적 거래 한도 결정 | |
US20190378074A1 (en) | Method, apparatus, and system for data analytics model selection for real-time data visualization | |
JP7454630B2 (ja) | ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 | |
US20140143013A1 (en) | System and method for analyzing social media trends | |
Zhao et al. | Modelling consumer satisfaction based on online reviews using the improved Kano model from the perspective of risk attitude and aspiration | |
US20190303980A1 (en) | Training and utilizing multi-phase learning models to provide digital content to client devices in a real-time digital bidding environment | |
US20210350202A1 (en) | Methods and systems of automatic creation of user personas | |
CN113434755A (zh) | 页面的生成方法、装置、电子设备及存储介质 | |
US9020962B2 (en) | Interest expansion using a taxonomy | |
Gan | XGBoost‐Based E‐Commerce Customer Loss Prediction | |
CN113469752A (zh) | 内容推荐方法、装置、存储介质及电子设备 | |
US20150106158A1 (en) | Method and apparatus for providing folksonomic object scoring | |
CN112948602B (zh) | 一种内容显示方法、装置、系统、设备及存储介质 | |
KR102405503B1 (ko) | 소비 데이터와 소셜 데이터를 이용한 소비동향 예측 지수 생성 방법과 이를 적용한 소비동향 예측 지수 생성 시스템 및 이를 위한 컴퓨터 프로그램 | |
CN117132323A (zh) | 推荐内容的分析方法、装置、设备、介质及程序产品 | |
CN114547416A (zh) | 一种媒体资源排序方法及电子设备 | |
CN113761349A (zh) | 一种推荐信息的挖掘方法和装置 | |
CN117131197B (zh) | 一种招标书的需求类别处理方法、装置、设备及存储介质 | |
CN113343090B (zh) | 用于推送信息的方法、装置、设备、介质和产品 | |
CN114417944B (zh) | 识别模型训练方法及装置、用户异常行为识别方法及装置 | |
Gu et al. | Key analysis of smart tourism project setting and tourists' satisfaction degree based on data mining | |
Yuyao | Multi-round tag recommendation algorithm for shopping guide robots | |
Nguyen et al. | Computing Amplification Factors for Influence on Social Network based on Learning of Behaviors and Interacted Knowledge Graph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7454630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |