[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7454630B2 - ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 - Google Patents

ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 Download PDF

Info

Publication number
JP7454630B2
JP7454630B2 JP2022192347A JP2022192347A JP7454630B2 JP 7454630 B2 JP7454630 B2 JP 7454630B2 JP 2022192347 A JP2022192347 A JP 2022192347A JP 2022192347 A JP2022192347 A JP 2022192347A JP 7454630 B2 JP7454630 B2 JP 7454630B2
Authority
JP
Japan
Prior art keywords
training
label
vector
interest
recommendation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022192347A
Other languages
English (en)
Other versions
JP2023025147A (ja
Inventor
ジンチャン ルオ
ハイウェイ ワン
ジュンジャオ ブー
クンビン チェン
ウェイ ファ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023025147A publication Critical patent/JP2023025147A/ja
Application granted granted Critical
Publication of JP7454630B2 publication Critical patent/JP7454630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Marketing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、データ処理技術分野に関し、特に、深層学習、クラウドサービス、内容検索などの技術分野に関し、具体的には、ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置に関する。
関心画像は、ルール、従来のモデルに基づく2つの技術案を含む。属性画像は、年齢、性別などの固定属性であってもよく、入手が簡単で便利である。関心画像は、好み、スキル、習慣などの趣味を表すものである。2つの技術案の特徴は、テキストで特徴を表すことが多いことである。
本開示は、ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置を提供する。
本開示の一態様によれば、ラベル推奨モデルのトレーニング方法が提供され、前記方法は、
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するステップと、意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るステップと、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップと、前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップと、を含む。
本開示の第2の態様によれば、ラベル取得方法が提供され、前記方法は、
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するステップと、意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るステップと、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るステップと、前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップと、を含む。
本開示の第3の態様によれば、ラベル推奨モデルのトレーニング装置が提供され、前記装置は、
トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するように構成される取得モジュールと、意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュールと、前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュールと、を含む。
本開示の第4の態様によれば、ラベル取得装置が提供され、前記装置は、
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュールと、意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュールと、前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュールと、を含む。
本開示の第5の態様によれば、電子機器が提供され、前記電子機器は、
少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が記憶されており、前記指令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが第1の態様又は第2の態様に記載の方法を実行できる。
本開示の第6の態様によれば、コンピュータ指令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体が提供され、前記コンピュータ指令は、前記コンピュータに第1の態様又は第2の態様に記載の方法を実行させるために使用される。
本開示の第7の態様によれば、コンピュータプログラムが提供され、前記コンピュータプログラムがプロセッサによって実行される場合、第1の態様又は第2の態様に記載の方法が実現される。
なお、本部分に記載された内容は、本開示の実施例の肝心または重要な特徴を限定することを意図するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明によって容易に理解されやすくなる。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本開示の実施例に係るラベル推奨モデルのトレーニング方法の概略フローチャートである。 本開示の実施例に係るトレーニング意味ベクトルの決定方法の概略フローチャートである。 本開示の実施例に係る意味ベクトル表現の概略図である。 本開示の実施例に係るトレーニング符号化ベクトルの決定方法の概略フローチャートである。 本開示の実施例に係るトレーニングモデル方法の概略フローチャートである。 本開示の実施例に係るニューラルネットワークの概略図である。 本開示の実施例に係るラベル推奨モデルのトレーニング方法の概略フローチャートである。 本開示の実施例に係るラベル取得方法の概略フローチャートである。 本開示の実施例に係るラベル推奨モデル利用方法の概略フローチャートである。 本開示の実施例に係るラベル取得方法の概略フローチャートである。 本開示の実施例に係るラベル推奨モデルトレーニングの概略構成図である。 本開示の実施例に係るラベル取得構造の概略図である。 本開示の実施例を実現するための電子機器のブロック図である。
以下、図面を組み合わせて本開示の例示的な実施例を説明し、理解を容易にするために、本開示の実施例の様々な詳細事項が含まれ、これらは単なる例示的なものと見なされるべきである。したがって、当業者は、本開示の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
ラベルは、パーソナライズされた推奨、検索及び広告クリック率の見積もりなどの多くの製品で広く適用されており、関心画像によって正確な趣味・好み、使用習慣及び人口属性などを取得することができる。画像によってユーザの製品に対する体験及び収益を向上させることができる。
一般的なラベルは、属性ラベル及び関心ラベルに分けられ、属性ラベルは、年齢、性別、出身大学などの固定的な属性を特徴付けるために使用される。関心ラベルは、好み、保有スキル、習慣など多岐にわたることができる。関心ラベルは、適用範囲が広いだけではなく、サービスの精度を向上させるために、千人千面の効果も現れている。
しかし、実際の過程において、趣味は、暗黙的なものであり、一般的に収集したり、ルールで予測したりすることは困難であり、ユーザ自身も自分の趣味を正確に説明することが困難である。このような場合、如何に趣味を正確に取得するか、及び如何に関心ラベルを正確に取得するかは、現在の重要な課題となっている。
関連技術において、関心ラベルの取得方法は、一般的なルールや従来のモデルを採用している。例えば、一般的なルールにおいて、人為的に定義したルールによってユーザに関連するラベルを付け、応用シナリオを企業のオフィスシナリオとし、ユーザは仕事の週報で何度も「深層学習」を言及すると、「深層学習」の関心ラベルを付け、ユーザの主な作業が製品の設計及び計画である場合、「プロダクトマネージャ(Product Manager、PM)」のラベルを割り当てる。従来のモデルに基づいてユーザの関心ラベルを取得する場合、従来のモデルに基づく方法では、ラベル予測をテキストの多分類タスクに変換することが多い。例えば、ユーザのオフィスシナリオにおける作業内容、及び作業内容に関連する素材や文書などであってもよいユーザの素材を収集することにより、作業内容、作業内容に関連する素材や文書からユーザの特徴を取得する。なお、上記の作業内容は、いずれもユーザの許可・同意を得た場合に取得したものである。その後、極限グラディエントブースティング(eXtreme Gradient Boosting、XGBoost)、サポートベクターマシン(Support Vector Machine、SVM)などの分類モデルを利用して分類し、ここで、各カテゴリは、関心ラベルであってもよい。
上記実施形態のように、ルールの方法を採用すると、ルールをまとめるのに多くの人件費が必要となる。しかも、一般的に簡単なルールしか整理できず、暗黙的なマッピングを実現することができず、例えば、ユーザの特徴がテキスト分類、情報検索及びデータマイニングの一般的な重み付け技術(Term Frequency-Inverse Document Frequency、TF-IDF)、ONE-HOT符号化表現などのキーワードを持っている場合、当該ユーザが「自然言語処理」に関心を持っていると決定することができるが、特徴とラベルのマッピングルールをまとめることは困難である。情報の変化や時間の経過に伴い、ユーザの関心が変わる可能性があり、この場合、ルールの方法は、時効性がないことが多いため、効果が悪くなる。
従来のモデルを採用してユーザの関心画像を取得すると、従業員に関心ラベルを付けることができるが、効果が良くない場合が多い。理由は以下の通りである。
(1)従来のモデルは、コールドスタート問題が深刻であり、ユーザの関心画像の予測に失敗した。ここで、コールドスタート問題とは、ユーザの素材が不足しているため、特徴表現能力が不足し、従来のモデルの効果が低いことである。一部のユーザに対して全く素材を収集できない場合もあり、この場合、従来のモデルでは、全く予測できない。
(2)従来のモデルでは、one-hot符号化や言語モデルword2vecを利用してユーザの特徴を表現するのが一般的である。しかしながら、このような言語表現モデルの技術は、浅い意味情報しか捕捉できず、モデルの汎化能力が不足することが多い。
(3)従来のモデルでは、従来のモデルは、ユーザの自身の特徴のみを入力として採用し、ソーシャルネットワークなどの追加情報は含まれていない。トレーニングデータセットの収集が比較的に困難であるため、トレーニングデータセットは一般的に小さく、従来のモデルは、この2つの要素の影響でオーバーフィッティングしやすい。
上記の関連技術に存在する不足に基づいて、本開示は、ユーザのソーシャルネットワーク及びグラフニューラルネットワーク技術によってユーザの関心画像の正確な構築を実現する取得方法を提供する。これにより、関心画像を正確に取得できるモデルを決定する。
以下の実施例は、図面を組み合わせて本開示を説明する。
図1は、本開示の実施例に係るラベル推奨モデルのトレーニング方法の概略フローチャートを示し、図1に示すように、当該方法は、以下のステップを含むことができる。
ステップS110において、トレーニング素材の収集指示を受信したことに応答し、トレーニング素材を収集する。
本開示の実施例において、なお、トレーニング素材が履歴データであり、トレーニング素材には関心ラベルも含まれる。本開示において収集したトレーニング素材は、ユーザに関連する素材であってもよく、もちろん他の素材であってもよく、ここでは具体的に限定しない。
本開示の実施例において、トレーニング素材は、クリック/お気に入り/閲読した記事であってもよい。本開示において、知識推奨製品及び検索製品の行動ログから行動トレーニング素材を収集することができる。仕事中に執筆/編集した関連記事からサービストレーニング素材を収集することもできる。仕事中に執筆/編集した関連記事は、週報、昇進資料、プロジェクトの要約、要件文書などであってもよい。ここで、サービストレーニング素材は、サービスに関連する情報、例えば、仕事中に提出されたコードの分布(C++90%、Python10%)であってもよい。
マルチチャンネルで素材を収集することにより、ログなどの暗黙的なフィードバック(すなわち、行動トレーニング素材)を収集することができる。オフィス素材などの真実で信頼できる素材を取得することもできる。また、サービストレーニング素材を取得し、素材を全面的に取得し、素材のカバー率及び精度を効果的に確保し、素材不足の問題を効果的に解決し、素材の持つ特徴を後から正確に表現することができるようにする。
ステップS120において、意味拡張表現フレームワークを利用してトレーニング素材を表現し、関心ラベルを含むトレーニング意味ベクトルを得る。
本開示の実施例において、意味拡張表現フレームワークは、知識拡張に基づく持続学習意味理解フレームワーク(Enhanced Representation from kNowledge IntEgration、ERNIE)である。ERNIEに基づいてトレーニング素材を意味表現する。関心ラベルを含むトレーニング意味ベクトルを得る。
なお、当該フレームワークは、ビッグデータの予めトレーニングをマルチソースの豊富な知識と組み合わせて、持続学習の技術によって大量のテキストデータにおける語彙、構造、意味などの方面の知識を絶えず吸収し、モデル効果の進化を実現する。
ステップS130において、ソーシャルネットワークをトレーニング意味ベクトルにアグリゲーションし、トレーニング符号化ベクトルを得る。
本開示の実施例において、ソーシャルネットワーク関係を取得し、社交的関係は、友人であってもよく、ネットワークでは友人は隣人と呼ばれてもよい。ソーシャルネットワーク関係をトレーニング意味ベクトルにアグリゲーションし、トレーニング意味ベクトルを拡張し、トレーニング符号化ベクトルを得る。
ステップS140において、トレーニング符号化ベクトルを入力として関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得る。
本開示の実施例において、ニューラルネットワークは、ディープニューラルネットワーク(Deep Neural Networks、DNN)であってもよく、他のニューラルネットワークであってもよい。本開示において、ニューラルネットワークをDNNとし、二層DNN構造を構築した。
トレーニング符号化ベクトルを二層DNN構造の入力とし、関心ラベルを二層DNN構造の出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得る。
本開示の実施例に係るラベル推奨モデルのトレーニング方法は、ERNIEを利用してトレーニング素材を意味表現することにより、トレーニング素材が持つ特徴表現をより正確にすることができる。二層ニューラルネットワーク構造をトレーニングすることにより、素材のカバー率を高め、関心ラベルの取得精度を向上させることができる。
本開示の以下の実施例は、意味拡張表現フレームワークを利用して前記トレーニング素材を表現し、関心ラベルを含むトレーニング意味ベクトルを得ることについて説明する。
図2は、本開示の実施例に係るトレーニング意味ベクトルの決定方法の概略フローチャートを示し、図2に示すように、当該方法は、以下のステップを含むことができる。
ステップS210において、意味拡張表現フレームワークに基づいて、行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現する。
上記実施例のように、本開示におけるトレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含む。
本開示の実施例において、行動トレーニング素材を区別性のある意味ベクトルに表現し、例えば、関心に類似する行動トレーニング素材は、比較的距離の小さい意味ベクトルで表現し、関心に類似しない行動トレーニング素材は、比較的距離の大きい意味ベクトルで表現し、異なる長さのトレーニング行動ベクトルを得る。他のトレーニング素材を固定長のトレーニングサービスベクトル、例えば、サービストレーニング素材として表現する。ERNIEによってサービストレーニング素材を意味表現し、例えば、コードの分布が[0.9、0.1…]であり、ここで、ベクトルの次元数は、プログラミング言語数に等しく、プロジェクトでは10に設定することができる。
ステップS220において、トレーニング行動ベクトルを平均化した後、トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得る。
本開示の実施例において、異なる長さのトレーニング行動ベクトルを平均化した後、トレーニングサービスベクトルとつなぎ合わせ、トレーニング意味ベクトルを得る。
例示的に、図3は、本開示の実施例に係る意味ベクトル表現の概略図を示し、図3に示すように、クリックされたタイトル、検索されたログ、週報などが入力層、符号化層、アグリゲーション層を経てアグリゲーションされ後、出力層は、意味ベクトルを出力し、コードで表現する。
本開示の実施例によってトレーニング行動ベクトルとトレーニングサービスベクトルをつなぎ合わせ、得られる最終的なトレーニング意味ベクトルは、一定で合理的な長さを有し、ニューラルネットワークモデルの汎化能力の向上に有利である。
関心が社交的関係を持つ他の関心と類似しているという発想に基づいて、ソーシャルネットワークを符号化する。例えば、ゲームが好きなユーザに対して、ゲームが好きな他のユーザもいることがあり、彼らの間には社交的関係がある。決定された意味ベクトルに基づいて符号化して符号化ベクトルを得る。本開示の以下の実施例は、ソーシャルネットワークをトレーニング意味ベクトルにアグリゲーションし、トレーニング符号化ベクトルを得ることについて説明する。
図4は、本開示の実施例に係るトレーニング符号化ベクトルの決定方法の概略フローチャートを示し、図4に示すように、当該方法は、以下のステップを含むことができる。
ステップS310において、ソーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定する。
本開示の実施例において、ソーシャルネットワークは、ユーザ間の社交的状況、例えば、ユーザ間のインタラクティブ状況であってもよい。ユーザ間のソーシャルネットワークに基づいてユーザ間の親密値を計算し、本開示では親密値を親密度と呼ぶこともできる。ここで、親密値の取り得る値の範囲は、(0~1.0)であってもよい。例えば、score=(sigmoid(最近のコミュニケーション日数)+sigmoid(最近のコミュニケーション回数))/2.0という式を採用する。
ステップS320において、親密値を行列における要素の取り得る値として隣接行列を構築する。
本開示の実施例において、例示的に、ユーザを行列の要素として計算されたユーザ間の親密値に基づいて、各行で1ユーザを表し、各列で当該ユーザと社会的なつながりを持つ他のユーザを表し、親密値を行列における要素の取り得る値として隣接行列を構築して隣接行列をAと表す。
ステップS330において、隣接行列における各行の前記要素の重みの和が1であることを条件として、要素に重みを割り当てる。
ここで、隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きい。
本開示の実施例において、自身の情報に基づいて隣接行列の対角線に対して5~10.0などの大きな重みを設定する。最後に以下の式によって隣接行列の重みを正規化し、各行の和が1になるようにする。
[式1]
Figure 0007454630000001
[式2]
Figure 0007454630000002
式1~2において、iは、隣接行列における行を表し、jは、隣接行列における列を表し、
Figure 0007454630000003
は、隣接行列を表し、
Figure 0007454630000004
は、親密度を表す。ここで、符号化ベクトルは、
Figure 0007454630000005
で表す。
Figure 0007454630000006
は、符号化ベクトルを表し、Xは、ベクトル行列を表す。
ステップS340において、隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいてトレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得る。
本開示の実施例において、構築された隣接行列を基に、グラフ畳み込みネットワーク(Graph Convolutional Networks)に基づいて、隣接行列における各親密値及び割り当てられた重みからトレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを決定する。
本開示において、隣接行列の対角線に大きな重みを設定することにより、符号化されたベクトルは、ユーザの情報により偏るようにすることができる。社会的関係を符号化し、モデルコールドスタートの問題を解決し、収集されていない素材の特徴を捕捉することもできる。
以下の実施例において、トレーニング符号化ベクトルを入力として関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングしてラベル推奨モデルを得ることについて説明する。
図5は、本開示の実施例に係るトレーニングモデル方法の概略フローチャートを示し、図5に示すように、当該方法は、以下のステップを含むことができる。
ステップS410において、トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力としてフィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得る。
本開示の実施例において、本開示は、フィードフォワードニューラルネットワークの活性化関数として
Figure 0007454630000007
と表されるReluを採用し、W0は、ニューラルネットワークの全接続行列を表し、ニューラルネットワークのパラメータであり、出力された新たなトレーニング符号化ベクトルは、アグリゲーションされたトレーニング符号化ベクトルである。
本開示の例示的な一実施例において、図6は、本開示の実施例に係るニューラルネットワークの概略図を示す。図6に示すように、図中のA、B、C、D、E、Fは、異なるユーザを表す。ここで、ユーザAと社交的関係を持っているのは、ユーザB及びユーザCである。ユーザBと社交的関係を持っているのは、ユーザA、ユーザE及びユーザDである。ユーザCと社交的関係を持っているのは、ユーザA及びユーザFである。ユーザAが目標ユーザであるのを例として、社交的関係に基づいてユーザA及びユーザAと社交的関係を持っているユーザBのトレーニング符号化ベクトル及びユーザCのトレーニング符号化ベクトルを最初にアグリゲーションしたら、アグリゲーションされたユーザAのトレーニング符号化ベクトル及びユーザAと社交的関係を持っているユーザBのトレーニング符号化ベクトル及びユーザCのトレーニング符号化ベクトルが得られる。
ステップS420において、新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得る。
本開示の実施例において、新たなトレーニング符号化ベクトルである
Figure 0007454630000008
を第2層全接続ネットワークの入力とし、式を(AV 1)と表し、出力されたトレーニングラベルベクトルは、
Figure 0007454630000009
と表記される。
図6に示すように、アグリゲーションされたユーザAのトレーニング符号化ベクトル及びユーザAと社交的関係を持っているユーザBのトレーニング符号化ベクトル及びユーザCのトレーニング符号化ベクトルを再びDNNの全接続ネットワークWに入力し、新たなユーザトレーニング符号化ベクトルを得て、説明を容易にするために、本開示では、
Figure 0007454630000010
をVと表記する。ユーザA、ユーザB及びユーザCを再びアグリゲーションした後のトレーニング符号化ベクトルを二層ニューラルネットワークにおける第2層ニューラルネットワークの入力としてニューラルネットワークの全接続ネットワークに再び入力し、式を(AV 1)と表し、ラベルベクトルである
Figure 0007454630000011
、すなわち、図6中のYが得られる。
ここで、なお、アグリゲーションされた符号化ベクトルは、100個のベクトルをマッピングする100次元のベクトルなどの多次元のベクトルである。つまり、各次元は1つのベクトルを表す。
本開示は、二層ニューラルネットワーク構造を採用し、ユーザの社会的関係によってユーザの素材を増加させ、ユーザの素材収集の範囲を広げることにより、オーバーフィッティングの問題を回避する。
ステップS430において、トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得る。
本開示の実施例において、トレーニングラベルベクトルに作用する関数によってトレーニングラベルベクトルを解析し、トレーニング関心ラベルを出力する。トレーニング関心ラベルと実際に持っている関心ラベルとの関係を計算することでラベル推奨モデルを決定する。
図7は、本開示の実施例に係るラベル推奨モデルのトレーニング方法の概略フローチャートを示し、図7に示すように、当該方法は、以下のステップを含むことができる。
ステップS510において、活性化関数を利用してトレーニングラベルベクトルを解析し、トレーニングラベルベクトルに含まれる関心ラベルを得る。
本開示の実施例において、トレーニングラベルベクトルに作用する活性化関数を決定し、ここで、活性化関数は、sigmoid関数であってもよい。得られたトレーニングラベルベクトルを活性化関数の引数として活性化関数によってトレーニングラベルベクトルを解析し、複数のラベル、すなわち、複数のトレーニング関心ラベルを得る。
ステップS520において、関心ラベルにおいて、関心ラベルに対応する第1の関心ラベルを決定し、第1の関心ラベルが関心ラベルに占める割合を計算し、ラベル推奨モデルの確率閾値を決定し、出力ラベル確率が確率閾値以上であるラベル推奨モデルを得る。
本開示の実施例において、複数のラベルにおいて、各ラベルの出現回数が全てのラベルの出現回数に占める確率を計算する。関心ラベルに対応する第1の関心ラベルの出現回数が全てのラベルの出現回数に占める確率を計算することにより、ラベル推奨モデルの確率閾値を決定し、出力されたラベル確率が確率閾値以上であるラベル推奨モデルを得る。
本開示は、同じ/類似の発想に基づいて、ラベル取得方法をさらに提供する。
図8は、本開示の実施例に係るラベル取得方法の概略フローチャートであり、図8に示すように、当該方法は、以下のステップを含むことができる。
ステップS610において、関心ラベルの取得指示を受信したことに応答し、対応する素材を取得する。
本開示の実施例において、関心ラベル指示を受信したら、当該指示に対応する素材を取得し、上述した実施例のように、素材は、行動素材及びサービス素材を含む。
ステップS620において、意味拡張表現フレームワークを利用して素材の特徴を表現し、関心ラベルを含む意味ベクトルを得る。
本開示の実施例において、意味拡張表現フレームワークを利用して取得された当該行動素材及びサービス素材を表現し、関心ラベルを含む行動ベクトル及びサービスベクトルを得る。
ステップS630において、ソーシャルネットワークを意味ベクトルにアグリゲーションして符号化ベクトルを得る。
本開示の実施例において、行動ベクトル及びサービスベクトルを上記実施例に係る方法によってアグリゲーションし、グラフ畳み込みネットワークを利用して社会的関係を持つ意味ベクトルを符号化する。グラフ畳み込みネットワークの定義に基づいて、符号化ベクトルは、ユーザを特徴付けることができ、ユーザの符号化ベクトル=Σ親密度*従業員の友人ベクトル、すなわち
Figure 0007454630000012
であり、Xは、ユーザのベクトル行列を表し、1行は1ユーザである。
得られた意味ベクトルを得られた隣接行列によって当該意味ベクトルに組み込み、当該符号化ベクトルを得る。
ステップS640において、符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得る。
本開示の実施例において、得られた符号化ベクトルをトレーニングされたラベル推奨モデルに入力し、ラベル推奨モデルは、当該関心ラベルを出力し、すなわち、ユーザの関心ラベルが得られる。
本開示の実施例に係るラベル取得方法によれば、ユーザの関心ラベルを正確に取得することにより、関連素材を正確に推奨することができる。
本開示において、ラベル推奨モデルを利用するステップは、以下の実施例を参照することができる。
図9は、本開示の実施例に係るラベル推奨モデルの使用方法の概略フローチャートを示し、図9に示すように、当該方法は、以下のステップを含むことができる。
ステップS710において、符号化ベクトルをラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得る。
本開示の実施例において、トレーニング符号化ベクトルの決定方法を利用して符号化ベクトルが得られ、符号化ベクトルをラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、当該レイヤモデルの全接続ネットワークによって新たな符号化ベクトルを得る。
ステップS720において、新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得る。
本開示の実施例において、新たな符号化ベクトルをラベル推奨モデルにおける第2層の全接続ネットワークに入力し、ラベルベクトルを得る。
例示的に、当該ラベルベクトルには、ユーザの特徴、例えば、深層学習、アーキテクチャ技術、クラウドコンピューティング、自然言語処理などの特徴が含まれる。
ステップS730において、ラベルベクトルを解析し、ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力する。
本開示の実施例において、sigmoidを活性化関数としてラベルベクトルを解析する。ラベルベクトルが持つ特徴によって特徴に対応する関心ラベルを得るため、得られる関心ベクトルの中からユーザが持つ関心ラベルを決定する。
例示的に、複数の特徴は、1つの関心ラベルに対応することができ、例えば、持っているテキスト分類、TF-IDF、ONE-HOT特徴などは、すべて「自然言語処理」ラベルに対応することができる。
以下の実施例において、前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力することについて説明する。
図10は、本開示の実施例に係るラベル取得方法の概略フローチャートを示し、図10に示すように、当該方法、以下のステップを含むことができる。
ステップS810において、ラベル推奨モデルにおける活性化関数に基づいてラベルベクトルを解析し、複数のラベルを得る。
上記実施例から分かるように、ラベルベクトルは、
Figure 0007454630000013
と表す。ここで、解析関数は、Z=sigmoid(R)であり、すなわち、
Figure 0007454630000014
ここで、Zは、予測された関心ラベルを表し、複数のラベルが得られる。
ステップS820において、複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定する。
本開示の実施例において、得られる関心ラベルにおいて、各関心ラベルの出現回数が全ての関心ラベルの出現回数に占める確率を計算し、確率が確率閾値以上である関心ラベルをユーザの持つ関心ラベルとして決定する。
例えば、確率閾値が0.5である場合、解析された次元結果のうち、0.5より大きい予測値をユーザの持つ関心ラベルとして決定する。
本開示の実施例において、様々な異なるシナリオ、特に、企業のオフィスシナリオなどの企業内部の知識管理に適用することができる。本開示は、企業のオフィスシナリオを例に挙げているが、当該シナリオに限定されるものではない。
企業のオフィスシナリオにおいて、関心は、スキル、業務、役職の3つのラベルに分けられる。スキルは、すなわち、知識分類体系、例えば、深層学習、アーキテクチャ技術、クラウドコンピューティング、自然言語処理などであり、業務とは、会社員が参加する製品又はプロジェクト、例えば、アプリケーションA、アプリケーションBなどであり、役職ベクトルは、シーケンスとも呼ばれ、ユーザの役割を表し、具体的には、研究開発エンジニア(Research and Development engineer、RD)、品質保証(Quality Assurance、QA)、PM、オペレータ又は管理者(Operator、OP)などに分けられる。本開示の目標は、各ユーザの関心画像を正確に予測することである。例えば、ユーザAのラベルは、経路計画、地図技術、RDなどである。
本開示に係る方法によれば、会社内部の知識推奨及び製品の検索に適用することにより、千人千面の推奨効果及び正確な検索効果を実現することができる。先ず、知識推奨製品では、ユーザ画像の関心ラベルによってユーザの好みを正確に知ることにより、ユーザに関心のある文章及びビデオを推奨することができ、人口属性のみに基づくラベルに比べて、関心ラベルが説明する範囲がより広く、ユーザ個人の好みをより体現するので、推奨効果がよりよい。ユーザが製品/プロジェクトに関連付けられているため、製品/プロジェクトの検索時に関係者の構造化情報を直接返し、ユーザが関係者の情報をより迅速に取得することができ、検索のコストが削減される。正確なユーザ画像予測を実現することは、推奨及び検索等の下流側の製品の体験の向上に役立つ。
図1に示す方法と同じ原理に基づいて、図11は、本開示の実施例に係るラベル推奨モデルトレーニングの概略構成図を示し、図11に示すように、当該装置100は、
ユーザトレーニング素材の収集指示を受信したことに応答し、トレーニング素材を収集するように構成される取得モジュール101と、意味拡張表現フレームワークを利用してトレーニング素材の特徴を表現し、関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークをトレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュール102と、トレーニング符号化ベクトルを入力として関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュール103と、を含むことができる。
本開示の実施例において、トレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含む。
処理モジュール102は、意味拡張表現フレームワークに基づいて、行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現し、トレーニング行動ベクトルを平均化した後、トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得るように構成される。
処理モジュール102は、ソーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定し、親密値を行列における要素の取り得る値として隣接行列を構築し、隣接行列における各行の要素の重みの和が1であることを条件として、要素に重みを割り当て、隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きく、隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいてトレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得るように構成される。
トレーニングモジュール103は、トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力としてフィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得て、新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得て、トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るように構成される。
トレーニングモジュール103は、活性化関数を利用してトレーニングラベルベクトルを解析し、トレーニングラベルベクトルに含まれるラベルを得て、ラベルにおいて、関心ラベルに対応する第1の関心ラベルを決定し、第1の関心ラベルがラベルに占める割合を計算し、ラベル推奨モデルの確率閾値を決定し、出力ラベル確率が確率閾値以上であるラベル推奨モデルを得るようにも構成される。
図8に示す方法と同じ原理に基づいて、図12は、本開示の実施例に係るラベル取得構造の概略図を示し、図12に示すように、当該ラベル取得装置200は、
関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュール201と、意味拡張表現フレームワークを利用して素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュール202と、符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュール203と、を含むことができる。
処理モジュール202は、符号化ベクトルを画像モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得て、新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得て、ラベルベクトルを解析し、画像モデルにおける確率閾値に基づいて関心ラベルを出力するように構成される。
予測モジュール203は、画像モデルにおける活性化関数に基づいてラベルベクトルを解析し、複数のラベルを得て、複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定するように構成される。
本開示の技術案において、係るユーザ個人情報の取得、記憶及び適用などは、いずれも関連する法律法規の規定に適合し、公序良俗に反するものではない。
本開示の実施例によれば、本開示は、電子機器、読み取り可能な記憶媒体及びコンピュータプログラムをさらに提供する。
図13は、本開示の実施例を実施するために使用され得る例示的な電子機器300の概略ブロック図を示す。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限するものではない。
図13に示すように、機器300は、リードオンリーメモリ(ROM)302に記憶されているコンピュータプログラム、又は記憶ユニット308からランダムアクセスメモリ(RAM)303にロッドされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行することができる計算ユニット301を含む。RAM303には、機器300の動作に必要な様々なプログラム及びデータが記憶されていてもよい。計算ユニット301、ROM302及びRAM303は、バス304を介して互いに接続されている。入出力(I/O)インタフェース305もバス304に接続されている。
機器300における、キーボード、マウスなどの入力ユニット306と、様々なタイプのディスプレイ、スピーカなどの出力ユニット307と、磁気ディスク、光ディスクなどの記憶ユニット308と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット309と、を含む複数のコンポーネントは、入出力(I/O)インタフェース305に接続されている。通信ユニット309は、機器300がインタネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
計算ユニット301は、各種の処理及び計算能力を有する汎用及び/又は専用処理コンポーネントであってもよい。計算ユニット301のいくつかの例は、セントラルプロセッシングユニット(CPU)、グラフィックスプロセッシングユニット(GPU)、各種の専用人工知能(AI)計算チップ、各種の機械学習モデルアルゴリズムを運行する計算ユニット、デジタルシグナルプロセッサ(DSP)、及びいずれかの適宜なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット301は、上述したそれぞれの方法及び処理、例えば、ラベル推奨モデルのトレーニング方法及びラベル取得方法を実行する。例えば、いくつかの実施例で、ラベル推奨モデルのトレーニング方法及びラベル取得方法は、記憶ユニット308のような機械読み取り可能な媒体に具体的に含まれるコンピュータソフトウェアプログラムとして実装されてもよい。いくつかの実施例で、コンピュータプログラムの一部又は全部は、ROM302及び/又は通信ユニット309を介して機器300にロッド及び/又はインストールすることができる。コンピュータプログラムがRAM303にロッドされて計算ユニット301によって実行された場合、上述したラベル推奨モデルのトレーニング方法及びラベル取得方法の1つ又は複数のステップを実行することができる。あるいは、他の実施例で、計算ユニット301は、他の任意の適切な形態で(例えば、ファーとウェアにより)ラベル推奨モデルのトレーニング方法及びラベル取得方法を実行するように構成されてもよい。
本明細書で上述したシステム及び技術の各種の実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はそれらの組合せにおいて実現してもよい。これらの各種の実施方式は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができる1つ又は複数のコンピュータプログラムにおいて実現されてもよく、当該プログラマブルプロセッサは、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置にデータ及び命令を伝送することができる専用及び/又は汎用プログラマブルプロセッサであってもよい。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、又はデバイスによって使用されるために、又は命令実行システム、装置、又はデバイスと組み合わせて使用するためのプログラムを含むか、又は格納することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)又はフラッシュメモリ、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドユニットを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアユニットを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドユニットを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドユニットと、ミドルウェアユニットと、フロントエンドユニットの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、且つ互いにクライアント-サーバ関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドサーバであってもよく、分散システムのサーバ又はブロックチェーンを組み合わせたサーバであってもよい。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定しない。
上記の具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本開示の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (19)

  1. ラベル推奨モデルのトレーニング方法であって、
    トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するステップと、
    意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るステップと、
    ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップと、
    前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップと、を含む、
    ことを特徴とするラベル推奨モデルのトレーニング方法。
  2. 前記トレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含み、
    意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、関心ラベルを含むトレーニング意味ベクトルを得るステップは、
    前記意味拡張表現フレームワークに基づいて、前記行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、前記サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現するステップと、
    前記トレーニング行動ベクトルを平均化した後、前記トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るステップは
    ーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定するステップと、
    前記親密値を行列における要素の取り得る値として隣接行列を構築するステップと、
    前記隣接行列における各行の前記要素の重みの和が1であることを条件として、前記要素に重みを割り当てるステップであって、前記隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きいステップと、
    前記隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいて前記トレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記トレーニング符号化ベクトルを入力して前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るステップは、
    前記トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力として前記フィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得るステップと、
    前記新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として前記全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得るステップと、
    前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  5. 前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るステップは、
    活性化関数を利用して前記トレーニングラベルベクトルを解析し、前記トレーニングラベルベクトルに含まれる関心ラベルを得るステップと、
    前記関心ラベルにおいて、前記関心ラベルに対応する第1の関心ラベルを決定し、前記関心ラベルに占める前記第1の関心ラベルの割合を計算し、ラベル推奨モデルの確率閾値を決定し、出力ラベル確率が前記確率閾値以上であるラベル推奨モデルを得るステップと、を含む、
    ことを特徴とする請求項4に記載の方法。
  6. ラベル取得方法であって、
    関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するステップと、
    意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るステップと、
    ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るステップと、
    前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップと、を含む、
    ことを特徴とするラベル取得方法。
  7. 前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るステップは、
    前記符号化ベクトルを前記ラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得るステップと、
    前記新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得るステップと、
    前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するステップと、を含む、
    ことを特徴とする請求項6に記載の方法。
  8. 前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するステップは、
    前記ラベル推奨モデルにおける活性化関数に基づいて前記ラベルベクトルを解析し、複数のラベルを得るステップと、
    前記複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定するステップと、を含む、
    ことを特徴とする請求項7に記載の方法。
  9. ラベル推奨モデルのトレーニング装置であって、
    トレーニング素材の収集指示を受信したことに応答し、関心ラベルを含むトレーニング素材を収集するように構成される取得モジュールと、
    意味拡張表現フレームワークを利用して前記トレーニング素材の特徴を表現し、前記関心ラベルを含むトレーニング意味ベクトルを得るように構成され、ソーシャルネットワークを前記トレーニング意味ベクトルにアグリゲーションしてトレーニング符号化ベクトルを得るようにも構成される処理モジュールと、
    前記トレーニング符号化ベクトルを入力として前記関心ラベルを出力とし、二層ニューラルネットワーク構造をトレーニングし、ラベル推奨モデルを得るように構成されるトレーニングモジュールと、を含む、
    ことを特徴とするラベル推奨モデルのトレーニング装置。
  10. 前記トレーニング素材は、行動トレーニング素材及びサービストレーニング素材を含み、
    前記処理モジュールは、
    前記意味拡張表現フレームワークに基づいて、前記行動トレーニング素材を異なる長さのトレーニング行動ベクトルとして表現し、前記サービストレーニング素材を固定長のトレーニングサービスベクトルとして表現し、
    前記トレーニング行動ベクトルを平均化した後、前記トレーニングサービスベクトルと融合してトレーニング意味ベクトルを得るように構成される、
    ことを特徴とする請求項9に記載の装置。
  11. 前記処理モジュールは
    ーシャルネットワークを取得し、ソーシャルネットワーク間の親密値を決定し、
    前記親密値を行列における要素の取り得る値として隣接行列を構築し、
    前記隣接行列における各行の前記要素の重みの和が1であることを条件として、前記要素に重みを割り当て、前記隣接行列における対角線の要素に割り当てられた重みが他の要素に割り当てられた重みより大きく、
    前記隣接行列における各要素に対応するトレーニング意味ベクトルを取得し、グラフ畳み込みネットワークに基づいて前記トレーニング意味ベクトルと重みを割り当てた後の各要素の取り得る値との積を計算し、トレーニング符号化ベクトルを得るようにも構成される、
    ことを特徴とする請求項9に記載の装置。
  12. 前記トレーニングモジュールは、
    前記トレーニング符号化ベクトルをフィードフォワードニューラルネットワークの入力として前記フィードフォワードニューラルネットワークをトレーニングし、新たなトレーニング符号化ベクトルを得て、
    前記新たなトレーニング符号化ベクトルを再び全接続ネットワークの入力として前記全接続ネットワークをトレーニングし、トレーニングラベルベクトルを得て、
    前記トレーニングラベルベクトルを引数として、関心ラベルとして出力し、ラベル推奨モデルを得るように構成される、
    ことを特徴とする請求項9に記載の装置。
  13. 前記トレーニングモジュールは、
    活性化関数を利用して前記トレーニングラベルベクトルを解析し、前記トレーニングラベルベクトルに含まれる関心ラベルを得て、
    前記関心ラベルにおいて、前記関心ラベルに対応する第1の関心ラベルを決定し、前記関心ラベルに占める前記第1の関心ラベルの割合を計算し、画像モデルの確率閾値を決定し、出力ラベル確率が前記確率閾値以上であるラベル推奨モデルを得るように構成される、
    ことを特徴とする請求項12に記載の装置。
  14. ラベル取得装置であって、
    関心ラベルの取得指示を受信したことに応答し、対応する素材を取得するように構成される取得モジュールと、
    意味拡張表現フレームワークを利用して前記素材の特徴を表現し、関心ラベルを含む意味ベクトルを得るように構成され、ソーシャルネットワークを前記意味ベクトルにアグリゲーションして符号化ベクトルを得るようにも構成される処理モジュールと、
    前記符号化ベクトルを予めトレーニングされたラベル推奨モデルに入力し、関心ラベルを得るように構成される予測モジュールと、を含む、
    ことを特徴とするラベル取得装置。
  15. 前記予測モジュールは、
    前記符号化ベクトルを前記ラベル推奨モデルにおけるフィードフォワードニューラルネットワークに入力し、新たな符号化ベクトルを得て、
    前記新たな符号化ベクトルを全接続ネットワークに入力し、ラベルベクトルを得て、
    前記ラベルベクトルを解析し、前記ラベル推奨モデルにおける確率閾値に基づいて関心ラベルを出力するように構成される、
    ことを特徴とする請求項14に記載の装置。
  16. 前記予測モジュールは、
    前記ラベル推奨モデルにおける活性化関数に基づいて前記ラベルベクトルを解析し、複数のラベルを得て、
    前記複数のラベルのうちの出現確率が確率閾値以上であるラベルを関心ラベルとして決定するように構成される、
    ことを特徴とする請求項15に記載の装置。
  17. 電子機器であって、
    少なくとも1つのプロセッサと、
    少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が記憶されており、前記指令は、前記少なくとも1つのプロセッサが請求項1~5のいずれかに記載の方法を実行できるか、又は前記少なくとも1つのプロセッサが請求項6~8のいずれかに記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  18. コンピュータ指令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ指令は、前記コンピュータに請求項1~5のいずれかに記載の方法を実行させるために使用されるか、又は前記コンピュータ指令は、前記コンピュータに請求項6~8のいずれかに記載の方法を実行させるために使用される、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータに実行される場合、前記コンピュータに請求項1~5のいずれかに記載の方法を実行させるか、又は、前記コンピュータに請求項6~8のいずれかに記載の方法を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2022192347A 2021-11-30 2022-11-30 ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置 Active JP7454630B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111446672.1 2021-11-30
CN202111446672.1A CN114169418B (zh) 2021-11-30 2021-11-30 标签推荐模型训练方法及装置、标签获取方法及装置

Publications (2)

Publication Number Publication Date
JP2023025147A JP2023025147A (ja) 2023-02-21
JP7454630B2 true JP7454630B2 (ja) 2024-03-22

Family

ID=80481939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022192347A Active JP7454630B2 (ja) 2021-11-30 2022-11-30 ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置

Country Status (5)

Country Link
US (1) US20230085599A1 (ja)
EP (1) EP4116884A3 (ja)
JP (1) JP7454630B2 (ja)
KR (1) KR20220166761A (ja)
CN (1) CN114169418B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114840745B (zh) * 2022-03-30 2024-10-15 达观数据有限公司 一种基于图表征学习和深度语义匹配模型的个性化推荐方法及系统
CN116486195B (zh) * 2023-03-22 2024-04-16 北京百度网讯科技有限公司 视频推荐模型的训练方法、视频推荐方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190136A (ja) 2017-05-01 2018-11-29 トヨタ自動車株式会社 興味判定装置、興味判定方法、及びプログラム
US20210027146A1 (en) 2018-10-23 2021-01-28 Tencent Technology (Shenzhen) Company Limited Method and apparatus for determining interest of user for information item

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120084657A1 (en) * 2010-09-30 2012-04-05 Yahoo! Inc. Providing content to a user from multiple sources based on interest tag(s) that are included in an interest cloud
CN102867016A (zh) * 2012-07-18 2013-01-09 北京开心人信息技术有限公司 一种基于标签的社交网络用户兴趣挖掘方法与装置
CN104021233B (zh) * 2014-06-30 2017-02-15 电子科技大学 一种基于社区发现的社交网络好友推荐方法
CN105260410A (zh) * 2015-09-22 2016-01-20 天津大学 基于亲密度和影响力的微博社交兴趣圈挖掘方法及其装置
CN105844508B (zh) * 2016-03-22 2020-04-17 天津中科智能识别产业技术研究院有限公司 一种基于动态周期神经网络的商品推荐方法
CN108268556A (zh) * 2017-01-03 2018-07-10 南宁富桂精密工业有限公司 信息推荐方法及信息推送端
US20210150565A1 (en) * 2019-11-19 2021-05-20 Affinio Inc. Method and apparatus for directing acquisition of information in a social network
CN112825076B (zh) * 2019-11-20 2024-03-01 北京搜狗科技发展有限公司 一种信息推荐方法、装置和电子设备
CN111460302B (zh) * 2020-03-31 2023-08-08 拉扎斯网络科技(上海)有限公司 数据处理方法、装置、电子设备及计算机可读存储介质
CN111260493A (zh) * 2020-04-27 2020-06-09 深圳市爱聊科技有限公司 基于亲密度的用户交友分组方法、电子装置及存储介质
CN112084427A (zh) * 2020-09-15 2020-12-15 辽宁工程技术大学 一种基于图神经网络的兴趣点推荐方法
CN112559749B (zh) * 2020-12-18 2024-04-09 深圳赛安特技术服务有限公司 在线教育师生智能匹配方法、装置及存储介质
CN113434762A (zh) * 2021-06-28 2021-09-24 平安银行股份有限公司 基于用户信息的关联推送方法、装置、设备及存储介质
CN113626704A (zh) * 2021-08-10 2021-11-09 平安国际智慧城市科技股份有限公司 基于word2vec模型的推荐信息方法、装置及设备
CN113590854B (zh) * 2021-09-29 2021-12-31 腾讯科技(深圳)有限公司 一种数据处理方法、设备以及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190136A (ja) 2017-05-01 2018-11-29 トヨタ自動車株式会社 興味判定装置、興味判定方法、及びプログラム
US20210027146A1 (en) 2018-10-23 2021-01-28 Tencent Technology (Shenzhen) Company Limited Method and apparatus for determining interest of user for information item

Also Published As

Publication number Publication date
EP4116884A3 (en) 2023-05-24
KR20220166761A (ko) 2022-12-19
JP2023025147A (ja) 2023-02-21
EP4116884A2 (en) 2023-01-11
US20230085599A1 (en) 2023-03-16
CN114169418A (zh) 2022-03-11
CN114169418B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
KR102472572B1 (ko) 사용자 의도 프로파일링 방법 및 이를 위한 장치
US9213996B2 (en) System and method for analyzing social media trends
KR101939554B1 (ko) 일시적 거래 한도 결정
US20190378074A1 (en) Method, apparatus, and system for data analytics model selection for real-time data visualization
JP7454630B2 (ja) ラベル推奨モデルのトレーニング方法及び装置、ラベル取得方法及び装置
US20140143013A1 (en) System and method for analyzing social media trends
Zhao et al. Modelling consumer satisfaction based on online reviews using the improved Kano model from the perspective of risk attitude and aspiration
US20190303980A1 (en) Training and utilizing multi-phase learning models to provide digital content to client devices in a real-time digital bidding environment
US20210350202A1 (en) Methods and systems of automatic creation of user personas
CN113434755A (zh) 页面的生成方法、装置、电子设备及存储介质
US9020962B2 (en) Interest expansion using a taxonomy
Gan XGBoost‐Based E‐Commerce Customer Loss Prediction
CN113469752A (zh) 内容推荐方法、装置、存储介质及电子设备
US20150106158A1 (en) Method and apparatus for providing folksonomic object scoring
CN112948602B (zh) 一种内容显示方法、装置、系统、设备及存储介质
KR102405503B1 (ko) 소비 데이터와 소셜 데이터를 이용한 소비동향 예측 지수 생성 방법과 이를 적용한 소비동향 예측 지수 생성 시스템 및 이를 위한 컴퓨터 프로그램
CN117132323A (zh) 推荐内容的分析方法、装置、设备、介质及程序产品
CN114547416A (zh) 一种媒体资源排序方法及电子设备
CN113761349A (zh) 一种推荐信息的挖掘方法和装置
CN117131197B (zh) 一种招标书的需求类别处理方法、装置、设备及存储介质
CN113343090B (zh) 用于推送信息的方法、装置、设备、介质和产品
CN114417944B (zh) 识别模型训练方法及装置、用户异常行为识别方法及装置
Gu et al. Key analysis of smart tourism project setting and tourists' satisfaction degree based on data mining
Yuyao Multi-round tag recommendation algorithm for shopping guide robots
Nguyen et al. Computing Amplification Factors for Influence on Social Network based on Learning of Behaviors and Interacted Knowledge Graph

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150