[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7429926B2 - Communication support devices, methods and programs - Google Patents

Communication support devices, methods and programs Download PDF

Info

Publication number
JP7429926B2
JP7429926B2 JP2020196838A JP2020196838A JP7429926B2 JP 7429926 B2 JP7429926 B2 JP 7429926B2 JP 2020196838 A JP2020196838 A JP 2020196838A JP 2020196838 A JP2020196838 A JP 2020196838A JP 7429926 B2 JP7429926 B2 JP 7429926B2
Authority
JP
Japan
Prior art keywords
context information
information
context
user
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020196838A
Other languages
Japanese (ja)
Other versions
JP2022085248A (en
Inventor
良輔 青木
直樹 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Tokyo Denki University
Original Assignee
Nippon Telegraph and Telephone Corp
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Tokyo Denki University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2020196838A priority Critical patent/JP7429926B2/en
Publication of JP2022085248A publication Critical patent/JP2022085248A/en
Application granted granted Critical
Publication of JP7429926B2 publication Critical patent/JP7429926B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 1.2019年12月1日-2019年12月5日(公開日:2019年12月3日) OzCHI2019-31st Australian Conference on Human-Computer-Interactionにて公開Application of Article 30, Paragraph 2 of the Patent Act 1. December 1, 2019 - December 5, 2019 (Publication date: December 3, 2019) Published at OzCHI2019-31st Australian Conference on Human-Computer-Interaction

この発明の実施形態は、例えばチャットボットのようなエージェントを使用してユーザ間のコミュニケーションを支援する装置、方法およびプログラムに関する。 Embodiments of the present invention relate to a device, method, and program for supporting communication between users using an agent such as a chatbot.

近年、遠隔地にいるユーザ間のコミュニケーションツールとして、チャットが多く用いられている。しかし、チャットはいずれか一方のユーザが積極的に会話を開始しなければ、ユーザ間でのコミュニケーションは行われない。 In recent years, chat has been widely used as a communication tool between users in remote locations. However, in chat, communication between users does not occur unless one of the users actively starts a conversation.

そこで、ユーザ間のコミュニケーションを促進するために、チャットにチャットボット等と呼ばれるエージェントを組合せる技術が提案されている。この技術は、例えば、エージェントが一方のユーザの行動を監視し、この行動の様子を実況するメッセージを生成して、チャット上に反映させるものである(例えば、非特許文献1を参照)。 Therefore, in order to promote communication between users, a technology has been proposed that combines chat with an agent called a chatbot or the like. In this technology, for example, an agent monitors the behavior of one user, generates a message that broadcasts the behavior, and reflects the message on the chat (for example, see Non-Patent Document 1).

また、関連技術として、人の行動を支援するために、文化的な背景や個々のルーティンを考慮しながら人の行動の意図を深く理解する研究も行われている(例えば、非特許文献2を参照)。 In addition, as a related technology, research is being conducted to deeply understand the intention of human behavior while taking into account cultural background and individual routines in order to support human behavior (for example, see Non-Patent Document 2). reference).

佐藤晃佑、大島直樹、青木良輔、武川直樹、「センシングした調理行動をネタに離れて暮らす親子を雑談でむすぶ複数のチャットボット~自動化システムによる2週間のユーザテスト~」、HAI(Human-Agent Interaction)シンポジウム 2018,G-11Kosuke Sato, Naoki Oshima, Ryosuke Aoki, Naoki Takegawa, "Multiple chatbots that connect parents and children who live apart by chatting with each other based on sensed cooking behavior - Two-week user test using an automated system", HAI (Human-Agent Interaction) ) Symposium 2018, G-11 Genevieve Bell and Joseph Jofish Kaye, “Designing Technology for Domestic Spaces: A Kitchen Manifesto”, Gastronomica: The Journal of Critical Food Studies, 46-52, Vol.2 No.2, Spring 2002.Genevieve Bell and Joseph Jofish Kaye, “Designing Technology for Domestic Spaces: A Kitchen Manifesto”, Gastronomica: The Journal of Critical Food Studies, 46-52, Vol.2 No.2, Spring 2002.

ところが、非特許文献1には、エージェントが複数種類のセンサの検出データをもとにユーザの行動、例えば調理状況を判定し、それに対応するメッセージを生成してユーザ間のチャット上に反映させることまでは開示されているが、センサの検出データをもとに具体的にメッセージをどのように生成するかについては開示されていない。また、コミュニケーションを促進させる上で有効なメッセージとはどのようなものかについては、いまだ検討されていない。 However, Non-Patent Document 1 discloses that an agent determines a user's behavior, for example, cooking status, based on detection data from multiple types of sensors, generates a corresponding message, and reflects it on a chat between users. However, it does not disclose how a message is specifically generated based on sensor detection data. Furthermore, what kind of messages are effective in promoting communication has not yet been considered.

一方、非特許文献2には、人の調理行動を支援するために、文化的な背景や個々のルーティンを考慮しながら人の行動の意図を深く理解するための方向性が示されているものの、ユーザ間のコミュニケーションを促進する上で有効なメッセージとはどのようなものか、さらにメッセージをどのように生成するか、については言及されていない。 On the other hand, Non-Patent Document 2 provides a direction for deeply understanding the intentions of people's actions while taking into consideration cultural backgrounds and individual routines in order to support people's cooking actions. , there is no mention of what kind of messages are effective in promoting communication between users, or how to generate messages.

この発明は上記事情に着目してなされたもので、ユーザ間のコミュニケーションを促進させる上で有効なメッセージを生成するための技術を提供しようとするものである。 The present invention has been made in view of the above-mentioned circumstances, and aims to provide a technique for generating messages that are effective in promoting communication between users.

上記課題を解決するためにこの発明に係る装置又は方法の一態様は、ネットワークを介して行われる第1のユーザと第2のユーザとの間のコミュニケーションを支援する際に、センサから前記第1のユーザの行動に係る検出データを取得し、取得された前記検出データを、先ず当該検出データに含まれる前記第1のユーザの行動に係るコンテキスト情報の情報価値が、予め設定される条件を満たす第1の検出データと、前記条件を満たさない第2の検出データとに分類する。次に、分類された前記第1の検出データから、前記第1のユーザの行動に係る複数の第1のコンテキスト情報を分解抽出すると共に、前記第2の検出データをもとに、当該検出データに含まれるコンテキスト情報から前記第1のユーザの行動に係る第2のコンテキスト情報を類推する。そして、前記複数の第1のコンテキスト情報または前記第2のコンテキスト情報の前記情報価値を評価し、その評価結果に基づいて、断定的な表現を用いた第1の重み付きコンテキスト情報と、曖昧表現を用いた第2の重み付きコンテキスト情報とを選択的に生成し、生成された前記第1または第2の重み付きコンテキスト情報を、前記第2のユーザが閲覧可能な状態に出力するようにしたものである。 In order to solve the above problems, one aspect of the device or method according to the present invention is that when supporting communication between a first user and a second user via a network, Detection data related to the behavior of the first user is acquired, and the information value of the context information related to the behavior of the first user included in the detected data satisfies a preset condition. The data is classified into first detection data and second detection data that does not satisfy the above conditions. Next, from the classified first detection data, a plurality of pieces of first context information related to the behavior of the first user are decomposed and extracted, and based on the second detection data, the detection data is Second context information related to the first user's behavior is inferred from the context information included in the first user's behavior. Then, the information value of the plurality of first context information or the second context information is evaluated, and based on the evaluation result, first weighted context information using an assertive expression and ambiguous expression selectively generates second weighted context information using the second user, and outputs the generated first or second weighted context information in a state where it can be viewed by the second user. It is something.

この発明の一態様によれば、例えば、検出データから分解抽出または類推されるユーザの行動に係るコンテキスト情報の情報価値が評価され、その評価値が低い場合には、当該コンテキスト情報をもとに断定的な表現を用いた重み付きコンテキスト情報が生成され、一方評価値が高い場合には、当該コンテキスト情報をもとに曖昧表現を用いた重み付きコンテキスト情報が生成され、それぞれ例えばコミュニケーションツールにおいてユーザに提示される。このため、検出データから分解抽出または類推されるユーザの行動を表すコンテキスト情報を、その情報価値に応じて、断定的で正確な表現と、曖昧で興味を引きやすい表現とを使い分けて提示することが可能となり、これによりユーザに対し、提示情報の信頼性を担保しつつ、コミュニケーションのきっかけを効果的に与えることが可能となる。 According to one aspect of the present invention, for example, the information value of context information related to user behavior that is decomposed and extracted or inferred from detected data is evaluated, and if the evaluation value is low, based on the context information, Weighted context information using an assertive expression is generated, while if the evaluation value is high, weighted context information using an ambiguous expression is generated based on the context information. will be presented. For this reason, the context information representing the user's behavior that is extracted or inferred from the detected data can be presented using either assertive and accurate expressions or ambiguous and interesting expressions, depending on the information value. This makes it possible to effectively provide the user with an opportunity to communicate while ensuring the reliability of the presented information.

すなわちこの発明の一態様によれば、ユーザ間のコミュニケーションを促進する上で有効なメッセージを生成する技術を提供することができる。 That is, according to one aspect of the present invention, it is possible to provide a technique for generating messages that are effective in promoting communication between users.

図1は、この発明の一実施形態に係るコミュニケーション支援装置として機能するサーバ装置を備えるシステムの全体構成図である。FIG. 1 is an overall configuration diagram of a system including a server device functioning as a communication support device according to an embodiment of the present invention. 図2は、図1に示したサーバ装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the server device shown in FIG. 1. 図3は、図1に示したサーバ装置のソフトウェア構成を示すブロック図である。FIG. 3 is a block diagram showing the software configuration of the server device shown in FIG. 1. 図4は、図2および図3に示したサーバ装置により実行されるコミュニケーション支援処理の全体の処理手順と処理内容の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the overall processing procedure and processing contents of the communication support processing executed by the server device shown in FIGS. 2 and 3. 図5は、図4に示した全体の処理手順のうちコンテキスト分類処理の処理手順と処理内容の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the processing procedure and processing contents of the context classification process among the entire processing procedure shown in FIG. 4. 図6は、図4に示した処理手順のうちコンテキスト分解処理の処理手順と処理内容の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the processing procedure and processing contents of the context decomposition processing among the processing steps shown in FIG. 4. 図7は、図4に示した処理手順のうちコンテキスト類推処理の処理手順と処理内容の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the processing procedure and processing contents of the context analogy processing among the processing steps shown in FIG. 4. 図8は、図4に示した処理手順のうち重み付きコンテキスト生成処理の処理手順と処理内容の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the processing procedure and processing contents of the weighted context generation process among the processing procedures shown in FIG. 4. 図9は、コンテキストとその情報価値の高さとの関係の一例を示す図である。FIG. 9 is a diagram illustrating an example of the relationship between a context and its information value. 図10は、断定的な表現で表された重み付きコンテキストの一例を示す図である。FIG. 10 is a diagram illustrating an example of a weighted context expressed in an assertive expression. 図11は、曖昧な表現で表された重み付きコンテキストの一例を示す図である。FIG. 11 is a diagram illustrating an example of a weighted context expressed in an ambiguous expression.

以下、図面を参照してこの発明に係わる実施形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.

[一実施形態]
(構成例)
(1)システム
図1は、この発明の一実施形態に係るコミュニケーション支援装置として機能するサーバ装置を備えるシステムの全体構成図である。
[One embodiment]
(Configuration example)
(1) System FIG. 1 is an overall configuration diagram of a system including a server device functioning as a communication support device according to an embodiment of the present invention.

図1において、UT1,UT2はそれぞれユーザUS1,US2が所持するユーザ端末を示している。ユーザ端末UT1,UT2は、いずれも例えばスマートフォンまたはタブレット型端末等の携帯情報端末からなる。ユーザ端末UT1,UT2には、コミュニケーションツールがインストールされており、ユーザUS1,US2は上記コミュニケーションツールを用いることで、ネットワークNWを介して相互間で例えばチャットによるコミュニケーションを行えるようになっている。なお、ユーザ端末UT1,UT2としては、他にノート型のパーソナルコンピュータやウェアラブル型端末を使用することが可能である。 In FIG. 1, UT1 and UT2 indicate user terminals owned by users US1 and US2, respectively. Each of the user terminals UT1 and UT2 is a mobile information terminal such as a smartphone or a tablet terminal. A communication tool is installed in the user terminals UT1 and UT2, and by using the communication tool, the users US1 and US2 can communicate with each other via the network NW, for example, by chatting. Note that it is also possible to use notebook personal computers or wearable terminals as the user terminals UT1 and UT2.

ところで、ユーザUS1の住居内には、ユーザUS1の行動を検出するための複数のセンサデバイスが設置されている。この例では、調理器具STおよび照明器具LGにそれぞれその動作状態を検出するセンサSS1,SS2が設置され、また天井にカメラCMが設置されている。また住居内には、送受信装置TRが設けられている。送受信装置TRは、例えば無線ルータからなり、上記各センサSS1,SS2およびカメラCMから出力される検出データを、ネットワークNWを介してサーバ装置SVへ転送する。 By the way, a plurality of sensor devices for detecting the behavior of the user US1 are installed in the residence of the user US1. In this example, sensors SS1 and SS2 are installed on the cooking appliance ST and the lighting appliance LG to detect their operating states, respectively, and a camera CM is installed on the ceiling. Furthermore, a transmitting/receiving device TR is provided in the residence. The transmitting/receiving device TR is composed of, for example, a wireless router, and transfers detection data output from the sensors SS1, SS2 and the camera CM to the server device SV via the network NW.

なお、センサSS1としては、例えば、調理器具STのつまみや図示しないナイフ、フライパン等のハンドル部分に取着されてその動きを検出する加速度センサ、調理器具STの温度を検出する温度センサ、音を検出するマイクロフォンが用いられ、またセンサSS2には照度センサが用いられる。 The sensor SS1 may be, for example, an acceleration sensor that is attached to a knob of the cooking utensil ST, a knife (not shown), a handle of a frying pan, etc. to detect its movement, a temperature sensor that detects the temperature of the cooking utensil ST, or a sensor that detects the temperature of the cooking utensil ST. A detection microphone is used, and an illuminance sensor is used as the sensor SS2.

(2)サーバ装置SV
図2および図3は、それぞれサーバ装置SVのハードウェア構成およびソフトウェア構成の一例を示すブロック図である。
(2) Server device SV
2 and 3 are block diagrams showing an example of the hardware configuration and software configuration of the server device SV, respectively.

サーバ装置SVは、例えばサーバコンピュータまたはクラウドコンピュータからなり、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する制御部1を備える。制御部1には、バス5を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、通信インタフェース(通信I/F)4が接続されている。 The server device SV is composed of, for example, a server computer or a cloud computer, and includes a control unit 1 having a hardware processor such as a central processing unit (CPU). A storage unit having a program storage section 2 and a data storage section 3 and a communication interface (communication I/F) 4 are connected to the control section 1 via a bus 5 .

通信I/F4は、制御部1の制御の下、ネットワークNWにより定義される通信プロトコルを用いて、上記ユーザ端末UT1,UT2との間で各種情報の送受信を行う。 The communication I/F 4 sends and receives various information to and from the user terminals UT1 and UT2 under the control of the control unit 1 using a communication protocol defined by the network NW.

プログラム記憶部2は、記憶媒体として例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成されたもので、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る各種制御処理を実行するために必要なプログラムを格納する。 The program storage unit 2 uses a nonvolatile memory such as a hard disk drive (HDD) or a solid state drive (SSD) that can be written to and read out at any time, and a nonvolatile memory such as a read only memory (ROM) as a storage medium. In addition to middleware such as an OS (Operating System), the computer stores programs necessary for executing various control processes according to an embodiment of the present invention.

データ記憶部3は、記憶媒体として例えば、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、その記憶領域には検出データ記憶部31と、第1のコンテキスト記憶部32と、第2のコンテキスト記憶部33と、重み付きコンテキスト記憶部34が設けられている。 The data storage unit 3 is a combination of a nonvolatile memory such as an HDD or SSD that can be written to and read from at any time as a storage medium, and a volatile memory such as a RAM (Random Access Memory). A detected data storage section 31, a first context storage section 32, a second context storage section 33, and a weighted context storage section 34 are provided.

検出データ記憶部31は、センサSS1,SS2およびカメラCMから送信された検出データを時系列で記憶するために使用される。検出データには、例えば、ユーザUS1の識別情報(ユーザID)、送信元のセンサの識別情報(センサID)および検出時刻が付与される。 The detection data storage unit 31 is used to store detection data transmitted from the sensors SS1, SS2 and the camera CM in time series. The detection data is given, for example, the identification information (user ID) of the user US1, the identification information (sensor ID) of the transmitting sensor, and the detection time.

第1のコンテキスト記憶部32は、後述する制御部1により、分類後の検出データから分解抽出された第1のコンテキスト情報を記憶するために使用される。この第1のコンテキスト情報には、ユーザIDが付与される。 The first context storage unit 32 is used by the control unit 1, which will be described later, to store first context information extracted and decomposed from the detected data after classification. A user ID is given to this first context information.

第2のコンテキスト記憶部33は、後述する制御部1により、分類後の検出データに含まれるコンテキストから類推された第2のコンテキスト情報を記憶するために使用される。この第2のコンテキスト情報にも、ユーザIDが付与される。 The second context storage unit 33 is used by the control unit 1, which will be described later, to store second context information inferred from the context included in the detected data after classification. This second context information is also given a user ID.

重み付きコンテキスト記憶部34は、後述する制御部1により生成された重み付きコンテキスト情報を、ユーザIDと対応付けた状態で記憶するために使用される。 The weighted context storage unit 34 is used to store weighted context information generated by the control unit 1, which will be described later, in association with a user ID.

制御部1は、上記チャット等によるコミュニケーションを行うユーザUS1,US2に対するコミュニケーション支援を行う、例えばチャットボットまたはエージェントの機能を有する。そして、この機能を実現するための処理部として、検出データ取得処理部11と、コンテキスト分類処理部12と、コンテキスト分解処理部13と、コンテキスト類推処理部14と、重み付きコンテキスト生成処理部15と、メッセージ配信処理部16とを備えている。これらの処理部11~16は、何れも例えばプログラム記憶部2に格納されたプログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。 The control unit 1 has a function of, for example, a chatbot or an agent, which provides communication support to the users US1 and US2 who communicate by chatting or the like. Processing units for realizing this function include a detection data acquisition processing unit 11, a context classification processing unit 12, a context decomposition processing unit 13, a context analogy processing unit 14, and a weighted context generation processing unit 15. , and a message distribution processing section 16. Each of these processing units 11 to 16 is realized, for example, by causing a hardware processor of the control unit 1 to execute a program stored in the program storage unit 2.

検出データ取得処理部11は、例えばユーザUS1が調理を開始した場合に、ユーザUS1の住居の送受信装置TRから送信される各センサSS1,SS2およびカメラCMの検出データを、通信I/F4を介して受信して検出データ記憶部31に時系列で記憶させる処理を行う。 For example, when the user US1 starts cooking, the detected data acquisition processing unit 11 receives the detected data of the sensors SS1, SS2 and the camera CM transmitted from the transmitter/receiver TR in the residence of the user US1 via the communication I/F4. A process is performed to receive the detected data and store it in the detected data storage unit 31 in chronological order.

コンテキスト分類処理部12は、上記検出データ記憶部31から検出データを一定時間分ずつ読み込み、当該検出データを、これに含まれるユーザUS1の行動に係るコンテキスト情報の情報価値に応じて、情報価値の高い第1の検出データと、情報価値の低い第2の検出データとに分類する処理を行う。 The context classification processing unit 12 reads the detected data for a certain period of time from the detected data storage unit 31, and divides the detected data into information values according to the information value of the context information related to the behavior of the user US1 included in the detected data. A process of classifying the first detection data into high-value first detection data and the second detection data with low information value is performed.

ここで、コンテキストの情報価値とは、検出データを人が閲覧したときに、当該閲覧者が監視対象のユーザの行動や意図を類推可能な度合いを示すもので、情報価値が高ければ高いほど、閲覧者がユーザの行動に係る多くの情報を把握することができる。この実施形態では、コンテキスト分類処理部12は、コンテキストの情報価値をセンサの種別により判定し、検出データを価値の高い第1の検出データと低い第2の検出データに分類する。その処理の一例は動作例において述べる。 Here, the information value of the context indicates the degree to which the viewer can infer the actions and intentions of the monitored user when a person views the detected data, and the higher the information value, the more The viewer can grasp a lot of information related to the user's behavior. In this embodiment, the context classification processing unit 12 determines the information value of the context based on the type of sensor, and classifies the detected data into first detected data with high value and second detected data with low value. An example of the processing will be described in the operation example.

コンテキスト分解処理部13は、上記コンテキスト分類処理部12により分類された価値の高い第1の検出データを取り込み、当該第1の検出データから情報価値の低い複数のローコンテキスト情報を分解抽出する処理を行う。またコンテキスト分解処理部13は、抽出された上記複数のローコンテキスト情報を組み合わせることで類推される、より情報価値の高いハイコンテキスト情報を生成する処理も行う。そしてコンテキスト分解処理部13は、上記分解抽出および類推された複数のローコンテキスト情報およびハイコンテキスト情報を、ユーザIDを付与した状態で第1のコンテキスト情報として第1のコンテキスト記憶部32に記憶させる。なお、上記コンテキスト分解抽出処理の一例は、動作例において述べる。 The context decomposition processing unit 13 takes in the high-value first detection data classified by the context classification processing unit 12, and performs a process of decomposing and extracting a plurality of pieces of low context information with low information value from the first detection data. conduct. The context decomposition processing unit 13 also performs a process of generating high context information with higher information value, which is inferred by combining the plurality of extracted low context information. Then, the context decomposition processing unit 13 stores the plurality of low context information and high context information that have been decomposed and extracted and inferred as the first context information in the first context storage unit 32 with the user ID assigned thereto. Note that an example of the above-mentioned context decomposition and extraction processing will be described in an operation example.

コンテキスト類推処理部14は、上記コンテキスト分類処理部12により分類された価値の低い第2の検出データを取り込み、当該第2の検出データに含まれるローコンテキスト情報をもとに、より情報価値の高いハイコンテキスト情報を類推する処理を行う。そして、コンテキスト類推処理部14は、類推された上記ハイコンテキスト情報を、ユーザIDを付与した状態で、第2のコンテキスト情報として第2のコンテキスト記憶部33に記憶させる。なお、上記ハイコンテキスト情報の類推処理の一例は、動作例において述べる。 The context analogy processing unit 14 takes in the second detection data of low value classified by the context classification processing unit 12, and based on the low context information included in the second detection data, the context analogy processing unit 14 extracts the second detection data of higher information value based on the low context information included in the second detection data. Performs processing to infer high context information. Then, the context analogy processing unit 14 stores the inferred high context information in the second context storage unit 33 as second context information, with the user ID attached thereto. Note that an example of the analogy processing of the high context information will be described in the operation example.

重み付きコンテキスト生成処理部15は、上記第1のコンテキスト記憶部32または第2のコンテキスト記憶部33に新たなコンテキスト情報が記憶される毎に、この新たなコンテキスト情報を読み込む。そして、読み込まれた上記コンテキスト情報の情報価値を評価する。このとき、第1のコンテキスト記憶部32および第2のコンテキスト記憶部33の両方から新たなコンテキスト情報が読み込まれ、これらのコンテキストの内容がユーザUS1の同一行動に係るものだった場合には、それぞれのコンテキスト情報の情報価値を評価し、評価値が低い側のコンテキスト情報を選択する処理を行う。 The weighted context generation processing section 15 reads new context information every time new context information is stored in the first context storage section 32 or the second context storage section 33. Then, the information value of the read context information is evaluated. At this time, new context information is read from both the first context storage unit 32 and the second context storage unit 33, and if the contents of these contexts are related to the same action of the user US1, The information value of the context information is evaluated, and the context information with the lower evaluation value is selected.

重み付きコンテキスト生成処理部15は、上記情報価値の評価結果に基づいて、評価値が低いコンテキスト情報については断定的な表現により重み付けした第1の重み付きコンテキスト情報を生成し、一方評価値が高いコンテキストについては曖昧な表現により重み付けした第2の重み付きコンテキスト情報を生成する。そして、生成された各重み付きコンテキスト情報を、ユーザIDを付与した状態で重み付きコンテキスト記憶部34に記憶させる処理を行う。 Based on the information value evaluation results, the weighted context generation processing unit 15 generates first weighted context information in which context information with a low evaluation value is weighted using an assertive expression, while first weighted context information with a high evaluation value is weighted with an assertive expression. Regarding the context, second weighted context information weighted using ambiguous expressions is generated. Then, a process is performed in which each piece of generated weighted context information is stored in the weighted context storage unit 34 with a user ID assigned thereto.

メッセージ配信処理部16は、重み付きコンテキスト記憶部34に新たな重み付きコンテキスト情報が記憶されると、当該新たな重み付きコンテキスト情報を読み出す。そして、ユーザIDをもとに、対応するユーザUS1が使用するユーザ端末UT1とそのコミュニケーション相手となるユーザ端末UT2との間のコミュニケーションツール上に、上記重み付きコンテキスト情報を掲載する処理を行う。 When new weighted context information is stored in the weighted context storage unit 34, the message delivery processing unit 16 reads out the new weighted context information. Then, based on the user ID, processing is performed to post the weighted context information on a communication tool between the user terminal UT1 used by the corresponding user US1 and the user terminal UT2 with which the corresponding user US1 communicates.

(動作例)
次に、以上のように構成されたサーバ装置SVにおいて行われる、コミュニケーション支援に係る一連の動作を説明する。
(Operation example)
Next, a series of operations related to communication support performed in the server device SV configured as above will be described.

なお、ここでは、例えば一人暮らしをしている大学生と母親とがチャットによりコミュニケーションをする場合に、サーバ装置SVがそのチャットボットまたはエージェント機能により、上記大学生と母親との間のコミュニケーションを支援する処理を実行する場合を例にとって説明する。 Here, for example, when a university student living alone and his mother communicate through chat, the server device SV uses its chatbot or agent function to carry out processing to support communication between the university student and his mother. An example of execution will be explained below.

図4は、サーバ装置SVの制御部1が実行するコミュニケーション支援処理の全体の処理手順と処理内容を示すフローチャートである。 FIG. 4 is a flowchart showing the overall processing procedure and processing contents of the communication support processing executed by the control unit 1 of the server device SV.

(1)検出データの取得
ユーザUS1が調理を行うためにキッチンの照明器具LGを点灯させると、この照明器具LGの点灯が例えば照度センサからなるセンサSS2により検出され、その検出データが送受信装置TRによりサーバ装置SVへ転送される。
(1) Acquisition of detection data When the user US1 turns on the lighting fixture LG in the kitchen to cook, the lighting of the lighting fixture LG is detected by the sensor SS2, which is, for example, an illuminance sensor, and the detection data is transmitted to the transmitting/receiving device TR. is transferred to the server device SV.

サーバ装置SVの制御部1は、ステップS1により調理の開始を監視している。この状態で、上記照明器具LGの点灯を表す検出データを受信すると、ユーザUS1が調理を開始したものと判断して、検出データ取得処理部11の制御の下、ステップS2において、以下のように検出データの取得処理を実行する。 The control unit 1 of the server device SV monitors the start of cooking in step S1. In this state, when detection data representing lighting of the lighting fixture LG is received, it is determined that the user US1 has started cooking, and under the control of the detection data acquisition processing unit 11, in step S2, the following processing is performed. Executes detection data acquisition processing.

すなわち、ユーザUS1が、例えば調理器具STを点火し、つまみを操作して火力を設定すると、このつまみの操作が例えば加速度センサからなるセンサSS1により検出され、その検出データが送受信装置TRからサーバ装置SVへ送信される。また、ユーザUS1の調理の様子がカメラCMにより撮像され、その映像データが調理の様子を表す検出データとして送受信装置TRからサーバ装置SVへ送信される。なお、ユーザUS1が例えばナイフを持って材料を切ったり、フライパンを振った場合にも、その動作や音が加速度センサまたはマイクロフォン等により検出され、その検出データが送受信装置TRからサーバ装置SVへ送信される。 That is, when the user US1 ignites, for example, the cooking utensil ST and operates a knob to set the firepower, the operation of this knob is detected by the sensor SS1, which is composed of, for example, an acceleration sensor, and the detected data is transmitted from the transmitting/receiving device TR to the server device. Sent to SV. Further, the cooking state of the user US1 is imaged by the camera CM, and the video data is transmitted from the transmitting/receiving device TR to the server device SV as detection data representing the cooking state. Note that even when the user US1 cuts a material with a knife or shakes a frying pan, the movement or sound is detected by an acceleration sensor or a microphone, and the detected data is sent from the transmitting/receiving device TR to the server device SV. be done.

これに対しサーバ装置SVの検出データ取得処理部11は、ステップS2において、上記ユーザUS1宅の送受信装置TRから送信された各検出データを通信I/F4を介して受信し、受信された各検出データを検出データ記憶部31に記憶させる。なお、このとき上記各検出データには、それぞれユーザID、センサIDおよび検出時刻が付与される。以後、検出データ取得処理部11は、ステップS7により調理の終了が検出されるまで、検出データの取得処理を継続する。 On the other hand, in step S2, the detection data acquisition processing unit 11 of the server device SV receives each detection data transmitted from the transmitting/receiving device TR in the home of the user US1 via the communication I/F 4, and receives each of the received detection data. The data is stored in the detected data storage section 31. Note that at this time, each of the above detection data is given a user ID, a sensor ID, and a detection time, respectively. Thereafter, the detection data acquisition processing unit 11 continues the detection data acquisition process until the end of cooking is detected in step S7.

なお、サービス対象のユーザが他にも存在する場合には、これらの他のユーザについても、同様に検出データ取得処理が実行される。 Note that if there are other service target users, the detection data acquisition process is similarly executed for these other users as well.

(2)コンテキスト分類処理
上記検出データ記憶部31に新たな検出データが記憶されると、サーバ装置SVの制御部1は、コンテキスト分類処理部12の制御の下、ステップS3において以下のようにコンテキスト分類処理を実行する。
(2) Context classification process When new detection data is stored in the detection data storage unit 31, the control unit 1 of the server device SV, under the control of the context classification processing unit 12, performs context classification as follows in step S3. Perform classification processing.

図5は、上記コンテキスト分類処理部12による、コンテキスト分類処理の処理手順と処理内容の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the processing procedure and processing contents of the context classification process by the context classification processing section 12.

すなわち、コンテキスト分類処理部12は、上記検出データ記憶部31に一定時間(例えば2分間)分の検出データが記憶されると、ステップS31において上記一定時間分の検出データを検出データ記憶部31から読み込む。次に、コンテキスト分類処理部12は、ステップS32により、読み込まれた上記検出データに付与されるセンサIDからセンサ種別を判定し、ステップS33において、上記センサ種別の判定結果に従い上記検出データを分類する。 That is, when the detection data for a certain period of time (for example, 2 minutes) is stored in the detection data storage section 31, the context classification processing section 12 stores the detection data for the certain period of time from the detection data storage section 31 in step S31. Load. Next, in step S32, the context classification processing unit 12 determines the sensor type from the sensor ID assigned to the read detection data, and in step S33, classifies the detection data according to the determination result of the sensor type. .

例えば、調理器具STの動作を表す検出データは、加速度センサにより得られたつまみの操作のみを表すデータであることから、上記調理器具STの動作を表す検出データは「コンテキスト価値の低い検出データ」に分類される。これに対し、カメラCMから出力された映像データはキッチンにおけるユーザUS1の調理の様子を撮像した、複数の情報を含む検出データであることから、上記カメラCMの映像データは「コンテキスト価値の高い検出データ」に分類される。 For example, since the detection data representing the operation of the cooking utensil ST is data representing only the operation of the knob obtained by the acceleration sensor, the detection data representing the operation of the cooking utensil ST is "detection data with low context value." are categorized. On the other hand, the video data output from the camera commercial is detection data that captures the cooking state of user US1 in the kitchen and includes multiple pieces of information. data.

なお、「コンテキスト価値の低い検出データ」には、他に例えば照度センサや温度センサ、振動センサの検出データが分類され、また「コンテキスト価値の高い検出データ」には、様々な器具の音やユーザUS1の声が含まれる音声データや、Webサイトから取得されるレシピの検索データ等が分類される。 Note that "detection data with low context value" also includes detection data from illuminance sensors, temperature sensors, and vibration sensors, and "detection data with high context value" includes sounds from various appliances and user information. Audio data including US1's voice, recipe search data obtained from websites, etc. are classified.

続いてコンテキスト分類処理部12は、ステップS34において上記分類された検出データのコンテキスト価値を判定し、その判定結果に従い、コンテキスト価値が高い検出データをコンテキスト分解処理部13に送り、コンテキスト価値が低い検出データをコンテキスト類推処理部14に送る。 Next, the context classification processing unit 12 determines the context value of the classified detection data in step S34, and according to the determination result, sends the detection data with high context value to the context decomposition processing unit 13, and sends the detection data with low context value to the context decomposition processing unit 13. The data is sent to the context analogy processing section 14.

(3)コンテキスト分解処理
上記コンテキスト価値が高い検出データが送られると、コンテキスト分解処理部13は、ステップS4において以下のようにコンテキスト分解処理を実行する。
(3) Context decomposition process When the detection data with high context value is sent, the context decomposition processing unit 13 executes the context decomposition process as follows in step S4.

図6は、上記コンテキスト分解処理部13による、コンテキスト分解処理の処理手順と処理内容の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of the processing procedure and processing contents of the context decomposition process by the context decomposition processing unit 13.

すなわち、コンテキスト分解処理部13は、先ずステップS41により処理対象の上記検出データを取り込むと、この検出データから情報価値の低い複数のローコンテキストを分解抽出する。例えば、検出データが調理の様子を表す映像データであれば、例えば「調理器具STが使われている」、「ナイフが使われている」、「まな板の上に食材が乗っている」、「ユーザの手に食材が把持されている」、「フライパンが振られている」等、それぞれ情報価値の低いオブジェクトがローコンテキスト情報として分解抽出される。 That is, the context decomposition processing unit 13 first takes in the detection data to be processed in step S41, and then decomposes and extracts a plurality of low contexts with low information value from this detection data. For example, if the detected data is video data showing the state of cooking, for example, "cooking utensil ST is being used," "a knife is being used," "food is on the cutting board," " Objects with low information value, such as "Food is being held in the user's hand" and "A frying pan is being shaken," are extracted and decomposed as low context information.

なお、上記オブジェクトの分解抽出処理は、例えば、調理に関係する各器具の基本画像パターンを予め記憶しておき、取得された映像データと上記基本画像パターンとをパターンマッチング処理することで実施可能である。 Note that the object decomposition and extraction process can be carried out by, for example, storing basic image patterns of each cooking-related appliance in advance, and performing pattern matching processing on the acquired video data and the basic image pattern. be.

コンテキスト分解処理部13は、続いてステップS43により、上記分解抽出された複数のローコンテキスト情報の各々により単独で、もしくは組合せにより、さらに情報価値の高いハイコンテキスト情報を類推可能か否かを判定する。そして、類推が可能な場合には、ステップS44においてハイコンテキスト情報を類推し、類推されたハイコンテキスト情報をユーザIDと対応付けて第1のコンテキスト記憶部32に記憶させる。 Continuously, in step S43, the context decomposition processing unit 13 determines whether high context information with higher information value can be inferred from each of the plurality of decomposed and extracted low context information alone or in combination. . If the analogy is possible, the high context information is inferred in step S44, and the inferred high context information is stored in the first context storage unit 32 in association with the user ID.

例えば、この例では、「ナイフが使われている」と「まな板の上に食材が乗っている」との組合せから、「まな板の上で食材を切っている」というハイコンテキスト情報が類推され、また「ナイフが使われている」と「ユーザの手に食材が把持されている」との組合せから、「食材の皮むきが行われている」というハイコンテキスト情報が類推される。ハイコンテキスト情報の類推処理の一例は、後続のコンテキスト類推処理においても説明する。 For example, in this example, from the combination of "A knife is being used" and "Food is on a cutting board," the high context information "Food is being cut on a cutting board" is inferred. Further, from the combination of "a knife is being used" and "food is being held in the user's hand", high context information such as "food is being peeled" can be inferred. An example of analogy processing for high context information will also be explained in the subsequent context analogy processing.

なお、ハイコンテキスト情報を類推できない場合には、上記複数のローコンテキスト情報がそのまま、或いは選択されて第1のコンテキスト記憶部32に記憶されてもよい。 Note that if the high context information cannot be inferred, the plural pieces of low context information may be stored in the first context storage unit 32 as they are or may be selected.

以上述べたステップS41~S44によるコンテキスト分解抽出処理は、ステップS45において、処理対象となるすべての検出データに対する処理が終了したと判定されるまで繰り返し実行される。 The context decomposition and extraction processing in steps S41 to S44 described above is repeatedly executed until it is determined in step S45 that processing for all detection data to be processed has been completed.

(4)コンテキスト類推処理
一方、上記コンテキスト価値が低い検出データが送られると、コンテキスト類推処理部14は、ステップS5において以下のようにコンテキスト類推処理を実行する。
(4) Context analogy processing On the other hand, when the detection data with low context value is sent, the context analogy processing unit 14 executes context analogy processing as follows in step S5.

図7は、上記コンテキスト類推処理部14による、コンテキスト類推処理の処理手順と処理内容の一例を示すフローチャートである。 FIG. 7 is a flowchart showing an example of the processing procedure and processing contents of the context analogy processing by the context analogy processing section 14.

すなわち、コンテキスト類推処理部14は、先ずステップS51により処理対象の上記検出データを取り込むと、ステップS52において、上記検出データから情報価値の低いローコンテキスト情報を抽出する。この処理により、例えば検出データが調理器具STのつまみの操作を表す加速度データの場合には、「調理器具STのつまみの操作量(操作角度)」を表す情報が、ローコンテキスト情報として抽出される。 That is, the context analogy processing unit 14 first takes in the detection data to be processed in step S51, and then extracts low context information with low information value from the detection data in step S52. Through this process, for example, when the detected data is acceleration data representing the operation of the knob of the cooking utensil ST, information representing "the amount of operation (operation angle) of the knob of the cooking utensil ST" is extracted as low context information. .

次にコンテキスト類推処理部14は、ステップS53において、抽出された上記ローコンテキスト情報をもとに、より情報価値の高いハイコンテキスト情報を類推する。そして、さらに情報価値の高いハイコンテキスト情報の類推が可能な場合には、ステップS54からステップS53に戻って、ハイコンテキスト情報の類推処理を繰り返し実行する。 Next, in step S53, the context analogy processing unit 14 infers high context information having higher information value based on the extracted low context information. If it is possible to infer the high context information with even higher information value, the process returns from step S54 to step S53, and the analogy process for the high context information is repeatedly executed.

例えば、ローコンテキスト情報として、上記「調理器具STのつまみの操作量(操作角度)」を表す情報が抽出された場合には、当該情報に含まれる「調理器具STのつまみの操作」から先ず「調理器具(コンロ)STが使用されている」が類推され、続いて「つまみの操作角度」から「火力の強さ」が類推される。さらに、「火力の強さの遷移状態」から「使用用途(例えば茹でる、炒める、蒸す)」が類推される。 For example, when the information representing the above-mentioned "amount of operation (operation angle) of the knob of cooking utensil ST" is extracted as the low context information, first from "operation of the knob of cooking utensil ST" included in the information, " "A cooking utensil (stove) ST is being used" is inferred, and then "strength of heat" is inferred from "knob operating angle". Furthermore, the "purpose of use (for example, boiling, stir-frying, steaming)" can be inferred from the "transition state of heat intensity."

以上の類推処理は、例えば、茹でる、炒める、蒸す等の調理の種類に対応付けて、火加減の遷移情報を予め記憶しておき、上記コンテキスト情報を上記火加減の遷移情報とパターンマッチングにより対照し、その類似度合いをもとに最も類似度が高い遷移パターンを特定することにより実現される。 The analogy process described above is performed by storing transition information on heat level in advance in association with the type of cooking such as boiling, frying, steaming, etc., and comparing the context information with the transition information on heat level by pattern matching. This is achieved by identifying the transition pattern with the highest degree of similarity based on the degree of similarity.

コンテキスト類推処理部14は、次にステップS55において、上記繰り返し類推処理により最終的に得られたハイコンテキスト情報を、第2のコンテキスト記憶部33にユーザIDと対応付けた状態で記憶させる。またコンテキスト類推処理部14は、ステップS56において、上記繰り返し類推処理が行われた場合の繰り返し数(類推ステップ数)を、上記ハイコンテキスト情報と対応付けて、第2のコンテキスト記憶部33に記憶させる。上記類推ステップ数は、コンテキスト情報の情報価値の評価指標として使用される。 Next, in step S55, the context analogy processing unit 14 stores the high context information finally obtained through the iterative analogy process in the second context storage unit 33 in association with the user ID. Further, in step S56, the context analogy processing unit 14 causes the second context storage unit 33 to store the number of repetitions (the number of analogy steps) when the repeated analogy processing is performed in association with the high context information. . The number of analogy steps is used as an evaluation index of the information value of the context information.

以上述べたステップS51~S56によるコンテキスト類推処理は、ステップS57において、処理対象となるすべての検出データに対する処理が終了したと判定されるまで繰り返し実行される。 The context analogy processing in steps S51 to S56 described above is repeatedly executed until it is determined in step S57 that processing for all detection data to be processed has been completed.

図9は、以上述べた類推処理により生成されるコンテキスト情報とその価値の高さとの関係の一例を示すものである。同図に示すように、「調理器具(コンロ)が使用されている」、「フライパンが使用されている」はセンサの検出データが示す状態そのものに近く、価値が低いローコンテキスト情報である。これらのローコンテキスト情報は、言い換えると曖昧度合いの低い明確な状態を表すコンテキスト情報であり、断定的な表現で提示することが望ましい。 FIG. 9 shows an example of the relationship between the context information generated by the analogy process described above and its value. As shown in the figure, "a cooking utensil (stove) is being used" and "a frying pan is being used" are close to the states indicated by the sensor detection data and are low-context information with low value. In other words, this low context information is context information that represents a clear state with a low degree of ambiguity, and is preferably presented in a definitive manner.

一方、上記ローコンテキスト情報から類推される「コンロが強火で維持されている」、「フライパンが揺すられている」は、より価値の高いコンテキスト情報であり、さらにこれらのコンテキスト情報から類推される「炒め物をしている」および「野菜炒めをつくっている」はより一層価値の高いハイコンテキスト情報となる。これらのハイコンテキスト情報は、類推処理を繰り返すことで生成される情報であるため曖昧度合いが高い情報であり、曖昧表現で提示することの望ましい。 On the other hand, "the stove is kept on high heat" and "the frying pan is being shaken", which are inferred from the above low context information, are more valuable context information, and furthermore, "the stove is kept on high heat" and "the frying pan is shaken" are more valuable context information. "I'm making a stir-fry" and "I'm making a stir-fry with vegetables" are even more valuable high-context information. Since this high context information is generated by repeating analogical reasoning processing, it has a high degree of ambiguity, and it is desirable to present it in an ambiguous expression.

この実施形態のサーバ装置SVは、以上のような観点に着目して、ユーザにメッセージとして提示すべき重み付きコンテキスト情報を生成する。 The server device SV of this embodiment generates weighted context information to be presented as a message to the user, paying attention to the above points.

(5)重み付きコンテキスト情報の生成
上記第1または第2のコンテキスト記憶部32,33に新たなコンテキスト情報が記憶されると、サーバ装置SVの制御部1は、重み付きコンテキスト生成処理部15の制御の下、ステップS6において、以下のように重み付きコンテキスト情報の生成処理を実行する。
(5) Generation of weighted context information When new context information is stored in the first or second context storage section 32, 33, the control section 1 of the server device SV controls the weighted context generation processing section 15. Under the control, in step S6, weighted context information generation processing is executed as follows.

図8は、上記重み付きコンテキスト生成処理部15による、重み付きコンテキスト生成処理の処理手順と処理内容を示すフローチャートである。 FIG. 8 is a flowchart showing the processing procedure and processing contents of the weighted context generation process by the weighted context generation processing section 15.

すなわち、重み付きコンテキスト生成処理部15は、先ずステップ61において、上記第1および第2のコンテキスト記憶部32,33から、新たに記憶されたコンテキスト情報を読み込む。そして、ステップS62により、読み込まれた情報が第1のコンテキスト情報および第2のコンテキスト情報の一方か、或いは両方かを判定する。そして、第1のコンテキスト情報および第2のコンテキスト情報の一方が読み込まれた場合には、後述するステップS66に移行する。 That is, the weighted context generation processing unit 15 first reads newly stored context information from the first and second context storage units 32 and 33 in step 61. Then, in step S62, it is determined whether the read information is one or both of the first context information and the second context information. If either the first context information or the second context information has been read, the process moves to step S66, which will be described later.

一方、上記判定の結果、第1および第2のコンテキスト情報が両方とも読み込まれた場合には、重み付きコンテキスト生成処理部15は、ステップS63において、第1および第2のコンテキスト情報を比較する。そして、この比較結果をもとに、第1のコンテキスト情報と第2のコンテキスト情報とがユーザUS1の同一行動に関するものであるか否かを、ステップS64で判定する。例えば、第1および第2のコンテキスト情報が共に調理器具STの動作に関するものであれば、このときの第1および第2のコンテキスト情報は、ユーザUS1の同一行動に関するものと判定する。 On the other hand, if the result of the above determination is that both the first and second context information have been read, the weighted context generation processing unit 15 compares the first and second context information in step S63. Based on this comparison result, it is determined in step S64 whether the first context information and the second context information relate to the same behavior of the user US1. For example, if the first and second context information both relate to the operation of the cooking utensil ST, it is determined that the first and second context information at this time relate to the same action of the user US1.

続いて重み付きコンテキスト生成処理部15は、ステップS65において、第1のコンテキスト情報および第2のコンテキスト情報の各情報価値をもとに、情報価値が低い方を選択する。ここで、コンテキスト分解処理部13およびコンテキスト類推処理部14がそれぞれ上記第1および第2のコンテキスト情報を類推する際に実行した類推処理の繰り返し数(類推ステップ数)は、コンテキスト情報の情報価値の評価指標として用いることが可能である。従って、重み付きコンテキスト生成処理部15は、第1および第2のコンテキスト情報を類推したときの類推ステップ数を比較し、類推ステップ数が少ない方のコンテキスト情報を選択する。 Subsequently, in step S65, the weighted context generation processing unit 15 selects the one with the lower information value based on the information values of the first context information and the second context information. Here, the number of repetitions (the number of analogy steps) of analogy processing executed by the context decomposition processing unit 13 and the context analogy processing unit 14 when inferring the first and second context information, respectively, is the number of repetitions (number of analogy steps) of the information value of the context information. It can be used as an evaluation index. Therefore, the weighted context generation processing unit 15 compares the number of analogy steps when inferring the first and second context information, and selects the context information with the smaller number of analogy steps.

次に重み付きコンテキスト生成処理部15は、ステップS66において、評価値として、例えば上記コンテキスト情報の類推ステップ数を用い、これをしきい値と比較する。そして、この比較の結果、評価値がしきい値未満であればステップS67に移行し、上記コンテキスト情報を断定的な表現により重み付けしたコンテキスト情報を生成する。これに対し、評価値がしきい値以上であればステップS68に移行し、上記コンテキスト情報を曖昧表現により重み付けしたコンテキスト情報を生成する。 Next, in step S66, the weighted context generation processing unit 15 uses, for example, the number of analogy steps of the context information as the evaluation value, and compares this with a threshold value. As a result of this comparison, if the evaluation value is less than the threshold value, the process moves to step S67, and context information is generated by weighting the above-mentioned context information using an assertive expression. On the other hand, if the evaluation value is equal to or greater than the threshold value, the process moves to step S68, and context information is generated by weighting the above-mentioned context information using an ambiguous expression.

ここで、上記断定的な表現としては、例えば「~だ」が用いられ、この文字と同趣旨の断定文字がコンテキスト情報の語尾に付加される。一方、曖昧表現としては、例えば「~だろう」、「~のような気がする」、「~みたいだね」が用いられ、これらの文字列がコンテキスト情報の語尾に付加される。 Here, as the above-mentioned assertive expression, for example, "-da" is used, and a assertive character with the same meaning as this character is added to the end of the context information. On the other hand, as ambiguous expressions, for example, "I think...", "I feel like...", and "It seems like..." are used, and these character strings are added to the end of the context information.

なお、上記コンテキスト情報の情報価値の評価指標としては、例えばコンテキスト価値分布を定義し、このコンテンツ価値分布に従いコンテキスト情報に評価値を与え、この評価値をしきい値と比較するようにしてもよい。例えば、コンテキスト価値分布を0~1で表してこの範囲でコンテキスト情報に評価値を付与し、この評価値をしきい値=0.5と比較する。そして、評価値が0.5に満たない場合に「断定的な表現」を選択して重み付けコンテキスト情報を生成し、一方評価値が0.5以上の場合には「曖昧表現」を選択して重み付きコンテキスト情報を生成する。 Note that as an evaluation index for the information value of the context information, for example, a context value distribution may be defined, an evaluation value is given to the context information according to this content value distribution, and this evaluation value is compared with a threshold value. . For example, the context value distribution is expressed as 0 to 1, an evaluation value is assigned to the context information within this range, and this evaluation value is compared with a threshold value of 0.5. Then, if the evaluation value is less than 0.5, "assertive expression" is selected to generate weighted context information, while if the evaluation value is 0.5 or more, "vague expression" is selected to generate weighted context information. generate.

最後に重み付きコンテキスト生成処理部15は、上記各重み付け処理により生成された重み付きコンテキスト情報を、ステップS69によりユーザIDと対応付けて重み付きコンテキスト記憶部34に記憶させる。 Finally, the weighted context generation processing unit 15 stores the weighted context information generated by each of the above weighting processes in the weighted context storage unit 34 in association with the user ID in step S69.

(6)メッセージの配信
サーバ装置SVの制御部1は、上記重み付きコンテキスト記憶部34に新たな重み付きコンテキスト情報が記憶されると、メッセージ配信処理部16の制御の下、ステップS7において、上記新たな重み付きコンテキスト情報を重み付きコンテキスト記憶部34から読み出す。そして、読み出された上記重み付きコンテキスト情報を、ユーザIDをもとに、対応するユーザUS1が使用するユーザ端末UT1とそのコミュニケーション相手となるユーザ端末UT2との間のコミュニケーションツール上に、掲載する。
(6) Message Distribution When the new weighted context information is stored in the weighted context storage unit 34, the control unit 1 of the server device SV, under the control of the message distribution processing unit 16, performs the above-mentioned New weighted context information is read from the weighted context storage unit 34. Then, based on the user ID, the read weighted context information is posted on a communication tool between the user terminal UT1 used by the corresponding user US1 and the user terminal UT2 with which the corresponding user US1 communicates. .

図10は、ローコンテキスト情報をもとに生成された重み付きコンテキスト情報のコミュニケーションツール上での提示例を示すものである。この例に示すようにローコンテキスト情報は「~よ」、「~いるね」等の「断定的な表現」を用いて提示される。 FIG. 10 shows an example of presentation of weighted context information generated based on low context information on a communication tool. As shown in this example, the low context information is presented using "assertive expressions" such as "-yo" and "there is...".

一方、図11はハイコンテキスト情報をもとに生成された重み付きコンテキスト情報のコミュニケーションツール上での提示例を示すものである。この例に示すようにハイコンテキスト情報は「~かな?」、「~ようだね」のような「曖昧な表現」を用いて提示される。 On the other hand, FIG. 11 shows an example of presentation of weighted context information generated based on high context information on a communication tool. As shown in this example, high context information is presented using "ambiguous expressions" such as "I wonder if..." and "It seems...".

(作用・効果)
以上述べたように一実施形態では、チャットボットやエージェント等と呼称されるコミュニケーション支援機能を備えるサーバ装置SVにおいて、センサから取得された検出データを、先ず当該検出データに含まれるユーザUS1の行動に係るコンテキスト情報の情報価値が高い検出データと、低い検出データとに分類する。次に、分類された上記価値の高い検出データから、上記ユーザUS1の行動に係る複数のローコンテキスト情報を分解抽出し、抽出された各ローコンテキスト情報から、より価値の高いコンテキスト情報を類推する。一方、上記価値の低い検出データからは、当該検出データに含まれるコンテキスト情報をもとに、より価値の高いコンテキスト情報を類推する。そして、類推された上記コンテキスト情報の情報価値を評価し、その評価値がしきい値より低いコンテキスト情報については断定的な表現を用い、評価値がしきい値以上のコンテキスト情報については曖昧表現を用いて、コミュニケーションツール上にユーザUS1,US2が閲覧可能な状態に提示するようにしている。
(action/effect)
As described above, in one embodiment, in the server device SV equipped with a communication support function called a chatbot, agent, etc., detection data acquired from a sensor is first applied to the behavior of the user US1 included in the detection data. The context information is classified into detected data with high information value and detected data with low information value. Next, a plurality of pieces of low context information related to the behavior of the user US1 are decomposed and extracted from the classified high value detection data, and more valuable context information is inferred from each extracted low context information. On the other hand, from the detection data of low value, context information of higher value is inferred based on the context information included in the detection data. Then, the information value of the inferred context information is evaluated, and definitive expressions are used for context information whose evaluation value is lower than the threshold value, and ambiguous expressions are used for context information whose evaluation value is higher than the threshold value. The information is displayed on the communication tool so that the users US1 and US2 can view it.

従って、一実施形態によれば、価値の高い検出データから分解抽出されたのち類推されたユーザの行動を表す第1のコンテキスト情報、または価値の低い検出データからそのまま類推された第2のコンテキスト情報の情報価値に応じて、断定的で正確な表現と、曖昧で興味を引きやすい表現とを使い分けて提示することが可能となり、これによりチャット等のコミュニケーションツールを用いるユーザUS1,US2に対し、提示情報の信頼性を担保しつつ、コミュニケーションのきっかけを効果的に与えることが可能となる。 Therefore, according to one embodiment, the first context information representing user behavior is decomposed and extracted from high-value detected data and then inferred, or the second context information is directly inferred from low-value detected data. Depending on the information value of the information, it is possible to use and present assertive and accurate expressions and ambiguous and interesting expressions. This makes it possible to effectively provide an opportunity for communication while ensuring the reliability of information.

また、第1のコンテキスト情報および第2のコンテキスト情報の両方が得られた場合には、これらのコンテキスト情報がユーザの同一の行動に係る情報であるか否かを判断し、同一の行動に係る情報であれば情報価値が低い側を選択し、その情報価値の評価結果に基づいて断定的または曖昧な表現を用いたコンテキスト情報を選択的に生成し、提示するようにしている。 In addition, if both the first context information and the second context information are obtained, it is determined whether these context information are information related to the same behavior of the user, and the information related to the same behavior is determined. In the case of information, the one with the lowest information value is selected, and based on the evaluation result of the information value, context information using assertive or ambiguous expressions is selectively generated and presented.

従って、ユーザUS1の同一の行動を表す複数のコンテキスト情報が同時に得られた場合には、そのうちの情報価値の低いコンテキスト情報をもとにメッセージが生成されて提示されることになり、ユーザUS1の行動をより正確に類推したメッセージを提示することができる。 Therefore, if multiple pieces of context information representing the same behavior of the user US1 are obtained at the same time, a message will be generated and presented based on the context information with the lowest information value among them, and the message will be presented to the user US1. It is possible to present a message that more accurately approximates the behavior.

さらに、検出データから分解抽出された複数のローコンテキスト情報からユーザUS1の行動を類推する際に、複数のローコンテキスト情報の組合せをもとに類推することで、単一のローコンテキスト情報から類推する場合に比べ、ユーザUS1の行動をより正確に類推することが可能となり、これにより正確なメッセージを提示することが可能となる。 Furthermore, when inferring the behavior of the user US1 from multiple pieces of low context information extracted from the detected data, it is possible to infer from a single piece of low context information by making an analogy based on a combination of multiple pieces of low context information. Compared to the case, it becomes possible to more accurately infer the behavior of the user US1, and thereby it becomes possible to present an accurate message.

[その他の実施形態]
前記一実施形態では、チャットボットまたはエージェントによるコミュニケーション支援機能をサーバ装置SVに備えた場合を例にとって説明したが、いずれかのユーザ端末に設けてもよい。その他、コミュニケーション支援装置の機能構成や処理手順と処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
[Other embodiments]
In the embodiment described above, a case has been described in which the server device SV is provided with a communication support function using a chatbot or an agent, but it may be provided in any user terminal. In addition, the functional configuration, processing procedures, processing contents, etc. of the communication support device can be modified in various ways without departing from the gist of the present invention.

以上、この発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。 Although the embodiments of the present invention have been described above in detail, the above descriptions are merely illustrative of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the invention. That is, in implementing the present invention, specific configurations depending on the embodiments may be adopted as appropriate.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiments as they are, but can be implemented by modifying the constituent elements within the scope of the invention at the implementation stage. Moreover, various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components from different embodiments may be combined as appropriate.

SV…サーバ装置
UT1,UT2…ユーザ端末
NW…ネットワーク
ST…調理器具
LG…照明器具
SS1,SS2…センサ
CM…カメラ
TR…送受信装置
1…制御部
2…プログラム記憶部
3…データ記憶部
4…通信I/F
5…バス
11…検出データ取得処理部
12…コンテキスト分類処理部
13…コンテキスト分解処理部
14…コンテキスト類推処理部
15…重み付きコンテキスト生成処理部
16…メッセージ配信処理部
31…検出データ記憶部
32…第1のコンテキスト記憶部
33…第2のコンテキスト記憶部
34…重み付きコンテキスト記憶部
SV...Server device UT1, UT2...User terminal NW...Network ST...Cooking equipment LG...Lighting equipment SS1, SS2...Sensor CM...Camera TR...Transmission/reception device 1...Control unit 2...Program storage unit 3...Data storage unit 4...Communication I/F
5... Bus 11... Detected data acquisition processing section 12... Context classification processing section 13... Context decomposition processing section 14... Context analogy processing section 15... Weighted context generation processing section 16... Message distribution processing section 31... Detected data storage section 32... First context storage unit 33...Second context storage unit 34...Weighted context storage unit

Claims (7)

ネットワークを介して行われる第1のユーザと第2のユーザとの間のコミュニケーションを支援するコミュニケーション支援装置であって、
センサから、前記第1のユーザの行動に係る検出データを取得する取得処理部と、
取得された前記検出データを、当該検出データに含まれる前記第1のユーザの行動に係るコンテキスト情報の情報価値が、予め設定される条件を満たす第1の検出データと、前記条件を満たさない第2の検出データとに分類する分類処理部と、
分類された前記第1の検出データから、前記第1のユーザの行動に係る複数の第1のコンテキスト情報を分解抽出する分解処理部と、
分類された前記第2の検出データをもとに、当該第2の検出データに含まれるコンテキスト情報から、前記第1のユーザの行動に係る第2のコンテキスト情報を類推する類推処理部と、
前記複数の第1のコンテキスト情報または前記第2のコンテキスト情報の前記情報価値を評価し、その評価結果に基づいて、断定的な表現を用いた第1の重み付きコンテキスト情報と、曖昧表現を用いた第2の重み付きコンテキスト情報とを選択的に生成する生成処理部と、
生成された前記第1の重み付きコンテキスト情報または前記第2の重み付きコンテキスト情報を、前記第2のユーザが閲覧可能な状態で提示する提示処理部と
を具備するコミュニケーション支援装置。
A communication support device that supports communication between a first user and a second user via a network,
an acquisition processing unit that acquires detection data related to the behavior of the first user from the sensor;
The acquired detection data is divided into first detection data whose information value of context information related to the first user's behavior included in the detection data satisfies a preset condition, and second detection data which does not satisfy the condition. a classification processing unit that classifies the detected data into two types of detected data;
a decomposition processing unit that decomposes and extracts a plurality of first context information related to the behavior of the first user from the classified first detection data;
an analogy processing unit that infers second context information related to the behavior of the first user from context information included in the second detection data based on the classified second detection data;
Evaluate the information value of the plurality of first context information or the second context information, and based on the evaluation result, first weighted context information using an assertive expression and first weighted context information using an ambiguous expression. a generation processing unit that selectively generates second weighted context information;
A presentation processing unit that presents the generated first weighted context information or the second weighted context information in a state where the second user can view it.
前記生成処理部は、
前記第1のコンテキスト情報と前記第2のコンテキスト情報とのうちのいずれか一方が得られた場合には、得られた前記第1のコンテキスト情報または前記第2のコンテキスト情報の前記情報価値の評価結果に基づいて、前記第1の重み付きコンテキスト情報と、前記第2の重み付きコンテキスト情報とを選択的に生成する、
請求項1に記載のコミュニケーション支援装置。
The generation processing unit is
If either the first context information or the second context information is obtained, evaluation of the information value of the obtained first context information or second context information selectively generating the first weighted context information and the second weighted context information based on the results;
The communication support device according to claim 1.
前記生成処理部は、
前記第1のコンテキスト情報および前記第2のコンテキスト情報の両方が得られた場合には、得られた前記第1のコンテキスト情報と前記第2のコンテキスト情報とが、前記第1のユーザの同一の行動に係る情報であるか否かを判断し、同一の行動に係る情報であれば、前記第1のコンテキスト情報と前記第2のコンテキスト情報とのうち前記情報価値が低い側を選択する処理部と、
選択された前記第1のコンテキスト情報または前記第2のコンテキスト情報の前記情報価値の評価結果に基づいて、前記第1の重み付きコンテキスト情報と、前記第2の重み付きコンテキスト情報とを選択的に生成する処理部と
を備える、請求項1に記載のコミュニケーション支援装置。
The generation processing unit is
When both the first context information and the second context information are obtained, the obtained first context information and the second context information are the same as the first user's A processing unit that determines whether or not the information is related to an action, and if the information is related to the same action, selects the one with the lower information value between the first context information and the second context information. and,
selectively selecting the first weighted context information and the second weighted context information based on the evaluation result of the information value of the selected first context information or the second context information; The communication support device according to claim 1, comprising: a processing unit for generating.
前記生成処理部は、
前記複数の第1のコンテキスト情報の組合せから第3のコンテキスト情報を類推可能な場合には、当該第3のコンテキスト情報の前記情報価値の評価結果に基づいて、断定的な表現を用いた前記第1の重み付きコンテキスト情報と、曖昧表現を用いた前記第2の重み付きコンテキスト情報とを選択的に生成する、
請求項1に記載のコミュニケーション支援装置。
The generation processing unit is
If the third context information can be inferred from the combination of the plurality of first context information, the third context information using an assertive expression is based on the evaluation result of the information value of the third context information. selectively generating one weighted context information and the second weighted context information using an ambiguous expression;
The communication support device according to claim 1.
前記生成処理部は、
前記第2のコンテキスト情報または前記第3のコンテキスト情報が得られるまでに行われた類推処理のステップ数に基づいて前記情報価値を評価する、請求項4に記載のコミュニケーション支援装置。
The generation processing unit is
The communication support device according to claim 4, wherein the information value is evaluated based on the number of steps of analogy processing performed until the second context information or the third context information is obtained.
ネットワークを介して行われる第1のユーザと第2のユーザとの間のコミュニケーションを支援する情報処理装置が実行するコミュニケーション支援方法であって、
センサから、前記第1のユーザの行動に係る検出データを取得する過程と、
取得された前記検出データを、当該検出データに含まれる前記第1のユーザの行動に係るコンテキスト情報の情報価値が、予め設定される条件を満たす第1の検出データと、前記条件を満たさない第2の検出データとに分類する過程と、
分類された前記第1の検出データをもとに、当該第2の検出データに含まれるコンテキスト情報から、前記第1のユーザの行動に係る複数の第1のコンテキスト情報を分解抽出する過程と、
分類された前記第2の検出データから、前記第1のユーザの行動に係る第2のコンテキスト情報を類推する過程と、
前記複数の第1のコンテキスト情報または前記第2のコンテキスト情報の前記情報価値を評価し、その評価結果に基づいて、断定的な表現を用いた第1の重み付きコンテキスト情報と、曖昧表現を用いた第2の重み付きコンテキスト情報とを選択的に生成する過程と、
生成された前記第1または第2の重み付きコンテキスト情報を、前記第2のユーザが閲覧可能な状態で提示する過程と
を具備するコミュニケーション支援方法。
A communication support method executed by an information processing device that supports communication between a first user and a second user via a network, the method comprising:
a step of acquiring detection data related to the behavior of the first user from a sensor;
The acquired detection data is divided into first detection data whose information value of context information related to the first user's behavior included in the detection data satisfies a preset condition, and second detection data which does not satisfy the condition. 2. A process of classifying the detected data into
A process of decomposing and extracting a plurality of first context information related to the behavior of the first user from the context information included in the second detection data based on the classified first detection data;
a step of inferring second context information related to the behavior of the first user from the classified second detection data;
Evaluate the information value of the plurality of first context information or the second context information, and based on the evaluation result, first weighted context information using an assertive expression and first weighted context information using an ambiguous expression. a step of selectively generating second weighted context information;
A communication support method comprising: presenting the generated first or second weighted context information in a state where the second user can view it.
請求項1乃至5のいずれかに記載のコミュニケーション支援装置が具備する前記各処理部の処理を、前記コミュニケーション支援装置が備えるプロセッサに実行させるプログラム。 A program that causes a processor included in the communication support device to execute processing of each of the processing units included in the communication support device according to any one of claims 1 to 5.
JP2020196838A 2020-11-27 2020-11-27 Communication support devices, methods and programs Active JP7429926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020196838A JP7429926B2 (en) 2020-11-27 2020-11-27 Communication support devices, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020196838A JP7429926B2 (en) 2020-11-27 2020-11-27 Communication support devices, methods and programs

Publications (2)

Publication Number Publication Date
JP2022085248A JP2022085248A (en) 2022-06-08
JP7429926B2 true JP7429926B2 (en) 2024-02-09

Family

ID=81892667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020196838A Active JP7429926B2 (en) 2020-11-27 2020-11-27 Communication support devices, methods and programs

Country Status (1)

Country Link
JP (1) JP7429926B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015585A (en) 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
WO2018230051A1 (en) 2017-06-13 2018-12-20 ソニー株式会社 Information processing device, information processing method, and program
JP2021518004A (en) 2018-04-13 2021-07-29 ブレイノフティー インコーポレイテッド Use of contextual information in the environment component area for event / activity prediction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015585A (en) 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology Living task support system
WO2018230051A1 (en) 2017-06-13 2018-12-20 ソニー株式会社 Information processing device, information processing method, and program
JP2021518004A (en) 2018-04-13 2021-07-29 ブレイノフティー インコーポレイテッド Use of contextual information in the environment component area for event / activity prediction

Also Published As

Publication number Publication date
JP2022085248A (en) 2022-06-08

Similar Documents

Publication Publication Date Title
JP6017039B2 (en) User recommendation method and user recommendation system using the method
US9063565B2 (en) Automated avatar creation and interaction in a virtual world
CN104935491B (en) A kind of method and device sending facial expression image
JP2019121377A (en) System and method for detangling of interleaved conversations in communication platforms, method of analyzing unstructured messages, program, and computer device
JP5961320B2 (en) Method of classifying users in social media, computer program, and computer
US9531771B2 (en) Cooking information providing method, control method, program, and terminal device
US20190147229A1 (en) Methods and systems for playing musical elements based on a tracked face or facial feature
JP7307607B2 (en) Method, computer program and computing device for facilitating media-based content sharing
US9058090B1 (en) Collaborative information sharing in a virtual world
JP7429926B2 (en) Communication support devices, methods and programs
US20220138597A1 (en) Problem solving using selected datasets of internet-of-things system
Miller et al. GroupLens for Usenet: Experiences in applying collaborative filtering to a social information system
CN111083065B (en) Method for preventing input command from being blocked, storage medium and computer equipment
CN106341541B (en) List treating method and apparatus
CN106375363B (en) Method, system and device for eliminating message reminding in social application client
CN116484083A (en) Dish information display method and device, storage medium and electronic device
KR20130104570A (en) Method and apparatus for creating game room automatically
CN106874455B (en) Task plan recommendation method and device and server
Chen et al. Toward Affordable and Practical Home Context Recognition:—Framework and Implementation with Image-based Cognitive API—
JP6306770B1 (en) Information processing apparatus, information processing method, and program
JP2019153223A (en) Device, method, and program for generating images
WO2010125488A2 (en) Prompting communication between remote users
CN111667082A (en) Feedback method and apparatus, storage medium, and electronic apparatus
CN115171676B (en) Method and device for determining intention behavior, storage medium and electronic device
JP2015170252A (en) Retrieval device, communication system, retrieval method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201225

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201225

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7429926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150