[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7527496B1 - Character interaction system and character interaction method - Google Patents

Character interaction system and character interaction method Download PDF

Info

Publication number
JP7527496B1
JP7527496B1 JP2023551190A JP2023551190A JP7527496B1 JP 7527496 B1 JP7527496 B1 JP 7527496B1 JP 2023551190 A JP2023551190 A JP 2023551190A JP 2023551190 A JP2023551190 A JP 2023551190A JP 7527496 B1 JP7527496 B1 JP 7527496B1
Authority
JP
Japan
Prior art keywords
information
processing unit
input
character
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023551190A
Other languages
Japanese (ja)
Inventor
政之 垣尾
冰 鄭
允裕 山隅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2023180796A priority Critical patent/JP2025000529A/en
Application granted granted Critical
Publication of JP7527496B1 publication Critical patent/JP7527496B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • G06Q50/163Real estate management

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本願明細書に開示される技術は、情報の提示において、ユーザーがインタラクションしやすくするための技術である。本願明細書に開示される技術に関するキャラクターインタラクションシステムは、限られた空間内に設けられた設備に関する情報である設備情報を処理するための情報処理部と、ユーザーからの入力に応じて設備情報を提供するための応答処理部とを備え、応答処理部が、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じてユーザーに設備情報を伝達するよう、入出力装置に接続される。The technology disclosed in this specification is a technology for making it easier for users to interact when presenting information. A character interaction system related to the technology disclosed in this specification includes an information processing unit for processing facility information, which is information about facilities provided within a limited space, and a response processing unit for providing the facility information in response to input from a user, and the response processing unit is connected to an input/output device so as to convey the facility information to the user through a character displayed on at least one display device provided in the input/output device.

Description

本願明細書に開示される技術は、ユーザーのインタラクションに関するものである。 The technology disclosed in this specification relates to user interaction.

従来から、ビル内外の情報を一元的に管理および処理し、当該情報をリアルタイムで提供可能な情報提供システムなどがある(たとえば、特許文献1を参照)。There have traditionally been information provision systems that can centrally manage and process information inside and outside a building and provide that information in real time (see, for example, Patent Document 1).

特開2023-26205号公報JP 2023-26205 A

特許文献1に示される技術ではユーザーに対してビル内外の情報を伝えているが、一方的なコンテンツの表示に特化しており、ユーザーからのインタラクション対象としては十分に機能を果たしていない。The technology shown in Patent Document 1 conveys information about inside and outside the building to users, but it is specialized in displaying one-way content and does not function sufficiently as a target for user interaction.

本願明細書に開示される技術は、以上に記載されたような問題を鑑みてなされたものであり、情報の提示において、ユーザーがインタラクションしやすくするための技術である。The technology disclosed in this specification has been developed in consideration of the problems described above, and is a technology designed to make it easier for users to interact with information when it is presented.

本願明細書に開示される技術の第1の態様であるキャラクターインタラクションシステムは、設備に関する情報であり、ビルの管理情報を含む設備情報を処理するための情報処理部と、ユーザーからの入力に応じて前記設備情報を提供するための応答処理部とを備え、前記応答処理部が、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達するよう、前記入出力装置に接続され、前記ビルの管理情報は、入退室管理装置から取得される。

A character interaction system, which is a first aspect of the technology disclosed in the present specification, comprises an information processing unit for processing facility information including building management information , and a response processing unit for providing the facility information in response to input from a user, wherein the response processing unit is connected to an input/output device so as to convey the facility information to the user through a character displayed on at least one display device provided in the input/output device, and the building management information is obtained from an entrance/ exit management device.

本願明細書に開示される技術の少なくとも第1の態様によれば、設備情報が提示される際にキャラクターが表示されるため、ユーザーがキャラクターを介してインタラクションしやすくなる。 According to at least the first aspect of the technology disclosed in the present specification, a character is displayed when facility information is presented, making it easier for users to interact through the character.

また、本願明細書に開示される技術に関連する目的と、特徴と、局面と、利点とは、以下に示される詳細な説明と添付図面とによって、さらに明白となる。Furthermore, the objects, features, aspects and advantages associated with the technology disclosed in the present specification will become more apparent from the detailed description and accompanying drawings set forth below.

実施の形態に関するキャラクターインタラクションシステムの構成の例を概念的に示す図である。FIG. 1 is a diagram conceptually illustrating an example of the configuration of a character interaction system according to an embodiment. 入出力装置の構成の例を概念的に示す図である。FIG. 2 is a diagram conceptually illustrating an example of the configuration of an input/output device. キャラクターの例を示す図である。FIG. 13 is a diagram showing an example of a character. 移動体と、キャラクターインタラクションシステムにおける処理部との関係の例について示す図である。FIG. 2 is a diagram showing an example of the relationship between a moving object and a processing unit in a character interaction system. ビル管理盤と、キャラクターインタラクションシステムにおける処理部との関係の例について示す図である。FIG. 2 is a diagram showing an example of the relationship between a building management panel and a processing unit in a character interaction system. 処理部によってビル管理盤からの情報が取得され、当該情報に基づいて、表示装置に表示されるキャラクターがユーザーに情報を提供する例を示す図である。13 is a diagram showing an example in which information is acquired from a building control panel by a processing unit, and a character displayed on a display device provides information to a user based on the acquired information. FIG. 処理部によってビル管理盤からの情報が取得され、当該情報に基づいて、表示装置に表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。FIG. 11 is a diagram showing another example in which information is acquired from a building control panel by a processing unit, and a character displayed on a display device provides information to a user based on the acquired information. 処理部によってビル管理盤からの情報が取得され、当該情報に基づいて、表示装置に表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。FIG. 11 is a diagram showing another example in which information is acquired from a building control panel by a processing unit, and a character displayed on a display device provides information to a user based on the acquired information. 処理部によってビル管理盤からの情報が取得され、当該情報に基づいて、表示装置に表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。FIG. 11 is a diagram showing another example in which information is acquired from a building control panel by a processing unit, and a character displayed on a display device provides information to a user based on the acquired information. インターネット通信部と、キャラクターインタラクションシステムにおける処理部との関係の例について示す図である。1 is a diagram showing an example of the relationship between an Internet communication unit and a processing unit in a character interaction system. FIG. インターネット通信部およびオペレータと、キャラクターインタラクションシステムにおける処理部との関係の例について示す図である。1 is a diagram showing an example of the relationship between an Internet communication unit, an operator, and a processing unit in a character interaction system. FIG. 本実施の形態に関するキャラクターインタラクションシステムの構成の例を概念的に示す図である。FIG. 1 is a diagram conceptually illustrating an example of the configuration of a character interaction system according to an embodiment of the present invention. 複数の表示装置に順次表示されるキャラクターがユーザーに情報を提供する例を示す図である。FIG. 13 is a diagram showing an example in which characters displayed sequentially on a plurality of display devices provide information to a user. 複数の表示装置に順次表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。13A and 13B are diagrams showing another example in which characters displayed sequentially on a plurality of display devices provide information to a user. 複数の表示装置に順次表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。13A and 13B are diagrams showing another example in which characters displayed sequentially on a plurality of display devices provide information to a user. 複数の表示装置に順次表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。13A and 13B are diagrams showing another example in which characters displayed sequentially on a plurality of display devices provide information to a user. 複数の表示装置に順次表示されるキャラクターがユーザーに情報を提供する他の例を示す図である。13A and 13B are diagrams showing another example in which characters displayed sequentially on a plurality of display devices provide information to a user. 図1に例が示されるキャラクターインタラクションシステムを実際に運用する場合のハードウェア構成を概略的に例示する図である。2 is a diagram illustrating a schematic example of a hardware configuration when the character interaction system illustrated in FIG. 1 is actually operated. FIG. 図1に例が示されるキャラクターインタラクションシステムを実際に運用する場合のハードウェア構成を概略的に例示する図である。2 is a diagram illustrating a schematic example of a hardware configuration when the character interaction system illustrated in FIG. 1 is actually operated. FIG.

以下、添付される図面を参照しながら実施の形態について説明する。以下の実施の形態では、技術の説明のために詳細な特徴なども示されるが、それらは例示であり、実施の形態が実施可能となるために、それらのすべてが必ずしも必須の特徴ではない。Hereinafter, the embodiments will be described with reference to the attached drawings. In the following embodiments, detailed features are shown to explain the technology, but they are merely examples and not all of them are necessarily essential features for the embodiments to be implementable.

なお、図面は概略的に示されるものであり、説明の便宜のため、適宜、構成の省略、または、構成の簡略化などが図面においてなされる。また、異なる図面にそれぞれ示される構成などの大きさおよび位置の相互関係は、必ずしも正確に記載されるものではなく、適宜変更され得るものである。また、断面図ではない平面図などの図面においても、実施の形態の内容を理解することを容易にするために、ハッチングが付される場合がある。 Note that the drawings are schematic, and for ease of explanation, components may be omitted or simplified as appropriate in the drawings. Furthermore, the relative sizes and positions of components shown in different drawings are not necessarily described accurately and may be changed as appropriate. Furthermore, hatching may be used in drawings such as plan views that are not cross-sectional views to make it easier to understand the contents of the embodiments.

また、以下に示される説明では、同様の構成要素には同じ符号を付して図示し、それらの名称と機能とについても同様のものとする。したがって、それらについての詳細な説明を、重複を避けるために省略する場合がある。In addition, in the following description, similar components are illustrated with the same reference numerals, and their names and functions are also similar. Therefore, detailed descriptions of them may be omitted to avoid duplication.

また、本願明細書に記載される説明において、ある構成要素を「備える」、「含む」または「有する」などと記載される場合、特に断らない限りは、他の構成要素の存在を除外する排他的な表現ではない。In addition, in the descriptions provided in this specification, when a certain component is described as "comprising," "including," or "having," unless otherwise specified, this is not an exclusive expression that excludes the presence of other components.

また、本願明細書に記載される説明において、「第1の」または「第2の」などの序数が使われる場合があっても、これらの用語は、実施の形態の内容を理解することを容易にするために便宜上使われるものであり、実施の形態の内容はこれらの序数によって生じ得る順序などに限定されるものではない。In addition, even if ordinal numbers such as "first" or "second" are used in the descriptions in this specification, these terms are used for convenience to facilitate understanding of the contents of the embodiments, and the contents of the embodiments are not limited to the orders that may result from these ordinal numbers.

<第1の実施の形態>
以下、本実施の形態に関するキャラクターインタラクションシステム、および、キャラクターインタラクション方法について説明する。
First Embodiment
The character interaction system and the character interaction method according to this embodiment will be described below.

<キャラクターインタラクションシステムの構成について>
図1は、本実施の形態に関するキャラクターインタラクションシステムの構成の例を概念的に示す図である。図1に例が示されるように、キャラクターインタラクションシステム1は、限られた空間100と、処理部110と、キャラクター130を表示する入出力装置120とを備える。キャラクターインタラクションシステム1は、入出力装置120を介して、ユーザー140とスムーズなインタラクションを行う。
<Character interaction system configuration>
Fig. 1 is a diagram conceptually illustrating an example of the configuration of a character interaction system according to the present embodiment. As illustrated in Fig. 1, the character interaction system 1 includes a limited space 100, a processing unit 110, and an input/output device 120 that displays a character 130. The character interaction system 1 performs smooth interaction with a user 140 via the input/output device 120.

限られた空間100は、ビル、地下街または遊戯施設など、公共性が高く、かつ、管理者が存在する空間を指す。このような限られた空間100では、設備も多く、ユーザー140が快適に過ごせるように配慮が施されている。The limited space 100 refers to a space that is highly public and has an administrator, such as a building, an underground shopping mall, or an amusement facility. Such a limited space 100 has many facilities and is designed to ensure that users 140 can spend their time there comfortably.

処理部110は、情報処理部111と、応答処理部112とを備える。情報処理部111は、限られた空間100内に設けられた設備に関する設備情報を処理し、設備情報を入出力装置120に表示などする。具体的には、情報処理部111は、入出力装置120において表示される設備情報(視覚情報または音声情報)のデータの管理、取得および送付(送信)を行う。応答処理部112は、設備情報を参照し、ユーザー140への指示内容と返答内容とを解析して、応答内容を生成する。The processing unit 110 includes an information processing unit 111 and a response processing unit 112. The information processing unit 111 processes equipment information related to equipment installed within the limited space 100, and displays the equipment information on the input/output device 120. Specifically, the information processing unit 111 manages, acquires, and sends (transmits) data of the equipment information (visual information or audio information) displayed on the input/output device 120. The response processing unit 112 refers to the equipment information, analyzes the instructions and response contents for the user 140, and generates the response contents.

図2は、入出力装置120の構成の例を概念的に示す図である。図2に例が示されるように、入出力装置120は、表示装置121と、音声出力122と、音声入力123と、映像入力124と、その他のセンサー入出力125とを備える。 Figure 2 is a conceptual diagram showing an example of the configuration of the input/output device 120. As shown in the example in Figure 2, the input/output device 120 includes a display device 121, an audio output 122, an audio input 123, a video input 124, and other sensor inputs/outputs 125.

入出力装置120は、表示装置121または音声出力122を介してユーザー140に情報を伝達する。また、入出力装置120は、音声入力123を通じてユーザー140の音声指示を取得する。The input/output device 120 transmits information to the user 140 via the display device 121 or the audio output 122. The input/output device 120 also receives voice instructions from the user 140 via the audio input 123.

入出力装置120は、図1の処理部110に対してユーザー140の発声内容を音声入力123または映像入力124を介して送信し、また、処理部110から返答される映像データまたは音声データを表示装置121または音声出力122で出力する。The input/output device 120 transmits the spoken content of the user 140 to the processing unit 110 in Figure 1 via the audio input 123 or the video input 124, and also outputs the video data or audio data returned from the processing unit 110 on the display device 121 or the audio output 122.

なお、入出力装置120は、ユーザー140が有するスマートフォンまたはスマートウォッチなどの付加的な電子機器に内蔵されるradio frequency identification(RFID)またはbluetooth low energy(BLE。bluetoothは登録商標)またはWi-Fi位置情報システムなどと、センサー情報を入出力するその他のセンサー入出力125と、処理部110から返答される映像データまたは音声データとを用いてデータの入出力を行ってもよい。In addition, the input/output device 120 may input and output data using radio frequency identification (RFID), Bluetooth low energy (BLE; Bluetooth is a registered trademark), or a Wi-Fi location information system built into an additional electronic device such as a smartphone or smartwatch owned by the user 140, other sensor input/output 125 that inputs and outputs sensor information, and video data or audio data returned from the processing unit 110.

その他のセンサー入出力125は、外部環境に設置されたlight detection and ranging(LiDAR)または人感センサーなどであってもよい。その他のセンサー入出力125を用いることで、ユーザー140の位置の同定または個人の同定が可能となるため、公共空間でありつつも個人に合わせたサービスの提供が可能となる。The other sensor input/output 125 may be a light detection and ranging (LiDAR) or a motion sensor installed in the external environment. By using the other sensor input/output 125, it is possible to identify the position or individual of the user 140, making it possible to provide services tailored to the individual even in a public space.

キャラクター130は、動物、人または仮想上の生物など、ターゲットとなる顔を有し、インタラクション対象としてふさわしいものを用いる。応答処理部112は、表示装置121に表示されるキャラクター130を通じて、ユーザー140に設備情報を伝達する。The character 130 is an animal, a person, or a virtual creature that has a target face and is suitable as an interaction target. The response processing unit 112 conveys the facility information to the user 140 through the character 130 displayed on the display device 121.

図3は、キャラクター130の例を示す図である。キャラクター130は、会話に応じて口を動かすような動画にしてもよいし、表情または服装を変更可能なものであってもよい。また、キャラクター130は、非常時または子供向けなど、TPOに応じて選択されてもよい。また、キャラクター130に、信頼感、包容力または可愛らしさなどの個性が与えられてもよい。 Figure 3 is a diagram showing an example of a character 130. The character 130 may be animated, with its mouth moving in response to conversation, or may have changeable facial expressions or clothing. The character 130 may also be selected according to the time, place, and occasion, such as for emergencies or for children. The character 130 may also be given personality traits, such as trustworthiness, tolerance, or cuteness.

図4は、移動体150と、キャラクターインタラクションシステムにおける処理部110との関係の例について示す図である。図4に例が示されるように、処理部110は、移動体150と情報のやり取りを行うための中間処理を行う。 Figure 4 is a diagram showing an example of the relationship between a moving body 150 and a processing unit 110 in a character interaction system. As shown in the example in Figure 4, the processing unit 110 performs intermediate processing to exchange information with the moving body 150.

移動体150は、エレベータ自体、掃除、警備または搬送を行うサービスロボット、または、コミュニケーションロボットなどである。また、移動体150は、処理部110(情報処理部111)と通信可能であり、移動などのタスクを処理部110から受け取ることが可能であり、処理部110(情報処理部111)を通じてキャラクターインタラクションシステム1または間接的にユーザー140との間で移動体150の設備情報(移動体150に搭載される機能に関する情報を含む)の受け渡しが可能である。The mobile object 150 may be an elevator itself, a service robot that cleans, guards, or transports objects, or a communication robot. The mobile object 150 can communicate with the processing unit 110 (information processing unit 111) and can receive tasks such as movement from the processing unit 110. The mobile object 150 can also exchange facility information (including information about functions installed in the mobile object 150) with the character interaction system 1 or indirectly with the user 140 via the processing unit 110 (information processing unit 111).

ここで、処理部110は、ユーザー140と移動体150との間に介在してユーザー140に移動体150を制御させてもよく、また、移動体150の予想される挙動に関する情報を表示装置121に表示されるキャラクター130を使って提供してもよい。音声認識機能または発声機能を有していない簡易な移動体150単体では、人間と会話することができるレベルの自然なインタラクションを行うことは難しい。しかしながら、インタラクション能力が高いキャラクター130を表示装置121に表示させて介在させることで、人間と会話するようなレベルの自然なインタラクションが可能となる。Here, the processing unit 110 may intervene between the user 140 and the moving object 150 to allow the user 140 to control the moving object 150, or may provide information regarding the expected behavior of the moving object 150 using a character 130 displayed on the display device 121. It is difficult for a simple moving object 150 alone that does not have a voice recognition function or a voice production function to have a natural interaction at a level that allows it to converse with a human. However, by displaying a character 130 with high interaction capabilities on the display device 121 and having it intervene, it becomes possible to have a natural interaction at a level that allows it to converse with a human.

図5は、ビル管理盤151と、キャラクターインタラクションシステムにおける処理部110との関係の例について示す図である。図5に例が示されるように、処理部110は、ビル管理盤151と情報のやり取りを行ってもよい。 Figure 5 is a diagram showing an example of the relationship between the building management panel 151 and the processing unit 110 in the character interaction system. As shown in the example in Figure 5, the processing unit 110 may exchange information with the building management panel 151.

このようにすることで、処理部110は、エレベータの運行情報、ビル内の店舗の混雑情報、環境カメラの映像、入退室管理装置(ここでは、図示しない)などから取得されるビルの管理情報などの、ビル内に設けられた設備に関する情報を得ることができる。そうすることで、エレベータが混み合っていてなかなか乗れないこと、エレベータまたは店舗における待ち時間の概算値、ユーザー140にとって最適な経路、ユーザー140に寄って欲しい場所、ロボットを待たせて入退室管理装置(ここでは、図示しない)で先に進んでよいこと、または、ロボットのエピソードなどを、処理部110から入出力装置120を介してユーザー140に伝えることができる。In this way, the processing unit 110 can obtain information about the facilities installed in the building, such as elevator operation information, congestion information about stores in the building, images from environmental cameras, building management information obtained from an entrance/exit management device (not shown here), etc. In this way, the processing unit 110 can communicate to the user 140 via the input/output device 120 that the elevator is crowded and difficult to get on, an approximate waiting time for the elevator or store, the optimal route for the user 140, places the user 140 should stop at, that the robot can be made to wait and the entrance/exit management device (not shown here) can be used to move on, or an episode about the robot, etc.

図6は、処理部110によってビル管理盤151からの情報が取得され、当該情報に基づいて、表示装置121に表示されるキャラクター130がユーザー140に情報を提供する例を示す図である。図6aでは、入退室管理システム202を通過してよいか迷っているユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、ロボット200が待機状態であることを通知する(会話形式で伝える)ことによって、ロボット200自身の通知だけでは判断しかねていたユーザー140を適切に誘導することができている。 Figure 6 is a diagram showing an example in which information is acquired from the building management panel 151 by the processing unit 110, and based on that information, the character 130 displayed on the display device 121 provides information to the user 140. In Figure 6a, the character 130 displayed on the display device 121 of the character interaction system 1 notifies the user 140, who is unsure whether to pass through the entrance/exit management system 202, that the robot 200 is in a waiting state (conversationally communicating this), thereby appropriately guiding the user 140, who would otherwise be unable to make a decision based on the notification from the robot 200 itself.

図7は、処理部110によってビル管理盤151からの情報が取得され、当該情報に基づいて、表示装置121に表示されるキャラクター130がユーザー140に情報を提供する他の例を示す図である。図7では、ロボット204の近辺に位置するユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、ロボット204の動作内容(エピソード)を通知している(会話形式で伝えている)。また、ロボット206の近辺に位置するユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、ロボット206の近辺のビルに関する情報を通知している(会話形式で伝えている)。また、エレベータ208の近辺に位置するユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、エレベータ208の待ち時間を通知している(会話形式で伝えている)。7 is a diagram showing another example in which information from the building management panel 151 is acquired by the processing unit 110, and the character 130 displayed on the display device 121 provides information to the user 140 based on the information. In FIG. 7, the character 130 displayed on the display device 121 of the character interaction system 1 informs the user 140 located near the robot 204 of the operation content (episode) of the robot 204 (communicated in a conversational format). In addition, the character 130 displayed on the display device 121 of the character interaction system 1 informs the user 140 located near the robot 206 of information about the building near the robot 206 (communicated in a conversational format). In addition, the character 130 displayed on the display device 121 of the character interaction system 1 informs the user 140 located near the elevator 208 of the waiting time for the elevator 208 (communicated in a conversational format).

図8は、処理部110によってビル管理盤151からの情報が取得され、当該情報に基づいて、表示装置121に表示されるキャラクター130がユーザー140に情報を提供する他の例を示す図である。図8では、エレベータの前で待機しているユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、ロボット210がエレベータ内から出てくることを通知している(会話形式で伝えている)。 Figure 8 is a diagram showing another example in which information is acquired from the building control panel 151 by the processing unit 110, and the character 130 displayed on the display device 121 provides information to the user 140 based on the acquired information. In Figure 8, the character 130 displayed on the display device 121 of the character interaction system 1 notifies the user 140, who is waiting in front of the elevator, that the robot 210 is coming out of the elevator (communicating in a conversational format).

図9は、処理部110によってビル管理盤151からの情報が取得され、当該情報に基づいて、表示装置121に表示されるキャラクター130がユーザー140に情報を提供する他の例を示す図である。図9では、エレベータ内で待機しているユーザー140に対して、キャラクターインタラクションシステム1の表示装置121に表示されるキャラクター130が、ロボット212がエレベータ外で待機していることを通知している(会話形式で伝えている)。 Figure 9 is a diagram showing another example in which information is acquired from the building control panel 151 by the processing unit 110, and based on that information, the character 130 displayed on the display device 121 provides information to the user 140. In Figure 9, the character 130 displayed on the display device 121 of the character interaction system 1 notifies the user 140, who is waiting in the elevator, that the robot 212 is waiting outside the elevator (communicating in a conversational format).

また、ユーザー140がロボットに依頼したい作業を、キャラクター130を介して処理部110に伝えることで、物を運搬したり、特定の場所の確認依頼をしたりすることができるようになる。さらに、エレベータに乗り込もうとしているユーザー140に対して、処理部110が、キャラクター130を介してロボットが出てくる方向を示し、両者の衝突を避けることもできる。In addition, the user 140 can communicate the task they want the robot to perform to the processing unit 110 via the character 130, making it possible to transport an object or request confirmation of a specific location. Furthermore, when the user 140 is about to enter an elevator, the processing unit 110 can indicate the direction in which the robot will emerge via the character 130, thereby avoiding a collision between the two.

図10は、インターネット通信部152と、キャラクターインタラクションシステムにおける処理部110との関係の例について示す図である。図10に例が示されるように、処理部110は、インターネット通信部152と情報のやり取りを行ってもよい。 Figure 10 is a diagram showing an example of the relationship between the Internet communication unit 152 and the processing unit 110 in a character interaction system. As shown in the example in Figure 10, the processing unit 110 may exchange information with the Internet communication unit 152.

このようにすることで、処理部110は、限られた空間100の情報に留まらず、天気または地域情報など、より広範囲の情報を得ることができる。また、処理部110は、限られた空間100外の特定の場所にタクシーまたはシェアリングカーなどを呼んだり、限られた空間100外の特定の場所でサービスの依頼を受け付けたりすることができる。In this way, the processing unit 110 can obtain a wider range of information, such as weather or local information, in addition to information about the limited space 100. In addition, the processing unit 110 can call a taxi or a shared car to a specific location outside the limited space 100, or accept a request for a service at a specific location outside the limited space 100.

図11は、インターネット通信部152およびオペレータ153と、キャラクターインタラクションシステムにおける処理部110との関係の例について示す図である。図11に例が示されるように、処理部110は、インターネット通信部152およびオペレータ153と通信してもよい。 Figure 11 is a diagram showing an example of the relationship between the Internet communication unit 152 and the operator 153 and the processing unit 110 in the character interaction system. As shown in the example in Figure 11, the processing unit 110 may communicate with the Internet communication unit 152 and the operator 153.

このようにすることで、異常発生時にはオペレータ153が遠隔操作で入出力装置120における入出力を代替することができ、事前に決めていなかった応答をユーザー140に返すことができる。なお、オペレータ153は直接処理部110と通信してもよいし、インターネット通信部152を介して外部から処理部110と接続されてもよい。In this way, when an abnormality occurs, the operator 153 can remotely take over the input/output of the input/output device 120, and can return a response that was not determined in advance to the user 140. The operator 153 may communicate with the processing unit 110 directly, or may be connected to the processing unit 110 from the outside via the Internet communication unit 152.

顔を有するキャラクター130が表示装置121に表示されて話をする場合、ユーザー140の注意はその表示装置121に向き、そちらに向かって会話をしようとする。そのため、キャラクター130が表示されている際にはその方向(表示装置121に向かう方向)のマイクの感度を高めることで、ノイズ耐性を高めながら言語コミュニケーションの精度を高めることができる。When a character 130 with a face is displayed on the display device 121 and speaks, the attention of the user 140 is directed toward the display device 121, and the user 140 tries to converse in that direction. Therefore, by increasing the sensitivity of the microphone in the direction (toward the display device 121) when the character 130 is displayed, it is possible to improve noise resistance while also increasing the accuracy of verbal communication.

また、顔を有するキャラクター130が表示装置121に表示されて話をする場合、ユーザー140が位置する方向が把握できていない場合、ユーザー140が位置する方向とは異なる方向を向いてキャラクター130が話すことで、ユーザー140に違和感が生じる場合がある。そのような場合に対して、キャラクター130が様々な方向に視線および顔を向けることで、ユーザー140が自分に向けて話しかけているように感じさせることができる。また、その他のセンサー入出力125において、ユーザー140の位置を測定し、その方向にキャラクター130の顔を向けたり、指向性を追加した音声出力122を使って音声出力をユーザー140の位置に向けたりすることで、効果的に言語コミュニケーションを行うことができる。In addition, when a character 130 with a face is displayed on the display device 121 and speaks, if the direction in which the user 140 is located is not known, the character 130 may speak facing a direction different from the direction in which the user 140 is located, which may cause the user 140 to feel uncomfortable. In such a case, the character 130 can turn its gaze and face in various directions, making the user 140 feel as if it is speaking to the user. In addition, by measuring the position of the user 140 in the other sensor input/output 125 and turning the face of the character 130 in that direction, or by using the audio output 122 with added directionality to direct the audio output to the position of the user 140, effective verbal communication can be carried out.

また、処理部110は、空間内で使われるシステムである移動体150またはビル管理盤151などの応答を、ソースコードすべてを取り込んで機械学習することによって構成されたAIモデルによって模擬することができるようになっている。そのため、処理部110は、空間内で使われるシステムのソースコードが変更となった際には、自動的にモデルを更新することができるようになっている。 The processing unit 110 is also capable of simulating the responses of systems used within the space, such as the mobile object 150 or the building control panel 151, by using an AI model constructed by incorporating all source code and carrying out machine learning. Therefore, the processing unit 110 is capable of automatically updating the model when the source code of the system used within the space is changed.

ユーザー140が移動体150またはビル管理盤151の現在の状態、移動経路またはタスクを上記のAIモデルに読み込ませることで、処理部110が、移動体150の到着時間または充電による休憩時間などを推測することができる。また、処理部110が、上記のAIモデルによってユーザー140からの予想外の問いにも応えられ、また、伝えることができる情報が増えることで会話のパターンを増やすことができる。When the user 140 inputs the current state, movement route, or task of the mobile object 150 or the building control panel 151 into the AI model, the processing unit 110 can estimate the arrival time of the mobile object 150 or the rest time for charging. In addition, the processing unit 110 can respond to unexpected questions from the user 140 using the AI model, and the number of conversation patterns can be increased by increasing the amount of information that can be conveyed.

<第2の実施の形態>
本実施の形態に関するキャラクターインタラクションシステム、および、キャラクターインタラクション方法について説明する。なお、以下の説明においては、以上に記載された実施の形態で説明された構成要素と同様の構成要素については同じ符号を付して図示し、その詳細な説明については適宜省略するものとする。
Second Embodiment
A character interaction system and a character interaction method according to the present embodiment will be described. In the following description, components similar to those described in the above embodiment will be illustrated with the same reference numerals, and detailed description thereof will be omitted as appropriate.

<キャラクターインタラクションシステムの構成について>
図12は、本実施の形態に関するキャラクターインタラクションシステムの構成の例を概念的に示す図である。図12に例が示されるように、キャラクターインタラクションシステム1Aは、処理部110と、キャラクター130を表示する入出力装置120Aとを備える。入出力装置120Aは、複数の表示装置121A、表示装置121Bおよび表示装置121Cを備える。
<Character interaction system configuration>
Fig. 12 is a diagram conceptually illustrating an example of the configuration of a character interaction system according to this embodiment. As illustrated in the example in Fig. 12, the character interaction system 1A includes a processing unit 110 and an input/output device 120A that displays a character 130. The input/output device 120A includes a plurality of display devices 121A, 121B, and 121C.

表示装置121A、表示装置121Bおよび表示装置121Cは互いに直接接続される、または、処理部110を介して接続される。入出力装置120Aに表示されるキャラクター130は、表示装置121A、表示装置121Bおよび表示装置121Cの間を移動して表示可能であり、ユーザー140に対して複数の表示装置に跨って連続的にサービスを提供することができる。この際、処理部110は、表示装置121A、表示装置121Bおよび表示装置121C、ユーザー140(さらには移動体150)の位置情報を取得する必要がある。Display device 121A, display device 121B, and display device 121C are connected to each other directly or via processing unit 110. Character 130 displayed on input/output device 120A can be displayed by moving between display device 121A, display device 121B, and display device 121C, and can provide services to user 140 continuously across multiple display devices. At this time, processing unit 110 needs to acquire position information of display device 121A, display device 121B, display device 121C, and user 140 (and further mobile object 150).

たとえば、ナビゲーションのようなサービスにおいて、同一のキャラクター130がユーザー140の移動に合わせて道の案内、展示物の紹介、または、ユーザー140からは見えていないロボットの移動に合わせた停止依頼などのサービスを行うことができる。なお、表示装置は表示装置121A、表示装置121Bおよび表示装置121Cのように3台のみである必要はなく、10台などさらに多くの数となってもよい。For example, in a service such as navigation, the same character 130 can provide services such as route guidance, introductions to exhibits, or requests to stop a robot that is not visible to the user 140 in accordance with its movement, in line with the user's 140 movements. Note that the number of display devices does not need to be limited to three, such as display device 121A, display device 121B, and display device 121C, and may be even greater, such as ten.

図13は、複数の表示装置に順次表示されるキャラクター130がユーザー140に情報を提供する例を示す図である。図13では、ユーザー140の移動に合わせて、キャラクターインタラクションシステム1の表示装置121D、表示装置121A、表示装置121B、表示装置121Cの順に表示されるキャラクター130が、それぞれの場所での展示物の紹介などを行っている(会話形式で伝えている)。 Figure 13 is a diagram showing an example in which characters 130 displayed in sequence on multiple display devices provide information to a user 140. In Figure 13, characters 130 are displayed in the order of display device 121D, display device 121A, display device 121B, and display device 121C of the character interaction system 1 in accordance with the movement of the user 140, and introduce exhibits at each location (communicating in a conversational format).

図14は、複数の表示装置に順次表示されるキャラクター130がユーザー140に情報を提供する他の例を示す図である。図14では、ユーザー140の移動に合わせて、キャラクターインタラクションシステム1の表示装置121A、表示装置121Bの順に表示されるキャラクター130が、ユーザー140の死角に位置するロボット214がユーザー140の前を通ることを通知している(会話形式で伝えている)。 Figure 14 is a diagram showing another example in which a character 130 displayed sequentially on multiple display devices provides information to a user 140. In Figure 14, the character 130 displayed in turn on display device 121A and then display device 121B of the character interaction system 1 in accordance with the movement of the user 140 notifies the user 140 (in a conversational format) that a robot 214 located in the user's blind spot will pass in front of the user 140.

図15、図16および図17は、複数の表示装置に順次表示されるキャラクター130がユーザー140に情報を提供する他の例を示す図である。図15、図16および図17では、表示装置121Aにはマイク221Aが搭載されており、表示装置121Bにはマイク221Bが搭載されているものとする(図中の搭載位置は例示である)。図15、図16および図17では、ユーザーの移動に合わせて、キャラクターインタラクションシステム1の表示装置121A、表示装置121Bの順に表示されるキャラクター130が、ユーザーを誘導している。この際、キャラクター130は、表示装置121Aと表示装置121Bとの間を連続的に移動して見えるように、それぞれの表示装置でフェードインおよびフェードアウトを順次行って表示される(表示装置の配置によっては、複数の表示装置に一時的に跨りながら表示される)。15, 16, and 17 are diagrams showing another example in which a character 130 displayed sequentially on multiple display devices provides information to a user 140. In FIG. 15, 16, and 17, it is assumed that a microphone 221A is mounted on the display device 121A, and a microphone 221B is mounted on the display device 121B (the mounting positions in the figures are examples). In FIG. 15, 16, and 17, the character 130 displayed on the display device 121A and then on the display device 121B of the character interaction system 1 guides the user in accordance with the user's movement. In this case, the character 130 is displayed by fading in and out sequentially on each display device so that it appears to move continuously between the display device 121A and the display device 121B (depending on the arrangement of the display devices, it may be displayed while temporarily spanning multiple display devices).

顔を有するキャラクター130が表示装置121A、表示装置121Bまたは表示装置121Cに表示されて話をする場合、ユーザー140の注意はキャラクター130が表示されている表示装置に向き、ユーザー140はそちらに向かって会話をしようとする。そのため、キャラクター130が表示されている際にはその特定の方向(キャラクター130が表示されている表示装置に向かう方向)のマイクの感度を高めることで、ノイズ耐性を高めながら言語コミュニケーションの精度を高めることができる。When a character 130 with a face is displayed on display device 121A, display device 121B, or display device 121C and speaks, the attention of user 140 is directed to the display device on which character 130 is displayed, and user 140 tries to talk in that direction. Therefore, by increasing the sensitivity of the microphone in that specific direction (the direction toward the display device on which character 130 is displayed) when character 130 is displayed, it is possible to increase noise resistance while improving the accuracy of verbal communication.

たとえば、表示装置121Aにキャラクター130が表示されている場合、表示装置121Aの位置情報とユーザー140の位置情報とに基づいて、ユーザー140の位置に近いマイク221Aの感度を高めることができる。その後、表示装置121Aに表示されていたキャラクター130が表示装置121Bに移動した場合には、表示装置121Bの位置情報とユーザー140の位置情報とに基づいて、ユーザー140の位置に近いマイク221Bの感度を高めることができる。For example, when a character 130 is displayed on display device 121A, the sensitivity of microphone 221A close to the position of user 140 can be increased based on the position information of display device 121A and the position information of user 140. If character 130 that was displayed on display device 121A subsequently moves to display device 121B, the sensitivity of microphone 221B close to the position of user 140 can be increased based on the position information of display device 121B and the position information of user 140.

表示装置は、ユーザー140が所持するスマートフォンの表示画面であってもよい。その場合、スマートフォンのアプリを用いてユーザー140の位置情報と移動体150の移動とを連動させることで、ユーザー140がスマートフォンに注目した際に移動体150のサービスを止めたり、逆にユーザー140が移動体150に注目した際にスマートフォンの動きを止めたりすることができる。The display device may be the display screen of a smartphone carried by the user 140. In this case, by linking the location information of the user 140 with the movement of the mobile object 150 using an app on the smartphone, it is possible to stop the service of the mobile object 150 when the user 140 focuses on the smartphone, or conversely, to stop the movement of the smartphone when the user 140 focuses on the mobile object 150.

<キャラクターインタラクションシステムのハードウェア構成について>
図18および図19は、図1に例が示されるキャラクターインタラクションシステムを実際に運用する場合のハードウェア構成を概略的に例示する図である。
<Hardware configuration for the character interaction system>
18 and 19 are diagrams illustrating an example of a hardware configuration when the character interaction system shown in FIG. 1 is actually operated.

なお、図18および図19に例示されるハードウェア構成は、図1に例示される構成とは数などが整合しない場合があるが、これは図1に例示される構成が概念的な単位を示すものであることに起因する。 Note that the hardware configurations illustrated in Figures 18 and 19 may not match the numbers, etc., of the configuration illustrated in Figure 1, but this is because the configuration illustrated in Figure 1 represents a conceptual unit.

よって、少なくとも、図1に例示される1つの構成が、図18および図19に例示される複数のハードウェア構成から成る場合と、図1に例示される1つの構成が、図18および図19に例示されるハードウェア構成の一部に対応する場合と、さらには、図1に例示される複数の構成が、図18および図19に例示される1つのハードウェア構成に備えられる場合とが想定され得る。Therefore, at least the following cases can be envisaged: a configuration illustrated in FIG. 1 is composed of multiple hardware configurations illustrated in FIG. 18 and FIG. 19; a configuration illustrated in FIG. 1 corresponds to a part of a hardware configuration illustrated in FIG. 18 and FIG. 19; and further, multiple configurations illustrated in FIG. 1 are provided in a single hardware configuration illustrated in FIG. 18 and FIG. 19.

図18では、図1中の処理部110および入出力装置120などを実現するためのハードウェア構成として、演算を行う処理回路1102Aと、情報を記憶することができる記憶装置1103と、マウス、キーボード、タッチパネル、または、各種スイッチなどの、情報を入力することができる入力装置1104Aと、ディスプレイ、液晶表示装置、または、ランプなどの、情報を出力することができる出力装置1105A(入力装置1104Aと共用である場合を含む)とが示される。当該構成は、上記のいずれの実施の形態においても同様である。 In Fig. 18, the hardware configuration for realizing the processing unit 110 and the input/output device 120 in Fig. 1 includes a processing circuit 1102A that performs calculations, a storage device 1103 that can store information, an input device 1104A that can input information such as a mouse, a keyboard, a touch panel, or various switches, and an output device 1105A (including cases where it is shared with the input device 1104A) that can output information such as a display, a liquid crystal display device, or a lamp. This configuration is similar in all of the above embodiments.

図19では、図1中の処理部110および入出力装置120などを実現するためのハードウェア構成として、演算を行う処理回路1102Bと、マウス、キーボード、タッチパネル、または、各種スイッチなどの、情報を入力することができる入力装置1104Bと、ディスプレイ、液晶表示装置、または、ランプなどの、情報の出力を行うことができる出力装置1105B(入力装置1104Bと共用である場合を含む)とが示される。当該構成は、上記のいずれの実施の形態においても同様である。 In Fig. 19, the hardware configuration for realizing the processing unit 110 and the input/output device 120 in Fig. 1 includes a processing circuit 1102B that performs calculations, an input device 1104B that can input information, such as a mouse, keyboard, touch panel, or various switches, and an output device 1105B (including cases where it is shared with the input device 1104B) that can output information, such as a display, liquid crystal display device, or lamp. This configuration is similar in all of the above embodiments.

記憶装置1103は、たとえば、ハードディスクドライブ(Hard disk drive、すなわち、HDD)、ランダムアクセスメモリ(random access memory、すなわち、RAM)、リードオンリーメモリ(read only memory、すなわち、ROM)、フラッシュメモリ、erasable programmable read only memory(EPROM)およびelectrically erasable programmable read-only memory(EEPROM)などの、揮発性または不揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスクまたはDVDなどを含むメモリ(記録媒体)、または、今後使用されるあらゆる記録媒体であってもよい。 The storage device 1103 may be, for example, a hard disk drive (HDD), random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable programmable read-only memory (EEPROM), or other volatile or non-volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD, or any other memory medium to be used in the future.

処理回路1102Aは、記憶装置1103、外部のCD-ROM、外部のDVD-ROM、または、外部のフラッシュメモリなどに格納されたプログラムを実行するものであってもよい。すなわち、たとえば、中央演算処理装置(central processing unit、すなわち、CPU)、マイクロプロセッサ、マイクロコンピュータ、デジタルシグナルプロセッサ(digital signal processor、すなわち、DSP)であってもよい。The processing circuit 1102A may execute a program stored in the storage device 1103, an external CD-ROM, an external DVD-ROM, or an external flash memory. That is, the processing circuit 1102A may be, for example, a central processing unit (CPU), a microprocessor, a microcomputer, or a digital signal processor (DSP).

処理回路1102Aが記憶装置1103、外部のCD-ROM、外部のDVD-ROM、または、外部のフラッシュメモリなどに格納されたプログラムを実行するものである場合、処理部110および入出力装置120は、記憶装置1103に格納されたプログラムが処理回路1102Aによって実行されるソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。なお、処理部110および入出力装置120の機能は、たとえば、複数の処理回路が連携することによって実現されてもよい。 When the processing circuit 1102A executes a program stored in the storage device 1103, an external CD-ROM, an external DVD-ROM, or an external flash memory, the processing unit 110 and the input/output device 120 are realized by software, firmware, or a combination of software and firmware, in which the program stored in the storage device 1103 is executed by the processing circuit 1102A. Note that the functions of the processing unit 110 and the input/output device 120 may be realized, for example, by multiple processing circuits working together.

ソフトウェアおよびファームウェアはプログラムとして記述され、記憶装置1103に記憶されるものであってもよい。その場合、処理回路1102Aは、記憶装置1103に格納されたプログラムを読み出して実行することによって、上記の機能を実現する。すなわち、記憶装置1103は、処理回路1102Aに実行されることによって、上記の機能が結果的に実現されるプログラムを記憶するものであってもよい。The software and firmware may be written as a program and stored in the memory device 1103. In this case, the processing circuit 1102A realizes the above functions by reading and executing the program stored in the memory device 1103. In other words, the memory device 1103 may store a program that, when executed by the processing circuit 1102A, results in the above functions being realized.

また、処理回路1102Bは、専用のハードウェアであってもよい。すなわち、たとえば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、集積回路(application specific integrated circuit、すなわち、ASIC)、field-programmable gate array(FPGA)またはこれらを組み合わせた回路であってもよい。Processing circuit 1102B may also be dedicated hardware, i.e., a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof.

処理回路1102Bが専用のハードウェアである場合、処理部110および入出力装置120は、処理回路1102Bが動作することにより実現される。なお、処理部110および入出力装置120の機能は、別々の回路で実現されてもよいし、単一の回路で実現されてもよい。When the processing circuit 1102B is a dedicated hardware, the processing unit 110 and the input/output device 120 are realized by the operation of the processing circuit 1102B. Note that the functions of the processing unit 110 and the input/output device 120 may be realized by separate circuits or by a single circuit.

なお、処理部110および入出力装置120の機能は、一部が記憶装置1103に格納されたプログラムを実行するものである処理回路1102Aにおいて実現され、一部が専用のハードウェアである処理回路1102Bにおいて実現されてもよい。 The functions of the processing unit 110 and the input/output device 120 may be partly realized in a processing circuit 1102A which executes a program stored in the memory device 1103, and partly realized in a processing circuit 1102B which is dedicated hardware.

また、入出力装置120は、入力装置1104Aまたは入力装置1104Bによって実現される。 Furthermore, the input/output device 120 is realized by the input device 1104A or the input device 1104B.

また、入出力装置120は、出力装置1105Aまたは出力装置1105Bによって実現される(入力装置と共用であってもよい)。 In addition, the input/output device 120 is realized by the output device 1105A or the output device 1105B (which may be shared with the input device).

<以上に記載された複数の実施の形態によって生じる効果について>
次に、以上に記載された複数の実施の形態によって生じる効果の例を示す。なお、以下の説明においては、以上に記載された複数の実施の形態に例が示された具体的な構成に基づいて当該効果が記載されるが、同様の効果が生じる範囲で、本願明細書に例が示される他の具体的な構成と置き換えられてもよい。すなわち、以下では便宜上、対応づけられる具体的な構成のうちのいずれか1つのみが代表して記載される場合があるが、代表して記載された具体的な構成が対応づけられる他の具体的な構成に置き換えられてもよい。
<Effects of the above-described embodiments>
Next, examples of effects produced by the above-described embodiments are shown. In the following description, the effects are described based on the specific configurations shown as examples in the above-described embodiments, but may be replaced with other specific configurations shown as examples in this specification as long as the same effects are produced. In other words, for convenience, only one of the corresponding specific configurations may be described as a representative below, but the representatively described specific configuration may be replaced with another corresponding specific configuration.

また、当該置き換えは、複数の実施の形態に跨ってなされてもよい。すなわち、異なる実施の形態において例が示されたそれぞれの構成が組み合わされて、同様の効果が生じる場合であってもよい。Moreover, the replacement may be made across multiple embodiments. In other words, configurations shown as examples in different embodiments may be combined to produce the same effect.

以上に記載された実施の形態によれば、キャラクターインタラクションシステムは、情報処理部111と、応答処理部112とを備える。情報処理部111は、限られた空間内に設けられた設備に関する情報である設備情報を処理する。応答処理部112は、ユーザー140からの入力に応じて設備情報を提供する。そして、応答処理部112は、入出力装置120(または、入出力装置120A)に設けられる少なくとも1つの表示装置121(または、表示装置121A、表示装置121B、表示装置121C)に表示されるキャラクター130を通じてユーザー140に設備情報を伝達するよう、入出力装置120(または、入出力装置120A)に接続される。 According to the embodiment described above, the character interaction system includes an information processing unit 111 and a response processing unit 112. The information processing unit 111 processes facility information, which is information related to facilities provided within a limited space. The response processing unit 112 provides the facility information in response to an input from a user 140. The response processing unit 112 is connected to the input/output device 120 (or the input/output device 120A) so as to convey the facility information to the user 140 through a character 130 displayed on at least one display device 121 (or the display device 121A, the display device 121B, the display device 121C) provided in the input/output device 120 (or the input/output device 120A).

また、以上に記載された実施の形態によれば、キャラクターインタラクションシステムは、入力装置1104Aと、出力装置1105Aと、プログラムを実行する処理回路1102Aと、実行されるプログラムを記憶する記憶装置1103とを備える。そして、処理回路1102Aがプログラムを実行することによって、以下の動作が実現される。Furthermore, according to the embodiment described above, the character interaction system includes an input device 1104A, an output device 1105A, a processing circuit 1102A that executes a program, and a storage device 1103 that stores the program to be executed. The processing circuit 1102A executes the program to realize the following operations:

すなわち、限られた空間内に設けられた設備に関する情報である設備情報が処理される。そして、ユーザー140からの入力に応じて設備情報が提供される。ここで、設備情報の提供は、入出力装置120(または、入出力装置120A)に設けられる少なくとも1つの表示装置121(または、表示装置121A、表示装置121B、表示装置121C)に表示されるキャラクター130を通じてユーザー140に設備情報を伝達するように行われる。That is, facility information, which is information about facilities installed within a limited space, is processed. Then, the facility information is provided in response to input from the user 140. Here, the facility information is provided so as to convey the facility information to the user 140 through a character 130 displayed on at least one display device 121 (or display device 121A, display device 121B, display device 121C) provided in the input/output device 120 (or input/output device 120A).

また、以上に記載された実施の形態によれば、キャラクターインタラクションシステムは、入力装置1104Bと、出力装置1105Bと、専用のハードウェアである処理回路1102Bを備える。そして、専用のハードウェアである処理回路1102Bは、以下の動作を行う。 Furthermore, according to the embodiment described above, the character interaction system includes an input device 1104B, an output device 1105B, and a processing circuit 1102B which is dedicated hardware. The processing circuit 1102B which is dedicated hardware performs the following operations:

すなわち、専用のハードウェアである処理回路1102Bは、限られた空間内に設けられた設備に関する情報である設備情報を処理する。そして、ユーザー140からの入力に応じて設備情報を提供する。ここで、設備情報を提供することは、入出力装置120(または、入出力装置120A)に設けられる少なくとも1つの表示装置121(または、表示装置121A、表示装置121B、表示装置121C)に表示されるキャラクター130を通じてユーザー140に設備情報を伝達するように行われる。That is, the processing circuit 1102B, which is dedicated hardware, processes facility information, which is information about facilities installed within a limited space. Then, the facility information is provided in response to an input from the user 140. Here, the facility information is provided by conveying the facility information to the user 140 through a character 130 displayed on at least one display device 121 (or display device 121A, display device 121B, display device 121C) installed in the input/output device 120 (or input/output device 120A).

このような構成によれば、設備情報が提示される際にキャラクター130が表示されるため、ユーザー140がキャラクター130をインターフェイスとして認識してインタラクションしやすくなる。キャラクター130が顔を有することで、ユーザー140がキャラクター130の顔をターゲットとして認識し、インタラクションの敷居を下げることができる。 With this configuration, the character 130 is displayed when facility information is presented, making it easier for the user 140 to recognize the character 130 as an interface and interact with it. Since the character 130 has a face, the user 140 can recognize the character 130's face as a target, lowering the barrier to interaction.

なお、上記の構成に本願明細書に例が示された他の構成を適宜追加した場合、すなわち、上記の構成としては言及されなかった本願明細書中の他の構成が適宜追加された場合であっても、同様の効果を生じさせることができる。 Furthermore, the same effect can be achieved even if other configurations, examples of which are shown in this specification, are added to the above configuration as appropriate, i.e., other configurations in this specification that were not mentioned as the above configuration are added as appropriate.

また、以上に記載された実施の形態によれば、情報処理部111が移動体150と通信して、移動体150に設けられた設備の設備情報を処理する。このような構成によれば、エレベータまたはロボットなどの移動体はユーザー140とのインタラクションが難しいが、キャラクター130をインターフェイスの仲介としてインタラクションすることで、インタラクションの敷居を効果的に下げ、ユーザー140が移動体の状態を容易に把握することができる。Furthermore, according to the embodiment described above, the information processing unit 111 communicates with the mobile body 150 and processes equipment information of the equipment installed in the mobile body 150. According to such a configuration, although it is difficult for a mobile body such as an elevator or a robot to interact with the user 140, by interacting with the character 130 as an interface intermediary, the threshold for interaction is effectively lowered and the user 140 can easily grasp the status of the mobile body.

また、以上に記載された実施の形態によれば、キャラクターインタラクションシステムは、入出力装置120(または、入出力装置120A)を備える。このような構成によれば、設備情報が提示される際にキャラクター130が表示されるため、ユーザー140がキャラクター130をインターフェイスとして認識してインタラクションしやすくなる。 Furthermore, according to the embodiment described above, the character interaction system includes an input/output device 120 (or an input/output device 120A). With such a configuration, a character 130 is displayed when facility information is presented, making it easier for a user 140 to recognize the character 130 as an interface and interact with it.

また、以上に記載された実施の形態によれば、情報処理部111がビル管理盤151と通信して、ビル内に設けられた設備の設備情報を処理する。このような構成によれば、エレベータ、ロボットの位置またはサービス状態などを含むビル内の情報を、キャラクター130を介してユーザー140へ効果的に提供することができる。Furthermore, according to the embodiment described above, the information processing unit 111 communicates with the building management panel 151 to process facility information for facilities installed within the building. With this configuration, information within the building, including elevators, robot positions, service status, and the like, can be effectively provided to the user 140 via the character 130.

また、以上に記載された実施の形態によれば、表示装置121A(または、表示装置121B、表示装置121C)が、入出力装置120Aに複数設けられる。応答処理部112が、複数の表示装置121A(または、表示装置121B、表示装置121C)間で連続的にキャラクター130を表示させてユーザー140に設備情報を伝達する。このような構成によれば、複数の表示装置を連携させてキャラクター130を表示することで、キャラクター130を媒介として表示装置間のつながりをユーザー140に理解しやすくすることができる。それによって、広い空間内で継続的に一貫したサービスをユーザー140へ提供することができ、キャラクター130の存在が現実の3次元空間にいるように錯覚させることもできる。よって、特に空間のナビゲーションにおけるユーザー140の理解を深めることができる。また、異なる空間位置の表示装置の特性を連携して、ユーザー140の視界に映るサイネージに連続的に表示することで、同一のキャラクター130がその間をスムーズに移動したと認識させることができる。 According to the embodiment described above, the input/output device 120A is provided with a plurality of display devices 121A (or display devices 121B, 121C). The response processing unit 112 continuously displays the characters 130 between the plurality of display devices 121A (or display devices 121B, 121C) to transmit facility information to the user 140. According to such a configuration, by linking the plurality of display devices to display the characters 130, the user 140 can easily understand the connection between the display devices through the characters 130. As a result, a continuous and consistent service can be provided to the user 140 in a large space, and the user 140 can be given the illusion that the character 130 is in a real three-dimensional space. Therefore, the user 140 can deepen his/her understanding of spatial navigation in particular. In addition, by linking the characteristics of the display devices at different spatial positions and continuously displaying them on the signage reflected in the user's field of vision, the user 140 can recognize that the same character 130 has moved smoothly between them.

また、以上に記載された実施の形態によれば、応答処理部112が、オペレータによって遠隔操作可能である。このような構成によれば、キャラクター130を介するキャラクターインタラクションシステムにおいて、緊急時においては自動応答と有人オペレータによる応答とを切り替えることができるため、非常事態における対応の柔軟性を高めることができる。 In addition, according to the embodiment described above, the response processing unit 112 can be remotely operated by an operator. With such a configuration, in an emergency, in a character interaction system via a character 130, it is possible to switch between an automatic response and a response by a manned operator, thereby increasing the flexibility of responses in emergency situations.

また、以上に記載された実施の形態によれば、表示装置121(または、表示装置121A、表示装置121B、表示装置121C)にマイク221A(または、マイク221B)が搭載される。そして、応答処理部112が、キャラクター130が表示される付近のマイク221A(または、マイク221B)の感度を高める。このような構成によれば、顔を有するキャラクター130が話すことで、ユーザー140がキャラクター130の方を向いてインタラクションすることを誘導することができる。よって、ノイズが高い環境下であってもユーザー140に効果的に情報を提供することができる。 Furthermore, according to the embodiment described above, the display device 121 (or the display device 121A, the display device 121B, the display device 121C) is equipped with a microphone 221A (or the microphone 221B). Then, the response processing unit 112 increases the sensitivity of the microphone 221A (or the microphone 221B) in the vicinity where the character 130 is displayed. With this configuration, when the character 130 having a face speaks, it is possible to induce the user 140 to turn towards the character 130 and interact with it. Therefore, information can be effectively provided to the user 140 even in a high-noise environment.

また、以上に記載された実施の形態によれば、応答処理部112が、表示装置121におけるキャラクター130が、ユーザー140と会話する際に複数の方向に視線および顔を向けるように表示させる。このような構成によれば、ユーザー140がどの方向にいる場合であっても、キャラクター130の視線および顔を様々な方法に振ることで、ユーザー140に誤解させてインタラクションが成功しているように感じさせることができる。Furthermore, according to the embodiment described above, the response processing unit 112 displays the character 130 on the display device 121 to turn its gaze and face in multiple directions when conversing with the user 140. With this configuration, regardless of the direction in which the user 140 is facing, the gaze and face of the character 130 can be directed in various ways to mislead the user 140 into thinking that the interaction is successful.

また、以上に記載された実施の形態によれば、応答処理部112が、ユーザー140からの入力に応じて提供される応答としての設備情報を、機械学習によって生成された学習済モデルを用いて出力する。このような構成によれば、応答の精度を高めることができる。また、システムのソースコード(マシン語)のままで学習済モデルを作成することで、学習済モデルの更新コストを低減させることができるとともに、ユーザー140からの問いへの対応数も増やすことができる。 Furthermore, according to the embodiment described above, the response processing unit 112 outputs facility information as a response provided in response to an input from the user 140, using a trained model generated by machine learning. With such a configuration, it is possible to improve the accuracy of the response. Also, by creating a trained model using the source code (machine language) of the system as is, it is possible to reduce the update cost of the trained model and also to increase the number of responses to questions from the user 140.

また、以上に記載された実施の形態によれば、応答処理部112が、少なくともユーザー140の位置情報および表示装置121の位置情報を取得する。そして、応答処理部112が、ユーザー140の位置情報に基づいて、対応する位置情報を有する表示装置121にキャラクター130を表示させる。このような構成によれば、ユーザー140の位置に応じて提供する設備情報の内容を変更し、様々なサービスを提供することができる。 Furthermore, according to the embodiment described above, the response processing unit 112 acquires at least the location information of the user 140 and the location information of the display device 121. Then, based on the location information of the user 140, the response processing unit 112 causes the display device 121 having the corresponding location information to display the character 130. According to such a configuration, the content of the facility information provided can be changed depending on the location of the user 140, and various services can be provided.

以上に記載された実施の形態によれば、キャラクターインタラクション方法において、限られた空間内に設けられた設備に関する情報である設備情報を処理する。そして、ユーザー140からの入力に応じて設備情報を提供する。ここで、設備情報を提供することは、入出力装置120(または、入出力装置120A)に設けられる少なくとも1つの表示装置121(または、表示装置121A、表示装置121B、表示装置121C)に表示されるキャラクター130を通じてユーザー140に設備情報を伝達するように行われる。 According to the embodiment described above, in the character interaction method, facility information, which is information relating to facilities provided within a limited space, is processed. Then, the facility information is provided in response to an input from the user 140. Here, the facility information is provided by transmitting the facility information to the user 140 through the character 130 displayed on at least one display device 121 (or display device 121A, display device 121B, display device 121C) provided in the input/output device 120 (or input/output device 120A).

このような構成によれば、設備情報が提示される際にキャラクター130が表示されるため、ユーザー140がキャラクター130をインターフェイスとして認識してインタラクションしやすくなる。 With this configuration, the character 130 is displayed when facility information is presented, making it easier for the user 140 to recognize the character 130 as an interface and interact with it.

なお、特段の制限がない場合には、それぞれの処理が行われる順序は変更することができる。 In addition, unless there are special restrictions, the order in which each process is performed may be changed.

また、上記の構成に本願明細書に例が示された他の構成を適宜追加した場合、すなわち、上記の構成としては言及されなかった本願明細書中の他の構成が適宜追加された場合であっても、同様の効果を生じさせることができる。Furthermore, the same effect can be achieved even if other configurations, examples of which are given in this specification, are added to the above configuration, as appropriate, i.e., other configurations in this specification that were not mentioned as the above configuration are added as appropriate.

<以上に記載された複数の実施の形態の変形例について>
以上に記載された複数の実施の形態では、それぞれの構成要素の寸法、形状、相対的配置関係または実施の条件などについても記載する場合があるが、これらはすべての局面においてひとつの例であって、限定的なものではない。
<Modifications of the above-described embodiments>
In the multiple embodiments described above, the dimensions, shapes, relative positional relationships, and implementation conditions of each component may be described, but these are merely examples in all aspects and are not limiting.

したがって、例が示されていない無数の変形例と均等物とが、本願明細書に開示される技術の範囲内において想定される。たとえば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの実施の形態における少なくとも1つの構成要素を抽出し、他の実施の形態における構成要素と組み合わせる場合が含まれるものとする。Therefore, countless variations and equivalents not shown are assumed within the scope of the technology disclosed in the present specification. For example, this includes modifying, adding, or omitting at least one component, and further including extracting at least one component in at least one embodiment and combining it with a component in another embodiment.

また、矛盾が生じない限り、以上に記載された実施の形態において「1つ」の構成要素が備えられる、と記載された場合に、当該構成要素が「1つ以上」備えられていてもよい。 Furthermore, unless a contradiction arises, when it is stated in the embodiments described above that "one" component is provided, "one or more" of that component may be provided.

また、本願明細書における説明は、本技術に関連するすべての目的のために参照され、いずれも、従来技術であると認めるものではない。 Furthermore, the descriptions in this specification are incorporated by reference for all purposes related to the present technology, and none of them are admitted to be prior art.

また、以上に記載された実施の形態で記載されたそれぞれの構成要素は、ソフトウェアまたはファームウェアとしても、それと対応するハードウェアとしても想定され、ソフトウェアとしては、たとえば「部」などを称され、ハードウェアとしては、たとえば「処理回路」(circuitry)などと称される。 Furthermore, each of the components described in the embodiments described above is envisaged as either software or firmware, or as corresponding hardware, and as software it is referred to as, for example, a "unit", and as hardware it is referred to as, for example, a "processing circuit" (circuitry).

また、本願明細書に開示される技術は、それぞれの構成要素が複数の装置に分散して備えられる場合、すなわち、複数の装置の組み合わせとしてのシステムのような態様であってもよいものとする。 In addition, the technology disclosed in this specification may also be implemented in a form such as a system in which each component is distributed across multiple devices, i.e., a combination of multiple devices.

1 キャラクターインタラクションシステム、1A キャラクターインタラクションシステム、100 空間、110 処理部、111 情報処理部、112 応答処理部、120 入出力装置、120A 入出力装置、121 表示装置、121A 表示装置、121B 表示装置、121C 表示装置、121D 表示装置、122 音声出力、123 音声入力、124 映像入力、125 センサー入出力、130 キャラクター、140 ユーザー、150 移動体、151 ビル管理盤、152 インターネット通信部、153 オペレータ、200 ロボット、202 入退室管理システム、204 ロボット、206 ロボット、208 エレベータ、210 ロボット、212 ロボット、214 ロボット、221A マイク、221B マイク、1102A 処理回路、1102B 処理回路、1103 記憶装置、1104A 入力装置、1104B 入力装置、1105A 出力装置、1105B 出力装置。1 Character interaction system, 1A Character interaction system, 100 Space, 110 Processing section, 111 Information processing section, 112 Response processing section, 120 Input/output device, 120A Input/output device, 121 Display device, 121A Display device, 121B Display device, 121C Display device, 121D Display device, 122 Audio output, 123 Audio input, 124 Video input, 125 Sensor input/output, 130 Character, 140 User, 150 Mobile body, 151 Building management panel, 152 Internet communication section, 153 Operator, 200 Robot, 202 Entrance/exit management system, 204 Robot, 206 Robot, 208 Elevator, 210 Robot, 212 Robot, 214 Robot, 221A Microphone, 221B Microphone, 1102A Processing circuit, 1102B Processing circuit, 1103 memory device, 1104A input device, 1104B input device, 1105A output device, 1105B output device.

Claims (12)

設備に関する情報であり、ビルの管理情報を含む設備情報を処理するための情報処理部と、
ユーザーからの入力に応じて前記設備情報を提供するための応答処理部とを備え、
前記応答処理部が、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達するよう、前記入出力装置に接続され、
前記ビルの管理情報は、入退室管理装置から取得される、
キャラクターインタラクションシステム。
an information processing unit for processing facility information including building management information ;
a response processing unit for providing the facility information in response to an input from a user,
The response processing unit is connected to the input/output device so as to convey the facility information to the user through a character displayed on at least one display device provided in the input/output device;
The building management information is acquired from an entrance and exit management device.
Character interaction system.
設備に関する情報であり、ビルの管理情報を含む設備情報を処理するための情報処理部と、
ユーザーからの入力に応じて前記設備情報を提供するための応答処理部とを備え、
前記応答処理部が、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達するよう、前記入出力装置に接続され、
前記ビルの管理情報は、エレベータから取得される、
キャラクターインタラクションシステム。
an information processing unit for processing facility information including building management information ;
a response processing unit for providing the facility information in response to an input from a user,
The response processing unit is connected to the input/output device so as to convey the facility information to the user through a character displayed on at least one display device provided in the input/output device;
The building management information is obtained from an elevator .
Character interaction system.
請求項1または2に記載の前記情報処理部および前記応答処理部と接続するための入出力機能を備え、前記表示装置に表示される前記キャラクターを通じて前記ユーザーに前記設備情報を伝達する前記入出力装置を備える、
キャラクターインタラクションシステム。
The input/output device includes an input/output function for connecting to the information processing unit and the response processing unit according to claim 1 or 2 , and transmits the facility information to the user through the character displayed on the display device.
Character interaction system.
設備に関する情報であり、ビルの管理情報を含む設備情報を処理するための情報処理部と、
ユーザーからの入力に応じて前記設備情報を提供するための応答処理部と、
前記情報処理部および前記応答処理部と接続するための入出力機能を備え、少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達する入出力装置とを備え、
前記応答処理部が、前記入出力装置に設けられる前記表示装置に表示される前記キャラクターを通じて前記ユーザーに前記設備情報を伝達するよう、前記入出力装置に接続され、
前記ビルの管理情報は、入退室管理装置から取得される、
キャラクターインタラクションシステム。
an information processing unit for processing facility information including building management information ;
a response processing unit for providing the facility information in response to an input from a user;
an input/output device having an input/output function for connecting to the information processing unit and the response processing unit and transmitting the facility information to the user through a character displayed on at least one display device;
The response processing unit is connected to the input/output device so as to convey the facility information to the user through the character displayed on the display device provided in the input/output device;
The building management information is acquired from an entrance and exit management device.
Character interaction system.
設備に関する情報であり、ビルの管理情報を含む設備情報を処理するための情報処理部と、
ユーザーからの入力に応じて前記設備情報を提供するための応答処理部と、
前記情報処理部および前記応答処理部と接続するための入出力機能を備え、少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達する入出力装置とを備え、
前記応答処理部が、前記入出力装置に設けられる前記表示装置に表示される前記キャラクターを通じて前記ユーザーに前記設備情報を伝達するよう、前記入出力装置に接続され、
前記ビルの管理情報は、エレベータから取得される、
キャラクターインタラクションシステム。
an information processing unit for processing facility information including building management information ;
a response processing unit for providing the facility information in response to an input from a user;
an input/output device having an input/output function for connecting to the information processing unit and the response processing unit and transmitting the facility information to the user through a character displayed on at least one display device;
The response processing unit is connected to the input/output device so as to convey the facility information to the user through the character displayed on the display device provided in the input/output device;
The building management information is obtained from an elevator .
Character interaction system.
請求項1または2に記載のキャラクターインタラクションシステムであり、
前記情報処理部がビル管理盤と通信して、ビル内に設けられた前記設備の前記設備情報を処理する、
キャラクターインタラクションシステム。
3. A character interaction system according to claim 1 or 2 ,
The information processing unit communicates with a building management panel to process the equipment information of the equipment installed in the building.
Character interaction system.
請求項1または2に記載のキャラクターインタラクションシステムであり、
前記応答処理部が、オペレータによって遠隔操作可能である、
キャラクターインタラクションシステム。
3. A character interaction system according to claim 1 or 2 ,
The response processing unit is remotely operable by an operator.
Character interaction system.
請求項1または2に記載のキャラクターインタラクションシステムであり、
前記表示装置にマイクが搭載され、
前記応答処理部が、前記キャラクターが表示される付近の前記マイクの感度を高める、
キャラクターインタラクションシステム。
3. A character interaction system according to claim 1 or 2 ,
The display device is equipped with a microphone,
The response processing unit increases the sensitivity of the microphone in the vicinity where the character is displayed.
Character interaction system.
請求項1または2に記載のキャラクターインタラクションシステムであり、
前記応答処理部が、前記表示装置における前記キャラクターが、前記ユーザーと会話する際に複数の方向に視線および顔を向けるように表示させる、
キャラクターインタラクションシステム。
3. A character interaction system according to claim 1 or 2 ,
the response processing unit displays the character on the display device so as to turn its gaze and face in a plurality of directions when conversing with the user;
Character interaction system.
請求項1または2に記載のキャラクターインタラクションシステムであり、
前記応答処理部が、前記ユーザーからの入力に応じて提供される応答としての前記設備情報を、機械学習によって生成された学習済モデルを用いて出力する、
キャラクターインタラクションシステム。
3. A character interaction system according to claim 1 or 2 ,
The response processing unit outputs the facility information as a response provided in response to the input from the user, using a trained model generated by machine learning.
Character interaction system.
コンピュータが、
設備に関する情報であり、ビルの管理情報を含む設備情報を処理するステップと、
ユーザーからの入力に応じて前記設備情報を提供するステップと、
を実行し、
前記設備情報を提供するステップは、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達するように行われ、
前記ビルの管理情報は、入退室管理装置から取得される、
キャラクターインタラクション方法。
The computer
processing facility information , the facility information including building management information ;
providing the facility information in response to an input from a user;
Run
The step of providing the facility information is performed by conveying the facility information to the user through a character displayed on at least one display device provided in an input/output device;
The building management information is acquired from an entrance and exit management device.
Character interaction methods.
コンピュータが、
設備に関する情報であり、ビルの管理情報を含む設備情報を処理するステップと、
ユーザーからの入力に応じて前記設備情報を提供するステップと、
を実行し、
前記設備情報を提供するステップは、入出力装置に設けられる少なくとも1つの表示装置に表示されるキャラクターを通じて前記ユーザーに前記設備情報を伝達するように行われ、
前記ビルの管理情報は、エレベータから取得される、
キャラクターインタラクション方法。
The computer
processing facility information , the facility information including building management information ;
providing the facility information in response to an input from a user;
Run
The step of providing the facility information is performed by conveying the facility information to the user through a character displayed on at least one display device provided in an input/output device;
The building management information is obtained from an elevator .
Character interaction methods.
JP2023551190A 2023-06-19 2023-06-19 Character interaction system and character interaction method Active JP7527496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023180796A JP2025000529A (en) 2023-06-19 2023-10-20 Character interaction system and character interaction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/022638 WO2024261825A1 (en) 2023-06-19 2023-06-19 Character interaction system and character interaction method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023180796A Division JP2025000529A (en) 2023-06-19 2023-10-20 Character interaction system and character interaction method

Publications (1)

Publication Number Publication Date
JP7527496B1 true JP7527496B1 (en) 2024-08-02

Family

ID=91969319

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023551190A Active JP7527496B1 (en) 2023-06-19 2023-06-19 Character interaction system and character interaction method
JP2023180796A Pending JP2025000529A (en) 2023-06-19 2023-10-20 Character interaction system and character interaction method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023180796A Pending JP2025000529A (en) 2023-06-19 2023-10-20 Character interaction system and character interaction method

Country Status (2)

Country Link
JP (2) JP7527496B1 (en)
WO (1) WO2024261825A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267754A (en) 2005-03-25 2006-10-05 Keikaku Gijutsu Kenkyusho:Kk Voice guidance apparatus using weak electric wave
WO2014061142A1 (en) 2012-10-18 2014-04-24 株式会社安川電機 Guiding assistance system and guiding assistance method
JP2019194800A (en) 2018-05-02 2019-11-07 ハウステンボス株式会社 Food and drink providing system
JP2020013316A (en) 2018-07-18 2020-01-23 株式会社Epark Waiting list management system, waiting list management method, and waiting list management program
JP2021081767A (en) 2019-11-14 2021-05-27 株式会社バカン Store retrieval apparatus and store retrieval application program
JP2021135598A (en) 2020-02-25 2021-09-13 株式会社内田洋行 Conference room management system, conference room management method and program
JP2022054294A (en) 2020-09-25 2022-04-06 セコム株式会社 Interactive guiding device
JP2023072821A (en) 2021-11-15 2023-05-25 三菱電機株式会社 Elevator device and building facility management system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942840B2 (en) * 2012-12-21 2016-06-29 ソニー株式会社 Display control system and recording medium
JP6938980B2 (en) * 2017-03-14 2021-09-22 富士フイルムビジネスイノベーション株式会社 Information processing equipment, information processing methods and programs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267754A (en) 2005-03-25 2006-10-05 Keikaku Gijutsu Kenkyusho:Kk Voice guidance apparatus using weak electric wave
WO2014061142A1 (en) 2012-10-18 2014-04-24 株式会社安川電機 Guiding assistance system and guiding assistance method
JP2019194800A (en) 2018-05-02 2019-11-07 ハウステンボス株式会社 Food and drink providing system
JP2020013316A (en) 2018-07-18 2020-01-23 株式会社Epark Waiting list management system, waiting list management method, and waiting list management program
JP2021081767A (en) 2019-11-14 2021-05-27 株式会社バカン Store retrieval apparatus and store retrieval application program
JP2021135598A (en) 2020-02-25 2021-09-13 株式会社内田洋行 Conference room management system, conference room management method and program
JP2022054294A (en) 2020-09-25 2022-04-06 セコム株式会社 Interactive guiding device
JP2023072821A (en) 2021-11-15 2023-05-25 三菱電機株式会社 Elevator device and building facility management system

Also Published As

Publication number Publication date
JP2025000529A (en) 2025-01-07
WO2024261825A1 (en) 2024-12-26

Similar Documents

Publication Publication Date Title
US11307593B2 (en) Artificial intelligence device for guiding arrangement location of air cleaning device and operating method thereof
KR102696200B1 (en) Artificial intelligence device providing voice recognition service and operating method thereof
US9079749B2 (en) Simple node transportation system and node controller and vehicle controller therein
US20200019779A1 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
US11269342B2 (en) Robot cleaner for avoiding stuck situation through artificial intelligence and method of operating the same
US11568239B2 (en) Artificial intelligence server and method for providing information to user
US11383379B2 (en) Artificial intelligence server for controlling plurality of robots and method for the same
KR102303785B1 (en) Artificial intelligence server and method for setting language of robot
US20190354178A1 (en) Artificial intelligence device capable of being controlled according to user action and method of operating the same
US11769047B2 (en) Artificial intelligence apparatus using a plurality of output layers and method for same
US20200012289A1 (en) Robot cleaner for performing cleaning using artificial intelligence and method of operating the same
KR20190095193A (en) An artificial intelligence apparatus for managing operation of artificial intelligence system and method for the same
US11938959B2 (en) Driving assistance device, system thereof, and method thereof
US20190377362A1 (en) Artificial intelligence device installed in vehicle and method therefor
KR20190094312A (en) Control system for controlling a plurality of robots using artificial intelligence
KR102231922B1 (en) Artificial intelligence server for controlling a plurality of robots using artificial intelligence
KR102720843B1 (en) Robot providing guide service using artificial intelligence and operating method thereof
CN112154018B (en) Control device, control method, and program
JP7527496B1 (en) Character interaction system and character interaction method
KR20190098934A (en) Robor for providing guide service using artificial intelligence and operating method thereof
JP2025000545A (en) Character interaction system and character interaction method
KR102229562B1 (en) Artificial intelligence device for providing voice recognition service and operating mewthod thereof
US11595227B2 (en) Artificial intelligence device and operating method thereof
US11074814B2 (en) Portable apparatus for providing notification
CN112238454B (en) Robot management device, robot management method, and robot management system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230823

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240122

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240723

R150 Certificate of patent or registration of utility model

Ref document number: 7527496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150