[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6681429B2 - Network system, server, and information processing method - Google Patents

Network system, server, and information processing method Download PDF

Info

Publication number
JP6681429B2
JP6681429B2 JP2018100465A JP2018100465A JP6681429B2 JP 6681429 B2 JP6681429 B2 JP 6681429B2 JP 2018100465 A JP2018100465 A JP 2018100465A JP 2018100465 A JP2018100465 A JP 2018100465A JP 6681429 B2 JP6681429 B2 JP 6681429B2
Authority
JP
Japan
Prior art keywords
communication terminal
user
server
voice
home
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018100465A
Other languages
Japanese (ja)
Other versions
JP2019204405A (en
Inventor
芳和 青木
芳和 青木
孝之 永松
孝之 永松
竹内 正樹
正樹 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018100465A priority Critical patent/JP6681429B2/en
Priority to CN201910181439.1A priority patent/CN110533378A/en
Publication of JP2019204405A publication Critical patent/JP2019204405A/en
Application granted granted Critical
Publication of JP6681429B2 publication Critical patent/JP6681429B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Operations Research (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、通信端末に音声メッセージを出力させるための技術に関する。   The present invention relates to a technique for causing a communication terminal to output a voice message.

従来から、ネットワークを介して各種の端末に音声メッセージを出力させるための技術が知られている。たとえば、特開2017−220248号公報(特許文献1)には、ネットワークシステム、サーバ、および情報処理方法が開示されている。特許文献1によると、ネットワークシステムは、複数種類の音声データを記憶することが可能な少なくとも1つの機器と、少なくとも1つの機器に、音声データを取得させるための第1の指示を送信し、音声データに基づいて音声を出力させるための第2の指示を第1の指示とは異なるタイミングにて送信するためのサーバとを備える。   BACKGROUND ART Conventionally, a technique for outputting a voice message to various terminals via a network is known. For example, Japanese Patent Laying-Open No. 2017-220248 (Patent Document 1) discloses a network system, a server, and an information processing method. According to Patent Document 1, a network system transmits at least one device capable of storing a plurality of types of audio data and a first instruction for causing at least one device to acquire the audio data, And a server for transmitting a second instruction for outputting a voice based on the data at a timing different from that of the first instruction.

特開2017−220248号公報JP, 2017-220248, A

本発明の目的は、従来よりも効率的に音声メッセージを出力することができるネットワークシステム、サーバ、または情報処理方法を提供することにある。   An object of the present invention is to provide a network system, a server, or an information processing method capable of outputting a voice message more efficiently than before.

この発明のある態様に従うと、第1の通信端末と、第2の通信端末と、第1の通信端末が外出中は第1の通信端末に音声出力またはテキスト出力させ、第1の通信端末が在宅中は第2の通信端末に音声出力させるためのサーバとを備える、ネットワークシステムが提供される。   According to an aspect of the present invention, the first communication terminal, the second communication terminal, and the first communication terminal are caused to output voice or text while the first communication terminal is out, and the first communication terminal A network system is provided that includes a server for causing the second communication terminal to output a voice while at home.

以上のように、この発明によれば、従来よりも効率的に音声メッセージを出力することができるネットワークシステム、サーバ、または情報処理方法が提供される。   As described above, the present invention provides a network system, a server, or an information processing method capable of outputting a voice message more efficiently than before.

第1の実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。It is an image figure which shows the whole structure and operation outline of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかるサーバ100の構成を表わすブロック図である。It is a block diagram showing a configuration of a server 100 according to the first exemplary embodiment. 第1の実施の形態にかかるユーザデータ121を示すイメージ図である。It is an image figure which shows the user data 121 concerning 1st Embodiment. 第1の実施の形態にかかる機器データ122を示すイメージ図である。It is an image figure which shows the apparatus data 122 concerning 1st Embodiment. 第1の実施の形態にかかるメッセージデータ123を示すイメージ図である。It is an image figure which shows the message data 123 concerning 1st Embodiment. 第1の実施の形態にかかるサーバ100の情報処理を示すフローチャートである。5 is a flowchart showing information processing of the server 100 according to the first embodiment. 第1の実施の形態にかかる在宅通信端末200の構成を表わすブロック図である。It is a block diagram showing a configuration of a home communication terminal 200 according to the first embodiment. 第1の実施の形態にかかる移動通信端末300の構成を表わすブロック図である。FIG. 3 is a block diagram showing a configuration of mobile communication terminal 300 according to the first embodiment. 第2の実施の形態にかかるユーザデータ121Bを示すイメージ図である。It is an image figure which shows the user data 121B concerning 2nd Embodiment. 第4の実施の形態にかかるユーザデータ121Dを示すイメージ図である。It is an image figure which shows the user data 121D concerning 4th Embodiment. 第1の実施の形態にかかるメッセージデータの具体例を示すイメージ図である。It is an image figure which shows the specific example of the message data concerning 1st Embodiment. 第1の実施の形態にかかる条件データの具体例を示すイメージ図である。It is an image figure which shows the specific example of the condition data concerning 1st Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステム1の全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system 1>

まず、図1を参照して本実施の形態にかかるネットワークシステム1の全体構成について説明する。本実施の形態にかかるネットワークシステム1は、主に、音声メッセージを提供するためのサーバ100と、ロボット200Aやスピーカや家電などの宅内で利用される可能性が高い通信端末と、ウェアラブル端末300Aやスマートフォン300Bなどのユーザに携帯されて宅外で使用されることも多い通信端末とを含む。以下では、ロボット200Aやスピーカや家電などの宅内で利用される可能性が高い通信端末を総称して在宅通信端末200ともいい、ウェアラブル端末300Aやスマートフォン300Bなどのユーザに携帯されて宅外で使用されることも多い通信端末を総称して移動通信端末300ともいう。
<ネットワークシステム1の動作概要>
First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIG. The network system 1 according to the present embodiment mainly includes a server 100 for providing a voice message, a communication terminal that is likely to be used in a home such as a robot 200A, a speaker, and a home electric appliance, and a wearable terminal 300A. It includes a communication terminal that is often carried by a user such as the smartphone 300B and used outside the home. Hereinafter, communication terminals that are likely to be used in the home such as the robot 200A, the speaker, and the home appliances are collectively referred to as the home communication terminal 200, and are used by the user such as the wearable terminal 300A and the smartphone 300B to be used outside the home. Communication terminals that are often used are also collectively referred to as mobile communication terminals 300.
<Outline of operation of network system 1>

次に、本実施の形態にかかるネットワークシステム1の第1の動作概要について説明する。図1(A)に示すように、サーバ100は、ユーザに向けて出力すべきメッセージが準備されたとき、当該ユーザが在宅中であるときは、当該ユーザに対応付けられている在宅通信端末200に当該メッセージを音声出力させる。そして、図1(B)に示すように、ユーザすなわち移動通信端末300が外出すると、サーバ100は、移動通信端末300にユーザ向けのメッセージを音声出力させる。ただし、サーバ100からのデータに基づいて、移動通信端末300はメッセージをテキスト表示してもよい。そして、図1(C)に示すように、ユーザが帰宅すると、サーバ100は、在宅通信端末200にユーザ向けのメッセージを音声出力させる。   Next, a first operation outline of the network system 1 according to the present embodiment will be described. As shown in FIG. 1A, when a message to be output to a user is prepared, the server 100, when the user is at home, the home communication terminal 200 associated with the user. To output the message by voice. Then, as shown in FIG. 1B, when the user, that is, the mobile communication terminal 300 goes out, the server 100 causes the mobile communication terminal 300 to output a message for the user by voice. However, the mobile communication terminal 300 may display the message in text based on the data from the server 100. Then, as shown in FIG. 1C, when the user returns home, the server 100 causes the home communication terminal 200 to output a message for the user by voice.

このように、本実施の形態にかかるネットワークシステム1においては、ユーザが外出中にはユーザが携帯している移動通信端末300に音声を出力させ、ユーザが帰宅すると宅内に置かれている在宅通信端末200に音声を出力させる。以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。
<サーバ100のハードウェア構成>
As described above, in the network system 1 according to the present embodiment, when the user is out, the mobile communication terminal 300 carried by the user is caused to output a voice, and when the user returns home, the home communication is placed in the home. Causes the terminal 200 to output sound. Hereinafter, a specific configuration of the network system 1 for realizing such a function will be described in detail.
<Hardware configuration of server 100>

まず、本実施の形態にかかるネットワークシステム1を構成するサーバ100の構成の一態様について説明する。図2を参照して、サーバ100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、ディスプレイ130と、操作部140と、通信インターフェイス160とを含む。   First, one aspect of the configuration of the server 100 configuring the network system 1 according to the present embodiment will be described. Referring to FIG. 2, server 100 includes a CPU (Central Processing Unit) 110, a memory 120, a display 130, an operation unit 140, and a communication interface 160 as main components.

CPU110は、メモリ120に記憶されているプログラムを実行することによって、サーバ100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。   The CPU 110 controls each unit of the server 100 by executing the program stored in the memory 120. For example, the CPU 110 executes a program stored in the memory 120 and refers to various types of data to execute various types of processing described below.

メモリ120は、各種のRAM、各種のROMなどによって実現され、サーバ100に内包されているものであってもよいし、サーバ100の各種インターフェイスに着脱可能なものであってもよいし、サーバ100からアクセス可能な他の装置の記録媒体であってもよい。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力されたデータ、その他の本実施の形態にかかるサービスに利用されるデータベースなどを記憶する。たとえば、本実施の形態にかかるメモリ120は、ユーザデータ121や、機器データ122や、メッセージデータ123や、その他の音声提供サービスに利用される各種データを格納する。   The memory 120 is realized by various types of RAM, various types of ROM, and the like, and may be included in the server 100, removable from various interfaces of the server 100, or the server 100. It may be a recording medium of another device accessible from. The memory 120 stores a program executed by the CPU 110, data generated by execution of the program by the CPU 110, input data, and a database used for other services according to the present embodiment. For example, the memory 120 according to the present embodiment stores user data 121, device data 122, message data 123, and other various data used for voice providing services.

本実施の形態にかかるユーザデータ121は、図3に示すように、ユーザ毎に、主に、ユーザIDと、ユーザ名と、ユーザの電子メールアドレスと、ユーザの自宅の住所などの対応関係を含む。ユーザの自宅の住所などは、在宅通信端末200もしくは、移動通信端末300から類推されるGPS情報などを含んでもよい。   As shown in FIG. 3, the user data 121 according to the present embodiment mainly shows a correspondence relationship such as a user ID, a user name, a user's e-mail address, and a user's home address for each user. Including. The home address of the user and the like may include GPS information that is inferred from the home communication terminal 200 or the mobile communication terminal 300.

本実施の形態にかかる機器データ122は、図4に示すように、電気機器毎に、主に、電気機器を一意に特定できるIDと、電気機器の種類と、ユーザIDと、在宅フラグと、外出前の歩数と、外出後の歩数と、外出の期間と、移動距離などの対応関係を含む。機器データ122は、このようなデータに限らず、移動通信端末300が取得できる加速度の情報や、在宅通信端末200が取得できるユーザ命令などを含んでもよい。   As shown in FIG. 4, the device data 122 according to the present embodiment mainly includes, for each electric device, an ID that can uniquely identify the electric device, a type of the electric device, a user ID, and a home flag. It includes correspondences such as the number of steps before going out, the number of steps after going out, the period of going out, and the moving distance. The device data 122 is not limited to such data, and may include information on acceleration that the mobile communication terminal 300 can acquire, a user command that the home communication terminal 200 can acquire, and the like.

また、本実施の形態においては、サーバ100のCPU110は、通信機器に関して、その種類が、ウェアラブル端末やスマートフォンなどの携帯性が高い通信機器である場合は移動通信端末300と認識し、ロボットやスピーカやパーソナルコンピュータやテレビなどのように外出時に携帯する可能性が低い通信機器である場合は、在宅通信端末200と認識する。   Further, in the present embodiment, CPU 110 of server 100 recognizes that the type of communication device is a mobile communication terminal 300 when the type is a highly portable communication device such as a wearable terminal or a smartphone, and a robot or speaker is used. If it is a communication device that is unlikely to be carried when going out, such as a personal computer or a television, it is recognized as the home communication terminal 200.

本実施の形態にかかるメッセージデータ123は、図5に示すように、メッセージ毎に、メッセージのIDと、メッセージを出力するための条件と、メッセージの内容などの対応関係を含む。メッセージを出力するための条件は、移動通信端末300によって外出時に取得される各種データを参照しないと条件判断ができないものと、外出時の各種データがなくても条件が満たされるものとが登録されている。   As shown in FIG. 5, the message data 123 according to this exemplary embodiment includes, for each message, a message ID, a condition for outputting the message, and a correspondence relationship such as the content of the message. The conditions for outputting the message are registered such that the condition cannot be determined without referring to various data obtained by the mobile communication terminal 300 when going out, and that the condition is satisfied even when there is no various data when going out. ing.

具体的には、たとえば、メモリ120は、メッセージデータとして、図11に示すように、条件A〜Fや時間帯に対応するメッセージを格納する。そして、メモリ120は、条件データとして、図12に示すように、ユーザの歩数または移動距離と、ユーザの外出時間と、条件A〜Fとの対応関係を格納する。すなわち、CPU110は、条件データを参照して、ユーザ毎に当てはまる条件を特定し、メッセージデータを参照して、条件に対応するメッセージを決定する。   Specifically, for example, the memory 120 stores, as message data, messages corresponding to conditions A to F and time zones as shown in FIG. Then, as shown in FIG. 12, the memory 120 stores, as condition data, a correspondence relationship between the user's step count or moving distance, the user's outing time, and conditions A to F. That is, the CPU 110 identifies the condition applicable to each user by referring to the condition data, and determines the message corresponding to the condition by referring to the message data.

図2に戻って、ディスプレイ130は、CPU110からの信号に基づいて、テキストや画像を表示する。操作部140は、サービスの管理者などの命令を受け付けて、当該命令をCPU110に入力する。   Returning to FIG. 2, the display 130 displays a text or an image based on a signal from the CPU 110. The operation unit 140 receives a command from a service manager or the like and inputs the command to the CPU 110.

通信インターフェイス160は、CPU110からのデータを、インターネット、キャリア網、ルータなどを介して、在宅通信端末200や移動通信端末300などの他の装置に送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介して在宅通信端末200や移動通信端末300などの他の装置からのデータを受信して、CPU110に受け渡す。
<サーバ100の情報処理>
The communication interface 160 transmits the data from the CPU 110 to another device such as the home communication terminal 200 or the mobile communication terminal 300 via the Internet, a carrier network, a router, or the like. Conversely, the communication interface 160 receives data from other devices such as the home communication terminal 200 and the mobile communication terminal 300 via the Internet, a carrier network, a router, etc., and transfers the data to the CPU 110.
<Information processing of server 100>

次に、図6を参照して、本実施の形態にかかるサーバ100の情報処理について説明する。本実施の形態にかかるサーバ100のCPU110は、定期的に移動通信端末300や在宅通信端末200から各種のデータを取得する。本実施の形態においては、CPU110は、移動通信端末300や在宅通信端末200からデータを受信すると以下の処理を実行する。   Next, with reference to FIG. 6, information processing of the server 100 according to the present embodiment will be described. The CPU 110 of the server 100 according to the present embodiment periodically acquires various data from the mobile communication terminal 300 and the home communication terminal 200. In the present embodiment, CPU 110 executes the following processing when receiving data from mobile communication terminal 300 or home communication terminal 200.

CPU110は、ユーザデータ121や機器データ122を参照して、ユーザに対応する移動通信端末300がユーザの自宅にあるか否かを判断する(ステップS102)。移動通信端末300が外出中である場合(ステップS102においてNOの場合)、CPU110は、通信インターフェイス160を介して、移動通信端末300に外出時用のメッセージを音声出力させる(ステップS130)。ただし、サーバ100からのデータに基づいて、移動通信端末300はメッセージを表示してもよい。   The CPU 110 refers to the user data 121 and the device data 122 and determines whether or not the mobile communication terminal 300 corresponding to the user is at the user's home (step S102). When mobile communication terminal 300 is out (NO in step S102), CPU 110 causes mobile communication terminal 300 to output a message for going out by voice through communication interface 160 (step S130). However, the mobile communication terminal 300 may display a message based on the data from the server 100.

移動通信端末300が在宅中である場合(ステップS102においてYESの場合)、CPU110は、ユーザデータ121や機器データ122を参照して、移動通信端末300のユーザに対応する在宅通信端末200が登録されているか否かを判断する(ステップS104)。在宅通信端末200が登録されていない場合(ステップS104においてNOの場合)、CPU110は、通信インターフェイス160を介して、移動通信端末300に在宅時用のメッセージを音声出力させる(ステップS140)。ただし、サーバ100からのデータに基づいて、移動通信端末300はメッセージを表示してもよい。   When mobile communication terminal 300 is at home (YES in step S102), CPU 110 refers to user data 121 and device data 122 and registers home communication terminal 200 corresponding to the user of mobile communication terminal 300. It is determined whether or not (step S104). If home communication terminal 200 is not registered (NO in step S104), CPU 110 causes mobile communication terminal 300 to output a message for home communication by voice through communication interface 160 (step S140). However, the mobile communication terminal 300 may display a message based on the data from the server 100.

在宅通信端末200が登録されている場合(ステップS104においてYESの場合)、CPU110は、これ以降、移動通信端末300が外出するまで、メッセージの音声出力機器を当該在宅通信端末200に切り替える(ステップS106)。   If home communication terminal 200 is registered (YES in step S104), CPU 110 thereafter switches the voice output device of the message to home communication terminal 200 until mobile communication terminal 300 goes out (step S106). ).

CPU110は、通信インターフェイス160を利用して、在宅通信端末200を介して、移動通信端末300を利用して取得できた各種データ、たとえばユーザの歩数や移動距離や加速度センサを利用して取得したデータなど、を利用してもよいか否かをユーザに問い合わせる(ステップS112)。なお、当該ステップS112の処理は、何らかの手段によってユーザからの承諾を得られていればよいものであるため、帰宅時等に毎回許諾の問い合わせを行わない形態であってもよい。   The CPU 110 uses the communication interface 160 and various data that can be acquired using the mobile communication terminal 300 via the home communication terminal 200, for example, the data acquired using the user's step count, moving distance, or an acceleration sensor. And the like are inquired to the user (step S112). Note that the process of step S112 may be performed without asking for permission each time the user returns home, etc., as long as the user's consent is obtained by some means.

ユーザの承諾が得られた場合(ステップS112においてYESの場合)、CPU110は、通信インターフェイス160を介して移動通信端末300から、各種のデータ、たとえば外出中の歩数や、移動距離や、行先や、外出期間や、移動通信端末300の加速度データなど、を取得して、機器データ122に登録する(ステップS114)。CPU110は、取得したデータに基づいて、メッセージデータ123を参照して、音声出力すべき第1のメッセージを特定する。第1のメッセージは、ユーザの外出に関するものであることが好ましい。CPU110は、通信インターフェイス160を介して、在宅通信端末200に第1のメッセージを音声出力する(ステップS116)。   When the user's consent is obtained (YES in step S112), CPU 110 transmits various data from mobile communication terminal 300 via communication interface 160, such as the number of steps taken while out, the distance traveled, the destination, and the like. The outing period, the acceleration data of the mobile communication terminal 300, and the like are acquired and registered in the device data 122 (step S114). Based on the acquired data, the CPU 110 refers to the message data 123 and identifies the first message to be voice output. The first message preferably relates to the user's outing. The CPU 110 outputs the first message by voice to the home communication terminal 200 via the communication interface 160 (step S116).

たとえば、外出中の移動距離が100m以上10km以内の場合は、CPU110は、メッセージデータ123を参照して、在宅通信端末200に、「お帰り。お疲れ様。」とねぎらいのメッセージを音声出力させる。たとえば、外出中の移動距離が10km以上100km以内の場合は、CPU110は、メッセージデータ123を参照して、在宅通信端末200に、「お帰りなさい。今日もお疲れ様でした。」とねぎらいのメッセージを音声出力させる。たとえば、外出中の移動距離が100km以上の場合は、CPU110は、メッセージデータ123を参照して、在宅通信端末200に、「今日は遠くまで行ったからお疲れでしょう。ゆっくり休んでくださいね。」とねぎらいのメッセージを音声出力させる。外出中の移動距離が100m以内の場合には、CPU110は、メッセージデータ123を参照して、特にメッセージを音声出力させない。   For example, when the moving distance while going out is 100 m or more and 10 km or less, the CPU 110 refers to the message data 123 and causes the home communication terminal 200 to voice-output a message saying “Welcome home. For example, when the distance traveled while going out is 10 km or more and 100 km or less, the CPU 110 refers to the message data 123 and instructs the at-home communication terminal 200 to send a message saying “Welcome home. Thank you for your work today”. Output audio. For example, when the distance traveled while going out is 100 km or more, the CPU 110 refers to the message data 123 and informs the home communication terminal 200, “I'm tired because I went a long distance today. Please take a rest slowly.” Let's give a voice output of a message of "Onionai". When the moving distance during going out is within 100 m, the CPU 110 refers to the message data 123 and does not particularly output a message by voice.

たとえば、CPU110は、機器データ122を参照して、外出前の歩数と外出後の歩数に基づいて外出中の歩数を計算してもよい。そして、CPU110は、外出中の歩数に基づいて、メッセージデータ123を参照して、ねぎらいのメッセージを出力してもよい。あるいは、歩数の計測は電力を多く消費するため、CPU110は、メッセージデータ123を参照して、外出中の歩数が所定値以上である場合に、移動通信端末300の充電を促すメッセージを在宅通信端末200に音声出力させてもよい。   For example, the CPU 110 may refer to the device data 122 and calculate the number of steps during going out based on the number of steps before going out and the number of steps after going out. Then, the CPU 110 may refer to the message data 123 based on the number of steps while going out, and output a message of a longing. Alternatively, since the step count measurement consumes a large amount of power, the CPU 110 refers to the message data 123 and issues a message prompting the charging of the mobile communication terminal 300 when the number of steps while out is a predetermined value or more. You may make 200 output a voice.

あるいは、大きな加速度が多数回検知された場合は、CPU110は、メッセージデータ123を参照して、「今日はお疲れでしょう。ゆっくり休んでくださいね。」とねぎらいのメッセージを音声出力させる。逆に、大きな加速度があまり検知されなかった場合は、CPU110は、メッセージデータ123を参照して、「今日はおすすめの映画が放送されますよ。」とメッセージを音声出力させる。   Alternatively, when a large acceleration is detected a large number of times, the CPU 110 refers to the message data 123 and outputs a voice of a longing message such as "You are tired today. Please rest slowly." On the other hand, when a large acceleration is not detected so much, the CPU 110 refers to the message data 123 and outputs a message saying "A recommended movie will be broadcast today."

ユーザの承諾が得られなかった場合(ステップS112においてNOの場合)、CPU110は、外出中のデータを必要としない、一般的な第2のメッセージ、たとえば「今日はいい天気ですね。きれいな満月がみられるはずですよ。」というメッセージなど、を特定する。CPU110は、通信インターフェイス160を介して、在宅通信端末200に一般的な第2のメッセージを音声出力する(ステップS120)。
<在宅通信端末200の構成>
If the user's consent has not been obtained (NO in step S112), the CPU 110 does not need the data while out, and the second general message, for example, "Today is a nice weather. You should be able to see it. " CPU 110 voice-outputs a general second message to home communication terminal 200 via communication interface 160 (step S120).
<Configuration of home communication terminal 200>

次に、図7を参照して、ネットワークシステム1を構成する在宅通信端末200の構成の一態様について説明する。本実施の形態にかかる在宅通信端末200は、主たる構成要素として、CPU210と、メモリ220と、ディスプレイ230と、操作部240と、通信インターフェイス260と、スピーカ270と、マイク280と、機器駆動部290とを含む。   Next, with reference to FIG. 7, one aspect of the configuration of the home communication terminal 200 that constitutes the network system 1 will be described. Home communication terminal 200 according to the present embodiment has, as main components, CPU 210, memory 220, display 230, operation unit 240, communication interface 260, speaker 270, microphone 280, and device drive unit 290. Including and

CPU210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、在宅通信端末200の各部を制御する。   The CPU 210 controls each unit of the home communication terminal 200 by executing a program stored in the memory 220 or an external storage medium.

メモリ220は、各種のRAMや、各種のROMなどによって実現される。メモリ220は、CPU210によって実行される調理プログラムまたは他のプログラムや、CPU210によるプログラムの実行により生成されたデータ、サーバ100やサーバ100から受信したデータ、操作部240を介して入力されたデータなどを記憶する。   The memory 220 is realized by various RAMs, various ROMs, and the like. The memory 220 stores a cooking program or another program executed by the CPU 210, data generated by executing the program by the CPU 210, data received from the server 100 or the server 100, data input via the operation unit 240, and the like. Remember.

ディスプレイ230は、CPU110からの信号に基づいて、文字や画像などを出力する。操作部240は、ボタン、タッチパネルなどによって実現され、ユーザからの命令を受け付けて、当該命令をCPU210に入力する。なお、ディスプレイ230と操作部240とは、タッチパネル250を構成してもよい。   The display 230 outputs characters, images, etc. based on the signal from the CPU 110. The operation unit 240 is realized by buttons, a touch panel, and the like, receives an instruction from the user, and inputs the instruction to the CPU 210. The display 230 and the operation unit 240 may form a touch panel 250.

通信インターフェイス260は、アンテナやコネクタなどの通信モジュールによって実現される。通信インターフェイス260は、ルータなどを介して有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。本実施の形態においては、CPU210は、通信インターフェイス260を介して、サーバ100や移動通信端末300などの他の装置から各種の制御命令を受信したり、サーバ100や移動通信端末300などの他の装置に各種の情報を送信したりする。   The communication interface 260 is realized by a communication module such as an antenna and a connector. The communication interface 260 exchanges data with other devices by wire communication or wireless communication via a router or the like. In the present embodiment, CPU 210 receives various control commands from other devices such as server 100 and mobile communication terminal 300 via communication interface 260, and other of server 100 and mobile communication terminal 300. Send various information to the device.

スピーカ270は、CPU210からの信号に基づいて、音声を出力する。マイク280は、外部からの音声に基づいて音声信号を作成し、CPU210に入力する。   The speaker 270 outputs sound based on the signal from the CPU 210. The microphone 280 creates a voice signal based on a voice from the outside and inputs it to the CPU 210.

機器駆動部290は、CPU210からの信号に基づいて、電気機器の各部(モータやアクチュエータやヒータやリモコン用赤外線発信装置など)を制御する。
<移動通信端末300の構成>
The device driving unit 290 controls each unit of the electric device (motor, actuator, heater, infrared ray transmitting device for remote controller, etc.) based on a signal from the CPU 210.
<Configuration of mobile communication terminal 300>

次に、図8を参照して、ネットワークシステム1を構成する移動通信端末300の構成の一態様について説明する。本実施の形態にかかる移動通信端末300は、主たる構成要素として、CPU310と、メモリ320と、ディスプレイ330と、操作部340と、通信インターフェイス360と、スピーカ370と、マイク380と、加速度センサ390などを含む。   Next, one aspect of the configuration of the mobile communication terminal 300 that constitutes the network system 1 will be described with reference to FIG. The mobile communication terminal 300 according to the present embodiment has CPU 310, a memory 320, a display 330, an operation unit 340, a communication interface 360, a speaker 370, a microphone 380, an acceleration sensor 390, etc. as main components. including.

CPU310は、メモリ320に記憶されているプログラムを実行することによって、移動通信端末300の各部を制御する。   CPU 310 controls each unit of mobile communication terminal 300 by executing a program stored in memory 320.

メモリ320は、各種のRAMや、各種のROMなどによって実現される。メモリ320は、各種のアプリケーションプログラムなどのCPU310によって実行されるプログラムや、CPU310によるプログラムの実行により生成されたデータ、サーバ100や在宅通信端末200から受信したデータ、操作部340を介して入力されたデータ、移動通信端末300のユーザを特定するための情報などを記憶する。   The memory 320 is realized by various RAMs and various ROMs. The memory 320 is a program executed by the CPU 310 such as various application programs, data generated by the execution of the program by the CPU 310, data received from the server 100 or the home communication terminal 200, and input via the operation unit 340. Data, information for identifying the user of mobile communication terminal 300, and the like are stored.

ディスプレイ330は、CPU310からのデータに基づいて、画像やテキストを表示する。たとえば、CPU310は、通信インターフェイス360を介してサーバ100からのテキストデータに基づいてディスプレイ330にメッセージを表示させる。操作部340は、ポインティングデバイスやスイッチなどから構成され、ユーザからの各種の命令をCPU310に入力する。なお、ユーザ端末は、ディスプレイ330と操作部340とを含むタッチパネル350を有してもよい。   The display 330 displays an image or a text based on the data from the CPU 310. For example, CPU 310 causes display 330 to display a message based on the text data from server 100 via communication interface 360. The operation unit 340 includes a pointing device, a switch, and the like, and inputs various commands from the user to the CPU 310. The user terminal may have the touch panel 350 including the display 330 and the operation unit 340.

通信インターフェイス360は、インターネットやキャリア網やルータなどを介して、サーバ100や在宅通信端末200などの他の装置との間でデータを送受信する。たとえば、CPU310は、メモリ320のアプリケーションプログラムに従って、タッチパネル350を介してユーザIDやパスワードや各種命令を受け付けたり、通信インターフェイス360を介して当該ユーザIDやパスワードや各種命令をサーバ100や在宅通信端末200などの他の装置に送信したりする。また、CPU310は、映像音声視聴用のアプリケーションプログラムに従って、通信インターフェイス360を介して画像データや音声データを取得してディスプレイ330やスピーカ370から出力する。   The communication interface 360 transmits / receives data to / from other devices such as the server 100 and the home communication terminal 200 via the Internet, a carrier network, a router, or the like. For example, the CPU 310 receives a user ID, a password, and various commands via the touch panel 350 according to an application program in the memory 320, and receives the user ID, password, and various commands via the communication interface 360 from the server 100 and the home communication terminal 200. Or send it to other devices such as. Further, the CPU 310 acquires image data and audio data via the communication interface 360 and outputs them from the display 330 and the speaker 370 in accordance with the application program for audiovisual viewing.

スピーカ370は、CPU310からのデータに基づいて音声を出力する。たとえば、CPU310は、通信インターフェイス360を介してサーバ100からの音声データをスピーカ370に出力させる。マイク380は、取得した音声信号をCPU310に入力する。たとえば、CPU310は、マイク380から取得した音声データは通信インターフェイス360を介してサーバ100に送信する。   The speaker 370 outputs a sound based on the data from the CPU 310. For example, the CPU 310 causes the speaker 370 to output the voice data from the server 100 via the communication interface 360. The microphone 380 inputs the acquired audio signal to the CPU 310. For example, CPU 310 transmits the audio data acquired from microphone 380 to server 100 via communication interface 360.

加速度センサ390は、移動通信端末300の加速度を計測してCPU310に受け渡す。CPU310は、加速度に基づいて歩数を計測したり、加速度に関する各種の情報をメモリ320に蓄積したりする。CPU310は、ユーザの承諾に基づいて、当該情報をサーバ100や在宅通信端末200に提供する。
<第2の実施の形態>
Acceleration sensor 390 measures the acceleration of mobile communication terminal 300 and transfers it to CPU 310. The CPU 310 measures the number of steps based on the acceleration and stores various kinds of information regarding the acceleration in the memory 320. The CPU 310 provides the information to the server 100 and the home communication terminal 200 based on the user's consent.
<Second Embodiment>

上記の構成に加えて、サーバ100は、ユーザに各種データの取得や利用の承諾を得る際に、ユーザ認証を行ってもよい。   In addition to the above configuration, the server 100 may perform user authentication when obtaining the user's consent to obtain or use various data.

より詳細には、本実施の形態においては、図9に示すように、ユーザデータ121Bにおいて、ユーザに対応付けてユーザの声を特定するためのデータを対応付けている。ただし、ユーザの認証情報や、パスワードやその他の情報を利用してもよい。また、機器データ122において、機器に対応付けてユーザを特定するための認証データを対応付けてもよい。   More specifically, in the present embodiment, as shown in FIG. 9, user data 121B is associated with data for identifying the user's voice in association with the user. However, user authentication information, passwords, and other information may be used. Further, in the device data 122, authentication data for identifying the user may be associated with the device.

そして、たとえば、図6のステップS112において、CPU110は、通信インターフェイス160を利用して、承諾を得る際に、移動通信端末300や在宅通信端末200を介してパスワードを取得したり、ユーザ音声に基づいて声紋認証を行ったりしてもよい。そして、CPU110は、ユーザの承諾が得られて、かつ、ユーザ認証に成功した場合(ステップS112にてYESである場合)、ステップS114からの処理を実行し、ユーザの承諾が得られなかったり、または、ユーザ認証に失敗したりした場合(ステップS112にてNOである場合)、ステップS120からの処理を実行する。
<第3の実施の形態>
Then, for example, in step S112 of FIG. 6, when using the communication interface 160, the CPU 110 acquires a password via the mobile communication terminal 300 or the home communication terminal 200, or based on a user voice, when obtaining consent. Voiceprint authentication may be performed. Then, when the user's consent is obtained and the user authentication is successful (YES in step S112), the CPU 110 executes the processing from step S114, and the user's approval is not obtained, Alternatively, if the user authentication fails (NO in step S112), the process from step S120 is executed.
<Third Embodiment>

また、ユーザの承諾が得られなかった場合(図6のステップS112においてNOである場合)は、移動通信端末300において各種データを蓄積しておき、次回にユーザの承諾が得られた場合(図6のステップS112においてYESである場合)に、それまでに蓄積されたデータをまとめて移動通信端末300がサーバ100に提供してもよい。   If the user's consent is not obtained (NO in step S112 of FIG. 6), various data is stored in the mobile communication terminal 300, and the user's approval is obtained next time (FIG. If YES in step S112 of step 6), the mobile communication terminal 300 may collectively provide the data accumulated thus far to the server 100.

あるいは、ユーザの承諾が得られなかった場合(図6のステップS112においてNOである場合)に、サーバ100が移動通信端末300から各種データを取得するだけにしておき、CPU110は、今回は当該各種データを利用せずに第2のメッセージを作成してもよい(ステップS120)。そして、次回にユーザの承諾が得られた場合(図6のステップS112においてYESである場合)に、CPU110は、それまでに蓄積されたデータをまとめて利用可能にして、第1のメッセージを作成してもよい(ステップS116)。
<第4の実施の形態>
Alternatively, when the user's consent is not obtained (NO in step S112 of FIG. 6), the server 100 only acquires various data from the mobile communication terminal 300, and the CPU 110 this time The second message may be created without using the data (step S120). Then, when the user's consent is obtained next time (YES in step S112 of FIG. 6), the CPU 110 collectively makes available the data accumulated so far and creates the first message. You may do (step S116).
<Fourth Embodiment>

さらに、在宅通信端末200は、ユーザ毎に、異なる音声のメッセージを出力してもよい。より詳細には、本実施の形態においては、図10に示すように、ユーザデータ121Dにおいて、ユーザに対応付けて音声メッセージの好みの声色の種類、たとえば性別や年齢や言葉遣いや方言など、を対応付けてもよい。   Further, the home communication terminal 200 may output different voice messages for each user. More specifically, in the present embodiment, as shown in FIG. 10, in user data 121D, the type of favorite voice color of the voice message, such as gender, age, language, dialect, etc., is associated with the user. You may match.

そして、たとえば、図6のステップS116やステップS120において、CPU110は、ユーザデータ121Dとメッセージデータ123とを参照して、ユーザの好みの声色の音声メッセージを作成して、通信インターフェイス160を介して移動通信端末300や在宅通信端末200に音声データを送信する。
<第5の実施の形態>
Then, for example, in step S116 or step S120 of FIG. 6, the CPU 110 refers to the user data 121D and the message data 123 to create a voice message of the voice color of the user's liking, and moves through the communication interface 160. The voice data is transmitted to the communication terminal 300 and the home communication terminal 200.
<Fifth Embodiment>

上記の実施の形態のネットワークシステム1の各装置の役割の一部または全部を他の装置が実行してもよい。たとえば、サーバ100や在宅通信端末200や移動通信端末300の各々の役割の一部または全部を別の装置が担ったり、それらの装置の1つ1つの役割の一部または全部を、複数の装置で分担したりしてもよい。たとえば、移動通信端末300のアプリケーションプログラムの役割の一部がサーバ100や在宅通信端末200で実現されてもよいし、サーバ100の役割がクラウド上の複数のサーバに分散されてもよい。
<まとめ>
Some or all of the roles of each device of the network system 1 of the above embodiment may be executed by another device. For example, another device plays a part or all of the roles of each of the server 100, the home communication terminal 200, and the mobile communication terminal 300, or a part or all of the roles of each of the devices is provided by a plurality of devices. You may share in. For example, a part of the role of the application program of the mobile communication terminal 300 may be realized by the server 100 or the home communication terminal 200, or the role of the server 100 may be distributed to a plurality of servers on the cloud.
<Summary>

上記の実施の形態においては、第1の通信端末300と、第2の通信端末200と、第1の通信端末300が外出中は第1の通信端末300に音声出力させ、第1の通信端末300が在宅中は第2の通信端末200に音声出力またはテキスト出力させるためのサーバ100とを備える、ネットワークシステム1が提供される。   In the above-described embodiment, the first communication terminal 300, the second communication terminal 200, and the first communication terminal 300 are caused to output a voice when the first communication terminal 300 is out, A network system 1 is provided, which includes a server 100 for causing the second communication terminal 200 to output a voice or a text while 300 is at home.

好ましくは、サーバ100は、第1の通信端末300の帰宅時に、第1の通信端末300が外出中に取得したデータを第2の通信端末200に関するサービスに利用してもよいか、第1の通信端末300または第2の通信端末200を介してユーザに承諾を求める。   Preferably, the server 100 may use the data acquired by the first communication terminal 300 when the first communication terminal 300 returns home for the service related to the second communication terminal 200, or the first communication terminal 300 may return to the home. The user is asked for consent via the communication terminal 300 or the second communication terminal 200.

好ましくは、サーバ100は、第1の通信端末300のユーザの音声に関するデータを記憶し、承諾を得る際に、第1の通信端末300または第2の通信端末200を介して入力された音声に基づいて、ユーザ認証を行う。   Preferably, the server 100 stores the data regarding the voice of the user of the first communication terminal 300, and when the consent is obtained, the voice input via the first communication terminal 300 or the second communication terminal 200 is used. Based on this, user authentication is performed.

好ましくは、承諾が得られるまで、第1の通信端末300が外出中に取得したデータが第1の通信端末300に蓄積される。   Preferably, the data acquired while the first communication terminal 300 is out is accumulated in the first communication terminal 300 until consent is obtained.

好ましくは、サーバ100は、第1の通信端末300の外出中の移動距離に応じて、または第1の通信端末300の外出期間に応じて、第2の通信端末200に出力させる音声メッセージを変える。   Preferably, the server 100 changes the voice message to be output to the second communication terminal 200, according to the moving distance of the first communication terminal 300 during the outing or according to the outing period of the first communication terminal 300. .

好ましくは、サーバ100は、第1の通信端末300の外出中の距離が長い場合または第1の通信端末300の外出期間が長い場合は、ユーザの帰宅時にユーザをねぎらうためのメッセージを第2の通信端末200に音声出力させ、第1の通信端末300の外出中の距離が短い場合または第1の通信端末300の外出期間が短い場合は、ユーザの帰宅時に第2の通信端末200に音声出力させない。   Preferably, when the first communication terminal 300 has a long outing distance or when the first communication terminal 300 has a long outing period, the server 100 sends a second message to the user when he / she comes home. If the distance when the first communication terminal 300 is out is short, or if the first communication terminal 300 is out of the house for a short period, the communication terminal 200 outputs the sound to the second communication terminal 200 when the user returns home. Do not let

好ましくは、サーバ100は、所定の条件が満たされた場合に、第2の通信端末200を介して充電を促すメッセージを音声出力させる。   Preferably, server 100 causes a message for charging to be output as voice via second communication terminal 200 when a predetermined condition is satisfied.

好ましくは、所定の条件は、第1の通信端末300が検知した加速度の情報に関する。   Preferably, the predetermined condition relates to information on acceleration detected by the first communication terminal 300.

好ましくは、所定の条件は、外出前のユーザの歩数と、帰宅時のユーザの歩数と、に関する。   Preferably, the predetermined condition relates to the number of steps of the user before going out and the number of steps of the user when returning home.

好ましくは、サーバは、外出前のユーザの歩数と、帰宅時のユーザの歩数とに応じて、第2の通信端末に出力させる音声メッセージを変える。   Preferably, the server changes the voice message output to the second communication terminal according to the number of steps of the user before going out and the number of steps of the user when returning home.

好ましくは、サーバ100は、第2の通信端末200に、第1の通信端末300のユーザ毎の声色でメッセージを音声出力させる。   Preferably, the server 100 causes the second communication terminal 200 to output the message by voice in a voice color for each user of the first communication terminal 300.

上記の実施の形態においては、第1の通信端末300および第2の通信端末200と通信するための通信インターフェイス160と、第1の通信端末300が外出中は通信インターフェイス160を介して第1の通信端末300に音声出力またはテキスト出力させ、第1の通信端末300が在宅中は通信インターフェイス160を介して第2の通信端末200に音声出力させるためのプロセッサ110とを備える、サーバ100が提供される。   In the above embodiment, the communication interface 160 for communicating with the first communication terminal 300 and the second communication terminal 200, and the first communication terminal 160 via the communication interface 160 while the first communication terminal 300 is out. A server 100 is provided, which includes a processor 110 for causing the communication terminal 300 to output voice or text and to output voice to the second communication terminal 200 via the communication interface 160 while the first communication terminal 300 is at home. It

上記の実施の形態においては、第1の通信端末300および第2の通信端末200と通信可能なサーバ100における情報処理方法が提供される。情報処理方法は、第1の通信端末300が外出中に、第1の通信端末300に音声出力またはテキスト出力させるステップと、第1の通信端末300が在宅中に、第2の通信端末200に音声出力させるステップと、を備える。   In the above embodiment, an information processing method in server 100 that can communicate with first communication terminal 300 and second communication terminal 200 is provided. The information processing method includes a step of causing the first communication terminal 300 to output a voice or a text while the first communication terminal 300 is out, and to the second communication terminal 200 while the first communication terminal 300 is at home. Audio output.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

1 :ネットワークシステム
100 :サーバ
110 :CPU
120 :メモリ
121 :ユーザデータ
121B :ユーザデータ
121D :ユーザデータ
122 :機器データ
123 :メッセージデータ
130 :ディスプレイ
140 :操作部
160 :通信インターフェイス
200 :在宅通信端末
200A :ロボット
210 :CPU
220 :メモリ
230 :ディスプレイ
240 :操作部
250 :タッチパネル
260 :通信インターフェイス
270 :スピーカ
280 :マイク
290 :機器駆動部
300 :移動通信端末
300A :ウェアラブル端末
300B :スマートフォン
310 :CPU
320 :メモリ
330 :ディスプレイ
340 :操作部
350 :タッチパネル
360 :通信インターフェイス
370 :スピーカ
380 :マイク
390 :加速度センサ
1: Network system 100: Server 110: CPU
120: Memory 121: User data 121B: User data 121D: User data 122: Device data 123: Message data 130: Display 140: Operation part 160: Communication interface 200: Home communication terminal 200A: Robot 210: CPU
220: Memory 230: Display 240: Operation part 250: Touch panel 260: Communication interface 270: Speaker 280: Microphone 290: Device drive part 300: Mobile communication terminal 300A: Wearable terminal 300B: Smartphone 310: CPU
320: Memory 330: Display 340: Operation part 350: Touch panel 360: Communication interface 370: Speaker 380: Microphone 390: Acceleration sensor

Claims (11)

第1の通信端末と、
第2の通信端末と、
前記第1の通信端末が外出中は前記第1の通信端末に音声出力またはテキスト出力させ、前記第1の通信端末が在宅中は前記第2の通信端末に音声出力させるためのサーバとを備え
前記サーバは、前記第1の通信端末の帰宅時に、前記第1の通信端末が外出中に取得したデータを前記第2の通信端末に関するサービスに利用してもよいか、前記第1の通信端末または前記第2の通信端末を介してユーザに承諾を求める、ネットワークシステム。
A first communication terminal,
A second communication terminal,
A server for causing the first communication terminal to output a voice or a text when the first communication terminal is out, and for causing the second communication terminal to output a voice when the first communication terminal is at home. ,
The server may use the data acquired by the first communication terminal when the first communication terminal returns home for the service related to the second communication terminal, or the first communication terminal. or Ru seeking consent to the user via the second communication terminal, the network system.
前記サーバは、前記第1の通信端末のユーザの音声に関するデータを記憶し、前記承諾を得る際に、前記第1の通信端末または前記第2の通信端末を介して入力された音声に基づいて、ユーザ認証を行う、請求項に記載のネットワークシステム。 The server stores data related to the voice of the user of the first communication terminal, and based on the voice input via the first communication terminal or the second communication terminal when obtaining the consent. performs user authentication, the network system according to claim 1. 前記承諾が得られるまで、前記第1の通信端末が外出中に取得したデータが前記第1の通信端末に蓄積される、請求項に記載のネットワークシステム。 The consent until is obtained, the first communication terminal data acquired on the go is stored in the first communication terminal, the network system according to claim 1. 前記サーバは、前記第1の通信端末の外出中の移動距離に応じて、または前記第1の通信端末の外出期間に応じて、前記第2の通信端末に出力させる音声メッセージを変える、請求項1からのいずれか1項に記載のネットワークシステム。 The server changes the voice message to be output to the second communication terminal according to the moving distance of the first communication terminal while out, or according to the outing period of the first communication terminal. The network system according to any one of 1 to 3 . 前記サーバは、前記第1の通信端末の外出中の距離が長い場合または前記第1の通信端末の外出期間が長い場合は、ユーザの帰宅時にユーザをねぎらうためのメッセージを前記第2の通信端末に音声出力させ、前記第1の通信端末の外出中の距離が短い場合または前記第1の通信端末の外出期間が短い場合は、ユーザの帰宅時に前記第2の通信端末に音声出力させない、請求項1からのいずれか1項に記載のネットワークシステム。 When the distance when the first communication terminal is out is long or when the first communication terminal is out of the house for a long time, the server sends a message to the user when the user comes home to the second communication terminal. If the distance during the outing of the first communication terminal is short or if the outing period of the first communication terminal is short, the second communication terminal is not allowed to output the sound when the user returns home. The network system according to any one of items 1 to 4 . 前記サーバは、所定の条件が満たされた場合に、前記第2の通信端末を介して充電を促すメッセージを音声出力させる、請求項1からのいずれか1項に記載のネットワークシステム。 The network system according to any one of claims 1 to 5 , wherein the server outputs a message prompting charging via the second communication terminal by voice when a predetermined condition is satisfied. 前記所定の条件は、前記第1の通信端末が検知した加速度の情報に関する、請求項に記載のネットワークシステム。 The network system according to claim 6 , wherein the predetermined condition relates to information on acceleration detected by the first communication terminal. 前記サーバは、外出前のユーザの歩数と、帰宅時のユーザの歩数とに応じて、前記第2の通信端末に出力させる音声メッセージを変える、請求項1からのいずれか1項に記載のネットワークシステム。 The server according to any one of claims 1 to 7 , wherein the server changes a voice message output to the second communication terminal according to the number of steps of the user before going out and the number of steps of the user when returning home. Network system. 前記サーバは、前記第2の通信端末に、前記第1の通信端末のユーザ毎の声色でメッセージを音声出力させる、請求項1からのいずれか1項に記載のネットワークシステム。 The network system according to any one of claims 1 to 8 , wherein the server causes the second communication terminal to output a message in a voice color for each user of the first communication terminal. 第1の通信端末および第2の通信端末と通信するための通信インターフェイスと、
前記第1の通信端末が外出中は前記通信インターフェイスを介して前記第1の通信端末に音声出力またはテキスト出力させ、前記第1の通信端末が在宅中は前記通信インターフェイスを介して前記第2の通信端末に音声出力させるためのプロセッサとを備え
前記プロセッサは、前記第1の通信端末の帰宅時に、前記通信インターフェイスを介して、前記第1の通信端末が外出中に取得したデータを前記第2の通信端末に関するサービスに利用してもよいか、前記第1の通信端末または前記第2の通信端末を介してユーザに承諾を求める、サーバ。
A communication interface for communicating with the first communication terminal and the second communication terminal;
When the first communication terminal is out, the first communication terminal is caused to output a voice or a text through the communication interface, and when the first communication terminal is at home, the second communication terminal is operated through the communication interface. And a processor for causing the communication terminal to output voice ,
When the first communication terminal returns home, the processor may use the data acquired while the first communication terminal is out through the communication interface for a service related to the second communication terminal. , the first communication terminal or Ru seeking consent to the user via the second communication terminal, a server.
第1の通信端末および第2の通信端末と通信可能なサーバにおける情報処理方法であって、
前記第1の通信端末が外出中に前記第1の通信端末に音声出力またはテキスト出力させるステップと、
前記第1の通信端末が在宅中に前記第2の通信端末に音声出力させるステップと、
前記第1の通信端末の帰宅時に、前記第1の通信端末が外出中に取得したデータを前記第2の通信端末に関するサービスに利用してもよいか、前記第1の通信端末または前記第2の通信端末を介してユーザに承諾を求めるステップと、を備える情報処理方法。
An information processing method in a server capable of communicating with a first communication terminal and a second communication terminal, comprising:
Causing the first communication terminal to output voice or text while the first communication terminal is out,
Causing the second communication terminal to output a voice while the first communication terminal is at home,
When the first communication terminal returns home, the data acquired while the first communication terminal is out may be used for a service related to the second communication terminal, or the first communication terminal or the second communication terminal. An information processing method , comprising the step of asking the user for consent via the communication terminal .
JP2018100465A 2018-05-25 2018-05-25 Network system, server, and information processing method Expired - Fee Related JP6681429B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018100465A JP6681429B2 (en) 2018-05-25 2018-05-25 Network system, server, and information processing method
CN201910181439.1A CN110533378A (en) 2018-05-25 2019-03-11 Network system, server and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018100465A JP6681429B2 (en) 2018-05-25 2018-05-25 Network system, server, and information processing method

Publications (2)

Publication Number Publication Date
JP2019204405A JP2019204405A (en) 2019-11-28
JP6681429B2 true JP6681429B2 (en) 2020-04-15

Family

ID=68659199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018100465A Expired - Fee Related JP6681429B2 (en) 2018-05-25 2018-05-25 Network system, server, and information processing method

Country Status (2)

Country Link
JP (1) JP6681429B2 (en)
CN (1) CN110533378A (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5224689B2 (en) * 2004-11-26 2013-07-03 富士通株式会社 Network service control method
EP2667576A4 (en) * 2011-01-19 2014-09-10 Nec Casio Mobile Comm Ltd Mobile communication device and communication method
JP6340522B2 (en) * 2013-10-10 2018-06-13 株式会社ユピテル Electronic equipment, system and program
JP6053719B2 (en) * 2014-05-14 2016-12-27 シャープ株式会社 Network system, server, terminal, information processing method, and program
CN106255963B (en) * 2014-05-15 2019-02-15 夏普株式会社 Network system, server, communication equipment and information processing method
JP6749120B2 (en) * 2016-03-30 2020-09-02 シャープ株式会社 Network system, information processing method, and server
JP6698428B2 (en) * 2016-05-25 2020-05-27 シャープ株式会社 Network system, information processing method, and server
JP6830799B2 (en) * 2016-11-18 2021-02-17 花王株式会社 Physical condition information estimation method

Also Published As

Publication number Publication date
CN110533378A (en) 2019-12-03
JP2019204405A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
EP3389230B1 (en) System for providing dialog content
US10009303B2 (en) Message push method and apparatus
CN107332976B (en) Karaoke method, device, equipment and system
MX2014012325A (en) Enabling web clients to provide web services.
US10541951B2 (en) Enhancing network messaging with a real-time, interactive representation of current messaging activity of a user&#39;s contacts and associated contacts
US20190253368A1 (en) System and method for providing conversational contents
US11102626B2 (en) Electronic device and communication relaying method thereof
US20180324228A1 (en) Communication terminal, communication system, communication management method, and medium
US20160099893A1 (en) Transmission system, communications control apparatus, transmission terminal, communications method, and transmission method
CN108306851A (en) Information acquisition method, providing method, apparatus and system
CN108521365B (en) Method for adding friends and mobile terminal
JP2019040487A (en) Network system, information processing method, and server
JP6669942B2 (en) Linked system, linked server, and device control server
WO2014169639A1 (en) Systems and methods for data exchange in voice communication
JP6681429B2 (en) Network system, server, and information processing method
JP2020067824A (en) Network system and electric device
CN112947101A (en) Control method and device of household appliance
WO2020250750A1 (en) Safety confirmation system and safety confirmation method
TWI752286B (en) External control device, voice dialogue control system, control method, recording medium and program product
JP4911076B2 (en) Karaoke equipment
CN107148011B (en) Method, device and system for executing target service
CN111756669A (en) Login request processing method, mobile device and intelligent hardware device
US20170111409A1 (en) Transmission terminal, automatic response method, and recording medium
US9479470B2 (en) Method and system of providing an instant messaging service
JP2022139942A (en) Information processing apparatus, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6681429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees