JP6861398B2 - Information processing method and information processing device - Google Patents
Information processing method and information processing device Download PDFInfo
- Publication number
- JP6861398B2 JP6861398B2 JP2017124806A JP2017124806A JP6861398B2 JP 6861398 B2 JP6861398 B2 JP 6861398B2 JP 2017124806 A JP2017124806 A JP 2017124806A JP 2017124806 A JP2017124806 A JP 2017124806A JP 6861398 B2 JP6861398 B2 JP 6861398B2
- Authority
- JP
- Japan
- Prior art keywords
- child
- notification
- adult
- state
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
本開示は、情報処理方法、及び、情報処理装置に関する。 The present disclosure relates to an information processing method and an information processing device.
子育てに関する情報共有を行うシステムにおいて、従来は子供の音声から子供の状態を診断し、子供から離れた場所にいる保護者(育児者、例えば、子供の母親)に子供の状態を通知する方法が提案されている。 In a system for sharing information about child-rearing, the conventional method is to diagnose the child's condition from the voice of the child and notify the parent (child-rearing person, for example, the mother of the child) of the child's condition away from the child. Proposed.
例えば、特許文献1では、子供の泣き声を検知し、子供の泣き声が所定の時間以上継続して発せられたことを条件として保護者の端末に状況を通知する技術が開示されている。
For example,
しかし、特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者に通知する。この技術では、子供と育児者とが共に過ごしている状況に関する情報を、他の育児者(例えば子供の父親)と共有することができない。
However, in the technique disclosed in
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。 Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-rearing persons regarding the situation in which the child and the child-rearing person are spending time together.
本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。 In the information processing method according to one aspect of the present invention, a processor is used to acquire sound information obtained by collecting sound by a sound collecting device, and a child's voice and an adult's voice included in the sound indicated by the sound information are obtained. Based on the identified and identified voice of the child, the condition of the child is determined, and based on the voice of the identified adult, the condition of the adult is determined, the condition of the child determined, and the condition of the child. , The notified is generated according to the determined state of the adult and the destination of the notification about the state of the adult, and the generated notification is transmitted to the destination.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, method, integrated circuit, computer program or computer readable CD-ROM, system, method, integrated circuit, computer program. And any combination of recording media may be realized.
本発明の情報処理方法は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援できる。 The information processing method of the present invention can support the further deepening of the understanding of other child caregivers about the situation in which the child and the child caregiver are spending time together.
(本発明の基礎となった知見)
特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者(例えば子供の母親)に通知する。この技術は、子供と共に過ごしている育児者に関する情報を、他の育児者(例えば子供の父親)又は関係者(例えば子供の祖父母)に通知するものではない。よって、これだけでは、育児者に関する情報についての他の育児者などの理解が得られない。そのため、他の育児者又は関係者に育児の状況を把握させようとする際には、育児者自らが通知を行うことを要する。育児者自らが独自に、他の育児者又は関係者に通知を行うと、他の育児者又は関係者に、意図と異なる不適切な印象を与えてしまうという問題を生じ得る。不適切な印象を与えてしまった場合には、再度の通知を行う必要が生じ、その通知のための時間又は電力などを余計に消費するという問題も生じ得る。
(Knowledge that became the basis of the present invention)
In the technique disclosed in
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。 Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-rearing persons regarding the situation in which the child and the child-rearing person are spending time together.
このような問題を解決するために、本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。 In order to solve such a problem, the information processing method according to one aspect of the present invention uses a processor to acquire sound information obtained by sound collection by a sound collecting device, and includes the sound information indicated by the sound information. The child's voice and the adult's voice are identified, the child's condition is determined based on the identified child's voice, and the adult's condition is determined based on the identified adult's voice. , The determined state of the child, the determined state of the adult, and the destination of the notification about the state of the adult, the notification is generated, and the generated notification is transmitted to the destination. To do.
上記態様によれば、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。 According to the above aspect, the notification generated according to the condition of the child and the adult is transmitted to the destination. In addition, the notification is generated according to the destination of the notification. If the adult is the child's caregiver (eg mother) and the notification is addressed to another child caregiver (eg father or grandparent) of the child, the notification indicating the condition of the child and mother is the destination (ie). It is generated and transmitted according to whether it is a father or a grandparent, etc.). Since the information generated according to the destination is notified, it is easy to obtain the understanding of other child-rearing people who are the destination. Therefore, it is possible to support the further deepening of the understanding of other child-rearing people about the situation in which the child and the child-rearing person are spending time together.
例えば、前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification having different expressions or contents depending on the destination.
上記態様によれば、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。 According to the above aspect, the notification is given to the other child-rearing person to whom the notification is sent, for example, by different expressions or contents depending on the father or grandparents. By having the appropriate expression or content depending on the destination of the notification, it is possible to support the further deepening of the understanding of other child-rearing persons who are the destination of the notification.
例えば、前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification including a symbol or sentence having a different expression or content depending on the destination and indicating the state of the adult.
上記態様によれば、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、文字情報の場合より、より直観的に通知の内容を把握できる。 According to the above aspect, a notification including a design or text is transmitted. The design or text included in the notification allows other childcare workers, who are the recipients of the notification, to grasp the content of the notification more intuitively than in the case of textual information.
例えば、前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification, which may or may not include a symbol or text indicating the state of the adult, depending on the destination.
上記態様によれば、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。 According to the above aspect, whether or not the notification includes a design or a sentence can be different depending on the destination. Depending on the destination of the notification, it may not be appropriate to include the design or text in the notification. In such a case, it is appropriate to send the notification that does not include the design or text. According to this aspect, a notification containing a symbol is sent to a destination to which a notification containing a symbol or a sentence is appropriate, and a notification containing no symbol or a sentence is sent to a destination to which a notification containing no symbol or a sentence is appropriate. Can be.
例えば、前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なってもよい。 For example, the expression or content of the symbol or the sentence may differ depending on the attributes of the destination.
上記態様によれば、通知に含まれる図柄又は文章の表現又は内容を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。 According to the above aspect, the expression or content of the design or sentence included in the notification can be different depending on the attribute of the destination. Here, the attribute of the destination means a man, a woman, a mother or a father, and the like. Then, it is possible to send a notification including a sentence having an appropriate expression according to the attribute of the destination.
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含んでもよい。 For example, the generation of the notification calculates an index according to at least one of the determined child's condition and the determined adult's condition, and only when the calculated index is higher than the threshold value. It may include generating the notification.
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。 According to the above aspect, it is possible to control whether or not to generate a notification based on an index calculated from the state of a child or the state of an adult. Thereby, it is possible to control whether or not to generate the notification concretely and quantitatively.
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含んでもよい。 For example, generating the notification calculates an index according to at least one of the determined child's condition and the determined adult's condition, and the larger the calculated index, the larger the symbol. Including The generation of the notification may be included.
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。 According to the above aspect, the size of the symbol included in the notification can be controlled based on the index calculated from the state of the child or the state of the adult. As a result, the size of the symbol included in the notification can be controlled concretely and quantitatively, which can contribute to further deepening the understanding of other child-rearing persons who are the recipients of the notification.
例えば、前記通知を生成することは、前記大人の状態を示す情報を入力装置を介して受け付け、受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含んでもよい。 For example, generating the notification receives information indicating the state of the adult via an input device, and converts the received information into information in the form issued by the child or information indicating the state of the child. This may include generating the notification.
上記態様によれば、状態を表す情報を、子供が発したかのような情報、又は、子供の状態を示す情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。 According to the above aspect, the information indicating the condition is converted into the information as if the child originated or the information indicating the condition of the child and transmitted to the other child-rearing person who is the destination, thereby raising another child. It can contribute to further deepening the understanding of people.
例えば、前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められてもよい。 For example, the destination may be determined according to the determined state of the child and the determined state of the adult.
上記態様によれば、通知の宛先が、子供の状態及び大人の状態に基づいて定められる。子供の状態及び大人の状態によっては、特定の宛先に通知することが不適切で場合があり得る。このような場合には、当該特定の宛先に通知しないようにすることができる。 According to the above aspect, the destination of the notification is determined based on the condition of the child and the condition of the adult. Depending on the condition of the child and the condition of the adult, it may be inappropriate to notify a particular destination. In such a case, it is possible not to notify the specific destination.
例えば、さらに、前記音情報が示す音に含まれる環境音を識別し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含んでもよい。 For example, further identifying the environmental sound included in the sound indicated by the sound information and determining the state of the adult is based on the identified voice of the adult and the environmental sound, and the state of the adult. May include determining.
上記態様によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 According to the above aspect, an environmental sound is further used to determine the condition of an adult. Then, a notification is generated and transmitted according to the state of the adult determined based on the environmental sound. As a result, the condition of the adult can be determined in more detail, and the notification is generated and transmitted based on this detailed determination.
例えば、前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含んでもよい。 For example, in the information processing method, further, the detection result by the sensor that detects a person is acquired and the state of the adult is determined, based on the identified voice of the adult and the detection result. It may include determining the condition of an adult.
上記態様によれば、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 According to the above aspect, a sensor is further used to determine the condition of an adult. Then, a notification is generated and transmitted according to the state of the adult determined based on the sensor. As a result, the condition of the adult can be determined in more detail, and the notification is generated and transmitted based on this detailed determination.
例えば、前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、前記通知を前記宛先へ送信することは、前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含んでもよい。 For example, in the information processing method, further acquiring the position information indicating the position of the destination and transmitting the notification to the destination means that the destination is at a predetermined position with reference to the position information. It may include sending the notification to the destination accordingly.
上記態様によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。 According to the above aspect, the notification may be transmitted according to the position of the other child-rearing person to whom the notification is sent. By sending the notification in a state where it is easy for the other child caregiver to confirm the notification, the certainty that the other child caregiver recognizes the notification may be improved.
例えば、前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含んでもよい。 For example, the predetermined position is a position where a boarding / alighting recorder related to a vehicle is installed, and in response to communication with the boarding / alighting recorder using proximity wireless communication by a terminal carried by a person related to the destination. , The notification may be transmitted to the destination.
上記態様によれば、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。 According to the above aspect, the notification is transmitted in response to the other child-rearing person getting on and off the vehicle at a timing when the other child-rearing person can easily confirm the notification. This can further improve the certainty that other caregivers will recognize the notification.
また、本発明の一態様に係る情報処理装置は、収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、生成された前記通知を前記宛先へ送信する送信部とを備える。 Further, the information processing device according to one aspect of the present invention is identified as an identification unit that identifies a child's voice and an adult's voice, which is included in the sound indicated by the sound information obtained by collecting the sound by the sound collecting device. A child state determination unit that determines the state of the child based on the voice of the child, an adult state determination unit that determines the state of the adult based on the identified voice of the adult, and the determined child. A generation unit that generates the notification and a transmission unit that transmits the generated notification to the destination according to the state, the determined state of the adult, and the destination of the notification about the adult state. To be equipped with.
これにより、上記情報処理方法と同様の効果を奏する。 As a result, the same effect as that of the above information processing method is obtained.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, method, integrated circuit, computer program or computer readable CD-ROM, system, method, integrated circuit, computer program. Alternatively, it may be realized by any combination of recording media.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that all of the embodiments described below show comprehensive or specific examples. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components.
(実施の形態1)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。
(Embodiment 1)
In the present embodiment, an information processing method for supporting the deepening of the understanding of other child-rearing persons regarding the situation in which the child and the child-rearing person are spending time together will be described.
まず、本発明者らが目指すサービスの概要について図1を参照しながら説明する。 First, the outline of the service aimed at by the present inventors will be described with reference to FIG.
図1は、本実施の形態における情報処理システム1が提供するサービスの概要を示す説明図である。
FIG. 1 is an explanatory diagram showing an outline of a service provided by the
本発明者らは、子供の状態を遠隔にいる育児者に通知する技術分野において、子供の状態からだけでは見えない育児の大変さなどのネガティブな部分、または幸福感などのポジティブな部分を、他の育児者又は関係者と共有する技術に着目している。そして、上記のネガティブな部分又はポジティブな部分を他の育児者又は関係者に伝え、育児の状況の理解をより一層深めることを目指している。 In the technical field of notifying a child-rearing person who is remote of the child's condition, the present inventors have a negative part such as the difficulty of child-rearing that cannot be seen only from the child's condition, or a positive part such as a feeling of well-being. We are focusing on technologies shared with other childcare workers or related parties. Then, we aim to further deepen the understanding of the child-rearing situation by communicating the above-mentioned negative or positive parts to other child-rearing people or related parties.
なお、ここで「子供」とは、乳幼児を指し、より具体的には、生後0日から、6〜7歳までの人を指すが、これに限定されない。 The term "child" here refers to an infant, and more specifically, refers to a person from 0 days after birth to 6 to 7 years old, but is not limited thereto.
図1に示されるように、本実施の形態における情報処理システム1では、宅内にマイクロフォンなどの音を取得する入力端末10が配置される。そして、情報処理システム1は、入力端末10により取得した音に基づいて、子供の音声と育児者の音声とを分析することで両者それぞれの状態を判定し、その状態を示す情報を他の育児者と共有すべきか否かを判断して情報を提示する。提示される情報は、他の育児者に提示されることが想定される。
As shown in FIG. 1, in the
なお、上記「育児者」が子供の母親であり、上記「他の育児者」が子供の父親であり、「関係者」が子供の祖父母である場合を例として説明するが、これに限定されない。より一般的には、上記「育児者」及び上記「他の育児者」ともに、大人でありさえすれば本実施の形態が適用され得る。なお、「大人」は、子供でない人とも表現され得る。 The case where the above-mentioned "child-rearing person" is the mother of the child, the above-mentioned "other child-rearing person" is the father of the child, and the "related person" is the grandparent of the child will be described as an example, but the present invention is not limited to this. .. More generally, both the above-mentioned "child-rearing person" and the above-mentioned "other child-rearing person" can apply this embodiment as long as they are adults. In addition, "adult" can also be expressed as a person who is not a child.
これにより、父親は、従来技術では把握できない育児の状況を把握することができる。また、父親は、育児の状況に加えて、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングを知ることができる。父親がこれらのタイミングを知ることができれば、これらのことについて後に夫婦で話す時間を設けるなどして、その事象についての詳しい情報を夫婦で共有することができる。このように、本実施の形態の情報処理システム1は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
As a result, the father can grasp the child-rearing situation that cannot be grasped by the conventional technique. In addition to the child-rearing situation, the father can know the timing when the burden on the mother is extremely high or the timing when the mother is happy in daily child-rearing and housework. If the father knows these timings, he or she can share more information about the event, such as by giving the couple time to talk about these things later. As described above, the
以降において、本実施の形態の情報処理システム1等について詳しく説明する。
Hereinafter, the
図2は、本実施の形態における情報処理システム1の機能を示すブロック図である。
FIG. 2 is a block diagram showing a function of the
図2に示されるように、情報処理システム1は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109と、表示部110とを備える。
As shown in FIG. 2, the
入力部101は、収音装置により周囲の音を収音し、収音した音を示す音情報を生成する入力装置である。入力部101は、例えば、マイクロフォンである。
The
識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。例えば、識別部102が子供の音声、および、母親の音声を識別する際には、子供の音声の周波数が比較的高く、母親の音声の周波数が比較的低いという特徴を利用して、所定より低い周波数を子供の音声と識別し、所定より高い周波数を母親の音声と識別することができる。
The
子供状態判定部103は、識別部102により識別された子供の音声を分析することで、子供の状態を判定する処理部である。
The child
母親状態判定部104は、識別部102により識別された母親の音声を分析することで、母親の状態を判定する処理部である。
The mother
保持部105は、子供状態判定部103により判定された子供の状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
保持部106は、母親状態判定部104により判定された母親の状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。
The sharing
生成部108は、予め登録された人物と共有すべきと共有判定部107により判定されたことに応じて、予め登録されている宛先(例えば父親又は祖父母)に提示すべき通知を生成する処理部である。通知の生成の際には、当該通知の宛先に応じて、通知が生成される。通知の内容等については、後で詳しく説明する。
The
送信部109は、生成部108により生成された画像を父親又は祖父母の携帯端末に送信する処理部である。送信部109は、画像を示す情報を送信するための送信回路、及び、コネクタ又はアンテナなどを含む。
The
表示部110は、送信部109により送信された画像を表示する表示部である。表示部110は、例えば、携帯電話又はスマートフォンなどの携帯端末の表示画面である。
The
なお、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108とは、例えば、プロセッサがメモリを用いて、記憶装置等に保存された所定のプログラムを実行することで実現され得る。
The
なお、識別部102が、入力部101から取得した音情報が示す音から子供の音声を識別する技術は、例えば、公知の子供音声識別技術であるxauris(ゾウリス)を用いて実現され得る。xaurisは、開発者らがあらかじめ集めた子供の音声と状態との関係を示す学習データからディープラーニングを用いて構築された学習モデルを用いて、実行環境において入力された子供の音声から子供の状態を「泣き」、「笑い」、「ぐずり」、「喃語(言葉にならない発話)」の4種類に識別する。よって、識別部102が行う処理のうちの子供の音声を識別する処理と、子供状態判定部103が行う処理とは、xaurisで実現され得る。この場合、子供状態判定部103の判定結果として、「泣き」、「笑い」、「ぐずり」及び「喃語」の4種類の状態が保持部105に格納される。
A technique for the
また、識別部102が、入力部101から取得した音情報が示す音から母親の音声を識別する技術は、公知の話者識別技術を用いて実現され得る。話者識別技術は、さまざまな要素技術により構成されるが、例えば、基本周波数と特定の帯域のスペクトル包絡特性とを用いて検出する方法が採用され得る。ただし、話者識別技術を用いる代わりに、マイクロフォンのような収音デバイスを母親の衣類または装飾品に装着または搭載し、この収音デバイスが取得する音声が母親の音声であると識別する方法を採用してもよい。
Further, a technique for the
なお、母親状態判定部104が、識別部102により識別された母親の音声を分析して母親の状態を判定する技術は、公知の感情解析エンジンを用いて実現され得る。例えば、感情解析エンジンは、人の声を「言葉」としてではなく、「音(トーン)」として捕え、音から人の感情を数値化する。出力される感情は、例えば、「怒り」、「集中」、「困惑」、「興奮」、「思考」、「ストレス」、「躊躇」、「幸福感」、「興味・関心」、「悲しみ・不満」などがある。ここでは、母親状態判定部104が、上記のように「怒り」等の感情を出力する場合を例として説明する。母親状態判定部104の判定結果は、例えば、「怒り:5」、「集中:8」、「困惑:2」というように、感情と数値との組み合わせとして保持部106に格納される。
A technique in which the mother
なお、情報処理システム1は、例えば、入力端末10と、サーバ20と、表示端末30とを備えて構成される。入力端末10とサーバ20との間、及び、サーバ20と表示端末30との間はネットワーク(不図示)により通信可能に接続されている。情報処理システム1が備える上記の機能ブロックは、入力端末10と、サーバ20と、表示端末30とが分担して備える。
The
例えば、入力端末10は、母親のスマートフォンなどの携帯端末、又は、収音装置と通信機能とを有する専用装置などを採用し得る。サーバ20は、入力端末10及び表示端末30とネットワークを介して通信可能に接続され得るサーバ装置、いわゆるクラウドサーバなどを採用し得る。表示端末30は、父親のスマートフォン等の携帯端末を採用し得る。
For example, the
そして、入力端末10が入力部101を備える。サーバ20が、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109とを備える。表示端末30が表示部110を備える。
Then, the
この場合、入力端末10は、入力部101が生成した音情報をネットワークを通じてサーバ20の識別部102に送信する。また、サーバ20は、送信部109が送信する画像等のデータをネットワークを通じて表示端末30の表示部110に送信する。
In this case, the
なお、上記の各装置の機能の分担は、あくまで一例であり、他の機能分担を採用することも可能である。 The division of functions of each device described above is merely an example, and it is possible to adopt other division of functions.
図3は、本実施の形態における共有判定部107が判定に用いる条件を示すテーブルT1の説明図である。テーブルT1には、共有判定部107が判定に用いる条件の例である第一条件及び第二条件が示されている。
FIG. 3 is an explanatory diagram of a table T1 showing conditions used for determination by the shared
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべきか否かを判定する。この判定のための条件には、さまざまなものが採用され得るが、例えば、ネガティブな状況において上記情報を共有すべきと判定するための条件(第一条件)と、ポジティブな状況において上記情報を共有すべきと判定するための条件(第二条件)とのいずれかが満たされる場合に、上記情報を父親等と共有すべきと共有判定部107が判定する。以降において、各状況、並びに、第一条件及び第二条件について説明する。
Whether or not the sharing
(1)ネガティブな状況、及び、第一条件について
ネガティブな状況とは、子供が泣いたりぐずったりしており、かつ、母親が怒りなどのネガティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(1) Negative situations and the first condition Negative situations refer to situations in which the child is crying or squirming and the mother has negative emotions such as anger. In such situations, the father or grandparents need help with childcare or housework, or psychological support, and it is considered that information indicating these conditions should be shared with the father or grandparents.
第一条件は、保持部105に格納された子供の状態についての条件(「子供の条件」ともいう)と、保持部106に格納された母親の状態についての条件(「母親の条件」ともいう)とにより規定される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」であり、かつ、母親の感情に基づいて以下の(式1)により算出される第一指標が閾値以上であること、とすることができる。
The first condition is a condition regarding the condition of the child stored in the holding unit 105 (also referred to as “child condition”) and a condition regarding the condition of the mother stored in the holding unit 106 (also referred to as “mother's condition”). ) And. Specifically, the first condition is that the state of the child stored in the holding
第一指標=(「怒り」の度合い)+(「ストレス」の度合い)+(「困惑」の度合い)−(「幸福感」の度合い) (式1) First index = (degree of "anger") + (degree of "stress") + (degree of "confused")-(degree of "happiness") (Equation 1)
ここで、上記の「怒り」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「怒り」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
Here, each emotion such as the above-mentioned "anger" is acquired from the state of the mother at the above-mentioned time point stored in the holding
なお、第一指標は、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第一指標は、上記の他、1以上のネガティブな感情の度合いの合計から、1以上のポジティブな感情の度合いを減算した結果として算出されてもよいし、1以上のネガティブな感情の度合いの合計のみから算出されてもよい。 The first index can be said to be an index showing the importance of sharing the condition between the mother and the father. In addition to the above, the first index may be calculated as a result of subtracting one or more positive emotional degrees from the total of one or more negative emotional degrees, or one or more negative emotional degrees. It may be calculated only from the total.
なお、第一条件の判定において、上記の子供の条件と母親の条件とが、所定の時間(「継続時間」ともいう。例えば60秒)以上継続して満たされる場合にのみ、第一条件を満たすと判定するようにしてもよい。子供の状態と母親の状態とについて、数秒程度の短時間だけにネガティブな状況が発生したとしても、その情報を父親などと共有する必要性は比較的低いと考えられるためである。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第一条件を満たすと判定する場合を説明する。 In the determination of the first condition, the first condition is set only when the above-mentioned child condition and mother condition are continuously satisfied for a predetermined time (also referred to as "duration", for example, 60 seconds) or more. It may be determined that the condition is satisfied. This is because even if a negative situation occurs in a short period of time, such as a few seconds, regarding the condition of the child and the condition of the mother, it is considered that there is relatively little need to share the information with the father or the like. Hereinafter, a case where it is determined that the first condition is satisfied when the condition of the child and the condition of the mother are continuously satisfied for a predetermined duration will be described.
(2)ポジティブな状況、及び、第二条件について
ポジティブな状況とは、子供が笑ったり喃語を発したりしており、かつ、母親が幸福感などのポジティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母にも同様の感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(2) Positive situation and the second condition A positive situation refers to a situation in which the child is laughing or babbling, and the mother has positive emotions such as happiness. In such situations, it is desirable to have the father or grandparents have similar feelings, and it is considered that information indicating these conditions should be shared with the father or grandparents.
第二条件は、保持部105に格納された子供の状態についての条件、つまり、子供の条件と、保持部106に格納された母親の状態についての条件、つまり、母親の条件とにより規定される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」であり、かつ、母親の感情に基づいて以下の(式2)により算出される第二指標が閾値以上であること、とすることができる。
The second condition is defined by a condition regarding the condition of the child stored in the holding
第二指標=(「幸福感」の度合い)+(「集中」の度合い)+(「興味」の度合い)−(「ストレス」の度合い) (式2) Second index = (degree of "happiness") + (degree of "concentration") + (degree of "interest")-(degree of "stress") (Equation 2)
ここで、上記の「幸福感」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「幸福感」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
Here, each emotion such as the above-mentioned "happiness feeling" is acquired from the state of the mother at the above-mentioned time point stored in the holding
なお、第二指標は、第一指標と同様、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第二指標は、第一指標と同様、1以上のポジティブな感情の度合いの合計から、1以上のネガティブな感情の度合いを減算した結果として算出されてもよいし、1以上のポジティブな感情の度合いの合計のみから算出されてもよい。 Similar to the first index, the second index can be said to be an index showing the importance of sharing the condition between the mother and the father. Like the first index, the second index may be calculated as a result of subtracting one or more negative emotions from the total of one or more positive emotions, or one or more positive emotions. It may be calculated only from the total degree.
なお、第二条件の判定においても、第一条件の場合と同様、上記の子供の条件と母親の条件とが、所定の時間(つまり継続時間)以上継続して満たされる場合にのみ、第二条件を満たすと判定するようにしてもよい。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第二条件を満たすと判定する場合を説明する。 In the determination of the second condition, as in the case of the first condition, only when the above-mentioned child condition and mother condition are continuously satisfied for a predetermined time (that is, duration) or longer, the second condition is determined. It may be determined that the condition is satisfied. Hereinafter, a case where it is determined that the second condition is satisfied when the condition of the child and the condition of the mother are continuously satisfied for a predetermined duration will be described.
図4は、本実施の形態における通知の宛先と、通知の内容を示すテーブルT2の説明図である。テーブルT2には、第一条件及び第二条件のそれぞれが満たされた場合の、通知の宛先と、通知の宛先ごとの通知の内容とが示されている。通知の宛先は、子供の状態、および、大人の状態に応じて定められている。 FIG. 4 is an explanatory diagram of a table T2 showing the destination of the notification and the content of the notification in the present embodiment. Table T2 shows the notification destination and the content of the notification for each notification destination when each of the first condition and the second condition is satisfied. The destination of the notification is determined according to the condition of the child and the condition of the adult.
(1)第一条件が満たされた場合
生成部108は、共有判定部107が第一条件を満たすと判定した場合には、子供の父親と、子供の母方の祖父母とのそれぞれに提示するための通知を生成する。
(1) When the first condition is satisfied When the shared
例えば、子供の父親に提示するための通知としては、子供と母親との状態を時系列で示すグラフ上における、第一条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、猫の手のイラスト(図柄)を示す画像である。この所定の画像が付加された時点での母親の状況が、極めて忙しい状況、いわゆる猫の手も借りたい状況(日本のことわざに由来した表現)である時点であるからである。また、所定の画像は、「ママを困らせちゃいました」というメッセージのように、その時点の状況を子供が発したかのような言葉を示す画像としてもよい。 For example, as a notification to be presented to the father of the child, a predetermined image is added at a position corresponding to the time when it is determined that the first condition is satisfied on the graph showing the state of the child and the mother in chronological order. Generate an image. Here, the predetermined image is, for example, an image showing an illustration (design) of a cat's hand. This is because the situation of the mother at the time when this predetermined image is added is the time when she is extremely busy, that is, the situation where she wants to get the help of a cat (an expression derived from Japanese proverbs). In addition, the predetermined image may be an image showing words as if the child had uttered the situation at that time, such as the message "I have troubled my mom".
また、例えば、子供の母方の祖父母に提示するための通知としては、「めっちゃ大変なんですけど」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。 Also, for example, the notification to be presented to the maternal grandparents of the child may be an image showing words such as the message "It's really hard", as if the mother had said the situation at that time.
(2)第二条件が満たされた場合
生成部108は、共有判定部107が第二指標を算出した場合には、子供の父親と、母方の祖父母と、父方の祖父母とのそれぞれに提示するための通知を生成する。
(2) When the second condition is satisfied When the shared
例えば、子供の父親と、父方の祖父母の場合には、子供と母親との状態を時系列で示すグラフ上における、第二条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、母子の笑顔のイラストを示す画像である。また、所定の画像は、「すっごくたのしんでまちゅ!」というメッセージのように、その時点の母親及び子供の状況を子供が発したかのような言葉を示す画像としてもよい。 For example, in the case of a child's father and paternal grandparents, a predetermined image is added at a position corresponding to the time when it is determined that the second condition is satisfied on the graph showing the state of the child and the mother in chronological order. Generate the image. Here, the predetermined image is, for example, an image showing an illustration of a smiling face of a mother and child. In addition, the predetermined image may be an image showing words as if the child had uttered the situation of the mother and the child at that time, such as the message "It's so much fun!".
また、例えば、子供の母方の祖父母に提示するための通知としては、「すっごく楽しいことがありました!」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。 Also, for example, as a notification to be presented to the maternal grandparents of the child, it may be an image showing the words that the mother said at that time, such as the message "There was a lot of fun!" Good.
このように、生成部108は、通知の宛先に応じて異なる表現又は内容を有する通知を生成してもよい。これにより、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。
In this way, the
また、生成部108は、母親の状態を示す図柄又は文章を含む通知を生成してもよい。これにより、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、より直観的に通知の内容を把握できる。
In addition, the
そして、生成部108は、通知を生成する際には、生成される通知が母親の状態を示す図柄又は文章を含むか含まないかが、宛先に応じて異なる通知を生成してもよい。また、生成部108は、通知を生成する際には、図柄又は文章の内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄又は文章を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。
Then, when generating the notification, the
また、生成部108は、通知を生成する際には、生成される通知に含まれる図柄又は文章の表現又は内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に含まれる図柄又は文章の表現又は内容を、宛先に応じて異ならせることができる。そして、宛先に応じて適切な表現又は内容の図柄又は文章を含む通知を送信し得る。
Further, when generating a notification, the
また、生成部108は、通知を生成する際には、文章の表現が宛先の属性に応じて異なる通知を生成してもよい。これにより、通知に含まれる文章の表現を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。
Further, when generating the notification, the
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて通知の重要性を示す指標を算出し、算出した指標が閾値より高い場合にのみ、通知を生成してもよい。上記の第一指標及び第二指標は、母親の状態に応じて通知の重要性を示す指標の一例である。上記の第一指標及び第二指標の代わりに、子供の状態に応じて通知の重要性を示す指標を採用することも可能である。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。
When generating the notification, the
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて、通知の重要性を示す指標を算出し、算出した指標が大きいほど、より大きな図柄を含む通知を生成してもよい。具体的には、上記の猫の手のイラスト、又は、母子の笑顔を示すイラストの寸法をより大きくしてもよい。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。
When generating the notification, the
以上のように構成された情報処理装置について、その処理の流れを具体例と図面を用いて説明する。 The processing flow of the information processing apparatus configured as described above will be described with reference to specific examples and drawings.
図5は、本実施の形態における識別部102、子供状態判定部103及び母親状態判定部104が実行する処理の流れを示すフロー図である。
FIG. 5 is a flow chart showing a flow of processing executed by the
ステップS1において、識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。
In step S1, the
ステップS2において、識別部102は、ステップS1で子供の音声が識別されたか否かを判定する。子供の音声が識別されたと判定した場合(ステップS2でYes)にはステップS3に進み、そうでない場合(ステップS2でNo)にはステップS4に進む。
In step S2, the
ステップS3において、子供状態判定部103は、ステップS1で識別した子供の音声に基づいて子供の状態を判定し、子供の状態を保持部105に格納する。
In step S3, the child
ステップS4において、識別部102は、ステップS1で母親の音声が識別されたか否かを判定する。母親の音声が識別されたと判定した場合(ステップS4でYes)にはステップS5に進み、そうでない場合(ステップS4でNo)には、本フロー図に示された一連の処理を終了する。
In step S4, the
ステップS5において、母親状態判定部104は、ステップS1で識別した母親の音声に基づいて母親の状態を判定し、母親の状態を保持部106に格納する。
In step S5, the mother
以上の処理について、具体例に当てはめながら、さらに詳しく声明する。 The above process will be stated in more detail while applying specific examples.
ここでは、ある日の夕方、夕飯の支度時に母親がキッチンに立ったところ、少しお腹がすいてきた2歳の子供が母親に相手してほしさにぐずり出してしまったシーンを例に説明する。子供が泣きながら母親をキッチンから連れ出そうとして、また、早くご飯を食べたいことから「あっちーあっちーい!」、「ほちい!」などという言葉を発しながら、母親の作業を邪魔し、ぐずって泣き出してしまった。これに対し、母親が「今は無理!」、「ごはん食べられないよ?いいの!?」、「だーめ!」などという言葉を発しながら、無理やり作業をすすめようとするやり取りが2分間続いたとする。 Here, an example of a scene in which a mother stands in the kitchen while preparing dinner one evening and a two-year-old child who is a little hungry starts to want her mother. The child was crying and trying to take her mother out of the kitchen, and because she wanted to eat rice quickly, she disturbed her mother's work by saying words such as "Achi-Achii!" And "Hochii!" I started crying. On the other hand, the mother said "I can't do it now!", "I can't eat rice? Is it okay !?", "Dame!" Suppose it continues.
まず、識別部102が、入力部101から取得した音情報に含まれる子供の音声「あっちーあっちーい!」及び「ほちい!」を識別する。また、識別部102が、入力部101から取得した音情報に含まれる母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」を識別する(ステップS1)。
First, the
子供状態判定部103は、ステップS1で識別した子供の音声「あっちーあっちーい!」及び「ほちい!」に基づいて、子供の状態が「ぐずり」であると判定し、その判定結果を保持部105に格納する(ステップS3)。
The child
母親状態判定部104は、ステップS1で識別した母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」に基づいて、母親の状態が「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」であると判定し、その判定結果を保持部106に格納する(ステップS5)。
The mother
次に、共有判定部107による処理について説明する。
Next, the processing by the shared
図6は、本実施の形態における共有判定部107が実行する処理の流れを示すフロー図である。
FIG. 6 is a flow chart showing a flow of processing executed by the shared
ステップS11において、共有判定部107は、保持部105から子供の状態を取得し、また、保持部106から母親の状態を取得する。
In step S11, the sharing
ステップS12において、共有判定部107は、ステップS11で取得した子供の状態が「泣き」又は「ぐずり」であるか否かを判定する。子供の状態が「泣き」又は「ぐずり」である場合(ステップS12でYes)には、ステップS13に進み、そうでない場合(ステップS12でNo)には、ステップS21に進む。
In step S12, the sharing
ステップS13において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式1)を用いて第一指標を算出する。
In step S13, the sharing
ステップS14において、共有判定部107は、算出した第一指標が閾値以上であるか否かを判定する。第一指標が閾値以上である場合(ステップS14でYes)には、ステップS15に進み、そうでない場合(ステップS14でNo)には、本フロー図の処理を終了する。
In step S14, the shared
ステップS15において、共有判定部107は、現時点の状態、つまり、子供の状態が「泣き」又は「ぐずり」であり、かつ、母親の感情に基づく第一指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS15でYes)には、ステップS16に進み、そうでない場合(ステップS15でNo)には、本フロー図の処理を終了する。
In step S15, the shared
ステップS16において、生成部108は、ステップS13で共有判定部107により算出された第一指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。
In step S16, the
ステップS17において、送信部109は、ステップS16で生成された通知を送信し、表示部110により表示する。ステップS17の処理を終えたら、本フロー図に示されている一連の処理を終了する。
In step S17, the
ステップS21において、共有判定部107は、ステップS11で取得した子供の状態が「笑い」又は「喃語」であるか否かを判定する。子供の状態が「笑い」又は「喃語」である場合(ステップS21でYes)には、ステップS22に進み、そうでない場合(ステップS21でNo)には、本フロー図の処理を終了する。
In step S21, the sharing
ステップS22において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式2)を用いて第二指標を算出する。
In step S22, the sharing
ステップS23において、共有判定部107は、算出した第二指標が閾値以上であるか否かを判定する。第二指標が閾値以上である場合(ステップS23でYes)には、ステップS24に進み、そうでない場合(ステップS23でNo)には、本フロー図の処理を終了する。
In step S23, the shared
ステップS24において、共有判定部107は、現時点の状態、つまり、子供の状態が「笑い」又は「喃語」であり、かつ、母親の感情に基づく第二指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS24でYes)には、ステップS25に進み、そうでない場合(ステップS24でNo)には、本フロー図の処理を終了する。
In step S24, the shared
ステップS25において、生成部108は、ステップS22で共有判定部107により算出された第二指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。ステップS25を終えたら、ステップS17に進む。
In step S25, the
このように、ステップS16及びS25において、生成部108は、子供の状態、および、母親の状態と、母親の状態についての通知の宛先とに応じて、通知を生成する。これにより、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
As described above, in steps S16 and S25, the
具体例を示しながらさらに具体的に説明する。 A more specific description will be given with reference to specific examples.
上記ステップS11において共有判定部107が、子供の状態として「ぐずり」を、母親の状態として「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」を取得したとする。この場合、子供の状態が「ぐずり」であり(ステップS12でYes)、第一指標が以下の(式3)から24と算出され(ステップS13)、閾値15を超えている。
In step S11 above, the shared
第一指標=8+9+8―1=24 (式3) First index = 8 + 9 + 8-1 = 24 (Equation 3)
また、子供の状態が「ぐずり」であり、かつ、第一指標が閾値を超えている状態が60秒以上継続しているので(ステップS14でYes)、生成部108が第一指標に基づいて通知を生成する(ステップS16)。
Further, since the child's state is "guzzling" and the state in which the first index exceeds the threshold value continues for 60 seconds or more (Yes in step S14), the
次に、生成部108は、通知の宛先(具体的には、子供の父親と、子供の母方の祖父母)ごとに、通知のための画像を生成する(ステップS16)。例えば、生成部108は、父親に送付する画像として、子供と母親との状態を時系列で示すグラフ上に猫の手のイラストを付与した画像を生成する。また、生成部108は、母方の祖父母に送付する画像として、子供の母親が発したような「めっちゃ大変」というメッセージを含む画像を生成する。生成部108は、生成した画像を送信部109を経由して、表示部110へ提供する(ステップS17)。
Next, the
以上の一連の処理により情報処理システム1が提示する画像について説明する。
The image presented by the
図7は、本実施の形態における情報処理システム1が提示する画像の第一例を示す説明図である。
FIG. 7 is an explanatory diagram showing a first example of an image presented by the
図7の(a)に示される表示端末30の表示部110は、子供と母親との状態を時系列で示すグラフとともに、母親の状態を示す、猫の手のイラスト40が付された画像を表示している。このグラフは、より具体的には、子供と母親との状態の一例としての、子供と母親が発する音声の頻度を縦軸に示し、時間経過を横軸に示したものである。なお、音声の頻度の代わりに、音声の強度が用いられてもよい。
The
これより、父親は、従来技術では把握できない育児の状況を、定量情報とともに把握することができる。そして、母親は、育児の状況を父親又は関係者と共有することができる。それに加えて、情報処理システム1は、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングと、その事象とを父親又は関係者に通知する。これにより、父親又は関係者にとってその情報に対する興味を湧かせ、育児に対する理解がより一層深まり、さらには家庭生活の充実につなげることができる。
As a result, the father can grasp the child-rearing situation, which cannot be grasped by the conventional technique, together with the quantitative information. The mother can then share the child-rearing situation with the father or related parties. In addition, the
このように育児及び家事に関する情報を共有することが、家庭においてその後の育児サポートが円滑に行われるための大きな一歩になることは言うまでもない。また、父親における意識の変革や所謂「イクメン」の精神の醸成にもつながる。 It goes without saying that sharing information on childcare and housework in this way is a major step toward smooth subsequent childcare support at home. It also leads to a change in father's consciousness and fostering the so-called "Ikumen" spirit.
なお、生成部108が通知の宛先によって異なる画像を生成することで、通知の宛先ごとに適した形式で通知を行うことができ、通知の宛先の者によるより一層の理解を得ることができる。
By generating images that differ depending on the notification destination, the
なお、通知の形式は、上記のように、子供と母親との状態を時系列で示すグラフとともに母親の状態を示す画像を示すものに限定されない。例えば、図7の(b)に示されるように、表示端末30上での短文の通知、例えばスマートフォンのロック画面におけるいわゆるプッシュ通知41であってもよい。
The format of the notification is not limited to the one showing the image showing the state of the mother together with the graph showing the state of the child and the mother in chronological order as described above. For example, as shown in FIG. 7B, a short notification on the
なお、通知に含まれる画像には、母親が入力した文字列が付されていてもよい。このことについて図8を参照しながら具体的に説明する。 The image included in the notification may be accompanied by a character string input by the mother. This will be specifically described with reference to FIG.
図8は、本実施の形態における情報処理システム1が提示する画像の第二例を示す説明図である。
FIG. 8 is an explanatory diagram showing a second example of the image presented by the
図8の(a)は、上記グラフとともに、母親の状態を示す文字列を含む画像42を示している。画像42は、母親から受け付けた文字列「またもや起こされた」を含む画像である。これにより、母親が自身で入力した情報が父親又は関係者に共有され得る。
FIG. 8A shows an
さらにこの場合、母親から受け付けた文字列を、子供が発した形式の情報又は子供の状態を示す情報に変換することで、通知を生成してもよい。例えば、上記の文字列「またもや起こされた」を子供が発した形式の情報「またママをおこしちゃったの」に変換した画像43を含む通知を生成してもよい(図8の(b))。このとき、変換前の情報と変換後の情報とは、ともに母親の状態を表現したものであるので、表現方式が異なるものの、意図は概ね維持される。母親の状態を母親が表現する言葉よりも、その母親の状態を、子供が発したかのような言葉で表現する方が、父親又は関係者に、より適切に共有され得る可能性があるからである。これにより、状態を表す情報を、子供が発したかのような情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。なお、さらに子供のイラスト44を付すことで、その言葉を子供が発した雰囲気を強調することもできる。
Further, in this case, the notification may be generated by converting the character string received from the mother into the information in the format issued by the child or the information indicating the state of the child. For example, a notification may be generated including an
なお、母親状態判定部104による母親の状態の判定について、ここでは母親の音声のみに基づいて状態を判定したが、調理家電、例えばIHクッキングヒーターのON/OFF音、又は、流し台における流水音の有無などを検知して母親の状態の判定に用いてもよい。また、調理家電などの機器から直接にステータス情報を入手して用いてもよい。さらには、家電機器に搭載されているセンサの情報、例えば、温度、湿度、また人行動を検知して母親状態の分析に用いてもよい。
Regarding the determination of the mother's condition by the mother
以上のように本実施の形態の情報処理システムは、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。 As described above, the information processing system of the present embodiment transmits the notification generated according to the state of the child and the adult to the destination. In addition, the notification is generated according to the destination of the notification. If the adult is the child's caregiver (eg mother) and the notification is addressed to another child caregiver (eg father or grandparent) of the child, the notification indicating the condition of the child and mother is the destination (ie). It is generated and transmitted according to whether it is a father or a grandparent, etc.). Since the information generated according to the destination is notified, it is easy to obtain the understanding of other child-rearing people who are the destination. Therefore, it is possible to support the further deepening of the understanding of other child-rearing people about the situation in which the child and the child-rearing person are spending time together.
(実施の形態2)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法は、子供と育児者(母親)との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
(Embodiment 2)
In the present embodiment, an information processing method for supporting the deepening of the understanding of other child-rearing persons regarding the situation in which the child and the child-rearing person are spending time together will be described. The information processing method of the present embodiment determines the situation in which the child and the child-rearing person are spending time together based on the voice of the child and the child-rearing person (mother) and the environmental sound, and other child-rearing persons. We will support you to deepen your understanding of.
図9は、本実施の形態における情報処理システム2の機能を示すブロック図である。
FIG. 9 is a block diagram showing the functions of the
図9に示されるように、情報処理システム2は、入力部101と、識別部102Aと、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107Aと、生成部108と、送信部109と、表示部110と、環境音判定部112と、保持部113とを備える。
As shown in FIG. 9, the
ここで、情報処理システム2の機能ブロックのうち、識別部102Aと、環境音判定部112と、保持部113とを除く機能ブロックは、実施の形態1におけるものと同じであるので詳細な説明を省略する。また、サーバ20Aは、実施の形態1におけるサーバ20に相当する。
Here, among the functional blocks of the
識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および環境音を識別する。ここで、識別部102Aが、環境音を識別する点で識別部102と異なる。環境音とは、入力部101が収音装置により収音した周囲の音のうち、子供の音声と母親の音声とを除く音である。環境音は、具体的には、家電(例えばIHクッキングヒーター、電子レンジ、洗濯機又は玩具)の操作音及び動作音、家事に伴って生じる音(例えばキッチンのシンクの流水音、ドアの開閉音、包丁で物を切るときに生ずる音)、家事ではない動作に伴って生じる音(例えば楽器が発する音、手をたたく音、踊り又は歩行などにより生ずる足音)などを含む。
The
環境音判定部112は、識別部102Aにより識別された環境音を分析することで、環境に関する状態を判定する処理部である。
The environmental
保持部113は、環境音判定部112により判定された、環境に関する状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。より具体的には、共有判定部107Aは、環境に関する状態から、母親が家事をしているか、又は、子供と遊戯をしているかを判定する。
The shared
図10は、本実施の形態における共有判定部107Aが判定に用いる条件を示すテーブルT3の説明図である。テーブルT3には、共有判定部107Aが判定に用いる条件の例である第一条件及び第二条件が示されている。
FIG. 10 is an explanatory diagram of a table T3 showing conditions used for determination by the shared
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、第一条件及び第二条件が満たされるか否かを判定する。
The shared
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、母親が家事をしていること、とすることができる。
(1) About the first condition As the first condition, in addition to the first condition of the first embodiment, the condition based on the state regarding the environment is further considered. Specifically, the first condition is that when the state of the child stored in the holding
子供が泣いたりぐずったりしている時に、母親が家事をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 If the mother is doing household chores when the child is crying or squirming, the father or grandparents need help with childcare or household chores, or psychological support, regardless of the mother's emotions. This is because it can be said that information indicating these conditions should be shared with the father or grandparents.
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、母親と子供とが共に遊戯をしていること、とすることができる。
(2) Regarding the second condition In addition to the second condition of the first embodiment, the second condition further considers the condition based on the state regarding the environment. Specifically, the second condition is that when the state of the child stored in the holding
子供が笑ったり喃語を発したりしている時に、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 If the mother and the child are playing together when the child is laughing or babbling, it is desirable to have the father or grandparents have positive emotions such as happiness, regardless of the mother's emotions. Therefore, it can be said that information indicating these conditions should be shared with the father or grandparents.
以上のように構成された情報処理システム2について、その処理の流れを図面を用いて説明する。
The processing flow of the
図11は、本実施の形態における識別部102A、子供状態判定部103、母親状態判定部104及び環境音判定部112が実行する処理の流れを示すフロー図である。
FIG. 11 is a flow chart showing a flow of processing executed by the
なお、子供状態判定部103及び母親状態判定部104が実行する処理(ステップS2からS5)は、実施の形態1におけるものと同じであるので詳細な説明を省略する。
Since the processes (steps S2 to S5) executed by the child
ステップS1Aにおいて、識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および、環境音を識別する。
In step S1A, the
ステップS2からS5において、子供状態判定部103が判定した子供の状態が保持部105に格納され、母親状態判定部104が判定した母親の状態が保持部106に格納される(詳細は実施の形態1を参照)。
In steps S2 to S5, the state of the child determined by the child
ステップS6において、識別部102Aは、ステップS1で環境音が識別されたか否かを判定する。環境音が識別されたと判定した場合(ステップS6でYes)にはステップS7に進み、そうでない場合(ステップS6でNo)には、本フロー図に示された一連の処理を終了する。
In step S6, the
ステップS7において、環境音判定部112は、ステップS1で識別した環境音の音声に基づいて環境の状態を判定し、判定した環境の状態を保持部113に格納する。具体例では、ステップS1で識別した環境音である、IHクッキングヒーターの操作音に基づいて、家事がなされていると判定し、その判定結果を保持部113に格納する。
In step S7, the environmental
本フロー図に示された一連の処理が終了したら、共有判定部107Aが、子供の状態と、母親の状態と、環境に関する状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべき度合いを示す指標を算出する。この処理は、図6に示される処理と同様であるが、ステップS14及びステップS23の処理のみが異なる。具体的には、ステップS14の判定の条件を、「第一指標が閾値以上である、又は、母親が家事をしている?」とする。また、ステップS23の判定の条件を、「第二指標が閾値以上である、又は、母親が遊戯をしている?」とする。
When the series of processes shown in this flow chart is completed, the sharing
このように、情報処理システム2は、子供の音声および大人の音声を識別する際には、子供の音声、大人の音声、および、環境音を識別し、大人の状態を判定する際には、識別された大人の音声、および、環境音に基づいて、大人の状態を判定してもよい。
As described above, the
このようにすることで、情報処理システム2は、子供と母親との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
By doing so, the
なお、共有判定部107Aが判定に用いる条件の別の例についてさらに説明する。
Further, another example of the condition used by the shared
図12は、本実施の形態における共有判定部107Aが判定に用いる別の条件を示すテーブルT4の説明図である。図12に示されるテーブルT4は、図10に示されるテーブルT3の代わりに用いられてもよいし、テーブルT3とともに用いられてもよい。
FIG. 12 is an explanatory diagram of a table T4 showing another condition used for determination by the shared
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、走り回っている、せわしなく動いている又は大声を伴う動きなどのネガティブな事象に起因する動作であることが想定される。
(1) First Condition As the first condition, in addition to the first condition of the first embodiment, a condition based on the movement of a person (that is, a child or a mother) is further considered. Specifically, the first condition is that when the state of the child stored in the holding
子供が泣いたりぐずったりしているときに、母親がイレギュラーな動作をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 If the mother is behaving irregularly when the child is crying or squirming, the father or grandparents need help with childcare or household chores, or psychological support, regardless of the mother's emotions. Therefore, it can be said that information indicating these conditions should be shared with the father or grandparents.
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、上記(1)におけるイレギュラーな動作と異なり、両手を挙げている(高い高い)、遅い速度で継続的に移動している(追いかけっこ)、上下運動をしている(いないいないばあ)などのポジティブな事象に起因する動作であることが想定される。
(2) Regarding the second condition In the second condition, in addition to the second condition of the first embodiment, a condition based on the movement of a person (that is, a child or a mother) is further considered. Specifically, the second condition is that when the state of the child stored in the holding
子供が笑ったり喃語を発したりしているときに、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 When the mother and the child are playing together when the child is laughing or babbling, it is a good idea to make the father or grandparents have positive feelings such as happiness regardless of the mother's feelings. This is because it is desirable to share information indicating these conditions with the father or grandparents.
このように、情報処理システム2は、さらに、大人の身体を検知するセンサによる検知結果を取得し、大人の状態を判定する際には、識別された大人の音声、および、上記検知結果に基づいて、大人の状態を判定してもよい。
As described above, the
以上のように、本実施の形態に係る情報処理方法によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 As described above, according to the information processing method according to the present embodiment, the environmental sound is further used to determine the state of an adult. Then, a notification is generated and transmitted according to the state of the adult determined based on the environmental sound. As a result, the condition of the adult can be determined in more detail, and the notification is generated and transmitted based on this detailed determination.
また、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 In addition, sensors are further used to determine the condition of the adult. Then, a notification is generated and transmitted according to the state of the adult determined based on the sensor. As a result, the condition of the adult can be determined in more detail, and the notification is generated and transmitted based on this detailed determination.
(実施の形態3)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法では、通知の宛先に係る人がより確認しやすいタイミングに通知を行うことで、通知を認識する確実性を向上させる、言い換えれば、伝え漏れを防ぐことができる。
(Embodiment 3)
In the present embodiment, an information processing method for supporting the deepening of the understanding of other child-rearing persons regarding the situation in which the child and the child-rearing person are spending time together will be described. In the information processing method of the present embodiment, the certainty of recognizing the notification can be improved by giving the notification at a timing that is easier for the person related to the notification destination to confirm, in other words, it is possible to prevent omission of communication.
図13は、本実施の形態における情報処理システム3の機能を示すブロック図である。
FIG. 13 is a block diagram showing the functions of the
図13に示されるように、情報処理システム3は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109Aと、表示部110と、位置取得部115とを備える。
As shown in FIG. 13, the
位置取得部115は、通知の宛先の位置を示す位置情報を取得する処理部である。位置取得部115は、具体的には、通知の宛先の者が携帯している携帯端末32の位置情報を取得する位置センサである。位置取得部115は、例えば、鉄道会社の改札機のシステムから、携帯端末32の保有者、つまり、子供の父親が、所定の駅の改札機を通過したことを示す情報を受信すると、子供の父親が当該改札機の地点の近傍の位置を示す位置情報を生成する。携帯端末32は、例えば、改札機と近接無線通信をするスマートフォン又は携帯電話、若しくは、非接触型ICカード等である。なお、位置取得部115は、携帯端末32の位置情報を取得できるものであれば、他の手段であってもよい。位置取得部115は、例えば、携帯端末32に搭載されたGPS(Global Positioning System)受信器から、携帯端末32の位置を取得してもよい。なお、携帯端末32は、表示端末30と同一の端末であってもよい。また、改札機との通信の代わりに、バスの運賃支払い機などの乗り物を利用する際に用いられる通信機(乗降記録機ともいう)との通信が利用されてもよい。
The
送信部109Aは、生成部108が生成した情報の送信タイミング、及び、情報の通知の態様を、位置取得部115が取得した位置情報に応じて制御する。具体的には、送信部109Aは、位置取得部115が取得した位置情報を参照して、宛先が所定の位置に位置していることに応じて通知を宛先へ送信する。例えば、乗り物の乗降記録機の位置情報が既知である場合に、送信部109Aは、宛先に係る人が携帯する端末による近接無線通信を用いて乗降記録機と通信したことに応じて通知を宛先へ送信する。より具体的には、宛先に係る人が携帯する端末による近接無線通信を用いて駅の改札を通過したタイミングに、通知を宛先へ送信する。
The
図14は、本実施の形態における送信部109Aによる情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルT5の説明図である。
FIG. 14 is an explanatory diagram of a table T5 showing the transmission timing of information by the
図14に示されるように、テーブルT5は、時間帯51と、位置52と、通知の態様53との情報を、各エントリについて示す。各エントリは、時間帯と位置とが与えられる場合に、父親が保有する表示端末30にどのような態様で通知をするかを示している。
As shown in FIG. 14, table T5 shows information about the
時間帯51は、表示端末30により通知を行う時間帯を示す情報である。時間帯51は、例えば、午前、午後、7時台、15時台のように時間帯を指定する。なお、時間帯の時間長はどのようなものであってもよく、数時間、数分であってもよい。
The
位置52は、表示端末30により通知を行うときの表示端末30の位置を示す情報である。位置52は、位置を一意に特定し得る情報であればどのような形式でもよく、一組の緯度及び経度、住所、目印となる建物の名称などである。
The
通知の態様53は、表示端末30により通知を行う態様を示す情報である。例えば、通知の態様53は、「画像の更新」又は「プッシュ通知」がある。
The
以上のように、本実施の形態に係る情報処理方法によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。 As described above, according to the information processing method according to the present embodiment, the notification can be transmitted according to the position of the other child-rearing person who is the destination of the notification. By sending the notification in a state where it is easy for the other child caregiver to confirm the notification, the certainty that the other child caregiver recognizes the notification may be improved.
また、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。 In addition, at a timing when it is easy for other childcare workers to confirm the notification, a notification is sent when the other childcare worker gets on and off the vehicle. This can further improve the certainty that other caregivers will recognize the notification.
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。 In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the information processing system of each of the above embodiments is the following program.
すなわち、このプログラムは、コンピュータに、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する、情報処理方法を実行させる。 That is, this program uses a processor in a computer to acquire sound information obtained by sound collection by a sound collecting device, and identifies a child's voice and an adult's voice included in the sound indicated by the sound information. The state of the child is determined based on the identified voice of the child, the state of the adult is determined based on the identified voice of the adult, and the determined state of the child and the determination are made. An information processing method for generating the notification and transmitting the generated notification to the destination is executed according to the state of the adult and the destination of the notification about the state of the adult.
以上、一つまたは複数の態様に係る情報処理システムなどについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 Although the information processing system and the like according to one or more aspects have been described above based on the embodiment, the present invention is not limited to this embodiment. As long as the gist of the present invention is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.
本発明は、子供(乳幼児)と育児者(例えば母親)における育児などの状況を、他の育児者(例えば父親)又は関係者(例えば祖父母)との間で共有する情報共有方法などとして有用である。 The present invention is useful as an information sharing method for sharing a situation such as child-rearing between a child (infant) and a child-rearing person (for example, a mother) with another child-rearing person (for example, a father) or a related person (for example, a grandparent). is there.
1、2、3 情報処理システム
10 入力端末
20、20A サーバ
30 表示端末
32 携帯端末
40、44 イラスト
101 入力部
102、102A 識別部
103 子供状態判定部
104 母親状態判定部
105、106、113 保持部
107、107A 共有判定部
108 生成部
109、109A 送信部
110 表示部
112 環境音判定部
115 位置取得部
T1、T2、T3、T4、T5 テーブル
1, 2, 3
Claims (14)
収音装置による収音により得られる音情報を取得し、
前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、
識別された前記子供の音声に基づいて、前記子供の状態を判定し、
識別された前記大人の音声に基づいて、前記大人の状態を判定し、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、
生成された前記通知を前記宛先へ送信する、
情報処理方法。 Using a processor
Acquires the sound information obtained by collecting the sound by the sound collecting device,
Identify the child's voice and the adult's voice included in the sound indicated by the sound information.
Based on the identified voice of the child, the condition of the child is determined.
Based on the identified voice of the adult, the condition of the adult is determined.
The notification is generated according to the determined state of the child, the determined state of the adult, and the destination of the notification about the state of the adult.
Send the generated notification to the destination,
Information processing method.
請求項1に記載の情報処理方法。 The information processing method according to claim 1, wherein generating the notification includes generating the notification having different expressions or contents depending on the destination.
請求項2に記載の情報処理方法。 The information according to claim 2, wherein generating the notification includes generating the notification including a symbol or sentence having a different expression or content depending on the destination and indicating the state of the adult. Processing method.
請求項2又は3に記載の情報処理方法。 Generating the notification comprises generating the notification, wherein the generated notification includes or does not include a symbol or text indicating the condition of the adult, depending on the destination. Information processing method described in.
請求項3に記載の情報処理方法。 The information processing method according to claim 3, wherein the symbol or the expression or content of the sentence differs depending on the attribute of the destination.
請求項1〜5のいずれか1項に記載の情報処理方法。 The generation of the notification calculates an index according to at least one of the determined child's condition and the determined adult's condition, and only when the calculated index is higher than the threshold value. The information processing method according to any one of claims 1 to 5, which comprises generating.
請求項1〜6のいずれか1項に記載の情報処理方法。 Generating the notification calculates an index according to at least one of the determined child's condition and the determined adult's condition, and the larger the calculated index is, the larger the symbol is included. The information processing method according to any one of claims 1 to 6, which comprises generating a notification.
前記大人の状態を示す情報を入力装置を介して受け付け、
受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含む
請求項1〜7のいずれか1項に記載の情報処理方法。 Generating the notification
Information indicating the condition of the adult is received via the input device, and the information is received.
The information according to any one of claims 1 to 7, including generating the notification by converting the received information into information in the form issued by the child or information indicating the state of the child. Processing method.
請求項1〜7のいずれか1項に記載の情報処理方法。 The information processing method according to any one of claims 1 to 7, wherein the destination is determined according to the determined state of the child and the determined state of the adult.
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含む
請求項1〜9のいずれか1項に記載の情報処理方法。 Further, the environmental sound included in the sound indicated by the sound information is identified, and the environmental sound is identified.
Determining the condition of the adult
The information processing method according to any one of claims 1 to 9, which comprises determining the state of the adult based on the identified voice of the adult and the environmental sound.
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含む
請求項1〜10のいずれか1項に記載の情報処理方法。 In the information processing method, the detection result by the sensor that detects a person is further acquired.
Determining the condition of the adult
The information processing method according to any one of claims 1 to 10, which comprises determining the state of the adult based on the identified voice of the adult and the detection result.
前記通知を前記宛先へ送信することは、
前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含む
請求項1〜11のいずれか1項に記載の情報処理方法。 In the information processing method, further, position information indicating the position of the destination is acquired, and the position information is obtained.
Sending the notification to the destination
The information processing method according to any one of claims 1 to 11, further comprising transmitting the notification to the destination in response to the destination being at a predetermined position with reference to the location information.
前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含む
請求項12に記載の情報処理方法。 The predetermined position is a position where a boarding / alighting recorder for a vehicle is installed.
The information processing method according to claim 12, further comprising transmitting the notification to the destination in response to communication with the boarding / alighting recorder using proximity wireless communication by a terminal carried by the person related to the destination.
識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、
識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、
生成された前記通知を前記宛先へ送信する送信部とを備える
情報処理装置。 An identification unit that identifies the voice of a child and the voice of an adult included in the sound indicated by the sound information obtained by collecting the sound by the sound collecting device.
A child state determination unit that determines the state of the child based on the identified voice of the child, and
An adult state determination unit that determines the state of the adult based on the identified voice of the adult,
A generation unit that generates the notification according to the determined state of the child, the determined state of the adult, and the destination of the notification about the state of the adult.
An information processing device including a transmission unit that transmits the generated notification to the destination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124806A JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124806A JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019009666A JP2019009666A (en) | 2019-01-17 |
JP6861398B2 true JP6861398B2 (en) | 2021-04-21 |
Family
ID=65029807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017124806A Active JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6861398B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022014033A (en) * | 2020-07-06 | 2022-01-19 | 株式会社日立製作所 | Information analyzer and information analyzing method |
WO2023286249A1 (en) * | 2021-07-15 | 2023-01-19 | 日本電信電話株式会社 | Communication assistance system, communication assistance method, and program |
CN114954339B (en) * | 2022-05-24 | 2023-04-28 | 中国第一汽车股份有限公司 | Detection device and method for preventing children from being trapped in vehicle based on voice recognition technology |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3575790B2 (en) * | 2000-05-08 | 2004-10-13 | 株式会社コムアップ | Information sharing system and method |
JP2007004792A (en) * | 2006-06-19 | 2007-01-11 | Matsushita Electric Ind Co Ltd | Optical output device and information processing terminal |
JP2008250362A (en) * | 2007-03-29 | 2008-10-16 | Nec Corp | Health condition management support system |
JP2012038281A (en) * | 2010-08-09 | 2012-02-23 | First:Kk | Twitter system for mothers raising children |
KR101421217B1 (en) * | 2013-11-18 | 2014-07-23 | (주) 나무와 숲 | Children's Emotion Managing Method using Correlation of Child Psychology and Parents Stress |
JP2015184563A (en) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer |
CN106803219B (en) * | 2017-01-18 | 2021-04-23 | 吉林大学 | Work and rest recognition recording method for neonatal care based on intelligent foot ring |
-
2017
- 2017-06-27 JP JP2017124806A patent/JP6861398B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019009666A (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210287694A1 (en) | Systems for and methods of intelligent acoustic monitoring | |
US10467510B2 (en) | Intelligent assistant | |
CN109427333A (en) | Activate the method for speech-recognition services and the electronic device for realizing the method | |
JP5904021B2 (en) | Information processing apparatus, electronic device, information processing method, and program | |
US20230260535A1 (en) | A computer-implemented method of providing data for an automated baby cry assessment | |
US20150338917A1 (en) | Device, system, and method of controlling electronic devices via thought | |
CN103778527A (en) | Voice memo prompting method and device | |
JPWO2015178078A1 (en) | Information processing apparatus, information processing method, and program | |
BR112015018905B1 (en) | Voice activation feature operation method, computer readable storage media and electronic device | |
CN110719553B (en) | Smart speaker system with cognitive sound analysis and response | |
JP6861398B2 (en) | Information processing method and information processing device | |
JP6745419B1 (en) | Methods, systems, and media for providing information about detected events | |
KR20190136706A (en) | Apparatus and method for predicting/recognizing occurrence of personal concerned context | |
CN110930643A (en) | Intelligent safety system and method for preventing infants from being left in car | |
KR20230015980A (en) | Simultaneous acoustic event detection on multiple assistant devices | |
Myakala et al. | A low cost intelligent smart system for real time infant monitoring and cry detection | |
Myakala et al. | An intelligent system for infant cry detection and information in real time | |
US10219127B2 (en) | Information processing apparatus and information processing method | |
CN113539282A (en) | Sound processing device, system and method | |
EP3521975A1 (en) | Information processing device | |
EP3531369A1 (en) | Information processing device and information processing method | |
JP2020005036A (en) | Computer program and server | |
CN112420078B (en) | Monitoring method, device, storage medium and electronic equipment | |
US10601757B2 (en) | Multi-output mode communication support device, communication support method, and computer program product | |
CN110853294A (en) | Method and device for monitoring by using household appliance and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6861398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |