JP6056139B2 - Electronics - Google Patents
Electronics Download PDFInfo
- Publication number
- JP6056139B2 JP6056139B2 JP2011278275A JP2011278275A JP6056139B2 JP 6056139 B2 JP6056139 B2 JP 6056139B2 JP 2011278275 A JP2011278275 A JP 2011278275A JP 2011278275 A JP2011278275 A JP 2011278275A JP 6056139 B2 JP6056139 B2 JP 6056139B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- detection
- cpu
- camera
- external device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 128
- 238000004891 communication Methods 0.000 claims description 68
- 230000008859 change Effects 0.000 claims description 13
- 238000000034 method Methods 0.000 description 27
- 230000015654 memory Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 15
- 238000013459 approach Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000002265 prevention Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
従来より、携帯通信装置を用いて、現在位置が危険区域かどうかを判断して、移動経路を案内することにより防犯を行なうことが提案されている(例えば、特許文献1)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−155522号公報
Conventionally, it has been proposed to use a mobile communication device to determine whether or not the current position is a dangerous area, and to perform crime prevention by guiding a moving route (for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2011-155522 A
しかしながら、危険区域は、時間や状況などにより変化するものであり、従来の携帯通信装置を利用した防犯システムは使い勝手の良いものではなかった。 However, the danger zone changes depending on time and circumstances, and a conventional crime prevention system using a portable communication device is not easy to use.
本発明の一態様においては、電子機器は、位置を検出する位置検出部と、時間を検出する時間検出部と、位置検出部および時間検出部とは分離して設けられる第1機器と通信可能な通信部と、位置検出部および時間検出部の検出結果に応じて、通信部を介して第1機器が有する第1検出部に検出を指示する指示部と、を備える。 In one aspect of the present invention, the electronic device can communicate with a position detection unit that detects a position, a time detection unit that detects time, and a first device that is provided separately from the position detection unit and the time detection unit. A communication unit, and an instruction unit that instructs the first detection unit of the first device to perform detection via the communication unit according to the detection results of the position detection unit and the time detection unit.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態にかかるシステム5の利用環境の一例を示す。システム5は、スマートフォン10、カメラ部100、ミュージックプレーヤ200、および、GPS衛星7を備える。システム5において、スマートフォン10は鞄の中に設けられ、カメラ部100およびミュージックプレーヤ200は鞄に取り付けられる。A部は、ユーザ6の背後から見た様子を示す。スマートフォン10は、カメラ部100と無線により通信する。また、スマートフォン10は、カメラ部100とは異なるミュージックプレーヤ200と無線により通信する。具体的には、スマートフォン10は、カメラ部100およびミュージックプレーヤ200を無線で制御する。カメラ部100は、カメラ部100が有する各種センサの検出結果を、無線によりスマートフォン10へ通知する。
FIG. 1 shows an example of a usage environment of a system 5 according to an embodiment. The system 5 includes a
スマートフォン10は、GPS衛星7から発信されるGPS信号を受信して、受信したGSP信号から緯度情報および経度情報を算出することにより、ユーザ6の現在位置を検出する。また、スマートフォン10は、内部の時計機能で現在時刻を検出する。スマートフォン10は、現在位置に基づきユーザ6が路上にいると判断され、かつ、現在時刻にもとづき夜間であると判断された場合に、カメラ部100を起動状態にして、周囲環境の検出を開始する。具体的には、周囲の明るさおよび周囲の音を、カメラ部100に検出させる。
The
スマートフォン10は、カメラ部100で検出された明るさが予め定められた明るさ以下であり、かつ、カメラ部100で検出された音の音量が予め定められた音量より小さいと判断した場合に、カメラ部100に赤外線等で接近者を検出させる。スマートフォン10は、カメラ部100における検出結果に基づいて接近者の有無を判断し、接近者が存在すると判断した場合に、カメラ部100に撮像を指示する。スマートフォン10は、カメラ部100により撮像された画像から人物を検出する。例えば、スマートフォン10は、画像から見知らぬ人物や要注意人物が検出された場合に、スマートフォン10が有するバイブレーション機能によりユーザ6に通知する。また、スマートフォン10は、ミュージックプレーヤ200から出力される音量を下げることにより、ユーザ6に通知する。
When the
システム5によれば、位置および時刻に基づいて、カメラ部100における検出動作を制御することができる。このため、例えば夜間に危険になるような場所にユーザ6がいる場合には、夜間になるとカメラ部100に検出動作を開始させることができる。また、システム5によれば、例えば暗く静かな環境になった場合に、人検出用の情報をカメラ部100で検出することができる。このように、システム5によれば、時間や状況等により危険性が変化する区域でも、適切なタイミングで周囲のセンシングを開始できる。このため、ユーザにとって使い勝手の良い防犯システムを提供できる。
According to the system 5, the detection operation in the
図2は、スマートフォン10、カメラ部100、ミュージックプレーヤ200の機能ブロックの一例を模式的に示す。ここでは、システム5にかかる機能ブロックについて、その機能および動作を示す。
FIG. 2 schematically illustrates an example of functional blocks of the
まず、スマートフォン10の機能構成について説明する。スマートフォン10は、CPU20、時計30、GPS信号検出部40、顔検出部50、メモリ60、振動部70、速度計80、および、通信部90を有する。
First, the functional configuration of the
時計30は、日時を計測して、計測した日時を示す日時データをCPU20に出力する。時計30は、時間を検出する時間検出部の一例である。GPS信号検出部40は、GPS衛星7から発信されるGPS信号を検出して、検出したGPS信号を示すGPSデータをCPU20に出力する。CPU20は、GPS信号検出部40が検出したGSPデータに基づいて、緯度情報および経度情報を算出する。GPS信号検出部40は、位置を検出する位置検出部の一例である。
The
顔検出部50は、画像データから顔を認識する。具体的には、顔検出部50は、カメラ部100で撮像された画像データから顔を認識する。例えば、顔検出部50は、カメラ部100で撮像された画像データから見知らぬ人物や要注意人物の顔を検出する。顔検出部50は、顔の検出結果を示す顔検出データを、CPU20に出力する。
The
速度計80は、ユーザ6の移動速度を検出する。例えば、速度計80は、加速度センサを含み、加速度センサで検出された加速度情報に基づいて、ユーザ6の歩行速度を検出してよい。例えば、速度計80は、ユーザ6が歩行しているときに生じる振動を検出して、振動に基づいて単位時間あたりの歩数を検出する。単位時間あたりの歩数を、ユーザ6の歩行速度の指標値として適用できる。速度計80は、検出した移動速度を示す速度データを、CPU20に出力する。速度計80は、ユーザ6の歩行速度を検出する速度検出部の一例である。CPU20は、ユーザ6の歩行速度を取得する速度取得部として機能する。なお、CPU20は、GPS信号検出部40で検出されたGPS情報に基づく現在位置の時間変化に基づいて、ユーザ6の移動速度を検出してもよい。このように、ユーザ6の移動速度を検出するのは、ユーザ6の通常の歩行速度(平均歩行速度)を検出するためと、検出した通常の歩行速度(平均歩行速度)に対してユーザ6の現在の歩行速度が速いか遅いかを検出するためである。ユーザ6が疲労していたり、ミュージックプレーヤ200の音楽に集中して歩行速度が通常よりも遅い場合は、周囲に対して油断しているような状態であり犯罪に巻き込まれやすいからである。
The
振動部70は、ユーザ6に危険を通知するために振動する。振動部70は、CPU20に制御に従って振動する。駆動部の一例としての振動部70は、CPU20に制御に従って振動する振動部を含んでよい。振動部としては、振動モータ等を例示することができる。CPU20は、時計30、GPS信号検出部40、顔検出部50や、カメラ部100が有する各センサ等、複数の検出部の検出結果に応じて、振動部70を振動させる。このように、振動部70は、複数の検出部の検出結果に応じて振動する。振動部70は、複数の検出部の検出結果に応じて駆動する駆動部の一例である。
The
通信部90は、カメラ部100と通信する。また、通信部90は、カメラ部100とは異なるミュージックプレーヤ200と通信する。通信部90は、CPU20で生成された送信データを変調して無線信号で外部に送出する。また、通信部90は、受信した無線信号を復調して受信データを生成し、CPU20へ出力する。このように、通信部90は、GPS信号検出部40および時計30とは分離して設けられるカメラ部100と通信することができる。
The
CPU20は、スマートフォン10の全体の制御を司り、ユーザ6に危険を通知するための制御を行う。CPU20は、GPS信号検出部40および時計30の検出結果に応じて、通信部90を介してカメラ部100が有する少なくとも1つのセンサに検出を指示する指示部として機能する。例えば、CPU20は、時計30、GPS信号検出部40、顔検出部50、速度計80等の各種のセンサで検出されたデータに基づいて制御を行う。具体的には、CPU20は、日時データ、GPSデータ、顔検出データ、速度データ等に基づいて、カメラ部100、ミュージックプレーヤ200を制御するための送信データを生成する。また、CPU20は、通信部90で受信した受信データに基づいて、顔検出部50、振動部70を制御する。
The
メモリ60は、不揮発性のメモリ(例えばフラッシュメモリ)であり、スマートフォン10の各部が動作するのに必要なデータを記憶する。例えば、メモリ60は、CPU20が動作させるオペレーティングシステム等のプログラム、各種パラメータ等を記憶する。また、メモリ60は、地図情報を記憶する。例えば、メモリ60は、緯度経度情報等の位置に対応づけて、当該位置に存在する建物、道路等の構造物の種別情報を含む地図情報を記憶する。地図情報には、道路における道幅に関するデータが含まれていてよい。また、メモリ60は、顔検出部50における顔認識に用いられる顔情報のデータを記憶する。この場合、メモリ60が記憶する顔データは、知り合いの顔と要注意人物との顔とに分けて記憶するようにしてもよい。これは後述するように、CPU20は、背後から接近する人物が知り合いか、要注意人物か、見知らぬ人物かに分けてユーザ6への通知を行なうためである。顔検出部50は、メモリ60に記憶された顔情報のデータと、カメラ部100で撮像された画像データとを比較することにより、顔を認識する。
The
また、メモリ60は、時計30、GPS信号検出部40、顔検出部50、速度計80により検出された各種の検出データを記憶する。また、メモリ60は、通信部90から送信される送信データ、通信部90で受信した受信データを記憶する。
The
次に、カメラ部100の機能構成について説明する。カメラ部100は、スマートフォン10とは分離して設けられ、スマートフォン10と通信を行うセンサユニットとして機能する。カメラ部100は、カメラ120、赤外線センサ130、LED140、照度計150、マイク160、および、通信部110を有する。本実施形態においては、カメラ部100は図1に示してあるように、ユーザ6の背後に設けられているので、カメラ120、赤外線センサ130、照度計150、マイク160はユーザ6の背後の情報を取得するセンサとして機能する。カメラ120、赤外線センサ130、LED140、照度計150、マイク160をセンサと総称する場合がある。なお、カメラ部100をスマートフォン10と着脱可能なように、カメラ部100にスマートフォン10と機械的および電気的に係合する係合部を設けてもよい。カメラ部100をスマートフォン10に係合させた場合には、カメラ部100をスマートフォン10の撮影部として使用すればよい。また、スマートフォン10と、カメラ部100とを一体にしてもよく、スマートフォン10をユーザ6の背後に取り付けるようにしてもよく、この場合は通信部90、110を省略してもよい。
Next, the functional configuration of the
通信部110は、外部機器との間で通信する。具体的には、通信部110は、通信部90から送信されたデータを受信する。通信部110は、受信した無線信号を復調して受信データを生成する。通信部110は、受信データに基づいて、カメラ部100が備えるセンサを制御する信号を出力する。例えば、各センサは、検出動作を開始すべき旨の信号を受け取った場合に、検出動作を開始する。また、LED140は、発光を開始すべき旨の信号を受け取った場合に、発光を開始する。
The
照度計150は、照度を検出する物理量センサである。照度計150は、明るさを検出する検出部の一例である。照度計150により、ユーザ6がいる場所の明るさを検出することができる。マイク160は、周囲の音を検出する物理量センサであり、検出した音を示すデータを通信部110に出力する。マイク160は、音を検出する検出部の一例である。マイク160により、ユーザ6がいる場所の音を検出することができる。
The
通信部110は、カメラ部100が有する各センサから取得したデータ等を含む送信データを変調して、無線信号で外部に送出する。例えば、通信部110は、カメラ部100宛に、送信データを無線信号で送出する。
The
赤外線センサ130は、人の接近を検出するための情報を検出する検出部の一例である。赤外線センサ130は、赤外線を検出して、赤外線の強度を示すデータを通信部110へ出力する。赤外線センサ130としては焦電センサを適用できる。また、赤外線センサ130は、2次元の赤外線センサであってよい。検出方式としては、アクティブ方式およびパッシブ方式のいずれの方式も適用できる。赤外線センサ130は、照度計150およびマイク160の検出結果に応じて検出を行う。
The
カメラ120は、被写体を撮像して画像データを生成する。カメラ120は、生成した画像データを通信部110へ出力する。カメラ120は撮像部の一例である。カメラ120は、高感度カメラであってよい。また、カメラ120は、赤外線カメラであってもよい。カメラ120は、照度計150およびマイク160の検出結果に応じて検出を行う。カメラ120は、人の検出を行うための情報を検出する検出部の一例である。カメラ120は、赤外線センサ130の検出によって人の接近が検出された場合に、撮像を行う。
The
LED140は、通信部110から受け取った信号に基づいて動作する。LED140に供給される信号としては、発光強度を示す信号、発光色を示す信号、発光強度および色の少なくとも一方の時間変化を示す信号等を例示することができる。LED140は、出力部の一例である。出力部としては、LED140等の発光部の他、音声等を出力する音声出力部を例示することができる。LED140は、赤外線センサ130の検出によって人の接近が検出された場合に発光する。
The
上述のように本実施形態のカメラ部100(センサユニット)は、メモリを有していない。これは、カメラ部100(センサユニット)を落としたり、盗まれたたりした場合でもユーザ6の個人情報を流出させないためである。なお、カメラ部100(センサユニット)にメモリを設ける場合(例えばバッファメモリを設ける場合)でも、通信部110によりデータを送信した場合や、所定時間経過後(例えば数時間)にメモリのデータを削除するようにしたり、カメラ部100の不図示のケーシングが開かれたことに応じてメモリのデータを削除するようにすればよい。また、カメラ部100(センサユニット)に表示部を設けないことにより、メモリに記憶されたデータが表示できないようにしてもよい。
As described above, the camera unit 100 (sensor unit) of the present embodiment does not have a memory. This is because the personal information of the user 6 is not leaked even when the camera unit 100 (sensor unit) is dropped or stolen. Even when a memory is provided in the camera unit 100 (sensor unit) (for example, when a buffer memory is provided), the data in the memory is deleted when data is transmitted by the
CPU20、カメラ部100との通信に応じて、ミュージックプレーヤ200の制御を指示する。具体的には、CPU20は、カメラ部100から通信により取得したカメラ部100の各センサの出力に応じて、ミュージックプレーヤ200の制御を指示する。
Control of the
ミュージックプレーヤ200の機能構成について説明する。ミュージックプレーヤ200は、CPU220、音量制御部230、および、通信部210を有する。
A functional configuration of the
通信部210は、スマートフォン10と通信する。音量制御部230は、CPU220の制御により、ミュージックプレーヤ200から出力される音量を制御する。具体的には、音量制御部230は、ミュージックプレーヤ200から出力される音量を低下させる。音量制御部230は、ミュージックプレーヤ200からの音の出力を、予め定められた期間にわたって一時的に停止させてよい。
The
具体的には、通信部210は、通信部90から送信されたデータを受信する。通信部210は、受信した無線信号を復調して受信データを生成し、CPU220に出力する。CPU220は、受信データに基づいて、音量制御部230を制御する。例えば、CPU220は、音量を制御する信号を、音量制御部230に出力する。また、CPU220は、スマートフォン10宛の送信データを、通信部210に出力する。通信部210は、受け取った送信データを変調して、無線信号で外部に送出する。スマートフォン10宛の送信データとしては、現在の音量情報等を例示することができる。
Specifically, the
通信部90、通信部110、通信部210における無線通信に適用できる無線通信には、Bluetooth(登録商標)等の近距離無線通信規格等、種々の無線通信規格に準拠した無線通信を適用できる。
For wireless communication applicable to wireless communication in the
図3は、システム5において実行される処理を示すフローの一例を示す。ステップS302において、スマートフォン10のCPU20は、時計30から日時データを取得するとともに、GPS信号検出部40からGPSデータを取得して、現在の時間および位置の状況を確認する。具体的には、CPU20は、日時データから現在時刻を特定する。また、CPU20は、GPSデータから現在位置を特定する。また、CPU20は、メモリ60に記憶されている地図情報を取得する。地図情報には、道幅情報等の道情報が含まれる。CPU20は、地図情報および現在位置に基づいて、現在位置における構造物の種別を特定する。また、CPU20は、現在位置が道路上にある場合、地図情報に基づいて、現在位置における道幅を特定してよい。
FIG. 3 shows an example of a flow showing processing executed in the system 5. In step S <b> 302, the
ステップS304において、CPU20は、カメラ部100の起動を行うか否かを判断する。例えば、CPU20は、現在時刻および現在位置に基づいて、カメラ部100の起動を行うか否かを判断する。本処理の詳細については、図4に関連して説明する。
In step S <b> 304, the
ステップS304の判断においてカメラ部100の起動を行うと判断された場合、照度計150およびマイク160をONさせて、照度計150およびマイク160による検出を開始させる(ステップS306)。具体的には、CPU20は、照度計150およびマイク160をONする旨の送信データを、カメラ部100宛に、通信部90に無線通信で送信させる。
If it is determined in step S304 that the
続いて、ステップS308において、CPU20は、周囲状況を確認する。具体的には、CPU20は、照度計150で検出された照度を示すデータと、マイク160で検出された音を示すデータとを、無線通信でカメラ部100から取得する。
Subsequently, in step S308, the
ステップS310において、CPU20は、接近物の検出を実行するか否かを判断する。具体的には、CPU20は、ステップS308における確認結果に基づいて、接近物の検出を実行するか否かを判断する。本処理の詳細については、図5に関連して説明する。
In step S310, the
ステップS310の判断においてユーザ6の背後からの接近物の検出を実行すると判断された場合、カメラ部100は、赤外線センサ130をONして、赤外線センサ130による接近物の検出を開始する(ステップS312)。具体的には、CPU20は、赤外線センサ130をONする旨の送信データを、カメラ部100宛に、通信部90に無線通信で送信させる。赤外線センサ130は、照度計150およびマイク160の検出結果に応じて、検出を開始する。
When it is determined in step S310 that the approaching object from the back of the user 6 is to be detected, the
続いて、ステップS314において、CPU20は、接近物の有無を判断する。例えば、CPU20は、無線通信でカメラ部100から取得た赤外線センサ130の検出データに基づいて、接近物の有無を判断する。例えば、CPU20は、赤外線センサ130による検出データの時間変化に基づいて、接近物の有無を判断する。例えば、CPU20は、赤外線強度の時間変化に基づいて、接近物の有無を判断する。CPU20は、赤外線強度が時間的に増加する場合に、接近物が存在すると判断する。また、赤外線センサ130が2次元の赤外線センサである場合、CPU20は、2次元の赤外線の輝度情報の時間変化に基づいて、接近物の有無を判断する。例えば、赤外画像から抽出されたオブジェクトの大きさの時間変化に基づいて、接近物の有無を判断する。より具体的には、予め定められた形状のオブジェクトの大きさが時間的に増加する場合に、接近物が存在すると判断する。
Subsequently, in step S314, the
ステップS314の判断において接近物があると判断された場合、カメラ部100は、撮像を開始する(ステップS316)。具体的には、CPU20は、カメラ120に撮像を開始させる旨の送信データを、カメラ部100宛に、通信部90に無線通信で送信させる。このように、CPU20は、赤外線センサ130の検出結果に応じて、照度計150、マイク160および赤外線センサ130とは異なる検出部であるカメラ120に、検出を指示する。
When it is determined in step S314 that there is an approaching object, the
続いて、カメラ部100は、LED140を点灯する(ステップS318)。具体的には、CPU20は、LED140を点灯させる旨の送信データを、カメラ部100宛に、通信部90に無線通信で送信させる。CPU20は、LED140が発光できる最大発光強度の50%の発光強度で、LED140に発光させてよい。CPU20は、LED140に発光させる発光強度を示す情報を含む送信データを送信させてよい。また、CPU20は、LED140に発光させる発光パターンを指示する送信データを、カメラ部100宛に送信させてよい。このように、CPU20は、時計30、顔検出部50、照度計150、マイク160、赤外線センサ130、カメラ120等のセンサの検出結果に応じて、LED140に出力を指示することができる。特に、赤外線センサ130により接近物が検出された場合等、赤外線センサ130の検出結果に応じてLED140を発光させる。このため、周囲の状況に応じて適切なタイミングでLED140を点灯させることにより、ユーザ6が背後に接近者に気がついていることを、接近者へ知らせることができる。また、CPU20は、カメラ部100による撮像を行なうときにLED140を点灯させることにより、盗撮ではないことを周囲に報知可能となる。
Subsequently, the
続いて、ステップS320において、ユーザ6への通知を実行するか否かを判断する。具体的には、CPU20は、カメラ120で撮像することにより得られた画像データを、無線通信でカメラ部100から取得し、取得した画像データに基づいて、メモリ60に顔のデータが記憶されていない見知らぬ人物である場合や、メモリ60に要注意人物として登録されている人物の場合にユーザ6への通知を行なうと判断する。
Subsequently, in step S320, it is determined whether to notify the user 6 or not. Specifically, the
S320の判断においてユーザ6へ通知する判断された場合、ユーザへ通知し(ステップS322)、本処理を終了する。例えば、ステップS322において、CPU20は、振動部70を振動させる。また、CPU20は、ミュージックプレーヤ200の音量を下げることにより、ユーザ6へ通知する。具体的には、CPU20は、音量を下げる旨の送信データを、ミュージックプレーヤ200宛に、通信部90に無線通信で送信させる。CPU20は、ミュージックプレーヤ200から出力されている現在の音量が予め定められた音量以上であることを条件として、ミュージックプレーヤ200の音量を低下させてもよい。また、CPU20は、ミュージックプレーヤ200が有する外部スピーカから外部へむけて音を出力させてもよい。
If it is determined to notify the user 6 in the determination of S320, the user is notified (step S322), and this process is terminated. For example, in step S322, the
ステップS320の判断においてユーザ6への通知を実行しないと判断された場合、S302に処理を移行する。また、本フローのステップS310の判断において接近物の検出を実行しないと判断された場合も、ステップS302に処理を移行する。また、本フローのステップS314の判断において接近物がないと判断された場合も、ステップS302に処理を移行する。また、本フローのステップS304の判断においてカメラ部100の起動を行わないと判断された場合、カメラ部100に設けられたカメラ120、赤外線センサ130、照度計150、マイク160をOFFにし(ステップS324)、ステップS302に処理を進める。
If it is determined in step S320 that notification to the user 6 is not to be executed, the process proceeds to S302. Also, if it is determined in step S310 of this flow that the approaching object is not detected, the process proceeds to step S302. If it is determined in step S314 of this flow that there is no approaching object, the process proceeds to step S302. If it is determined in step S304 in this flow that the
図4は、ステップS304で実行されるフローの一例を示す。ステップS302に続いて、CPU20は、現在時刻に基づいて、夜間であるか否かを判断する(ステップS402)。例えば、CPU20は、現在時刻が19時以降である場合に、夜間であると判断する。また、CPU20は、現在時刻が6時以前である場合に、夜間であると判断する。このように、CPU20は、現在時刻が、夜間の時間帯として予め定められた時間帯に属する場合に、夜間であると判断する。
FIG. 4 shows an example of the flow executed in step S304. Following step S302, the
ステップS402で夜間であると判断された場合、現在位置が建物内部であるか否かを判断する(ステップS404)。具体的には、CPU20は、現在位置と、メモリ60に記憶された地図情報とに基づいて、現在位置が建物内であるか否かを判断する。ステップS404で建物内でないと判断された場合は、ステップS306に進む。ステップS404で建物内と判断された場合は、ステップS324に進む。ステップS402で夜間でないと判断された場合も、ステップS324に進む。
If it is determined in step S402 that it is nighttime, it is determined whether or not the current position is inside the building (step S404). Specifically, the
このように、CPU20は、夜間であり、かつ、ユーザ6が建物外にいると判断した場合に、カメラ部100の起動を行うと判断する。このため、時間や場所の情報を利用して、適切なタイミングでカメラ部100を起動して、照度計150およびマイク160に検出を開始させることができる。このように、CPU20は、位置の検出結果および時刻の検出結果に応じて、通信部90を介してカメラ部100が有する照度計150およびマイク160に検出を指示する。
As described above, the
なお、ステップS404において、建物内であるか否かの判断に加えて、CPU20は、現在位置における道幅が予め定められた値(例えば数メートル)以上であるか否かを判断してよい。現在位置における道幅が予め定められた値以上でないと判断された場合に、ステップS306に処理を進めてよい。現在位置における道幅が予め定められた値より小さいと判断された場合に、ステップS306に処理を進めてよい。このように、CPU20は、道幅に関するデータに基づいて照度計150に検出を指示することができる。また、CPU20は、道幅に関するデータに基づいてマイク160に検出を指示することができる。これは、引ったくりなどの犯罪が広い道から細い道へ曲がった際に発生することが多いためである。このため、CPU20は、GPS信号検出部40の検出結果と、メモリ60に記憶されている道幅のデータとから、ユーザ6が相対的に広い道から細い道に移動したときにステップS306の処理を進めてもよい。この場合、CPU20は、ユーザ6の歩行速度が通常の歩行速度(平均歩行速度)程度以下である場合にステップS6の処理を進め、ユーザ6の歩行速度が通常の歩行速度(平均歩行速度)よりも速い場合にはステップS306の処理を行わないようにしてもよい。
In step S404, in addition to determining whether or not the vehicle is inside the building, the
また、CPU20は、ユーザ6が細い道から広い道に移動したときや、ユーザ6の歩行速度が通常の歩行速度(平均歩行速度)よりも15%程度速いときに図3のフローチャートを終了させるようにしてもよい。
Further, the
図5は、ステップS310で実行されるフローの一例を示す。ステップS308に続いて、CPU20は、照度計150で検出された照度が予め定められた照度の基準値以下であるか否かを判断する(ステップS502)。ステップS502で照度の基準値以下と判断された場合、ステップS504において、マイク160で検出された音量が予め定められた基準値以下であるか否かを判断する(ステップS504)。ステップS504の判断において検出された音量が予め定められた基準値以下であると判断された場合、ステップS312に進む。
FIG. 5 shows an example of the flow executed in step S310. Subsequent to step S308, the
また、ステップS504の判断において、検出された音量が予め定められた基準値を超えると判断された場合、ステップS302に進む。ステップS502の判断において、検出された照度が予め定められた照度の基準値を超えると判断された場合も、ステップS302に進む。 If it is determined in step S504 that the detected volume exceeds a predetermined reference value, the process proceeds to step S302. If it is determined in step S502 that the detected illuminance exceeds the predetermined illuminance reference value, the process also proceeds to step S302.
このように、CPU20は、検出された照度が予め定められた基準照度以下であり、かつ、検出された音量が予め定められた基準音量以下である場合に、赤外線センサ130に接近物を検出させると判断する。このため、赤外線センサ130は、照度計150が予め定められた明るさ以下の明るさを検出し、マイク160が予め定められた値以下の音量を検出したときに、人の検出を行うための情報を検出することができる。このため、暗く静かな場所になった場合のように、適切なタイミングで接近物の検出を開始することができる。このように、CPU20は、照度計150の検出結果に応じて、照度計150とは異なる赤外線センサ130に検出を指示する。また、CPU20は、マイク160の検出結果に応じて、照度計150およびマイク160とは異なる赤外線センサ130に検出を指示する。
As described above, the
ここでは、予め定められた明るさ以下の明るさが検出され、予め定められた値以下の音量が検出された場合に、赤外線センサ130に検出させるとした。しかし、CPU20は、マイク160で検出された音の種類に応じて、赤外線センサ130に検出させてもよい。例えば、CPU20は、予め定められた条件に適合する周波数の音が検出された場合に、赤外線センサ130に検出させてもよい。予め定められた条件に適合する周波数としては、靴音等の足音の周波数を例示することができる。また、予め定められた条件に適合する周波数として、電車、バイク等の車両のエンジン音やモータ音、車両の走行音等の周波数等を例示することができる。これは、バイクの急接近に加えて、電車などの騒音により周囲の音(例えば悲鳴)がかき消されてしまうときの様子を検出するためである。すなわち、赤外線センサ130は、照度計150が予め定められた明るさ以下の明るさを検出し、マイク160が予め定められた種類の音を検出した場合に、人の検出を行うための情報を検出してよい。
Here, when the brightness below the predetermined brightness is detected and the sound volume below the predetermined value is detected, the
また、CPU20は、明るさに予め定められた変化があり、音に予め定められた変化があったときに、赤外線センサ130に検出させてもよい。すなわち、赤外線センサ130は、照度計150が検出する明るさに予め定められた変化があり、マイク160が検出する音に予め定められた変化があったときに、人の検出を行うための情報を検出してよい。例えば、明るさが急に明るくなり、音が急に大きくなったときに、赤外線センサ130に検出させてよい。このため、電車、バイク等の車両により生じ得る周囲環境の変化を適切に検出して、赤外線センサ130による検出を開始させることができる。
Further, the
システム5によれば、時間や状況等により危険性が変化する区域でも、適切なタイミングで周囲環境を検出するセンサに検出を開始させることができる。そして、検出を開始したセンサの検出結果に応じて、適切なタイミングで他のセンサに順次に検出を開始させることができる。そして、各種センサによる検出結果に応じて、必要なタイミングでユーザ6に検出結果を通知することができる。このため、ユーザにとって使い勝手の良い防犯システムを提供できる。 According to the system 5, even in an area where the risk changes depending on time, situation, etc., the sensor that detects the surrounding environment can start detection at an appropriate timing. And according to the detection result of the sensor which started the detection, the other sensors can be made to start the detection sequentially at an appropriate timing. And according to the detection result by various sensors, a user 6 can be notified of a detection result at a required timing. For this reason, a user-friendly crime prevention system can be provided.
以上の説明において、人の接近を検出するための検出部として、赤外線センサ130を例示した。人の接近を検出するための検出部としては、超音波センサ等、赤外線センサ130以外の種々のセンサを適用できる。また、当該検出部として、位置や距離を測定できる種々のセンサを適用できる。例えば、当該検出部として、レーザ測距センサ等を適用できる。
In the above description, the
また、以上の説明ではスマートフォン10が速度計80を備えるとしたが、速度計はカメラ部100等、スマートフォン10以外の外部機器が備えてよい。そして、スマートフォン10が、当該外部機器で計測された速度を示す情報を通信によって取得してよい。
In the above description, the
また、以上の説明では、CPU20が、カメラ部100が有する各センサの検出結果を取得して解析し、CPU20の指示により、カメラ部100の各センサの検出動作が制御されるとした。しかし、CPU20の機能を、カメラ部100が有してよい。例えば、カメラ部100において、照度計150およびマイク160の検出結果が解析され、解析結果に応じて赤外線センサ130に検出を行わせてよい。
In the above description, the
上記の説明において、CPU20の動作として説明した処理は、CPU20がプログラムに従ってスマートフォン10が有する各ハードウェアを制御することにより実現される。CPU220の動作として説明した処理は、CPU220がプログラムに従ってミュージックプレーヤ200が有する各ハードウェアを制御することにより実現される。カメラ部100の機能についても同様である。すなわち、本実施形態のスマートフォン10、カメラ部100、ミュージックプレーヤ200等に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。
In the above description, the processing described as the operation of the
なお、スマートフォン10の機能は、種々の電子機器に組み込むことができる。例えば、スマートフォンに限らず、携帯電話、PDA等の情報携帯端末、携帯型のゲーム機器、タブレット等を含むパーソナルコンピュータ、カメラ、ビデオカメラ、音声レコーダ、時計等に、スマートフォン10の機能を組み込むことができる。また、ミュージックプレーヤ200自体に、スマートフォン10の機能を組み込むこともできる。また、カメラ部100の機能も、種々の電子機器に組み込むことができる。例えば、カメラ部100の機能を、髪留め等のアクセサリに組み込むことで、アクセサリを電子機器として適用できる。なお、カメラ部100の検出機能のうち一部のセンサを、他のセンサが設けられた電子機器とは分離した電子機器に設けてよい。例えば、カメラ120の機能を、他のセンサとは分離した電子機器に設けてよい。カメラ部100の機能のうち少なくともカメラ120は、ユーザ6の背後を少なくとも撮像できる位置に設けられることが望ましい。また、赤外線センサ130も、ユーザ6の背後を少なくとも検出できる位置に設けられることが望ましい。しかし、カメラ120や赤外線センサ130による検出範囲は、ユーザ6の背後に限られないことは言うまでもない。また、ミュージックプレーヤ200は、音楽の再生に用いる電子機器に限られない。ミュージックプレーヤ200の機能を、音声再生機能付きの音声レコーダ等、種々の音声再生装置に組み込むことができる。
Note that the function of the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
5 システム、6 ユーザ、7 GPS衛星、10 スマートフォン、20 CPU、30 時計、40 GPS信号検出部、50 顔検出部、60 メモリ、70 振動部、80 速度計、90 通信部、100 カメラ部、110 通信部、120 カメラ、130 赤外線センサ、140 LED、150 照度計、160 マイク、200 ミュージックプレーヤ、220 CPU、230 音量制御部、210 通信部 5 systems, 6 users, 7 GPS satellites, 10 smartphones, 20 CPUs, 30 clocks, 40 GPS signal detection units, 50 face detection units, 60 memories, 70 vibration units, 80 speedometers, 90 communication units, 100 camera units, 110 Communication unit, 120 camera, 130 infrared sensor, 140 LED, 150 illuminometer, 160 microphone, 200 music player, 220 CPU, 230 volume control unit, 210 communication unit
Claims (10)
第1外部機器と通信可能な通信部と、
前記位置情報取得部が取得した位置情報に基づく位置の道幅の変化に基づいて、前記通信部を介して前記第1外部機器が有する第1検出部に検出を指示する指示部と、
を備える電子機器。 A position information acquisition unit that acquires position information,
A communication unit capable of communicating with the first external device;
An instruction unit for instructing detection to the first detection unit of the first external device via the communication unit based on a change in the width of the position based on the position information acquired by the position information acquisition unit ;
Electronic equipment comprising.
前記指示部は、前記時間情報取得部が取得した時間情報と、前記道幅の変化に基づいて、前記第1検出部に検出を指示する請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the instruction unit instructs the first detection unit to perform detection based on time information acquired by the time information acquisition unit and a change in the road width.
時間情報を取得する時間情報取得部と、 A time information acquisition unit for acquiring time information;
第1外部機器と通信可能な通信部と、 A communication unit capable of communicating with the first external device;
前記位置情報取得部が取得した位置情報および前記時間情報取得部が取得した時間情報に基づいて、前記通信部を介して前記第1外部機器が有する第1検出部に検出を指示する指示部と、を備え、 An instruction unit for instructing detection to the first detection unit of the first external device via the communication unit based on the position information acquired by the position information acquisition unit and the time information acquired by the time information acquisition unit; With
前記指示部は、前記第1検出部に検出を指示した後に、前記第1検出部の検出結果に基づいて、前記第1外部機器に前記第1検出部の検出結果と異なる所定の出力を指示する電子機器。 The instructing unit instructs the first external device to output a predetermined output different from the detection result of the first detecting unit based on the detection result of the first detecting unit after instructing the first detecting unit to detect. Electronic equipment.
請求項1から4のいずれか一項に記載の電子機器。 The instruction unit, based on said first detection portion of the detection result, the electronic device according to claim 1, any one of 4 to direct the detection in the second detection unit that is different from the first detection unit.
請求項5に記載の電子機器。 The electronic device according to claim 5, wherein the instruction unit instructs detection to a third detection unit different from the first detection unit and the second detection unit based on a detection result of the second detection unit.
請求項1から6のいずれか一項に記載の電子機器。 The communication unit electronic apparatus according to any one of claims 1 to 6 and the first external device is capable of communicating with a different second external device.
請求項7に記載の電子機器。 The electronic device according to claim 7 , wherein the instruction unit instructs control of the second external device based on communication with the first external device.
を備える請求項1から8のいずれか一項に記載の電子機器。 Electronic device according to any one of claims 1 to 8 comprising a driving unit for driving in accordance with the detection result of the plurality of detection units with said first external device.
を備える請求項1から9のいずれか一項に記載の電子機器。 The electronic device as described in any one of Claim 1 to 9 provided with the speed acquisition part which acquires a user's walking speed.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011278275A JP6056139B2 (en) | 2011-12-20 | 2011-12-20 | Electronics |
CN201280040382.XA CN103765860B (en) | 2011-12-20 | 2012-10-03 | Electronic equipment |
PCT/JP2012/006343 WO2013094091A1 (en) | 2011-12-20 | 2012-10-03 | Electronic device |
US14/301,983 US9741241B2 (en) | 2011-12-20 | 2014-06-11 | Electronic device |
US15/655,341 US10290207B2 (en) | 2011-12-20 | 2017-07-20 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011278275A JP6056139B2 (en) | 2011-12-20 | 2011-12-20 | Electronics |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015186071A Division JP6233375B2 (en) | 2015-09-18 | 2015-09-18 | Electronics |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013131822A JP2013131822A (en) | 2013-07-04 |
JP6056139B2 true JP6056139B2 (en) | 2017-01-11 |
Family
ID=48909087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011278275A Active JP6056139B2 (en) | 2011-12-20 | 2011-12-20 | Electronics |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6056139B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016049820A1 (en) * | 2014-09-29 | 2016-04-07 | 华为技术有限公司 | Anti-lost prompting method and anti-theft device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3121001B2 (en) * | 1990-01-31 | 2000-12-25 | カシオ計算機株式会社 | Method for producing Tl-based oxide superconductor |
JP2008282281A (en) * | 2007-05-11 | 2008-11-20 | Sanyo Electric Co Ltd | Control device, crime prevention device and wireless terminal device |
JP4470992B2 (en) * | 2007-12-05 | 2010-06-02 | セイコーエプソン株式会社 | Video management system |
JP5229720B2 (en) * | 2008-04-02 | 2013-07-03 | Necカシオモバイルコミュニケーションズ株式会社 | Portable terminal device and program |
JP2010221958A (en) * | 2009-03-25 | 2010-10-07 | Denso Corp | Vehicular antitheft system |
JP2011008746A (en) * | 2009-06-29 | 2011-01-13 | Shuji Hatano | Back monitoring device |
JP5491126B2 (en) * | 2009-10-28 | 2014-05-14 | 京セラ株式会社 | Portable electronic devices |
-
2011
- 2011-12-20 JP JP2011278275A patent/JP6056139B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013131822A (en) | 2013-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013094091A1 (en) | Electronic device | |
JP6094027B2 (en) | Electronics | |
US9319860B2 (en) | Mobile terminal that determine whether the user is walking while watching the mobile terminal | |
JP6669240B1 (en) | Recording control device, recording control system, recording control method, and recording control program | |
EP2974268A1 (en) | Always-on camera sampling strategies | |
US9332392B1 (en) | Remotely activating a combination of mobile device functions | |
JP7206854B2 (en) | Information providing system, server, mobile terminal, program and information providing method | |
JP2017182191A (en) | Pedestrian protection system and road side device | |
KR20140128840A (en) | Image-processing Apparatus for Car and Method of Controlling The Same | |
JP6233375B2 (en) | Electronics | |
JP6241468B2 (en) | Electronics | |
JP6056139B2 (en) | Electronics | |
JP6146448B2 (en) | Electronics | |
WO2019044456A1 (en) | Information processing device, vehicle, and roadside unit | |
JP2018078567A (en) | Electronic apparatus | |
JP6655526B2 (en) | Electronic device, control device, control program, and operation method of electronic device | |
US11403935B2 (en) | Mobile terminal | |
WO2018096959A1 (en) | Electronic device, control device and control program | |
CN111583669B (en) | Overspeed detection method, overspeed detection device, control equipment and storage medium | |
JP7397575B2 (en) | Traffic light control device and traffic light control method | |
CN111815943B (en) | Method, device and equipment for detecting vehicle parking times and storage medium | |
JP6872352B2 (en) | Electronic devices, control devices, control programs and operating methods of electronic devices | |
JP6777743B2 (en) | Electronic devices, control programs and operating methods of electronic devices | |
JP7272208B2 (en) | mobile terminal | |
TW201705096A (en) | Traffic violation warning method and event data recorder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6056139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |