JP6692735B2 - Monitoring system, monitoring method, and monitoring program - Google Patents
Monitoring system, monitoring method, and monitoring program Download PDFInfo
- Publication number
- JP6692735B2 JP6692735B2 JP2016220568A JP2016220568A JP6692735B2 JP 6692735 B2 JP6692735 B2 JP 6692735B2 JP 2016220568 A JP2016220568 A JP 2016220568A JP 2016220568 A JP2016220568 A JP 2016220568A JP 6692735 B2 JP6692735 B2 JP 6692735B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- drone
- specified
- tag
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 135
- 238000000034 method Methods 0.000 title claims description 56
- 238000003306 harvesting Methods 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 110
- 238000003860 storage Methods 0.000 description 60
- 230000008569 process Effects 0.000 description 46
- 235000013399 edible fruits Nutrition 0.000 description 32
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 10
- 241000167854 Bourreria succulenta Species 0.000 description 8
- 235000019693 cherries Nutrition 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 239000002420 orchard Substances 0.000 description 8
- 230000002265 prevention Effects 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 238000009331 sowing Methods 0.000 description 3
- 241000219109 Citrullus Species 0.000 description 2
- 235000012828 Citrullus lanatus var citroides Nutrition 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 101100545272 Caenorhabditis elegans zif-1 gene Proteins 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、監視システム、監視方法および監視プログラムに関する。 The present invention relates to a monitoring system, a monitoring method, and a monitoring program.
従来、所定のエリアへの侵入者を検知するための技術が提案されている。たとえば、飛行ロボットを用いて、監視領域における異常が発生している建屋から出てきた人物を不審者と判定し、不審者を迅速に撮影できる撮影システムが提案されている(特許文献1)。また、電線の断線や引っ張りの検知に基づき果樹園等の広いエリアの防犯を実現する技術も提案されている(特許文献2)。また、窓や扉の開閉の検知と携帯端末が備えるタグリーダが読み取る情報とに基づいて侵入者を検知する装置も提案されている(特許文献3)。また、施設の出入口に設けた人体検知センサにより不正侵入者を検知するシステムも提案されている(特許文献4)。 Conventionally, a technique for detecting an intruder in a predetermined area has been proposed. For example, there has been proposed an imaging system that uses a flying robot to determine a person who has come out of a building in which an abnormality has occurred in the monitored area as a suspicious person, and can quickly image the suspicious person (Patent Document 1). In addition, a technique has also been proposed that realizes crime prevention in a wide area such as an orchard based on detection of wire breakage and pulling (Patent Document 2). There is also proposed a device that detects an intruder based on detection of opening and closing of windows and doors and information read by a tag reader included in a mobile terminal (Patent Document 3). In addition, a system for detecting an unauthorized intruder by a human body detection sensor provided at the entrance of a facility has been proposed (Patent Document 4).
しかしながら、従来技術においては、面積の広い土地において不審者を検知して防犯対策を講じることは困難である。たとえば、農業者が管理する果樹園のように、外部から多数の観光客が訪れる場所では、果樹園に入る人々の中から不審者を見分けて防犯措置を講じることは容易ではない。 However, in the conventional technology, it is difficult to detect a suspicious person in a land having a large area and take a crime prevention measure. For example, in a place where a large number of tourists visit from the outside, such as an orchard managed by a farmer, it is not easy to discriminate a suspicious person from the people who enter the orchard and take a crime prevention measure.
防犯目的で監視カメラ等を設置することも考えられる。しかし、監視対象とする土地の面積が広い場合、網羅的に監視カメラを設置するにはコストがかかる。 It may be possible to install surveillance cameras and the like for crime prevention purposes. However, if the area of land to be monitored is large, it will be costly to install surveillance cameras comprehensively.
一方、一般的に収穫間際の作物の盗難被害が集中する傾向にあることも鑑みて、1つの側面では、面積の広い土地の低コストかつ効率的な監視を実現することができる、監視システム、監視方法および監視プログラムを提供することを目的とする。 On the other hand, in general, in view of the tendency that the theft damage of crops tends to be concentrated immediately before harvesting, in one aspect, a monitoring system capable of realizing low-cost and efficient monitoring of large-area land, An object is to provide a monitoring method and a monitoring program.
第1の案では、監視システム、監視方法および監視プログラムは、複数の区画に分割される所定範囲の土地において収穫時期の作物が存在する区画を特定し、複数の区画のうち特定した区画において移動型ロボットを巡回させるよう制御する。 In the first proposal, a monitoring system, a monitoring method, and a monitoring program specify a section in which a crop at a harvest time exists in a predetermined range of land divided into a plurality of sections, and move in the specified section among the plurality of sections. The robot is controlled to move around.
本発明の1実施形態によれば、面積の広い土地の低コストかつ効率的な監視を実現することができる。 According to one embodiment of the present invention, it is possible to realize low cost and efficient monitoring of land with a large area.
以下に、本願の開示する監視システム、監視方法および監視プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a monitoring system, a monitoring method, and a monitoring program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited to this embodiment.
(第1の実施形態)
図1は、第1の実施形態に係る監視システム1の構成の一例を説明するための図である。図1に示すように、第1の実施形態に係る監視システム1は、管理サーバ2と、検知装置3と、を備える。管理サーバ2と、検知装置3と、はネットワークにより通信可能に接続される。管理サーバ2はまた、監視システム1が監視対象とする土地の管理者の携帯端末4と、ネットワークにより通信可能に接続される。管理サーバ2は、検知装置3によるタグ5の検知結果に基づき、携帯端末4に通知を送信し、ドローン6を制御する。
(First embodiment)
FIG. 1 is a diagram for explaining an example of the configuration of the
管理サーバ2は、監視システム1の監視対象である、複数の区画に分割される所定範囲の土地を管理する管理者が運用する情報処理装置である。管理サーバ2は、たとえば、果樹を栽培し果物を収穫販売する農業者が運用するサーバである。また、管理サーバ2はたとえば、果物狩り等のために観光客が出入りする果樹園を運営する農業者が運用するサーバである。管理サーバ2の具体的態様は特に限定されず、物理的に一つの物理サーバであっても、クラウドコンピューティングを用いて実現される仮想サーバであってもよい。
The
検知装置3は、監視システム1の監視対象である所定範囲の土地に配置される。検知装置3は、人感センサ31と、タグセンサ32と、通信部33と、を備える。
The
人感センサ31は、検知装置3から所定範囲内に存在する人を検知する。人感センサ31は、当該人感センサ31が設置された位置の近傍に存在する人を検知する。人感センサ31はたとえば、当該人感センサ31が設置された位置から20〜30メートル程度の範囲内に存在する人を検知することができる。人感センサ31の検知距離は特に限定されず、土地内に配置する人感センサ31の数や位置に応じて決定すればよい。人感センサ31はたとえば、焦電型赤外線センサである。
The
タグセンサ32は、検知装置3から所定範囲内に存在するタグ5を検知する。タグセンサ32は、タグ5から送信される電波信号を受信し、当該電波信号に含まれるタグID等の各タグ5固有の情報を検知する。また、タグセンサ32は、タグ5から所定周期で送信される電波信号を受信し、電波強度および電波の往復時間等に基づきタグ5の場所を検知する。タグセンサ32の検知距離は特に限定されない。タグセンサ32の検知距離はたとえば、同一の検知装置3に設けられる人感センサ31と略同一の検知距離であってよい。
The
通信部33は、人感センサ31およびタグセンサ32による検知結果を、管理サーバ2に送信する。たとえば、通信部33は、人感センサ31が人を検知した旨の情報と、検知時刻と、当該人感センサ31を特定する情報と、を管理サーバ2に送信する。また、通信部33は、タグセンサ32がタグ5を検知した旨の情報と、検知時刻と、検知したタグ5を特定する情報と、当該タグセンサ32を特定する情報と、を管理サーバ2に送信する。
The
なお、監視システム1は、複数の検知装置3を備える。複数の検知装置3は、監視対象である所定範囲の土地に分散して配置される。たとえば、監視対象である土地は、複数の区画に分割される。そして、検知装置3は、各区画に少なくとも一つ配置される。また、検知装置3は、土地の中の人が通る通路に沿って配置される。また、検知装置3は、土地と外部との境界の近傍に配置される。以下、複数の検知装置3を集合的に参照符号3で表示する。また、各検知装置3が備える人感センサ31、タグセンサ32、通信部33はそれぞれ集合的に参照符号31,32,33で表示する。なお、ここでは対応する人感センサ31とタグセンサ32とは、同じ検知装置3内に設けられるものとする。ただし、対応する人感センサ31とタグセンサ32とは、略同一の場所において検知を実行できれば別体として構成してもよい。
The
携帯端末4は、監視対象である土地の管理者が所持する情報処理装置である。携帯端末4は、ネットワークを介して管理サーバ2にアクセスし、管理サーバ2から情報を受信することができれば具体的な態様は特に限定されない。携帯端末4は、たとえば、パーソナルコンピュータ(PC)、ポータブル・デジタル・アシスタント(PDA)、スマートフォン等、任意の情報処理端末であってよい。携帯端末4は、管理サーバ2から送信される通知を受信する。また、携帯端末4は、管理サーバ2に通知に対する応答を送信する。
The
タグ5は、情報が記憶され、当該情報を電波により送信する機能を有する小型のチップである。タグ5はたとえば、ICチップである。タグ5は、監視対象である土地に出入りする人に配布される。監視対象である土地に入る人はそれぞれタグ5を携帯する。たとえば、果樹園に果物狩りのために入園する人は、入口でタグ5を配布され園内ではタグ5の携帯が義務づけられる。また、果樹園の管理者および従業員もそれぞれ、タグ5を携帯する。タグ5は、それぞれ固有の情報を記憶する。タグ5は、所定周期で当該タグ5固有の情報を含む無線信号を送信する。タグ5が送信する無線信号は、当該タグ5から所定範囲内に存在するタグセンサ32が受信することができる。また、タグ5が送信する無線信号に含まれる当該タグ固有の情報は、無線信号を受信したタグセンサ32が検知することができる。
The
ドローン6は、管理サーバ2により制御される移動型ロボットである。ドローン6は、管理サーバ2による制御に応じて、監視対象の土地内の任意の位置に移動する。また、ドローン6は、制御部60と、記憶部70と、を有する。
The
制御部60は、ドローン6の動作および機能を制御する。制御部60にはたとえば、各種の集積回路や電子回路を採用できる。また、制御部60に含まれる機能部の一部を別の集積回路や電子回路とすることもできる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。
The
記憶部70は、ドローン6における処理に用いられる情報およびドローン6における処理によって生成される情報を記憶する。記憶部70には、半導体メモリ素子等を採用できる。例えば、半導体メモリ素子としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などが挙げられる。
The storage unit 70 stores information used for the processing in the
制御部60は、検知部61と、撮像部62と、出力部63と、通信部64と、を有する。
The
検知部61は、ドローン6の周囲の物体を検知する。たとえば、検知部61は赤外線センサ等を有し、ドローン6から所定範囲内の人の存在を検知する。
The
撮像部62は、ドローン6の周囲の画像を撮影する。撮像部62は、たとえば、検知部61が検知した人の画像を撮影する。また、撮像部62は、たとえば、検知部61が人を検知した位置から所定範囲内の画像を撮影する。撮像部62は、明瞭な画像を撮影するために撮影範囲を照明する機能を備える。
The
出力部63は、所定の音声を出力する。たとえば、出力部63は、録音された警告音や人の音声を外部に出力する。出力部63が音声を出力するタイミングは、管理サーバ2から送信される制御信号によって決定される。
The output unit 63 outputs a predetermined sound. For example, the output unit 63 outputs the recorded warning sound and human voice to the outside. The timing at which the output unit 63 outputs the sound is determined by the control signal transmitted from the
通信部64は、管理サーバ2が送信する制御信号を受信する。制御部60の各部は、管理サーバ2が送信する制御信号に応じて動作する。通信部64は、検知部61による検知結果および撮像部62が撮影した画像を、管理サーバ2に送信する。通信部64は、管理サーバ2以外の外部装置に情報を送信する機能を有してもよい。
The
記憶部70は、検知部61が人を検知した位置、検知した時刻を記憶する。また、記憶部70は、撮像部62が撮影した画像を、当該画像の撮像位置および撮像時刻と対応づけて記憶する。また、記憶部70は、出力部63が出力する音声を記憶する。
The storage unit 70 stores the position at which the
なお、ドローン6は、飛行型ロボット(マルチコプタ)であっても歩行型ロボットであってもよい。
The
管理サーバ2と、検知装置3、携帯端末4およびドローン6とを接続するネットワークの種類は特に限定されない。
The type of network that connects the
(管理サーバ2の構成の一例)
図1を参照し、管理サーバ2の構成の一例について説明する。管理サーバ2は、通信部10と、入力部20と、出力部30と、記憶部40と、制御部50と、を備える。
(One example of the configuration of the management server 2)
An example of the configuration of the
通信部10は、ネットワークを介した管理サーバ2と検知装置3、携帯端末4およびドローン6との通信を実現する。
The
入力部20は、管理サーバ2へ情報を入力するための入力装置である。入力部20は、たとえば、キーボード、マウス、タッチパネル、マイクロフォン等、管理サーバ2へ情報を入力することができれば任意の装置であってよい。
The
出力部30は、管理サーバ2に記憶される情報および管理サーバ2において生成される情報を外部に出力する装置である。出力部30は、たとえば、音声または画像として情報を外部に出力する。出力部30は、たとえば、モニタ等の表示装置、スピーカ、プリンタ等を含む。
The output unit 30 is a device that outputs information stored in the
記憶部40は、管理サーバ2における処理に用いられる情報および管理サーバ2における処理によって生成される情報を記憶する。記憶部40には、半導体メモリ素子等を採用できる。例えば、半導体メモリ素子としては、VRAM(Video Random Access Memory)、RAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などが挙げられる。
The
制御部50は、管理サーバ2の動作および機能を制御する。制御部50にはたとえば、各種の集積回路や電子回路を採用できる。また、制御部50に含まれる機能部の一部を別の集積回路や電子回路とすることもできる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。
The
(記憶部40に記憶する情報の一例)
記憶部40は、エリア記憶部41と、タグ記憶部42と、人感センサ記憶部43と、タグセンサ記憶部44と、検知記憶部45と、ドローン記憶部46と、栽培計画記憶部47と、飛行計画記憶部48と、を有する。
(Example of information stored in storage unit 40)
The
エリア記憶部41は、監視対象である土地の区画それぞれの情報を記憶する。図2は、第1の実施形態に係る監視システム1に記憶されるエリアの情報の構成の一例を示す図である。監視システム1の監視対象である土地は複数の区画に分割される。そして、分割された各区画についての情報が管理サーバ2のエリア記憶部41に記憶される。
The
図2の(A)に示すように、エリアの情報は、「エリアID」と、「位置」と、「面積」と、「果樹エリア」とを含む。「エリアID」は各エリアを一意に特定する識別子(Identifier)である。「位置」は、当該エリアが存在する位置を示す。たとえば、「位置」は、当該エリアの外縁の位置を経度および緯度で示す。「面積」は、当該エリアの広さを示す。「果樹エリア」は、当該エリアにおいて果樹すなわち盗難の対象となる物が栽培されているか否かを示す。 As shown in FIG. 2A, the area information includes “area ID”, “position”, “area”, and “fruit tree area”. The “area ID” is an identifier that uniquely identifies each area. “Position” indicates the position where the area is present. For example, “position” indicates the position of the outer edge of the area in longitude and latitude. "Area" indicates the size of the area. The “fruit tree area” indicates whether or not fruit trees, that is, objects to be stolen are cultivated in the area.
図2の(B)に示すように、監視対象の土地は、エリアID「A001」〜「A009」で特定される複数の区画に分割される。エリアID「A001」〜「A006」で特定される区画には果樹が栽培されている。他方、エリアID「A007」〜「A009」で特定される区画では果樹は栽培されていない。 As shown in FIG. 2B, the land to be monitored is divided into a plurality of sections specified by area IDs "A001" to "A009". Fruit trees are cultivated in the sections specified by the area IDs "A001" to "A006". On the other hand, fruit trees are not cultivated in the sections specified by the area IDs "A007" to "A009".
図2の(A)の例では、たとえば、エリアID「A001」の区画について、「位置、XXX」、「面積、2」、「果樹エリア、YES」が記憶されている。これは、エリアID「A001」で特定される区画の位置は、「XXX」であり、面積は2ヘクタール、現在果樹が栽培されているエリアであることを示す。 In the example of FIG. 2A, for example, “position, XXX”, “area, 2”, “fruit area, YES” is stored for the section with area ID “A001”. This indicates that the position of the section specified by the area ID “A001” is “XXX”, the area is 2 hectares, and the area is where fruit trees are currently cultivated.
タグ記憶部42は、タグ5の情報を記憶する。図3は、第1の実施形態に係る監視システム1に記憶されるタグ5の情報の構成の一例を示す図である。図3に示すように、タグ5の情報は、「タグID」と、「種別」と、「有効時間帯」と、「有効期限」と、「ユーザ情報」と、を含む。
The
「タグID」は、タグ5それぞれを一意に識別するための情報である。タグ5はタグIDを記憶するように構成してもよい。「種別」は、当該タグを携帯する人の種別を示す。図3の例では、「種別」として「管理者」、「従業員」、「観光客」が設定されている。「管理者」は、監視対象の土地を管理する者を指す。「従業員」は、監視対象の土地で働く従業員を指す。「観光客」は、監視対象の土地に入ることを一時的に許可された人を指す。
The “tag ID” is information for uniquely identifying each
「有効時間帯」は、当該タグ5を携帯する人が監視対象の土地に入ることが認められている時間帯を指す。たとえば、管理者であれば、特に制限なくいつでも監視対象の土地に入ることができる。また、従業員は、就業時間帯であれば監視対象の土地に入ることができる。観光客は、一時的に許可された時間の間しか監視対象の土地に入ることはできない。「有効期限」は、当該タグ5を携帯する人が監視対象の土地に入ることが認められている期限を指す。たとえば、管理者は、期限無制限で監視対象の土地に入ることができる。従業員は契約上認められた期間の間は監視対象の土地に入ることができる。観光客は、観光に訪れた日だけ監視対象の土地に入ることができる。
“Effective time zone” refers to a time zone in which a person carrying the
「ユーザ情報」は、当該タグ5を携帯する人の個人情報である。図3の例では、「ユーザ情報」は、管理者と従業員について記憶され、観光客については記憶されないものとする。ただし、観光客についてもユーザ情報を記憶する構成としてもよい。
The “user information” is personal information of the person who carries the
図3の例では、たとえば、「タグID、T001」に対応付けて、「種別、管理者」、「有効時間帯、無制限」、「有効期限、無制限」、「ユーザ情報、富士太郎」が記憶される。これは、タグID「T001」で特定されるタグ5は、管理者である富士太郎が携帯していることを示す。また、タグID「T001」で特定されるタグ5を携帯する人は、時間帯や期限の制限なく、監視対象の土地に入ることができることを示す。
In the example of FIG. 3, for example, “type, administrator”, “valid time period, unlimited”, “valid period, unlimited”, “user information, Fujitaro” are stored in association with “tag ID, T001”. To be done. This indicates that the
また、図3の例では、たとえば、「タグID、T004」に対応付けて、「種別、観光客」、「有効時間帯、10:00−16:00」、「有効期限、20160425」が記憶される。これは、タグID「T004」で特定されるタグ5は、観光客が携帯していることを示す。また、当該タグ5を携帯する観光客は、監視対象である土地に10時から16時の間は入ることが認められていることを示す。また、当該タグ5を携帯する観光客が監視対象である土地に入ることが認められているのは2016年4月25日だけであることを示す。
Further, in the example of FIG. 3, for example, “type, tourist”, “valid time zone, 10: 00-16: 00”, and “validity period, 20144425” are stored in association with “tag ID, T004”. To be done. This indicates that the
人感センサ記憶部43は、監視対象の土地内に配置される検知装置3が備える人感センサ31の情報を記憶する。図4は、第1の実施形態に係る監視システム1に記憶される人感センサ31の情報の構成の一例を示す図である。図4に示すように、人感センサ31の情報は、「センサID(1)」と、「位置」と、「エリアID」と、「果樹エリア」と、「ルート上」と、を含む。「センサID(1)」は、人感センサ31を一意に特定する識別子である。「位置」は、当該人感センサ31が配置される位置を特定する情報である。「位置」はたとえば、当該人感センサ31がある場所の緯度経度である。「エリアID」は、当該人感センサ31が配置される場所が、どの区画内かを示す。「果樹エリア」は、当該人感センサ31が配置される区画において果樹が栽培中であるか否かを示す。「ルート上」は、当該人感センサ31が配置される位置は、観光客が通過する観光ルート上にあるか否かを示す。
The human
図4の例では、「センサID(1)、HS001」に対応付けて、「位置、EOO,NXX」、「エリアID、A001」、「果樹エリア、YES」、「ルート上、YES」が記憶される。これは、センサID(1)「HS001」で特定される人感センサ31は、「EOO,NXX」で特定される位置に配置されることを示す。また、当該人感センサ31は、エリアID「A001」で特定される区画内に配置されることを示す。また、当該人感センサ31が配置される区画では、現在果樹が栽培されていることを示す。また、当該人感センサ31が配置される位置は、観光客が通過するよう設定されたルート上にあることを示す。
In the example of FIG. 4, “position, EOO, NXX”, “area ID, A001”, “fruit area, YES”, “on route, YES” are stored in association with “sensor ID (1), HS001”. To be done. This indicates that the
タグセンサ記憶部44は、監視対象の土地内に配置される検知装置3が備えるタグセンサ32の情報を記憶する。図5は、第1の実施形態に係る監視システム1に記憶されるタグセンサ32の情報の構成の一例を示す図である。図5に示すように、タグセンサ32の情報は、「センサID(2)」、「位置」、「エリアID」、「対応HS」を含む。「センサID(2)」は、タグセンサ32を一意に特定する識別子である。「位置」は、当該タグセンサ32が配置される位置を特定する情報である。「位置」はたとえば、当該タグセンサ32が配置される位置の緯度経度である。「エリアID」は、当該タグセンサ32が配置される区画のエリアIDである。「対応HS」は、当該タグセンサ32に対応する人感センサ31のセンサIDである。すなわち、「対応HS」は、当該タグセンサ32と同じ検知装置3内に内蔵される人感センサ31のセンサIDである。
The tag
図5の例では、「センサID(2)、TS001」に対応付けて、「位置、・・・」、「エリアID、A001」、「対応HS、HS001」が記憶される。これは、センサID(2)「TS001」で特定されるタグセンサ32は、「・・・」で特定される位置に配置されることを示す。また、当該タグセンサ32は、エリアID「A001」で特定される区画に配置されることを示す。また、当該タグセンサ32は、センサID(1)「HS001」で特定される人感センサ31と対応づけられることを示す。すなわち、当該タグセンサ32は、センサID(1)「HS001」で特定される人感センサ31と同じ検知装置3に設けられていることを示す。
In the example of FIG. 5, “position, ...”, “Area ID, A001”, and “corresponding HS, HS001” are stored in association with “sensor ID (2), TS001”. This indicates that the
検知記憶部45は、人感センサ31およびタグセンサ32による検知の結果である検知情報を記憶する。図6は、第1の実施形態に係る監視システム1に記憶される検知情報の構成の一例を示す図である。図6に示すように、検知情報は、「時刻」、「センサID(1)」、「センサID(2)」、「タグID」を含む。「時刻」は、当該検知情報が人感センサ31またはタグセンサ32により検知された時刻を示す。「センサID(1)」は当該検知情報を検知した人感センサ31のセンサID(1)である。「センサID(2)」は当該検知情報を検知したタグセンサ32のセンサID(2)である。「タグID」は、対応するタグセンサ32が検知したタグ5のタグIDである。
The
図6の例では、「時刻、20160401/10:20:00」に対応付けて、「センサID(1)、HS001」、「センサID(2)、TS001」、「タグID、T004」が記憶される。これは、2016年4月1日の10時20分に、「HS001」で特定される人感センサ31が人を検知したことを示す。また、同じときに、「TS001」で特定されるタグセンサ32が、タグID「T004」で特定されるタグ5を検知したことを示す。また、図6の例では、「時刻、20160401/10:45:00」に対応付けて、「センサID(1)、HS001」が記憶される。この時刻と対応付けて記憶されている「センサID(2)」、「タグID」は「NA」である。これは、2016年4月1日の10時45分に、「HS001」で特定される人感センサ31が人を検知したが、同じ時刻に当該人感センサ31に対応するタグセンサ32はタグ5を検知していないことを示す。
In the example of FIG. 6, “sensor ID (1), HS001”, “sensor ID (2), TS001”, and “tag ID, T004” are stored in association with “time, 20160410/10: 20: 00”. To be done. This indicates that the
ドローン記憶部46は、管理サーバ2が管理制御するドローン6の情報を記憶する。図7は、第1の実施形態に係る監視システム1に記憶されるドローン6の情報の構成の一例を示す図である。なお、図1にはドローン6を一つだけ示したが、管理サーバ2は、複数のドローン6を管理制御するものとする。なお、複数のドローン6をそれぞれ表示するときは、ドローン6a,6b等と表示し、集合的に表示するときはドローン6と表示する。
The
図7に示すように、ドローン6の情報は、「ドローンID」、「継続飛行可能時間」、「充電時間」を含む。「ドローンID」は、各ドローン6を一意に特定する識別子である。「継続飛行可能時間」は、各ドローン6が継続して飛行することができる時間の長さを示す。図7の例では、ドローン6は飛行ロボットとするため、「継続飛行可能時間」を記憶するが、歩行ロボットであればドローン記憶部46は「継続歩行可能時間」を記憶する。「充電時間」は、ドローン6を完全充電するために要する時間の長さを示す。
As shown in FIG. 7, the information on the
図7の例では、「ドローンID、D001」に対応づけて、「継続飛行可能時間、1hr」、「充電時間、20m」が記憶される。これは、ドローンID「D001」で特定されるドローン6は、継続して1時間飛行することができる飛行ロボットであり、完全充電するには20分要することを示す。
In the example of FIG. 7, “continuous flight possible time, 1 hr” and “charging time, 20 m” are stored in association with “drone ID, D001”. This indicates that the
栽培計画記憶部47は、各区画についていつどのような作物が栽培される予定であるかを示す情報である栽培計画を記憶する。図8は、第1の実施形態に係る監視システム1に記憶される栽培計画の情報の構成の一例を示す図である。栽培計画は、毎年所定の時期までに管理サーバ2に記憶される。
The cultivation
図8に示すように、栽培計画は、「エリアID」、「作物」、「種蒔き」、「苗植え」、「収穫」、「優先度」、「収穫時期」を含む。「エリアID」は、監視対象の土地の区画を一意に特定する情報である。「エリアID」は、エリア記憶部41に記憶されるものと同一である。「作物」は、エリアIDにより特定される区画において栽培される作物を示す。「種蒔き」は、「作物」により特定される作物の種蒔きをする時期を示す。「苗植え」は、「作物」により特定される作物の苗を植え付ける時期を示す。「収穫」は、「作物」により特定される作物を収穫する時期を示す。「優先度」は、「作物」で特定される作物を優先して監視すべきか否かの度合いである優先度を示す。優先度は、たとえば、当該作物の単価、当該作物の市場での人気等、当該作物が盗難にあった場合に農業者が受ける被害の大きさに基づき設定される。優先度は、監視システム1の運用者が手動で設定してもよい。また、優先度は、市価にもとづきより高価な作物に高い優先度が付されるよう自動的に更新する設定としてもよい。「収穫時期」は、実際に当該作物の収穫が予定される時期を示す。たとえば、作物「すいか」の収穫時期は、「すいか」が成熟してきた時点でユーザが管理サーバ2に入力する。
As shown in FIG. 8, the cultivation plan includes “area ID”, “crop”, “seed”, “seedling”, “harvest”, “priority”, and “harvest time”. The “area ID” is information that uniquely identifies a section of land to be monitored. The “area ID” is the same as that stored in the
図8の例では、「エリアID、A002」に対応づけて、「作物、さくらんぼ」、「種蒔き、NA」、「苗植え、NA」、「収穫、5−6月」、「優先度、2」、「収穫時期、5月中旬」が記憶される。これは、エリアID「A002」で特定される区画には、さくらんぼが栽培されていることを示す。また、当該区画には、すでにさくらんぼを収穫するための桜の木が植えられており、種蒔きや苗植えは行われないことを示す。また、さくらんぼの収穫は5−6月が予定されていることを示す。また、さくらんぼが収穫時期に近づいたときに「A002」の区画を監視する優先度は「2」であることを示す。なお、図8の例では、小さな数字ほど優先度が高く、大きな数字ほど優先度が低いことを示す。したがって、図8の例は、さくらんぼが収穫時期に近づいたときには、優先度「1」の作物をのぞいては最も高い優先度で監視すべきことを示す。また、さくらんぼは既に成熟しつつあり、5月中旬には収穫する予定であることを示す。なお、「収穫時期」に記憶される情報は、当該時期を過ぎると自動的に消去されるものとする。 In the example of FIG. 8, in association with “area ID, A002”, “crop, cherry”, “seed, NA”, “seed planting, NA”, “harvest, May-June”, “priority, 2 ”and“ harvest time, mid-May ”are stored. This indicates that cherries are cultivated in the section specified by the area ID “A002”. It also shows that cherry trees for harvesting cherries have already been planted in the area, and sowing and seedling planting will not be performed. It also indicates that the cherry harvest is scheduled for May-June. It also indicates that the priority of monitoring the section of "A002" is "2" when the cherry approaches the harvest time. In the example of FIG. 8, the smaller the number, the higher the priority, and the larger the number, the lower the priority. Therefore, the example of FIG. 8 shows that when a cherry approaches the harvest time, it should be monitored with the highest priority except for crops with priority “1”. It also indicates that the cherries are already maturing and will be harvested in mid-May. The information stored in the “harvest time” is automatically deleted after the time.
なお、図8の例において「収穫」は通常当該作物が成熟し収穫に適した状態となると考えられる時期を示す。他方、「収穫時期」は、土地の管理者等が、実際に栽培されている作物を観察して決定した収穫作業を行う時期を示す。 In addition, in the example of FIG. 8, “harvest” usually indicates a period when the crop is considered to be mature and suitable for harvesting. On the other hand, the “harvest time” indicates the time when the land manager or the like performs the harvesting work determined by observing the actually cultivated crop.
飛行計画記憶部48は、監視対象である土地を監視するために実行する、ドローン6の飛行パターンを規定する飛行計画を記憶する。図9は、第1の実施形態に係る監視システム1に記憶される飛行計画の情報の構成の一例を示す図である。飛行計画記憶部48は、予め複数の飛行計画を記憶し、ドローン6は、管理サーバ2が特定する1の飛行計画に基づき制御される。第1の実施形態に係る監視システム1は、優先度が高い作物が栽培されている区画を重点的に監視するため、優先度に対応づけて飛行計画を選択する。
The flight
図9の(A)に示すように、飛行計画は、「ルートID」、「台数」、「同時飛行」、「対象面積」、「果樹優先度」、「飛行パターン」、「管理」を含む。「ルートID」は、飛行計画を一意に特定する識別子である。「台数」は、当該飛行計画に基づき使用するドローン6の数を示す。「同時飛行」は、ドローン6を同時に飛行させる数を示す。「対象面積」は、当該飛行計画によってカバーされる面積を示す。すなわち、「対象面積」は、当該飛行計画によって監視対象とすることができる土地の面積を示す。「果樹優先度」は、当該飛行計画が優先度が高い作物向きであるか、優先度が低い作物向きであるかを示す。「飛行パターン」は、当該飛行計画によって定められるドローン6の飛行パターンを示す。飛行パターンとは、たとえば、ドローン6が対象区画のどの方向から監視を開始し、どの方向に向かって飛ぶか、等、ドローン6の飛行の方向や飛行するルートを示す。「管理」は、各時点において選択されている飛行計画を示す。
As shown in FIG. 9A, the flight plan includes “route ID”, “number of vehicles”, “simultaneous flight”, “target area”, “fruit tree priority”, “flight pattern”, and “management”. .. The "route ID" is an identifier that uniquely identifies a flight plan. The “number” indicates the number of
たとえば、図9の(A)の例では、「ルートID、R006」に対応づけて、「台数、3」、「同時飛行、2」、「対象面積、5」、「果樹優先度、高」、「飛行パターン、ジグザグ(東から西へ)」、「管理、〇」が記憶される。これは、ルートID「R006」で特定される飛行計画においては、3台のドローン6を使用することを示す。また、当該飛行計画では、同時に2台のドローン6を飛行させることを示す。つまり、当該飛行計画では、2台のドローン6を飛行させている間に他の1台のドローン6の充電を行い、交代でドローン6を飛行させる。また、当該飛行計画では、ドローン6が上空を飛行する土地の大きさは、5ヘクタールであることを示す。また、当該飛行計画に適する作物は、「優先度」が高い作物であることを示す。また、当該飛行計画によれば、ドローン6は、東から西へ向かってジグザグに進むよう制御されることを示す。また、現時点で実行する飛行計画として、ルートID「R006」の飛行計画が選択されていることを示す。
For example, in the example of FIG. 9A, "route ID, R006" is associated with "number of units, 3", "simultaneous flight, 2", "target area, 5", "fruit tree priority, high". , “Flight pattern, zigzag (east to west)”, “management, ◯” are stored. This indicates that three
飛行計画は、優先度の高い果樹については使用するドローンの数を増やし、監視対象区画をくまなく飛行するよう設定される。また、飛行計画は、優先度の低い果樹については使用するドローンの数を優先度の高い果樹よりも減らすよう設定される。飛行パターンについても優先度の高い果樹の方が優先度の低い果樹よりも密に飛行するよう設定する。 The flight plan will be set to increase the number of drones used for high priority fruit trees and fly all over the monitored area. The flight plan is also set to use fewer drones for lower priority fruit trees than for higher priority fruit trees. Regarding flight patterns, fruit trees with higher priority will be set to fly closer than fruit trees with lower priority.
図9の(B)は、現在設定されている、監視システム1による監視処理を実行する時間帯である警備時間帯を示す。図9の(B)の例では、「警備時間帯、22:00〜5:00」が設定されている。これは、監視システム1は、夜の22時から朝の5時までドローン6を用いた監視を実行することを示す。警備時間帯は、初期設定により予め設定されるものとしてもよい。また、警備時間帯は、ユーザが任意に設定してもよい。
FIG. 9B shows the currently set security time period, which is the time period in which the monitoring process by the
図9の(C)は、飛行計画の詳細を示す。図9の(C)は一例として、ドローン6を1台使用して、エリアID「A001」の区画を監視する場合の飛行計画の詳細を示す。図9の(C)の例では、「日付、10/1」に対応づけて、「監視エリア、A001」が記憶される。また、「出発時間、0:00」、「到達時間、0:20」、「充電開始時間、0:20」、「充電完了時間、0:40」が記憶される。これは、10月1日の飛行計画では、エリアID「A001」で特定される区画が監視対象となることを示す。また、10月1日の飛行計画では、ドローン6は、ドローン格納位置を0時に出発して区画「A001」上を飛行することを示す。また、ドローン6は、0時20分にドローン格納位置まで戻るよう制御されることを示す。また、ドローン6は、0時20分にドローン格納位置まで戻ると、充電されることを示す。また、ドローン6の充電は0時40分に完了することを示す。飛行計画は、図7に示すドローン6の情報に基づき、各計画に基づきドローン6を制御できるよう、予め設定される。
FIG. 9C shows the details of the flight plan. As an example, FIG. 9C shows the details of the flight plan in the case of using one
なお、図9の(C)の例では、ドローン6を1台だけ使う場合を説明した。これに限定されず、ドローン6を常に複数台使用して、充電時間中にも監視が途切れないよう飛行計画を設定してもよい。たとえば、ドローン6aを最初に出発させ、到達時間の所定時間前にドローン6bを出発させる。そして、ドローン6aの充電中はドローン6bが監視を実行し、ドローン6bの充電中はドローン6aが監視を実行するように飛行計画を設定してもよい。
In the example of FIG. 9C, the case where only one
(制御部50の構成の一例)
図1に戻り、制御部50の構成について説明する。制御部50は、登録部51と、検知部52と、警告部53と、飛行計画特定部54と、ドローン制御部55と、を有する。
(Example of configuration of control unit 50)
Returning to FIG. 1, the configuration of the
登録部51は、通信部10および入力部20から入力される情報を記憶部40の各部に記憶する。たとえば、登録部51は、入力部20から入力されるタグ5の情報をタグ記憶部42に記憶する。また、登録部51は、検知装置3から送信される検知情報を、検知記憶部45に記憶する。
The
検知部52は、記憶部40に記憶される情報に基づき、人感センサ31が人を検知したが、当該人感センサ31に対応付けられるタグセンサ32がタグを検知しなかった場合を検知する。人感センサ31が人を検知したが、当該人感センサ31に対応付けられるタグセンサ32がタグ5を検知しなかった場合とは、タグ5を持たずに土地に侵入した人が検知された場合である可能性がある。
The
検知部52はまた、タグセンサ32が検知したタグ5が、観光客の携帯するタグ5か、管理者または従業員が携帯するタグ5か、を検知する。管理者または従業員が携帯するタグ5であれば、土地内にあっても不審な点はないためである。
The
検知部52はまた、タグセンサ32が検知したタグ5が継続して果樹エリアではない区画に長時間存在している場合を検知する。観光客が果樹エリアではない区画に長時間滞在する必然性はなく、観光客を装って下見に来た者である可能性があるためである。
The
検知部52はまた、タグセンサ32が検知したタグ5が観光ルート上ではない区画に長時間存在している場合を検知する。観光客が果樹エリアではない区画に長時間存在していても、その場所が休憩所や売店など観光ルート上にある場所なら、不審な点はない。そこで、検知部52は、検知されたタグ5の存在位置がルート上にあるか否かを検知する。
The
このように、検知部52は、人感センサ31が人を検知したが対応するタグセンサ32がタグ5を検知しなかった場合、警告部53に不審者検知を通知する。また、検知部52は、人感センサ31が人を検知し対応するタグセンサ32がタグ5を検知したが、当該タグ5を観光客が携帯する場合を検知する。そして、検知部52は、当該タグ5が同一区画に所定時間以上滞在しており、当該区画が果樹エリアでない場合かつ観光ルート上でない場合に、警告部53に不審者検知を通知する。
In this way, the
警告部53は、検知部52の不審者検知に応じて、警告処理を実行する。警告部53は、検知部52から不審者通知を受信すると、管理者の携帯端末4に不審者を検知した旨の通知を送信する。また、警告部53は、管理者の携帯端末4から不審者に対応する旨の応答を受信する。警告部53はまた、検知部52の不審者検知に応じて、ドローン制御部55に第1のドローン制御処理の実行を指示する。警告部53は、管理者の携帯端末4から不審者に対応する旨の応答を受信した場合は、ドローン制御部55に第1のドローン制御処理の実行を指示しないように構成してもよい。
The
飛行計画特定部54は、図9の(B)に示す警備時間帯において監視を実行するための飛行計画を特定する。第1の実施形態に係る監視システム1は、昼間は検知部52および警告部53の処理に基づき不審者を特定してドローン6の制御を実行する(第1のドローン制御処理)。これに対して、夜間は、監視システム1は、飛行計画特定部54が特定した飛行計画に基づきドローン6を制御して監視を実行する(第2のドローン制御処理)。
The flight
飛行計画特定部54は、まず栽培計画記憶部47に記憶される栽培計画を参照する。そして、飛行計画特定部54は収穫時期が入力されているエリアIDを特定する。さらに、飛行計画特定部54は、当該エリアIDの作物の優先度を特定する。そして、飛行計画特定部54は、優先度が最も高い作物のエリアIDを特定する。そして、飛行計画特定部54は、飛行計画記憶部48に記憶される飛行計画を参照し、特定した作物の優先度が所定閾値以上か未満かに応じて1の飛行計画を特定する。第1の実施形態に係る飛行計画特定部54は、優先度が閾値以上の場合、「果樹優先度、高」の飛行計画であって特定したエリアIDの区画の面積が「対象面積」に一致する飛行計画を選択する。複数の飛行計画が該当する場合、飛行計画特定部54は、その時点で選択されている飛行計画の次の飛行計画を選択する。たとえば、飛行計画特定部54は、「管理、〇」となっている飛行計画があれば、その次の飛行計画を選択する。このように、飛行計画を順番に選択することで、監視のパターンが固定化することを防止し、防犯効果を高めることができる。
The flight
飛行計画特定部54は、設定された警備時間帯の所定時間前に上記飛行計画特定処理を開始する。そして、飛行計画特定部54は、特定した飛行計画に基づきドローン6を制御するよう要求する第2のドローン制御処理の実行の指示をドローン制御部55に送信する。
The flight
ドローン制御部55は、警告部53および飛行計画特定部54からドローン制御処理の実行の指示を受信する。ドローン制御部55は、ドローン制御処理の実行指示に応じて、ドローン制御処理を実行する。ドローン制御部55は、検知部52が不審者を検知した位置すなわち、当該不審者を検知した人感センサ31の位置を、検知部52または警告部53から受信する。そして、ドローン制御部55は、ドローン6を当該人感センサ31の位置まで移動させる。ドローン制御部55は、ドローン6が当該位置に到達したことを検知すると、ドローン6に、警告音を発生させる。たとえば、ドローン制御部55は、ドローン6に警報音を鳴らさせる。または、ドローン制御部55は、予め録音した所定のメッセージをドローン6に再生させる。ドローン制御部55は、所定時間ドローン6を当該位置上で旋回させたのち、ドローン6を出発位置に戻すよう制御する。
The drone control unit 55 receives an instruction to execute the drone control process from the
ドローン制御部55はまた、飛行計画特定部54から第2のドローン制御処理の実行の指示を受信すると、指示により特定される飛行計画に基づきドローン6を制御して第2のドローン制御処理を実行する。ドローン制御部55は、飛行計画により指定される数のドローン6に、特定された飛行計画を送信し、当該飛行計画に基づきドローン6を飛行させる。警備時間帯の間、ドローン6は飛行計画に基づき飛行および充電を繰り返し、監視を実行する。
Upon receiving the instruction to execute the second drone control process from the flight
(第1の監視処理の流れの一例)
図10は、第1の実施形態に係る監視システム1において実行される第1の監視処理の流れの一例を示すフローチャートである。図10を参照して、第1の実施形態の第1の監視処理について説明する。
(Example of flow of first monitoring process)
FIG. 10 is a flowchart showing an example of the flow of the first monitoring process executed in the
まず、第1の監視処理が開始すると、登録部51は、監視対象の土地の区画、タグ5、人感センサ31、タグセンサ32、ドローン6の情報を記憶部40に記憶する(ステップS1)。そして、登録部51は、検知装置3から検知情報を受信して記憶部40に記憶する(ステップS2)。検知部52は、検知情報を参照し、人が検知された時点に対応してタグ情報が記憶されているか判定する(ステップS3)。タグ情報が記憶されていないと判定した場合(ステップS3、No)、検知部52は、警告部53に不審者検知を通知して第1の警告処理を実行させる(ステップS9)。他方、タグ情報が記憶されていると判定した場合(ステップS3、Yes)、検知部52は次に、当該タグ5が観光客が携帯するタグか否かをタグ記憶部42を参照して判定する(ステップS4)。観光客が携帯するタグではないと判定した場合(ステップS4、No)、検知部52は警告部53に通知せず(ステップS8)、処理を終える。他方、観光客が携帯するタグ5であると判定した場合(ステップS4、Yes)、検知部52は次に、検知情報を参照し、当該タグ5が同一エリアに所定時間以上存在しているか否かを判定する(ステップS5)。所定時間以上存在していないと判定した場合(ステップS5、No)、検知部52は警告部53に通知せず(ステップS8)、処理を終える。他方、所定時間以上存在していると判定した場合(ステップS5、Yes)、検知部52は次に、当該タグ5を検知した検知装置3が果樹エリアにあるか否かを判定する(ステップS6)。果樹エリアにあると判定した場合(ステップS6、Yes)、検知部52は警告部53に通知せず(ステップS8)、処理を終える。他方、果樹エリアにないと判定した場合(ステップS6、No)、検知部52は次に、人感センサ記憶部43を参照し、当該検知装置3がルート上にあるか否かを判定する(ステップS7)。ルート上にあると判定した場合(ステップS7、Yes)、検知部52は、警告部53に通知せず(ステップS8)、処理を終える。他方、ルート上にないと判定した場合(ステップS7、No)、検知部52は、警告部53に不審者検知を通知して第1の警告処理を実行させる(ステップS9)。これで第1の監視処理が終了する。
First, when the first monitoring process is started, the
(第1の警告処理の流れの一例)
図11は、第1の実施形態に係る監視システム1において実行される警告処理の流れの一例を示すフローチャートである。まず、警告部53は、検知情報を参照し管理者のタグ5が土地内にあるか否かを判定する(ステップS101)。警告部53は、管理者のタグ5が土地内にないと判定した場合(ステップS101、No)、ドローン制御部55にドローン制御処理を実行するよう指示し、ドローン制御部55は第1のドローン制御処理を実行する(ステップS105)。他方、管理者のタグ5が土地内にあると判定した場合(ステップS101、Yes)、警告部53は、管理者のタグ5を検知した検知装置3の位置が不審者が検知された位置に近いか否かを判定する(ステップS102)。管理者のタグ5を検知した検知装置3の位置が不審者が検知された位置に近くないと判定された場合(ステップS102、No)、警告部53はドローン制御部55に第1のドローン制御処理を実行するよう指示する。他方、管理者のタグ5を検知した検知装置3の位置が不審者が検知された位置に近いと判定された場合(ステップS102、Yes)、警告部53は管理者の携帯端末4に不審者検知を通知する(ステップS103)。そして、警告部53は、所定時間内に携帯端末4から不審者に対処する旨の応答を受信したか否かを判定する(ステップS104)。応答を受信していないと判定した場合(ステップS104、No)、警告部53は、ドローン制御部55に第1のドローン制御処理を実行するよう指示する。他方、応答を受信したと判定した場合(ステップS104、Yes)、警告部53はドローン制御部55に指示を送信せず処理を終了する。これで第1の警告処理が終了する。
(Example of first warning processing flow)
FIG. 11 is a flowchart showing an example of the flow of warning processing executed in the
(第1のドローン制御処理の流れの一例)
図12は、第1の実施形態に係る監視システム1において実行される第1のドローン制御処理の流れの一例を示すフローチャートである。ドローン制御部55は、警告部53から第1のドローン制御処理の実行指示を受信すると、不審者を検知した位置を特定してドローン6を発進させる(ステップS201)。そして、ドローン制御部55は、ドローン6を不審者を検知した位置まで誘導する(ステップS202)。そして、ドローン制御部55は、不審者を検知した位置にドローン6が到達したか否かを判定する(ステップS203)。到達していないと判定すれば(ステップS203、No)、ドローン制御部55は、ステップS203の判定を繰り返す。他方、到達したと判定した場合(ステップS203、Yes)、ドローン制御部55は、ドローン6に警告音を出力させる(ステップS204)。ドローン制御部55は、警告音を出力させるとともに、ドローン6に不審者を検知した検知装置3の周囲の画像を撮影させてもよい。そして、ドローン制御部55は、ドローン6が当該位置に到達してから所定時間が経過したか判定する(ステップS205)。経過していないと判定した場合(ステップS205、No)、ドローン制御部55は、ステップS204を繰り返す。他方、経過したと判定した場合(ステップS205、Yes)、ドローン制御部55は、ドローン6に帰還を指示し、ドローン6を回収する(ステップS206)。これで第1のドローン制御処理が終了する。
(One example of the flow of the first drone control process)
FIG. 12 is a flowchart showing an example of the flow of the first drone control process executed in the
(第2の監視処理の流れの一例)
図13は、第1の実施形態に係る監視システム1において実行される第2の監視処理の流れの一例を示すフローチャートである。第2の監視処理は、警備時間帯の所定時間前になると、飛行計画特定部54により開始される。飛行計画特定部54は、まず栽培計画記憶部47に記憶される栽培計画を参照する(ステップS301)。そして、飛行計画特定部54は、栽培計画記憶部47に「収穫時期」が記憶されている区画があるか否かを特定する(ステップS302)。「収穫時期」が記憶されている場合、当該作物の収穫期が近いことを意味する。飛行計画特定部54は、「収穫時期」が記憶されている区画がない場合(ステップS302、No)、処理を終了する。他方、「収穫時期」が記憶されている区画がある場合(ステップS302、Yes)、飛行計画特定部54は、「収穫時期」が記憶されている区画のうち、優先度が最も高い区画を選択する(ステップS303)。そして、飛行計画特定部54は、飛行計画記憶部48に記憶される飛行計画を参照し、選択した区画の優先度と面積に対応する飛行計画を選択する(ステップS304)。そして、飛行計画特定部54は、選択した飛行計画に基づく監視を実行するよう、ドローン制御部55に、第2のドローン制御処理の実行の指示を送信する。指示に応じて、ドローン制御部55が第2のドローン制御処理を実行する(ステップS305)。予め設定された警備時間帯が終わると、第2のドローン制御処理は終了する。
(Example of flow of second monitoring process)
FIG. 13 is a flowchart showing an example of the flow of the second monitoring process executed in the
(第2のドローン制御処理の流れの一例)
図14は、第1の実施形態に係る監視システム1において実行される第2のドローン制御処理の流れの一例を示すフローチャートである。
(An example of the flow of the second drone control process)
FIG. 14 is a flowchart showing an example of the flow of the second drone control process executed in the
ドローン制御部55は、飛行計画特定部54から第2のドローン制御処理の実行の指示を受信すると、指示に含まれる監視対象区画と飛行計画を抽出する。そして、ドローン制御部55は、飛行計画によって特定される台数のドローン6を選択する。ドローン制御部55は、選択したドローン6に、抽出した監視対象区画と飛行計画とを送信し設定する(ステップS401)。これによってドローン6は設定に基づき動作する。ドローン制御部55は、次に選択したドローン6の電池残量が所定の閾値TH1を超えるか否かを判定する(ステップS402)。電池残量が閾値TH1以下であると判定した場合(ステップS402、No)、ドローン制御部55は当該ドローン6の充電を実行する(ステップS403)。そして、再度ドローン制御部55は電池残量が閾値TH1を超えたか否かを判定する。電池残量が閾値TH1を超えると判定した場合(ステップS402、Yes)、ドローン制御部55は、当該ドローン6を発進させる(ステップS404)。ドローン6は設定に基づき、監視対象区画の上空を飛行する。ドローン6の検知部61は、監視対象区画に存在する人を検知する。ドローン6の検知部61が人を検知した場合、ドローン6は異常ありと判定して(ステップS405、Yes)、第2の警告処理を実行する(ステップS406)。他方、検知部61が人を検知しない場合(ステップS405、No)、ドローン6は監視を続ける。そして、ドローン6は、電池残量が所定の閾値TH2を下回ったか判定する(ステップS407)。電池残量が所定の閾値TH2以上であると判定した場合(ステップS407、No)、ドローン6は監視を続ける。他方、電池残量が所定の閾値TH2を下回ったと判定した場合(ステップS407、Yes)、ドローン6はドローン格納場所に戻り、充電を実行する。他方、ドローン制御部55は、飛行計画に規定されるドローン6の充電時間に基づき、別のドローン6を監視対象区画へ発進させる(ステップS408)。そして、ドローン6は、警備時間帯が終了したか否かを判定する(ステップS409)。警備時間帯が終了していないと判定した場合(ステップS409、No)、ドローン6は監視を続ける。他方、警備時間帯が終了したと判定した場合(ステップS409、Yes)、ドローン6は、ドローン格納場所に帰還し、充電後停止する(ステップS410)。これで第2のドローン制御処理が終了する。
When receiving the instruction to execute the second drone control process from the flight
(第2の警告処理の流れの一例)
図15は、第1の実施形態に係る監視システム1において実行される第2の警告処理の流れの一例を示すフローチャートである。図15に示す処理は、図14のステップS406において実行される。
(Example of second warning processing flow)
FIG. 15 is a flowchart showing an example of the flow of the second warning process executed in the
まず、ドローン6は、異常を検知した場合たとえば検知部61が備える赤外線センサが生物を検知した場合、検知位置の画像を撮影する(ステップS501)。そして、ドローン6は、撮影した画像を管理サーバ2のドローン制御部55に送信する(ステップS502)。ドローン制御部55は、画像を解析し人が写っているか否かを判定する(ステップS503)。人が写っていないと判定した場合(ステップS503、No)、ドローン制御部55は、第2の警告処理を終了する。他方、ドローン制御部55は、人が写っていると判定した場合(ステップS503、Yes)、管理者の携帯端末4に通知を送信する(ステップS504)。そして、ドローン制御部55は、ドローン6に、異常を検知した箇所を照明し撮影するよう指示を送信する。ドローン6は指示に応じて、異常検知箇所を照明し撮影を実行する(ステップS505)。これで第2の警告処理が終了する。
First, when the
(変形例)
上記第1の実施形態では、果樹園において収穫期の作物を重点的に監視する例を説明した。これに限定されず、第1の実施形態の監視システム1は、たとえば、果樹園以外の所定の面積を有する土地において、所定の期間のみ金銭的価値の高い物品を保管する場合に適用することができる。たとえば、図8の栽培計画に代えて、各区画に金銭的価値の高い物品が保管される時期とエリアIDと当該物品の優先度とを記憶部に記憶しておく。そして、金銭的価値の高い物品が保管されるエリアを優先的に監視するよう、管理サーバ2がドローン6を制御すればよい。
(Modification)
In the above-described first embodiment, an example has been described in which an orchard focuses on crops during the harvesting period. However, the present invention is not limited to this, and the
また、上記第1の実施形態では、区画ごとに優先度を設定し、優先度が高い区画を重点的に監視するように監視システムを構成した。これに限定されず、たとえば、図2の(B)に示す土地を複数の区画を含む、より大きな面積の大区画に分割し、大区画についての監視を行うように監視システムを構成してもよい。たとえば、大区画に含まれる優先度が高い区画の割合に応じて、監視対象区画を決定するように監視システムを構成してもよい。そして決定された監視対象区画にドローンを巡回させるように監視システムを構成してもよい。 Further, in the first embodiment, the monitoring system is configured so that the priority is set for each partition and the partition having the high priority is monitored intensively. Without being limited to this, for example, the land shown in FIG. 2B may be divided into large parcels having a larger area including a plurality of parcels, and the monitoring system may be configured to monitor the large parcels. Good. For example, the monitoring system may be configured to determine the monitoring target partition according to the ratio of the high-priority partition included in the large partition. Then, the surveillance system may be configured so that the drone patrolles the determined surveillance target section.
また、上記第1の実施形態では、監視システム1は、人が出入りする昼間に第1の監視処理を実行し、夜間に第2の監視処理を実行するように構成した。これに限定されず、第1の監視処理および第2の監視処理は任意の時に実行してもよい。
Further, in the above-described first embodiment, the
(第1の実施形態の効果)
このように、第1の実施形態に係る監視システム1は、複数の区画に分割される所定範囲の土地において収穫時期の作物が存在する区画を特定する特定部(飛行計画特定部54)と、特定部が特定した区画において移動型ロボット(ドローン6)を巡回させるよう制御する制御部(ドローン制御部55)と、を備える。このため、監視システム1は、面積の広い土地を監視する場合であっても、盗難の可能性が高い区画を重点的に監視して防犯効果を高めることができる。また、監視システム1は、土地内に監視カメラを配置する場合と異なり、重点的に監視する場所に移動型ロボットを送って巡回させる。このため、監視システム1によれば、監視カメラの設置コストをなくすことができる。また、監視システム1によれば、移動型ロボットは盗難の可能性がある作物が存在する場合のみ使用するため、移動型ロボットの運用にかかるコストを節減することができる。また、監視システム1によれば、移動型ロボットを巡回させる区画を限定することができるため、移動型ロボットの電力消費を抑制することができる。
(Effects of the first embodiment)
As described above, the
また、第1の実施形態に係る監視システム1において、特定部はさらに、特定した区画の面積に応じて1の監視計画を特定し、制御部は、特定部が特定した監視計画(飛行計画)に基づき、移動型ロボットを制御する。このため、監視システム1は、監視対象区画の大きさに応じて、監視するパターンを変更することができ、移動型ロボットを利用しつつ綿密な監視を実現することができる。
Further, in the
また、第1の実施形態に係る監視システム1において、特定部は、移動型ロボットの移動パターンと交代タイミングを規定する1の監視計画を特定する。このため、監視システム1は、移動型ロボットの稼働時間や充電時間等に応じて異なる監視計画を適用することができる。また、監視システム1は、複数の移動型ロボットを用いて監視を実行することができる。このため、監視システム1は、移動型ロボットの特定に応じて多様な監視パターンを採用でき、防犯効果を高めることができる。
Further, in the
また、第1の実施形態に係る監視システム1において、特定部は、作物の価格に基づき決定される優先度に応じて1の監視計画を特定する。このため、監視システム1は、特に高価な物品を重点的に監視することができ、盗難による被害を抑制することができる。
Further, in the
また、第1の実施形態に係る監視システム1において、制御部は、複数の移動型ロボットを順番に制御し、1の移動型ロボットの充電中に他の移動型ロボットを巡回させる。このため、監視システム1は、移動型ロボットの稼働時間が短い場合であっても、途切れなく監視を継続することができ、防犯効果を高めることができる。
In addition, in the
また、第1の実施形態に係る監視システム1では、移動型ロボットが異常を検知した場合のみ撮像や、管理サーバ2への画像送信を実行させる。そして、画像解析は管理サーバ2において実行する。このため、移動型ロボットの消費電力を抑制し、稼働時間を長くすることができる。なお、移動型ロボットの性能によっては、移動型ロボット自体が画像解析を行うように構成してもよい。
Further, in the
また、監視システム1は、移動型ロボットを利用することで、監視対象の土地内各部にカメラを設置する必要をなくすことができる。このため、監視システム1は、運用コストを抑制することができる。
In addition, the
(第2の実施形態)
これまで開示の装置に関する実施形態について説明したが、本発明は上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施形態を説明する。
(Second embodiment)
Although the embodiments of the disclosed device have been described so far, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, other embodiments included in the present invention will be described below.
(分散および統合)
図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(Distributed and integrated)
The components of the illustrated devices do not necessarily have to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part of the device may be functionally or physically distributed / arranged in arbitrary units according to various loads or usage conditions. It can be integrated and configured.
(監視プログラム)
また、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをサーバ等のコンピュータからタブレット端末やノート型コンピュータ等のコンピュータに配布し、サーバとコンピュータとが処理を協働して実行することによって実現することができる。そこで、以下では、図16を用いて、上記の実施形態と同様の機能を有する監視プログラムを実行するコンピュータの一例について説明する。
(Monitoring program)
In addition, in the various processes described in the above embodiments, a program prepared in advance is distributed from a computer such as a server to a computer such as a tablet terminal or a notebook computer, and the server and the computer perform the processes in cooperation with each other. It can be realized by doing. Therefore, in the following, an example of a computer that executes a monitoring program having the same function as that of the above embodiment will be described with reference to FIG. 16.
図16は、第1〜2の実施形態に係る監視プログラムを実行するコンピュータの一例について説明するための図である。図16に示すように、コンピュータ1000は、操作部1100と、ディスプレイ1200と、通信部1300とを有する。さらに、このコンピュータ1000は、CPU(Central Processing Unit)1400と、ROM(Read Only Memory)1500と、RAM(Random Access Memory)1600と、HDD(Hard Disk Drive)1700とを有する。これら1100〜1700の各部はバス1800を介して接続される。
FIG. 16 is a diagram for explaining an example of a computer that executes the monitoring program according to the first and second embodiments. As shown in FIG. 16, the
HDD1700には、図16に示すように、上記の第1の実施形態で示した各部と同様の機能を発揮するモジュールを実装することができる監視プログラム1700aが予め記憶される。この監視プログラム1700aについては、図1等に示した各々の各構成要素と同様、適宜統合または分離してもよい。すなわち、HDD1700に記憶される各データは、常に全てのデータがHDD1700に記憶される必要はなく、処理に必要なデータのみがHDD1700に記憶されればよい。
As shown in FIG. 16, the
そして、CPU1400が、監視プログラム1700aの各モジュールをHDD1700から読み出してRAM1600に展開する。これによって、図16に示すように、監視プログラム1700aは、監視プロセス1600aとして機能する。この監視プロセス1600aは、HDD1700から読み出した各種データを適宜RAM1600上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、監視プロセス1600aは、図1等に示した各処理部にて実行される処理を含む。また、CPU1400上で仮想的に実現される各処理部は、常に全ての処理部がCPU1400上で動作する必要はなく、必要な処理部のみが仮想的に実現されればよい。
Then, the
なお、上記の監視プログラム1700aについては、必ずしも最初からHDD1700やROM1500に記憶させておく必要はない。たとえば、コンピュータ1000に挿入されるフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)などの「可搬用の物理媒体」に各プログラムを記憶させる。または、DVD(Digital Versatile Disc)、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ1000がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WAN(Wide Area Network)などを介してコンピュータ1000に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておいてもよい。そして、コンピュータ1000がこれらから各プログラムを取得して実行するようにしてもよい。
The
1 監視システム
2 管理サーバ
10 通信部
20 入力部
30 出力部
40 記憶部
41 エリア記憶部
42 タグ記憶部
43 人感センサ記憶部
44 タグセンサ記憶部
45 検知記憶部
46 ドローン記憶部
47 栽培計画記憶部
48 飛行計画記憶部
50 制御部
51 登録部
52 検知部
53 警告部
54 飛行計画特定部
55 ドローン制御部
3 検知装置
31 人感センサ
32 タグセンサ
33 通信部
4 携帯端末
5 タグ
6 ドローン
60 制御部
61 検知部
62 撮像部
63 出力部
64 通信部
70 記憶部
1
Claims (6)
前記複数の区画のうち前記特定部が特定した区画において、前記特定部が選択した順番で、前記1以上の監視計画に基づき、移動型ロボットを巡回させるよう制御する制御部と、
を備える監視システム。 The area where the crops at the harvest time are present in the specified range of land divided into multiple areas is specified , one or more monitoring plans are specified according to the area of the specified areas, and the specified one or more monitoring plans are ordered. Specific part to select
A control unit that controls the mobile robot to circulate based on the one or more monitoring plans in the order selected by the specifying unit in the section specified by the specifying unit among the plurality of sections;
Monitoring system with.
複数の区画に分割される所定範囲の土地において収穫時期の作物が存在する区画を特定させ、特定させた区画の面積に応じて1以上の監視計画を特定させ、特定させた1以上の監視計画を順番に選択させ、
前記複数の区画のうち特定された区画において、選択させた順番で、前記1以上の監視計画に基づき、移動型ロボットを巡回させるよう制御する、
ことを含む各処理を実行させることを特徴とする監視方法。 On the computer,
The area where the crops at the harvest time are located in a predetermined range of land that is divided into multiple areas is specified , one or more monitoring plans are specified according to the area of the specified areas, and one or more monitoring plans are specified. , In order,
In a specified section of the plurality of sections , the mobile robot is controlled to circulate in a selected order based on the one or more monitoring plans .
A monitoring method characterized in that each processing including the above is executed.
前記複数の区画のうち前記特定手順において特定された区画において、前記特定部が選択した順番で、前記1以上の監視計画に基づき、移動型ロボットを巡回させるよう制御する制御手順と、
を含む処理を、コンピュータに実行させる監視プログラム。 The area where the crops at the harvest time are present in the specified range of land divided into multiple areas is specified , one or more monitoring plans are specified according to the area of the specified areas, and the specified one or more monitoring plans are ordered. Specific steps to choose from ,
In a section specified in the specifying procedure among the plurality of sections, in the order selected by the specifying unit, based on the one or more monitoring plans, a control procedure for controlling the mobile robot to circulate,
A monitoring program that causes a computer to execute processing including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220568A JP6692735B2 (en) | 2016-11-11 | 2016-11-11 | Monitoring system, monitoring method, and monitoring program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220568A JP6692735B2 (en) | 2016-11-11 | 2016-11-11 | Monitoring system, monitoring method, and monitoring program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018077760A JP2018077760A (en) | 2018-05-17 |
JP6692735B2 true JP6692735B2 (en) | 2020-05-13 |
Family
ID=62150907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016220568A Active JP6692735B2 (en) | 2016-11-11 | 2016-11-11 | Monitoring system, monitoring method, and monitoring program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6692735B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7177742B2 (en) * | 2019-03-29 | 2022-11-24 | 東京瓦斯株式会社 | Disaster information collection system, disaster information collection method and disaster information collection program |
JP7177743B2 (en) * | 2019-03-29 | 2022-11-24 | 東京瓦斯株式会社 | Disaster information collection system, disaster information collection method and disaster information collection program |
JP7261115B2 (en) * | 2019-08-05 | 2023-04-19 | 株式会社フジタ | Individual identification management device |
WO2021205559A1 (en) * | 2020-04-08 | 2021-10-14 | 株式会社ナイルワークス | Display device, drone flight propriety determination device, drone, drone flight propriety determination method, and computer program |
EP3940672A1 (en) * | 2020-07-15 | 2022-01-19 | Advanced Laboratory on Embedded Systems S.r.l. | Assurance module |
TW202348521A (en) * | 2022-04-15 | 2023-12-16 | 日商村田機械股份有限公司 | Conveyance system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101056377B1 (en) * | 2009-02-17 | 2011-08-12 | 경상대학교산학협력단 | Flight control terminal, flight control method and flight control system |
JP2011048803A (en) * | 2009-08-26 | 2011-03-10 | Tetsumasa Yamamoto | Production and supply system of agricultural product |
US9075415B2 (en) * | 2013-03-11 | 2015-07-07 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
KR20160080448A (en) * | 2014-12-29 | 2016-07-08 | 이재훈 | System for keeping crops from wild animals |
JP2016177640A (en) * | 2015-03-20 | 2016-10-06 | 三菱電機株式会社 | Video monitoring system |
-
2016
- 2016-11-11 JP JP2016220568A patent/JP6692735B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018077760A (en) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6692735B2 (en) | Monitoring system, monitoring method, and monitoring program | |
AU2022201137B2 (en) | System and method for monitoring a property using drone beacons | |
CN100474924C (en) | Autonomous working control system | |
US11165954B1 (en) | Scene-aware custom tuned video surveillance detection system | |
US20190174722A1 (en) | Bovine rumination and estrus prediction system (bres) and method | |
CN107529221A (en) | A kind of follow-up analysis system and method for combination video monitoring and Wi Fi positioning | |
US20230284590A1 (en) | Automatic zone boundary adjustment | |
US20160379369A1 (en) | Wireless aircraft and methods for outputting location information of the same | |
JP2020144810A (en) | Crop yield estimation program and crop quality estimation program | |
KR101096155B1 (en) | watching system | |
US20220319172A1 (en) | Retroactive event detection in video surveillance | |
WO2020240335A1 (en) | Mosquito monitoring and counting system | |
US11557142B1 (en) | Home wildlife deterrence | |
US11893714B2 (en) | Precipitation removal from video | |
US20240242496A1 (en) | Adversarial masks for scene-customized false detection removal | |
US20220222943A1 (en) | Intelligent pausing of recording by a property monitoring system | |
Tamilselvi et al. | Internet of Things Enabled Energy-Efficient Flying Robots for Agricultural Field Monitoring Using Smart Sensors | |
JP7300958B2 (en) | IMAGING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM | |
US11856938B1 (en) | Robotic rover | |
JP2018077759A (en) | Monitoring system, monitoring method, and monitoring program | |
US11908308B2 (en) | Reduction of false detections in a property monitoring system using ultrasound emitter | |
US20240046485A1 (en) | Real-motion prediction | |
Nadzri | Design issues and considerations for hardware implementation of wildlife surveillance system: a review | |
JP2022104061A (en) | Flight type robot, control program for flight type robot and control method for flight type robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6692735 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |