[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020027407A - Trash sorting support system, terminal device, trash sorting support method, and program - Google Patents

Trash sorting support system, terminal device, trash sorting support method, and program Download PDF

Info

Publication number
JP2020027407A
JP2020027407A JP2018151500A JP2018151500A JP2020027407A JP 2020027407 A JP2020027407 A JP 2020027407A JP 2018151500 A JP2018151500 A JP 2018151500A JP 2018151500 A JP2018151500 A JP 2018151500A JP 2020027407 A JP2020027407 A JP 2020027407A
Authority
JP
Japan
Prior art keywords
dust
image
trash
terminal device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018151500A
Other languages
Japanese (ja)
Other versions
JP6959197B2 (en
Inventor
雄也 南
Yuya Minami
雄也 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018151500A priority Critical patent/JP6959197B2/en
Publication of JP2020027407A publication Critical patent/JP2020027407A/en
Application granted granted Critical
Publication of JP6959197B2 publication Critical patent/JP6959197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Refuse Collection And Transfer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To improve the convenience of sorting trash.SOLUTION: A terminal device comprises: an input unit for acquiring image information; a positioning unit for measuring the location of the terminal device; a control unit for generating a trash sorting determination request including trash image information and terminal device location information; a communication unit for transmitting the trash sorting determination request to a server and receiving a trash sorting response; and an output unit for obtaining the image information indicating a trash sorting method from the trash sorting response to combine and display an image indicating the trash sorting method and an image of a trash can. The server comprises: a recognition unit for obtaining the trash image information and the terminal device location information from the trash sorting determination request, obtaining a trash sorting name on the basis of the trash image information, obtaining the trash sorting method on the basis of the trash sorting name and the terminal device location information, and obtaining the image information indicating the trash sorting method on the basis of the trash sorting method; an image recognition unit for generating the trash sorting response including the image information indicating the trash sorting method; and a communication unit for transmitting the trash sorting response to the terminal device.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、ゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムに関する。   An embodiment of the present invention relates to a trash separation support system, a terminal device, a trash separation support method, and a program.

廃棄するゴミの分別情報を、ゴミを廃棄しようとしている自治体における分別情報に応じて特定し、かつそれを回収する容器まで指定する技術が知られている(例えば、特許文献1参照)。この技術では、端末は、自治体を特定する情報をサーバに送信することにより、サーバに存在する自治体情報の一覧と自治体別ゴミ分別情報の一覧と回収協力店情報の一覧から該当する自治体の自治体ゴミ分別情報を取得し、取得した自治体ゴミ分別情報と廃棄しようとしている商品の商品分別情報とを照合することによりゴミの分別方法を簡単に特定する。さらに、この技術では、端末に保持してある回収容器ゴミ分別情報の一覧から該当するゴミを回収する容器を特定し、分別作業の負荷軽減と分別精度の向上を実現する。   2. Description of the Related Art There is known a technique for specifying sorting information of garbage to be discarded according to sorting information in a local government that intends to discard garbage, and designating a container for collecting the garbage (for example, see Patent Document 1). According to this technology, the terminal transmits information identifying the local government to the server, and the local government's municipal waste of the corresponding local government is obtained from the list of local government information existing on the server, the list of garbage separation information by local government, and the list of collection cooperating shop information. Separation information is obtained, and the obtained municipal garbage separation information is compared with the product separation information of the product to be disposed of, thereby easily specifying a garbage separation method. Further, according to this technique, a container for collecting the corresponding garbage is specified from a list of the garbage separation information of the collection containers held in the terminal, thereby reducing the load of the separation work and improving the separation accuracy.

特開2005−173961号公報JP 2005-173961 A

従来の技術では、ユーザが端末を操作し、廃棄するゴミの属性情報を入力すると、廃棄すべきゴミ箱の情報が得られる。しかし、ゴミを捨てるときに端末を操作してゴミの属性情報を入力しなければ、廃棄すべきゴミ箱の情報を得ることができない。また、仮にペットボトルを廃棄する場合に、ラベルはプラ製容器包装、本体は資源ゴミ、キャップは容器包装プラスチックなど、一つの商品が複数の分別対象に分離され、分離された分別対象の処分先ゴミ箱が別れてしまう場合がある。そのため、廃棄するゴミの分別方法を、文章や図解で説明することが複雑となる場合がある。
本発明は、上記問題を解決すべくなされたもので、その目的は、ゴミの分別の利便性を向上できるゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを提供することにある。
In the related art, when a user operates a terminal and inputs attribute information of trash to be discarded, information on a trash can to be discarded is obtained. However, if the terminal is not operated and the attribute information of the garbage is input when the garbage is discarded, the information of the trash can to be discarded cannot be obtained. If plastic bottles are to be discarded, the label is made of plastic containers and packaging, the body is recyclable garbage, the cap is plastic containers and packaging, etc., and one product is separated into multiple sorting targets. The trash may be separated. For this reason, it may be complicated to explain the method of separating garbage to be discarded by using sentences and illustrations.
The present invention has been made to solve the above problem, and an object of the present invention is to provide a trash separation support system, a terminal device, a trash separation support method, and a program that can improve the convenience of trash separation.

(1)本発明の一態様は、端末装置と、サーバとを備えるゴミ分別支援システムであって、前記端末装置は、画像情報を取得する画像入力部と、自端末装置の位置を測位する位置測位部と、前記画像入力部が取得したゴミの画像情報と、前記位置測位部が測位した前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成する制御部と、前記制御部が作成した前記ゴミ分別判定要求を前記サーバへ送信し、送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信する通信部と、前記通信部が受信した前記ゴミ分別応答に含まれるゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの分別方法を示す画像情報に基づいて、ゴミの分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備え、前記サーバは、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記自端末装置の位置情報とを取得し、取得した前記ゴミの前記画像情報に基づいて、前記ゴミの分別名称を取得し、取得した前記ゴミの前記分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、前記画像認識部が取得した前記ゴミの前記分別方法を示す画像情報を含む前記ゴミ分別応答を作成する画像認識部と、前記画像認識部が作成した前記ゴミ分別応答を、前記端末装置へ送信するサーバ通信部とを備える、ゴミ分別支援システムである。
(2)本発明の一態様は、上記(1)に記載のゴミ分別支援システムにおいて、前記画像入力部は、前記ゴミ箱の前記画像情報を取得し、前記制御部は、前記ゴミ箱の前記画像情報をさらに含む前記ゴミ分別判定要求を作成し、前記画像認識部は、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミ箱の前記画像情報をさらに取得し、取得した前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とに基づいて、前記ゴミ箱の位置情報を取得し、取得した前記ゴミの前記分別名称と前記ゴミ箱の前記位置情報とに基づいて、前記ゴミの前記分別方法を示す情報を取得する。
(3)本発明の一態様は、上記(1)又は上記(2)に記載のゴミ分別支援システムにおいて、前記端末装置は、前記自端末装置の向きを検出する姿勢検出部を備え、前記画像出力部は、前記姿勢検出部が検出した前記向きを示す情報に基づいて、前記画像入力部が取得した前記ゴミ箱の前記画像情報から得られる前記画像に合成する前記ゴミの前記分別方法を示す画像の位置を補正する。
(4)本発明の一態様は、上記(1)から上記(3)のいずれか一項に記載のゴミ分別支援システムにおいて、前記画像認識部は、取得した前記ゴミの前記画像情報と前記自端末装置の前記位置情報とに基づいて、前記自端末装置の位置から所定の範囲のゴミ箱の位置情報を取得し、前記サーバ通信部は、前記画像認識部が取得した前記ゴミ箱の前記位置情報さらに含む前記ゴミ分別応答を作成する。
(5)本発明の一態様は、画像情報を取得する画像入力部と、自端末装置の位置を測位する位置測位部と、前記画像入力部が取得したゴミの画像情報に基づいて、前記ゴミの分別名称を取得し、取得した前記ゴミの前記分別名称と前記位置測位部が測位した前記自端末装置の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、前記画像認識部が取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備える、端末装置である。
(6)本発明の一態様は、端末装置と、サーバとを備えるゴミ分別支援システムが実行するゴミ分別支援方法であって、前記端末装置が、ゴミの画像情報を取得するステップと、前記端末装置が、自端末装置の位置を測位するステップと、前記端末装置が、前記ゴミの前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、前記端末装置が、前記ゴミ分別判定要求を前記サーバへ送信するステップと、前記サーバが、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記画像情報と、前記自端末装置の前記位置情報とを取得するステップと、前記サーバが、前記ゴミの前記画像情報に基づいて、ゴミの分別名称を取得するステップと、前記サーバが、前記ゴミの分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、前記サーバが、前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、前記サーバが、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成するステップと、前記サーバが、前記ゴミ分別応答を、前記端末装置へ送信するステップと、前記端末装置が、前記サーバが送信した前記ゴミ分別応答を受信するステップと、前記端末装置が、前記ゴミ分別応答に含まれる前記ゴミの前記分別方法を示す前記画像情報を取得し、取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミの前記画像とを合成して表示するステップとを有する、ゴミ分別支援方法である。
(7)本発明の一態様は、端末装置のコンピュータに、ゴミの画像情報を取得するステップと、自端末装置の位置を測位するステップと、前記ゴミの前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、前記ゴミ分別判定要求をサーバへ送信するステップと、送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信するステップと、受信した前記ゴミ分別応答に含まれる前記ゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの前記分別方法を示す画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示するステップとを実行させる、プログラムである。
(8)本発明の一態様は、端末装置と通信を行うサーバのコンピュータに、前記端末装置が送信したゴミ分別判定要求に含まれるゴミの画像情報と、前記端末装置の位置情報とを取得するステップと、取得した前記ゴミの前記画像情報に基づいて、前記ゴミの分別名称を取得するステップと、取得した前記ゴミの前記分別名称と前記端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成し、作成した前記ゴミ分別応答を、前記端末装置へ送信するステップとを実行させる、プログラムである。
(1) One aspect of the present invention is a dust separation support system including a terminal device and a server, wherein the terminal device includes an image input unit that acquires image information, and a position that measures the position of the own terminal device. A dust classification determination signal that includes a positioning unit, image information of the dust obtained by the image input unit, and position information of the own terminal device positioned by the position positioning unit, and is a signal requesting a determination of the separation of the dust. A control unit that creates a request, a communication unit that transmits the dust classification determination request created by the control unit to the server, and receives a dust classification response that is a response signal to the transmitted dust classification determination request; Obtaining image information indicating a dust separation method included in the dust separation response received by the unit, based on the acquired image information indicating the dust separation method, an image indicating a dust separation method, and the image input And an image output unit that combines and displays the image of the trash can obtained from the image information of the trash can obtained, and wherein the server removes the trash included in the trash classification determination request transmitted by the terminal device. The image information and the position information of the own terminal device are acquired, and based on the acquired image information of the dust, the separated name of the dust is obtained, and the separated name of the obtained dust and the own terminal are obtained. Based on the position information of the device, information indicating the method of separating the dust is obtained, and based on the information indicating the method of separating the obtained dust, image information indicating the method of separating the dust is obtained. An image recognizing unit, an image recognizing unit that creates the dust classification response including image information indicating the method of separating the dust acquired by the image recognizing unit, and the dust classification response created by the image recognizing unit. A and a server communication unit that transmits to the terminal device, a waste sorting assistance system.
(2) In one aspect of the present invention, in the trash separation support system according to (1), the image input unit acquires the image information of the trash box, and the control unit obtains the image information of the trash box. Creating the trash separation determination request further including, the image recognition unit further obtains the image information of the trash can included in the trash separation determination request transmitted by the terminal device, the obtained image of the trash can Information, and the location information of the trash can is obtained based on the location information of the own terminal device, and the separation of the trash is performed based on the obtained separation name of the trash and the location information of the trash can. Obtain information indicating the method.
(3) In one aspect of the present invention, in the garbage separation support system according to (1) or (2), the terminal device includes a posture detection unit that detects an orientation of the terminal device, The output unit is an image indicating the classification method of the dust to be combined with the image obtained from the image information of the trash box acquired by the image input unit, based on the information indicating the orientation detected by the posture detection unit. Correct the position of.
(4) In one aspect of the present invention, in the dust separation support system according to any one of (1) to (3), the image recognition unit includes the acquired image information of the dust and the image information of the self. Based on the position information of the terminal device, the position information of the trash can in a predetermined range from the position of the terminal device is acquired, the server communication unit, the position information of the trash can acquired by the image recognition unit, The garbage separation response including the garbage separation response is created.
(5) One embodiment of the present invention provides an image input unit for acquiring image information, a position positioning unit for measuring the position of the own terminal device, and the dust based on dust image information acquired by the image input unit. Based on the obtained classification name of the garbage and the position information of the own terminal device which the position locating unit has positioned, the information indicating the classification method of the garbage is obtained, and the obtained garbage is obtained. Based on the information indicating the method of separating dust, an image recognition unit that obtains image information indicating the method of separating dust, and based on the image information indicating the method of separating the dust obtained by the image recognition unit. An image output unit that combines and displays the image indicating the method of separating the dust and the image of the dust bin obtained from the image information of the dust bin acquired by the image input unit. .
(6) One aspect of the present invention is a dust separation support method executed by a dust separation support system including a terminal device and a server, wherein the terminal device obtains dust image information; A step in which the device locates the position of the own terminal device; and the terminal device includes the image information of the dust and the position information of the own terminal device, and is a signal requesting a determination of the separation of the dust. Creating a dust separation determination request; the terminal device transmitting the dust separation determination request to the server; and the server displaying the image information included in the dust separation determination request transmitted by the terminal device. Acquiring the location information of the own terminal device, the server acquiring a classification name of the dust based on the image information of the dust, the server Acquiring the information indicating the method of separating the garbage based on the separation name of the garbage and the position information of the own terminal device; and the server, based on the information indicating the method of separating the garbage. Obtaining image information indicating the method of separating dust, the server generating a dust separation response including the image information indicating the method of sorting dust, and the server Transmitting a response to the terminal device, the terminal device receiving the dust separation response transmitted by the server, and the terminal device separating the dust included in the dust separation response. Acquiring the image information indicating the separation method of the dust based on the acquired image information indicating the separation method of the dust; And a step of displaying said image of the dust obtained from the image information of the box synthesized and a waste sorting support method.
(7) One embodiment of the present invention provides a computer of a terminal device for acquiring image information of dust, a step of measuring a position of the terminal device, the image information of the dust, Creating a dust separation determination request, which is a signal including a position information and requesting the dust separation determination; transmitting the dust separation determination request to a server; and responding to the transmitted dust separation determination request. Receiving a dust separation response that is a signal, and acquiring image information indicating the dust separation method included in the received dust separation response, based on the acquired image information indicating the separation method of the dust, Causing the image indicating the method of separating the trash to be combined with the image of the trash can obtained from the image information of the obtained trash box to display the combined image. A gram.
(8) In one aspect of the present invention, a computer of a server that communicates with a terminal device acquires dust image information included in the dust classification determination request transmitted by the terminal device and position information of the terminal device. A step of acquiring a classification name of the dust based on the image information of the dust acquired; and a step of acquiring the classification name of the dust based on the acquired classification name of the dust and the position information of the terminal device. Obtaining information indicating the separation method; obtaining image information indicating the separation method of the dust based on the obtained information indicating the separation method of the dust; and indicating the separation method of the dust. Creating a dust separation response including the image information, and transmitting the created dust separation response to the terminal device.

本発明によれば、ゴミの分別の利便性を向上できるゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを提供できる。   According to the present invention, it is possible to provide a trash separation support system, a terminal device, a trash separation support method, and a program that can improve the convenience of trash separation.

本発明の実施形態のゴミ分別支援システムの一例を示す図である。It is a figure showing an example of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムを構成するサーバのハードウェア構成と、端末装置のハードウェア構成との一例を示す図である。It is a figure showing an example of hardware constitutions of a server which constitutes a garbage separation support system of an embodiment of the present invention, and hardware constitutions of a terminal unit. 本発明の実施形態のゴミ分別支援システムを構成するサーバと、端末装置とを示すブロック図である。It is a block diagram showing a server which constitutes a garbage separation support system of an embodiment of the present invention, and a terminal unit. 本発明の実施形態のゴミ分別支援システムの動作の一例を示すシーケンスチャートである。It is a sequence chart showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure showing an example of operation of a garbage separation support system of an embodiment of the present invention. 本発明の実施形態のゴミ分別支援システムを構成する端末装置を示すブロック図である。It is a block diagram showing a terminal unit which constitutes a garbage separation support system of an embodiment of the present invention.

次に、本実施形態のゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, a trash separation support system, a terminal device, a trash separation support method, and a program according to the present embodiment will be described with reference to the drawings. The embodiment described below is merely an example, and the embodiment to which the present invention is applied is not limited to the following embodiment. In all the drawings for describing the embodiments, components having the same function are denoted by the same reference numerals, and repeated description is omitted.
Further, “based on XX” in the present application means “based on at least XX”, and includes a case based on another element in addition to XX. Further, “based on XX” is not limited to the case where XX is used directly, but also includes the case where XX is calculated or processed. “XX” is an arbitrary element (for example, arbitrary information).

(実施形態)
(ゴミ分別支援システム)
図1に示すように、本実施形態のゴミ分別支援システム3は、サーバ1と、端末装置2とを備える。サーバ1と端末装置2との間は、携帯電話網、インターネットなどのネットワーク4を介して接続される。観光地、空港などの外国人が多い公共施設にゴミ箱5が設置される。訪日客などの観光客は、端末装置2にインストールされているゴミ分別アプリを起動する。ゴミ分別アプリが起動することによって、端末装置2は、「分別対象のゴミとゴミ箱とを撮影してください」などのゴミとゴミ箱との撮影(撮像)を促すメッセージを表示する。
端末装置2のユーザ(観光客)は、端末装置2に表示されたメッセージにしたがって、ゴミとゴミ箱とを撮影する。ユーザが撮影することによって、端末装置2は、ゴミの画像情報と、ゴミ箱の画像情報とを生成する。端末装置2は、端末装置2の識別情報と、端末装置2の位置情報と、生成したゴミの画像情報と、ゴミ箱の画像情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、サーバ1へ送信する。
(Embodiment)
(Trash separation support system)
As shown in FIG. 1, the garbage separation support system 3 of the present embodiment includes a server 1 and a terminal device 2. The server 1 and the terminal device 2 are connected via a network 4 such as a mobile phone network or the Internet. The trash can 5 is installed in a public facility such as a tourist spot or an airport where many foreigners are present. A tourist, such as a visitor to Japan, activates a trash separation application installed in the terminal device 2. When the trash separation application is activated, the terminal device 2 displays a message prompting to shoot (take an image of) the trash and the trash box, such as “Please shoot the trash to be separated and the trash box”.
The user (tourist) of the terminal device 2 photographs the garbage and the trash can according to the message displayed on the terminal device 2. By photographing by the user, the terminal device 2 generates image information of dust and image information of a dust box. The terminal device 2 creates a dust separation determination request including the identification information of the terminal device 2, the position information of the terminal device 2, the generated dust image information, and the trash can image information. Is transmitted to the server 1.

サーバ1は、端末装置2が送信したゴミ分別判定要求に含まれるゴミの画像情報に基づいて、ゴミの分別名称などの属性を識別し、ゴミ箱の画像情報に基づいて、ゴミ箱の構成を識別し、ゴミの属性の識別結果とゴミ箱の構成の識別結果とに基づいて、ゴミの分別方法の説明文と、ゴミの分別方法を説明するための情報(以下「ゴミ分別方法説明情報」という)を取得する。ゴミの分別方法は、ゴミ箱5が設置された地域のルールにしたがったものである。サーバ1は、取得したゴミ分別方法説明情報を含み、端末装置2をあて先とするゴミ分別応答を作成し、作成したゴミ分別応答を、端末装置2へ送信する。端末装置2は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答に含まれるゴミ分別方法説明情報に基づいて、拡張現実技術(AR: Augmented Reality)により、端末装置2が備える撮像部が撮影したゴミ箱の画像に、ゴミの分別方法を合成して表示する。
図1に示される例では、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含む。可燃ゴミ箱51、不燃ゴミ箱52、資源ゴミ箱53などの複数の分別ゴミ箱の各々には、互いに異なる色、文字などの識別情報が割り当てられている。例えば、複数の分別ゴミ箱の各々に、互いに異なる色が割り当てられている場合には、一例として、可燃ゴミ箱51の筐体は赤色で塗装され、不燃ゴミ箱52の筐体は青色で塗装され、資源ゴミ箱53の筐体は緑色で塗装される。
ゴミ箱5を設置した場合に、設置者は、ゴミ箱5の画像情報、文字情報などのゴミ箱の特徴が判別できる情報と、そのゴミ箱5の構成を示す情報(以下「ゴミ箱構成情報」という)を、サーバ1に入力する。以下、ゴミ箱の特徴が判別できる情報の一例として、ゴミ箱5の画像情報を使用した場合について説明を続ける。サーバ1は、ゴミ箱5の画像情報に基づいて、ゴミ箱5の画像の特徴量を導出し、導出したゴミ箱5の画像の特徴量と、ゴミ箱構成情報とを関連付けて記憶する。具体的には、設置者は、サーバ1を操作することによって、ゴミ箱5の画像情報を入力し、入力したゴミ箱5の画像の特徴量を認識させる。設置者は、ゴミ箱構成情報を入力し、サーバ1に、ゴミ箱5の画像の特徴量と、ゴミ箱構成情報とを関連付けて、記憶させる。ゴミ箱構成情報の一例は、各分別ゴミ箱が、可燃ゴミ、不燃ゴミ、資源ゴミのいずれかに該当するかを示す情報である。ここで、可燃ゴミとは燃やせるゴミのことであり、具体的には、生ゴミ、紙くず、繊維くず、プラスチック類、ゴムや皮革などがあげられる。不燃ゴミとは燃やせないゴミのことであり、具体的には、金属、ガラス、陶磁器を原材料とした製品があげられる。資源ゴミとは一般に再資源化が可能なゴミであり、主に缶、ペットボトル、瓶、紙類、電池、金属塊などがあげられる。サーバ1は、ゴミ箱5の画像の特徴量とゴミ箱構成情報とを関連付けて記憶する。
The server 1 identifies an attribute such as a garbage separation name based on the garbage image information included in the garbage separation determination request transmitted by the terminal device 2, and identifies a trash can configuration based on the trash can image information. , Based on the identification result of the garbage attribute and the identification result of the configuration of the trash can, a description of the garbage separation method and information for describing the garbage separation method (hereinafter referred to as “garbage separation method description information”) get. The trash separation method is in accordance with the rules of the area where the trash can 5 is installed. The server 1 creates the dust separation response including the acquired dust separation method explanation information as the destination, and transmits the created dust separation response to the terminal device 2. The terminal device 2 receives the dust separation response transmitted by the server 1, and is provided in the terminal device 2 by augmented reality technology (AR: Augmented Reality) based on the dust separation method description information included in the received dust separation response. A trash separation method is combined with an image of the trash box taken by the imaging unit and displayed.
In the example illustrated in FIG. 1, the trash can 5 includes three separate trash cans: a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53. Identification information such as different colors and characters is assigned to each of a plurality of sorting trash boxes such as a combustible trash box 51, a non-combustible trash box 52, and a resource trash box 53. For example, when different colors are assigned to each of the plurality of separated trash cans, as an example, the casing of the combustible trash can 51 is painted red, the casing of the non-combustible trash can 52 is painted blue, The housing of the trash can 53 is painted green.
When the trash can 5 is installed, the installer sets information such as image information and character information of the trash can 5 that can determine the characteristics of the trash can, and information indicating the configuration of the trash can 5 (hereinafter referred to as “trash can configuration information”). Input to server 1. Hereinafter, the case where the image information of the trash can 5 is used as an example of information that can determine the characteristics of the trash can will be described. The server 1 derives the feature amount of the image of the trash can 5 based on the image information of the trash can 5, and stores the derived feature amount of the image of the trash can 5 in association with the trash can configuration information. Specifically, the installer operates the server 1 to input image information of the trash box 5 and recognize the feature amount of the input image of the trash box 5. The installer inputs the trash can configuration information and causes the server 1 to store the feature amount of the image of the trash can 5 and the trash can configuration information in association with each other. An example of the trash bin configuration information is information indicating whether each of the sorted trash bins corresponds to any of combustible trash, non-burnable trash, and resource trash. Here, combustible garbage refers to garbage that can be burned, and specifically includes garbage, paper waste, fiber waste, plastics, rubber, leather, and the like. Non-combustible garbage is garbage that cannot be burned, and specifically includes products made of metal, glass, and ceramics as raw materials. Recyclable garbage is generally garbage that can be recycled, and mainly includes cans, plastic bottles, bottles, papers, batteries, metal lumps, and the like. The server 1 stores the feature amount of the image of the trash can 5 and trash can configuration information in association with each other.

ゴミ分別支援システムが実際に使用される場合について説明する。ゴミを捨てようとする者(以下「ユーザ」という)は、端末装置2を操作することによって、ゴミ分別アプリを起動する。ゴミ分別アプリが起動することによって、端末装置2は、ゴミとゴミ箱との撮影を促すメッセージを表示する。端末装置2のユーザは、端末装置2に表示されたメッセージにしたがって、ゴミとゴミ箱とを撮影する。ユーザが撮影することによって、端末装置2は、ゴミの画像情報と、ゴミ箱の画像情報とを生成する。端末装置2は、生成したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の識別情報と、端末装置2の位置情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、サーバ1へ送信する。サーバ1は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の識別情報と、端末装置2の位置情報とを取得する。サーバ1は、取得したゴミの画像情報に基づいて、ゴミの画像からゴミの画像の特徴量を抽出する。サーバ1は、取得したゴミ箱の画像情報に基づいて、ゴミ箱の画像から、ゴミ箱の画像の特徴量を抽出する。
サーバ1は、抽出したゴミの画像の特徴量を示す情報に基づいて、ゴミの画像の特徴量とそのゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから、そのゴミの画像の特徴量に該当するゴミの分別名称を検索する。また、サーバ1は、抽出したゴミ箱の画像の特徴量を示す情報に基づいて、ゴミ箱の画像の特徴量とそのゴミ箱の構成情報とを関連付けて記憶したデータベースから、そのゴミ箱の画像の特徴量に該当するゴミ箱の構成情報を示す情報を取得する。また、サーバ1は、取得した端末装置2の位置情報と、端末装置の向きを示す情報とに基づいて、ゴミ箱5の位置を推定する。サーバ1は、ゴミ箱5の位置の推定結果に基づいて、地域を示す情報と、その地域でのゴミの分別方法とを関連付けて記憶するデータベースから、そのゴミ箱5の位置の推定結果に該当する地域を示す情報に関連付けて記憶されているゴミの分別方法を示す情報を取得する。
さらに、サーバ1は、取得したゴミの分別方法を示す情報に基づいて、ゴミの分別方法を示す情報と、そのゴミ分別方法説明情報を関連付けて記憶したデータベースから、そのゴミの分別方法を示す情報に該当するゴミ分別方法説明情報を取得する。サーバ1は、取得したゴミ分別方法説明情報を含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末装置2へ送信する。
端末装置2は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答に基づいて、端末装置2のユーザに、ゴミ箱5を撮像させる。端末装置2は、ゴミ分別応答に含まれるゴミ分別方法説明情報に基づいて、拡張現実技術により、端末装置2が撮像したゴミ箱5に、ゴミ分別方法説明情報を合成して表示する。以下、ゴミ分別支援システムを構成するサーバ1と、端末装置2とについて、説明する。
A case where the trash separation support system is actually used will be described. A person who intends to discard garbage (hereinafter referred to as “user”) operates the terminal device 2 to activate a garbage classification application. When the trash separation application is activated, the terminal device 2 displays a message prompting the photographing of the trash and the trash. The user of the terminal device 2 photographs the garbage and the trash can according to the message displayed on the terminal device 2. By photographing by the user, the terminal device 2 generates image information of dust and image information of a dust box. The terminal device 2 generates a dust separation determination request including image information of the generated dust, image information of the trash can, information indicating the orientation of the terminal device 2, identification information of the terminal device 2, and position information of the terminal device 2. And sends the created garbage classification request to the server 1. The server 1 receives the dust discrimination determination request transmitted by the terminal device 2, and receives the dust image information, the trash can image information, the information indicating the direction of the terminal device 2, and the terminal The identification information of the device 2 and the position information of the terminal device 2 are acquired. The server 1 extracts the feature amount of the dust image from the dust image based on the acquired dust image information. The server 1 extracts the feature amount of the trash can image from the trash can image based on the acquired trash can image information.
The server 1 retrieves the image of the dust from the database in which the feature of the dust image and the classification name of the dust indicated by the dust image are stored in association with each other based on the information indicating the feature of the extracted dust image. Search the garbage classification name corresponding to the feature amount of. Further, based on the extracted information indicating the feature amount of the trash can image, the server 1 stores the feature amount of the trash can image and the configuration information of the trash can in association with the feature amount of the trash can image from a database. The information indicating the configuration information of the corresponding trash can is obtained. Further, the server 1 estimates the position of the trash box 5 based on the acquired position information of the terminal device 2 and information indicating the orientation of the terminal device. Based on the estimation result of the position of the trash can 5, the server 1 stores, from a database that stores information indicating the area and a method of separating trash in the area in association with each other, the area corresponding to the estimation result of the position of the trash can 5 Is obtained in association with the information indicating the information indicating the garbage separation method.
Further, based on the acquired information indicating the dust separation method, the server 1 stores information indicating the dust separation method from a database in which information indicating the dust separation method and the dust separation method explanation information are stored in association with each other. Garbage separation method explanation information corresponding to. The server 1 creates a dust separation response including the acquired dust separation method explanation information, and transmits the created dust separation response to the terminal device 2.
The terminal device 2 receives the dust separation response transmitted by the server 1 and causes the user of the terminal device 2 to image the trash box 5 based on the received dust separation response. The terminal device 2 combines and displays the dust separation method description information in the trash box 5 captured by the terminal device 2 by augmented reality technology based on the dust separation method description information included in the dust separation response. Hereinafter, the server 1 and the terminal device 2 that constitute the dust separation support system will be described.

(ゴミ分別支援システムのハードウェア構成)
図2を参照して、ゴミ分別支援システム3を構成するサーバ1のハードウェア構成と端末装置2のハードウェア構成とについて順次説明する。サーバ1は、CPU152と、メモリ154と、不揮発性メモリ156と、操作部162と、通信I/F166と、内部バス150とを備えている。CPU152は、例えば不揮発性メモリ156に格納されるプログラム1562を実行し、メモリ154をワークメモリとして使用して、サーバ1の各部を制御する。メモリ154は、半導体素子を利用した揮発性のメモリなどのRAMによって構成され、CPU152のワークメモリとして使用される。不揮発性メモリ156は、例えばROM等によって構成される。不揮発性メモリ156には、CPU152によって実行されるプログラム1562と、端末情報1563と、ゴミ別特徴量1564と、ゴミ箱別特徴量1565と、地域別分別情報1566と、分別方法説明情報1567とが格納される。端末情報1563と、ゴミ別特徴量1564と、ゴミ箱別特徴量1565と、地域別分別情報1566と、分別方法説明情報1567とについては、後述する。
操作部162は、ゴミ箱5の設置者などの操作を受け付ける入力デバイスである。具体的には、設置者は、操作部162を操作することによって、ゴミ箱5の画像情報と、ゴミ箱構成情報とを入力する。通信I/F166は、外部機器や、ネットワーク4に接続された端末装置2などと通信して、データの送受信を行うためのインターフェースである。具体的には、通信I/F166は、ワイファイ(登録商標)等の無線通信技術で無線通信を行う無線デバイスによって構成される。また、通信I/F166は、有線LAN等の通信技術で通信を行うデバイスによって構成されてもよい。内部バス150は、CPU152、メモリ154、不揮発性メモリ156、操作部162、及び通信I/F166を互いに接続する。内部バス150に接続される各部は、内部バス150を介して互いにデータのやり取りを行うことができるようにされている。
(Hardware configuration of trash separation support system)
With reference to FIG. 2, the hardware configuration of the server 1 and the hardware configuration of the terminal device 2 that constitute the garbage separation support system 3 will be sequentially described. The server 1 includes a CPU 152, a memory 154, a nonvolatile memory 156, an operation unit 162, a communication I / F 166, and an internal bus 150. The CPU 152 executes, for example, a program 1562 stored in the nonvolatile memory 156, and controls each unit of the server 1 using the memory 154 as a work memory. The memory 154 is configured by a RAM such as a volatile memory using a semiconductor element, and is used as a work memory of the CPU 152. The non-volatile memory 156 is constituted by, for example, a ROM or the like. The non-volatile memory 156 stores a program 1562 executed by the CPU 152, terminal information 1563, dust-based feature quantity 1564, trash-box feature quantity 1565, regional-based sorting information 1566, and sorting-method explanation information 1567. Is done. The terminal information 1563, the dust-based feature amount 1564, the trash box-based feature amount 1565, the region-based separation information 1566, and the separation method explanation information 1567 will be described later.
The operation unit 162 is an input device that receives an operation performed by a person who installs the trash can 5 or the like. Specifically, the installer operates the operation unit 162 to input the image information of the trash box 5 and the trash box configuration information. The communication I / F 166 is an interface for transmitting and receiving data by communicating with an external device, the terminal device 2 connected to the network 4, and the like. Specifically, the communication I / F 166 is configured by a wireless device that performs wireless communication using wireless communication technology such as WiFi (registered trademark). The communication I / F 166 may be configured by a device that performs communication using a communication technology such as a wired LAN. The internal bus 150 connects the CPU 152, the memory 154, the nonvolatile memory 156, the operation unit 162, and the communication I / F 166 to each other. The units connected to the internal bus 150 can exchange data with each other via the internal bus 150.

端末装置2は、CPU252と、メモリ254と、測位部255と、不揮発性メモリ256と、操作部257と、表示部258と、撮像部259と、センサ260と、通信I/F266と、内部バス250とを備えている。CPU252は、例えば不揮発性メモリ256に格納されるプログラム2562を実行し、メモリ254をワークメモリとして使用して、端末装置2の各部を制御する。メモリ254は、半導体素子を利用した揮発性のメモリなどのRAMによって構成され、CPU252のワークメモリとして使用される。不揮発性メモリ256は、例えばROM等によって構成される。不揮発性メモリ256には、CPU252によって実行されるプログラム2562が格納される。測位部255は、例えば、GPS衛星を用いた位置測位、又は携帯電話網の基地局を用いた位置測位などを用いて、端末装置2の位置を測位する。操作部257は、例えば、タッチパネルなどによって構成され、表示部258に表示される画面に対するタッチ操作を検出し、タッチ操作の検出結果を、CPU252へ出力する。タッチ操作には、ゴミ分別アプリを起動する操作などが含まれる。表示部258は、例えば、タッチパネルによって構成され、ゴミとゴミ箱との撮影を促すメッセージを表示する。撮像部259は、例えば、カメラによって構成され、外部の風景の静止画と動画とを撮像する。センサ260は、加速度センサ、地磁気センサなどによって構成され、端末装置2の向きを検出する。
通信I/F266は、外部機器や、ネットワーク4に接続されたサーバ1などと通信して、データの送受信を行うためのインターフェースである。具体的には、通信I/F266は、ワイファイ(登録商標)等の無線通信技術で無線通信を行う無線デバイスによって構成される。また、通信I/F266は、有線LAN等の通信技術で通信を行うデバイスによって構成されてもよい。内部バス250は、CPU252、メモリ254、測位部255、不揮発性メモリ256、操作部257、表示部258、撮像部259、センサ260、通信I/F266を互いに接続する。内部バス250に接続される各部は、内部バス250を介して互いにデータのやり取りを行うことができるようにされている。
The terminal device 2 includes a CPU 252, a memory 254, a positioning unit 255, a nonvolatile memory 256, an operation unit 257, a display unit 258, an imaging unit 259, a sensor 260, a communication I / F 266, and an internal bus. 250. The CPU 252 executes, for example, a program 2562 stored in the non-volatile memory 256, and controls each unit of the terminal device 2 using the memory 254 as a work memory. The memory 254 includes a RAM such as a volatile memory using a semiconductor element, and is used as a work memory of the CPU 252. The nonvolatile memory 256 is configured by, for example, a ROM or the like. In the nonvolatile memory 256, a program 2562 executed by the CPU 252 is stored. The positioning unit 255 measures the position of the terminal device 2 by using, for example, position positioning using a GPS satellite or position positioning using a base station of a mobile phone network. The operation unit 257 includes, for example, a touch panel or the like, detects a touch operation on a screen displayed on the display unit 258, and outputs a detection result of the touch operation to the CPU 252. The touch operation includes an operation of starting a trash separation application. The display unit 258 is configured by, for example, a touch panel, and displays a message urging photographing of dust and a trash can. The imaging unit 259 is configured by, for example, a camera, and captures a still image and a moving image of an external landscape. The sensor 260 includes an acceleration sensor, a geomagnetic sensor, and the like, and detects the orientation of the terminal device 2.
The communication I / F 266 is an interface for transmitting and receiving data by communicating with an external device, the server 1 connected to the network 4, and the like. Specifically, the communication I / F 266 is configured by a wireless device that performs wireless communication using wireless communication technology such as WiFi (registered trademark). The communication I / F 266 may be configured by a device that performs communication using a communication technology such as a wired LAN. The internal bus 250 connects the CPU 252, the memory 254, the positioning unit 255, the nonvolatile memory 256, the operation unit 257, the display unit 258, the imaging unit 259, the sensor 260, and the communication I / F 266 to each other. The units connected to the internal bus 250 can exchange data with each other via the internal bus 250.

(本実施形態に係るゴミ分別支援システムの機能構成)
図3に示すように、サーバ1は、サーバ通信部101と、端末識別部102と、端末情報記憶部103と、画像認識部104と、ゴミ別特徴量記憶部105と、ゴミ箱別特徴量記憶部106と、地域別分別情報記憶部107と、分別方法説明情報記憶部108とを有している。これらの各部は、図2に示されている各構成要素のいずれかが、不揮発性メモリ156からメモリ154上に展開されたプログラム1562を実行するCPU152からの命令によって動作することで実現される機能である。
図2及び図3を用いて、サーバ1の各機能構成について詳細に説明する。サーバ1のサーバ通信部101は、CPU152からの命令、及び通信I/F166によって実現される。サーバ通信部101は、端末装置2などの他の装置との間でセッションが構築された後、各種データの送受信を行う。具体的には、サーバ通信部101は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求を、端末識別部102へ出力する。ゴミ分別判定要求には、端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とが含まれる。ここで、端末装置2の識別情報は、端末装置2のIPアドレス、MACアドレスなどである。以下、端末装置2の識別情報が、端末装置2のIPアドレスである場合について、説明を続ける。サーバ1と端末装置2とは、端末装置2のIPアドレスを使用して、相互に通信する。端末装置2の位置情報は、例えば、GPS衛星を用いた位置測位、又は携帯電話網の基地局を用いた位置測位などにより取得した、端末装置2の利用場所を表す情報である。
端末装置2の向きを示す情報は、端末装置2のセンサ260が検出した端末装置2の傾きを示す情報と方角を示す情報とを含む。端末装置2の向きを示す情報と、端末装置2の位置情報とによって、ゴミ箱5の位置が推定される。ゴミの画像情報は、端末装置2が撮像した分別対象のゴミの画像情報である。ゴミ箱の画像情報は、ユーザがゴミを廃棄しようとしているゴミ箱の画像情報である。また、サーバ通信部101は、画像認識部104が出力したゴミ分別応答を取得し、取得したゴミ分別応答を、端末装置2へ、送信する。
(Function Configuration of Garbage Separation Support System According to the Present Embodiment)
As illustrated in FIG. 3, the server 1 includes a server communication unit 101, a terminal identification unit 102, a terminal information storage unit 103, an image recognition unit 104, a dust-based feature amount storage unit 105, and a trash can-based feature amount storage. It has a unit 106, a regional classification information storage unit 107, and a classification method description information storage unit 108. Each of these units is a function realized by operating any one of the constituent elements shown in FIG. 2 according to an instruction from the CPU 152 that executes the program 1562 expanded on the memory 154 from the nonvolatile memory 156. It is.
Each functional configuration of the server 1 will be described in detail with reference to FIGS. The server communication unit 101 of the server 1 is realized by a command from the CPU 152 and a communication I / F 166. The server communication unit 101 transmits and receives various data after a session is established with another device such as the terminal device 2. Specifically, the server communication unit 101 receives the dust separation determination request transmitted by the terminal device 2 and outputs the received dust separation determination request to the terminal identification unit 102. The dust discrimination determination request includes the identification information of the terminal device 2, the position information of the terminal device 2, the information indicating the direction of the terminal device 2, the image information of the dust, and the image information of the dust box. Here, the identification information of the terminal device 2 is an IP address, a MAC address, and the like of the terminal device 2. Hereinafter, the case where the identification information of the terminal device 2 is the IP address of the terminal device 2 will be continued. The server 1 and the terminal device 2 communicate with each other using the IP address of the terminal device 2. The position information of the terminal device 2 is information indicating a use place of the terminal device 2 obtained by, for example, position measurement using a GPS satellite or position measurement using a base station of a mobile phone network.
The information indicating the orientation of the terminal device 2 includes information indicating the inclination of the terminal device 2 detected by the sensor 260 of the terminal device 2 and information indicating the direction. The position of the trash can 5 is estimated based on the information indicating the orientation of the terminal device 2 and the position information of the terminal device 2. The dust image information is image information of dust to be sorted, which is captured by the terminal device 2. The trash can image information is the trash can image information that the user is trying to discard. In addition, the server communication unit 101 acquires the dust separation response output by the image recognition unit 104, and transmits the acquired dust separation response to the terminal device 2.

端末識別部102は、CPU152からの命令によって実現される。端末識別部102は、サーバ通信部101が出力したゴミ分別判定要求を取得する。端末識別部102は、取得したゴミ分別判定要求に含まれる端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。端末識別部102は、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを、端末情報記憶部103に出力する。また、端末識別部102は、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを画像認識部104へ出力する。
端末情報記憶部103は、不揮発性メモリ156の端末情報1563によって実現される。端末情報記憶部103は、データベースであり、端末識別部102が出力した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを取得し、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを関連付けて記憶する。端末情報記憶部103に記憶された情報は、サーバ1と端末装置2とが相互接続するために使用される。
画像認識部104は、CPU152からの命令によって実現される。画像認識部104は、端末識別部102が出力した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。画像認識部104は、取得したゴミの画像情報と、ゴミ箱の画像情報とに基づいて、ゴミの画像と、ゴミ箱の画像とに対して、画像処理技術などを活用し、画像解析を行うことによって、特徴量を抽出する。
画像認識部104は、ゴミ別特徴量記憶部105に検索させることによって、抽出したゴミの画像の特徴量と関連付けて記憶されている分別名称を示す情報を取得する。画像認識部104は、ゴミ別特徴量記憶部105に、ペットボトルや缶など詳細な分別名称まで取得させる。画像認識部104は、ゴミ別特徴量記憶部105が出力した画像の被写体のゴミが該当する分別名称を示す情報を取得する。また、画像認識部104は、画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がない場合は、ゴミ別特徴量記憶部105から、該当する対象がないことを示す情報を取得する。画像認識部104は、ゴミ箱別特徴量記憶部106に検索させることによって抽出させたゴミ箱の画像の特徴量と一致するゴミ箱の構成情報を取得させる。画像認識部104は、ゴミ箱別特徴量記憶部106が出力したゴミ箱の構成情報を取得する。また、画像認識部104は、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がない場合は、ゴミ箱別特徴量記憶部106から、該当する対象がないことを示す情報を取得する。
The terminal identification unit 102 is realized by a command from the CPU 152. The terminal identification unit 102 acquires the dust classification determination request output by the server communication unit 101. The terminal identification unit 102 includes the identification information of the terminal device 2 included in the acquired dust classification determination request, the position information of the terminal device 2, the information indicating the direction of the terminal device 2, the image information of the dust, and the image of the trash can. Get information and. The terminal identification unit 102 outputs the acquired identification information of the terminal device 2, the position information of the terminal device 2, and the information indicating the attitude of the terminal device 2 to the terminal information storage unit 103. The terminal identification unit 102 performs image recognition on the acquired identification information of the terminal device 2, the position information of the terminal device 2, the information indicating the direction of the terminal device 2, the dust image information, and the dust box image information. Output to the unit 104.
The terminal information storage unit 103 is realized by the terminal information 1563 of the nonvolatile memory 156. The terminal information storage unit 103 is a database, and acquires the identification information of the terminal device 2, the position information of the terminal device 2, and the information indicating the attitude of the terminal device 2 output by the terminal identification unit 102. The identification information of the device 2, the position information of the terminal device 2, and the information indicating the attitude of the terminal device 2 are stored in association with each other. The information stored in the terminal information storage unit 103 is used for interconnecting the server 1 and the terminal device 2.
The image recognition unit 104 is realized by a command from the CPU 152. The image recognition unit 104 outputs the identification information of the terminal device 2 output by the terminal identification unit 102, the position information of the terminal device 2, the information indicating the orientation of the terminal device 2, the image information of the dust, and the image information of the trash box. To get. The image recognizing unit 104 performs image analysis on the dust image and the dust box image based on the acquired dust image information and the dust box image information by using image processing technology and the like. , And extract the feature amount.
The image recognizing unit 104 obtains information indicating the classification name stored in association with the extracted dust image feature amount by causing the dust-based feature amount storage unit 105 to search. The image recognition unit 104 causes the dust-based feature amount storage unit 105 to acquire a detailed classification name such as a plastic bottle or a can. The image recognizing unit 104 obtains information indicating a classification name to which the subject dust in the image output by the dust-specific feature storage unit 105 corresponds. When there is no feature amount of the dust image that matches the feature amount of the dust image of the subject in the image, the image recognition unit 104 outputs information indicating that there is no corresponding target from the dust-specific feature amount storage unit 105. To get. The image recognizing unit 104 causes the trash can-based feature amount storage unit 106 to retrieve the trash can configuration information that matches the extracted trash can image feature amount. The image recognition unit 104 acquires the configuration information of the trash box output from the trash box-specific feature storage unit 106. If there is no feature amount of the trash can image that matches the feature amount of the trash can image of the subject of the image, the image recognition unit 104 stores information indicating that there is no corresponding target from the trash can-specific feature amount storage unit 106. To get.

画像認識部104は、端末装置2の位置情報と、端末装置2の向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部104は、ゴミの分別名称を示す情報を取得した場合に、地域別分別情報記憶部107に検索させることによって、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。画像認識部104は、地域別分別情報記憶部107が出力した地域別分別情報を取得する。また、画像認識部104は、地域別分別情報がない場合は、地域別分別情報記憶部107から、該当する対象がないことを示す情報を取得する。画像認識部104は、地域別の分別情報を取得した場合に、分別方法説明情報記憶部108に検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得する。また、画像認識部104は、ゴミ分別方法説明情報がない場合は、分別方法説明情報記憶部108から、該当する対象がないことを示す情報を取得する。
画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得した場合には、取得したゴミ分別方法説明情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、ゴミ別特徴量記憶部105が出力した画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得した場合には、分別名称がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、ゴミ箱別特徴量記憶部106が出力した画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得した場合には、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、地域別分別情報記憶部107が出力した地域別分別情報がないことを示す情報を取得した場合、地域別分別情報がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報がないことを示す情報を取得した場合、ゴミ分別方法説明情報がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。
The image recognition unit 104 estimates the location where the trash can 5 is installed, based on the position information of the terminal device 2 and the information indicating the orientation of the terminal device 2. When the information recognizing the garbage separation name is obtained, the image recognizing unit 104 causes the area-specific separation information storage unit 107 to search, thereby obtaining the obtained garbage separation name and the estimation result of the place where the trash box 5 is installed. And the classification information for each region stored in association with. The image recognition unit 104 acquires the regional classification information output from the regional classification information storage unit 107. When there is no regional classification information, the image recognition unit 104 acquires information indicating that there is no corresponding target from the regional classification information storage unit 107. When acquiring the classification information for each region, the image recognizing unit 104 causes the classification method description information storage unit 108 to search, so that the garbage classification method description information stored in association with the acquired classification information for each region is stored. Get it. The image recognition unit 104 acquires the dust separation method description information output from the separation method description information storage unit 108. In addition, when there is no dust separation method explanation information, the image recognition unit 104 acquires information indicating that there is no corresponding target from the separation method explanation information storage unit 108.
When acquiring the dust separation method explanation information output from the separation method explanation information storage unit 108, the image recognition unit 104 transmits a dust separation response including the acquired dust separation method explanation information and the identification information of the terminal device 2. The created dust separation response is output to the server communication unit 101 via the terminal identification unit 102. If the image recognizing unit 104 acquires information indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject in the image output by the dust-specific feature amount storage unit 105, A dust classification response including information indicating that there is no classification name and identification information of the terminal device 2 is created, and the created dust classification response is output to the server communication unit 101 via the terminal identification unit 102. If the image recognizing unit 104 acquires information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image output from the feature amount storing unit 106, A dust separation response including information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image and identification information of the terminal device 2 is created. The data is output to the server communication unit 101 via the terminal identification unit 102. When the image recognition unit 104 acquires the information indicating that there is no regional classification information output from the regional classification information storage unit 107, the image recognition unit 104 identifies the information indicating that there is no regional classification information and identifies the terminal device 2. A dust separation response including the information is generated, and the created dust separation response is output to the server communication unit 101 via the terminal identification unit 102. Further, when the image recognition unit 104 acquires the information indicating that there is no dust separation method explanation information output from the separation method explanation information storage unit 108, the image recognition unit 104 includes information indicating that there is no dust separation method explanation information, and the terminal device 2 A dust separation response including the identification information is generated, and the created dust separation response is output to the server communication unit 101 via the terminal identification unit 102.

ゴミ別特徴量記憶部105は、不揮発性メモリ156のゴミ別特徴量1564によって実現される。ゴミ別特徴量記憶部105は、ゴミの分別名称と、そのゴミの画像の特徴量とを関連付けて記憶したデータベースである。ゴミ別特徴量記憶部105は、画像認識部104が出力したゴミの画像の特徴量に基づいて、画像の被写体のゴミがどの分別名称に該当するゴミであるかを検索する。ゴミ別特徴量記憶部105は、画像の被写体のゴミに該当する分別名称がある場合にはその分別名称を示す情報を、画像認識部104へ出力し、画像の被写体のゴミの画像の特徴量がない場合にはゴミの画像の特徴量がないことを示す情報を、画像認識部104へ出力する。
ゴミ箱別特徴量記憶部106は、不揮発性メモリ156のゴミ箱別特徴量1565によって実現される。ゴミ箱別特徴量記憶部106は、ゴミ箱の構成情報と、ゴミ箱の画像の特徴量とを関連付けて記憶したデータベースである。ゴミ箱別特徴量記憶部106は、画像認識部104が出力したゴミ箱の画像の特徴量に基づいて、画像の被写体のゴミ箱の構成情報を検索する。ゴミ箱別特徴量記憶部106は、画像の被写体のゴミ箱の画像の特徴量に該当するゴミ箱の構成情報がある場合にはそのゴミ箱の構成情報を示す情報を、画像認識部104へ出力し、画像の被写体のゴミ箱の画像の特徴量がない場合にはゴミ箱の画像の特徴量がないことを示す情報を、画像認識部104へ出力する。
地域別分別情報記憶部107は、不揮発性メモリ156の地域別分別情報1566によって実現される。地域別分別情報記憶部107は、地域ごとのゴミの分別方法を記憶したデータベースである。具体的には、地域別分別情報記憶部107は、地域の緯度の範囲と経度の範囲を示す情報と、ゴミの分別名称を示す情報と、そのゴミのゴミ分別方法を示す情報とを関連付けて記憶する。地域別分別情報記憶部107は、画像認識部104が出力したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とを取得し、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに基づいて、ゴミの分別方法を示す情報を検索する。地域別分別情報記憶部107は、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに該当するゴミの分別方法がある場合にはそのゴミの分別方法を示す情報を、画像認識部104へ出力し、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに該当するゴミの分別方法がない場合にはゴミの分別方法がないことを示す情報を、画像認識部104へ出力する。
このように構成することによって、地域別分別情報記憶部107は、ゴミ箱5が設置された場所の推定結果に基づいて、ゴミ箱5がある地域のゴミの分別情報を検索することができる。分別方法説明情報記憶部108は、不揮発性メモリ156の分別方法説明情報1567によって実現される。分別方法説明情報記憶部108は、ゴミの分別方法を示す情報と、ゴミ分別方法説明情報とを関連付けて記憶したデータベースである。ここで、ゴミ分別方法説明情報のゴミの分別方法を説明するための情報の一例は、アニメーション表示である。分別方法説明情報記憶部108は、画像認識部104が出力したゴミの分別方法を示す情報を取得し、取得したゴミの分別方法を示す情報に基づいて、ゴミ分別方法説明情報を検索する。
The dust-based feature amount storage unit 105 is realized by the dust-based feature amount 1564 of the nonvolatile memory 156. The dust-based feature storage unit 105 is a database that stores dust separation names and feature values of the dust images in association with each other. The dust-based feature storage unit 105 searches for the classification name of the subject dust in the image based on the feature of the dust image output by the image recognition unit 104. If there is a classification name corresponding to the dust of the subject in the image, the dust-specific feature amount storage unit 105 outputs information indicating the classification name to the image recognition unit 104, and outputs the feature amount of the dust image of the subject in the image. If there is no such information, information indicating that there is no feature amount of the dust image is output to the image recognition unit 104.
The trash box feature amount storage unit 106 is realized by the trash box feature amount 1565 of the nonvolatile memory 156. The trash box-specific feature storage unit 106 is a database that stores trash box configuration information and feature values of trash box images in association with each other. The trash bin-specific feature storage unit 106 searches the trash bin configuration information of the subject of the image based on the trash bin image feature output from the image recognition unit 104. If there is trash box configuration information corresponding to the feature value of the trash can image of the subject of the image, the trash can-specific feature storage unit 106 outputs information indicating the trash can configuration information to the image recognition unit 104, If there is no feature of the image of the trash can of the subject, information indicating that there is no feature of the image of the trash can is output to the image recognition unit 104.
The regional classification information storage unit 107 is realized by the regional classification information 1566 of the nonvolatile memory 156. The area-specific separation information storage unit 107 is a database that stores a method of separating garbage for each area. Specifically, the area-specific classification information storage unit 107 associates information indicating the range of latitude and longitude of the area, information indicating the classification name of the garbage, and information indicating the garbage classification method for the garbage. Remember. The area-specific separation information storage unit 107 obtains the garbage separation name output by the image recognition unit 104 and the estimation result of the location where the trash box 5 is installed, and stores the obtained trash separation name and the trash box 5. Based on the estimation result of the place, the information indicating the method of separating garbage is searched. If there is a trash separation method corresponding to the obtained trash separation name and the estimation result of the place where the trash box 5 is installed, the area-specific separation information storage unit 107 stores information indicating the trash separation method. If there is no trash separation method that is output to the image recognition unit 104 and corresponds to the acquired trash separation name and the estimation result of the place where the trash box 5 is installed, information indicating that there is no trash separation method is provided. , To the image recognition unit 104.
With such a configuration, the area-specific separation information storage unit 107 can search for garbage separation information in the area where the trash can 5 is located, based on the estimation result of the location where the trash can 5 is installed. The classification method description information storage unit 108 is realized by the classification method description information 1567 of the nonvolatile memory 156. The separation method explanation information storage unit 108 is a database that stores information indicating a dust separation method and dust separation method explanation information in association with each other. Here, an example of the information for explaining the dust separation method in the dust separation method explanation information is an animation display. The classification method explanation information storage unit 108 acquires the information indicating the dust classification method output by the image recognition unit 104, and searches for the dust classification method explanation information based on the acquired information indicating the dust classification method.

端末装置2は、画像入力部201と、制御部202と、画像認識部203と、姿勢検出部204と、位置測定部205と、通信部206と、画像出力部207とを有している。画像入力部201は、CPU252からの命令、及び撮像部259によって実現される。画像入力部201は、端末装置2に搭載されている撮像部259が撮像することによって得られる動画の映像情報と静止画の画像情報とのいずれか一方又は両方が入力されることによって、動画の映像情報と静止画の画像情報とのいずれか一方又は両方を取得する。本実施形態では、撮像部259が、ゴミと、ゴミ箱とを撮像することによって、ゴミの画像情報と、ゴミ箱の画像情報とを、生成する場合について説明を続ける。画像入力部201は、取得した画像情報を、制御部202へ出力する。
制御部202は、CPU252からの命令によって実現される。制御部202は、端末装置2の動作全般の制御と、管理とを行う。制御部202は、画像入力部201が出力したゴミの画像情報と、ゴミ箱の画像情報とを取得する。また、制御部202は、位置測定部205が出力した端末装置2の位置情報を取得する。また、制御部202は、姿勢検出部204が出力した端末装置2の向きを示す情報を取得する。制御部202は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の識別情報と、端末装置2の位置情報とを含み、サーバ1を宛先とするゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、通信部206へ出力する。また、制御部202は、通信部206が出力したゴミ分別応答を取得し、取得したゴミ分別応答に含まれるゴミ分別方法説明情報と、分別名称がないことを示す情報と、ゴミ箱の画像の特徴量がないことを示す情報と、地域別分別情報がないことを示す情報と、ゴミ分別方法説明情報がないことを示す情報とのいずれかを取得する。制御部202は、ゴミ分別方法説明情報を取得した場合にはそのゴミ分別説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202は、ゴミ分別方法説明情報を合成した画像情報を、画像出力部207へ出力する。制御部202は、ゴミ分別方法説明情報以外の情報を取得した場合にはその情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。
制御部202は、ゴミ分別方法説明情報以外の情報を合成した画像情報を、画像出力部207へ出力する。具体的には、制御部202は、ゴミ分別方法説明情報を合成する場合には、画像認識部203に、画像入力部201が取得したゴミ箱5の画像から、ゴミ箱5の画像の特徴量を抽出させる。また、制御部202は、姿勢検出部204に、端末装置2の向きを検出させる。制御部202は、画像認識部203に抽出させたゴミ箱5の画像の特徴量に基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を調整する。また、制御部202は、姿勢検出部204に検出させた端末装置2の向きに基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を調整する。
画像認識部203は、CPU252からの命令によって実現される。画像認識部203は、画像入力部201が取得した画像情報に対して、画像処理技術を用いて、画像の特徴量を抽出する。画像認識部203は、制御部202が、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像に、リアルタイムで合成する場合に、抽出した画像の特徴量を制御部202へ出力する。
The terminal device 2 includes an image input unit 201, a control unit 202, an image recognition unit 203, an attitude detection unit 204, a position measurement unit 205, a communication unit 206, and an image output unit 207. The image input unit 201 is realized by a command from the CPU 252 and an imaging unit 259. The image input unit 201 receives one or both of the video information of a moving image and the image information of a still image obtained by imaging by the imaging unit 259 mounted on the terminal device 2, so that the Either or both of the video information and the image information of the still image are acquired. In the present embodiment, the case where the imaging unit 259 generates dust image information and dust box image information by capturing dust and a dust box will be continuously described. The image input unit 201 outputs the obtained image information to the control unit 202.
The control unit 202 is realized by a command from the CPU 252. The control unit 202 performs overall control and management of the operation of the terminal device 2. The control unit 202 acquires the image information of the dust output from the image input unit 201 and the image information of the dust box. Further, the control unit 202 acquires the position information of the terminal device 2 output by the position measurement unit 205. In addition, the control unit 202 acquires information indicating the orientation of the terminal device 2 output by the attitude detection unit 204. The control unit 202 generates a dust classification determination request including the acquired dust image information, dust box image information, terminal device 2 identification information, and terminal device 2 location information, and destined to the server 1. , And outputs the created dust separation determination request to the communication unit 206. In addition, the control unit 202 acquires the dust separation response output from the communication unit 206, and describes dust separation method explanation information included in the acquired dust separation response, information indicating that there is no separation name, and the characteristics of the image of the trash can. One of the information indicating that there is no amount, the information indicating that there is no area-specific separation information, and the information indicating that there is no trash separation method explanation information is acquired. When acquiring the dust separation method explanation information, the control unit 202 processes the dust separation explanation information using augmented reality technology, thereby obtaining the image information acquired by the image input unit 201 by performing image processing. The image is synthesized in real time. The control unit 202 outputs to the image output unit 207 image information obtained by synthesizing the dust separation method explanation information. When acquiring information other than the dust separation method explanation information, the control unit 202 processes the information using augmented reality technology, thereby obtaining the image information acquired by the image input unit 201 by performing image processing. The image is synthesized in real time.
The control unit 202 outputs, to the image output unit 207, image information obtained by combining information other than the dust separation method explanation information. Specifically, when combining the dust separation method explanation information, the control unit 202 causes the image recognition unit 203 to extract the feature amount of the image of the trash box 5 from the image of the trash box 5 acquired by the image input unit 201. Let it. In addition, the control unit 202 causes the posture detection unit 204 to detect the orientation of the terminal device 2. The control unit 202 sorts the dust based on the feature amount of the image of the trash box 5 extracted by the image recognition unit 203 so that the dust separation method explanation information is displayed so as to overlap the image of the target object such as the trash box 5. Adjust the position where the method explanation information is displayed. In addition, the control unit 202 controls the dust separation based on the orientation of the terminal device 2 detected by the posture detection unit 204 so that the dust separation method explanation information is displayed so as to overlap the image of the target object such as the trash box 5. Adjust the position where the method explanation information is displayed.
The image recognition unit 203 is realized by a command from the CPU 252. The image recognition unit 203 extracts a feature amount of the image from the image information acquired by the image input unit 201 by using an image processing technique. The image recognition unit 203 outputs the extracted feature amount of the image to the control unit 202 when the control unit 202 combines the dust classification method explanation information with the image in real time using augmented reality technology.

姿勢検出部204は、CPU252からの命令、及びセンサ260によって実現される。姿勢検出部204は、端末装置2の向きを検出する。具体的には、姿勢検出部204は、端末装置2の傾きを示す情報と方角を示す情報とを取得し、取得した傾きを示す情報と方角を示す情報とを、制御部202へ出力する。制御部202は、姿勢検出部204が出力した傾きを示す情報と方角を示す情報とを取得し、取得した傾きを示す情報と方角を示す情報とを、ゴミ分別判定要求に含める。また、姿勢検出部204は、傾きを示す情報と方角を示す情報とを使用して、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。このように構成することによって、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像に、合成するときの位置精度を向上させることができる。位置測定部205は、CPU252からの命令、及び測位部255によって実現される。位置測定部205は、端末装置2が利用されている場所を特定する。位置測定部205は、測位部255によって、端末装置2の絶対位置情報を測定する。システムの絶対位置情報の一例は、経度と緯度とで示される。位置測定部205は、端末装置2の位置情報を、制御部202へ出力する。通信部206は、CPU252からの命令、及び通信I/F166によって実現される。通信部206は、制御部202が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求を、ネットワーク4を経由して、サーバ1へ送信する。また、通信部206は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答を、制御部202へ出力する。画像出力部207は、CPU252からの命令、及び表示部258によって実現される。画像出力部207は、制御部202が出力したゴミ分別方法説明情報を合成した画像情報取得し、取得したゴミ分別方法説明情報を合成した画像情報を、表示部258に表示する。   The posture detection unit 204 is realized by a command from the CPU 252 and the sensor 260. The posture detection unit 204 detects the direction of the terminal device 2. Specifically, the posture detection unit 204 acquires information indicating the inclination of the terminal device 2 and information indicating the direction, and outputs the acquired information indicating the inclination and the information indicating the direction to the control unit 202. The control unit 202 acquires the information indicating the inclination and the information indicating the direction output by the posture detection unit 204, and includes the acquired information indicating the inclination and the information indicating the direction in the dust classification determination request. Further, the posture detection unit 204 performs image processing of dust separation method explanation information using information indicating the inclination and information indicating the direction, and image information acquired by the image input unit 201 using augmented reality technology. Is synthesized in real time with the image obtained. With this configuration, it is possible to improve the positional accuracy when the dust separation method explanation information is combined with the image using the augmented reality technology. The position measurement unit 205 is realized by a command from the CPU 252 and the positioning unit 255. The position measuring unit 205 specifies a place where the terminal device 2 is used. The position measuring unit 205 measures the absolute position information of the terminal device 2 by the positioning unit 255. An example of the absolute position information of the system is indicated by longitude and latitude. The position measurement unit 205 outputs the position information of the terminal device 2 to the control unit 202. The communication unit 206 is realized by a command from the CPU 252 and the communication I / F 166. The communication unit 206 acquires the dust separation determination request output by the control unit 202, and transmits the acquired dust separation determination request to the server 1 via the network 4. Further, the communication unit 206 receives the dust separation response transmitted by the server 1, and outputs the received dust separation response to the control unit 202. The image output unit 207 is realized by a command from the CPU 252 and the display unit 258. The image output unit 207 acquires image information obtained by combining the dust separation method explanation information output by the control unit 202, and displays the image information obtained by combining the acquired dust separation method explanation information on the display unit 258.

(ゴミ分別支援システムの動作)
図4を参照して、本発明の実施形態のゴミ分別支援システムの動作の一例について説明する。図4に示される例では、ゴミと、ゴミ箱5とを、端末装置2で撮像し、撮像することによって得られたゴミの画像と、ゴミ箱5の画像とに基づいて、ゴミの分別方法を示す情報を取得する。
(ステップS10)
端末装置2のユーザは、操作部257を操作することによって、ゴミ分別アプリを起動させる。
(ステップS11)
端末装置2では、ゴミ分別アプリが起動することによって、表示部258に、ゴミの撮像を促すメッセージが表示される。
(ステップS12)
ユーザは、表示部258に表示されたメッセージを参照し、操作部257に対して、ゴミを撮像する操作を行う。図5に示されるように、表示部258には、撮像するゴミの一例として、ペットボトルPが表示されている。画像入力部201は、撮像部259にゴミを撮像させる。画像入力部201は、ゴミを撮像することによって得られたゴミの画像情報を制御部202へ出力する。図4に戻り説明を続ける。
(ステップS13)
ユーザは、操作部257に対して、ゴミ箱を撮像する操作を行う。図6に示されるように、表示部258には、撮像するゴミ箱5の一例として、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含むゴミ箱5が示されている。画像入力部201は、撮像部259にゴミ箱を撮像させる。画像入力部201は、ゴミ箱を撮像することによって得られたゴミ箱の画像情報を、制御部202へ出力する。図4に戻り説明を続ける。
(ステップS14)
姿勢検出部204は、センサ260が検出した加速度、地磁気などに基づいて、端末装置2の向きを示す情報を取得し、取得した端末装置2の位置情報を、制御部202へ出力する。
(ステップS15)
位置測定部205は、測位部255が検出した位置情報を取得し、取得した端末装置2の位置情報を、制御部202へ出力する。
(ステップS16)
制御部202は、画像入力部201が出力したゴミの画像情報と、ゴミ箱の画像情報とを取得し、姿勢検出部204が出力した端末装置2の向きを示す情報を取得し、位置測定部205が出力した端末装置2の位置情報を取得する。制御部202は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、通信部206へ出力する。
(ステップS17)
通信部206は、制御部202が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求を、サーバ1へ送信する。
(ステップS18)
サーバ通信部101は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求を、端末識別部102へ出力する。端末識別部102は、サーバ通信部101が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを取得する。端末識別部102は、取得した端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを関連付けて、端末情報記憶部103に記憶する。また、端末識別部102は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを画像認識部104へ出力する。
(ステップS19)
画像認識部104は、端末識別部102が出力したゴミの画像情報と、ゴミ箱5の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを取得し、取得したゴミの画像情報に基づいて、ゴミの画像の特徴量を抽出する。
(ステップS20)
画像認識部104は、取得したゴミ箱の画像情報に基づいて、ゴミ箱の画像の特徴量を抽出する。
(Operation of trash separation support system)
An example of the operation of the trash separation support system according to the embodiment of the present invention will be described with reference to FIG. In the example illustrated in FIG. 4, dust and a trash can 5 are imaged by the terminal device 2, and a trash separation method is illustrated based on the trash image obtained by imaging and the trash can 5 image. Get information.
(Step S10)
The user of the terminal device 2 activates the trash separation application by operating the operation unit 257.
(Step S11)
In the terminal device 2, when the dust separation application is activated, a message urging the user to image dust is displayed on the display unit 258.
(Step S12)
The user refers to the message displayed on the display unit 258 and performs an operation on the operation unit 257 to image dust. As shown in FIG. 5, the display unit 258 displays a plastic bottle P as an example of dust to be imaged. The image input unit 201 causes the imaging unit 259 to image dust. The image input unit 201 outputs dust image information obtained by imaging dust to the control unit 202. Returning to FIG. 4, the description will be continued.
(Step S13)
The user performs an operation on the operation unit 257 to image the trash can. As shown in FIG. 6, the display unit 258 shows, as an example of the trash bin 5 to be imaged, a trash bin 5 including three separate trash bins: a combustible trash bin 51, a non-burnable trash bin 52, and a resource trash bin 53. I have. The image input unit 201 causes the imaging unit 259 to image the trash can. The image input unit 201 outputs image information of the trash can obtained by imaging the trash can to the control unit 202. Returning to FIG. 4, the description will be continued.
(Step S14)
The posture detection unit 204 acquires information indicating the orientation of the terminal device 2 based on the acceleration, geomagnetism, and the like detected by the sensor 260, and outputs the acquired position information of the terminal device 2 to the control unit 202.
(Step S15)
The position measurement unit 205 acquires the position information detected by the positioning unit 255, and outputs the acquired position information of the terminal device 2 to the control unit 202.
(Step S16)
The control unit 202 acquires the image information of the dust output from the image input unit 201 and the image information of the trash can, obtains the information indicating the direction of the terminal device 2 output from the attitude detection unit 204, and obtains the position measurement unit 205 To acquire the position information of the terminal device 2 output by the terminal device. The control unit 202 transmits a dust separation determination request including the acquired dust image information, dust box image information, information indicating the orientation of the terminal device 2, position information of the terminal device 2, and identification information of the terminal device 2. And outputs the created dust separation determination request to the communication unit 206.
(Step S17)
The communication unit 206 acquires the dust separation determination request output by the control unit 202, and transmits the acquired dust separation determination request to the server 1.
(Step S18)
The server communication unit 101 receives the dust separation determination request transmitted by the terminal device 2 and outputs the received dust separation determination request to the terminal identification unit 102. The terminal identification unit 102 acquires the dust separation determination request output by the server communication unit 101, and includes image information of dust included in the acquired dust separation determination request, image information of the trash can, and information indicating the orientation of the terminal device 2. And the position information of the terminal device 2 and the identification information of the terminal device 2. The terminal identification unit 102 stores the acquired information indicating the orientation of the terminal device 2, the position information of the terminal device 2, and the identification information of the terminal device 2 in the terminal information storage unit 103 in association with each other. In addition, the terminal identification unit 102 performs image recognition on the acquired dust image information, dust box image information, information indicating the orientation of the terminal device 2, position information of the terminal device 2, and identification information of the terminal device 2. Output to the unit 104.
(Step S19)
The image recognizing unit 104 includes the image information of the dust output by the terminal identifying unit 102, the image information of the trash can 5, the information indicating the orientation of the terminal device 2, the position information of the terminal device 2, and the identification information of the terminal device 2. And the feature amount of the dust image is extracted based on the acquired dust image information.
(Step S20)
The image recognition unit 104 extracts the feature amount of the image of the trash can based on the acquired image information of the trash can.

(ステップS21)
画像認識部104は、ゴミ別特徴量記憶部105に検索させることによって、抽出したゴミの画像の特徴量に該当するゴミの分別名称を示す情報を取得する。
(ステップS22)
画像認識部104は、ゴミ箱別特徴量記憶部106に検索させることによって、抽出させたゴミ箱の画像の特徴量に該当するゴミ箱の構成情報を取得させる。
(ステップS23)
画像認識部104は、端末装置2の位置情報と、端末装置2の向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部104は、地域別分別情報記憶部107に検索させることによって、識別させたゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。地域別分別情報記憶部107は、識別させた分別名称と、ゴミ箱5が設置された場所の推定結果とに該当する地域別分別情報がある場合には、その該当する地域別分別情報を、画像認識部104へ出力する。
(ステップS24)
画像認識部104は、分別方法説明情報記憶部108に検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。分別方法説明情報記憶部108は、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報に該当するゴミ分別方法説明情報がある場合には、その該当するゴミ分別方法説明情報を、画像認識部104へ出力する。
(ステップS25)
画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得した場合、取得したゴミ分別方法説明情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。
(ステップS26)
サーバ通信部101は、作成したゴミ分別応答を、端末装置2へ送信する。
(ステップS27)
通信部206は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答を、制御部202へ出力する。
(ステップS28)
制御部202は、通信部206が出力したゴミ分別応答を取得し、取得したゴミ分別応答に含まれるゴミ分別方法説明情報を取得する。制御部202は、取得したゴミ分別方法説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。図7に示されるように、端末装置2の表示部258に、画像入力部201が取得したゴミ箱5の画像情報を画像処理することによって得られるゴミ箱5の画像に、ペットボトルPIが表示される。ここで、ペットボトルPIには、ラベルRaIが取り付けられている。図8に示されるように、端末装置2の表示部258に表示されているペットボトルPIが表示されている状態で、ラベルRaIが外されている。図9に示されるように、端末装置2の表示部258に表示されているペットボトルPIと、ラベルRaIとの各々について、端末装置2の表示部258に表示されているゴミ箱5Iの3個の分別ゴミ箱のうち、いずれの分別ゴミ箱に捨てるべきかを矢印などの指示画像で表示している。具体的には、ペットボトルPIについては資源ゴミ箱53に捨てるよう、ラベルRaIについては不燃ゴミ箱52に捨てるように表示されている。
(Step S21)
The image recognizing unit 104 obtains information indicating a classification name of dust corresponding to the feature amount of the extracted dust image by causing the dust-based feature amount storage unit 105 to search.
(Step S22)
The image recognizing unit 104 causes the trash box-specific feature amount storage unit 106 to search, thereby acquiring the trash box configuration information corresponding to the extracted feature value of the trash box image.
(Step S23)
The image recognition unit 104 estimates the location where the trash can 5 is installed, based on the position information of the terminal device 2 and the information indicating the orientation of the terminal device 2. The image recognizing unit 104 causes the region-specific classification information storage unit 107 to search for the region-specific classification stored in association with the identified garbage classification name and the estimation result of the location where the trash box 5 is installed. Get information. If there is regional classification information corresponding to the identified classification name and the estimation result of the location where the trash can 5 is installed, the regional classification information storage unit 107 stores the corresponding regional classification information in an image. Output to the recognition unit 104.
(Step S24)
The image recognizing unit 104 causes the sorting method explanation information storage unit 108 to search, thereby acquiring the dust sorting method explanation information stored in association with the acquired regional sorting information. When there is dust separation method explanation information corresponding to the dust separation method explanation information stored in association with the acquired area-specific separation information, the separation method explanation information storage unit 108 stores the corresponding dust separation method explanation information. Is output to the image recognition unit 104.
(Step S25)
When acquiring the dust separation method explanation information output from the separation method explanation information storage unit 108, the image recognition unit 104 creates a dust separation response including the acquired dust separation method explanation information and the identification information of the terminal device 2. Then, the created dust separation response is output to the server communication unit 101 via the terminal identification unit 102.
(Step S26)
The server communication unit 101 transmits the created dust separation response to the terminal device 2.
(Step S27)
The communication unit 206 receives the dust separation response transmitted by the server 1 and outputs the received dust separation response to the control unit 202.
(Step S28)
The control unit 202 acquires the dust separation response output by the communication unit 206, and acquires dust separation method explanation information included in the acquired dust classification response. The control unit 202 combines the acquired dust classification method explanation information with an image obtained by performing image processing on the image information acquired by the image input unit 201 by processing the acquired information using augmented reality technology in real time. As shown in FIG. 7, the PET bottle PI is displayed on the display unit 258 of the terminal device 2 on the image of the trash can 5 obtained by performing image processing on the image information of the trash can 5 obtained by the image input unit 201. . Here, the label RaI is attached to the plastic bottle PI. As shown in FIG. 8, the label RaI is removed while the plastic bottle PI displayed on the display unit 258 of the terminal device 2 is displayed. As shown in FIG. 9, for each of the plastic bottle PI displayed on the display unit 258 of the terminal device 2 and the label RaI, the three trash cans 5I displayed on the display unit 258 of the terminal device 2 are displayed. An instruction image such as an arrow indicates which of the trash bins should be discarded. Specifically, it is displayed that the PET bottle PI is to be thrown into the resource trash box 53, and the label RaI is to be thrown into the non-combustible trash box 52.

前述した実施形態では、ゴミ箱5が、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含む場合について説明したが、この例に限られない。例えば、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53とのうちの少なくとも1個を含んで構成されてもよい。また、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個に限らず、4以上の構成、例えば、雑誌、空き缶、空き瓶などのゴミ箱を含んで構成されてもよい。
前述した実施形態では、端末装置2によって、ゴミと、ゴミ箱とが撮像される場合について説明したが、この例に限られない。例えば、ユーザは、端末装置2を操作することによって、ゴミ箱5が満杯である場合に、そのゴミ箱5を撮像してもよい。サーバ1は、端末装置2が送信したゴミ箱の画像情報に基づいて、ゴミ箱5の状態を推定し、ゴミ箱5の状態の推定結果を示す情報を含む状態通知情報を作成し、作成した状態通知情報を外部装置へ送信してもよい。このように構成することによって、外部装置に通知された状態通知情報に基づいて、ゴミ箱5のゴミの回収などの所定の処理を行うことができる。ゴミ箱5のゴミの回収の効率を向上できるとともに、ゴミ箱5の衛生環境を向上できる。また、端末装置2にゴミ箱の構成情報を予め設定し、設定されたゴミ箱の構成情報と同様の構成であるゴミ箱については、ゴミ箱の撮像を省略させてもよい。つまり、ゴミの画像情報に基づいて、上述した処理が行われてもよい。このように構成することによって、ユーザにゴミ箱を撮像させる手間をなくすことができるとともに、サーバ1の処理を削減できる。
前述した実施形態において、端末装置2に、ゴミの画像情報とゴミ箱の画像情報とゴミ分別方法説明情報とを関連付けて記憶する記憶部を備えてもよい。そして、制御部202は、画像入力部201から入力されたゴミの画像情報と、ゴミ箱の画像情報と関連付けて記憶されているゴミ分別方法説明情報を、記憶部から取得し、取得したゴミ分別方法説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。このように構成することによって、端末装置2から、サーバ1へゴミの分別方法を問い合わせる処理を省略できるため、ゴミと、ゴミ箱とを撮像してから、端末装置2からゴミの分別方法が出力されるまでの時間を短縮できる。
前述した実施形態において、画像認識部104は、取得したゴミの画像情報と端末装置2の位置情報とに基づいて、端末装置2の位置から所定の範囲のゴミ箱の位置情報を取得し、取得したゴミ箱の位置情報をさらに含むゴミ分別応答を作成してもよい。このように構成することによって、ユーザに近傍のゴミ箱を知らせることができる。
本実施形態のゴミ分別判定システムによれば、拡張現実技術を応用し、廃棄対象のゴミとゴミ箱とを撮像部で撮影することにより、端末装置2の表示画面にゴミの分別方法が、ゴミ分別方法説明情報によって、表示される。分別方法が、文章とアニメーションとによって表示されるため、ゴミの分別に不慣れな外国人、異なる地域から訪れた観光客に対しても、十分に分別方法を理解させることができる。
In the above-described embodiment, a case has been described in which the trash can 5 includes three separate trash cans: a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53. However, the present invention is not limited to this example. For example, the trash box 5 may be configured to include at least one of a combustible trash box 51, a non-combustible trash box 52, and a resource trash box 53. Further, the trash can 5 is not limited to three flammable trash cans 51, non-combustible trash cans 52, and resource trash cans 53, and may be configured to include four or more configurations, for example, trash cans such as magazines, empty cans and empty bottles. Good.
In the above-described embodiment, the case where dust and a dust box are imaged by the terminal device 2 has been described, but the present invention is not limited to this example. For example, the user may operate the terminal device 2 to image the trash can 5 when the trash can 5 is full. The server 1 estimates the state of the trash box 5 based on the image information of the trash box transmitted from the terminal device 2, creates state notification information including information indicating the estimation result of the state of the trash box 5, and creates the created state notification information. May be transmitted to an external device. With this configuration, it is possible to perform a predetermined process such as collecting dust in the trash box 5 based on the status notification information notified to the external device. The efficiency of collecting the trash in the trash can 5 can be improved, and the sanitary environment of the trash can 5 can be improved. Alternatively, the configuration information of the trash can may be set in the terminal device 2 in advance, and the imaging of the trash can may be omitted for the trash can having the same configuration as the set trash can configuration information. That is, the above-described processing may be performed based on the dust image information. With such a configuration, it is possible to eliminate the trouble of causing the user to image the trash can and to reduce the processing of the server 1.
In the above-described embodiment, the terminal device 2 may include a storage unit that stores the image information of the dust, the image information of the dust box, and the dust separation method explanation information in association with each other. Then, the control unit 202 obtains from the storage unit the dust image information input from the image input unit 201 and the dust separation method explanation information stored in association with the dust box image information, and obtains the obtained dust separation method. By processing the explanatory information using the augmented reality technology, the image information is synthesized in real time with an image obtained by performing image processing on the image information acquired by the image input unit 201. With this configuration, it is possible to omit the process of inquiring the server 1 of the dust separation method from the terminal device 2, so that the terminal device 2 outputs the dust separation method after imaging the dust and the dust box. The time it takes to get started.
In the above-described embodiment, the image recognition unit 104 acquires the position information of the trash can within a predetermined range from the position of the terminal device 2 based on the acquired image information of the dust and the position information of the terminal device 2. A garbage classification response that further includes trash can location information may be created. With this configuration, the user can be notified of the nearby trash can.
According to the garbage separation determination system of the present embodiment, the garbage separation method is applied to the display screen of the terminal device 2 by applying augmented reality technology and capturing the garbage to be disposed of and the garbage bin with the imaging unit. Displayed by method description information. Since the sorting method is displayed by text and animation, it is possible for foreigners who are not used to sorting garbage and tourists who come from different areas to fully understand the sorting method.

(変形例)
前述した実施形態では、ゴミ分別支援システム3が、サーバ1と、端末装置2とを含む場合について説明したが、この例に限られない。例えば、サーバ1の機能が、端末装置2aに含まれるように構成してもよい。図10に示されるように、端末装置2aは、画像入力部201と、制御部202aと、画像認識部203と、姿勢検出部204と、位置測定部205と、通信部206と、画像出力部207と、画像認識部204aと、ゴミ別特徴量記憶部205aと、ゴミ箱別特徴量記憶部206aと、地域別分別情報記憶部207aと、分別方法説明情報記憶部208aとを有している。端末装置2aのハードウェア構成は、図2を適用できる。これらの各部は、図2に示されている各構成要素のいずれかが、不揮発性メモリ256からメモリ254上に展開されたプログラム2562を実行するCPU252からの命令によって動作することで実現される機能である。
制御部202aは、CPU252からの命令によって実現される。制御部202aは、端末装置2aの動作全般の制御と、管理とを行う。制御部202aは、画像入力部201が出力した画像情報を取得する。また、制御部202aは、位置測定部205が出力した端末装置2aの位置情報を取得する。また、制御部202aは、姿勢検出部204が出力した端末装置2aの向きを示す情報を取得する。制御部202aは、取得した画像情報と、端末装置2aの位置情報と、端末装置2aの向きを示す情報とを、画像認識部204aに出力する。
また、制御部202aは、画像認識部204aが出力したゴミ分別方法説明情報と、分別名称がないことを示す情報と、ゴミ箱の画像の特徴量がないことを示す情報と、地域別分別情報がないことを示す情報と、ゴミ分別方法説明情報がないことを示す情報とのいずれかを取得する。制御部202aは、ゴミ分別方法説明情報を取得した場合にはそのゴミ分別説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202aは、ゴミ分別方法説明情報を合成した画像情報を、画像出力部207へ出力する。制御部202aは、ゴミ分別方法説明情報以外の情報を取得した場合にはその情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202aは、ゴミ分別方法説明情報以外の情報を合成した画像情報を、画像出力部207へ出力する。具体的には、制御部202aは、画像認識部203に、画像入力部201が取得した画像から、特徴量を抽出させる。また、制御部202aは、姿勢検出部204に、端末装置2aの向きを検出させる。制御部202aは、画像認識部203に抽出させた特徴量に基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を設定する。また、制御部202aは、姿勢検出部204に検出させた端末装置2aの向きに基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を設定する。
(Modification)
In the above-described embodiment, the case where the trash separation support system 3 includes the server 1 and the terminal device 2 has been described, but is not limited to this example. For example, the function of the server 1 may be configured to be included in the terminal device 2a. As shown in FIG. 10, the terminal device 2a includes an image input unit 201, a control unit 202a, an image recognition unit 203, a posture detection unit 204, a position measurement unit 205, a communication unit 206, an image output unit 207, an image recognition unit 204a, a dust-based feature amount storage unit 205a, a trash box-based feature amount storage unit 206a, an area-based separation information storage unit 207a, and a separation method explanation information storage unit 208a. FIG. 2 can be applied to the hardware configuration of the terminal device 2a. Each of these units has a function realized by operating any one of the constituent elements shown in FIG. 2 according to an instruction from CPU 252 that executes a program 2562 loaded from nonvolatile memory 256 to memory 254. It is.
The control unit 202a is realized by a command from the CPU 252. The control unit 202a controls and manages the overall operation of the terminal device 2a. The control unit 202a acquires the image information output by the image input unit 201. In addition, the control unit 202a acquires the position information of the terminal device 2a output by the position measurement unit 205. In addition, the control unit 202a acquires information indicating the orientation of the terminal device 2a output from the attitude detection unit 204. The control unit 202a outputs the acquired image information, the position information of the terminal device 2a, and the information indicating the direction of the terminal device 2a to the image recognition unit 204a.
Further, the control unit 202a outputs the dust separation method explanation information output by the image recognition unit 204a, information indicating that there is no separation name, information indicating that there is no feature amount of the image of the trash can, and regional separation information. Either information indicating that there is no information or information indicating that there is no information for explaining the dust separation method is acquired. When acquiring the dust separation method explanation information, the control unit 202a processes the dust separation explanation information by using the augmented reality technology, and obtains the dust information by performing image processing on the image information acquired by the image input unit 201. The image is synthesized in real time. The control unit 202a outputs to the image output unit 207 image information obtained by combining the dust separation method explanation information. When acquiring information other than the dust separation method explanation information, the control unit 202a processes the information using augmented reality technology, thereby obtaining the image information acquired by the image input unit 201 by performing image processing. The image is synthesized in real time. The control unit 202a outputs, to the image output unit 207, image information obtained by combining information other than the dust separation method explanation information. Specifically, the control unit 202a causes the image recognition unit 203 to extract the feature amount from the image acquired by the image input unit 201. Further, the control unit 202a causes the posture detection unit 204 to detect the orientation of the terminal device 2a. The control unit 202a displays the dust separation method explanation information based on the feature amount extracted by the image recognition unit 203 such that the dust separation method explanation information is displayed so as to overlap the image of the target object such as the trash box 5. Set the position to perform. In addition, the control unit 202a controls the dust separation method based on the orientation of the terminal device 2a detected by the posture detection unit 204 so that the dust separation method explanation information is displayed so as to overlap the image of the target object such as the trash box 5. Set the position to display the method explanation information.

画像認識部204aは、CPU252からの命令によって実現される。画像認識部204aは、端末識別部102が出力した端末装置2aの位置情報と、端末装置2aの姿勢を示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。画像認識部204aは、取得したゴミの画像情報と、ゴミ箱の画像情報とに基づいて、ゴミの画像と、ゴミ箱の画像とに対して、画像処理技術などを活用し、画像解析を行うことによって、特徴量を抽出する。画像認識部204aは、ゴミ別特徴量記憶部205aに検索させることによって、抽出したゴミの画像の特徴量と関連付けて記憶されている分別名称を示す情報を取得する。画像認識部204aは、ゴミ別特徴量記憶部205aに、ペットボトルや缶など詳細な分別名称まで取得させる。画像認識部204aは、ゴミ別特徴量記憶部205aが出力した画像の被写体のゴミが該当する分別名称を示す情報を取得する。また、画像認識部204aは、ゴミ別特徴量記憶部105から、画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得する。画像認識部204aは、ゴミ箱別特徴量記憶部206aに検索させることによって抽出させたゴミ箱の画像の特徴量と一致するゴミ箱の構成情報を取得させる。画像認識部204aは、ゴミ箱別特徴量記憶部206aが出力した、ゴミ箱の構成情報を取得する。画像認識部204aは、ゴミ箱別特徴量記憶部206aから、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得する。
画像認識部204aは、端末装置2aの位置情報と、端末装置2aの向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部204aは、地域別分別情報記憶部207aに検索させることによって、識別させたゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。画像認識部204aは、地域別分別情報記憶部207aが出力した地域別分別情報を取得する。画像認識部204aは、地域別分別情報記憶部207aから、地域別分別情報がないことを示す情報を取得する。画像認識部204aは、分別方法説明情報記憶部208aに検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。画像認識部204aは、分別方法説明情報記憶部208aが出力したゴミ分別方法説明情報を取得する。画像認識部204aは、分別方法説明情報記憶部208aから、ゴミ分別方法説明情報とがないことを示す情報を取得する。
The image recognition unit 204a is realized by a command from the CPU 252. The image recognition unit 204a acquires the position information of the terminal device 2a, the information indicating the attitude of the terminal device 2a, the image information of the dust, and the image information of the dust box output by the terminal identification unit 102. The image recognizing unit 204a performs image analysis on the dust image and the trash box image based on the acquired dust image information and the trash box image information using image processing technology or the like. , And extract the feature amount. The image recognition unit 204a obtains information indicating the classification name stored in association with the feature amount of the extracted dust image by causing the dust-based feature amount storage unit 205a to search. The image recognition unit 204a causes the dust-specific feature amount storage unit 205a to acquire a detailed classification name such as a plastic bottle or a can. The image recognition unit 204a acquires information indicating a classification name to which the dust of the subject in the image output by the dust-specific feature storage unit 205a corresponds. Further, the image recognizing unit 204a acquires from the dust-based feature amount storage unit 105 information indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject of the image. The image recognizing unit 204a causes the trash can-specific feature storage unit 206a to retrieve the trash can configuration information that matches the feature amount of the trash can image extracted by the search. The image recognition unit 204a acquires the configuration information of the trash box output from the trash box-specific feature storage unit 206a. The image recognizing unit 204a acquires information indicating that there is no feature amount of the trash can image that matches the feature amount of the trash can image of the subject of the image from the trash can-specific feature storage unit 206a.
The image recognition unit 204a estimates the location where the trash can 5 is installed, based on the position information of the terminal device 2a and the information indicating the orientation of the terminal device 2a. The image recognizing unit 204a causes the region-specific classification information storage unit 207a to search, so that the region-specific classification stored in association with the identified classification name of the garbage and the estimation result of the location where the trash box 5 is installed. Get information. The image recognizing unit 204a acquires the regional classification information output from the regional classification information storage unit 207a. The image recognition unit 204a acquires information indicating that there is no regional classification information from the regional classification information storage unit 207a. The image recognizing unit 204a causes the separation method explanation information storage unit 208a to retrieve, thereby acquiring the dust separation method explanation information stored in association with the acquired regional classification information. The image recognition unit 204a acquires the dust separation method description information output from the separation method description information storage unit 208a. The image recognition unit 204a acquires information indicating that there is no dust classification method explanation information from the classification method explanation information storage unit 208a.

画像認識部204aは、分別方法説明情報記憶部208aが出力したゴミ分別方法説明情報を取得した場合には、取得したゴミ分別方法説明情報を、制御部202aへ出力する。また、画像認識部204aは、ゴミ別特徴量記憶部205aが出力した画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得した場合には、分別名称がないことを示す情報を、制御部202aへ出力する。また、画像認識部204aは、ゴミ箱別特徴量記憶部206aが出力した画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得した場合には、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を、制御部202aへ出力する。また、画像認識部204aは、地域別分別情報記憶部207aが出力した地域別分別情報がないことを示す情報を取得した場合、地域別分別情報がないことを示す情報を、制御部202aへ出力する。
ゴミ別特徴量記憶部205a、ゴミ箱別特徴量記憶部206a、地域別分別情報記憶部207a、分別方法説明情報記憶部208aは、それぞれ、前述した実施形態で説明したゴミ別特徴量記憶部105、ゴミ箱別特徴量記憶部106、地域別分別情報記憶部107、分別方法説明情報記憶部108を適用できる。
変形例の端末装置2aによれば、実施形態の端末装置2と比較して、サーバ1と通信を行うことなく、ユーザに、ゴミの分別方法を通知できる。
以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。なお、上述したゴミ分別支援システム3は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
When acquiring the dust classification method description information output from the classification method description information storage unit 208a, the image recognition unit 204a outputs the acquired dust classification method description information to the control unit 202a. If the image recognition unit 204a acquires information indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject of the image output by the dust-specific feature storage unit 205a, Information indicating that there is no classification name is output to the control unit 202a. When the image recognition unit 204a acquires information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image output by the feature amount storage unit 206a for each trash can, Information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image is output to the control unit 202a. When acquiring the information indicating that there is no regional classification information output from the regional classification information storage unit 207a, the image recognition unit 204a outputs information indicating that there is no regional classification information to the control unit 202a. I do.
The dust-based feature amount storage unit 205a, the trash box-based feature amount storage unit 206a, the area-based separation information storage unit 207a, and the sorting method explanation information storage unit 208a are respectively the dust-based feature amount storage unit 105 described in the above-described embodiment. A trash bin-specific feature amount storage unit 106, a regional classification information storage unit 107, and a classification method explanation information storage unit 108 can be applied.
According to the terminal device 2a of the modified example, as compared with the terminal device 2 of the embodiment, the user can be notified of the method of separating dust without communicating with the server 1.
Although the embodiments have been described above, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, changes, and combinations can be made without departing from the spirit of the invention. These embodiments are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents. The above-described trash separation support system 3 may be realized by a computer. In that case, a program for realizing the function of each functional block is recorded on a computer-readable recording medium. The program recorded on this recording medium may be read by a computer system and executed by a CPU. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGA(Field Programmable Gate Array)である。なお、上述のゴミ分別支援システム3は内部にコンピュータを有している。そして、上述したサーバ1、端末装置2、端末装置2aの各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM. The “computer-readable recording medium” includes a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” may include a medium that dynamically stores a program for a short time. What dynamically holds the program for a short time is, for example, a communication line for transmitting the program through a network such as the Internet or a communication line such as a telephone line.
Further, the “computer-readable recording medium” may include a medium holding a program for a certain period of time, such as a volatile memory in a computer system serving as a server or a client. Further, the program may be for realizing a part of the functions described above. Further, the above-mentioned program may be one that can realize the above-described functions in combination with a program already recorded in the computer system. Further, the program may be realized using a programmable logic device. The programmable logic device is, for example, an FPGA (Field Programmable Gate Array). The garbage separation support system 3 has a computer inside. The respective processes of the server 1, the terminal device 2, and the terminal device 2a described above are stored in a computer-readable recording medium in the form of a program. Processing is performed. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the program.
Further, the program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

1…サーバ、2…端末装置、3…ゴミ分別支援システム、4…ネットワーク、5…ゴミ箱、51…可燃ゴミ箱、52…不燃ゴミ箱、53…資源ゴミ箱、101…サーバ通信部、102…端末識別部、103…端末情報記憶部、104、204a…画像認識部、105、205a…ゴミ別特徴量記憶部、106、206a…ゴミ箱別特徴量記憶部、107、207a…地域別分別情報記憶部、108、208a…分別方法説明情報記憶部、201…画像入力部、202、202a…制御部、104、203、204a…画像認識部、204…姿勢検出部、205…位置測定部、206…通信部、207…画像出力部、152、252…CPU、154、254…メモリ、156、256…不揮発性メモリ、162、257…操作部、166、266…通信I/F、255…測位部、260…センサ、258…表示部、259…撮像部 DESCRIPTION OF SYMBOLS 1 ... Server, 2 ... Terminal device, 3 ... Garbage separation support system, 4 ... Network, 5 ... Garbage can, 51 ... Burnable garbage can, 52 ... Non-combustible garbage can, 53 ... Resource garbage can, 101 ... Server communication part, 102 ... Terminal identification part , 103: terminal information storage unit, 104, 204a: image recognition unit, 105, 205a: dust-based feature amount storage unit, 106, 206a: trash box-based feature amount storage unit, 107, 207a: area-based classification information storage unit, 108 .., 208a... Separation method description information storage unit, 201... Image input unit, 202, 202 a... Control unit, 104, 203, 204 a. 207: image output unit, 152, 252: CPU, 154, 254: memory, 156, 256: nonvolatile memory, 162, 257: operation unit, 166, 2 6 ... communication I / F, 255 ... positioning unit, 260 ... sensor, 258 ... display unit, 259 ... imaging unit

Claims (8)

端末装置と、サーバとを備えるゴミ分別支援システムであって、
前記端末装置は、
画像情報を取得する画像入力部と、
自端末装置の位置を測位する位置測位部と、
前記画像入力部が取得したゴミの画像情報と、前記位置測位部が測位した前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成する制御部と、
前記制御部が作成した前記ゴミ分別判定要求を前記サーバへ送信し、送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信する通信部と、
前記通信部が受信した前記ゴミ分別応答に含まれるゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの分別方法を示す画像情報に基づいて、ゴミの分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備え、
前記サーバは、
前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記自端末装置の位置情報とを取得し、
取得した前記ゴミの前記画像情報に基づいて、前記ゴミの分別名称を取得し、
取得した前記ゴミの前記分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、
取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、
前記画像認識部が取得した前記ゴミの前記分別方法を示す画像情報を含む前記ゴミ分別応答を作成する画像認識部と、
前記画像認識部が作成した前記ゴミ分別応答を、前記端末装置へ送信するサーバ通信部と
を備える、ゴミ分別支援システム。
A trash separation support system including a terminal device and a server,
The terminal device,
An image input unit for acquiring image information;
A position measurement unit that measures the position of the terminal device;
A dust classification determination request, which is a signal including a dust classification determination request including the dust image information acquired by the image input unit and the position information of the own terminal device positioned by the position positioning unit, is generated. A control unit;
A communication unit that transmits the dust classification determination request created by the control unit to the server, and receives a dust classification response that is a response signal to the transmitted dust classification determination request;
The communication unit receives image information indicating a dust separation method included in the dust separation response received, based on the obtained image information indicating the dust separation method, an image indicating a dust separation method, An image output unit that combines and displays the image of the trash can obtained from the image information of the trash can obtained by the image input unit;
The server is
The image information of the dust included in the dust classification determination request transmitted by the terminal device, and obtains the position information of the own terminal device,
Based on the obtained image information of the garbage, obtain a classification name of the garbage,
Based on the obtained separation name of the garbage and the location information of the own terminal device, obtain information indicating a garbage separation method,
An image recognition unit that acquires image information indicating the method for separating the dust based on the information indicating the method for separating the dust.
An image recognition unit that creates the dust classification response including image information indicating the classification method of the dust obtained by the image recognition unit;
A server communication unit that transmits the dust separation response created by the image recognition unit to the terminal device.
前記画像入力部は、前記ゴミ箱の前記画像情報を取得し、
前記制御部は、前記ゴミ箱の前記画像情報をさらに含む前記ゴミ分別判定要求を作成し、
前記画像認識部は、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミ箱の前記画像情報をさらに取得し、取得した前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とに基づいて、前記ゴミ箱の位置情報を取得し、
取得した前記ゴミの前記分別名称と前記ゴミ箱の前記位置情報とに基づいて、前記ゴミの前記分別方法を示す情報を取得する、請求項1に記載のゴミ分別支援システム。
The image input unit acquires the image information of the trash can,
The control unit creates the dust classification determination request further including the image information of the trash can,
The image recognition unit further obtains the image information of the trash can included in the trash separation determination request transmitted by the terminal device, the obtained image information of the trash can, and the position information of the own terminal device. Based on the location information of the trash can,
The trash separation support system according to claim 1, wherein information indicating the trash separation method is obtained based on the obtained trash separation name and the position information of the trash box.
前記端末装置は、
前記自端末装置の向きを検出する姿勢検出部
を備え、
前記画像出力部は、前記姿勢検出部が検出した前記向きを示す情報に基づいて、前記画像入力部が取得した前記ゴミ箱の前記画像情報から得られる前記ゴミ箱の前記画像に合成する前記ゴミの前記分別方法を示す画像の位置を補正する、請求項1又は請求項2に記載のゴミ分別支援システム。
The terminal device,
An orientation detection unit that detects an orientation of the terminal device,
The image output unit is configured to combine the dust with the image of the trash box obtained from the image information of the trash box obtained by the image input unit based on the information indicating the orientation detected by the posture detection unit. The dust separation support system according to claim 1 or 2, wherein the position of the image indicating the separation method is corrected.
前記画像認識部は、取得した前記ゴミの前記画像情報と前記自端末装置の前記位置情報とに基づいて、前記自端末装置の位置から所定の範囲のゴミ箱の位置情報を取得し、
前記サーバ通信部は、前記画像認識部が取得した前記ゴミ箱の前記位置情報をさらに含む前記ゴミ分別応答を作成する、請求項1から請求項3のいずれか一項に記載のゴミ分別支援システム。
The image recognition unit, based on the obtained image information of the garbage and the position information of the own terminal device, obtains position information of a trash can in a predetermined range from the position of the own terminal device,
The trash separation support system according to any one of claims 1 to 3, wherein the server communication unit creates the trash separation response further including the position information of the trash box acquired by the image recognition unit.
画像情報を取得する画像入力部と、
自端末装置の位置を測位する位置測位部と、
前記画像入力部が取得したゴミの画像情報に基づいて、前記ゴミの分別名称を取得し、
取得した前記ゴミの前記分別名称と前記位置測位部が測位した前記自端末装置の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、
取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、
前記画像認識部が取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部と
を備える、端末装置。
An image input unit for acquiring image information;
A position measurement unit that measures the position of the terminal device;
Based on the image information of the dust obtained by the image input unit, to obtain a classification name of the dust,
Based on the obtained classification name of the garbage and the position information of the own terminal device positioned by the position positioning unit, obtain information indicating the garbage separation method,
An image recognizing unit that acquires image information indicating the method of separating the dust based on the information indicating the method of separating the obtained dust,
Based on the image information indicating the separation method of the dust obtained by the image recognition unit, an image indicating the separation method of the dust, and the trash can obtained from the image information of the trash can obtained by the image input unit. And an image output unit for combining and displaying the image.
端末装置と、サーバとを備えるゴミ分別支援システムが実行するゴミ分別支援方法であって、
前記端末装置が、ゴミの画像情報を取得するステップと、
前記端末装置が、自端末装置の位置を測位するステップと、
前記端末装置が、前記ゴミの前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、
前記端末装置が、前記ゴミ分別判定要求を前記サーバへ送信するステップと、
前記サーバが、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記画像情報と、前記自端末装置の前記位置情報とを取得するステップと、
前記サーバが、前記ゴミの前記画像情報に基づいて、ゴミの分別名称を取得するステップと、
前記サーバが、前記ゴミの分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、
前記サーバが、前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、
前記サーバが、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成するステップと、
前記サーバが、前記ゴミ分別応答を、前記端末装置へ送信するステップと、
前記端末装置が、前記サーバが送信した前記ゴミ分別応答を受信するステップと、
前記端末装置が、前記ゴミ分別応答に含まれる前記ゴミの前記分別方法を示す前記画像情報を取得し、取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示するステップと
を有する、ゴミ分別支援方法。
A trash separation support method executed by a trash separation support system including a terminal device and a server,
The terminal device obtains dust image information,
The terminal device, the step of measuring the position of the terminal device,
The terminal device, the image information of the dust, including the position information of the own terminal device, a step of creating a dust classification determination request is a signal requesting a determination of the classification of the dust,
The terminal device transmits the garbage classification determination request to the server,
The server acquires the image information included in the dust classification determination request transmitted by the terminal device, and the position information of the own terminal device,
The server acquires a classification name of the dust based on the image information of the dust,
A step in which the server obtains information indicating the garbage separation method based on the garbage separation name and the location information of the own terminal device;
The server, based on the information indicating the method of separating the dust, the step of acquiring image information indicating the method of sorting the dust,
The server creating a dust separation response including the image information indicating the method of separating the dust,
The server transmitting the garbage classification response to the terminal device;
The terminal device receives the garbage classification response transmitted by the server,
The terminal device obtains the image information indicating the method of separating the dust included in the dust separation response, and the method of separating the dust based on the obtained image information indicating the method of separating the dust. And displaying the combined image of the trash can obtained from the acquired trash can image information.
端末装置のコンピュータに、
ゴミの画像情報を取得するステップと、
自端末装置の位置を測位するステップと、
前記ゴミの前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、
前記ゴミ分別判定要求をサーバへ送信するステップと、
送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信するステップと、
受信した前記ゴミ分別応答に含まれる前記ゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの前記分別方法を示す画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示するステップと
を実行させる、プログラム。
In the terminal computer,
Obtaining image information of the garbage;
Positioning the position of the own terminal device;
The image information of the dust, including the position information of the own terminal device, a step of creating a dust classification determination request is a signal requesting determination of the classification of the dust,
Transmitting the trash separation determination request to a server;
Receiving a dust separation response that is a response signal to the transmitted dust separation determination request;
Acquiring image information indicating the dust separation method included in the received dust separation response, and acquiring an image indicating the dust separation method based on the acquired image information indicating the dust separation method; Combining and displaying the image of the trash can obtained from the image information of the trash can.
端末装置と通信を行うサーバのコンピュータに、
前記端末装置が送信したゴミ分別判定要求に含まれるゴミの画像情報と、前記端末装置の位置情報とを取得するステップと、
取得した前記ゴミの前記画像情報に基づいて、前記ゴミの分別名称を取得するステップと、
取得した前記ゴミの前記分別名称と前記端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、
取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、
前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成し、作成した前記ゴミ分別応答を、前記端末装置へ送信するステップと
を実行させる、プログラム。
In the server computer that communicates with the terminal device,
Obtaining image information of dust included in the dust classification determination request transmitted by the terminal device, and position information of the terminal device;
A step of acquiring a classification name of the dust based on the obtained image information of the dust;
A step of obtaining information indicating a method of separating the garbage based on the obtained classification name of the garbage and the position information of the terminal device;
Based on the information indicating the obtained separation method of the dust, obtaining image information indicating the separation method of the dust,
Creating a dust separation response including the image information indicating the method of sorting the dust, and transmitting the created dust separation response to the terminal device.
JP2018151500A 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program Active JP6959197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018151500A JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151500A JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Publications (2)

Publication Number Publication Date
JP2020027407A true JP2020027407A (en) 2020-02-20
JP6959197B2 JP6959197B2 (en) 2021-11-02

Family

ID=69622199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151500A Active JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Country Status (1)

Country Link
JP (1) JP6959197B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598011A (en) * 2020-05-19 2020-08-28 科大讯飞股份有限公司 Garbage classification processing method, related equipment and readable storage medium
CN111611261A (en) * 2020-05-24 2020-09-01 济南欣格信息科技有限公司 Text decoupling-based garbage classification recognition system
CN111680645A (en) * 2020-06-11 2020-09-18 王艳琼 Garbage classification processing method and device
CN112340273A (en) * 2020-10-30 2021-02-09 江汉大学 Active garbage classification and recovery method
CN113003036A (en) * 2021-02-26 2021-06-22 光控特斯联(重庆)信息技术有限公司 Community garbage classification method and system based on object recognition algorithm
DE102020127416A1 (en) 2020-02-20 2021-08-26 Mitsubishi Electric Corporation Semiconductor device
WO2021174759A1 (en) * 2020-03-03 2021-09-10 深圳壹账通智能科技有限公司 Garbage classification processing method and apparatus, terminal, and storage medium
CN113434062A (en) * 2021-06-29 2021-09-24 深圳市慧鲤科技有限公司 Content display method and device, image identification method and device and electronic equipment
WO2021205585A1 (en) * 2020-04-09 2021-10-14 株式会社日立製作所 Garbage separation support system
CN113996543A (en) * 2021-10-09 2022-02-01 西安石油大学 Intelligent garbage sorting robot
JP2023081501A (en) * 2021-12-01 2023-06-13 麻実 門倉 Waste disposal history managing system, waste disposal history managing method and waste disposal history managing program
CN118608880A (en) * 2024-08-08 2024-09-06 北京慧萌信安软件技术有限公司 Intelligent garbage identification and classification method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004210438A (en) * 2002-12-27 2004-07-29 Mitsubishi Electric Corp Trash separating system
JP2007066121A (en) * 2005-09-01 2007-03-15 Meidensha Corp Waste separation and collection support system
JP2010143645A (en) * 2008-12-16 2010-07-01 Hitachi Software Eng Co Ltd Trash separation information providing system
JP2013140563A (en) * 2011-11-04 2013-07-18 Canon Inc Printing system, image forming device and method
JP2018125589A (en) * 2017-01-30 2018-08-09 京セラドキュメントソリューションズ株式会社 Image formation system, image formation apparatus, and guide program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004210438A (en) * 2002-12-27 2004-07-29 Mitsubishi Electric Corp Trash separating system
JP2007066121A (en) * 2005-09-01 2007-03-15 Meidensha Corp Waste separation and collection support system
JP2010143645A (en) * 2008-12-16 2010-07-01 Hitachi Software Eng Co Ltd Trash separation information providing system
JP2013140563A (en) * 2011-11-04 2013-07-18 Canon Inc Printing system, image forming device and method
JP2018125589A (en) * 2017-01-30 2018-08-09 京セラドキュメントソリューションズ株式会社 Image formation system, image formation apparatus, and guide program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020127416A1 (en) 2020-02-20 2021-08-26 Mitsubishi Electric Corporation Semiconductor device
WO2021174759A1 (en) * 2020-03-03 2021-09-10 深圳壹账通智能科技有限公司 Garbage classification processing method and apparatus, terminal, and storage medium
WO2021205585A1 (en) * 2020-04-09 2021-10-14 株式会社日立製作所 Garbage separation support system
CN111598011A (en) * 2020-05-19 2020-08-28 科大讯飞股份有限公司 Garbage classification processing method, related equipment and readable storage medium
CN111611261B (en) * 2020-05-24 2023-09-01 山东三宏信息科技有限公司 Garbage classification and identification system based on text decoupling
CN111611261A (en) * 2020-05-24 2020-09-01 济南欣格信息科技有限公司 Text decoupling-based garbage classification recognition system
CN111680645A (en) * 2020-06-11 2020-09-18 王艳琼 Garbage classification processing method and device
CN111680645B (en) * 2020-06-11 2024-02-09 王艳琼 Garbage classification treatment method and device
CN112340273A (en) * 2020-10-30 2021-02-09 江汉大学 Active garbage classification and recovery method
CN112340273B (en) * 2020-10-30 2023-12-15 江汉大学 Active garbage classification and recycling method
CN113003036A (en) * 2021-02-26 2021-06-22 光控特斯联(重庆)信息技术有限公司 Community garbage classification method and system based on object recognition algorithm
CN113434062A (en) * 2021-06-29 2021-09-24 深圳市慧鲤科技有限公司 Content display method and device, image identification method and device and electronic equipment
CN113996543B (en) * 2021-10-09 2023-11-10 西安石油大学 Intelligent garbage sorting robot
CN113996543A (en) * 2021-10-09 2022-02-01 西安石油大学 Intelligent garbage sorting robot
JP2023081501A (en) * 2021-12-01 2023-06-13 麻実 門倉 Waste disposal history managing system, waste disposal history managing method and waste disposal history managing program
JP7371873B2 (en) 2021-12-01 2023-10-31 麻実 門倉 Waste history management system, waste history management method, and waste history management program
CN118608880A (en) * 2024-08-08 2024-09-06 北京慧萌信安软件技术有限公司 Intelligent garbage identification and classification method

Also Published As

Publication number Publication date
JP6959197B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
JP6959197B2 (en) Garbage separation support system, terminal device, garbage separation support method, and program
JP4914268B2 (en) Search service server information search method.
CN107870972B (en) Information processing apparatus, system, and control method
JP2005038103A (en) Guide device, guide system and guide method
JP6522779B2 (en) Method and apparatus for displaying electronic photographs and mobile device
US20190082065A1 (en) Information processing device and non-transitory computer readable medium
JP7221233B2 (en) Information provision system, information provision method, and program
JP2001282825A (en) Method and server for information retrieval and portable remote terminal
KR102651524B1 (en) Electronic Device and the Method for Displaying Payment Information thereof
JP2005100276A (en) Information processing system, information processor, information processing method and program
CN107203573A (en) A kind of information-pushing method and device based on focus information
KR101466132B1 (en) System for integrated management of cameras and method thereof
JP2003319033A (en) Portable communication terminal information input system, portable communication terminal, program therefor, analysis server, and portable communication terminal information input method
CN110225455B (en) User accurate positioning method of intelligent rescue system and intelligent rescue system
JP2017201510A (en) Context recognition application
JP7192276B2 (en) GENERATION OF TRAVEL DESTINATIONS AND RECOMMENDATIONS FROM SCANNED CONTENT, KIOSK SYSTEM, METHOD AND PROGRAM
CN107169691A (en) system and method for information processing
JP7044914B2 (en) Information processing equipment and programs
KR20120052569A (en) Method for providing image management based on user information and device and system using the same
CN102474471A (en) Information providing device and method, terminal device, information processing method, and program
JP5673121B2 (en) Server apparatus, printing system, and printing method
JP2014063300A (en) Character recognition device, character recognition processing method, and program
KR20120072033A (en) Method and apparatus for automatic tagging of picture and video contents
JP2008193336A (en) Information transmission system, mobile terminal device and information server
JP6972262B2 (en) Information processing equipment, systems, mobile terminals, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210831

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150