[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021005333A - Self-removal monitoring system for medical indwelling device and self-removal monitoring method for medical indwelling device - Google Patents

Self-removal monitoring system for medical indwelling device and self-removal monitoring method for medical indwelling device Download PDF

Info

Publication number
JP2021005333A
JP2021005333A JP2019120291A JP2019120291A JP2021005333A JP 2021005333 A JP2021005333 A JP 2021005333A JP 2019120291 A JP2019120291 A JP 2019120291A JP 2019120291 A JP2019120291 A JP 2019120291A JP 2021005333 A JP2021005333 A JP 2021005333A
Authority
JP
Japan
Prior art keywords
unit
monitoring
self
response
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019120291A
Other languages
Japanese (ja)
Other versions
JP6583953B1 (en
Inventor
三郎 山内
Saburo Yamauchi
三郎 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Earth Eyes Co Ltd
Original Assignee
Earth Eyes Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Earth Eyes Co Ltd filed Critical Earth Eyes Co Ltd
Priority to JP2019120291A priority Critical patent/JP6583953B1/en
Application granted granted Critical
Publication of JP6583953B1 publication Critical patent/JP6583953B1/en
Publication of JP2021005333A publication Critical patent/JP2021005333A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

To provide self-removal monitoring means for a medical indwelling device that allows for automatic recognition of actions related to self-removal, and quick and accurate notification to a monitoring person.SOLUTION: A self-removal monitoring system 100 for a medical indwelling device includes: an imaging unit 110; a coordinate conversion unit 122 that performs coordinate conversion to rotate coordinate axes set in a monitored image; a monitoring target identification unit 123 that identifies a monitoring target person 10 in the monitored image; an insertion position identification unit 124 that identifies an insertion position P of a medical indwelling device 11 inserted into a body of the monitoring target person 10; a motion recognition unit 125 that recognizes a motion of the monitoring target person 10; an action requirement determination unit 127 that determines whether some action is required depending on whether or not a combination of the insertion position P and the motion is a specific combination; and an action request notification output unit 130 that outputs an action request notification when the action requirement determination unit 127 determines that the action is required.SELECTED DRAWING: Figure 1

Description

本発明は、カテーテル等、医療現場において患者の身体に装着して用いられる各種の医療デバイス(本明細書においては、これらを「医療用装身器具」と総称する)の自己抜去に起因する医療事故を防止することを目的とする「医療用装身器具の自己抜去監視システム」又は「医療用装身器具の自己抜去防止用監視方法」に関する。 The present invention is a medical treatment caused by self-removal of various medical devices (in the present specification, these are collectively referred to as "medical clothing devices") used by being attached to a patient's body in a medical field such as a catheter. The present invention relates to a "self-removal monitoring system for medical equipment" or a "monitoring method for self-removal prevention of medical equipment" for the purpose of preventing accidents.

従来、医療現場では、生命維持に関わるような医療用装身器具の自己抜去による医療事故がしばしば発生していた。これを回避するために、やむを得ず、抑制帯を用いて患者の両手をベッドに縛り付け抑制する対処も行われていた。このような抑制は、患者に精神的苦痛を強いるのみならず、過度の運動制限による機能低下を引き起こしやすいという観点からも望ましい対処手段ではなかった。 In the past, medical accidents often occurred in the medical field due to self-removal of medical equipment related to life support. In order to avoid this, it was unavoidable that the patient's hands were tied to the bed using a restraining band to restrain the patient. Such suppression was not a desirable coping method from the viewpoint that it not only causes mental distress to the patient but also tends to cause functional deterioration due to excessive exercise restriction.

上記課題に対する対応策として、患者の苦痛を低減させ、一定の運動を許容しつつ、自己抜去行為を抑制することできるように工夫された、自己抜去防止用の抑制カバー(特許文献1参照)や、或いは、腕全体の動きを拘束せず、手関節を所定の角度で背屈させた状態で固定することにより、患者の自己抜去を防止することができる関節抑制具(特許文献2参照)等が用いられている。 As a countermeasure to the above-mentioned problems, a restraint cover for preventing self-removal (see Patent Document 1) devised so as to reduce the pain of the patient, allow a certain amount of exercise, and suppress the self-removal act. Alternatively, a joint suppressor (see Patent Document 2) that can prevent the patient from self-removal by fixing the wrist joint in a dorsiflexed state at a predetermined angle without restraining the movement of the entire arm. Is used.

しかしながら、様々な状態にある全ての患者を、一律に物理的な拘束手段によって拘束することは現実に許容される対応ではなく、自己抜去防止を目的とした患者の監視作業が、多くの医療現場において、必須且つ見落としの許されない作業として大きな負担となっていた。 However, it is not a practically acceptable response to uniformly restrain all patients in various states by physical restraint means, and patient monitoring work for the purpose of preventing self-removal is performed in many medical settings. It was a heavy burden as an indispensable and unmissable work.

自己抜去防止を目的とした患者の監視作業の負担を軽減する手段として、カテーテル等の「医療用装身器具」が無断で抜去された場合に、様々な仕組みで警報音が発せられる各種の警報装置等(特許文献3、4)が提案されている。 As a means of reducing the burden of patient monitoring work for the purpose of preventing self-removal, various alarms are emitted by various mechanisms when a "medical clothing device" such as a catheter is removed without permission. Devices and the like (Patent Documents 3 and 4) have been proposed.

又、医療用装身器具を装着した患者等を含め、監視対象とする患者を撮影した監視画像の解析結果を監視者に通知する各種の汎用的な監視システム(特許文献5)も既に多くの医療現場で採用されている。 In addition, there are already many general-purpose monitoring systems (Patent Document 5) that notify the observer of the analysis result of the monitoring image of the patient to be monitored, including the patient wearing the medical equipment. It is used in the medical field.

ここで、患者の生命を危険に晒している自己抜去の多くは、看護用ベッドの上等において横臥状態にある患者自身の行為に起因して起こっている。しかしながら、特許文献5に開示されている医療用監視システムを含め、従来の画像認識手段によっては、横臥状態にある患者を監視対象の人物として十分な精度で認識することは困難であった。 Here, much of the self-extraction that endangers the patient's life is caused by the patient's own actions in a lying position, such as on a nursing bed. However, it has been difficult to recognize a patient in a lying state as a person to be monitored with sufficient accuracy by conventional image recognition means including the medical monitoring system disclosed in Patent Document 5.

上記の画像認識の困難性等に起因して、「自己抜去」の監視作業の自動化は未だ十分に進んでいなかった。監視画像から監視対象者を適切に特定して自己抜去に関連する動作を自動的に認識し、対応が必要な場合には、監視者に迅速且つ正確な通知を自動的に行うことができる監視手段が多くの医療機関において切実に求められていた。 Due to the above-mentioned difficulty in image recognition and the like, the automation of the "self-extraction" monitoring work has not yet progressed sufficiently. Monitoring that can appropriately identify the person to be monitored from the monitoring image, automatically recognize the operation related to self-extraction, and automatically notify the monitor quickly and accurately when a response is required. Means were urgently needed in many medical institutions.

特開2000−42016号公報Japanese Unexamined Patent Publication No. 2000-42016 特開2017−00651号公報JP-A-2017-00651 登録実用新案公報第3131849号公報Registered Utility Model Gazette No. 3131849 特開2018−138094号公報Japanese Unexamined Patent Publication No. 2018-138094 特開2014−7685号公報Japanese Unexamined Patent Publication No. 2014-7685

本発明は、以上の状況に鑑みてなされたものであり、監視画像から監視対象者を適切に特定して自己抜去に関連する動作を自動的に認識し、対応が必要な場合には、監視者に迅速且つ正確な通知を自動的に行うことができる「医療用装身器具の自己抜去監視手段」を提供することを目的とする。 The present invention has been made in view of the above circumstances, and appropriately identifies the monitored person from the monitored image, automatically recognizes the operation related to self-extraction, and monitors when it is necessary to take measures. The purpose of the present invention is to provide a "self-removal monitoring means for medical equipment" that can automatically give a quick and accurate notification to a person.

本発明は、以下の解決手段により、上述の課題を解決する。 The present invention solves the above-mentioned problems by the following solutions.

(1) 医療用装身器具の自己抜去監視システムであって、監視対象者を撮影する撮影部と、前記撮影部が撮影した監視画像に設定されている座標軸を任意の角度で回転させる座標変換を行う座標変換部と、前記監視画像中の監視対象者を特定する監視対象特定部と、前記監視対象特定部によって特定された監視対象者の身体に装着されている前記医療用装身器具の装着位置を特定する装着位置特定部と、前記監視対象特定部によって特定された監視対象者の動作を認識する動作認識部と、前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定部と、前記対応要否判定部によって対応が必要であると判定された場合に、対応要求通知を出力する対応要求通知出力部と、を備える、自己抜去監視システム。 (1) A self-removal monitoring system for medical equipment, which is a coordinate conversion that rotates an imaging unit that photographs a person to be monitored and a coordinate axis set in a surveillance image captured by the imaging unit at an arbitrary angle. Of the coordinate conversion unit that performs the above, the monitoring target identification unit that identifies the monitoring target person in the monitoring image, and the medical equipment worn on the body of the monitoring target person specified by the monitoring target identification unit. The combination of the mounting position specifying unit that specifies the mounting position, the motion recognition unit that recognizes the motion of the monitored person specified by the monitoring target identifying section, the mounting position, and the motion is a specific combination. A response request determination unit that determines the necessity of response depending on whether or not the response is required, a response request notification output unit that outputs a response request notification when the response necessity determination unit determines that a response is required, and a response request notification output unit. Self-extraction monitoring system equipped with.

(1)の発明は、監視対象特定部と、装着位置特定部と、動作認識部とを、備える自己抜去監視システムにおいて、更に、監視画像に設定されている座標軸を回転させる座標変換を行う座標変換部をも備える構成とすることにより、横臥状態にある患者等、正立状態にない監視対象者の認識精度を向上させている。これにより、病院等において、「自己抜去」の発生若しくは発生リスクを、十分な精度で迅速に認識して監視者に通知することができ、監視者の監視負担を軽減することができる。 The invention of (1) is a coordinate that performs coordinate conversion for rotating a coordinate axis set in a monitoring image in a self-extraction monitoring system including a monitoring target identification unit, a mounting position identification unit, and a motion recognition unit. By providing a conversion unit as well, the recognition accuracy of the monitored person who is not in an upright state, such as a patient in a lying state, is improved. As a result, in hospitals and the like, the occurrence or risk of occurrence of "self-extraction" can be quickly recognized with sufficient accuracy and notified to the observer, and the monitoring burden on the observer can be reduced.

(2) 前記対応要求通知出力部は、前記監視画像を表示する監視画面を有し、前記装着位置特定部は、監視者が、前記監視画面へのタップ操作又は前記監視画面上でのクリック操作によって指定した位置を、前記医療用装身器具の装着位置として特定する、(1)に記載の自己抜去監視システム。 (2) The response request notification output unit has a monitoring screen for displaying the monitoring image, and the mounting position specifying unit allows the observer to tap the monitoring screen or click on the monitoring screen. The self-removal monitoring system according to (1), wherein the position specified by the above is specified as a mounting position of the medical equipment.

(2)の発明は、(1)の発明において、更に、監視者が簡単な操作で監視対象者の身体に装着されている医療用装身器具の装着位置を指定する手段を更に備えるものとした。これにより、例えば、医療用装身器具の装着位置が布団等で隠蔽されていて画像内での機械的認識が困難な場合も含めて、医療用装身器具の装着位置を正確に特定して、「自己抜去」の発生若しくは発生リスクを、十分な精度で迅速に認識して監視者に通知することができる。 The invention of (2) further provides, in the invention of (1), a means for the observer to specify the wearing position of the medical equipment worn on the body of the monitored person by a simple operation. did. As a result, for example, even when the mounting position of the medical dressing device is hidden by a futon or the like and mechanical recognition in the image is difficult, the mounting position of the medical dressing device can be accurately specified. , The occurrence or risk of "self-extraction" can be quickly recognized with sufficient accuracy and notified to the observer.

(3) 前記動作認識部は、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部と、前記骨格抽出部が抽出した前記特徴点の前記3次元空間内における位置を特定する特徴点位置特定部と、を含んでなり、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、(1)又は(2)に記載の自己抜去監視システム。 (3) The motion recognition unit includes a skeleton extraction unit that extracts the skeleton of a monitored person composed of skeleton lines connecting a plurality of feature points, and the three-dimensional space of the feature points extracted by the skeleton extraction unit. (1) or (2), which includes a feature point position specifying portion that specifies a position within the inside, and recognizes the operation of the monitored person based on information related to the fluctuation of the position of the feature point. Self-extraction monitoring system described in.

(3)の発明は、(1)又は(2)の発明において、動作認識部を、例えば、後述の「OpenPose」等の画像解析手段を用いることにより、監視対象者の複数の特徴点が連接されてなる骨格を抽出し、これら各特徴点の位置や速度を解析することによって、監視対象者の動作を認識することができる構成とした。これによれば、監視者が認識すべき各種の動作等を、監視対象者の体形等に関わらずより高い精度でもれなく認識することができ、又、監視画像の表示を骨格情報のみによる表示とすることにより、監視対象者のプライバシーに配慮した監視態様とすることもできる。 In the invention of (3), in the invention of (1) or (2), a plurality of feature points of the monitored person are connected by using the motion recognition unit, for example, an image analysis means such as "OpenPose" described later. By extracting the skeleton of the image and analyzing the position and speed of each of these feature points, the motion of the monitored person can be recognized. According to this, various movements that the observer should recognize can be recognized with higher accuracy regardless of the body shape of the monitored person, and the display of the monitored image can be displayed only by the skeleton information. By doing so, it is possible to set the monitoring mode in consideration of the privacy of the monitored person.

(4) 前記動作認識部は、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知部を、更に備え、前記対応要否判定部は、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定する、(1)から(3)の何れかに記載の自己抜去監視システム。 (4) The motion recognition unit further includes a line-of-sight direction detection unit that detects the line-of-sight direction of the monitored person in the surveillance image, and the response necessity determination unit determines the mounting position in the line-of-sight direction. The self-extraction monitoring system according to any one of (1) to (3), which determines that it is necessary to take measures when the relative fluctuation amount and fluctuation speed with respect to the visual direction are a predetermined fluctuation amount and fluctuation speed. ..

(4)の発明は、(1)から(3)の何れかの発明において、更に、監視対象者の視線方向を検知することができる手段を更に備えるものとした。これにより、監視対象者の体幹や四肢の動作解析のみによっては事前の認識が困難な抜去事故につながる可能性の高い事前動作を検知して自己抜去の発生リスクにかかる情報を監視者に通知することができる。 The invention of (4) further includes, in any of the inventions (1) to (3), means capable of detecting the line-of-sight direction of the person to be monitored. As a result, it detects the pre-movement that is likely to lead to a removal accident, which is difficult to recognize in advance only by analyzing the movement of the trunk and limbs of the monitored person, and notifies the monitor of information on the risk of self-removal. can do.

(5) 前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知部を、更に備え、前記対応要否判定部は、前記出血検知部が所定量以上の血液の流出を検知した場合にも、対応が必要であると判定する、(1)から(4)の何れかに記載の自己抜去監視システム。 (5) A bleeding detection unit that detects the outflow of blood from a change in color around the mounting position in the monitoring image is further provided, and the bleeding detection unit has a predetermined amount or more of blood in the response necessity determination unit. The self-extraction monitoring system according to any one of (1) to (4), which determines that it is necessary to take measures even when the outflow of blood is detected.

(5)の発明は、(1)から(4)の何れかの発明において、更に、医療用装身器具の装着位置の周辺での出血も検知できる手段を更に備えるものとした。これにより、監視対象者の動作解析のみによっては事前の認識が困難な抜去事故も含めて、あらゆる抜去事故を遅滞なく監視者に通知することができる。 The invention of (5) further includes, in any of the inventions (1) to (4), a means for detecting bleeding around the wearing position of the medical equipment. As a result, it is possible to notify the observer of any removal accident without delay, including the removal accident that is difficult to recognize in advance only by the motion analysis of the monitored person.

(6) 医療用装身器具の自己抜去監視方法であって、撮影部が監視対象者を撮影する監視撮影ステップと、撮影部が撮影した監視画像に設定される座標軸を任意の角度で回転させる座標変換ステップと、監視対象特定部が、前記監視撮影ステップにおいて撮影した監視画像中の監視対象者を特定する監視対象特定ステップと、装着位置特定部が、前記監視対象特定ステップにおいて特定された監視対象者の身体に装着されている医療用装身器具の装着位置を特定する装着位置特定ステップと、動作認識部が、前記監視対象特定ステップにおいて特定された前記監視対象者の動作を認識する動作認識ステップと、対応要否判定部が、前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定ステップと、対応要求通知出力部が、前記対応要否判定ステップにおいて対応が必要であると判定された場合に対応要求通知を出力する対応要求通知出力ステップと、を含んでなり、前記監視対象特定ステップにおいては、前記座標軸の回転中に前記監視画像中において正立状態にない監視対象を特定する、自己抜去監視方法。 (6) This is a self-removal monitoring method for medical equipment, in which a monitoring shooting step in which the photographing unit photographs a monitored person and a coordinate axis set in the monitoring image captured by the photographing unit are rotated at an arbitrary angle. The coordinate conversion step, the monitoring target identification step in which the monitoring target identification unit identifies the monitoring target person in the monitoring image captured in the monitoring shooting step, and the monitoring in which the mounting position specifying unit is specified in the monitoring target identification step. A mounting position specifying step for specifying the mounting position of the medical equipment worn on the body of the target person, and an operation in which the motion recognition unit recognizes the motion of the monitored target person specified in the monitoring target specifying step. A response request determination step and a response request notification output in which the recognition step, the response necessity determination unit determines the necessity of correspondence depending on whether or not the combination of the mounting position and the operation is a specific combination, and the response request notification output. The unit includes a response request notification output step that outputs a response request notification when it is determined in the response necessity determination step that a response is required, and in the monitoring target identification step, the coordinate axes are A self-extraction monitoring method for identifying a monitoring target that is not in an upright state in the monitoring image during rotation.

(6)の発明は、監視対象特定ステップと、装着位置特定ステップと、動作認識ステップを、含んで構成される自己抜去監視方法において、更に、監視対象特定ステップにおいて、監視画像中の座標を回転させることにより、横臥状態による患者等の認識精度を向上させている。これにより、病院等において、「自己抜去」の発生若しくは発生リスクを、十分な精度で迅速に認識して監視者に通知することができ、監視者の監視負担を軽減することができる。 The invention of (6) is a self-extraction monitoring method including a monitoring target identification step, a mounting position identification step, and an operation recognition step, and further, in the monitoring target identification step, the coordinates in the monitoring image are rotated. By allowing the patient to lie down, the recognition accuracy of the patient or the like is improved. As a result, in hospitals and the like, the occurrence or risk of occurrence of "self-extraction" can be quickly recognized with sufficient accuracy and notified to the observer, and the monitoring burden on the observer can be reduced.

(7) 前記対応要求通知出力部は、前記監視画像を表示する監視画面を有し、前記装着位置特定ステップにおいては、監視者が、前記監視画面へのタップ操作又は前記監視画面上でのクリック操作によって指定した位置が、前記装着位置として特定される、(6)に記載の自己抜去監視方法。 (7) The response request notification output unit has a monitoring screen for displaying the monitoring image, and in the mounting position specifying step, the observer taps the monitoring screen or clicks on the monitoring screen. The self-removal monitoring method according to (6), wherein the position specified by the operation is specified as the mounting position.

(7)の発明は、(6)の発明において、監視者が簡単な操作で監視対象者の身体に装着されている医療用装身器具の装着位置を指定する処理を行うプロセスとした。これにより、例えば、医療用装身器具の装着位置が布団等で隠蔽されていて画像内での機械的認識が困難な場合も含めて、医療用装身器具の装着位置を正確に特定して、「自己抜去」の発生若しくは発生リスクを、十分な精度で迅速に認識して監視者に通知することができる。 In the invention of (7), in the invention of (6), the observer performs a process of designating the wearing position of the medical equipment worn on the body of the monitored person by a simple operation. As a result, for example, even when the mounting position of the medical dressing device is hidden by a futon or the like and mechanical recognition in the image is difficult, the mounting position of the medical dressing device can be accurately specified. , The occurrence or risk of "self-extraction" can be quickly recognized with sufficient accuracy and notified to the observer.

(8) 前記動作認識ステップにおいては、複数の特徴点を連接する骨格線で構成される前記監視対象者の骨格を抽出する骨格抽出処理と、前記骨格抽出処理によって抽出された前記特徴点の前記3次元空間内における位置を特定する特徴点位置特定処理とが行われ、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、(6)又は(7)に記載の自己抜去監視方法。 (8) In the motion recognition step, a skeleton extraction process for extracting the skeleton of the monitored person composed of skeleton lines connecting a plurality of feature points and the feature points extracted by the skeleton extraction process are described. The feature point position identification process for specifying the position in the three-dimensional space is performed, and the movement of the monitored person is recognized based on the information related to the fluctuation of the position of the feature point, (6) or (7). ) For self-extraction monitoring method.

(8)の発明は、(6)又は(7)の発明において、動作認識ステップを、例えば、後述の「OpenPose」等の画像解析手段を用いることにより、監視対象者の複数の特徴点が連接されてなる骨格を抽出し、これら各特徴点の位置や速度を解析することによって、監視対象者の動作を認識することができるプロセスとしたものである。これによれば、監視者が認識すべき各種の動作等を、監視対象者の体形等に関わらずより高い精度でもれなく認識することができ、又、監視画像の表示を骨格情報のみによる表示とすることにより、監視対象者のプライバシーに配慮した監視態様とすることもできる。 In the invention of (8), in the invention of (6) or (7), a plurality of feature points of the monitored person are connected by using the motion recognition step, for example, an image analysis means such as "OpenPose" described later. It is a process that can recognize the movement of the monitored person by extracting the skeleton that is formed and analyzing the position and speed of each of these feature points. According to this, various movements that the observer should recognize can be recognized with higher accuracy regardless of the body shape of the monitored person, and the display of the monitored image can be displayed only by the skeleton information. By doing so, it is possible to set the monitoring mode in consideration of the privacy of the monitored person.

(9) 前記動作認識ステップにおいては、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知処理が、更に行われ、前記対応要否判定ステップにおいては、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定される、(6)から(8)の何れかに記載の自己抜去監視方法。 (9) In the motion recognition step, a line-of-sight direction detection process for detecting the line-of-sight direction of the monitored person in the surveillance image is further performed, and in the response necessity determination step, the line-of-sight direction is said. The method according to any one of (6) to (8), wherein it is determined that a response is required when the relative fluctuation amount and fluctuation speed with respect to the direction in which the mounting position is visually observed are the predetermined fluctuation amount and fluctuation speed. Self-extraction monitoring method.

(9)の発明は、(6)から(8)の何れかの発明において、更に、監視対象者の視線方向を検知する処理を行うプロセスとした。これにより、監視対象者の体幹や四肢の動作解析のみによっては事前の認識が困難な抜去事故につながる可能性の高い事前動作を検知して自己抜去の発生リスクにかかる情報を監視者に通知することができる。 The invention of (9) is the process of further detecting the line-of-sight direction of the monitored person in any of the inventions (6) to (8). As a result, it detects the pre-movement that is likely to lead to a removal accident, which is difficult to recognize in advance only by analyzing the movement of the trunk and limbs of the monitored person, and notifies the monitor of information on the risk of self-removal. can do.

(10) 前記動作認識ステップにおいては、前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知処理が、更に行われ、前記対応要否判定ステップにおいては、前記動作認識部が所定量以上の血液の流出を検知した場合に、対応が必要であると判定される、(6)から(9)の何れかに記載の自己抜去監視方法。 (10) In the motion recognition step, a bleeding detection process for detecting the outflow of blood from the change in color around the mounting position in the monitoring image is further performed, and in the response necessity determination step, the above-mentioned The self-extraction monitoring method according to any one of (6) to (9), wherein it is determined that a countermeasure is required when the motion recognition unit detects an outflow of blood exceeding a predetermined amount.

(10)の発明は、(6)から(9)の何れかの発明において、更に、医療用装身器具の装着位置の周辺での出血も検知できる処理を更に行うプロセスとした。これにより、監視対象者の動作解析のみによっては事前の認識が困難な抜去事故も含めて、あらゆる抜去事故を遅滞なく監視者に通知することができる。 The invention of (10) is the process of further performing the process of detecting bleeding around the wearing position of the medical clothing device in any of the inventions (6) to (9). As a result, it is possible to notify the observer of any removal accident without delay, including the removal accident that is difficult to recognize in advance only by the motion analysis of the monitored person.

本発明によれば、監視画像から監視対象者を適切に特定して自己抜去に関連する動作を自動的に認識し、対応が必要な場合には、監視者に迅速且つ正確な通知を自動的に行うことができる「医療用装身器具の自己抜去監視手段」を提供することができる。 According to the present invention, the monitored person is appropriately identified from the monitored image, the operation related to self-extraction is automatically recognized, and when a response is required, the monitor is automatically notified promptly and accurately. It is possible to provide "self-removal monitoring means for medical equipment" that can be performed in the above.

医療用装身器具の自己抜去監視システムの構成及び動作の概略を模式的に示す図である。It is a figure which shows the outline of the structure and operation of the self-removal monitoring system of the medical equipment. 医療用装身器具の自己抜去監視システムの基本構成の説明に供するブロック図である。It is a block diagram which provides the explanation of the basic structure of the self-removal monitoring system of the medical equipment. 医療用装身器具の自己抜去監視方法の動作の流れを示すフローチャートである。It is a flowchart which shows the operation flow of the self-removal monitoring method of the medical equipment. 医療用装身器具の自己抜去監視システム及び監視方法における座標変換処理の動作説明に供する模式図である。It is a schematic diagram provided for the operation explanation of the coordinate conversion processing in the self-extraction monitoring system and the monitoring method of the medical equipment. 医療用装身器具の自己抜去監視システム及び監視方法における装着位置特定処理の動作説明に供する模式図である。It is a schematic diagram provided for the operation explanation of the wearing position identification processing in the self-removal monitoring system and the monitoring method of the medical equipment. 医療用装身器具の自己抜去監視システム及び監視方法における装着位置特定処理を監視者によるマニュアル操作に依拠して行う場合の動作説明に供する模式図である。It is a schematic diagram which provides the operation explanation at the time of performing the attachment position identification process in the self-removal monitoring system and the monitoring method of the medical equipment by the manual operation by the observer. 本発明の医療用装身器具の自己抜去監視システムを構成する動作認識部によって認識される監視対象者の動作と視線方向の検知の態様の一例を模式的に示す図面である。It is a drawing which shows typically an example of the mode of detecting the motion and the line-of-sight direction of the monitored person recognized by the motion recognition unit which constitutes the self-removal monitoring system of the medical wear device of this invention. 医療用装身器具の自己抜去監視システムを構成する対応要否判定部において、対応の要否の判定を行うために参照される評価基準を記憶するための記憶装置内の記憶用のテーブルの一例を示す図面である。An example of a storage table in a storage device for storing evaluation criteria referred to for determining the necessity of response in the response necessity determination unit constituting the self-removal monitoring system for medical equipment. It is a drawing which shows.

<自己抜去監視システム>
[全体構成]
図1に示す通り、本発明の自己抜去監視システム(自己抜去監視システム100)においては、先ず、病院等における、監視対象者(患者)10の滞在している監視対象者滞在エリア(病室)210等の監視対象領域内が撮影部(監視カメラ)110により撮影され、撮影された監視画像の解析により、監視対象者(患者)110による、医療用装身器具の装着位置Pに対する特定の動作(例えば、図1中における監視対象者10の動作)が認識される。そして、医療用装身器具の装着位置Pに係る位置情報と特定の動作(例えば、図1中における監視対象者10Aの動作)との組合せが、特定の組合せであるか否かによって対応の要否が判定される。この結果、対応が必要であると判定された場合には、監視者滞在エリア220等、監視者20の携帯する携帯情報処理端末等の対応要求通知出力部130に、対応要求通知が出力される。そして、対応要求通知を受信した監視者20Aは、必要な対応に速やかに着手することにより、自己抜去に起因する医療事故の発生の多くを防止することができる。
<Self-removal monitoring system>
[overall structure]
As shown in FIG. 1, in the self-extraction monitoring system (self-extraction monitoring system 100) of the present invention, first, the monitored person staying area (hospital room) 210 in which the monitored person (patient) 10 is staying in a hospital or the like. The inside of the monitored area such as the above is photographed by the photographing unit (surveillance camera) 110, and by analyzing the photographed surveillance image, the monitored person (patient) 110 performs a specific operation with respect to the wearing position P of the medical equipment (patient). For example, the operation of the monitored person 10 in FIG. 1) is recognized. Then, it is necessary to take measures depending on whether or not the combination of the position information related to the wearing position P of the medical clothing device and the specific operation (for example, the operation of the monitored person 10A in FIG. 1) is a specific combination. No is judged. As a result, when it is determined that the response is necessary, the response request notification is output to the response request notification output unit 130 of the observer stay area 220 or the like, the mobile information processing terminal carried by the observer 20, or the like. .. Then, the observer 20A who has received the response request notification can prevent many medical accidents due to self-removal by promptly starting the necessary response.

図2は、自己抜去監視システム100の構成を示すブロック図である。自己抜去監視システム100は、図2に示す通り、少なくとも、撮影部110と、演算処理部120と、対応要求通知出力部130と、を含んで構成される。 FIG. 2 is a block diagram showing the configuration of the self-extraction monitoring system 100. As shown in FIG. 2, the self-extraction monitoring system 100 includes at least a photographing unit 110, an arithmetic processing unit 120, and a response request notification output unit 130.

又、演算処理部120は、少なくとも、座標変換部122、監視対象特定部123、装着位置特定部124、動作認識部125、対応要否判定部127と、を含んで構成される。但し、座標変換部122は、後述する通り、撮影部110の一部として自己抜去監視システム100を構成することもできる。撮影部110に座標変換部122が具備される場合には、演算処理部120においては、座標変換部122は必ずしも必須の構成要件ではない。尚、演算処理部120は、必要に応じて、更に、座標設定部121を含んで構成されることが好ましい。 Further, the arithmetic processing unit 120 includes at least a coordinate conversion unit 122, a monitoring target identification unit 123, a mounting position identification unit 124, an operation recognition unit 125, and a correspondence necessity determination unit 127. However, as will be described later, the coordinate conversion unit 122 can also configure the self-extraction monitoring system 100 as a part of the photographing unit 110. When the photographing unit 110 is provided with the coordinate conversion unit 122, the coordinate conversion unit 122 is not necessarily an indispensable constituent requirement in the arithmetic processing unit 120. It is preferable that the arithmetic processing unit 120 is further configured to include the coordinate setting unit 121, if necessary.

ここで、監視画像に設定されるXY座標軸等の座標軸を任意の角度で回転させる座標変換ステップ(S13)を行う座標変換部122は、具体的には、監視画像を加工処理する画像処理プログラムによって構成することができる。或いは、この座標変換部122は、撮影部110を構成するカメラ本体(或いは、カメラ本体内部の撮像素子のみ)を物理的に所定の方向回転させるカメラ本体回転機構或いは撮像素子回転機構によって構成することもできる。 Here, the coordinate conversion unit 122 that performs the coordinate conversion step (S13) for rotating the coordinate axes such as the XY coordinate axes set in the surveillance image by an arbitrary angle is specifically subjected to an image processing program that processes the surveillance image. Can be configured. Alternatively, the coordinate conversion unit 122 is configured by a camera body rotation mechanism or an image sensor rotation mechanism that physically rotates the camera body (or only the image sensor inside the camera body) constituting the photographing unit 110 in a predetermined direction. You can also.

自己抜去監視システム100は、例えば、図4に示すように、座標変換部122によって、監視画像中の座標軸を90°回転させる座標変換ステップ(S13)を行うことにより、監視画像中において頭H、体幹B、脚部Lが水平方向(x軸方向)に沿って位置していること(横臥状態にあること)により、監視画像中から「人」として抽出することが難しい非正立状態の監視対象者10についても、頭H、体幹B、脚部Lが、鉛直方向(y軸方向)沿ってこの順で位置する正立状態にある「人」と同様に、高い精度で特定することができる。 For example, as shown in FIG. 4, the self-extraction monitoring system 100 performs a coordinate conversion step (S13) in which the coordinate axes in the monitoring image are rotated by 90 ° by the coordinate conversion unit 122, so that the head H in the monitoring image Since the trunk B and leg L are located along the horizontal direction (x-axis direction) (in a lying state), it is difficult to extract them as "people" from the surveillance image in an upright state. The monitored person 10 is also identified with high accuracy, as in the case of an upright "person" in which the head H, the trunk B, and the leg L are located in this order along the vertical direction (y-axis direction). be able to.

尚、自己抜去監視システム100は、撮影部110と演算処理部120と、対応要求通知出力部130を、それぞれ適切な離れた位置に配置して構成することができる。但し、本発明の自己抜去監視システムの構成は、このような配置からなる構成に限定されない。例えば、撮影部110と演算処理部120とが一体化されている装置とした構成、或いは、演算処理部120の一部を撮影部110内に搭載した構成とすることもできる。 The self-extraction monitoring system 100 can be configured by arranging the photographing unit 110, the arithmetic processing unit 120, and the response request notification output unit 130 at appropriate distances from each other. However, the configuration of the self-extraction monitoring system of the present invention is not limited to the configuration consisting of such an arrangement. For example, it may be configured as a device in which the photographing unit 110 and the arithmetic processing unit 120 are integrated, or a configuration in which a part of the arithmetic processing unit 120 is mounted in the photographing unit 110.

[撮影部]
撮影部110は、所謂、監視カメラである。そして、この撮影部110は、監視対象領域を連続的に撮影する監視撮影ステップ(S12)を行う。
[Shooting section]
The photographing unit 110 is a so-called surveillance camera. Then, the photographing unit 110 performs a monitoring photographing step (S12) for continuously photographing the monitored area.

尚、撮影部110を構成する監視カメラは、例えば、演算処理部120内に、後述する座標設定部121を備えさせることにより、監視対象領域を構成する3次元空間を2次元の画像として撮影する単眼のカメラで構成することができる。この場合、高価な3Dカメラを導入する必要はなく、自己抜去監視システム100の導入コストを大幅に低減させることができる。 The surveillance camera constituting the photographing unit 110 captures the three-dimensional space constituting the monitored area as a two-dimensional image by, for example, providing the coordinate setting unit 121 described later in the arithmetic processing unit 120. It can consist of a monocular camera. In this case, it is not necessary to introduce an expensive 3D camera, and the introduction cost of the self-extraction monitoring system 100 can be significantly reduced.

又、撮影部110は、撮像素子111と、撮影レンズ112と、画像処理部113とを備えるカメラで構成することができる。撮像素子111は、撮影レンズ112が結像する像を撮像して、画像処理部113へ送る。画像処理部113は、撮像素子111から出力されるデータを処理して画像データ化して、演算処理部120へ送信する。 Further, the photographing unit 110 can be composed of a camera including an image sensor 111, a photographing lens 112, and an image processing unit 113. The image sensor 111 captures an image formed by the photographing lens 112 and sends it to the image processing unit 113. The image processing unit 113 processes the data output from the image sensor 111, converts it into image data, and transmits it to the arithmetic processing unit 120.

上述の通り、撮影部110は、座標変換部122を具備する構成とすることができる。この場合、撮影部110は、座標変換ステップ(S13)を行うための機構として、カメラ本体を回転させる回転機構、撮像素子111のみを回転させる回転機構、或いは、画像処理部113における演算処理として座標変換(S13)を行うためのプログラムの何れかを備えるものとすればよい。 As described above, the photographing unit 110 can be configured to include the coordinate conversion unit 122. In this case, the photographing unit 110 has a rotation mechanism for rotating the camera body, a rotation mechanism for rotating only the image sensor 111, or coordinates as arithmetic processing in the image processing unit 113 as a mechanism for performing the coordinate conversion step (S13). Any of the programs for performing the conversion (S13) may be provided.

[演算処理部]
演算処理部120は、撮影部110から送信された画像データに対して、監視に必要な演算処理を行う。演算処理部120は、例えば、パーソナルコンピュータやタブレット端末、スマートフォン等を利用して構成することができる。或いは、演算処理部120は、監視動作に特化した専用の装置として構成することもできる。これらの何れの構成においても、演算処理部120は、CPU、メモリ、通信部等のハードウェアを備えている。そして、このような構成からなる演算処理部120は、コンピュータプログラム(監視プログラム)を実行することにより、以下に説明する各種動作、及び、監視方法を具体的に実行することができる。
[Calculation processing unit]
The arithmetic processing unit 120 performs arithmetic processing necessary for monitoring the image data transmitted from the photographing unit 110. The arithmetic processing unit 120 can be configured by using, for example, a personal computer, a tablet terminal, a smartphone, or the like. Alternatively, the arithmetic processing unit 120 can be configured as a dedicated device specialized for monitoring operation. In any of these configurations, the arithmetic processing unit 120 includes hardware such as a CPU, a memory, and a communication unit. Then, the arithmetic processing unit 120 having such a configuration can specifically execute various operations and monitoring methods described below by executing a computer program (monitoring program).

演算処理部120は、撮影部110から画像データを受信することができるように撮影部110と接続されている。この接続は、専用の通信ケーブルを利用した有線接続、或いは、有線LANによる接続とすることができる。又、有線接続に限らず、無線LANや近距離無線通信、携帯電話回線等の各種無線通信を用いた接続としてもよい。尚、演算処理部120は、撮影部110の近傍に配置せずに、撮影部110から離れた遠隔地に配置してもよい。 The arithmetic processing unit 120 is connected to the photographing unit 110 so that the image data can be received from the photographing unit 110. This connection can be a wired connection using a dedicated communication cable or a wired LAN connection. Further, the connection is not limited to a wired connection, and may be a connection using various wireless communications such as a wireless LAN, short-range wireless communication, and a mobile phone line. The arithmetic processing unit 120 may not be arranged in the vicinity of the photographing unit 110, but may be arranged in a remote place away from the photographing unit 110.

(座標設定部)
座標設定部121は、撮影部110が撮影した監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標を設定する座標設定ステップ(S11)を行う。尚、撮影部110に3Dカメラや各種の距離センサー等を備えさせ、これにより監視対象領域内の奥行情報を得ることによっても上記座標を設定することも可能であり、この場合は、撮影部110と独立した座標設定部121は、必ずしも必須の構成要件ではない。
(Coordinate setting part)
The coordinate setting unit 121 sets the coordinates that can be specified by associating the position corresponding to the floor surface or the ground in the surveillance image captured by the photographing unit 110 with the actual size in the three-dimensional space of the monitored area (S11). )I do. It is also possible to set the above coordinates by equipping the photographing unit 110 with a 3D camera, various distance sensors, etc., and thereby obtaining depth information in the monitored area. In this case, the photographing unit 110 The coordinate setting unit 121 independent of the above is not necessarily an indispensable configuration requirement.

(座標変換部)
座標変換部122は、上述の座標変換ステップ(S13)を行う。この座標変換は、監視画像に係る画像データに対する演算処理として行うことができる。撮影部110に座標変換の機能を備えさせる場合には、演算処理部120に座標変換部122を備えさせることは必須ではない。
(Coordinate conversion part)
The coordinate conversion unit 122 performs the coordinate conversion step (S13) described above. This coordinate transformation can be performed as an arithmetic process on the image data related to the surveillance image. When the photographing unit 110 is provided with the coordinate conversion function, it is not essential that the arithmetic processing unit 120 is provided with the coordinate conversion unit 122.

(監視対象特定部)
監視対象特定部123は、監視動作中に、撮影部110が撮影した監視画像中の任意の患者等を自動的に検出して、これを監視対象者として特定する監視対象特定ステップ(S14)を行う。又、監視対象特定部123は、複数の監視対象者を同時に並行して個別に特定する機能を有するものであることがより好ましい。この監視対象者の特定は、従来公知の様々な画像解析方法によることができるが、ニューラルネットワークを有する機械学習型の画像認識装置(所謂「ディープラーニング技術を用いた画像認識装置」)を用いて監視対象特定部123を構成することが好ましい。「ディープラーニング技術を用いた画像認識装置」の代表的な例として、画像認識のアルゴリズムとして「You only look once (YOLO)」を用いた画像解析装置を挙げることができる。
(Monitoring target identification part)
The monitoring target identification unit 123 automatically detects an arbitrary patient or the like in the monitoring image captured by the imaging unit 110 during the monitoring operation, and performs a monitoring target identification step (S14) to identify this as a monitoring target person. Do. Further, it is more preferable that the monitoring target identification unit 123 has a function of individually identifying a plurality of monitoring target persons in parallel at the same time. The monitoring target can be identified by various conventionally known image analysis methods, but a machine learning type image recognition device having a neural network (so-called "image recognition device using deep learning technology") is used. It is preferable to configure the monitoring target identification unit 123. As a typical example of the "image recognition device using the deep learning technology", an image analysis device using the "You only view (YOLO)" as an image recognition algorithm can be mentioned.

しかしながら、通常、「YOLO」等の公知の画像認識のアルゴリズムを用いた画像認識処理においては、頭部H(図4参照)が、身体各部の中で相対的に鉛直上方にある状態(正立状態)にはない「人」を、「人」として検知することができない場合が多く、ベッドに寝ている患者等、「横臥状態」にあって身体各部の相対位置が変化している監視対象者の特定が十分な精度で行えない場合があった。自己抜去監視システム100においては、監視画像に設定されるXY座標等の座標軸を任意の角度で回転させる座標変換ステップ(S13)を行うことにより、監視画像中において正立状態にない監視対象者も、高い精度で特定することができるようにしている。具体的に、自己抜去監視システム100においては、座標変換部122によって監視画像の座標軸を任意の角度に回転させることにより、XY座標軸のY軸方向を監視対象の正立方向に合わせることによって、監視画像中において非正立状態にある監視対象の認知精度の低下を防ぐことができる。 However, usually, in the image recognition process using a known image recognition algorithm such as "YOLO", the head H (see FIG. 4) is relatively vertically above each part of the body (upright). In many cases, a "person" that is not in the state) cannot be detected as a "person", and the relative position of each part of the body is changing in the "lying state" such as a patient sleeping in a bed. In some cases, the person could not be identified with sufficient accuracy. In the self-extraction monitoring system 100, by performing the coordinate conversion step (S13) of rotating the coordinate axes such as the XY coordinates set in the monitoring image at an arbitrary angle, the monitored person who is not in the upright state in the monitoring image may be monitored. , It is possible to identify with high accuracy. Specifically, in the self-extraction monitoring system 100, the coordinate conversion unit 122 rotates the coordinate axes of the monitoring image to an arbitrary angle to align the Y-axis direction of the XY coordinate axes with the upright direction of the monitoring target. It is possible to prevent a decrease in the cognitive accuracy of the monitored object in the non-upright state in the image.

(装着位置特定部)
装着位置特定部124は、例えば、図5に示されるように、監視対象特定部123によって特定された監視対象者10(10a、10b、10c)の身体に装着されている医療用装身器具11の装着位置P(Pa、Pb、Pc)を特定する、装着位置特定(S15)を行う。この装着位置特定部124は、(S15)は、上述の画像解析装置により構成することができる。これにより、機械的に装着位置P(Pa、Pb、Pc)を特定することができる。
(Mounting position identification part)
As shown in FIG. 5, for example, the wearing position specifying unit 124 is a medical equipment 11 worn on the body of the monitored person 10 (10a, 10b, 10c) specified by the monitoring target specifying unit 123. The mounting position (S15) for specifying the mounting position P (Pa, Pb, Pc) of the above is performed. The mounting position specifying unit 124 (S15) can be configured by the above-mentioned image analysis device. Thereby, the mounting position P (Pa, Pb, Pc) can be mechanically specified.

或いは、装着位置特定部124は、監視者による任意のマニュアル操作で指定された位置を、装着位置として特定する機構とすることもできる。任意のマニュアル操作とは、例えば、監視者による監視画面上でのタップ操作又はクリック操作等である。上記の装着位置を指定するためのマニュアル操作とは、例えば、図6に示すように、監視者が、指21によって対応要求通知出力部(携帯端末)130に表示される監視画面をタッチパネル方式の表示画面とした上で、監視画面に表示される監視画像内の任意の位置をタップするタップ操作である。このように、監視者によるマニュアル操作によって装着位置Pを指定することができる機能を備えさせた場合には、装着位置特定部124を、当該機能によって指定された位置を装着位置として特定する機構とすることができる。 Alternatively, the mounting position specifying unit 124 may be a mechanism for specifying a position designated by an arbitrary manual operation by the observer as a mounting position. The arbitrary manual operation is, for example, a tap operation or a click operation on the monitoring screen by the observer. The manual operation for designating the mounting position is, for example, as shown in FIG. 6, a touch panel type monitoring screen displayed on the response request notification output unit (mobile terminal) 130 by the observer with a finger 21. It is a tap operation that taps an arbitrary position in the surveillance image displayed on the surveillance screen on the display screen. In this way, when a function that allows the mounting position P to be specified by a manual operation by the observer is provided, the mounting position specifying unit 124 is provided with a mechanism that specifies the position designated by the function as the mounting position. can do.

(動作認識部)
動作認識部125は、監視対象特定部123によって特定された監視対象者の動作を認識する動作認識(S16)を行う。ここで、監視対象者の「動作」とは、身体各部の位置及び動きのことを言う。又、「身体各部の位置及び動き」には、監視対象者の位置変動、位置変動を伴わない姿勢の変化等、骨格の特徴点の位置変動によって把握することが可能な監視対象者のあらゆる「身体各部の位置及び動き」が含まれる。これらの「動作」の特定は、従来公知の様々な画像解析方法によることができる。
(Motion recognition unit)
The motion recognition unit 125 performs motion recognition (S16) for recognizing the motion of the monitored person specified by the monitoring target identification unit 123. Here, the "movement" of the monitored person means the position and movement of each part of the body. In addition, the "position and movement of each part of the body" includes all "positions and movements of the monitored person" that can be grasped by the position changes of the feature points of the skeleton, such as the position change of the monitored person and the change of posture without the position change. "Position and movement of each part of the body" is included. The identification of these "operations" can be performed by various conventionally known image analysis methods.

又、動作認識部125は、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部(図示せず)と、この骨格抽出部が抽出した特徴点の位置を特定する特徴点位置特定部(図示せず)と、を更に備えることが好ましい。骨格抽出部は、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する(図7参照)。 Further, the motion recognition unit 125 includes a skeleton extraction unit (not shown) that extracts the skeleton of the monitored person composed of skeleton lines connecting a plurality of feature points, and the positions of the feature points extracted by the skeleton extraction unit. It is preferable to further include a feature point position specifying portion (not shown) for specifying the above. The skeleton extraction unit extracts the skeleton of the monitored person, which is composed of skeleton lines connecting a plurality of feature points (see FIG. 7).

図7に示すような、監視対象者の骨格の抽出は、具体的には、従来公知の様々な手法の何れか、又は、それらを組合せて行うことができる。一例として、下記文献に開示されている「OpenPose」と称される技術を用いることにより、2次元の監視画像から「人」の骨格を抽出することができる。この場合において、動作認識部125は、上記の特徴点の「監視対象領域3次元空間内における位置」の変動に係る情報に基づいて、監視対象者の「動作」を認識することができる。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
The extraction of the skeleton of the monitored person as shown in FIG. 7 can be specifically performed by any of various conventionally known methods or a combination thereof. As an example, the skeleton of a "human" can be extracted from a two-dimensional surveillance image by using a technique called "OpenPose" disclosed in the following document. In this case, the motion recognition unit 125 can recognize the "motion" of the monitored person based on the information related to the fluctuation of the "position in the monitored area three-dimensional space" of the above-mentioned feature points.
"Zhe Cao et al. Realtime Multi-Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017"

又、動作認識部125は、監視画像中における監視対象者の視線方向を検知する、視線方向検知部(図示せず)を、更に備えることがより好ましい。視線方向を検知するための具体的手段は特に限定されないが、例えば、図7に示すように、骨格抽出部及び特徴点位置特定部によっても、「監視対象者」の両耳と鼻の位置に対応する3か所の視線方向検知用の「特徴点」を結んで形成される三角形において、両耳の位置に対応する点を結んでなる底辺の中点から、鼻の位置に対応する点である頂点に向かう方向を、監視対象者の視線方向eとして検知することができる。 Further, it is more preferable that the motion recognition unit 125 further includes a line-of-sight direction detection unit (not shown) that detects the line-of-sight direction of the monitored person in the surveillance image. The specific means for detecting the line-of-sight direction is not particularly limited, but for example, as shown in FIG. 7, the skeleton extraction unit and the feature point position identification unit also perform the positions of both ears and nose of the “monitored subject”. In a triangle formed by connecting three corresponding "feature points" for detecting the direction of the line of sight, from the midpoint of the base connecting the points corresponding to the positions of both ears to the point corresponding to the position of the nose. The direction toward a certain apex can be detected as the line-of-sight direction e of the monitored person.

(出血検知部)
又、演算処理部120は、監視画像中における装着位置Pの周辺の色の変化から血液の流出を検知する出血検知部126を、更に備えることが好ましい。出血を検知する機能を有する限り、出血検知部126の具体的構成は特に限定されないが、例えば、特定位置(装着位置P)周辺に特定の色(赤色)が出現したことを判別して判別結果に係る情報を対応要否判定部127に出力することができる画像解析プログラム等により出血検知部126を構成することができる。
(Bleeding detector)
Further, it is preferable that the arithmetic processing unit 120 further includes a bleeding detection unit 126 that detects the outflow of blood from the change in color around the mounting position P in the monitoring image. As long as it has a function of detecting bleeding, the specific configuration of the bleeding detection unit 126 is not particularly limited, but for example, it is determined that a specific color (red) appears around a specific position (mounting position P) and the determination result is obtained. The bleeding detection unit 126 can be configured by an image analysis program or the like that can output the information related to the above to the response necessity determination unit 127.

(対応要否判定部)
対応要否判定部127は、装着位置Pと監視対象者の動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定(S17)を行う。又、演算処理部120が出血検知部126を備える場合には、対応要否判定部127は、出血に係る情報を要否判定の判断材料とすることができる。
(Correspondence necessity judgment unit)
The response necessity determination unit 127 performs the response necessity determination (S17) for determining the necessity of correspondence depending on whether or not the combination of the mounting position P and the operation of the monitored person is a specific combination. Further, when the arithmetic processing unit 120 includes the bleeding detection unit 126, the response necessity determination unit 127 can use the information related to the bleeding as the determination material for the necessity determination.

対応要否判定部127は、装着位置特定部124及び動作認識部125によって取得した装着位置Pと監視対象者の動作との組合せについて、予め各種の記憶手段に登録されている評価基準と照合することによって、当該監視対象者に対する対応の要否を判定する。対応要否判定部127は、このような簡単な情報のマッチング解析が可能な各種の情報処理装置やプログラム等により構成することができる。 The response necessity determination unit 127 collates the combination of the mounting position P acquired by the mounting position specifying unit 124 and the motion recognition unit 125 with the motion of the monitored person with the evaluation criteria registered in advance in various storage means. By doing so, it is determined whether or not it is necessary to deal with the monitored person. The response necessity determination unit 127 can be configured by various information processing devices, programs, and the like capable of such simple matching analysis of information.

図8は、装着位置Pと監視対象者の動作との組合せに係る取得情報に加えて、更に、出血に係る取得情報を評価するための評価基準を記憶するための記憶装置内の記憶用のテーブルの一例である。図8に例示するように、視線方向、手の動き、出血、それぞれに係る取得情報から、自己抜去の発生を未然に若しくは速やかに認知して対応の要否を判定することができる。 FIG. 8 shows, in addition to the acquired information related to the combination of the wearing position P and the movement of the monitored person, for storage in the storage device for storing the evaluation criteria for evaluating the acquired information related to bleeding. This is an example of a table. As illustrated in FIG. 8, the occurrence of self-extraction can be recognized in advance or promptly from the acquired information related to the line-of-sight direction, hand movement, and bleeding, and the necessity of countermeasures can be determined.

[対応要求通知出力部]
対応要求通知出力部130は、監視画像を表示する監視画面を有し、又、対応要否判定部127によって対応が必要であると判定された場合には、対応要否判定部127の判定結果を対応要求通知として監視者20が認知可能な形式で出力することができる情報出力手段を備える。
[Response request notification output section]
The response request notification output unit 130 has a monitoring screen for displaying a monitoring image, and when the response necessity determination unit 127 determines that a response is necessary, the determination result of the response necessity determination unit 127 Is provided as an information output means capable of outputting the image as a response request notification in a format recognizable by the observer 20.

対応要求通知出力部130は、モニター付きのパーソナルコンピュータ、或いは、監視者が容易に持ち運ぶことができる小型の携帯情報処理端末等のように、対応要否判定部127が出力する判定結果に係る情報を、監視者が、認知可能な映像・文字・音声等で適宜表示することができる各種の情報処理端末、或いは、そのような要求に対応可能なモニター等を含む各種の情報表示装置によって構成することができる。 The response request notification output unit 130 is information related to the determination result output by the response necessity determination unit 127, such as a personal computer with a monitor or a small portable information processing terminal that can be easily carried by the observer. Is configured by various information processing terminals capable of appropriately displaying recognizable video, text, audio, etc., or various information display devices including a monitor capable of responding to such a request. be able to.

<自己抜去監視方法>
[全体構成]
図3は、自己抜去監視システム100を用いて実行することができる本発明の自己抜去監視方法の流れを示すフローチャートである。
<Self-extraction monitoring method>
[overall structure]
FIG. 3 is a flowchart showing the flow of the self-extraction monitoring method of the present invention that can be executed by using the self-extraction monitoring system 100.

(座標設定ステップ)
座標設定ステップ(S11)では、座標設定部121が、座標設定処理を行う。この座標設定ステップ(S11)で行われる座標設定処理とは、好ましくは、座標設定部121が、撮影部110が撮影した監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標、即ち、監視対象領域についての奥行き情報も有する3次元座標を設定する処理である。
(Coordinate setting step)
In the coordinate setting step (S11), the coordinate setting unit 121 performs the coordinate setting process. The coordinate setting process performed in the coordinate setting step (S11) preferably means that the coordinate setting unit 121 positions a position corresponding to the floor surface or the ground in the surveillance image captured by the photographing unit 110 in the monitored area three-dimensional space. This is a process of setting coordinates that can be specified in association with the actual dimensions, that is, three-dimensional coordinates that also have depth information about the monitored area.

尚、この座標設定ステップ(S11)は、監視領域を監視するための事前準備であって、これ以降のステップにより本稼働としての実際の監視が開始される。換言すると、座標設定ステップ(S11)は、監視の本稼働の開始に先行して、撮影部110の設置後に少なくとも1回行われればよい。例えば、自己抜去監視システム100を設置したときに適切に上記の座標を設定しておけば、その後、撮影部110の配置の変更等、監視画像の撮影条件に特段の変更がない限り、システム稼働中における再度の座標設定を不要とすることができる。 The coordinate setting step (S11) is a preliminary preparation for monitoring the monitoring area, and the actual monitoring as the actual operation is started by the subsequent steps. In other words, the coordinate setting step (S11) may be performed at least once after the imaging unit 110 is installed, prior to the start of the actual operation of the monitoring. For example, if the above coordinates are set appropriately when the self-extraction monitoring system 100 is installed, the system will operate unless there is a particular change in the shooting conditions of the monitoring image, such as a change in the arrangement of the shooting unit 110. It is possible to eliminate the need to set the coordinates again inside.

尚、撮影部110が、赤外線等を照射して距離測定を行う距離測定部、又はこれに相当する構成を有する場合においては、距離測定部によって撮影部から監視画像の背景に対応する実際の各点までの距離を実測し、この実測値に基づいて、上記同様、監視対象領域3次元空間内における実際の位置(実寸法、実距離)と関連付けられている座標を設定することができる。 In addition, when the photographing unit 110 has a distance measuring unit that measures the distance by irradiating infrared rays or the like, or a configuration corresponding to the distance measuring unit, the actual distance measuring unit corresponds to the background of the monitored image from the photographing unit. The distance to the point is actually measured, and based on the measured value, the coordinates associated with the actual position (actual size, actual distance) in the monitored area three-dimensional space can be set as described above.

(監視撮影ステップ)
監視撮影ステップ(S12)では、撮影部110が、監視撮影を行う。ここで、監視撮影は、静止画の撮影を所定間隔で連続して行い、撮影される画像の連続として後述する監視動作を行うが、撮影間隔を非常に短くすることにより、実質的には、動画撮影として、監視動作を行っているものと捉えることもできる。
(Surveillance shooting step)
In the surveillance shooting step (S12), the shooting unit 110 performs surveillance shooting. Here, in the surveillance shooting, still images are continuously shot at predetermined intervals, and a monitoring operation described later is performed as a series of shot images. However, by making the shooting intervals very short, substantially It can also be regarded as performing a monitoring operation as a movie shooting.

(座標変換ステップ)
座標変換ステップ(S13)では、座標変換部122が、撮影部110が撮影した監視画像に設定されている座標軸を回転させる座標変換を行う。この座標変換は、ソフトウエアにおける処理として、演算処理として座標軸を回転させることによって行うことができる。又、座標軸は固定したまま、監視画像自体を回転させることによっても座標変換ステップ(S13)を行うことができる。この監視画像の回転は、ソフトウエアにおける処理として、演算処理として画像データを変換することによって行うこともできるし、より簡易的な実施方法としては、撮影部110を構成する監視カメラ若しくはこれを構成する撮像素子を実際に回転させることによっても行うことができる。
(Coordinate conversion step)
In the coordinate conversion step (S13), the coordinate conversion unit 122 performs coordinate conversion to rotate the coordinate axes set in the monitoring image captured by the photographing unit 110. This coordinate transformation can be performed by rotating the coordinate axes as an arithmetic process as a process in software. Further, the coordinate conversion step (S13) can be performed by rotating the monitoring image itself while keeping the coordinate axes fixed. The rotation of the surveillance image can be performed by converting the image data as an arithmetic process as a process in the software, and as a simpler implementation method, a surveillance camera constituting the image pickup unit 110 or a surveillance camera thereof is configured. It can also be performed by actually rotating the image sensor.

座標変換ステップ(S13)において、監視画像を360°逐次回転させ続けることにより、監視対象特定ステップ(S14)において、立位、坐位・横臥状態等、あらゆる姿勢状態にある監視画像中の「人」を、等しく高精度で特定することができる。例えば、座標変換部122によって、監視画像中の座標軸を360°逐次回転させていく座標変換を連続的に行うことにより、図4(a)に示す非正立状態の監視対象者10についても、座標軸が90°回転した時点で、正立状態にある「人」と同様に、高い精度で特定することができる。 By continuously rotating the monitoring image 360 ° in the coordinate conversion step (S13), the "person" in the monitoring image in all posture states such as standing, sitting, and lying down in the monitoring target identification step (S14). Can be identified with equal high accuracy. For example, the coordinate conversion unit 122 continuously performs coordinate conversion in which the coordinate axes in the monitoring image are sequentially rotated by 360 °, so that the monitored person 10 in the non-upright state shown in FIG. 4 (a) is also monitored. When the coordinate axes are rotated by 90 °, it can be identified with high accuracy in the same way as a "person" in an upright state.

(監視対象特定ステップ)
監視対象特定ステップ(S14)では、監視対象特定部123が、撮影部が撮影した監視画像中の監視対象者を検出して特定したか否かについて判定を行う。特に監視画像中において、正立状態以外の状態にある監視対象者については、上述の座標変換処理による座標軸の回転中に、監視画像中において正立状態にない監視対象を特定する。監視対象者を検出して特定した場合(S14、Yes)には、装着位置特定ステップ(S15)へ進み、監視対象者が検出されていない場合(S14、No)には、監視撮影ステップ(S12)へ戻り、監視動作を継続する。
(Monitoring target identification step)
In the monitoring target identification step (S14), the monitoring target identification unit 123 determines whether or not the monitoring target person in the monitoring image captured by the photographing unit is detected and specified. In particular, for the monitored person who is in a state other than the upright state in the monitored image, the monitored target that is not in the upright state in the monitored image is specified during the rotation of the coordinate axes by the coordinate conversion process described above. When the monitored person is detected and specified (S14, Yes), the process proceeds to the mounting position specifying step (S15), and when the monitored person is not detected (S14, No), the monitoring shooting step (S12) is performed. ) And continue the monitoring operation.

監視対象者の検出は、具体的には、従来公知の様々な手法の何れか、又は、それらを組合せて行うことができる。例えば、背景差分によって監視領域内の「人」を抽出することができる。この背景差分は公知の技術であり、監視カメラ24で取得された画像データと、事前に取得しておいた監視領域Aの背景画像との差分をとることで、動きのある監視対象を抽出する技術である。 Specifically, the detection of the monitored person can be performed by any of various conventionally known methods, or a combination thereof. For example, "people" in the monitoring area can be extracted by background subtraction. This background subtraction is a known technique, and by taking the difference between the image data acquired by the surveillance camera 24 and the background image of the surveillance area A acquired in advance, a moving monitoring target is extracted. It is a technology.

尚、本発明においては、監視対象者がベッド等に寝ている状態での監視が必要となる場合が多い。従来の各種の画像認識プログラム及び同プログラムを用いた画像認識装置においては、多くの場合、正立状態、即ち、直立した状態の人間における身体各部の位置関係を認識のための特徴点としている。よって監視対象者が非正立状態、即ち、頭部の胴部と脚部の位置関係(上下関係)が直立した状態とは位置関係が異なる場合に、認識の精度が著しく低下する場合がある。しかしながら、座標変換ステップ(S13)において、座標軸を適切に回転させることにより、ベッドに寝ている状態にある監視対象者であっても直立した状態の人間と同様に高い精度で認識することができる。 In the present invention, it is often necessary to monitor the person to be monitored while lying on a bed or the like. In many conventional image recognition programs and image recognition devices using the programs, the positional relationship of each part of the body in an upright state, that is, an upright state is used as a feature point for recognition. Therefore, when the monitored person is in a non-upright state, that is, when the positional relationship between the body of the head and the legs (vertical relationship) is different from that in the upright state, the recognition accuracy may be significantly reduced. .. However, in the coordinate conversion step (S13), by appropriately rotating the coordinate axes, even the monitored person lying on the bed can be recognized with high accuracy like a human being in an upright state. ..

又、検出した監視対象者の特定については、近年、画像認識分野において、認識率の飛躍的向上が注目を集めているディープラーニングを用いた画像認識技術と本発明との組合せが有効である。このような画像認識技術と組合せることにより、監視画像中の個別の監視対象者を自動的に、且つ、極めて高い認識正解率で検出して特定することができる。又、多数の監視対象を例えば、性別や年代別に分類認識して、同時並行的に検出して特定することもできる。 Further, for the identification of the detected monitored person, the combination of the present invention and the image recognition technology using deep learning, which has been attracting attention in the field of image recognition in recent years for the dramatic improvement of the recognition rate, is effective. By combining with such an image recognition technique, it is possible to automatically detect and identify an individual monitored person in a monitored image with an extremely high recognition accuracy rate. It is also possible to classify and recognize a large number of monitoring targets by gender or age, and simultaneously detect and identify them.

尚、ディープランニングを用いた画像認識技術については、例えば、下記に公開されている。
「ディープラーニングと画像認識、オペレーションズ・リサーチ」
(http://www.orsj.o.jp/archive2/or60−4/or60_4_198.pdf)
The image recognition technology using deep running is disclosed below, for example.
"Deep Learning and Image Recognition, Operations Research"
(Http: //www.orsj.o.jp/archive2/or60-4/or60_4_198.pdf)

(装着位置特定ステップ)
装着位置特定ステップ(S15)では、装着位置特定部124が、前記監視対象特定ステップ(S14)において特定された監視対象者の身体に装着されている医療用装身器具の装着位置を特定する。具体的には、例えば、図5に示されるように、監視対象者10(10a、10b、10c)の身体に装着されている医療用装身器具11の装着位置P(Pa、Pb、Pc)を特定する装着位置の特定を行う。この装着位置の特定は、上述した各種の画像解析手段により、機械的に行われるようにすることもできるし、或いは、監視者による任意のマニュアル操作で指定された位置を、装着位置として特定することによることもできる。
(Mounting position identification step)
In the wearing position specifying step (S15), the wearing position specifying unit 124 specifies the wearing position of the medical equipment worn on the body of the monitored person specified in the monitoring target specifying step (S14). Specifically, for example, as shown in FIG. 5, the wearing position P (Pa, Pb, Pc) of the medical equipment 11 worn on the body of the monitored person 10 (10a, 10b, 10c). The mounting position is specified. The identification of the mounting position can be performed mechanically by various image analysis means described above, or the position specified by an arbitrary manual operation by the observer is specified as the mounting position. It can also be done by.

装着位置特定ステップ(S15)を行うための監視者による任意のマニュアル操作とは、例えば、監視者による監視画面上でのタップ操作又はクリック操作等である。装着位置特定ステップ(S15)を監視者によるマニュアル操作によって行うことにより、医療用装身器具の装着位置が布団等で隠蔽されていて画像内での機械的認識が困難な場合も含めて、医療用装身器具の装着位置を正確に特定することができる。 The arbitrary manual operation by the observer for performing the mounting position specifying step (S15) is, for example, a tap operation or a click operation on the monitoring screen by the observer. By performing the mounting position identification step (S15) manually by the observer, medical treatment is performed even when the mounting position of the medical equipment is hidden by a futon or the like and mechanical recognition in the image is difficult. It is possible to accurately identify the mounting position of the equipment.

(動作認識ステップ)
動作認識ステップ(S16)では、動作認識部125が、監視対象特定ステップ(S14)において特定した監視対象者の動作を認識する。この動作認識は、公知の各種の画像解析方法によることができる。動作認識ステップS16を行うための画像解析方法は特定の方法に限定されないが、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部と、骨格抽出部が抽出した特徴点の3次元空間内における位置を特定する特徴点位置特定部と、を備えなる動作認識部125によって行われる動作認識方法によることが好ましい。以下、動作認識ステップS16が、上記の骨格抽出部及び特徴点位置特定部を備える動作認識部125によって行われる場合の実施形態について、具体的に説明する。
(Motion recognition step)
In the motion recognition step (S16), the motion recognition unit 125 recognizes the motion of the monitored person specified in the monitoring target specifying step (S14). This motion recognition can be performed by various known image analysis methods. The image analysis method for performing the motion recognition step S16 is not limited to a specific method, but the skeleton extraction unit for extracting the skeleton of the monitored person composed of skeleton lines connecting a plurality of feature points and the skeleton extraction unit It is preferable to use the motion recognition method performed by the motion recognition unit 125 including the feature point position specifying unit for specifying the position of the extracted feature points in the three-dimensional space. Hereinafter, an embodiment in which the motion recognition step S16 is performed by the motion recognition unit 125 including the skeleton extraction unit and the feature point position specifying unit will be specifically described.

図7は、骨格抽出部及び特徴点位置特定部を備える動作認識部125によって、監視対象領域空間内での監視対象者の動作(身体各部の位置及び動き)が認識されている状態を示す図である。ここでは、ベッドに横臥している監視対象者10の姿勢や視線方向eが、動作認識部125によって認識されている。このように、骨格抽出部を備える動作認識部125は、監視対象者10の骨格10´を抽出することができる。ここで、本明細書における、監視対象者の「骨格」とは、監視対象者の複数の特徴点とこれらを連接してなる線状の図形である。 FIG. 7 is a diagram showing a state in which the motion (position and movement of each part of the body) of the monitored person in the monitored area space is recognized by the motion recognizing unit 125 including the skeleton extraction unit and the feature point position specifying unit. Is. Here, the posture and the line-of-sight direction e of the monitored person 10 lying on the bed are recognized by the motion recognition unit 125. In this way, the motion recognition unit 125 including the skeleton extraction unit can extract the skeleton 10'of the monitored person 10. Here, in the present specification, the "skeleton" of the monitored person is a linear figure formed by connecting a plurality of feature points of the monitored person.

図7に示すような、監視対象者の骨格の抽出は、具体的には、従来公知の様々な手法の何れか、又は、それらを組合せて行うことができる。一例として、下記文献に開示されている「OpenPose」と称される技術を用いることにより、2次元の監視画像から「人」の骨格を抽出することができる。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
The extraction of the skeleton of the monitored person as shown in FIG. 7 can be specifically performed by any of various conventionally known methods or a combination thereof. As an example, the skeleton of a "human" can be extracted from a two-dimensional surveillance image by using a technique called "OpenPose" disclosed in the following document.
"Zhe Cao et al. Realtime Multi-Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017"

例えば、上述の「OpenPose」を用いることにより、監視対象者の複数の特徴点が連接されてなる骨格を抽出することが可能である。そして、これら各特徴点の「監視対象領域空間内における位置」を、例えば、上記の座標設定ステップによって予め設定されている座標を用いることによって特定し、特定された全ての特徴点の位置、速度を解析することによって、視線方向等も含めた監視対象者のあらゆる動作(身体各部の位置及び動き)を認識することができる。 For example, by using the above-mentioned "OpenPose", it is possible to extract a skeleton formed by connecting a plurality of feature points of a monitored person. Then, the "position in the monitored area space" of each of these feature points is specified by using, for example, the coordinates preset by the above coordinate setting step, and the positions and velocities of all the specified feature points are specified. By analyzing the above, it is possible to recognize all movements (positions and movements of each part of the body) of the monitored person including the direction of the line of sight.

(対応要否判定ステップ)
対応要否判定ステップ(S17)では、対応要否判定部127が、監視対象者における医療用装身器具の装着位置と、当該監視対象者の動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定を行う。又、演算処理部120が出血検知部126を備える場合には、対応要否判定部127は、出血に係る情報を要否判定の判断材料とすることができる。
(Correspondence necessity judgment step)
In the response necessity determination step (S17), the response necessity determination unit 127 determines whether or not the combination of the wearing position of the medical equipment in the monitored person and the operation of the monitored person is a specific combination. Judgment of necessity of correspondence is performed. Further, when the arithmetic processing unit 120 includes the bleeding detection unit 126, the response necessity determination unit 127 can use the information related to the bleeding as the determination material for the necessity determination.

対応要否判定は、装着位置特定部124及び動作認識部125によって取得した装着位置Pと監視対象者の動作との組合せについて、予め各種の記憶手段に登録されている評価基準と照合することによって行われる。図8に例示するように、視線方向、手の動き、出血、それぞれに係る取得情報から、自己抜去の発生を未然に若しくは速やかに認知して対応の要否を判定することができる。 The response necessity determination is made by collating the combination of the mounting position P acquired by the mounting position specifying unit 124 and the motion recognition unit 125 with the motion of the monitored person with the evaluation criteria registered in advance in various storage means. Will be done. As illustrated in FIG. 8, the occurrence of self-extraction can be recognized in advance or promptly from the acquired information related to the line-of-sight direction, hand movement, and bleeding, and the necessity of countermeasures can be determined.

対応要否判定ステップ(S17)において、対応要否判定部127が、監視対象者の動作等から対応が必要であると判定した場合(S17、Yes)には、対応要求通知出力ステップ(S18)へ進み、監視対象者の動作等から対応が必要ではないと判定した場合(S17、No)には、監視撮影ステップ(S12)へ戻る。 In the response necessity determination step (S17), when the response necessity determination unit 127 determines that the response is necessary from the operation of the monitored person (S17, Yes), the response request notification output step (S18) If it is determined from the operation of the monitored person that no action is required (S17, No), the process returns to the monitoring shooting step (S12).

(対応要求通知出力ステップ)
対応要求通知出力ステップ(S18)では、演算処理部120が、監視対象者に対する対応が必要であると判定した場合に、対応要求通知を対応要求通知出力部130に出力する。対応要求通知の形式は監視者20がどの監視対象者に対して対応が必要であるのかを識別できる形式であれば特定の形式に限定されない。監視対象者を他の対象から区別する特定の色の囲み枠線、動作の状態を認識可能な当該監視対象者の骨格情報、対応を必要としていることを示すサイン(光の点滅や警告音等)等が監視者20の保持する、対応要求通知出力部130から出力されることが好ましい。
(Response request notification output step)
In the response request notification output step (S18), when the arithmetic processing unit 120 determines that it is necessary to respond to the monitored person, the response request notification is output to the response request notification output unit 130. The format of the response request notification is not limited to a specific format as long as the observer 20 can identify which monitoring target person needs to respond. A box with a specific color that distinguishes the monitored person from other targets, skeletal information of the monitored person who can recognize the state of operation, and a sign indicating that a response is required (blinking light, warning sound, etc.) ) Etc. are preferably output from the response request notification output unit 130 held by the observer 20.

尚、対応要求通知出力ステップ(S18)では、演算処理部120が、監視を終了するか否かを判定する。監視終了は、例えば、監視終了の命令が入力された場合に終了と判定される。終了する場合(S19、Yes)には、監視動作を終了し、それ以外の場合(S19、No)には、監視撮影ステップ(S12)へ戻り、監視を継続する。 In the response request notification output step (S18), the arithmetic processing unit 120 determines whether or not to end the monitoring. The end of monitoring is determined to be the end when, for example, an instruction to end monitoring is input. When it ends (S19, Yes), the monitoring operation ends, and in other cases (S19, No), the process returns to the monitoring shooting step (S12) and the monitoring is continued.

100 自己抜去監視システム
110 撮影部(監視カメラ)
111 撮像素子
112 撮影レンズ
120 演算処理部
121 座標設定部
122 座標変換部
123 監視対象特定部
124 装着位置特定部
125 動作認識部
126 対応要否判定部
130 対応要求通知出力部(携帯端末)
210 監視対象者滞在エリア(病室)
220 監視者滞在エリア
10(10A) 監視対象者
11 医療用装身器具
P 装着位置
20 監視者
S11 座標設定ステップ
S12 監視撮影ステップ
S13 座標変換ステップ
S14 監視対象特定ステップ
S15 装着位置特定ステップ
S16 動作認識ステップ
S17 対応要否判定ステップ
S18 対応要求通知出力ステップ
100 Self-extraction monitoring system 110 Imaging unit (surveillance camera)
111 Image sensor 112 Imaging lens 120 Arithmetic processing unit 121 Coordinate setting unit 122 Coordinate conversion unit 123 Monitoring target identification unit 124 Mounting position identification unit 125 Motion recognition unit 126 Correspondence necessity determination unit 130 Correspondence request notification output unit (mobile terminal)
210 Monitored person stay area (hospital room)
220 Observer stay area 10 (10A) Observer 11 Medical equipment P Wearing position 20 Observer S11 Coordinate setting step S12 Surveillance shooting step S13 Coordinate conversion step S14 Monitoring target identification step S15 Wearing position identification step S16 Motion recognition step S17 Correspondence necessity judgment step S18 Correspondence request notification output step

Claims (10)

医療用装身器具の自己抜去監視システムであって、
監視対象者を撮影する撮影部と、
前記撮影部が撮影した監視画像に設定されている座標軸を任意の角度で回転させる座標変換を行う座標変換部と、
前記監視画像中の監視対象者を特定する監視対象特定部と、
前記監視対象特定部によって特定された監視対象者の身体に装着されている前記医療用装身器具の装着位置を特定する装着位置特定部と、
前記監視対象特定部によって特定された監視対象者の動作を認識する動作認識部と、
前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定部と、
前記対応要否判定部によって対応が必要であると判定された場合に、対応要求通知を出力する対応要求通知出力部と、を備える、
自己抜去監視システム。
A self-removal monitoring system for medical equipment
The shooting department that shoots the person to be monitored,
A coordinate conversion unit that performs coordinate conversion that rotates the coordinate axes set in the surveillance image captured by the imaging unit at an arbitrary angle, and a coordinate conversion unit.
A monitoring target identification unit that identifies a monitoring target person in the monitoring image,
A mounting position specifying unit that specifies the mounting position of the medical equipment worn on the body of the monitored person specified by the monitoring target specifying unit,
An operation recognition unit that recognizes the operation of the monitored person specified by the monitoring target identification unit,
A response necessity determination unit that determines the necessity of correspondence depending on whether or not the combination of the mounting position and the operation is a specific combination, and
A response request notification output unit that outputs a response request notification when it is determined by the response necessity determination unit that a response is required is provided.
Self-extraction monitoring system.
前記対応要求通知出力部は、前記監視画像を表示する監視画面を有し、
前記装着位置特定部は、監視者が、前記監視画面へのタップ操作又は前記監視画面上でのクリック操作によって指定した位置を、前記医療用装身器具の装着位置として特定する、
請求項1に記載の自己抜去監視システム。
The response request notification output unit has a monitoring screen for displaying the monitoring image.
The mounting position specifying unit identifies a position designated by the observer by a tap operation on the monitoring screen or a click operation on the monitoring screen as a mounting position of the medical equipment.
The self-extraction monitoring system according to claim 1.
前記動作認識部は、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部と、前記骨格抽出部が抽出した前記特徴点の前記3次元空間内における位置を特定する特徴点位置特定部と、を含んでなり、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、
請求項1又は2に記載の自己抜去監視システム。
The motion recognition unit includes a skeleton extraction unit that extracts the skeleton of a monitored person composed of skeleton lines connecting a plurality of feature points, and a position of the feature points extracted by the skeleton extraction unit in the three-dimensional space. The movement of the monitored person is recognized based on the information related to the fluctuation of the position of the feature point, which includes the feature point position specifying unit for specifying the feature point.
The self-extraction monitoring system according to claim 1 or 2.
前記動作認識部は、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知部を、更に備え、
前記対応要否判定部は、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定する、
請求項1から3の何れかに記載の自己抜去監視システム。
The motion recognition unit further includes a line-of-sight direction detection unit that detects the line-of-sight direction of the monitored person in the surveillance image.
The response necessity determination unit determines that a response is necessary when the relative fluctuation amount and fluctuation speed in the line-of-sight direction with respect to the visual direction of the mounting position are a predetermined fluctuation amount and fluctuation speed.
The self-extraction monitoring system according to any one of claims 1 to 3.
前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知部を、更に備え、
前記対応要否判定部は、前記出血検知部が所定量以上の血液の流出を検知した場合にも、対応が必要であると判定する、
請求項1から4の何れかに記載の自己抜去監視システム。
A bleeding detection unit that detects blood outflow from a change in color around the mounting position in the monitoring image is further provided.
The response necessity determination unit determines that a response is necessary even when the bleeding detection unit detects an outflow of blood in a predetermined amount or more.
The self-extraction monitoring system according to any one of claims 1 to 4.
医療用装身器具の自己抜去監視方法であって、
撮影部が監視対象者を撮影する監視撮影ステップと、
撮影部が撮影した監視画像に設定される座標軸を任意の角度で回転させる座標変換ステップと、
監視対象特定部が、前記監視撮影ステップにおいて撮影した監視画像中の監視対象者を特定する監視対象特定ステップと、
装着位置特定部が、前記監視対象特定ステップにおいて特定された監視対象者の身体に装着されている医療用装身器具の装着位置を特定する装着位置特定ステップと、
動作認識部が、前記監視対象特定ステップにおいて特定された前記監視対象者の動作を認識する動作認識ステップと、
対応要否判定部が、前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定ステップと、
対応要求通知出力部が、前記対応要否判定ステップにおいて対応が必要であると判定された場合に対応要求通知を出力する対応要求通知出力ステップと、
を含んでなり、
前記監視対象特定ステップにおいては、前記座標軸の回転中に前記監視画像中において正立状態にない監視対象を特定する、自己抜去監視方法。
It is a self-removal monitoring method for medical equipment.
A surveillance shooting step in which the shooting department shoots the monitored person,
A coordinate conversion step that rotates the coordinate axes set for the surveillance image captured by the imaging unit at an arbitrary angle,
The monitoring target identification unit identifies the monitoring target person in the monitoring image captured in the monitoring shooting step, and the monitoring target identification step.
The wearing position specifying step specifies the wearing position of the medical equipment worn on the body of the monitored person specified in the monitoring target specifying step, and the wearing position specifying step.
A motion recognition step in which the motion recognition unit recognizes the motion of the monitored person specified in the monitoring target identification step, and a motion recognition step.
A response necessity determination step in which the response necessity determination unit determines the necessity of correspondence depending on whether or not the combination of the mounting position and the operation is a specific combination.
A response request notification output step that outputs a response request notification when the response request notification output unit determines that a response is required in the response necessity determination step,
Including,
In the monitoring target identification step, a self-extraction monitoring method for identifying a monitoring target that is not in an upright state in the monitoring image while the coordinate axes are rotating.
前記対応要求通知出力部は、前記監視画像を表示する監視画面を有し、
前記装着位置特定ステップにおいては、監視者が、前記監視画面へのタップ操作又は前記監視画面上でのクリック操作によって指定した位置が、前記装着位置として特定される、
請求項6に記載の自己抜去監視方法。
The response request notification output unit has a monitoring screen for displaying the monitoring image.
In the mounting position specifying step, a position designated by the observer by a tap operation on the monitoring screen or a click operation on the monitoring screen is specified as the mounting position.
The self-extraction monitoring method according to claim 6.
前記動作認識ステップにおいては、複数の特徴点を連接する骨格線で構成される前記監視対象者の骨格を抽出する骨格抽出処理と、前記骨格抽出処理によって抽出された前記特徴点の前記3次元空間内における位置を特定する特徴点位置特定処理とが行われ、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、
請求項6又は7に記載の自己抜去監視方法。
In the motion recognition step, a skeleton extraction process for extracting the skeleton of the monitored person composed of skeleton lines connecting a plurality of feature points and the three-dimensional space of the feature points extracted by the skeleton extraction process. The feature point position specifying process for specifying the position in the inside is performed, and the operation of the monitored person is recognized based on the information related to the fluctuation of the position of the feature point.
The self-extraction monitoring method according to claim 6 or 7.
前記動作認識ステップにおいては、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知処理が、更に行われ、
前記対応要否判定ステップにおいては、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定される、
請求項6から8の何れかに記載の自己抜去監視方法。
In the motion recognition step, a line-of-sight direction detection process for detecting the line-of-sight direction of the monitored person in the monitoring image is further performed.
In the response necessity determination step, it is determined that correspondence is necessary when the relative fluctuation amount and fluctuation speed in the line-of-sight direction with respect to the visual direction of the mounting position are a predetermined fluctuation amount and fluctuation speed. ,
The self-extraction monitoring method according to any one of claims 6 to 8.
前記動作認識ステップにおいては、前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知処理が、更に行われ、
前記対応要否判定ステップにおいては、前記動作認識部が所定量以上の血液の流出を検知した場合に、対応が必要であると判定される、
請求項6から9の何れかに記載の自己抜去監視方法。
In the motion recognition step, a bleeding detection process for detecting the outflow of blood from a change in color around the mounting position in the monitoring image is further performed.
In the response necessity determination step, when the motion recognition unit detects the outflow of blood in a predetermined amount or more, it is determined that the response is necessary.
The self-extraction monitoring method according to any one of claims 6 to 9.
JP2019120291A 2019-06-27 2019-06-27 Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories Active JP6583953B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019120291A JP6583953B1 (en) 2019-06-27 2019-06-27 Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019120291A JP6583953B1 (en) 2019-06-27 2019-06-27 Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories

Publications (2)

Publication Number Publication Date
JP6583953B1 JP6583953B1 (en) 2019-10-02
JP2021005333A true JP2021005333A (en) 2021-01-14

Family

ID=68095306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019120291A Active JP6583953B1 (en) 2019-06-27 2019-06-27 Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories

Country Status (1)

Country Link
JP (1) JP6583953B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325141B (en) * 2020-02-18 2024-03-26 上海商汤临港智能科技有限公司 Interactive relationship identification method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019777A (en) * 2013-07-18 2015-02-02 株式会社東芝 Body position determination support device and medical image diagnostic apparatus
JP2015066071A (en) * 2013-09-27 2015-04-13 富士通株式会社 Monitoring program, monitoring device, monitoring method
WO2016199749A1 (en) * 2015-06-10 2016-12-15 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
JP2019020993A (en) * 2017-07-14 2019-02-07 オムロン株式会社 Watching support system and method for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019777A (en) * 2013-07-18 2015-02-02 株式会社東芝 Body position determination support device and medical image diagnostic apparatus
JP2015066071A (en) * 2013-09-27 2015-04-13 富士通株式会社 Monitoring program, monitoring device, monitoring method
WO2016199749A1 (en) * 2015-06-10 2016-12-15 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
JP2019020993A (en) * 2017-07-14 2019-02-07 オムロン株式会社 Watching support system and method for controlling the same

Also Published As

Publication number Publication date
JP6583953B1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
WO2020189313A1 (en) Monitoring device, monitoring system, and monitoring method
RU2676147C2 (en) Automatic continuous patient movement monitoring
JP6655727B2 (en) Monitoring system
KR102052883B1 (en) Prediction system using a thermal imagery camera and fall prediction method using a thermal imagery camera
US9504426B2 (en) Using an adaptive band-pass filter to compensate for motion induced artifacts in a physiological signal extracted from video
JP2020182146A (en) Monitoring device and monitoring method
US11666247B2 (en) Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up
JP2015046732A (en) Image processing apparatus and image processing method
US20170315774A1 (en) Method and system of communication for use in hospitals
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
CN106793980B (en) Patient monitoring system and method
JP6625219B2 (en) Device, method and computer program product for continuous monitoring of vital signs
US20180192923A1 (en) Bed exit monitoring system
WO2019003859A1 (en) Monitoring system, control method therefor, and program
CN115116133A (en) Abnormal behavior detection system and method for monitoring solitary old people
WO2015016933A1 (en) Infectious disease warning system with security and accountability features
KR20180096038A (en) Crime prediction system based on moving behavior pattern
JP2020145595A (en) Viewing or monitoring system, or program
CN109558004B (en) Control method and device for human body auxiliary robot
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
JP6583953B1 (en) Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories
JP2018533240A (en) Occupancy detection
JP6621127B1 (en) Self-extraction monitoring system for medical accessories and self-extraction monitoring method for medical accessories
WO2017029841A1 (en) Image analyzing device, image analyzing method, and image analyzing program
WO2020241034A1 (en) Monitoring system and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190627

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190829

R150 Certificate of patent or registration of utility model

Ref document number: 6583953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250