JP2024133575A - Visual inspection support system and visual inspection support method - Google Patents
Visual inspection support system and visual inspection support method Download PDFInfo
- Publication number
- JP2024133575A JP2024133575A JP2024107312A JP2024107312A JP2024133575A JP 2024133575 A JP2024133575 A JP 2024133575A JP 2024107312 A JP2024107312 A JP 2024107312A JP 2024107312 A JP2024107312 A JP 2024107312A JP 2024133575 A JP2024133575 A JP 2024133575A
- Authority
- JP
- Japan
- Prior art keywords
- development
- fuel tank
- visual inspection
- inspection support
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011179 visual inspection Methods 0.000 title claims description 39
- 238000000034 method Methods 0.000 title claims description 15
- 238000011161 development Methods 0.000 claims abstract description 150
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 238000007689 inspection Methods 0.000 abstract description 39
- 230000002159 abnormal effect Effects 0.000 abstract description 8
- 239000002828 fuel tank Substances 0.000 description 100
- 238000010586 diagram Methods 0.000 description 54
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 24
- 238000013461 design Methods 0.000 description 21
- 230000005856 abnormality Effects 0.000 description 16
- 238000005259 measurement Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004445 quantitative analysis Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Abstract
【課題】現実の要求や制限により適合した対象物検査を支援できる外観検査支援システムを提供すること。【解決手段】対象物の外観を検査する外観検査支援システム1は、対象物が表示される複数の画像を取得する画像取得部11と、対象物の展開図を生成し、前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加える展開図生成部14と、画像に基づいて対象物の所定の状態が現れる展開図上の所定の領域(例えば、異常領域)を検出する状態検出部15とを備え、展開図と所定の領域に関する情報とを表示させる。このシステム1は、例えば、ユーザ端末と通信可能なサーバコンピュータに実装される。【選択図】図1[Problem] To provide an appearance inspection support system capable of supporting object inspection more suited to real-world requirements and limitations. [Solution] An appearance inspection support system 1 for inspecting the appearance of an object comprises an image acquisition unit 11 for acquiring multiple images showing the object, a development drawing generation unit 14 for generating a development drawing of the object and adding auxiliary information to the development drawing that indicates the positional relationship between the development drawing and the object, and a state detection unit 15 for detecting a predetermined area (e.g., an abnormal area) on the development drawing in which a predetermined state of the object appears based on the image, and displays the development drawing and information about the predetermined area. This system 1 is implemented, for example, in a server computer capable of communicating with a user terminal. [Selected Figure] FIG.
Description
本発明は、人体よりサイズの大きい人工物又は自然物の外観検査を支援するためのコンピュータを利用したシステム及び方法に関する。 The present invention relates to a computer-based system and method for assisting in the visual inspection of man-made or natural objects larger than the human body.
例えば、巨大な貯蔵タンクが林立するタンクヤードでは、各タンクの塗装の劣化や腐食などの異常状態を人が外観観察(例えば、目視と携帯カメラによる写真撮影)をすることによって調べる。異常部分の面積がある程度よりも広い範囲である場合には、タンクには修繕が施される。 For example, in a tank yard filled with huge storage tanks, personnel inspect each tank's exterior (for example, by visual inspection and photographing with a mobile phone camera) to check for abnormalities such as deterioration of the paint or corrosion. If the area of the abnormal part is larger than a certain extent, the tank is repaired.
このような大型の対象物の検査では、人が対象物の周囲を歩きまわって異常を見つけて写真撮影する。そして、撮影された沢山の写真を用いて検査結果レポートを作成するなどの作業に要する労力と時間は相当に大きい。また、タンクの高い部分のように、人が近づいて観察することが難しい個所も少なくない。 When inspecting such large objects, a person must walk around the object to find any abnormalities and take photographs. The work of creating an inspection result report using the many photographs taken requires a considerable amount of time and effort. In addition, there are many areas, such as the high parts of the tank, that are difficult for a person to get close to and observe.
こうした問題の解決の一助として、無人航空機の利用がある。例えば特許文献1には、カメラを備える飛行装置により撮影された検査対象物の複数の画像に基づいて、検査対象物の3次元モデルを生成するシステムが開示されている。このシステムは、上記複数の画像に基づいて検査対象の異常を検出し、検出した異常の3次元座標系における位置を特定し、異常の位置に対応付けて画像を記憶し、上記3次元モデル上での任意の位置(座標)の指定を受け付け、指定された位置に対応する画像を特定して表示する。
One way to help solve these problems is to use unmanned aerial vehicles. For example,
特許文献1に開示されたシステムによれば、検査物の複数の画像に基づいて生成される3次元モデル上に、検出した異常個所をマッピングする。これにより、異常個所に対応する写真画像を見ることができる。
According to the system disclosed in
しかしながら、対象物の修繕の要否又は費用見積もりなどを判断する場合には、対象物の異常部分が対象物のどの位置に存在し、その面積の値又はその割合がいくつであるかというような、異常部分の定量的な情報が特定されることが求められる。すなわち、その定量的情報がレポートなどの書面上に図面や文を用いて的確に表現されることが求められる。この目的のためには、ディスプレイ画面に表示された3次元モデル上で異常個所の写真画像が見れるだけでは不十分である。 However, when judging whether an object needs repair or to estimate the cost, it is necessary to identify quantitative information about the abnormal part, such as where on the object the abnormal part is located and what its area value or percentage is. In other words, this quantitative information needs to be accurately expressed in a written document such as a report using drawings and text. For this purpose, it is not enough to simply be able to see a photographic image of the abnormal part on a 3D model displayed on a display screen.
また、無人飛行体での写真撮影が制限される対象物が存在する。例えば、ある貯蔵タンクの隣に近接して別の貯蔵タンクが存在し、両タンクに挟まれた領域が無人飛行体の飛行には狭すぎる場合、その領域に面したタンク部分を無人飛行体で撮影することが難しい。あるいは、安全上の理由からその上空に無人飛行体を飛行させることが禁じられている対象物の場合、対象物の屋根をその真上から無人飛行体で撮影することができない。 In addition, there are objects for which it is restricted to photograph them with unmanned aerial vehicles. For example, if a storage tank is located close to another tank and the area between the two tanks is too narrow for an unmanned aerial vehicle to fly, it is difficult to photograph the part of the tank facing that area with an unmanned aerial vehicle. Or, if it is prohibited to fly an unmanned aerial vehicle above an object for safety reasons, it is not possible to photograph the roof of the object from directly above it with an unmanned aerial vehicle.
本発明は、上記の問題に鑑みてなされたものであり、その一つの目的は、現実の要求や制限に、より適応した対象物検査を支援できる外観検査支援システムを提供することである。 The present invention was made in consideration of the above problems, and one of its objectives is to provide a visual inspection support system that can support object inspection that is more adapted to real-world requirements and limitations.
一実施形態にかかる外観検査支援システムは、対象物が表示される複数の画像を取得する画像取得部と、対象物の展開図を生成し、展開図と対象物との位置関係を示す補助情報を展開図に加える展開図生成部と、画像に基づいて対象物の所定の状態が現れる展開図上の所定の領域を検出する状態検出部と、展開図と所定の領域に関する情報との表示を出力する手段とを備える。補助情報は、前記対象物の方向を示す情報であってもよい。 The visual inspection support system according to one embodiment includes an image acquisition unit that acquires a plurality of images in which an object is displayed, a development generation unit that generates a development of the object and adds auxiliary information to the development that indicates the positional relationship between the development and the object, a state detection unit that detects a predetermined area on the development where a predetermined state of the object appears based on the image, and a means for outputting a display of the development and information about the predetermined area. The auxiliary information may be information indicating the orientation of the object.
図1は、一実施形態にかかる外観検査支援システム1の概略図である。外観検査支援システム1は、「対象物」の一例としての燃料タンクの外観検査を支援する。なお、外観検査支援システム1は、燃料タンクの外観検査に限らず、橋梁、船舶又は岩壁等、他の種類の物体の外観検査の支援をしてもよい。すなわち、外観検査支援システム1は、例えば人体よりも大きい人工物又は自然物について、「所定の状態」の一例としての錆の発生の有無や程度、あるいは、損傷や変形や変質などの異常の有無や程度について、外観観察を通して検査する作業を支援する。
Figure 1 is a schematic diagram of an appearance
外観検査支援システム1は、例えば、「移動体」の一例としてのカメラ24を有する無人航空機2(以下、ドローン2と示す場合がある)と「携帯可能な撮影装置」の一例としての、ユーザに携行される携帯カメラ3の少なくとも一方から取得された、燃料タンクが表示される複数の画像に基づいて、外観検査を支援する。外観検査支援システム1は、例えば、ユーザに使用されるユーザ端末4と双方向通信可能に接続され、ユーザ端末4を介して(または、ユーザ端末4を介さずに)、ドローン2と携帯カメラ3のいずれか一方又は双方から、対象物を撮影した複数の画像を取得して、取得した対象物の複数の画像を、その対象物に関連付けて外観検査支援システム1内に登録する。
The visual
なお、ドローン2は、空中を飛行する移動体だけに限らず、燃料タンクつまり対象物を撮影する機能を備えた他の種類の移動体であってもよい。他の種類の移動体は、例えば、固体表面上を走行する装置、液体面上を航行する装置又は液中を潜航する装置、さらには、人工衛星のように宇宙空間を飛翔するもの等であり得る。さらには、ドローン2に代えて、または、それと組み合わせて、対象物を撮影する機能をもつ有人の移動体や、対象物の近くに設置された固定カメラのように特定の場所や領域に配置された撮影装置等も、対象物の画像を得るために使用されてよい。以下では、ドローン2が空中を飛行するものであって、燃料タンクの発錆状況の外観検査に使用される場合を例にとり、説明する。
The
ドローン2は、燃料タンクの周囲又は上空を飛行することにより、燃料タンクの外観を撮影する。ドローン2は、例えば、飛行装置21と、位置測定装置22と、方位測定装置23と、カメラ24とを内蔵、搭載又は付属する。飛行装置21は、ドローン2を飛行させ、かつその飛行を制御する。
The
位置測定装置22は、ドローン2又はカメラ24の3次元位置情報を測定する。3次元位置情報は、例えば、緯度、経度又は高度等の3次元地理座標である。位置測定装置22には、例えば、GNSS(Global Navigation Satellite System)又はRTK(Real Time Kinematic)が用いられてもよい。なお、位置測定装置22には、GNSS又はRTKが用いられる装置に限られない。
The
方位測定装置は、カメラ24の視線(光軸)又はドローン2の3次元方位を測定する。3次元方位は、例えば、ロール角、ピッチ角及びヨー角によって設定される。方位測定装置23は、例えば、ジャイロセンサである。なお、方位測定装置23は、ジャイロセンサに限られない。
The orientation measurement device measures the line of sight (optical axis) of the
カメラ24は、燃料タンクの外観を撮影する。本実施例において、カメラ24によって撮影される画像7(1),7(2)(図3参照)は、燃料タンクが表示される静止画を一例にあげて説明するが、撮影される画像7(1),7(2)は静止画に限らず動画でもよい。画像7(1),7(2)は、撮影される動画のうちの一つの静止画として設定されてもよい。以下、画像7(1),7(2)を特に区別しない場合には、画像7と示す場合がある。
Camera 24 captures the exterior of the fuel tank. In this embodiment, images 7(1) and 7(2) (see FIG. 3) captured by
携帯カメラ3は、手動で燃料タンクの外観を撮影するために使用される。携帯カメラ3は、例えば、写真撮影装置31と、位置測定装置32と、方位測定装置33とを内蔵、搭載又は付属する。写真撮影装置31は、燃料タンクの外観を撮影し、画像7を保存する。写真撮影装置31は、例えば、レンズ又はシャッター等のカメラ部品ある。
The
位置測定装置32は、携帯カメラ3の3次元位置を測定する。方位測定装置33は、携帯カメラ3の視線(光軸)の3次元方位を測定する。3次元方位は、例えば、水平面上の方位角と垂直面上の方位角とを含む。
The
携帯カメラ3は、ドローン2に代えて、又は、ドローン2よる撮影の補助として使用されてよい。例えば、ドローン2の飛行が困難又は禁止される場所があり得る。そのような場所は、例えば、燃料タンクとそれに近接する建造物との間の狭い空間、又は、安全確保のためにドローン2の飛行が制限される領域等の場所である。そのような場所で携帯カメラ3を用いた撮影が行われ得る。また、ドローン2の飛行可能な場所からは物陰に隠れて撮影できない部分が燃料タンクにある場合、その部分の撮影に携帯カメラ3が用いられてよい。
The
すなわち、携帯カメラ3は、ドローン2が撮影可能な燃料タンクの外観の範囲とは異なる他の範囲を撮影することによって、外観検査するのに不足する画像7を補ってもよい。なお、ドローン2からの画像7のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、携帯カメラ3は必ずしも使用されなくてもよい。携帯カメラ3のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、ドローン2は必ずしも使用されなくてもよい。
That is, the
ユーザ端末4は、外観検査支援システム1のユーザ(燃料タンクなどの対象物の外観検査を行う者、対象物の写真撮影を行う者、外観検査の結果を受け取り利用する者、等)が使用する情報処理通信端末である。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット端末等である。なお、ユーザ端末4は、パーソナルコンピュータ、スマートフォン、タブレット端末に限られず、ドローン2又は携帯カメラ3と一体的に形成される装置でもよい。
The
ユーザ端末4は、ドローン2及び/又は携帯カメラ3から、燃料タンクの多数の画像を取得する。取得された各画像7には、画像それ自体のデータと、それぞれの画像7に対応する付属データとが含まれる。
The
各画像7の付属データには、例えば、その画像7についての外部標定要素と内部標定要素とが含まれる。外部標定要素のデータには、例えば、燃料タンクをドローン2又は携帯カメラ3が撮影した際における、ドローン2、カメラ24又は携帯カメラ3の3次元位置を表したパラメータと、ドローン2、カメラ24又は携帯カメラ3の3次元方位を表したパラメータ等が含まれる。
The associated data for each
内部標定要素には、例えば、カメラ24又は携帯カメラ3の、焦点距離のパラメータ、及び/又はレンズ歪み係数などのパラメータ等が含まる。ユーザ端末4は、取得された多数の画像7を外観検査支援システム1へと送る。
The internal orientation elements include, for example, the focal length parameters of the
さらに、ユーザ端末4は、表示装置41を備える。ユーザ端末4は、外観検査支援システム1に含まれる後述の複数の機能11~17を制御するためのGUI(Graphical User Interface)を表示装置41に表示させる。
Furthermore, the
外観検査支援システム1は、ユーザ端末4からの燃料タンクを撮影した多数の画像7に基づいて、燃料タンクの「所定の領域」の一例としての発錆個所を説明するレポートを生成する。外観検査支援システム1は、例えば、データベース10と、画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17とを備える。なお、図中において、「部」を省略して示す場合がある。
The visual
外観検査支援システム1は、典型的には、図2に示すように、ストレージ(記憶部)61、CPU62、メモリ63及び通信部64を含む。ストレージ61には、CPU62に実行されることにより、例えば、データベース10っと画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17としてCPU62を動作させるコンピュータプログラムが記録される。
2, the visual
CPU62は、ストレージ61からメモリ63にロードされた上記コンピュータプログラムを実行することにより、ストレージ61に格納された各種のデータを操作及び加工する。これにより、外観検査支援システム1は機能10~17を実現する。
The
データベース10は、検査対象である1以上の燃料タンクのそれぞれについて、撮影された複数の画像7、並びに、後述される3次元モデル、設計図、単純化モデル、展開図、及びレポートなど、外観検査に利用される各種のデータを、ストレージ6に保存して管理する。データベース10は、他の機能部11~17の各々に対して、各機能部が読み込みを要求するデータを提供し、また、各機能部からその機能が保存を要求するデータを受け取って保存する。
The
画像取得部11は、ユーザ端末4から、ある燃料タンクを撮影した複数(通常は多数)の撮影画像を取得する。画像取得部11は、取得されたその燃料タンクの画像を、その燃料タンクの識別情報に関連付けてデータベース10に登録する。したがって、異なる燃料タンクの画像が、それぞれの燃料タンクに関連付けれてデータベースに10に登録され得る。データベース10に登録された各燃料タンクの多数の画像は、画像3次元モデル生成部12、展開図生成部14及びレポート生成部17などの各種機能に供給され(読み込まれ)得る。
The
3次元モデル生成部12は、ある燃料タンクの複数の撮影画像に基づいて、その燃料タンクの3次元モデル121(例えば、図3に示された三次元モデル121(1)あるいは図4に示された三次元モデル121(2)など)を生成する。3次元モデル生成部12は、生成された燃料タンクの3次元モデル121を、その燃料タンクに関連付けてデータベース10に登録する。登録された3次元モデル121は、展開図生成部14及び/又は状態検出部15等に供給され(読み込まれ)得る。
The three-dimensional
3次元モデル生成部12は、燃料タンクの複数の画像7に基づいて、3次元モデル121の表面に色をつけてもよい。すなわち、3次元モデル生成部12は、画像7を3次元モデル121に投影させることによって、3次元モデル121の表面に画像7に基づく燃料タンクの表面色と実質的に同じ色、これに似た色、又は少なくとも燃料タンクの検出したい発錆個所が肉眼で識別可能な色をつけてもよい。以下、このような色のつけられた3次元モデル121を色付きの3次元モデル121と呼ぶ場合がある。
The three-dimensional
3次元モデル生成部12は、燃料タンクを撮影した画像に基づいて3次元モデル121を生成することに限られない。3次元モデル生成部12は、設計図取得部13から取得した燃料タンクの設計図に基づいて3次元モデル121を生成してもよい。
The three-dimensional
設計図取得部13は、燃料タンクの設計図をユーザ端末4から取得する。設計図取得部13は、燃料タンクの設計図をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された設計図は、3次元モデル生成部12及び/又は展開図生成部14に供給され得る。
The design
展開図生成部14は、データベース10に登録された燃料タンクの3次元モデル121に基づいて、その燃料タンクの3次元形状をそれに近い幾何学的形状に単純化した単純化モデル122(例えば、図3に示された単純化モデル122(1)、図4に示された単純化モデル122(2)、あるいは図5に示された単純化モデル122(3)等)を作成する。さらに展開図生成部14は、その単純化モデル122の表面を展開した平面的な1以上の図から構成される展開図141(例えば、図3又は図4の展開図141(1)、あるいは図5の展開図141(2)等)を生成する。
Based on a
図3に示された例では、屋根が側壁上端から下方へ若干距離下がっている燃料タンクの3次元モデル121(1)に基づいて、単純な円筒形の単純化モデル122(1)が作成される。そして、その単純化モデル121(1)の側壁と屋根をそれぞれ平面図に展開することで、その燃料タンクの展開図141(1)が作成される。他方、図4の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、図3の場合と同様の単純な円筒形の単純化モデル122(2)が作成される。そして、その単純化モデル122(2)から、図3の場合と同様の展開図141(1)が作成される。あるいは、図5の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、円錐形の屋根を持つ単純化モデル122(3)が作成される。そして、その単純化モデル122(3)の側壁と屋根をそれぞれ平面図に展開することで、展開図141(2)が作成される。このように、展開図生成部14は、異なる形状と構成をもつ単純化モデル122を生成して、それぞれの単純化モデル122からその展開図144を生成することができる。なお、図示の例に限られず、他の形状又は構造をもつ単純化モデルと展開図を生成してもよい。
In the example shown in FIG. 3, a simple cylindrical simplified model 122(1) is created based on a three-dimensional model 121(1) of a fuel tank whose roof is slightly lower than the top of the side wall. The side walls and roof of the simplified model 121(1) are then each developed into a plan view to create an expanded view 141(1) of the fuel tank. On the other hand, in the example shown in FIG. 4, a simple cylindrical simplified model 122(2) similar to that in FIG. 3 is created based on a three-dimensional model 121(2) of a fuel tank with a pyramidal roof. The expanded view 141(1) similar to that in FIG. 3 is created from the simplified model 122(2). Alternatively, in the example shown in FIG. 5, a simplified model 122(3) with a conical roof is created based on a three-dimensional model 121(2) of a fuel tank with a pyramidal roof. The side walls and roof of the simplified model 122(3) are then each developed into a plan view to create an expanded view 141(2). In this way, the development
展開図生成部14は、燃料タンクの複数の画像7に基づいて、単純化モデル122に展開図141に色を付与し、その結果として、展開図141に色が付与される。すなわち、展開図生成部14は、単純化モデル122の表面に複数の画像7の対応する画素の色を投影することで、単純化モデル122の表面に、燃料タンクと実質的に同じ色、又は、少なくとも燃料タンクの検出したい発錆個所が肉眼又は自動的な画像処理で識別可能な色を、付与する。このように色が付与された単純化モデル122を展開図141に変換することで、展開図141に上記の色が付与される。
The
以下、展開図生成部14によって色が付与された単純化モデル122と展開図141をそれぞれ、色付き単純化モデル122及び色付きの展開図141と呼ぶ場合がある。展開図生成部14は、燃料タンクの色付き単純化モデル122と色付きの展開図141をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された色付き単純化モデル122と色付きの展開図141は、状態検出部15に供給され得る。
Hereinafter, the
なお、展開図生成部14は、3次元モデル121に基づいて単純化モデル122と展開図141を生成することに限られない。展開図生成部14は、設計図取得部13から取得した設計図に基づいて単純化モデル122と展開図141を生成してもよいし、あるいは、ユーザの手動操作によって単純化モデル122と展開図141を作成してもよい。
The development
展開図生成部14は、複数の画像7に基づいて単純化モデル122と展開図144に色を付与することに限られない。展開図生成部14は、色付きの3次元モデル121に基づいて、単純化モデル122と展開図144に色を付与してもよい。
The unfolded
状態検出部15は、色付きの展開図141に基づいて、燃料タンクの特定状態の個所、例えば所定の異常個所、例えば発錆個所を検出する。すなわち、状態検出部15は、展開図141の表面色から燃料タンクの発錆個所を検出し、その発錆個所を示すために、展開図141に「印」の一例としての錆マーク151(図6参照)を記す。
The
以下、発錆個所が示された展開図141を検出結果展開図152と示す場合がある。状態検出部15は、燃料タンクの検出結果展開図152をその燃料タンクに関連付けてデータベース10に登録する。登録された検出結果展開図152は展開図編集部16へ供給され得る。
Hereinafter, the development diagram 141 showing the rusted areas may be referred to as the detection result development diagram 152. The
なお、状態検出部15は、色付きの展開図141に基づいて発錆個所などの特定状態個所を検出することだけに限られない。対象物の画像7に基づいて、又は、それらの画像7が投影された他のモデル、例えば3次元モデル121あるいは単純化モデル122に基づいて、同検出を行ってもよい。
The
展開図編集部16は、いずれかのユーザ端末4から要求があれば、検出結果展開図152を、それをユーザが編集可能に構成されたGUI(グラフィカル・ユーザ・インタフェース)に組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41へ表示させる。ユーザは、表示装置41上のGUIに表示される検出結果展開図152を編集することにより、検査結果レポートへの掲載に適したレポート用展開図153(図7参照)を作成することができる。
When requested by any of the
図6に例示されるように、検出結果展開図152は燃料タンクの異なる部分をそれぞれ表す複数の2次元図143、144から構成され得る。図6の例示では、一つの2次元図143は燃料タンクの側壁面を表し、別の2次元図144は燃料タンクの屋根面を表している。上述したGUIを操作することで、ユーザは、検出結果展開図152を構成する複数の2次元図143、144の相対位置を編集可能である。例えば、図6に例示された検出結果展開図152の屋根面を表す2次元図144の位置を、図7に例示される位置へ移動させるなどの編集ができる。 As illustrated in FIG. 6, the detection result development diagram 152 may be composed of multiple two-dimensional diagrams 143, 144 each representing a different portion of the fuel tank. In the example of FIG. 6, one two-dimensional diagram 143 represents the sidewall surface of the fuel tank, and another two-dimensional diagram 144 represents the roof surface of the fuel tank. By operating the GUI described above, the user can edit the relative positions of the multiple two-dimensional diagrams 143, 144 that make up the detection result development diagram 152. For example, the position of the two-dimensional diagram 144 representing the roof surface of the detection result development diagram 152 illustrated in FIG. 6 can be moved to the position illustrated in FIG. 7.
また、上述したGUIを操作することによって、例えば、図7に例示された修正ツール8を操作することによって、ユーザは検出結果展開図152上で、状態検出部15によって自動的に検出された錆マーク151を修正することができる。例えば、誤検出された錆マークを削除したり、検出漏れの発錆個所に新たな錆マークを追加したりすることができる。とくに錆は、雨水に溶けて発錆個所の下方の領域まで流れ落ちてその領域を錆色にしていることが多く、そのような領域(例えば、図7に示された錆マーク151の修正ツール8で囲まれた部分)も発錆個所として誤って自動検出されるおそれがある。そこで、人が肉眼で検出結果展開図152を観察して、自動検出結果を修正できることのメリットは大きい。
In addition, by operating the GUI described above, for example, by operating the correction tool 8 illustrated in FIG. 7, the user can correct the rust marks 151 automatically detected by the
展開図編集部16は、検出結果展開図152を編集することで作られたレポート用展開図153に基づいて、発錆個所の定量分析、例えば、燃料タンクの表面積に対する発錆個所の面積の割合の計算等、を行う。展開図編集部16は、燃料タンクのレポート用展開図153と定量分析結果とを、その燃料タンクに関連づけてデータベース10に登録する。登録されたレポート用展開図153と定量分析結果は、レポート生成部17に供給され得る。
The development
レポート生成部17は、展開図編集部16によって生成されたレポート用展開図153と発錆個所の定量分析結果とに基づいて、外観検査結果を表すレポートを生成する。レポート生成部17は、いずれかのユーザ端末4から供給されると、レポートをユーザが編集可能なように構成されたGUI上にそのレポートを組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41に表示させる。レポートには、少なくとも、発錆個所の定量分析の結果と、レポート用展開図153とが自動的に掲載される。
The
レポートを編集できる上記GUI上でユーザによりレポート用展開図153が編集された場合には、レポート生成部17は、展開図編集部16を呼び出してレポート用展開図153を再生成してもよい。レポート生成部17は、再生成されるレポート用展開図153に基づいてレポートを再生成し、再生成されたレポートを表示装置41に表示させてもよい。
When the report development diagram 153 is edited by the user on the GUI that allows editing of the report, the
レポート生成部17は、ユーザ端末4からのユーザの要求に応じて、燃料タンクのユーザにより所望された部位の画像7を表示装置41に表示させたり、その画像7をレポートに加えたりすることができる。すなわち、レポート生成部17は、例えば、GUI上に表示された発錆個所のうちのいずれかがユーザによって選択された場合には、ユーザによって選択された発錆個所の画像7をデータベース10から取得して、そのGUI上に表示することができる。レポート生成部17は、その表示された画像7をレポート中のユーザ所望の位置に加えることができる。
In response to a user request from the
図8は、外観検査支援システム1が行う処理の全体的な流れ図である。
Figure 8 is an overall flow diagram of the processing performed by the visual
ステップS1で、画像取得部11が、いずれかのユーザ端末4から、1以上の検査対象、例えば1以上の燃料タンク、を撮影した複数の画像を取得し、取得した各燃料タンクの複数の画像を、各燃料タンクに関連付けてデータベース10に登録する。
In step S1, the
その後、ステップS2で、いずれかのユーザ端末4からの対象物選択要求を受けて、展開図生成部14が、データベース10にと登録された1以上の検査対象の中から、一つの検査対象、例えば一つの燃料タンクを選択する。その後、ステップS3で、展開図生成部14が、選択された燃料タンクの展開図がデータベース10内に既にあるかどうかを判断する。その判断の結果がYesであれば、制御はステップS5へ進み、Noであれば、制御はステップS4へ進む。
Then, in step S2, upon receiving an object selection request from any of the
ステップS4では、展開図生成部14が、選択された燃料タンクの展開図を作成する。その際、3次元モデル生成部12又は設計図取得部13も、必要に応じて、展開図作成に関与する。ここで作成される展開図は、燃料タンクの画像の色が投影された色付き展開図であってよい。その後、制御はステップS5へ進む。
In step S4, the development
ステップS5では、状態検出部15が、検査対象の燃料タンクの例えば色付き展開図から、異常個所、例えば発錆個所を検出する。その後、ステップS6で、状態検出部15が、検出された異常個所、例えば発錆個所を、その燃料タンクの展開図に投影する(例えば、展開図の発錆個所に錆マークを付ける)。発錆箇所が投影された(錆マークのつけられた)展開図が前述の検出結果展開図である。
In step S5, the
ステップS5の異常個所検出は、ステップS4の展開図作成の前に行われてもよい。その場合、状態検出部15は、燃料タンクの画像7に基づいて、又は、それらの画像7が投影された3次元モデル121に基づいて、異常個所の検出を行なうことができる。
The detection of abnormalities in step S5 may be performed before the creation of the development diagram in step S4. In that case, the
その後、ステップS7で、展開図編集部16が、いずれかのユーザ端末4からの要求に応じて、検出結果展開図をそのユーザ端末4に表示させてユーザに自動的な検査結果を確認させる。そして、そのユーザ端末4に入力されるユーザ操作に応じて、検出結果展開図の編集、及び必要があれば修正を行う。さらに、展開図編集部16が、更なる修正の必要がなくなった検出結果展開図に基づいて、発錆個所の面積や面積比などの定量的な計算を行う。
Then, in step S7, the development
その後、ステップS8で、レポート生成部16が、いずれかのユーザ端末4からの要求に応じて、その燃料タンクの検出結果展開図及び必要あれば特定個所の画像やその他の登録データを用いて、その燃料タンクの検査結果を表すレポートを作成する。
Then, in step S8, in response to a request from any of the
図9は、図3のステップS4の展開図作成の流れを示す。 Figure 9 shows the flow of creating an unfolded view in step S4 of Figure 3.
S11で、ユーザがユーザ端末4から展開図生成部14に対して作成方法を選択する。ステップS12で、選択された作成方法が手動か自動かが判断され、前者であれば制御はステップS13へ進む。
In step S11, the user selects a creation method from the
ステップS13では、ユーザがユーザ端末4から展開図生成部14に対して、単純化モデルの諸元を指定する。その諸元には、例えば、形状種(例えば円筒、球、直方体、円錐、等)及び寸法(例えば高さ、半径、長さ、幅、等)等の単純化モデルの3次元形状を特定するための形状パラメータが含まれる。その後、ステップS15で、指定された形状パラメータに基づいて単純化モデルが作成される。その後、ステップS14で、展開図生成部14が、指定された諸元に基づいて、燃料タンクの単純化モデルを作成する。
In step S13, the user specifies the specifications of the simplified model from the
上述のステップS12で展開図の自動作成が選ばれた場合には、制御はステップS15へと進み、そこで、3次元モデル生成部12によって、検査対象の燃料タンクの多数の3次元点群が生成される。ここで、燃料タンクの3次元点群とは、その燃料タンクの多数の特徴点のそれぞれの3次元位置データを意味する。その後、ステップS16で、上述の3次元点群をメッシュ状に繋ぐことによって、その燃料タンクの3次元モデル(3次元メッシュモデル)121(図3、図4、図5参照)が生成される。
If automatic creation of a development view is selected in step S12 above, control proceeds to step S15, where the 3D
その後、ステップS17で、その燃料タンクの単純化モデル122(図3、図4、図5参照)が生成される。
Then, in step S17, a
単純化モデル122の3次元形状は、それを2次元の展開図に展開することが可能なものであれば、特に限定はないが、ユーザにとって検査対象の実物と展開図との位置関係が把握しやすい構造の展開図(例えば、側面図と平面図とのセット、あるいは、正面図と右側面図と左側面図と背面図と平面図のセット、等)に展開され得るものが好ましい。例えば、単純化モデル122の形状は、燃料タンクの3次元形状の中から、検査目的に大きく影響しない細かい形状要素が簡略化又は省略された形状であってよい。また、単純化モデル122の形状は、例えば、円筒型、直方型、円錐型、多角錐型、球形又はそれらの組み合わせ等の幾何学的形状であってよい。
The three-dimensional shape of the
ステップS14又はS17で燃料タンクの単純化モデル122が生成された後、ステップS18で、その燃料タンクの画像7に基づく色がその単純化モデル122に付けられる。その後、ステップS19で、色付きの単純化モデル122が、2次元の展開図141(図3、図4、図5参照)に変換される。
After the
ステップS18で生成された展開図141には、その展開図141と検査対象との位置関係又は方向関係を示す補助情報が記されていてもよい。例えば、図3に例示された燃料タンクを円筒形に単純化した展開図141(1)には、燃料タンクの各方向を示す補助情報、例えば、0°(正面方向)、90°(左側面方面)、180°(背面方向)及び270°(右側面方向)が付加されている。
The
図10は、図9のステップS15の3次元点群生成の流れを示す。 Figure 10 shows the flow of 3D point cloud generation in step S15 of Figure 9.
ステップS21で、3次元モデル生成部12が、データベース10から燃料タンクの複数の画像7を読み込む。その後、ステップS22で、3次元モデル生成部12が、それらの画像7から、その燃料タンクの特徴点に相当する画素が多数抽出される。3次元モデル生成部12は、燃料タンクの特徴的な形状、色又は模様をもつ部分の点を特徴点として抽出してよい。3次元モデル生成部12は、例えば、燃料タンクに備えられる階段、凸部、凹部又は窓等の点を特徴点として抽出してもよい。
In step S21, the three-dimensional
その後、3次元モデル生成部12は、燃料タンクの複数の画像7から外部標定要素と内部標定要素とを算出する(S23)。3次元モデル生成部12は、画像7から抽出された多数の特徴点相当の画素と、外部標定要素と内部標定要素とに基づいて、燃料タンクの多数の特徴点のそれぞれの3次元位置(つまり3次元点群)を算出する(S24)。
Then, the three-dimensional
なお、3次元モデル121の生成方法は、上述した方法に限られない。3次元モデル生成部12は、例えば、画像7から3次元モデル121を生成する方法を学習させたニューラルネットワークを用いることによって、3次元モデル121を生成してもよい。
The method of generating the three-
図11は、図9のステップS17の単純化モデル生成の流れを示す。 Figure 11 shows the flow of generating a simplified model in step S17 of Figure 9.
ステップS31で、展開図生成部14が、データベース10内に、検査対象の燃料タンクの設計図面があるかどうかを判定する。その判定結果がYesならば、設計図取得部13は、データベース10からその燃料タンクの設計図面を読み込む(S32)。その判定結果がNoならば、展開図生成部14が、データベース10からその燃料タンクの3次元モデルを読み込む(S33)。
In step S31, the development
その後、展開図生成部14は、その燃料タンクの設計図面又は3次元モデルに基づいて、単純化モデルの諸元、例えば、形状種や寸法を決定する(S34)。なお、展開図生成部14は、検査対象の形状又は種類等に応じて、単純化モデルの形状種を決定してもよい。また、展開図生成部14は、予め設定されている異なる種類の諸元の中から、検査対象物に応じて、特定の諸元を選択してもよい。その後、展開図生成部14は、決定された諸元に基づいて単純化モデルを生成する(S35)。
Then, the development
図12は、図9のステップS18の単純化モデルの色付け処理の流れを示す。 Figure 12 shows the flow of the simplified model coloring process in step S18 of Figure 9.
ステップS41で、展開図生成部14が、データベース10から、検査対象の燃料タンクの複数の画像7を読み込むと共に、それらの画像7の外部評定要素と内部評定要素を取得する。その燃料タンクの3次元モデルがすでに作成されている場合には、各画像7の外部評定要素と内部評定要素は、図10のステップS23ですでに算出されてデータベース10に登録されているから、それを読み込めばいい。他方、その画像7の外部評定要素と内部評定要素がまだ計算されていない場合には、図10のステップS21からS23と同じ方法で、外部評定要素と内部評定要素を計算すればよい。
In step S41, the development
その後、ステップS42で、展開図生成部14が、それぞれの画像7の外部評定要素と内部評定要素に基づいて、単純化モデルの表面のすべての座標点を、それぞれの座標点が映っている1以上の画像7の画素に対応付ける。換言すれば、単純化モデルの各座標点がどの画像7のどの画素に写っているかを特定する。たいていの場合、各座標点は2枚以上の異なる画像7内の画素に写っているので、各座標点に対応する画素として2つ以上の画素が特定される。
Then, in step S42, the development
その後、ステップS43で、展開図生成部14が、単純化モデルの表面の各座標点について、ステップS42で特定された2以上の対応画素の内から、その座標点をカメラの最も正面に近い位置で撮影した1つの対応画素を選択する。その座標点をカメラの正面に位置させて撮影した結果が、その座標点の色を最も正確に示していると判断されるからである。
Then, in step S43, the development
その後、ステップS44で、展開図生成部14が、ステップ43で選択した対応画素の画素値を、単純化モデルのその座標点の色に設定する。ステップ45で、単純化モデルの全ての座標点について、ステップS43とS44の処理を行うことで、単純化モデルの全ての座標点の入りを設定する。これにより、色付き単純化モデルが出来上がる。
Then, in step S44, the development
図13は、図8のステップS5の異常検出の流れを示す。 Figure 13 shows the flow of abnormality detection in step S5 of Figure 8.
ステップS51で、ユーザがユーザ端末4を通じて状態検出部15に対して、異常検出のための解析方法を選択する。選択された解析方法が機械学習である場合(S52、Yes)には、制御はステップS53進む、ステップS15では、状態検出部15が、予め用意された学習済み異常検出モデル(例えば、検査対象である燃料タンクの表面色に基づいて発錆個所などの異常を検出する方法を学習したニューラルネットワーク)を用いて、その燃料タンクの発錆個所などの異常個所を検出する。このとき、異常検出モデルには、例えば、色付きの展開図141又は色付きの単純化モデル122が入力され、そして、異常検出モデルは、色付きの展開図141又は色付きの単純化モデル122の表面から、発錆などの異常がある個所を検出する。
In step S51, the user selects an analysis method for anomaly detection for the
ステップS52で、選択された解析方法が画像処理である場合(S52、No)には、状態検出部15は、色付き展開図141又は色付き単純化モデル122の色データを、必要に応じて、画像処理で異常個所を検出するのに適した所定の色空間の色データに変換する。例えば、元の色データがRGB系であるところ、これをHSV(Hue、Saturation、Brightness)系、又は、HLS(Hue、Lightness、Saturation)系の色データに変換する(S54)。
In step S52, if the selected analysis method is image processing (S52, No), the
その後、ステップS55で、状態検出部15は、発錆などの異常個所を識別するために予め用意された多次元の特徴空間上で、色付き展開図141又は色付き単純化モデル122の各位置の色データを評価することにより、発錆などの異常個所を検出する。
Then, in step S55, the
以上説明した一実施形態にかかる外観検査支援システム1は、展開図編集部16及びレポート生成部17を備えることによって、対象物の発錆個所等の所定状態個所の定量情報に基づいたレポートを表示装置41に表示させることができる。これにより、外観検査支援システム1は、所定状態個所の定量情報をレポートに図面や文を用いて的確に表現することができる。その結果、外観検査支援システム1は、現実の要求により適合した対象物検査を支援することができる。
The visual
一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、ユーザがGUI上で展開図121を編集することができる。これにより、外観検査支援システム1は、よりユーザに視認性の高い説明用展開図153をレポートに載せることができる。
The visual
一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、錆マーク151等の自動検出結果をユーザが編集することができる。これにより、外観検査支援システム1は、より正確な検査結果をレポートに載せることができる。
The visual
一実施形態にかかる外観検査支援システム1は、レポート生成部17を備えることによって、検査対象のユーザが所望する部位が表示される画像をGUI上に表示させることができる。これにより、外観検査支援システム1の利便性が向上する。
The visual
一実施形態にかかる外観検査支援システム1は、画像取得部11を備えることにより、ドローン2又は携帯カメラ3の少なくともいずれか一方から画像7を取得することができる。これにより、ドローン2では撮影できない検査対象の外観の範囲を携帯カメラ3の画像7で補完することができる。その結果、外観検査支援システム1は、現実の制限により適合した対象物検査を支援することができる。
The appearance
一実施形態にかかる外観検査支援システム1は、燃料タンク以外の様々な種類の人工的な又は自然の検査対象物の外観検査に適用できる。
The visual
以上、本発明の一実施形態を説明したが、これは本発明の説明のための例示にすぎず、それとは異なる様々な態様で本発明を実施することができる。例えば、状態検出部15は、色付きの展開図又は色付き単純化モデルに代えて、3次元モデル生成部12からの色付きの3次元モデル121又は検査対象の画像7に基づいて、発錆箇所などの異常個所を検出してもよい。
Although one embodiment of the present invention has been described above, this is merely an example for explaining the present invention, and the present invention can be embodied in various different forms. For example, the
また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。
For example, the development
また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。
For example, the development
1・・・外観検査支援システム,11・・・画像取得部,12・・・3次元モデル生成部,13・・・設計図取得部,14・・・展開図生成部,15・・・状態検出部,16・・・展開図編集部,17・・・レポート生成部,2・・・ドローン,21・・・飛行装置,22・・・位置測定装置,23・・・方位測定装置,24・・・カメラ,3・・・携帯カメラ,31・・・写真撮影装置,32・・・位置測定装置,33・・・方位測定装置,4・・・ユーザ端末,41・・・表示装置 1... Appearance inspection support system, 11... Image acquisition unit, 12... 3D model generation unit, 13... Design drawing acquisition unit, 14... Development drawing generation unit, 15... Status detection unit, 16... Development drawing editing unit, 17... Report generation unit, 2... Drone, 21... Flying device, 22... Position measurement device, 23... Orientation measurement device, 24... Camera, 3... Mobile phone camera, 31... Photography device, 32... Position measurement device, 33... Orientation measurement device, 4... User terminal, 41... Display device
Claims (3)
前記対象物の展開図を生成し、前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加える展開図生成部と、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出する状態検出部と、
前記展開図と前記所定の領域に関する情報との表示を出力する手段と
を備える外観検査支援システム。 an image acquisition unit that acquires a plurality of images in which an object is displayed;
a development generating unit that generates a development of the object and adds auxiliary information indicating a positional relationship between the development and the object to the development;
a state detection unit that detects a predetermined area on the development view in which a predetermined state of the object appears based on the image;
A visual inspection support system comprising: a means for outputting a display of the development view and information regarding the specified area.
請求項1に記載の外観検査支援システム。 The visual inspection support system according to claim 1 , wherein the auxiliary information is information indicating a direction of the object.
前記対象物の展開図を生成し、
前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加え、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出し、
前記展開図と前記所定の領域に関する情報との表示を出力する
外観検査支援方法。 Acquiring a number of images in which the object is displayed;
generating a development of the object;
Adding auxiliary information indicating a positional relationship between the development and the object to the development;
detecting a predetermined area on the development where a predetermined state of the object appears based on the image;
A visual inspection support method that outputs a display of the development view and information regarding the specified area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024107312A JP2024133575A (en) | 2020-09-08 | 2024-07-03 | Visual inspection support system and visual inspection support method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020150468A JP7539110B2 (en) | 2020-09-08 | 2020-09-08 | Visual inspection support system and visual inspection support method |
JP2024107312A JP2024133575A (en) | 2020-09-08 | 2024-07-03 | Visual inspection support system and visual inspection support method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150468A Division JP7539110B2 (en) | 2020-09-08 | 2020-09-08 | Visual inspection support system and visual inspection support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024133575A true JP2024133575A (en) | 2024-10-02 |
Family
ID=80682000
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150468A Active JP7539110B2 (en) | 2020-09-08 | 2020-09-08 | Visual inspection support system and visual inspection support method |
JP2024107312A Pending JP2024133575A (en) | 2020-09-08 | 2024-07-03 | Visual inspection support system and visual inspection support method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150468A Active JP7539110B2 (en) | 2020-09-08 | 2020-09-08 | Visual inspection support system and visual inspection support method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7539110B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117723547B (en) * | 2023-12-13 | 2024-07-02 | 江苏嘉耐高温材料股份有限公司 | Quality monitoring system and method for finished product preparation based on magnesia carbon bricks |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6648971B2 (en) | 2014-03-27 | 2020-02-19 | 株式会社フジタ | Structure inspection device |
JP2018181235A (en) | 2017-04-21 | 2018-11-15 | 古河電気工業株式会社 | Report generator, wind power generation equipment inspection system, program, and method for generating inspection report of wind power generation equipment |
JP2019094620A (en) | 2017-11-17 | 2019-06-20 | 株式会社ネクスコ東日本エンジニアリング | Bridge inspection support device, bridge inspection support method, program, and mobile terminal device |
JP6583840B1 (en) | 2018-05-31 | 2019-10-02 | 株式会社センシンロボティクス | Inspection system |
-
2020
- 2020-09-08 JP JP2020150468A patent/JP7539110B2/en active Active
-
2024
- 2024-07-03 JP JP2024107312A patent/JP2024133575A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022045012A (en) | 2022-03-18 |
JP7539110B2 (en) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112793564B (en) | Autonomous parking auxiliary system based on panoramic aerial view and deep learning | |
JP6918672B2 (en) | Deterioration diagnosis system | |
CN113870343A (en) | Relative pose calibration method and device, computer equipment and storage medium | |
US11668577B1 (en) | Methods and systems for response vehicle deployment | |
CN106683038B (en) | Method and device for generating fire situation map | |
WO2023093217A1 (en) | Data labeling method and apparatus, and computer device, storage medium and program | |
JP2020080147A (en) | Maintenance activity support system and maintenance activity support method | |
EP3330928A1 (en) | Image generation device, image generation system, and image generation method | |
CN106683039B (en) | System for generating fire situation map | |
JP2024133575A (en) | Visual inspection support system and visual inspection support method | |
CN112084916A (en) | Automatic generation and diagnosis method for urban three-dimensional skyline contour line based on shielding rate | |
CN114964275A (en) | Ground-air cooperative map construction method, device, equipment and storage medium | |
Shah et al. | Condition assessment of ship structure using robot assisted 3D-reconstruction | |
JP2011169658A (en) | Device and method for pinpointing photographed position | |
Baeck et al. | Drone based near real-time human detection with geographic localization | |
JP2005310044A (en) | Apparatus, method and program for data processing | |
CN114326794A (en) | Curtain wall defect identification method, control terminal, server and readable storage medium | |
JP6799635B2 (en) | Aerial image positioning system and aerial image positioning method. | |
JP2010271845A (en) | Image reading support device | |
CN116203976A (en) | Indoor inspection method and device for transformer substation, unmanned aerial vehicle and storage medium | |
KR102393300B1 (en) | Object map generation system and method therefor | |
CN110136104A (en) | Image processing method, system and medium based on unmanned aerial vehicle station | |
Wang et al. | Rapid in-flight image quality check for UAV-enabled bridge inspection | |
Pratama et al. | An Overview of Generating VR Models for Disaster Zone Reconstruction Using Drone Footage | |
CN114399549A (en) | Panoramic overlay pattern spot rendering method and geographic national condition monitoring method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240704 |