[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024133575A - Visual inspection support system and visual inspection support method - Google Patents

Visual inspection support system and visual inspection support method Download PDF

Info

Publication number
JP2024133575A
JP2024133575A JP2024107312A JP2024107312A JP2024133575A JP 2024133575 A JP2024133575 A JP 2024133575A JP 2024107312 A JP2024107312 A JP 2024107312A JP 2024107312 A JP2024107312 A JP 2024107312A JP 2024133575 A JP2024133575 A JP 2024133575A
Authority
JP
Japan
Prior art keywords
development
fuel tank
visual inspection
inspection support
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024107312A
Other languages
Japanese (ja)
Inventor
泰隆 倉本
真貴 榎本
裕司 藤田
善太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SkymatiX Inc
Original Assignee
SkymatiX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SkymatiX Inc filed Critical SkymatiX Inc
Priority to JP2024107312A priority Critical patent/JP2024133575A/en
Publication of JP2024133575A publication Critical patent/JP2024133575A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】現実の要求や制限により適合した対象物検査を支援できる外観検査支援システムを提供すること。【解決手段】対象物の外観を検査する外観検査支援システム1は、対象物が表示される複数の画像を取得する画像取得部11と、対象物の展開図を生成し、前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加える展開図生成部14と、画像に基づいて対象物の所定の状態が現れる展開図上の所定の領域(例えば、異常領域)を検出する状態検出部15とを備え、展開図と所定の領域に関する情報とを表示させる。このシステム1は、例えば、ユーザ端末と通信可能なサーバコンピュータに実装される。【選択図】図1[Problem] To provide an appearance inspection support system capable of supporting object inspection more suited to real-world requirements and limitations. [Solution] An appearance inspection support system 1 for inspecting the appearance of an object comprises an image acquisition unit 11 for acquiring multiple images showing the object, a development drawing generation unit 14 for generating a development drawing of the object and adding auxiliary information to the development drawing that indicates the positional relationship between the development drawing and the object, and a state detection unit 15 for detecting a predetermined area (e.g., an abnormal area) on the development drawing in which a predetermined state of the object appears based on the image, and displays the development drawing and information about the predetermined area. This system 1 is implemented, for example, in a server computer capable of communicating with a user terminal. [Selected Figure] FIG.

Description

本発明は、人体よりサイズの大きい人工物又は自然物の外観検査を支援するためのコンピュータを利用したシステム及び方法に関する。 The present invention relates to a computer-based system and method for assisting in the visual inspection of man-made or natural objects larger than the human body.

例えば、巨大な貯蔵タンクが林立するタンクヤードでは、各タンクの塗装の劣化や腐食などの異常状態を人が外観観察(例えば、目視と携帯カメラによる写真撮影)をすることによって調べる。異常部分の面積がある程度よりも広い範囲である場合には、タンクには修繕が施される。 For example, in a tank yard filled with huge storage tanks, personnel inspect each tank's exterior (for example, by visual inspection and photographing with a mobile phone camera) to check for abnormalities such as deterioration of the paint or corrosion. If the area of the abnormal part is larger than a certain extent, the tank is repaired.

このような大型の対象物の検査では、人が対象物の周囲を歩きまわって異常を見つけて写真撮影する。そして、撮影された沢山の写真を用いて検査結果レポートを作成するなどの作業に要する労力と時間は相当に大きい。また、タンクの高い部分のように、人が近づいて観察することが難しい個所も少なくない。 When inspecting such large objects, a person must walk around the object to find any abnormalities and take photographs. The work of creating an inspection result report using the many photographs taken requires a considerable amount of time and effort. In addition, there are many areas, such as the high parts of the tank, that are difficult for a person to get close to and observe.

こうした問題の解決の一助として、無人航空機の利用がある。例えば特許文献1には、カメラを備える飛行装置により撮影された検査対象物の複数の画像に基づいて、検査対象物の3次元モデルを生成するシステムが開示されている。このシステムは、上記複数の画像に基づいて検査対象の異常を検出し、検出した異常の3次元座標系における位置を特定し、異常の位置に対応付けて画像を記憶し、上記3次元モデル上での任意の位置(座標)の指定を受け付け、指定された位置に対応する画像を特定して表示する。 One way to help solve these problems is to use unmanned aerial vehicles. For example, Patent Document 1 discloses a system that generates a three-dimensional model of an object to be inspected based on multiple images of the object taken by an aircraft equipped with a camera. This system detects abnormalities in the object to be inspected based on the multiple images, identifies the position of the detected abnormality in a three-dimensional coordinate system, stores the image in association with the position of the abnormality, accepts the specification of any position (coordinates) on the three-dimensional model, and identifies and displays the image corresponding to the specified position.

特開2019-211257号公報JP 2019-211257 A

特許文献1に開示されたシステムによれば、検査物の複数の画像に基づいて生成される3次元モデル上に、検出した異常個所をマッピングする。これにより、異常個所に対応する写真画像を見ることができる。 According to the system disclosed in Patent Document 1, detected abnormalities are mapped onto a three-dimensional model that is generated based on multiple images of the test object. This makes it possible to view the photographic image that corresponds to the abnormality.

しかしながら、対象物の修繕の要否又は費用見積もりなどを判断する場合には、対象物の異常部分が対象物のどの位置に存在し、その面積の値又はその割合がいくつであるかというような、異常部分の定量的な情報が特定されることが求められる。すなわち、その定量的情報がレポートなどの書面上に図面や文を用いて的確に表現されることが求められる。この目的のためには、ディスプレイ画面に表示された3次元モデル上で異常個所の写真画像が見れるだけでは不十分である。 However, when judging whether an object needs repair or to estimate the cost, it is necessary to identify quantitative information about the abnormal part, such as where on the object the abnormal part is located and what its area value or percentage is. In other words, this quantitative information needs to be accurately expressed in a written document such as a report using drawings and text. For this purpose, it is not enough to simply be able to see a photographic image of the abnormal part on a 3D model displayed on a display screen.

また、無人飛行体での写真撮影が制限される対象物が存在する。例えば、ある貯蔵タンクの隣に近接して別の貯蔵タンクが存在し、両タンクに挟まれた領域が無人飛行体の飛行には狭すぎる場合、その領域に面したタンク部分を無人飛行体で撮影することが難しい。あるいは、安全上の理由からその上空に無人飛行体を飛行させることが禁じられている対象物の場合、対象物の屋根をその真上から無人飛行体で撮影することができない。 In addition, there are objects for which it is restricted to photograph them with unmanned aerial vehicles. For example, if a storage tank is located close to another tank and the area between the two tanks is too narrow for an unmanned aerial vehicle to fly, it is difficult to photograph the part of the tank facing that area with an unmanned aerial vehicle. Or, if it is prohibited to fly an unmanned aerial vehicle above an object for safety reasons, it is not possible to photograph the roof of the object from directly above it with an unmanned aerial vehicle.

本発明は、上記の問題に鑑みてなされたものであり、その一つの目的は、現実の要求や制限に、より適応した対象物検査を支援できる外観検査支援システムを提供することである。 The present invention was made in consideration of the above problems, and one of its objectives is to provide a visual inspection support system that can support object inspection that is more adapted to real-world requirements and limitations.

一実施形態にかかる外観検査支援システムは、対象物が表示される複数の画像を取得する画像取得部と、対象物の展開図を生成し、展開図と対象物との位置関係を示す補助情報を展開図に加える展開図生成部と、画像に基づいて対象物の所定の状態が現れる展開図上の所定の領域を検出する状態検出部と、展開図と所定の領域に関する情報との表示を出力する手段とを備える。補助情報は、前記対象物の方向を示す情報であってもよい。 The visual inspection support system according to one embodiment includes an image acquisition unit that acquires a plurality of images in which an object is displayed, a development generation unit that generates a development of the object and adds auxiliary information to the development that indicates the positional relationship between the development and the object, a state detection unit that detects a predetermined area on the development where a predetermined state of the object appears based on the image, and a means for outputting a display of the development and information about the predetermined area. The auxiliary information may be information indicating the orientation of the object.

外観検査支援システムの機能構成図。FIG. 1 is a functional configuration diagram of an appearance inspection support system. 外観検査支援システムのハードウェア構成図。FIG. 1 is a hardware configuration diagram of an appearance inspection support system. 画像取得から3次元モデル生成そして展開図生成までの一例の説明図。FIG. 1 is an explanatory diagram of an example of a process from image acquisition to generation of a three-dimensional model and then generation of a development view. 3次元モデル生成から展開図生成までの別の一例の説明図。FIG. 11 is an explanatory diagram of another example of a process from the generation of a three-dimensional model to the generation of a development view. 3次元モデル生成から展開図生成までのまた別の一例の説明図。FIG. 11 is an explanatory diagram of yet another example of a process from the generation of a three-dimensional model to the generation of a development view. 検出結果展開図の一例の説明図。FIG. 13 is an explanatory diagram of an example of a detection result development diagram. 編集された検出結果展開図の一例の説明図。FIG. 13 is a diagram illustrating an example of an edited development diagram of detection results. 外観検査支援システムが行う処理の全体的流れ図。3 is an overall flowchart of the processing performed by the appearance inspection support system. 図8のステップS4の展開図作成の流れ図。9 is a flowchart showing the development drawing generation in step S4 of FIG. 8 . 図9のステップS15の3次元点群生成の流れ図。10 is a flow chart showing the generation of a three-dimensional point group in step S15 of FIG. 9 . 図9のステップS17の単純化モデル生成の流れ図。10 is a flowchart showing the generation of a simplified model in step S17 of FIG. 9 . 図9のステップS18の単純化モデルの色付け処理の流れ図。10 is a flowchart showing the coloring process of the simplified model in step S18 of FIG. 9 . 図8のステップS5の異常検出の流れ図。9 is a flowchart showing the abnormality detection in step S5 of FIG. 8 .

図1は、一実施形態にかかる外観検査支援システム1の概略図である。外観検査支援システム1は、「対象物」の一例としての燃料タンクの外観検査を支援する。なお、外観検査支援システム1は、燃料タンクの外観検査に限らず、橋梁、船舶又は岩壁等、他の種類の物体の外観検査の支援をしてもよい。すなわち、外観検査支援システム1は、例えば人体よりも大きい人工物又は自然物について、「所定の状態」の一例としての錆の発生の有無や程度、あるいは、損傷や変形や変質などの異常の有無や程度について、外観観察を通して検査する作業を支援する。 Figure 1 is a schematic diagram of an appearance inspection support system 1 according to one embodiment. The appearance inspection support system 1 supports the appearance inspection of a fuel tank as an example of an "object". Note that the appearance inspection support system 1 is not limited to the appearance inspection of a fuel tank, and may also support the appearance inspection of other types of objects, such as bridges, ships, or rock walls. In other words, the appearance inspection support system 1 supports the task of inspecting, through appearance observation, manmade or natural objects larger than the human body, for the presence or absence and degree of rust as an example of a "predetermined state", or the presence or absence and degree of abnormalities such as damage, deformation, or alteration.

外観検査支援システム1は、例えば、「移動体」の一例としてのカメラ24を有する無人航空機2(以下、ドローン2と示す場合がある)と「携帯可能な撮影装置」の一例としての、ユーザに携行される携帯カメラ3の少なくとも一方から取得された、燃料タンクが表示される複数の画像に基づいて、外観検査を支援する。外観検査支援システム1は、例えば、ユーザに使用されるユーザ端末4と双方向通信可能に接続され、ユーザ端末4を介して(または、ユーザ端末4を介さずに)、ドローン2と携帯カメラ3のいずれか一方又は双方から、対象物を撮影した複数の画像を取得して、取得した対象物の複数の画像を、その対象物に関連付けて外観検査支援システム1内に登録する。 The visual inspection support system 1 supports visual inspection based on multiple images showing a fuel tank, acquired from at least one of an unmanned aerial vehicle 2 (hereinafter sometimes referred to as a drone 2) having a camera 24 as an example of a "mobile body" and a mobile camera 3 carried by a user as an example of a "portable imaging device". The visual inspection support system 1 is connected, for example, to a user terminal 4 used by a user so as to be capable of two-way communication, and acquires multiple images of an object from either the drone 2 or the mobile camera 3 or both via the user terminal 4 (or without via the user terminal 4), and registers the acquired multiple images of the object in the visual inspection support system 1 in association with the object.

なお、ドローン2は、空中を飛行する移動体だけに限らず、燃料タンクつまり対象物を撮影する機能を備えた他の種類の移動体であってもよい。他の種類の移動体は、例えば、固体表面上を走行する装置、液体面上を航行する装置又は液中を潜航する装置、さらには、人工衛星のように宇宙空間を飛翔するもの等であり得る。さらには、ドローン2に代えて、または、それと組み合わせて、対象物を撮影する機能をもつ有人の移動体や、対象物の近くに設置された固定カメラのように特定の場所や領域に配置された撮影装置等も、対象物の画像を得るために使用されてよい。以下では、ドローン2が空中を飛行するものであって、燃料タンクの発錆状況の外観検査に使用される場合を例にとり、説明する。 The drone 2 is not limited to a mobile object that flies in the air, but may be another type of mobile object that has the function of photographing a fuel tank, i.e., an object. The other type of mobile object may be, for example, a device that runs on a solid surface, a device that navigates on the surface of a liquid, or a device that submerges in a liquid, or even a device that flies in space, such as an artificial satellite. Furthermore, instead of or in combination with the drone 2, a manned mobile object that has the function of photographing an object, or a photographing device that is located in a specific place or area, such as a fixed camera installed near the object, may also be used to obtain an image of the object. The following describes an example in which the drone 2 flies in the air and is used to visually inspect the rust condition of a fuel tank.

ドローン2は、燃料タンクの周囲又は上空を飛行することにより、燃料タンクの外観を撮影する。ドローン2は、例えば、飛行装置21と、位置測定装置22と、方位測定装置23と、カメラ24とを内蔵、搭載又は付属する。飛行装置21は、ドローン2を飛行させ、かつその飛行を制御する。 The drone 2 photographs the exterior of the fuel tank by flying around or above the fuel tank. The drone 2 has, is equipped with, or is attached to, for example, a flight device 21, a position measuring device 22, an orientation measuring device 23, and a camera 24. The flight device 21 flies the drone 2 and controls its flight.

位置測定装置22は、ドローン2又はカメラ24の3次元位置情報を測定する。3次元位置情報は、例えば、緯度、経度又は高度等の3次元地理座標である。位置測定装置22には、例えば、GNSS(Global Navigation Satellite System)又はRTK(Real Time Kinematic)が用いられてもよい。なお、位置測定装置22には、GNSS又はRTKが用いられる装置に限られない。 The position measuring device 22 measures three-dimensional position information of the drone 2 or the camera 24. The three-dimensional position information is, for example, three-dimensional geographic coordinates such as latitude, longitude, or altitude. For example, the position measuring device 22 may use GNSS (Global Navigation Satellite System) or RTK (Real Time Kinematic). Note that the position measuring device 22 is not limited to devices that use GNSS or RTK.

方位測定装置は、カメラ24の視線(光軸)又はドローン2の3次元方位を測定する。3次元方位は、例えば、ロール角、ピッチ角及びヨー角によって設定される。方位測定装置23は、例えば、ジャイロセンサである。なお、方位測定装置23は、ジャイロセンサに限られない。 The orientation measurement device measures the line of sight (optical axis) of the camera 24 or the three-dimensional orientation of the drone 2. The three-dimensional orientation is set by, for example, a roll angle, a pitch angle, and a yaw angle. The orientation measurement device 23 is, for example, a gyro sensor. Note that the orientation measurement device 23 is not limited to a gyro sensor.

カメラ24は、燃料タンクの外観を撮影する。本実施例において、カメラ24によって撮影される画像7(1),7(2)(図3参照)は、燃料タンクが表示される静止画を一例にあげて説明するが、撮影される画像7(1),7(2)は静止画に限らず動画でもよい。画像7(1),7(2)は、撮影される動画のうちの一つの静止画として設定されてもよい。以下、画像7(1),7(2)を特に区別しない場合には、画像7と示す場合がある。 Camera 24 captures the exterior of the fuel tank. In this embodiment, images 7(1) and 7(2) (see FIG. 3) captured by camera 24 are described as still images showing the fuel tank, but the captured images 7(1) and 7(2) are not limited to still images and may be videos. Images 7(1) and 7(2) may be set as one still image in the captured video. Hereinafter, when images 7(1) and 7(2) are not to be distinguished from each other, they may be referred to as image 7.

携帯カメラ3は、手動で燃料タンクの外観を撮影するために使用される。携帯カメラ3は、例えば、写真撮影装置31と、位置測定装置32と、方位測定装置33とを内蔵、搭載又は付属する。写真撮影装置31は、燃料タンクの外観を撮影し、画像7を保存する。写真撮影装置31は、例えば、レンズ又はシャッター等のカメラ部品ある。 The portable camera 3 is used to manually photograph the exterior of the fuel tank. The portable camera 3 has, is equipped with, or is attached to, for example, a photographing device 31, a position measuring device 32, and an orientation measuring device 33. The photographing device 31 photographs the exterior of the fuel tank and saves the image 7. The photographing device 31 is, for example, a camera part such as a lens or a shutter.

位置測定装置32は、携帯カメラ3の3次元位置を測定する。方位測定装置33は、携帯カメラ3の視線(光軸)の3次元方位を測定する。3次元方位は、例えば、水平面上の方位角と垂直面上の方位角とを含む。 The position measuring device 32 measures the three-dimensional position of the mobile camera 3. The orientation measuring device 33 measures the three-dimensional orientation of the line of sight (optical axis) of the mobile camera 3. The three-dimensional orientation includes, for example, an azimuth angle on a horizontal plane and an azimuth angle on a vertical plane.

携帯カメラ3は、ドローン2に代えて、又は、ドローン2よる撮影の補助として使用されてよい。例えば、ドローン2の飛行が困難又は禁止される場所があり得る。そのような場所は、例えば、燃料タンクとそれに近接する建造物との間の狭い空間、又は、安全確保のためにドローン2の飛行が制限される領域等の場所である。そのような場所で携帯カメラ3を用いた撮影が行われ得る。また、ドローン2の飛行可能な場所からは物陰に隠れて撮影できない部分が燃料タンクにある場合、その部分の撮影に携帯カメラ3が用いられてよい。 The portable camera 3 may be used in place of the drone 2 or as an aid to photography by the drone 2. For example, there may be locations where flying the drone 2 is difficult or prohibited. Such locations include, for example, the narrow space between a fuel tank and a nearby structure, or an area where flight of the drone 2 is restricted to ensure safety. Photography may be performed using the portable camera 3 in such locations. Also, if there is a part of the fuel tank that is hidden behind an object and cannot be photographed from a location where the drone 2 can fly, the portable camera 3 may be used to photograph that part.

すなわち、携帯カメラ3は、ドローン2が撮影可能な燃料タンクの外観の範囲とは異なる他の範囲を撮影することによって、外観検査するのに不足する画像7を補ってもよい。なお、ドローン2からの画像7のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、携帯カメラ3は必ずしも使用されなくてもよい。携帯カメラ3のみで外観検査支援システム1が燃料タンクの発錆状態を説明するレポートを生成することができる場合には、ドローン2は必ずしも使用されなくてもよい。 That is, the portable camera 3 may supplement images 7 that are insufficient for visual inspection by capturing images of a range other than the range of the external appearance of the fuel tank that can be captured by the drone 2. Note that if the visual inspection support system 1 can generate a report describing the rust condition of the fuel tank using only images 7 from the drone 2, the portable camera 3 does not necessarily have to be used. If the visual inspection support system 1 can generate a report describing the rust condition of the fuel tank using only the portable camera 3, the drone 2 does not necessarily have to be used.

ユーザ端末4は、外観検査支援システム1のユーザ(燃料タンクなどの対象物の外観検査を行う者、対象物の写真撮影を行う者、外観検査の結果を受け取り利用する者、等)が使用する情報処理通信端末である。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット端末等である。なお、ユーザ端末4は、パーソナルコンピュータ、スマートフォン、タブレット端末に限られず、ドローン2又は携帯カメラ3と一体的に形成される装置でもよい。 The user terminal 4 is an information processing and communication terminal used by a user of the visual inspection support system 1 (a person who performs a visual inspection of an object such as a fuel tank, a person who takes a photograph of the object, a person who receives and uses the results of the visual inspection, etc.). The user terminal 4 is, for example, a personal computer, a smartphone, a tablet terminal, etc. Note that the user terminal 4 is not limited to a personal computer, a smartphone, or a tablet terminal, and may be a device formed integrally with the drone 2 or the mobile camera 3.

ユーザ端末4は、ドローン2及び/又は携帯カメラ3から、燃料タンクの多数の画像を取得する。取得された各画像7には、画像それ自体のデータと、それぞれの画像7に対応する付属データとが含まれる。 The user terminal 4 acquires multiple images of the fuel tank from the drone 2 and/or the handheld camera 3. Each acquired image 7 includes data for the image itself and associated data corresponding to each image 7.

各画像7の付属データには、例えば、その画像7についての外部標定要素と内部標定要素とが含まれる。外部標定要素のデータには、例えば、燃料タンクをドローン2又は携帯カメラ3が撮影した際における、ドローン2、カメラ24又は携帯カメラ3の3次元位置を表したパラメータと、ドローン2、カメラ24又は携帯カメラ3の3次元方位を表したパラメータ等が含まれる。 The associated data for each image 7 includes, for example, the exterior orientation elements and interior orientation elements for that image 7. The data for the exterior orientation elements includes, for example, parameters representing the three-dimensional position of the drone 2, camera 24, or mobile camera 3 when the drone 2 or mobile camera 3 photographed the fuel tank, and parameters representing the three-dimensional orientation of the drone 2, camera 24, or mobile camera 3.

内部標定要素には、例えば、カメラ24又は携帯カメラ3の、焦点距離のパラメータ、及び/又はレンズ歪み係数などのパラメータ等が含まる。ユーザ端末4は、取得された多数の画像7を外観検査支援システム1へと送る。 The internal orientation elements include, for example, the focal length parameters of the camera 24 or the mobile camera 3, and/or parameters such as lens distortion coefficients. The user terminal 4 sends the multiple captured images 7 to the visual inspection support system 1.

さらに、ユーザ端末4は、表示装置41を備える。ユーザ端末4は、外観検査支援システム1に含まれる後述の複数の機能11~17を制御するためのGUI(Graphical User Interface)を表示装置41に表示させる。 Furthermore, the user terminal 4 includes a display device 41. The user terminal 4 displays on the display device 41 a GUI (Graphical User Interface) for controlling a number of functions 11 to 17 included in the visual inspection support system 1, which will be described later.

外観検査支援システム1は、ユーザ端末4からの燃料タンクを撮影した多数の画像7に基づいて、燃料タンクの「所定の領域」の一例としての発錆個所を説明するレポートを生成する。外観検査支援システム1は、例えば、データベース10と、画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17とを備える。なお、図中において、「部」を省略して示す場合がある。 The visual inspection support system 1 generates a report that describes rust locations as an example of a "predetermined area" of a fuel tank, based on a large number of images 7 of the fuel tank taken from a user terminal 4. The visual inspection support system 1 includes, for example, a database 10, an image acquisition unit 11, a three-dimensional model generation unit 12, a design drawing acquisition unit 13, an unfolded view generation unit 14, a condition detection unit 15, an unfolded view editing unit 16, and a report generation unit 17. Note that in the figures, the "units" may be omitted.

外観検査支援システム1は、典型的には、図2に示すように、ストレージ(記憶部)61、CPU62、メモリ63及び通信部64を含む。ストレージ61には、CPU62に実行されることにより、例えば、データベース10っと画像取得部11と、3次元モデル生成部12と、設計図取得部13と、展開図生成部14と、状態検出部15と、展開図編集部16と、レポート生成部17としてCPU62を動作させるコンピュータプログラムが記録される。 2, the visual inspection support system 1 typically includes a storage (storage unit) 61, a CPU 62, a memory 63, and a communication unit 64. The storage 61 records computer programs that, when executed by the CPU 62, cause the CPU 62 to operate as, for example, a database 10, an image acquisition unit 11, a three-dimensional model generation unit 12, a design drawing acquisition unit 13, an unfolded drawing generation unit 14, a state detection unit 15, a unfolded drawing editing unit 16, and a report generation unit 17.

CPU62は、ストレージ61からメモリ63にロードされた上記コンピュータプログラムを実行することにより、ストレージ61に格納された各種のデータを操作及び加工する。これにより、外観検査支援システム1は機能10~17を実現する。 The CPU 62 executes the computer programs loaded from the storage 61 to the memory 63 to manipulate and process various data stored in the storage 61. In this way, the visual inspection support system 1 realizes functions 10 to 17.

データベース10は、検査対象である1以上の燃料タンクのそれぞれについて、撮影された複数の画像7、並びに、後述される3次元モデル、設計図、単純化モデル、展開図、及びレポートなど、外観検査に利用される各種のデータを、ストレージ6に保存して管理する。データベース10は、他の機能部11~17の各々に対して、各機能部が読み込みを要求するデータを提供し、また、各機能部からその機能が保存を要求するデータを受け取って保存する。 The database 10 stores and manages in the storage 6 a number of images 7 taken of each of the one or more fuel tanks being inspected, as well as various data used in the visual inspection, such as three-dimensional models, blueprints, simplified models, development drawings, and reports, which will be described later. The database 10 provides each of the other functional units 11-17 with the data that each functional unit requests to read, and also receives and stores data from each functional unit that the function requests to be saved.

画像取得部11は、ユーザ端末4から、ある燃料タンクを撮影した複数(通常は多数)の撮影画像を取得する。画像取得部11は、取得されたその燃料タンクの画像を、その燃料タンクの識別情報に関連付けてデータベース10に登録する。したがって、異なる燃料タンクの画像が、それぞれの燃料タンクに関連付けれてデータベースに10に登録され得る。データベース10に登録された各燃料タンクの多数の画像は、画像3次元モデル生成部12、展開図生成部14及びレポート生成部17などの各種機能に供給され(読み込まれ)得る。 The image acquisition unit 11 acquires multiple (usually a large number) captured images of a fuel tank from the user terminal 4. The image acquisition unit 11 registers the acquired images of the fuel tank in the database 10 in association with the identification information of the fuel tank. Thus, images of different fuel tanks can be registered in the database 10 in association with each fuel tank. The large number of images of each fuel tank registered in the database 10 can be supplied (read) to various functions such as the image 3D model generation unit 12, the development drawing generation unit 14, and the report generation unit 17.

3次元モデル生成部12は、ある燃料タンクの複数の撮影画像に基づいて、その燃料タンクの3次元モデル121(例えば、図3に示された三次元モデル121(1)あるいは図4に示された三次元モデル121(2)など)を生成する。3次元モデル生成部12は、生成された燃料タンクの3次元モデル121を、その燃料タンクに関連付けてデータベース10に登録する。登録された3次元モデル121は、展開図生成部14及び/又は状態検出部15等に供給され(読み込まれ)得る。 The three-dimensional model generating unit 12 generates a three-dimensional model 121 of a fuel tank (e.g., three-dimensional model 121(1) shown in FIG. 3 or three-dimensional model 121(2) shown in FIG. 4) based on multiple captured images of the fuel tank. The three-dimensional model generating unit 12 associates the generated three-dimensional model 121 of the fuel tank with the fuel tank and registers it in the database 10. The registered three-dimensional model 121 can be supplied (read) to the development drawing generating unit 14 and/or the state detecting unit 15, etc.

3次元モデル生成部12は、燃料タンクの複数の画像7に基づいて、3次元モデル121の表面に色をつけてもよい。すなわち、3次元モデル生成部12は、画像7を3次元モデル121に投影させることによって、3次元モデル121の表面に画像7に基づく燃料タンクの表面色と実質的に同じ色、これに似た色、又は少なくとも燃料タンクの検出したい発錆個所が肉眼で識別可能な色をつけてもよい。以下、このような色のつけられた3次元モデル121を色付きの3次元モデル121と呼ぶ場合がある。 The three-dimensional model generating unit 12 may color the surface of the three-dimensional model 121 based on multiple images 7 of the fuel tank. That is, the three-dimensional model generating unit 12 may project the images 7 onto the three-dimensional model 121, thereby coloring the surface of the three-dimensional model 121 with a color that is substantially the same as or similar to the surface color of the fuel tank based on the images 7, or at least a color that allows the rusted areas of the fuel tank to be detected to be identified with the naked eye. Hereinafter, such a colored three-dimensional model 121 may be referred to as a colored three-dimensional model 121.

3次元モデル生成部12は、燃料タンクを撮影した画像に基づいて3次元モデル121を生成することに限られない。3次元モデル生成部12は、設計図取得部13から取得した燃料タンクの設計図に基づいて3次元モデル121を生成してもよい。 The three-dimensional model generating unit 12 is not limited to generating the three-dimensional model 121 based on an image of the fuel tank. The three-dimensional model generating unit 12 may generate the three-dimensional model 121 based on a design drawing of the fuel tank acquired from the design drawing acquisition unit 13.

設計図取得部13は、燃料タンクの設計図をユーザ端末4から取得する。設計図取得部13は、燃料タンクの設計図をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された設計図は、3次元モデル生成部12及び/又は展開図生成部14に供給され得る。 The design drawing acquisition unit 13 acquires the design drawing of the fuel tank from the user terminal 4. The design drawing acquisition unit 13 associates the design drawing of the fuel tank with the fuel tank and registers it in the database 10. The design drawing registered in the database 10 can be supplied to the 3D model generation unit 12 and/or the development drawing generation unit 14.

展開図生成部14は、データベース10に登録された燃料タンクの3次元モデル121に基づいて、その燃料タンクの3次元形状をそれに近い幾何学的形状に単純化した単純化モデル122(例えば、図3に示された単純化モデル122(1)、図4に示された単純化モデル122(2)、あるいは図5に示された単純化モデル122(3)等)を作成する。さらに展開図生成部14は、その単純化モデル122の表面を展開した平面的な1以上の図から構成される展開図141(例えば、図3又は図4の展開図141(1)、あるいは図5の展開図141(2)等)を生成する。 Based on a 3D model 121 of the fuel tank registered in the database 10, the development drawing generator 14 creates a simplified model 122 (e.g., simplified model 122(1) shown in FIG. 3, simplified model 122(2) shown in FIG. 4, or simplified model 122(3) shown in FIG. 5, etc.) that simplifies the 3D shape of the fuel tank to a geometric shape close to the 3D shape. The development drawing generator 14 further generates a development drawing 141 (e.g., development drawing 141(1) of FIG. 3 or FIG. 4, or development drawing 141(2) of FIG. 5, etc.) consisting of one or more planar views in which the surface of the simplified model 122 is developed.

図3に示された例では、屋根が側壁上端から下方へ若干距離下がっている燃料タンクの3次元モデル121(1)に基づいて、単純な円筒形の単純化モデル122(1)が作成される。そして、その単純化モデル121(1)の側壁と屋根をそれぞれ平面図に展開することで、その燃料タンクの展開図141(1)が作成される。他方、図4の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、図3の場合と同様の単純な円筒形の単純化モデル122(2)が作成される。そして、その単純化モデル122(2)から、図3の場合と同様の展開図141(1)が作成される。あるいは、図5の例では、多角錐形の屋根を持つ燃料タンクの3次元モデル121(2)に基づいて、円錐形の屋根を持つ単純化モデル122(3)が作成される。そして、その単純化モデル122(3)の側壁と屋根をそれぞれ平面図に展開することで、展開図141(2)が作成される。このように、展開図生成部14は、異なる形状と構成をもつ単純化モデル122を生成して、それぞれの単純化モデル122からその展開図144を生成することができる。なお、図示の例に限られず、他の形状又は構造をもつ単純化モデルと展開図を生成してもよい。 In the example shown in FIG. 3, a simple cylindrical simplified model 122(1) is created based on a three-dimensional model 121(1) of a fuel tank whose roof is slightly lower than the top of the side wall. The side walls and roof of the simplified model 121(1) are then each developed into a plan view to create an expanded view 141(1) of the fuel tank. On the other hand, in the example shown in FIG. 4, a simple cylindrical simplified model 122(2) similar to that in FIG. 3 is created based on a three-dimensional model 121(2) of a fuel tank with a pyramidal roof. The expanded view 141(1) similar to that in FIG. 3 is created from the simplified model 122(2). Alternatively, in the example shown in FIG. 5, a simplified model 122(3) with a conical roof is created based on a three-dimensional model 121(2) of a fuel tank with a pyramidal roof. The side walls and roof of the simplified model 122(3) are then each developed into a plan view to create an expanded view 141(2). In this way, the development drawing generating unit 14 can generate simplified models 122 with different shapes and configurations, and generate development drawings 144 from each simplified model 122. Note that the examples shown in the figures are not limiting, and simplified models and development drawings with other shapes or structures may be generated.

展開図生成部14は、燃料タンクの複数の画像7に基づいて、単純化モデル122に展開図141に色を付与し、その結果として、展開図141に色が付与される。すなわち、展開図生成部14は、単純化モデル122の表面に複数の画像7の対応する画素の色を投影することで、単純化モデル122の表面に、燃料タンクと実質的に同じ色、又は、少なくとも燃料タンクの検出したい発錆個所が肉眼又は自動的な画像処理で識別可能な色を、付与する。このように色が付与された単純化モデル122を展開図141に変換することで、展開図141に上記の色が付与される。 The development drawing generator 14 assigns color to the development drawing 141 of the simplified model 122 based on the multiple images 7 of the fuel tank, and as a result, the development drawing 141 is colored. That is, the development drawing generator 14 projects the colors of the corresponding pixels of the multiple images 7 onto the surface of the simplified model 122, thereby assigning to the surface of the simplified model 122 a color that is substantially the same as the fuel tank, or at least a color that allows the rusted area of the fuel tank to be detected to be identified by the naked eye or by automatic image processing. By converting the simplified model 122 to which color has been assigned in this way into the development drawing 141, the development drawing 141 is assigned the above-mentioned color.

以下、展開図生成部14によって色が付与された単純化モデル122と展開図141をそれぞれ、色付き単純化モデル122及び色付きの展開図141と呼ぶ場合がある。展開図生成部14は、燃料タンクの色付き単純化モデル122と色付きの展開図141をその燃料タンクに関連付けてデータベース10に登録する。データベース10に登録された色付き単純化モデル122と色付きの展開図141は、状態検出部15に供給され得る。 Hereinafter, the simplified model 122 and the development 141 to which colors have been added by the development generating unit 14 may be referred to as the colored simplified model 122 and the colored development 141, respectively. The development generating unit 14 associates the colored simplified model 122 and the colored development 141 of the fuel tank with the fuel tank and registers them in the database 10. The colored simplified model 122 and the colored development 141 registered in the database 10 can be supplied to the state detecting unit 15.

なお、展開図生成部14は、3次元モデル121に基づいて単純化モデル122と展開図141を生成することに限られない。展開図生成部14は、設計図取得部13から取得した設計図に基づいて単純化モデル122と展開図141を生成してもよいし、あるいは、ユーザの手動操作によって単純化モデル122と展開図141を作成してもよい。 The development drawing generating unit 14 is not limited to generating the simplified model 122 and the development drawing 141 based on the three-dimensional model 121. The development drawing generating unit 14 may generate the simplified model 122 and the development drawing 141 based on a design drawing acquired from the design drawing acquiring unit 13, or may create the simplified model 122 and the development drawing 141 through manual operation by the user.

展開図生成部14は、複数の画像7に基づいて単純化モデル122と展開図144に色を付与することに限られない。展開図生成部14は、色付きの3次元モデル121に基づいて、単純化モデル122と展開図144に色を付与してもよい。 The unfolded drawing generating unit 14 is not limited to applying color to the simplified model 122 and the unfolded drawing 144 based on multiple images 7. The unfolded drawing generating unit 14 may also apply color to the simplified model 122 and the unfolded drawing 144 based on a colored three-dimensional model 121.

状態検出部15は、色付きの展開図141に基づいて、燃料タンクの特定状態の個所、例えば所定の異常個所、例えば発錆個所を検出する。すなわち、状態検出部15は、展開図141の表面色から燃料タンクの発錆個所を検出し、その発錆個所を示すために、展開図141に「印」の一例としての錆マーク151(図6参照)を記す。 The condition detection unit 15 detects specific parts of the fuel tank, such as predetermined abnormal parts, such as rusted parts, based on the colored development 141. That is, the condition detection unit 15 detects rusted parts of the fuel tank from the surface color of the development 141, and marks the development 141 with rust marks 151 (see FIG. 6) as an example of a "mark" to indicate the rusted parts.

以下、発錆個所が示された展開図141を検出結果展開図152と示す場合がある。状態検出部15は、燃料タンクの検出結果展開図152をその燃料タンクに関連付けてデータベース10に登録する。登録された検出結果展開図152は展開図編集部16へ供給され得る。 Hereinafter, the development diagram 141 showing the rusted areas may be referred to as the detection result development diagram 152. The condition detection unit 15 associates the detection result development diagram 152 of the fuel tank with the fuel tank and registers it in the database 10. The registered detection result development diagram 152 can be supplied to the development diagram editing unit 16.

なお、状態検出部15は、色付きの展開図141に基づいて発錆個所などの特定状態個所を検出することだけに限られない。対象物の画像7に基づいて、又は、それらの画像7が投影された他のモデル、例えば3次元モデル121あるいは単純化モデル122に基づいて、同検出を行ってもよい。 The condition detection unit 15 is not limited to detecting specific condition locations, such as rust locations, based on the colored development diagram 141. The detection may also be performed based on the images 7 of the object, or on other models onto which the images 7 are projected, such as the three-dimensional model 121 or the simplified model 122.

展開図編集部16は、いずれかのユーザ端末4から要求があれば、検出結果展開図152を、それをユーザが編集可能に構成されたGUI(グラフィカル・ユーザ・インタフェース)に組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41へ表示させる。ユーザは、表示装置41上のGUIに表示される検出結果展開図152を編集することにより、検査結果レポートへの掲載に適したレポート用展開図153(図7参照)を作成することができる。 When requested by any of the user terminals 4, the development diagram editing unit 16 incorporates the detection result development diagram 152 into a GUI (graphical user interface) configured to be editable by the user, and displays the GUI on the display device 41 of that user terminal 4. By editing the detection result development diagram 152 displayed in the GUI on the display device 41, the user can create a report development diagram 153 (see FIG. 7) suitable for inclusion in an inspection result report.

図6に例示されるように、検出結果展開図152は燃料タンクの異なる部分をそれぞれ表す複数の2次元図143、144から構成され得る。図6の例示では、一つの2次元図143は燃料タンクの側壁面を表し、別の2次元図144は燃料タンクの屋根面を表している。上述したGUIを操作することで、ユーザは、検出結果展開図152を構成する複数の2次元図143、144の相対位置を編集可能である。例えば、図6に例示された検出結果展開図152の屋根面を表す2次元図144の位置を、図7に例示される位置へ移動させるなどの編集ができる。 As illustrated in FIG. 6, the detection result development diagram 152 may be composed of multiple two-dimensional diagrams 143, 144 each representing a different portion of the fuel tank. In the example of FIG. 6, one two-dimensional diagram 143 represents the sidewall surface of the fuel tank, and another two-dimensional diagram 144 represents the roof surface of the fuel tank. By operating the GUI described above, the user can edit the relative positions of the multiple two-dimensional diagrams 143, 144 that make up the detection result development diagram 152. For example, the position of the two-dimensional diagram 144 representing the roof surface of the detection result development diagram 152 illustrated in FIG. 6 can be moved to the position illustrated in FIG. 7.

また、上述したGUIを操作することによって、例えば、図7に例示された修正ツール8を操作することによって、ユーザは検出結果展開図152上で、状態検出部15によって自動的に検出された錆マーク151を修正することができる。例えば、誤検出された錆マークを削除したり、検出漏れの発錆個所に新たな錆マークを追加したりすることができる。とくに錆は、雨水に溶けて発錆個所の下方の領域まで流れ落ちてその領域を錆色にしていることが多く、そのような領域(例えば、図7に示された錆マーク151の修正ツール8で囲まれた部分)も発錆個所として誤って自動検出されるおそれがある。そこで、人が肉眼で検出結果展開図152を観察して、自動検出結果を修正できることのメリットは大きい。 In addition, by operating the GUI described above, for example, by operating the correction tool 8 illustrated in FIG. 7, the user can correct the rust marks 151 automatically detected by the state detection unit 15 on the detection result development diagram 152. For example, it is possible to delete erroneously detected rust marks or add new rust marks to rust locations that were not detected. In particular, rust often dissolves in rainwater and flows down to the area below the rust location, turning the area rust-colored, and such an area (for example, the part surrounded by the correction tool 8 of the rust mark 151 shown in FIG. 7) may also be automatically detected as an erroneous rust location. Therefore, there is a great advantage in being able to observe the detection result development diagram 152 with the naked eye and correct the automatically detected results.

展開図編集部16は、検出結果展開図152を編集することで作られたレポート用展開図153に基づいて、発錆個所の定量分析、例えば、燃料タンクの表面積に対する発錆個所の面積の割合の計算等、を行う。展開図編集部16は、燃料タンクのレポート用展開図153と定量分析結果とを、その燃料タンクに関連づけてデータベース10に登録する。登録されたレポート用展開図153と定量分析結果は、レポート生成部17に供給され得る。 The development diagram editing unit 16 performs quantitative analysis of the rusted areas, such as calculating the ratio of the area of the rusted areas to the surface area of the fuel tank, based on the report development diagram 153 created by editing the detection result development diagram 152. The development diagram editing unit 16 registers the report development diagram 153 of the fuel tank and the quantitative analysis results in the database 10 in association with the fuel tank. The registered report development diagram 153 and quantitative analysis results can be supplied to the report generation unit 17.

レポート生成部17は、展開図編集部16によって生成されたレポート用展開図153と発錆個所の定量分析結果とに基づいて、外観検査結果を表すレポートを生成する。レポート生成部17は、いずれかのユーザ端末4から供給されると、レポートをユーザが編集可能なように構成されたGUI上にそのレポートを組み込んだ上で、そのGUIをそのユーザ端末4の表示装置41に表示させる。レポートには、少なくとも、発錆個所の定量分析の結果と、レポート用展開図153とが自動的に掲載される。 The report generation unit 17 generates a report showing the results of the visual inspection based on the report development 153 generated by the development editing unit 16 and the quantitative analysis results of the rust locations. When the report generation unit 17 receives a report from any user terminal 4, it incorporates the report into a GUI configured to enable the user to edit the report, and displays the GUI on the display device 41 of the user terminal 4. At least the results of the quantitative analysis of the rust locations and the report development 153 are automatically included in the report.

レポートを編集できる上記GUI上でユーザによりレポート用展開図153が編集された場合には、レポート生成部17は、展開図編集部16を呼び出してレポート用展開図153を再生成してもよい。レポート生成部17は、再生成されるレポート用展開図153に基づいてレポートを再生成し、再生成されたレポートを表示装置41に表示させてもよい。 When the report development diagram 153 is edited by the user on the GUI that allows editing of the report, the report generation unit 17 may call the development diagram editing unit 16 to regenerate the report development diagram 153. The report generation unit 17 may regenerate the report based on the regenerated report development diagram 153, and display the regenerated report on the display device 41.

レポート生成部17は、ユーザ端末4からのユーザの要求に応じて、燃料タンクのユーザにより所望された部位の画像7を表示装置41に表示させたり、その画像7をレポートに加えたりすることができる。すなわち、レポート生成部17は、例えば、GUI上に表示された発錆個所のうちのいずれかがユーザによって選択された場合には、ユーザによって選択された発錆個所の画像7をデータベース10から取得して、そのGUI上に表示することができる。レポート生成部17は、その表示された画像7をレポート中のユーザ所望の位置に加えることができる。 In response to a user request from the user terminal 4, the report generation unit 17 can display an image 7 of a portion of the fuel tank desired by the user on the display device 41 and add the image 7 to the report. That is, for example, when the user selects one of the rust locations displayed on the GUI, the report generation unit 17 can obtain the image 7 of the rust location selected by the user from the database 10 and display it on the GUI. The report generation unit 17 can add the displayed image 7 to the position desired by the user in the report.

図8は、外観検査支援システム1が行う処理の全体的な流れ図である。 Figure 8 is an overall flow diagram of the processing performed by the visual inspection support system 1.

ステップS1で、画像取得部11が、いずれかのユーザ端末4から、1以上の検査対象、例えば1以上の燃料タンク、を撮影した複数の画像を取得し、取得した各燃料タンクの複数の画像を、各燃料タンクに関連付けてデータベース10に登録する。 In step S1, the image acquisition unit 11 acquires multiple images of one or more inspection objects, for example, one or more fuel tanks, from any one of the user terminals 4, and registers the multiple acquired images of each fuel tank in the database 10 in association with each fuel tank.

その後、ステップS2で、いずれかのユーザ端末4からの対象物選択要求を受けて、展開図生成部14が、データベース10にと登録された1以上の検査対象の中から、一つの検査対象、例えば一つの燃料タンクを選択する。その後、ステップS3で、展開図生成部14が、選択された燃料タンクの展開図がデータベース10内に既にあるかどうかを判断する。その判断の結果がYesであれば、制御はステップS5へ進み、Noであれば、制御はステップS4へ進む。 Then, in step S2, upon receiving an object selection request from any of the user terminals 4, the development drawing generating unit 14 selects one inspection object, for example one fuel tank, from one or more inspection objects registered in the database 10. Then, in step S3, the development drawing generating unit 14 determines whether or not an development drawing of the selected fuel tank is already present in the database 10. If the result of this determination is Yes, control proceeds to step S5, and if the result is No, control proceeds to step S4.

ステップS4では、展開図生成部14が、選択された燃料タンクの展開図を作成する。その際、3次元モデル生成部12又は設計図取得部13も、必要に応じて、展開図作成に関与する。ここで作成される展開図は、燃料タンクの画像の色が投影された色付き展開図であってよい。その後、制御はステップS5へ進む。 In step S4, the development drawing generating unit 14 creates a development drawing of the selected fuel tank. At that time, the 3D model generating unit 12 or the design drawing acquiring unit 13 also participates in the development drawing creation as necessary. The development drawing created here may be a colored development drawing in which the color of the image of the fuel tank is projected. After that, control proceeds to step S5.

ステップS5では、状態検出部15が、検査対象の燃料タンクの例えば色付き展開図から、異常個所、例えば発錆個所を検出する。その後、ステップS6で、状態検出部15が、検出された異常個所、例えば発錆個所を、その燃料タンクの展開図に投影する(例えば、展開図の発錆個所に錆マークを付ける)。発錆箇所が投影された(錆マークのつけられた)展開図が前述の検出結果展開図である。 In step S5, the condition detection unit 15 detects abnormal areas, for example rusted areas, from, for example, a colored development of the fuel tank being inspected. Then, in step S6, the condition detection unit 15 projects the detected abnormal areas, for example rusted areas, onto the development of the fuel tank (for example, attaches a rust mark to the rusted area on the development). The development onto which the rusted areas are projected (with the rust mark attached) is the aforementioned detection result development.

ステップS5の異常個所検出は、ステップS4の展開図作成の前に行われてもよい。その場合、状態検出部15は、燃料タンクの画像7に基づいて、又は、それらの画像7が投影された3次元モデル121に基づいて、異常個所の検出を行なうことができる。 The detection of abnormalities in step S5 may be performed before the creation of the development diagram in step S4. In that case, the state detection unit 15 can detect abnormalities based on the images 7 of the fuel tank or based on the three-dimensional model 121 onto which these images 7 are projected.

その後、ステップS7で、展開図編集部16が、いずれかのユーザ端末4からの要求に応じて、検出結果展開図をそのユーザ端末4に表示させてユーザに自動的な検査結果を確認させる。そして、そのユーザ端末4に入力されるユーザ操作に応じて、検出結果展開図の編集、及び必要があれば修正を行う。さらに、展開図編集部16が、更なる修正の必要がなくなった検出結果展開図に基づいて、発錆個所の面積や面積比などの定量的な計算を行う。 Then, in step S7, the development diagram editing unit 16, in response to a request from any of the user terminals 4, displays the detection result development diagram on that user terminal 4, allowing the user to confirm the automatic inspection results. Then, in response to user operations input to the user terminal 4, the development diagram editing unit 16 edits the detection result development diagram and corrects it if necessary. Furthermore, the development diagram editing unit 16 performs quantitative calculations such as the area and area ratio of rusted areas based on the detection result development diagram that no longer requires further correction.

その後、ステップS8で、レポート生成部16が、いずれかのユーザ端末4からの要求に応じて、その燃料タンクの検出結果展開図及び必要あれば特定個所の画像やその他の登録データを用いて、その燃料タンクの検査結果を表すレポートを作成する。 Then, in step S8, in response to a request from any of the user terminals 4, the report generation unit 16 creates a report showing the inspection results of the fuel tank using a development diagram of the detection results of the fuel tank and, if necessary, images of specific locations and other registered data.

図9は、図3のステップS4の展開図作成の流れを示す。 Figure 9 shows the flow of creating an unfolded view in step S4 of Figure 3.

S11で、ユーザがユーザ端末4から展開図生成部14に対して作成方法を選択する。ステップS12で、選択された作成方法が手動か自動かが判断され、前者であれば制御はステップS13へ進む。 In step S11, the user selects a creation method from the user terminal 4 for the development drawing generating unit 14. In step S12, it is determined whether the selected creation method is manual or automatic, and if it is the former, control proceeds to step S13.

ステップS13では、ユーザがユーザ端末4から展開図生成部14に対して、単純化モデルの諸元を指定する。その諸元には、例えば、形状種(例えば円筒、球、直方体、円錐、等)及び寸法(例えば高さ、半径、長さ、幅、等)等の単純化モデルの3次元形状を特定するための形状パラメータが含まれる。その後、ステップS15で、指定された形状パラメータに基づいて単純化モデルが作成される。その後、ステップS14で、展開図生成部14が、指定された諸元に基づいて、燃料タンクの単純化モデルを作成する。 In step S13, the user specifies the specifications of the simplified model from the user terminal 4 to the development drawing generation unit 14. The specifications include shape parameters for specifying the three-dimensional shape of the simplified model, such as the shape type (e.g., cylinder, sphere, rectangular solid, cone, etc.) and dimensions (e.g., height, radius, length, width, etc.). Then, in step S15, a simplified model is created based on the specified shape parameters. Then, in step S14, the development drawing generation unit 14 creates a simplified model of the fuel tank based on the specified specifications.

上述のステップS12で展開図の自動作成が選ばれた場合には、制御はステップS15へと進み、そこで、3次元モデル生成部12によって、検査対象の燃料タンクの多数の3次元点群が生成される。ここで、燃料タンクの3次元点群とは、その燃料タンクの多数の特徴点のそれぞれの3次元位置データを意味する。その後、ステップS16で、上述の3次元点群をメッシュ状に繋ぐことによって、その燃料タンクの3次元モデル(3次元メッシュモデル)121(図3、図4、図5参照)が生成される。 If automatic creation of a development view is selected in step S12 above, control proceeds to step S15, where the 3D model generation unit 12 generates a large number of 3D point clouds of the fuel tank to be inspected. Here, the 3D point cloud of the fuel tank means the 3D position data of each of the many characteristic points of the fuel tank. Then, in step S16, the 3D point clouds are connected in a mesh shape to generate a 3D model (3D mesh model) 121 (see Figures 3, 4, and 5) of the fuel tank.

その後、ステップS17で、その燃料タンクの単純化モデル122(図3、図4、図5参照)が生成される。 Then, in step S17, a simplified model 122 of the fuel tank (see Figures 3, 4, and 5) is generated.

単純化モデル122の3次元形状は、それを2次元の展開図に展開することが可能なものであれば、特に限定はないが、ユーザにとって検査対象の実物と展開図との位置関係が把握しやすい構造の展開図(例えば、側面図と平面図とのセット、あるいは、正面図と右側面図と左側面図と背面図と平面図のセット、等)に展開され得るものが好ましい。例えば、単純化モデル122の形状は、燃料タンクの3次元形状の中から、検査目的に大きく影響しない細かい形状要素が簡略化又は省略された形状であってよい。また、単純化モデル122の形状は、例えば、円筒型、直方型、円錐型、多角錐型、球形又はそれらの組み合わせ等の幾何学的形状であってよい。 The three-dimensional shape of the simplified model 122 is not particularly limited as long as it can be expanded into a two-dimensional development, but it is preferable that it can be expanded into a development structure that allows the user to easily grasp the positional relationship between the actual object to be inspected and the development (for example, a set of a side view and a plan view, or a set of a front view, a right side view, a left side view, a back view, and a plan view, etc.). For example, the shape of the simplified model 122 may be a shape of the three-dimensional shape of a fuel tank in which small shape elements that do not significantly affect the inspection purpose have been simplified or omitted. The shape of the simplified model 122 may also be a geometric shape such as a cylinder, a rectangular parallelepiped, a cone, a polygonal pyramid, a sphere, or a combination of these.

ステップS14又はS17で燃料タンクの単純化モデル122が生成された後、ステップS18で、その燃料タンクの画像7に基づく色がその単純化モデル122に付けられる。その後、ステップS19で、色付きの単純化モデル122が、2次元の展開図141(図3、図4、図5参照)に変換される。 After the simplified model 122 of the fuel tank is generated in step S14 or S17, a color based on the image 7 of the fuel tank is applied to the simplified model 122 in step S18. Then, in step S19, the colored simplified model 122 is converted into a two-dimensional development 141 (see Figures 3, 4, and 5).

ステップS18で生成された展開図141には、その展開図141と検査対象との位置関係又は方向関係を示す補助情報が記されていてもよい。例えば、図3に例示された燃料タンクを円筒形に単純化した展開図141(1)には、燃料タンクの各方向を示す補助情報、例えば、0°(正面方向)、90°(左側面方面)、180°(背面方向)及び270°(右側面方向)が付加されている。 The development 141 generated in step S18 may include auxiliary information indicating the positional or directional relationship between the development 141 and the object of inspection. For example, the development 141(1) of the fuel tank shown in FIG. 3, which is simplified into a cylindrical shape, includes auxiliary information indicating the directions of the fuel tank, such as 0° (front), 90° (left side), 180° (rear), and 270° (right side).

図10は、図9のステップS15の3次元点群生成の流れを示す。 Figure 10 shows the flow of 3D point cloud generation in step S15 of Figure 9.

ステップS21で、3次元モデル生成部12が、データベース10から燃料タンクの複数の画像7を読み込む。その後、ステップS22で、3次元モデル生成部12が、それらの画像7から、その燃料タンクの特徴点に相当する画素が多数抽出される。3次元モデル生成部12は、燃料タンクの特徴的な形状、色又は模様をもつ部分の点を特徴点として抽出してよい。3次元モデル生成部12は、例えば、燃料タンクに備えられる階段、凸部、凹部又は窓等の点を特徴点として抽出してもよい。 In step S21, the three-dimensional model generation unit 12 reads multiple images 7 of the fuel tank from the database 10. Then, in step S22, the three-dimensional model generation unit 12 extracts a large number of pixels corresponding to the characteristic points of the fuel tank from the images 7. The three-dimensional model generation unit 12 may extract points of parts of the fuel tank that have a characteristic shape, color, or pattern as the characteristic points. For example, the three-dimensional model generation unit 12 may extract points of steps, convex parts, concave parts, windows, etc. provided on the fuel tank as the characteristic points.

その後、3次元モデル生成部12は、燃料タンクの複数の画像7から外部標定要素と内部標定要素とを算出する(S23)。3次元モデル生成部12は、画像7から抽出された多数の特徴点相当の画素と、外部標定要素と内部標定要素とに基づいて、燃料タンクの多数の特徴点のそれぞれの3次元位置(つまり3次元点群)を算出する(S24)。 Then, the three-dimensional model generating unit 12 calculates the exterior orientation parameters and the interior orientation parameters from the multiple images 7 of the fuel tank (S23). The three-dimensional model generating unit 12 calculates the three-dimensional positions of the multiple feature points of the fuel tank (i.e., a three-dimensional point cloud) based on the pixels corresponding to the multiple feature points extracted from the images 7 and the exterior orientation parameters and the interior orientation parameters (S24).

なお、3次元モデル121の生成方法は、上述した方法に限られない。3次元モデル生成部12は、例えば、画像7から3次元モデル121を生成する方法を学習させたニューラルネットワークを用いることによって、3次元モデル121を生成してもよい。 The method of generating the three-dimensional model 121 is not limited to the above-mentioned method. The three-dimensional model generating unit 12 may generate the three-dimensional model 121, for example, by using a neural network that has learned a method of generating the three-dimensional model 121 from the image 7.

図11は、図9のステップS17の単純化モデル生成の流れを示す。 Figure 11 shows the flow of generating a simplified model in step S17 of Figure 9.

ステップS31で、展開図生成部14が、データベース10内に、検査対象の燃料タンクの設計図面があるかどうかを判定する。その判定結果がYesならば、設計図取得部13は、データベース10からその燃料タンクの設計図面を読み込む(S32)。その判定結果がNoならば、展開図生成部14が、データベース10からその燃料タンクの3次元モデルを読み込む(S33)。 In step S31, the development drawing generating unit 14 determines whether or not there is a design drawing for the fuel tank to be inspected in the database 10. If the determination result is Yes, the design drawing acquiring unit 13 reads the design drawing for the fuel tank from the database 10 (S32). If the determination result is No, the development drawing generating unit 14 reads the 3D model of the fuel tank from the database 10 (S33).

その後、展開図生成部14は、その燃料タンクの設計図面又は3次元モデルに基づいて、単純化モデルの諸元、例えば、形状種や寸法を決定する(S34)。なお、展開図生成部14は、検査対象の形状又は種類等に応じて、単純化モデルの形状種を決定してもよい。また、展開図生成部14は、予め設定されている異なる種類の諸元の中から、検査対象物に応じて、特定の諸元を選択してもよい。その後、展開図生成部14は、決定された諸元に基づいて単純化モデルを生成する(S35)。 Then, the development drawing generating unit 14 determines the specifications of the simplified model, such as the shape type and dimensions, based on the design drawings or 3D model of the fuel tank (S34). The development drawing generating unit 14 may determine the shape type of the simplified model depending on the shape or type of the inspection object. The development drawing generating unit 14 may also select specific specifications from among different types of specifications that are set in advance, depending on the inspection object. The development drawing generating unit 14 then generates a simplified model based on the determined specifications (S35).

図12は、図9のステップS18の単純化モデルの色付け処理の流れを示す。 Figure 12 shows the flow of the simplified model coloring process in step S18 of Figure 9.

ステップS41で、展開図生成部14が、データベース10から、検査対象の燃料タンクの複数の画像7を読み込むと共に、それらの画像7の外部評定要素と内部評定要素を取得する。その燃料タンクの3次元モデルがすでに作成されている場合には、各画像7の外部評定要素と内部評定要素は、図10のステップS23ですでに算出されてデータベース10に登録されているから、それを読み込めばいい。他方、その画像7の外部評定要素と内部評定要素がまだ計算されていない場合には、図10のステップS21からS23と同じ方法で、外部評定要素と内部評定要素を計算すればよい。 In step S41, the development drawing generating unit 14 reads in multiple images 7 of the fuel tank to be inspected from the database 10, and obtains the external and internal evaluation elements of those images 7. If a three-dimensional model of the fuel tank has already been created, the external and internal evaluation elements of each image 7 have already been calculated and registered in the database 10 in step S23 of FIG. 10, so it is sufficient to read them in. On the other hand, if the external and internal evaluation elements of the image 7 have not yet been calculated, they can be calculated in the same manner as steps S21 to S23 of FIG. 10.

その後、ステップS42で、展開図生成部14が、それぞれの画像7の外部評定要素と内部評定要素に基づいて、単純化モデルの表面のすべての座標点を、それぞれの座標点が映っている1以上の画像7の画素に対応付ける。換言すれば、単純化モデルの各座標点がどの画像7のどの画素に写っているかを特定する。たいていの場合、各座標点は2枚以上の異なる画像7内の画素に写っているので、各座標点に対応する画素として2つ以上の画素が特定される。 Then, in step S42, the development drawing generating unit 14 associates all coordinate points on the surface of the simplified model with pixels of one or more images 7 in which each coordinate point appears, based on the external and internal orientation elements of each image 7. In other words, it identifies which pixel of which image 7 each coordinate point of the simplified model appears in. In most cases, each coordinate point appears in pixels in two or more different images 7, so two or more pixels are identified as the pixel corresponding to each coordinate point.

その後、ステップS43で、展開図生成部14が、単純化モデルの表面の各座標点について、ステップS42で特定された2以上の対応画素の内から、その座標点をカメラの最も正面に近い位置で撮影した1つの対応画素を選択する。その座標点をカメラの正面に位置させて撮影した結果が、その座標点の色を最も正確に示していると判断されるからである。 Then, in step S43, the development drawing generating unit 14 selects, for each coordinate point on the surface of the simplified model, one corresponding pixel from among the two or more corresponding pixels identified in step S42, which corresponds to the coordinate point photographed at a position closest to the front of the camera. This is because it is determined that the result of photographing the coordinate point with the camera positioned directly in front of it most accurately represents the color of the coordinate point.

その後、ステップS44で、展開図生成部14が、ステップ43で選択した対応画素の画素値を、単純化モデルのその座標点の色に設定する。ステップ45で、単純化モデルの全ての座標点について、ステップS43とS44の処理を行うことで、単純化モデルの全ての座標点の入りを設定する。これにより、色付き単純化モデルが出来上がる。 Then, in step S44, the development drawing generating unit 14 sets the pixel value of the corresponding pixel selected in step 43 to the color of that coordinate point of the simplified model. In step 45, the processing of steps S43 and S44 is performed for all coordinate points of the simplified model, thereby setting the color of all coordinate points of the simplified model. This results in a colored simplified model.

図13は、図8のステップS5の異常検出の流れを示す。 Figure 13 shows the flow of abnormality detection in step S5 of Figure 8.

ステップS51で、ユーザがユーザ端末4を通じて状態検出部15に対して、異常検出のための解析方法を選択する。選択された解析方法が機械学習である場合(S52、Yes)には、制御はステップS53進む、ステップS15では、状態検出部15が、予め用意された学習済み異常検出モデル(例えば、検査対象である燃料タンクの表面色に基づいて発錆個所などの異常を検出する方法を学習したニューラルネットワーク)を用いて、その燃料タンクの発錆個所などの異常個所を検出する。このとき、異常検出モデルには、例えば、色付きの展開図141又は色付きの単純化モデル122が入力され、そして、異常検出モデルは、色付きの展開図141又は色付きの単純化モデル122の表面から、発錆などの異常がある個所を検出する。 In step S51, the user selects an analysis method for anomaly detection for the state detection unit 15 through the user terminal 4. If the selected analysis method is machine learning (S52, Yes), control proceeds to step S53, and in step S15, the state detection unit 15 detects anomalies such as rusted areas in the fuel tank using a previously prepared trained anomaly detection model (for example, a neural network that has learned a method for detecting anomalies such as rusted areas based on the surface color of the fuel tank to be inspected). At this time, for example, the colored development diagram 141 or the colored simplified model 122 is input to the anomaly detection model, and the anomaly detection model detects areas of anomalies such as rusted areas from the surface of the colored development diagram 141 or the colored simplified model 122.

ステップS52で、選択された解析方法が画像処理である場合(S52、No)には、状態検出部15は、色付き展開図141又は色付き単純化モデル122の色データを、必要に応じて、画像処理で異常個所を検出するのに適した所定の色空間の色データに変換する。例えば、元の色データがRGB系であるところ、これをHSV(Hue、Saturation、Brightness)系、又は、HLS(Hue、Lightness、Saturation)系の色データに変換する(S54)。 In step S52, if the selected analysis method is image processing (S52, No), the state detection unit 15 converts the color data of the colored development diagram 141 or the colored simplified model 122 into color data in a predetermined color space suitable for detecting abnormalities by image processing, as necessary. For example, when the original color data is in the RGB system, this is converted into color data in the HSV (Hue, Saturation, Brightness) system or the HLS (Hue, Lightness, Saturation) system (S54).

その後、ステップS55で、状態検出部15は、発錆などの異常個所を識別するために予め用意された多次元の特徴空間上で、色付き展開図141又は色付き単純化モデル122の各位置の色データを評価することにより、発錆などの異常個所を検出する。 Then, in step S55, the condition detection unit 15 detects abnormalities such as rust by evaluating the color data at each position of the colored development diagram 141 or the colored simplified model 122 in a multidimensional feature space that has been prepared in advance to identify abnormalities such as rust.

以上説明した一実施形態にかかる外観検査支援システム1は、展開図編集部16及びレポート生成部17を備えることによって、対象物の発錆個所等の所定状態個所の定量情報に基づいたレポートを表示装置41に表示させることができる。これにより、外観検査支援システム1は、所定状態個所の定量情報をレポートに図面や文を用いて的確に表現することができる。その結果、外観検査支援システム1は、現実の要求により適合した対象物検査を支援することができる。 The visual inspection support system 1 according to the embodiment described above is equipped with a development diagram editing unit 16 and a report generating unit 17, and is therefore capable of displaying a report based on quantitative information of predetermined state locations, such as rusted locations, on the display device 41. This allows the visual inspection support system 1 to accurately express the quantitative information of predetermined state locations in the report using drawings and text. As a result, the visual inspection support system 1 can support object inspection that is more suited to actual requirements.

一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、ユーザがGUI上で展開図121を編集することができる。これにより、外観検査支援システム1は、よりユーザに視認性の高い説明用展開図153をレポートに載せることができる。 The visual inspection support system 1 according to one embodiment includes an unfolded view editing unit 16, which allows the user to edit the unfolded view 121 on the GUI. This allows the visual inspection support system 1 to include in the report an explanatory unfolded view 153 that is more easily visible to the user.

一実施形態にかかる外観検査支援システム1は、展開図編集部16を備えることによって、錆マーク151等の自動検出結果をユーザが編集することができる。これにより、外観検査支援システム1は、より正確な検査結果をレポートに載せることができる。 The visual inspection support system 1 according to one embodiment includes a development view editing unit 16, which allows the user to edit the results of automatic detection such as rust marks 151. This allows the visual inspection support system 1 to include more accurate inspection results in the report.

一実施形態にかかる外観検査支援システム1は、レポート生成部17を備えることによって、検査対象のユーザが所望する部位が表示される画像をGUI上に表示させることができる。これにより、外観検査支援システム1の利便性が向上する。 The visual inspection support system 1 according to one embodiment includes a report generating unit 17, which allows an image showing the part of the subject of inspection desired by the user to be displayed on the GUI. This improves the convenience of the visual inspection support system 1.

一実施形態にかかる外観検査支援システム1は、画像取得部11を備えることにより、ドローン2又は携帯カメラ3の少なくともいずれか一方から画像7を取得することができる。これにより、ドローン2では撮影できない検査対象の外観の範囲を携帯カメラ3の画像7で補完することができる。その結果、外観検査支援システム1は、現実の制限により適合した対象物検査を支援することができる。 The appearance inspection support system 1 according to one embodiment is equipped with an image acquisition unit 11, and is therefore capable of acquiring an image 7 from at least one of the drone 2 or the portable camera 3. This allows the range of the appearance of the inspection object that cannot be photographed by the drone 2 to be supplemented by the image 7 from the portable camera 3. As a result, the appearance inspection support system 1 can support the inspection of objects that are more suited to real-world limitations.

一実施形態にかかる外観検査支援システム1は、燃料タンク以外の様々な種類の人工的な又は自然の検査対象物の外観検査に適用できる。 The visual inspection support system 1 according to one embodiment can be applied to visual inspection of various types of artificial or natural inspection objects other than fuel tanks.

以上、本発明の一実施形態を説明したが、これは本発明の説明のための例示にすぎず、それとは異なる様々な態様で本発明を実施することができる。例えば、状態検出部15は、色付きの展開図又は色付き単純化モデルに代えて、3次元モデル生成部12からの色付きの3次元モデル121又は検査対象の画像7に基づいて、発錆箇所などの異常個所を検出してもよい。 Although one embodiment of the present invention has been described above, this is merely an example for explaining the present invention, and the present invention can be embodied in various different forms. For example, the condition detection unit 15 may detect abnormalities such as rusted areas based on the colored three-dimensional model 121 from the three-dimensional model generation unit 12 or the image 7 of the inspection target, instead of a colored development view or a colored simplified model.

また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。 For example, the development drawing generating unit 14 may generate the development drawing 141 based on the design drawing of the inspection object instead of the simplified model 122. In this case, the development drawing generating unit 14 can create a colored development drawing by associating each coordinate point of the development drawing created from the design drawing with one or more pixels in the multiple images 7 of the inspection object and setting the color of each coordinate point based on the pixel value of the one or more corresponding pixels.

また、例えば、展開図生成部14は、単純化モデル122に代えて、検査対象の設計図面に基づいて展開図141を生成してもよい。その場合、展開図生成部14は、設計図面から作成した展開図の各座標点を、検査対象物の複数の画像7の中の1以上の画素に対応付け、その1以上の対応画素の画素値に基づいて各座標点の色を設定することにより、色付きの展開図を作成することができる。 For example, the development drawing generating unit 14 may generate the development drawing 141 based on the design drawing of the inspection object instead of the simplified model 122. In this case, the development drawing generating unit 14 can create a colored development drawing by associating each coordinate point of the development drawing created from the design drawing with one or more pixels in the multiple images 7 of the inspection object and setting the color of each coordinate point based on the pixel value of the one or more corresponding pixels.

1・・・外観検査支援システム,11・・・画像取得部,12・・・3次元モデル生成部,13・・・設計図取得部,14・・・展開図生成部,15・・・状態検出部,16・・・展開図編集部,17・・・レポート生成部,2・・・ドローン,21・・・飛行装置,22・・・位置測定装置,23・・・方位測定装置,24・・・カメラ,3・・・携帯カメラ,31・・・写真撮影装置,32・・・位置測定装置,33・・・方位測定装置,4・・・ユーザ端末,41・・・表示装置 1... Appearance inspection support system, 11... Image acquisition unit, 12... 3D model generation unit, 13... Design drawing acquisition unit, 14... Development drawing generation unit, 15... Status detection unit, 16... Development drawing editing unit, 17... Report generation unit, 2... Drone, 21... Flying device, 22... Position measurement device, 23... Orientation measurement device, 24... Camera, 3... Mobile phone camera, 31... Photography device, 32... Position measurement device, 33... Orientation measurement device, 4... User terminal, 41... Display device

Claims (3)

対象物が表示される複数の画像を取得する画像取得部と、
前記対象物の展開図を生成し、前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加える展開図生成部と、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出する状態検出部と、
前記展開図と前記所定の領域に関する情報との表示を出力する手段と
を備える外観検査支援システム。
an image acquisition unit that acquires a plurality of images in which an object is displayed;
a development generating unit that generates a development of the object and adds auxiliary information indicating a positional relationship between the development and the object to the development;
a state detection unit that detects a predetermined area on the development view in which a predetermined state of the object appears based on the image;
A visual inspection support system comprising: a means for outputting a display of the development view and information regarding the specified area.
前記補助情報は、前記対象物の方向を示す情報である
請求項1に記載の外観検査支援システム。
The visual inspection support system according to claim 1 , wherein the auxiliary information is information indicating a direction of the object.
対象物が表示される複数の画像を取得し、
前記対象物の展開図を生成し、
前記展開図と前記対象物との位置関係を示す補助情報を前記展開図に加え、
前記画像に基づいて前記対象物の所定の状態が現れる前記展開図上の所定の領域を検出し、
前記展開図と前記所定の領域に関する情報との表示を出力する
外観検査支援方法。
Acquiring a number of images in which the object is displayed;
generating a development of the object;
Adding auxiliary information indicating a positional relationship between the development and the object to the development;
detecting a predetermined area on the development where a predetermined state of the object appears based on the image;
A visual inspection support method that outputs a display of the development view and information regarding the specified area.
JP2024107312A 2020-09-08 2024-07-03 Visual inspection support system and visual inspection support method Pending JP2024133575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024107312A JP2024133575A (en) 2020-09-08 2024-07-03 Visual inspection support system and visual inspection support method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020150468A JP7539110B2 (en) 2020-09-08 2020-09-08 Visual inspection support system and visual inspection support method
JP2024107312A JP2024133575A (en) 2020-09-08 2024-07-03 Visual inspection support system and visual inspection support method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020150468A Division JP7539110B2 (en) 2020-09-08 2020-09-08 Visual inspection support system and visual inspection support method

Publications (1)

Publication Number Publication Date
JP2024133575A true JP2024133575A (en) 2024-10-02

Family

ID=80682000

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020150468A Active JP7539110B2 (en) 2020-09-08 2020-09-08 Visual inspection support system and visual inspection support method
JP2024107312A Pending JP2024133575A (en) 2020-09-08 2024-07-03 Visual inspection support system and visual inspection support method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020150468A Active JP7539110B2 (en) 2020-09-08 2020-09-08 Visual inspection support system and visual inspection support method

Country Status (1)

Country Link
JP (2) JP7539110B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117723547B (en) * 2023-12-13 2024-07-02 江苏嘉耐高温材料股份有限公司 Quality monitoring system and method for finished product preparation based on magnesia carbon bricks

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6648971B2 (en) 2014-03-27 2020-02-19 株式会社フジタ Structure inspection device
JP2018181235A (en) 2017-04-21 2018-11-15 古河電気工業株式会社 Report generator, wind power generation equipment inspection system, program, and method for generating inspection report of wind power generation equipment
JP2019094620A (en) 2017-11-17 2019-06-20 株式会社ネクスコ東日本エンジニアリング Bridge inspection support device, bridge inspection support method, program, and mobile terminal device
JP6583840B1 (en) 2018-05-31 2019-10-02 株式会社センシンロボティクス Inspection system

Also Published As

Publication number Publication date
JP2022045012A (en) 2022-03-18
JP7539110B2 (en) 2024-08-23

Similar Documents

Publication Publication Date Title
CN112793564B (en) Autonomous parking auxiliary system based on panoramic aerial view and deep learning
JP6918672B2 (en) Deterioration diagnosis system
CN113870343A (en) Relative pose calibration method and device, computer equipment and storage medium
US11668577B1 (en) Methods and systems for response vehicle deployment
CN106683038B (en) Method and device for generating fire situation map
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
JP2020080147A (en) Maintenance activity support system and maintenance activity support method
EP3330928A1 (en) Image generation device, image generation system, and image generation method
CN106683039B (en) System for generating fire situation map
JP2024133575A (en) Visual inspection support system and visual inspection support method
CN112084916A (en) Automatic generation and diagnosis method for urban three-dimensional skyline contour line based on shielding rate
CN114964275A (en) Ground-air cooperative map construction method, device, equipment and storage medium
Shah et al. Condition assessment of ship structure using robot assisted 3D-reconstruction
JP2011169658A (en) Device and method for pinpointing photographed position
Baeck et al. Drone based near real-time human detection with geographic localization
JP2005310044A (en) Apparatus, method and program for data processing
CN114326794A (en) Curtain wall defect identification method, control terminal, server and readable storage medium
JP6799635B2 (en) Aerial image positioning system and aerial image positioning method.
JP2010271845A (en) Image reading support device
CN116203976A (en) Indoor inspection method and device for transformer substation, unmanned aerial vehicle and storage medium
KR102393300B1 (en) Object map generation system and method therefor
CN110136104A (en) Image processing method, system and medium based on unmanned aerial vehicle station
Wang et al. Rapid in-flight image quality check for UAV-enabled bridge inspection
Pratama et al. An Overview of Generating VR Models for Disaster Zone Reconstruction Using Drone Footage
CN114399549A (en) Panoramic overlay pattern spot rendering method and geographic national condition monitoring method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240704