JP7328361B2 - measuring device - Google Patents
measuring device Download PDFInfo
- Publication number
- JP7328361B2 JP7328361B2 JP2021570072A JP2021570072A JP7328361B2 JP 7328361 B2 JP7328361 B2 JP 7328361B2 JP 2021570072 A JP2021570072 A JP 2021570072A JP 2021570072 A JP2021570072 A JP 2021570072A JP 7328361 B2 JP7328361 B2 JP 7328361B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- unit
- image display
- display device
- measured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、複合現実感を利用して測定処理を行う測定装置に関する。 The present invention relates to a measuring device that performs measurement processing using mixed reality.
巻き尺で測定対象製品の長さを測定し、その測定値を目視により確認して、帳簿に転記し、その内容をデータファイルに入力することで、測定対象製品の測定値をデジタルデータとして記録することが一般的に行われている。この手法では、転記ミスなどにより測定値を誤ってデータファイルに記録することがある。 Measure the length of the product to be measured with a tape measure, visually confirm the measured value, transcribe it in a ledger, and enter the content in a data file to record the measured value of the product to be measured as digital data. that is commonly done. In this method, the measured values may be incorrectly recorded in the data file due to transcription errors or the like.
そのため、スマートメジャーを用いて測定対象製品の長さを測定することで、容易かつ正確に測定値をデジタルファイル化することが考えられる。デジタル測定を可能にする技術として、特許文献1に記載の電子巻尺があげられる。 Therefore, by measuring the length of the product to be measured using a smart measure, it is conceivable to easily and accurately convert the measured values into a digital file. As a technology that enables digital measurement, there is an electronic tape measure described in Patent Document 1.
しかしながら、スマートメジャーは、長い距離を測定することに向いておらず、測定対象製品が長い場合、測定をすることができない。 However, smart measures are not suitable for measuring long distances and cannot measure long products.
そこで、上述の課題を解決するために、本発明は、測定対象物の大きさによらずに正確な測定値を取得することができる測定装置を提供することを目的とする。 Accordingly, in order to solve the above-described problems, it is an object of the present invention to provide a measuring apparatus capable of obtaining accurate measured values regardless of the size of the object to be measured.
本発明の測定装置は、測定対象物における指定された基準部分に基づいて、電子的測定値を取得するための測定開始位置を特定する位置特定部と、前記測定対象物における指定された指定部分を測定起点とした前記測定対象物における概略測定値を算出する概略測定値算出部と、前記測定開始位置に基づいて、前記測定対象物における任意の位置までの距離を示す電子的測定値を取得する電子的測定値取得部と、前記概略測定値および前記電子的測定値に基づいて、前記測定対象物に対する最終測定値を算出する測定値算出部と、を備える。 The measuring apparatus of the present invention includes a position specifying unit that specifies a measurement start position for acquiring an electronic measurement value based on a specified reference portion of the measurement object, and a specified portion of the measurement object. and an approximate measurement value calculation unit that calculates an approximate measurement value of the object to be measured using as a measurement starting point, and acquires an electronic measurement value indicating a distance to an arbitrary position on the object to be measured based on the measurement start position. and a measured value calculator that calculates a final measured value for the object based on the rough measured value and the electronic measured value.
この発明によれば、電子的な測理の範囲を小さくすることができる。よって、測定対象物が大きくても正確な測定値を取得することができる。 According to the present invention, the scope of electronic measurement can be reduced. Therefore, accurate measurement values can be obtained even if the object to be measured is large.
本発明によると、測定対象物の大きさによることなく、正確な測定値を取得することができる。 According to the present invention, accurate measurement values can be obtained regardless of the size of the object to be measured.
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and duplicate descriptions are omitted.
図1~図5は、本実施形態における測定方法の概要を説明したものである。これら図面を用いて、本実施形態の測定方法について説明する。図1は、測定対象物である鉄骨Tの斜視図である。図1に示されるとおり、この鉄骨Tは、I形鋼である。この鉄骨Tは、原点Sに位置決めマーカMが添付されている。また、サブマーカSMが、原点Sから所定間隔(例えば50cm)ごとに添付されている。鉄骨Tには、そのウエブに付属物Hが付加されている。 1 to 5 outline the measurement method in this embodiment. The measuring method of this embodiment will be described with reference to these drawings. FIG. 1 is a perspective view of a steel frame T, which is an object to be measured. As shown in FIG. 1, this steel frame T is an I-shaped steel. A positioning marker M is attached to the origin S of the steel frame T. As shown in FIG. Also, submarkers SM are attached from the origin S at predetermined intervals (for example, 50 cm). The steel frame T has appendages H attached to its web.
この鉄骨Tは、数メートルあり、一般のAR(Augmented Reality)メジャーまたはスマートメジャーで測定することが困難である。 This steel frame T is several meters long and is difficult to measure with a general AR (Augmented Reality) measure or smart measure.
そのため、複合現実感による映像を提供する装置を利用して鉄骨Tの一部を撮影し、概略測定値を取得することで、ARメジャー等で測定する範囲を小さくする。なお、本実施形態におけるARメジャーとは、カメラで撮影した測定対象物の指定した範囲を測定する機能を示す。一般的に、ARメジャー機能は、スマートフォンなどで撮影した測定対象物との距離を、カメラの測距機能で測定し、その測定した距離に基づいて、測定対象物を測定することができる。 For this reason, a part of the steel frame T is photographed using a device that provides an image based on mixed reality, and a rough measurement value is obtained, thereby reducing the range to be measured by an AR measure or the like. It should be noted that AR measurement in the present embodiment indicates a function of measuring a specified range of a measurement target photographed by a camera. In general, the AR measure function can measure the distance to a measurement object photographed with a smartphone or the like using the distance measurement function of the camera, and measure the measurement object based on the measured distance.
図2は、ユーザUに複合現実感による映像を提供する画像表示装置100を用いた測定過程を示す図である。図2においては、ユーザUは、移動しながら、画像表示装置100を利用して、鉄骨Tの位置決めマーカMを始点にして測定開始基準位置Pまでを撮影する。画像表示装置100は、自己位置姿勢推定機能を有しており、鉄骨Tの測定を開始すると、鉄骨Tと画像表示装置100との位置関係を推定する。この自己位置姿勢機能は、公知の技術であって、例えばSLAM(Simultaneous Localization and Mapping)と呼ばれる技術を利用することにより実現される。
FIG. 2 is a diagram showing a measurement process using the
本実施形態においては、画像表示装置100は、自己位置姿勢推定機能を実現するために、画像表示装置100が撮影した位置決めマーカMを撮影することで、画像表示装置100と鉄骨Tとの初期位置における相対位置関係を把握することができる。すなわち、画像表示装置100は、自己位置姿勢推定機能により、画像表示装置100の位置情報および位置決めマーカMの位置情報を算出することができる。これら位置情報は、相対的な情報であり、位置決めマーカMの位置情報を原点(0,0)とした場合、画像表示装置100の位置情報(X,Y)を算出する。位置決めマーカMの形状および大きさの情報は予め画像表示装置100は有している。
In the present embodiment, the
その後、ユーザUは、鉄骨Tの測定方向に対して平行移動しながら当該鉄骨Tを撮影する。その撮影した鉄骨Tの映像に基づいて、鉄骨Tと画像表示装置100との位置関係を算出することができる。鉄骨Tの撮影方向に応じてその形状(見え方)が変わることから、どの方向の、どれぐらいの距離から撮影したのかを把握することができる。よって、画像表示装置100は、鉄骨Tの位置決めマーカMを原点として移動後の位置(X1,Y1)を算出することができる。また、同様に鉄骨Tのユーザが指定した位置(X2、Y2)を算出することができる。
After that, the user U takes an image of the steel frame T while moving parallel to the measurement direction of the steel frame T. As shown in FIG. Based on the captured image of the steel frame T, the positional relationship between the steel frame T and the
なお、自己位置姿勢推定機能は、上述の方法に限るものではなく、測定対象物との位置関係を推定することができるものであればよい。例えば、レーザートラッカーなどを利用してもよい。 Note that the self-position/orientation estimation function is not limited to the above-described method, and may be any method that can estimate the positional relationship with the measurement object. For example, a laser tracker or the like may be used.
画像表示装置100は、自己位置姿勢推定機能を用いて、サブマーカSM3の位置を推定し、測定開始基準位置Pとする。この測定開始基準位置Pは、自己位置姿勢推定機能により測定されたものであることから、誤差を含んでいる。
The
なお、サブマーカSM3の位置の推定は、ユーザU(画像表示装置100)の移動先の位置に基づいて行われる。すなわち、サブマーカSMは所定間隔ごとにおかれているため、ユーザUの位置に基づいて、最も近いサブマーカSMの位置は一義的に決まる。例えば、ユーザUの位置が、原点Sから1.5mであった場合、最も近いサブマーカSMは、原点Sから1.5mの位置と推定できる。画像表示装置100は原点Sから1.5mの位置を自己位置姿勢推定機能により、算出することができる。なお、サブマーカSMは50cmごとに配置されているとする。
Note that the position of the sub-marker SM3 is estimated based on the position to which the user U (image display device 100) has moved. That is, since the sub-markers SM are placed at predetermined intervals, the position of the nearest sub-marker SM is uniquely determined based on the user's U position. For example, if the position of the user U is 1.5 m from the origin S, the closest submarker SM can be estimated to be 1.5 m from the origin S. The
説明の便宜上、上記のような説明をしたが、自己位置姿勢推定機能を利用するため、最も近いサブマーカSMの推定位置(測定開始基準位置P)は、座標情報(X2、Y2)で得られる。なお、サブマーカSM自体を認識してもよいし、ユーザが当該サブマーカSMをタップ等してもよい。 For convenience of explanation, the above description has been made, but since the self-position/orientation estimation function is used, the estimated position (measurement start reference position P) of the nearest submarker SM can be obtained from the coordinate information (X2, Y2). The sub-marker SM itself may be recognized, or the user may tap the sub-marker SM.
画像表示装置100は、測定開始基準位置Pの最も近くにあるサブマーカSM3を画像認識技術によって認識し、測定開始位置S2として認識する。なお、本実施形態においては、測定開始基準位置Pは座標情報で表されるが、測定開始位置S2は測定の起点として視覚的に示されるものである。
The
図3に示されるように、画像表示装置100は、測定開始位置S2に相当するサブマーカSM3を含めて撮影する。この撮影した画像は、確認用画像X1として記憶される。
As shown in FIG. 3, the
図4は、サブマーカSM3の測定開始位置S2を用いてARメジャーにて測定する処理を示す。図4に示されるように、画像表示装置100は、ARメジャー機能により測定開始位置S2から付属物H(ガゼットプレート)までの距離L1を測定する。付属物Hは、ユーザが画像表示装置100を操作することにより指定される。その際、画像表示装置100は、付属物Hを含んだ鉄骨Tの画像を確認用画像X2として撮影し、記憶する。
FIG. 4 shows a process of measuring with AR measure using the measurement start position S2 of the submarker SM3. As shown in FIG. 4, the
そして、画像表示装置100は、原点Sから測定開始基準位置Pまでの距離Lを算出する。そして、距離Lと、ARメジャーにより測定された距離L1とを合計して、距離L2を算出する。なお、測定開始位置S2が測定対象位置S3より原点Sから遠くにあった場合には距離Lから距離L1を減算して距離L2を算出する。この距離L2は、原点Sから付属物Hまでの長さを示す。距離L2を複合現実感にて表示することで、測定値と測定箇所とをわかりやすく対応付ける。また、原点Sおよび測定開始基準位置Pは、自己位置姿勢推定機能により測定された位置である。ユーザが移動することによりこれら位置情報は誤差を含むことになるが、相対的な位置関係は変わらないことから、概略的な距離Lを算出する際には、原点Sと測定開始基準位置Pとの距離を測定する。
Then, the
図5に示すように、表示部106は、測定ミスの判断のため、複合現実感により確認用画像X1および確認用画像X2が合成された映像を表示する。
As shown in FIG. 5, the
このようにして、鉄骨Tにおける測定対象を概略的に測定し、詳細な部分については、ARメジャーなど緻密な測定方法を利用することで、ARメジャーなどでは測定が困難な大きな測定対象物の測定を可能にする。 In this way, the object to be measured in the steel frame T is roughly measured, and the detailed part is measured using a precise measurement method such as an AR measure. enable
上記説明した測定方法について、その測定方法を実行する画像表示装置100について説明する。図6は、画像表示装置100の機能構成を示すブロック図である。図6に示されるとおり、画像表示装置100は、カメラ101(撮影部)、自己位置姿勢推定部102(原点算出部、位置導出部)、概略測定部103(概略測定値算出部)、電子的測定部104(位置特定部、電子的測定値取得部)、測定値算出部105、表示部106(測定開始位置表示部、確認用画像表示部、測定値表示部)、および記憶部108(操作記憶部)を含んで構成されている。この画像表示装置100は、タブレット型の装置であって、カメラ101が撮影した鉄骨T等を表示部106に表示することができる。なお、タブレット型の装置に限るものではなく、ユーザの頭部に装着するゴーグル型の装置としてもよい。また、シースルー型のグラスに複合現実感機能を有したものとしてもよい。
The
カメラ101は、測定対象物である鉄骨Tを撮影する部分である。撮影した映像データは、表示部106に送られ表示される。
The
自己位置姿勢推定部102は、カメラ101が撮影した映像データに基づいて、測定対象物である鉄骨Tと、自装置との位置関係を推定する部分である。上述したとおり、自己位置姿勢推定部102は、カメラ101が撮影した鉄骨Tに付加されている位置決めマーカMに基づいて、鉄骨Tの位置情報および自装置の位置情報を推定する。また、自己位置姿勢推定部102は、ユーザ(画像表示装置100)が移動すると、カメラ101が撮影した映像データに基づいて、移動後の画像表示装置100の位置を推定する。また、自己位置姿勢推定部102は、カメラ101が撮影した鉄骨Tの任意の部分(測定開始基準位置P)の位置を推定する。
The self-position/
概略測定部103は、自己位置姿勢推定部102により推定された鉄骨Tの位置決めマーカMにより定められた原点Sから測定開始基準位置Pまでの距離を測定する。上述したとおり、原点Sは位置決めマーカMに基づいて自己位置姿勢推定部102により算出される。測定開始基準位置Pは、ユーザUがサブマーカSMの近傍に移動して、そのサブマーカSMの推定位置として自己位置姿勢推定部102により算出される。
The
電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを認識することにより求められた測定開始位置S2から測定対象位置S3までの距離を測定する。測定開始位置S2は、カメラ101により撮影されたサブマーカSMに基づいて指定される。ここでの電子的測定部104は、いわゆるAR(Augmented Reality)メジャーといわれる測定部であり、対象物までの距離と、カメラ101で撮影した映像データに基づいて、映像データ上で指定された範囲の距離を測定することができる。
The
測定値算出部105は、概略測定部103により測定された概略測定値と、電子的測定部104により測定された測定値とを合計することで、測定対象物の指定した範囲の測定値を取得することができる。
The measured
表示部106は、複合現実感による映像をユーザに提供する部分であり、現実空間にある測定対象物に対して、現実空間の所定位置に仮想的に配置した仮想画像を合成して表示する部分である。また、表示部は、測定開始位置を示す画像、確認用画像X1、X2、および最終測定値である距離L2を表示してもよい。本実施形態においては、タッチパネルの機能も有しており、ユーザにより表示されている部分を特定可能に構成されている。
The
記憶部108は、測定作業を仮想画像とともに動画データで記憶し、また撮影された各測定箇所の画像データを記憶する部分である。
The
このように構成された画像表示装置100の動作について説明する。図7は、画像表示装置100の動作を示すフローチャートである。
The operation of the
自己位置姿勢推定部102は、カメラ101により撮影された鉄骨Tの位置決めマーカMに基づいて、初期位置の設定を行う。この初期位置は、測定対象物である鉄骨Tと画像表示装置100との位置関係を示すための位置情報である。また、自己位置姿勢推定部102は、位置決めマーカMの位置である原点Sを設定する(S101)。これら位置情報は、例えば、位置決めマーカMを原点S(0,0)とし、画像表示装置100の位置を(X,Y)とする。
The self-position/
ユーザU(画像表示装置100)は、概略測定のために鉄骨Tに沿って移動し、サブマーカSMの近辺まで移動する。 概略測定部103は、移動した画像表示装置100に最も近いサブマーカSMを推定し、その位置を測定開始基準位置Pとして記録する(S102)。その際、複合現実感により、測定開始位置を示す画像(矢印画像など)を重畳表示する。この測定開始基準位置Pは、自己位置姿勢推定部102に測定された位置である。
The user U (image display device 100) moves along the steel frame T to the vicinity of the sub-marker SM for rough measurement.
電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを画像処理により認識し、このサブマーカSMを測定開始位置S2として特定する(S103)。
The
カメラ101は、サブマーカSMを含む鉄骨Tを撮影して、確認用画像X1を取得して、記憶部108はこれを記憶する(S104)。
The
電子的測定部104は、測定開始位置S2から測定対象位置S3までの距離L1を測定する(S105)。測定対象位置S3は、ユーザにより指定された地点である。本実施形態では、測定対象物である鉄骨Tのガゼットプレートであり、ユーザにより表示部106をタップすることにより特定される。この電子的測定部104は、例えば、ARメジャーであり、カメラ101が撮影した映像データに基づいて、電子的に測定することができる機能を有する。
The
カメラ101は、測定対象位置S3を含む鉄骨Tを撮影した確認用画像X2を取得し、記憶部108はこれを記憶する(S106)。
The
測定値算出部105は、原点Sから測定開始基準位置Pまでの距離Lと、距離L1とを合計して、測定結果L2を算出する(S107)。測定開始位置S2が、原点Sを起点にして測定終了位置より遠くにあった場合には距離Lから距離L1を減算して距離L2を算出する。表示部106は、複合現実感により鉄骨Tに測定結果を合成して表示する(S108)。さらに表示部106は、測定開始位置S2を認識した際の確認用画像X1および測定対象位置S3を測定した際の確認用画像X2を、測定結果とともに表示する(S109)。
The measurement
これにより、正確な測定値を得ることができるとともに、一般的なメジャーを利用した際における測定値の転記ミスなどを防止することができる。 As a result, it is possible to obtain accurate measured values, and to prevent mistakes in transcription of measured values when using a general measure.
つぎに変形例について説明する。上記実施形態は、電子的測定部104として、ARメジャーを利用したが、これに限るものではない。スマートメジャーまたはレーザー距離計など、画像表示装置100の機能外の装置を利用してもよい。この変形例においては、ゴーグル型の装置を想定している。すなわち、ユーザの頭部に装着するHMD型が好ましい。図8および図9を用いてその変形例における測定方法について説明する。これら図は、複合現実感による測定処理を模式的に示した図である。
Next, a modified example will be described. Although the above embodiment uses an AR measure as the
図8(a)に示すように、ユーザUは、ゴーグル型の画像表示装置100aを装着している。この画像表示装置100aは、鉄骨Tを測定対象として、測定処理を行う。図8(b)に示すように、この画像表示装置100aは、鉄骨Tを撮影しつつ、自己位置姿勢推定機能に基づいて測定開始基準位置Pを算出し、そして測定開始位置S2を特定する。これら位置の算出・特定方法は上述の通りである。画像表示装置100aは、測定開始基準位置Pの位置を示すために、「測定開始位置」を示すメッセージを表示部106に表示する。このメッセージは、いわゆる複合現実感により合成処理されて表示される。
As shown in FIG. 8A, the user U wears a goggle-type
図9(a)に示すように、ユーザUは、このメッセージに従って、スマートメジャー200を用いて、サブマーカSM3を認識することで得られた測定開始位置S2から所望の測定対象位置S3(ここでは付属物Hの位置)まで測定する。図9(b)に示すように、画像表示装置100aは、原点Sから測定開始基準位置Pまでの距離Lを算出する。また、スマートメジャー200は、測定開始位置S2から測定対象位置S3までの距離L1を算出する。画像表示装置100aは、スマートメジャー200が測定した距離L1を取得することで、これら距離LおよびL1に基づいて距離L2を算出することができる。
As shown in FIG. 9A, according to this message, the user U uses the
ユーザUは、ゴーグル型の画像表示装置100aを装着することで、スマートメジャー200を操作することができる。したがって、鉄骨Tの測定開始位置S2を、スマートメジャー200の測定起点とすることができる。
The user U can operate the
この画像表示装置100aは、機能構成は画像表示装置100とほぼ同じである。異なる点は、電子的測定部104はなく、スマートメジャー200から測定値を受信するために近距離無線部107(測定値取得部)を有する点にある。なお、図示しない画像処理部が、位置特定部として機能する電子的測定部104と同等の処理を行うことで、サブマーカSMを認識し、そして測定開始位置S2を特定する。
The
図10はその機能構成を示す図である。画像表示装置100aにおいて、自己位置姿勢推定部102および概略測定部103が距離Lを測定する。近距離無線部107は、ブルートゥースなどでの通信を行う。近距離無線部107は、距離Lを測定した後、所定時間内に(または所定操作などの所定条件のもと)、スマートメジャー200から数値情報を受信した場合、測定値算出部105は、その数値情報を距離L1と扱う。そして、測定値算出部105は、これら距離LおよびL1を合算することで、距離L2を算出することができる。
FIG. 10 is a diagram showing its functional configuration. In the
上述の画像表示装置100およびその変形例の画像表示装置100aは、ARメジャーまたはスマートメジャー200により測定される鉄骨Tを、複合現実感による合成処理を行いつつ、カメラ101を用いて撮影し、録画する録画部(図示せず)を有してもよい。また、画像表示装置100および画像表示装置100aは、録画のための操作部(図示せず)を備え、測定開始のための操作を行ってから録画部による録画を所定秒間行うようにしてもよい。また、操作の前後数秒間を録画してもよい。なお、録画部は、常に録画処理を行い、その操作の前後数秒間を記憶するようにしてもよい。
The above-described
ARメジャー、またはスマートメジャー200は一例であり、そのほかの電子的測定値を取得することができる測定装置であればよい。例えば、レーザー距離計でもよい。また、画像表示装置100がメジャーの測定文字を画像認識で読み取ることにより電子的測定値を取得してもよい。また、メジャーが音声読み上げをする機能を有している場合には、画像表示装置100が、メジャーが読み上げた測定値を音声認識で読み取ることにより電子的測定値を取得してもよい。
The AR measure, or
つぎに、本実施形態の測定装置である画像表示装置100の作用効果について説明する。画像表示装置100は、測定対象物である鉄骨Tを撮影するカメラ101を備える。そして、自己位置姿勢推定部102は、カメラ101により撮影された、鉄骨Tに付加された位置決めマーカM(指定部分)に基づいて測定対象物の原点Sを算出する。また、自己位置姿勢推定部102は、鉄骨Tの概略測定値を取得するための測定開始基準位置Pを導出する。また一方で、電子的測定部104は、位置特定部として機能して、測定開始基準位置Pの近傍のサブマーカSM(基準位置)を画像処理により認識し、それを測定開始位置S2とする。
Next, functions and effects of the
概略測定部103は、原点Sから測定開始基準位置Pまでの概略測定値を算出する。また、電子的測定部104は、測定開始位置S2から、測定対象物における任意の位置である測定対象位置S3までの距離L1を示す電子的測定値を取得する。誤差を考慮しない場合には、測定開始基準位置Pから測定対象位置S3までの距離を測定してもよい。
The
なお、画像表示装置100においては、ARメジャーなどの映像処理の手法により電子的測定を取得できる。また、変形例の画像表示装置100aにおいては、スマートメジャー200から得た測定を取得することができる。
In the
測定値算出部105は、概略測定値である距離Lおよび電子的測定値である距離L1に基づいて、測定対象物に対する最終測定値である距離L2を算出する。
The measured
この画像表示装置100によれば、装置内おいて、測定値を取得し、計算することで、測定対象物の測定値を取得することができる。
According to this
なお、カメラ101および自己位置姿勢推定部102による測定開始基準位置Pの導出処理は必須ではない。概略測定部103は、鉄骨Tに、位置決めマーカM(指定部分)およびサブマーカSM(基準部分)を添付しておき、それらのみを利用して、位置決めマーカMからユーザが指定したサブマーカSMまでの距離を概略測定値として測定してもよい。この場合、指定したサブマーカSMの位置が測定開始位置に相当することになる。この場合、サブマーカSMが、それぞれ別の柄または色などで互いを識別可能とし、移動中に認識される必要がある。サブマーカSMは、所定間隔ごとに並んで添付されていることを前提としているため、サブマーカSMの個数とその間隔に基づいて概略測定値を算出することができる。なお、位置決めマーカMは必ずしも、鉄骨Tの端部に添付するものではない。測定範囲の起点をしめすものであればよい。
Note that derivation processing of the measurement start reference position P by the
また、画像表示装置100において、電子的測定部104は、測定開始基準位置Pおよび予め定められた間隔ごとに鉄骨Tに配置されたサブマーカSMに基づいて、測定開始位置S2を導出する。電子的測定部104は、測定開始位置S2を測定の起点として、電子的測定値である距離L1を取得する。すなわち、自己位置姿勢推定部102は、概略測定対象となるサブマーカSMを推定して、その位置を測定開始基準位置Pとする。電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを画像認識して、その位置を測定開始位置S2とする。よって、測定開始位置S2を導出できる。
In the
これにより、正確な距離L1を取得できる。測定開始基準位置Pは、自己位置姿勢推定により得られたものであることから、ユーザの移動に伴って誤差が生じる。そして、サブマーカSMに基づいた測定開始位置S2とS3との間の正確な距離L1を求め、測定開始基準位置Pの論理的な位置を加算することで、正確なL2を簡単に求めることができる。 Thereby, the accurate distance L1 can be obtained. Since the measurement start reference position P is obtained by self-position/orientation estimation, an error occurs as the user moves. Then, by obtaining an accurate distance L1 between the measurement start positions S2 and S3 based on the submarkers SM and adding the logical position of the measurement start reference position P, an accurate distance L2 can be easily obtained. .
画像表示装置100において、表示部106は、測定開始基準位置Pであることを示すメッセージを表示する。測定開始基準位置Pと測定開始位置S2とは、ほとんど同じ位置を示している。よって、ユーザは、このメッセージに基づいて、測定開始位置S2から前記任意の位置までの距離を、電子的測定手段を用いて測定可能にさせる。特に変形例における画像表示装置100aにおいては、メッセージを表示することで、スマートメジャー200の測定開始位置を正確にすることができる。
In the
また、画像表示装置100は、カメラ101により撮影された、測定時における測定開始位置S2および測定対象位置S3の少なくとも一つを含んだ鉄骨Tを確認用画像X1またはX2として記憶する確認用画像記憶部である記憶部108をさらに備える。表示部106は、最終測定値である距離L2および確認用画像X1およびX2を表示する。
The
これにより、どのような状態において距離L2が得られたのかユーザ、そのほかの測定者は把握することができる。例えば、付属物Hのずれなどにより距離L2が大きくずれていた場合などでの測定ミスを容易に発見することができる。 This allows the user and other measurers to understand under what conditions the distance L2 was obtained. For example, it is possible to easily find a measurement error when the distance L2 is greatly deviated due to the deviation of the appendage H or the like.
また、記憶部108は、カメラ101により撮影された鉄骨Tに対する測定操作を動画データとして記憶する。特に、記憶部108は、ユーザが測定操作を行った時を基準にした前後所定時間の動画データを記憶する。
The
これにより、測定ミスの発見を容易にする。 This facilitates the discovery of measurement errors.
また、画像表示装置100および画像表示装置100aにおいて、自己位置姿勢推定部102を用いて、SLAMなどの自己位置姿勢推定機能を用いて測定開始基準位置を取得する。これにより、位置測定を容易にする。
In the
上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagrams used in the description of the above embodiments show blocks for each function. These functional blocks (components) are implemented by any combination of at least one of hardware and software. Also, the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, examining, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.
例えば、本開示の一実施の形態における画像表示装置100、100aなどは、本開示の測定方法の処理を行うコンピュータとして機能してもよい。図11は、本開示の一実施の形態に係る画像表示装置100、100aのハードウェア構成の一例を示す図である。上述の画像表示装置100、100aは、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。画像表示装置100、100aのハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the
画像表示装置100、100aにおける各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
Each function of the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の自己位置姿勢推定部102、概略測定部103、電子的測定部104などは、プロセッサ1001によって実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、画像表示装置100の自己位置姿勢推定部102、概略測定部103、電子的測定部104は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る測定方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
Devices such as the
また、画像表示装置100、100aは、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
Further, the
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.
情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information, etc., may be output from a higher layer (or lower layer) to a lower layer (or higher layer). It may be input and output via multiple network nodes.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, the channel and/or symbols may be signaling. A signal may also be a message. A component carrier (CC) may also be called a carrier frequency, a cell, a frequency carrier, or the like.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented. For example, radio resources may be indexed.
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the parameters described above are not limiting names in any way. Further, the formulas, etc., using these parameters may differ from those expressly disclosed in this disclosure. Since the various channels (e.g., PUCCH, PDCCH, etc.) and information elements can be identified by any suitable names, the various names assigned to these various channels and information elements are in no way restrictive names. isn't it.
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure); Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."
100…画像表示装置、100a…画像表示装置、101…カメラ、102…自己位置姿勢推定部、103…概略測定部、104…電子的測定部、105…測定値算出部、106…表示部、107…近距離無線部、108…記憶部。
DESCRIPTION OF
Claims (6)
前記映像データにおける前記測定対象物の指定部分に基づいて前記測定対象物の原点位置を算出する原点算出部と、
自己位置姿勢推定機能にしたがって指定された測定開始基準位置に基づいて、前記測定対象物に予め定められた間隔ごとに配置された一または複数の基準部分から一の基準部分の推定位置を推定し、当該推定位置に基づいて、電子的測定値を取得するための測定開始位置を特定する位置特定部と、
前記原点位置を測定起点として前記測定対象物における前記測定開始基準位置までの概略測定値を算出する概略測定値算出部と、
前記測定開始位置から、前記映像データ上で指定された前記測定対象物における任意の位置までの距離を示す電子的測定値を取得する電子的測定値取得部と、
前記概略測定値および前記電子的測定値に基づいて、前記測定対象物に対する最終測定値を算出する測定値算出部と、
を備える測定装置。 a photographing unit for photographing an object to be measured and acquiring image data;
an origin calculation unit that calculates an origin position of the measurement object based on a specified portion of the measurement object in the video data;
estimating an estimated position of one reference portion from one or more reference portions arranged at predetermined intervals on the object to be measured, based on a measurement start reference position specified according to the self-position/orientation estimation function; , a position determining unit for determining a measurement starting position for obtaining electronic measurements based on the estimated position;
a rough measurement value calculation unit that calculates a rough measurement value up to the measurement start reference position on the measurement object using the origin position as a measurement starting point;
an electronic measurement value acquisition unit that acquires an electronic measurement value indicating a distance from the measurement start position to an arbitrary position on the measurement object specified on the image data ;
a measurement value calculation unit that calculates a final measurement value for the measurement object based on the rough measurement value and the electronic measurement value;
A measuring device comprising a
ユーザに、当該測定開始位置から前記任意の位置までの距離を、電子的測定手段を用いた測定を可能にさせる、
請求項1に記載の測定装置。 Further comprising a measurement start position display unit that displays the measurement start position,
Allowing the user to measure the distance from the measurement start position to the arbitrary position using electronic measurement means;
The measuring device according to claim 1 .
前記最終測定値および前記確認用画像を表示する確認用画像表示部と、を備える、
請求項1または2に記載の測定装置。 a confirmation image storage unit for storing, as a confirmation image, a measurement object captured by the imaging unit and including at least one of the measurement start position and the measurement target position indicating the end point of the measurement range at the time of measurement;
a confirmation image display unit that displays the final measured value and the confirmation image;
3. The measuring device according to claim 1 or 2 .
請求項1~3のいずれか一項に記載の測定装置。 further comprising an operation storage unit that stores, as video data, a measurement operation for the measurement object photographed by the photographing unit;
The measuring device according to any one of claims 1-3 .
請求項4に記載の測定装置。 The operation storage unit stores moving image data for a predetermined period of time before and after the time when the user performed the measurement operation.
The measuring device according to claim 4 .
請求項1~5のいずれか一項に記載の測定装置。 Further comprising a measurement value display unit that superimposes and displays the final measurement value calculated for the measurement object in the video data captured by the imaging unit,
The measuring device according to any one of claims 1-5 .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020001675 | 2020-01-08 | ||
JP2020001675 | 2020-01-08 | ||
PCT/JP2021/000246 WO2021141055A1 (en) | 2020-01-08 | 2021-01-06 | Measurement device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021141055A1 JPWO2021141055A1 (en) | 2021-07-15 |
JP7328361B2 true JP7328361B2 (en) | 2023-08-16 |
Family
ID=76787593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021570072A Active JP7328361B2 (en) | 2020-01-08 | 2021-01-06 | measuring device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7328361B2 (en) |
WO (1) | WO2021141055A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009174947A (en) | 2008-01-23 | 2009-08-06 | Nisshin A & C Co Ltd | Pass/fail determination method for length in transfer direction of workpiece |
WO2017134886A1 (en) | 2016-02-02 | 2017-08-10 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
JP2019105593A (en) | 2017-12-14 | 2019-06-27 | Agms株式会社 | Measurement system, measurement method, measurement program, belt and clothing |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6058801B2 (en) * | 1980-03-08 | 1985-12-21 | ニッタ株式会社 | Sizing processing equipment for long objects |
-
2021
- 2021-01-06 JP JP2021570072A patent/JP7328361B2/en active Active
- 2021-01-06 WO PCT/JP2021/000246 patent/WO2021141055A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009174947A (en) | 2008-01-23 | 2009-08-06 | Nisshin A & C Co Ltd | Pass/fail determination method for length in transfer direction of workpiece |
WO2017134886A1 (en) | 2016-02-02 | 2017-08-10 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
JP2019105593A (en) | 2017-12-14 | 2019-06-27 | Agms株式会社 | Measurement system, measurement method, measurement program, belt and clothing |
Also Published As
Publication number | Publication date |
---|---|
WO2021141055A1 (en) | 2021-07-15 |
JPWO2021141055A1 (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9733713B2 (en) | Laser beam based gesture control interface for mobile devices | |
CN112258567A (en) | Visual positioning method and device for object grabbing point, storage medium and electronic equipment | |
US11238273B2 (en) | Data processing method and apparatus, electronic device and storage medium | |
US11616699B2 (en) | Obtaining location metadata for network devices using augmented reality | |
CN110648363A (en) | Camera posture determining method and device, storage medium and electronic equipment | |
KR20160001418A (en) | Peripheral Apparatus, Server Apparatus and and Method for Checking Location of Portable Apparatus | |
US11790620B2 (en) | Method and system for augmented reality Wi-Fi coverage map | |
JP7328361B2 (en) | measuring device | |
CN109242782B (en) | Noise processing method and device | |
JP2024502516A (en) | Data annotation methods, apparatus, systems, devices and storage media | |
CN108960213A (en) | Method for tracking target, device, storage medium and terminal | |
JP2019186800A (en) | Information terminal device, program and method | |
EP3312626B1 (en) | Auxiliary apparatus for lighthouse positioning system | |
CN109451526A (en) | A kind of wireless network method for visualizing and device | |
US20220357157A1 (en) | Image-processing method, image-processing device, and recording medium | |
KR20170083328A (en) | Mobile device and method for controlling the mobile device | |
JP2023037848A (en) | Displacement quantity calculation device | |
JP2019066292A (en) | Video display system | |
US10705630B2 (en) | Control method, information processing apparatus, and non-transitory computer-readable storage medium for storing program | |
WO2023248619A1 (en) | Terminal device and object management server | |
JP3285567B2 (en) | Three-dimensional position measuring device and method, and recording medium recording three-dimensional position measuring program | |
JP2016192014A (en) | Information processing device, information processing method, and program | |
JP7217368B2 (en) | image display device | |
Tagami et al. | LESAR: Localization System for Environmental Sensors using Augmented Reality | |
WO2023199627A1 (en) | Guide image management device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7328361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |