JPH0646886B2 - Steering control device for automated vehicle - Google Patents
Steering control device for automated vehicleInfo
- Publication number
- JPH0646886B2 JPH0646886B2 JP61229124A JP22912486A JPH0646886B2 JP H0646886 B2 JPH0646886 B2 JP H0646886B2 JP 61229124 A JP61229124 A JP 61229124A JP 22912486 A JP22912486 A JP 22912486A JP H0646886 B2 JPH0646886 B2 JP H0646886B2
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- differential value
- vehicle body
- work site
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000001514 detection method Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 10
- 238000012935 Averaging Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Guiding Agricultural Machines (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、撮像手段によって車体の進行方向前方所定範
囲の作業地状態を撮像し、その撮像画像情報を、その各
画素の明度に基づいて2値化する2値化手段、その2値
化手段の情報に基づいて未処理作業地と処理済作業地と
の境界に対応する撮像画像情報上の線分を検出する境界
検出手段、および、この境界検出手段による境界検出結
果に基づいて、車体が前記境界に沿って自動的に走行す
るように操向する制御手段を備えた自動走行作業車の操
向制御装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Industrial field of use] The present invention captures an image of a work ground condition in a predetermined range in the forward direction of a vehicle body by an image capturing device, and captures the captured image information based on the brightness of each pixel. Binarizing means for binarizing, boundary detecting means for detecting a line segment on the captured image information corresponding to the boundary between the unprocessed work site and the processed work site based on the information of the binarizing means, and The present invention relates to a steering control device for an automatic traveling work vehicle, which includes control means for steering the vehicle body so as to automatically travel along the boundary based on the boundary detection result by the boundary detection means.
かかる操向制御装置は、未処理作業地と処理済作業地と
の境界に沿って走行しながら作業を行うことになる作業
車を、前記境界に沿って自動走行させるために用いられ
るものである。Such a steering control device is used to automatically drive a work vehicle, which is to perform work while traveling along a boundary between an unprocessed work site and a processed work site, along the boundary. .
そして、従来では、フォトインタラプタ式や光反射式の
無接触式のセンサまたは接触式のセンサなどを用いて、
境界を検出するようにしていた。(例えば特開昭60-186
202号公報参照) しかしながら、従来では、車体進行方向に沿う線状に存
在する境界のうちの一点のみを検出するものであるた
め、例えば、境界が部分的に凹凸しているような場合、
本来は車体を直進させた方が良いにも抱らず不必要に車
体を操向させてしまうことになる等、検出される情報が
車体の操向制御情報とて不適な情報となる場合があっ
た。しかも、境界のうちの一部の明確でない部分が存在
すると、誤検出を起こす虞もあり、そして、それに伴っ
て誤った操向制御が行われるものとなるのであり、境界
に部分的に凹凸が存在していたり、境界の一部に不明確
な部分があっても、適正な情報を検出できる境界検出手
段が望まれていた。Then, conventionally, using a photointerrupter type or a light reflection type non-contact type sensor or a contact type sensor,
I was trying to detect the boundaries. (For example, JP-A-60-186
However, in the prior art, since only one point of the boundaries existing linearly along the vehicle traveling direction is detected, for example, when the boundaries are partially uneven,
In some cases, the detected information may be unsuitable as steering control information for the vehicle, such that it is better to move the vehicle straight, but the driver may unnecessarily steer the vehicle. there were. Moreover, if there is a part of the boundary that is not clear, there is a risk of erroneous detection, and erroneous steering control will be carried out accordingly, resulting in partial unevenness at the boundary. There has been a demand for a boundary detection means that can detect appropriate information even if it exists or an unclear part of the boundary exists.
そこで、本出願人は、車体進行方向前側の作業地の所定
の範囲を撮像した画像情報を、その各画素の明度に基づ
いて2値化することによって、前記境界を連続した線と
して検出する手段を、先に提案してある(特願昭59−
211637号)。Therefore, the applicant of the present invention detects the boundary as a continuous line by binarizing image information obtained by imaging a predetermined range of the work site on the front side in the vehicle body traveling direction based on the brightness of each pixel. Has been previously proposed (Japanese Patent Application No. 59-
No. 211637).
上記画像情報を各画素の明度に基づいて2値化すること
によって境界を検出する境界検出手段は、未処理作業地
と処理済作業地との明度の違いより、境界を判別しよう
とするものである。The boundary detecting means for detecting the boundary by binarizing the image information based on the brightness of each pixel is intended to determine the boundary based on the difference in brightness between the unprocessed work site and the processed work site. is there.
このため、画像全域において、未処理作業地と処理済作
業地とが、明度値の違いにより明確に分離されなけれ
ば、誤検出が多くなるという不都合がある。つまり、例
えば処理済作業地内に暗く見える部分があったり、未処
理作業地内に明るく見える部分があると、未来の境界と
区別するできなくという不都合がある。Therefore, if the unprocessed work site and the processed work site are not clearly separated due to the difference in lightness value in the entire area of the image, there is an inconvenience that many false detections occur. That is, for example, if there is a dark portion in the processed work site or a bright portion in the unprocessed work site, it is not possible to distinguish it from the future boundary.
本発明は、上記実状に鑑みて為されたものであって、そ
の目的は、撮像手段を有効利用しながら上記要望を満足
させるようにし、しかも、撮像手段を用いるに伴い必要
となる画像処理を高速で能率良く行わせることができる
境界検出手段を備えた自動走行作業車の操向制御装置を
提供する点にある。The present invention has been made in view of the above circumstances, and an object of the present invention is to satisfy the above-mentioned demand while effectively using an image pickup unit, and further, to perform image processing required by using the image pickup unit. Another object of the present invention is to provide a steering control device for an automated guided vehicle equipped with a boundary detection means that can be efficiently operated at high speed.
本発明による自動走行作業車の操向制御装置の特徴構成
は、前記2値化手段が、前記撮像画像情報の各画素の車
体横幅方向に沿う方向での明度変化に対応する微分値を
演算する微分値演算手段、その微分値の正負符号を判別
する微分値符号判別手段、前記微分値の正負符号の何れ
か一方を選択する符号選択手段、および、前記微分値符
号判別手段による判別符号のうちの前記符号選択手段に
て選択された符号の微分値変化が所定の値以上である画
素を抽出する抽出手段を備えている点に特徴を有し、そ
の作用ならびに効果は以下の通りである。In the characteristic configuration of the steering control device for an automated guided vehicle according to the present invention, the binarizing means calculates a differential value corresponding to a change in lightness of each pixel of the captured image information in a direction along the lateral direction of the vehicle body. Of the discrimination code by the differential value computing means, the differential value code discriminating means for discriminating the positive / negative sign of the differential value, the code selecting means for selecting one of the positive / negative symbols of the differential value, and the discrimination code by the differential value code discriminating means. It is characterized in that it comprises extraction means for extracting a pixel in which the change in the differential value of the code selected by the code selection means is equal to or more than a predetermined value, and its action and effect are as follows.
すなわち、車体進行方向前方側の所定範囲を撮像し、そ
の撮像画像情報の各画素の車体横幅方向に沿う方向での
明度変化に対応する微分値を求め、その微分値のうち符
号選択手段にて選択された方側の符号(正又は負)を示
す微分値のみを抽出し、更に、その抽出された微分値が
所定の値以上であるものを抽出することによって画像情
報を2値化し、その2値化画像情報により最小自乗法や
Haugh変換にて境界に対応する直線を検出するのであ
る。That is, a predetermined range on the front side in the traveling direction of the vehicle body is imaged, a differential value corresponding to a change in brightness of each pixel of the captured image information in the direction along the vehicle lateral width direction is obtained, and the sign selecting means of the differential value is used. Only the differential value showing the sign (positive or negative) on the selected side is extracted, and further the extracted differential value is equal to or more than a predetermined value, so that the image information is binarized. The least squares method and the binary image information
The straight line corresponding to the boundary is detected by the Haugh transform.
このときの符号選択手段にて選択される符号は、車体進
行方向に対する未処理作業地と処理済作業値との位置関
係により決定されるものである。The code selected by the code selection means at this time is determined by the positional relationship between the unprocessed work site and the processed work value in the vehicle body traveling direction.
つまり、例えば、第4図中(b)に示すように車体進行方
向右側に処理済作業地を隣接する場合には、撮像画像
は、第2図(イ)に示すように、明度変化が暗→明となる
負(-)の微分値を示すことになるので、前記符号選択手
段は、車体進行方向右側に処理済作業地を隣接する場合
には、負を選択するように構成されており、車体進行方
向左側に処理済作業地を隣接する場合には、正を選択す
るように構成されている。That is, for example, when the processed work site is adjacent to the right side in the vehicle body traveling direction as shown in FIG. 4 (b), the captured image shows a dark change in brightness as shown in FIG. 2 (a). → Because it shows a negative (-) differential value that becomes clear, the sign selecting means is configured to select negative when the processed work site is adjacent to the right side of the vehicle body traveling direction. When the processed work site is adjacent to the left side in the vehicle body traveling direction, positive is selected.
但し、上述の微分値の符号は、明度変化が明→暗を正
(+)の微分値、暗→明を負(−)の微分値として規定
した場合を示している。However, the sign of the above-mentioned differential value shows the case where the brightness change defines light → dark as a positive (+) differential value and dark → bright as a negative (−) differential value.
ちなみに、上記撮像画像情報が、車体進行方向前方側の
所定範囲の作業地の状況に対応するものであるから、上
述の如く検出される境界線は、車体進行方向に沿う線状
に存在する境界のうちの一部ではあるものの、車体進行
方向に沿う長さを有する境界部分に対応するものとな
る。By the way, since the above-mentioned captured image information corresponds to the situation of the work area in the predetermined area on the front side in the vehicle body traveling direction, the boundary line detected as described above is a boundary existing along the vehicle body traveling direction. However, it corresponds to a boundary portion having a length along the vehicle body traveling direction.
又、車体が境界に沿って走行するものであるため、境界
は車体進行方向に沿って存在することになり、そして、
境界を車体横巾方向に沿う明度変化にて検出できる点に
着目すると共に、その点を有効利用して、各画素の車体
横巾方向に沿う方向での明度変化に対応する微分値を演
算しながら検出させるようにしてあるので、例えば、各
画素の車体前後方向に沿う方向での明度変化の微分値を
も演算しながら検出させるようにするに較べて、車体前
後方向に沿う方向でのノイズ成分を予め除去して2値化
することができ、且つ、車体前後方向に沿う方向での演
算及び画像処理を省略することができるのである。Further, since the vehicle body travels along the boundary, the boundary exists along the vehicle traveling direction, and
Focusing on the point that the boundary can be detected by the change in brightness along the width direction of the vehicle body, and effectively utilizing that point, the differential value corresponding to the change in brightness along the width direction of the vehicle body of each pixel is calculated. However, since the differential value of the brightness change of each pixel in the direction along the vehicle body front-rear direction is also calculated and calculated, noise in the direction along the vehicle body front-rear direction can be detected. The components can be removed in advance and binarized, and the calculation and the image processing in the direction along the vehicle front-rear direction can be omitted.
しかも、車体横巾方向に沿う方向での明度変化に対応す
る微分値のうち、一方の符号を示す微分値のみを演算し
ながら検出させるようにしてあるので、他方の符号を示
す微分値に含まれるノイズ成分を予め除去して2値化す
ることができると共に、他方の符号を示す微分値での演
算処理及び画像処理をも省略することができるのであ
る。Moreover, among the differential values corresponding to the brightness change in the width direction of the vehicle body, only the differential value showing one sign is detected while being calculated, so that it is included in the differential value showing the other sign. It is possible to remove the generated noise component in advance and binarize it, and it is also possible to omit the calculation processing and the image processing with the differential value indicating the other sign.
つまり、撮像画像情報より、車体前後方向に沿う方向で
のノイズ成分及び前記他方の符号を示す微分値に含まれ
るノイズ成分を予め除去して2値化することができるの
である。That is, the noise component in the direction along the vehicle body front-rear direction and the noise component included in the differential value indicating the other sign can be removed in advance from the captured image information and binarized.
従って、撮像画像情報より、車体前後方向に沿う方向で
のノイズ成分及び前記他方の符号を示す微分値に含まれ
るノイズ成分を予め除去して2値化することができるの
で、撮像画像上に、2値化した後には除去することが困
難な情報、つまり、境界と誤判断し易い情報があって
も、換言すると、処理済み作業地内に暗く見える部分が
あっても、又は未処理作業地内に明るく見える部分があ
っても、車体前後方向に沿う方向及び他方の符号を示す
微分値に含まれるそれらの誤判断し易い情報を予め効率
良く除去することができ、その結果、誤判断し易い情報
により間違った境界情報を得ることを回避して、より正
確な境界情報を得ることができるのである。Therefore, from the captured image information, the noise component in the direction along the front-rear direction of the vehicle body and the noise component included in the differential value indicating the other sign can be removed in advance and binarized. Even if there is information that is difficult to remove after binarization, that is, information that is easily misjudged as a boundary, in other words, even if there is a dark portion in the processed work site or in the unprocessed work site. Even if there is a bright-looking portion, it is possible to efficiently remove in advance the information that is erroneously determined and that is included in the differential value that indicates the direction along the vehicle body front-rear direction and the other sign, and as a result, information that is easily erroneously determined. Thus, it is possible to avoid obtaining wrong boundary information and obtain more accurate boundary information.
しかも、余分な演算処理及び画像処理を省略することに
より各処理の高速化を図ることができるので、高速走行
する車体にも適用できるものとなる。つまり、境界検出
のために車体を低速走行させねばならないような不利を
回避できるのである。Moreover, since each processing can be speeded up by omitting extra calculation processing and image processing, the invention can be applied to a vehicle body running at high speed. In other words, it is possible to avoid the disadvantage that the vehicle body has to run at a low speed to detect the boundary.
もって、車体の操向制御面で優れた情報を、車体の走行
面での不利をもたらすことなく検出することがきる自動
走行作業車の走行制御装置を得るに至った。Therefore, it has become possible to obtain a traveling control device for an automatic traveling work vehicle capable of detecting excellent information on the steering control of the vehicle body without causing a disadvantage on the traveling surface of the vehicle body.
以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
第5図および第6図に示すように、前輪(2),(2)および
後輪(3),(3)のいずれをもステアリング操作可能に構成
された車体(1)の中間部にディスク型刈刃を内装した芝
刈装置(4)を上下動自在に懸架するとともに、各工程の
走行コースを示す芝地の未処理作業地としての未芝地
(B)と処理済作業地としての既刈地(C)との境界(L)を検
出する後記構成になる境界検出手段としての倣いセンサ
(A)を設け、この倣いセンサ(A)による境界検出結果に基
づいて操向制御することによって、前記境界(L)に沿っ
て自動走行可能な自動走行作業車としての芝刈作業車を
構成してある。As shown in FIG. 5 and FIG. 6, a disk is provided in the middle portion of the vehicle body (1) configured to steer all of the front wheels (2), (2) and the rear wheels (3), (3). A lawn mowing device (4) with a built-in cutting blade is suspended vertically so that it can be moved up and down.
(B) and a copy sensor as a boundary detecting means having a structure described below for detecting a boundary (L) between the already cut land (C) as a processed work site
(A) is provided, and steering control is performed based on the boundary detection result by the scanning sensor (A), thereby forming a lawnmower work vehicle as an automatic work vehicle capable of automatically traveling along the boundary (L). There is.
前記倣いセンサ(A)を構成するに、第1図にも示すよう
に、撮像手段としてのモニタカメラ(5)を、その撮像視
野が、車体(1)の進行方向前方側で、且つ、走行すべき
目標境界(L0)を中心とする所定範囲の芝地(D)となるよ
うに、車体(1)前方上方に向かって延設されたセンサ支
持フレーム(6)の先端部に設け、このモニタカメラ(5)に
よる撮像画像を制御装置(8)によって画像処理して、境
界(L)に対応する直線(但し、以下の説明においては検
出境界(L)と記載する場合もある。)を検出させるよう
にしてある。尚、前記制御装置(8)は、操向制御作動の
処理も併せて行うものであって、具体的には、目標境界
(L0)に対する検出境界(L)のずれ量(X)とずれ角(θ)を求
めて、前記検出境界(L)と目標境界(L0)とが一致するよ
うに、つまり、検出境界(L)が前記モニタカメラ(5)の車
体(1)に対して前後方向の視野中心に位置するように、
走行方向を修正すべくステアリング操作を制御するので
ある。As shown in FIG. 1, a monitor camera (5) as an image pickup means is included in the scanning sensor (A) so that the image pickup field of view is on the front side in the traveling direction of the vehicle body (1) and travels. Provided at the tip of the sensor support frame (6) extending toward the front upper direction of the vehicle body (1) so that the lawn (D) within a predetermined range around the target boundary (L 0 ) to be centered, The image captured by the monitor camera (5) is image-processed by the control device (8), and a straight line corresponding to the boundary (L) (however, may be described as a detection boundary (L) in the following description). Is detected. Incidentally, the control device (8) also performs processing of steering control operation, specifically, the target boundary.
The deviation amount (X) of the detection boundary (L) with respect to (L 0 ) and the deviation angle (θ) are calculated so that the detection boundary (L) and the target boundary (L 0 ) match, that is, the detection boundary (L). (L) so that it is located at the center of the visual field in the front-back direction with respect to the vehicle body (1) of the monitor camera (5),
The steering operation is controlled to correct the traveling direction.
以下、前記モニタカメラ(5)による撮像画像より境界(L)
を検出する構成を、第1図に示すブロック図、第2図に
示す画像信号の説明図、および、第3図に示すフローチ
ャートに基づいて詳述しながら説明を加える。Below, the boundary (L) from the image captured by the monitor camera (5)
The configuration for detecting is described in detail with reference to the block diagram shown in FIG. 1, the explanatory diagram of the image signal shown in FIG. 2, and the flowchart shown in FIG.
つまり、前記制御装置(8)によって、前記モニタカメラ
(5)による撮像画像情報(以下原画像信号(S0)と記載す
る)に基づいて、各画素の車体横巾方向に沿う方向での
明度変化に対応する微分値を演算する微分値演算手段、
その微分地の正負符号を判別する微分値符号判別手段、
微分値の正負符号の何れか一方を選択する符号選択手
段、前記微分値演算手段からの微分値のうち前記符号選
択手段にて選択された符号を示す微分値が所定値以上で
ある画素を抽出する抽出手段を備える2値化手段、及
び、その2値化手段からの画像情報(以下2値化画像(S
0)と記載する)に基づいて境界(L)に対応する直線を求
める境界検出手段が構成され、そして、各手段に対応す
る処理が、次に述べる如く順次実行される。That is, the monitor camera is controlled by the control device (8).
A differential value calculating means for calculating a differential value corresponding to a change in brightness of each pixel in a direction along the vehicle body width direction based on the captured image information (hereinafter referred to as the original image signal (S 0 )) by (5). ,
Differential value sign determination means for determining the positive / negative sign of the differential ground,
Code selection means for selecting one of the positive and negative signs of the differential value, and a pixel having a differential value showing a code selected by the code selection means out of the differential values from the differential value calculation means is a predetermined value or more. Binarizing means having an extracting means for performing the same, and image information from the binarizing means (hereinafter, the binarized image (S
Boundary detecting means for obtaining a straight line corresponding to the boundary (L) is configured based on ( 0 )), and the processing corresponding to each means is sequentially executed as described below.
但し、前記原画像信号(S0)は予め平均化処理され、その
平均化画像信号(S1)が前記微分値演算手段にて微分処理
されるようにしてある。However, the original image signal (S 0 ) is subjected to an averaging process in advance, and the averaged image signal (S 1 ) is differentiated by the differential value computing means.
又、本実施例では、明度変化が明→暗に変化するものを
正(+)の微分値、暗→明に変化するものを負(−)の
微分値として規定している。Further, in the present embodiment, a change in lightness from light to dark is defined as a positive (+) differential value, and a change in darkness to light is defined as a negative (-) differential value.
尚、前記符号選択手段にて選択される符号は、車体(1)
の進行方向に対する未処理作業地と処理済作業値との位
置関係により決定されるものであり、第3図に示すよう
に、処理済作業値(C)の位置が左右何方であるかを、例
えば手動で初期入力することにより、作業開始時の微分
値の符号を正(+),負(−)何れからの符号に予め選
択設定しておき、車体(1)が180度方向転換する度
に、選択される符号の正負が自動的に逆転するように構
成されている。The code selected by the code selecting means is the vehicle body (1).
It is determined by the positional relationship between the unprocessed work site and the processed work value with respect to the traveling direction of the, and as shown in FIG. 3, the position of the processed work value (C) is either left or right, For example, by manually inputting an initial value, the sign of the differential value at the time of starting work is selected and set in advance to a sign from positive (+) or negative (-), and the vehicle body (1) is turned by 180 degrees. In addition, the sign of the selected sign is automatically reversed.
つまり、作業開始時において、処理済作業地(C)の位置
の方向を、例えば右側と初期入力すると、符号選択手段
にて選択されるべき符号は、負(−)に初期設定され
る。That is, at the start of work, when the direction of the position of the processed work site (C) is initially input as, for example, the right side, the sign to be selected by the sign selecting means is initially set to negative (-).
さらに、前記原画像信号(S0)は、フレームメモリ(7)に
一旦記憶されるものである。Further, the original image signal (S 0 ) is temporarily stored in the frame memory (7).
そして、前記フレームメモリ(7)に記憶された原画像信
号(S0)(第2図(イ)に示す)を、例えば各画素の明度を
その周囲の所定画素数で区画された領域の平均値に順次
置き換えるというような処理を行うことによって、平均
化して、第2図(ロ)に示すようにぼかした平均化画像
(S1)を得る。Then, the original image signal (S 0 ) (shown in FIG. 2 (a)) stored in the frame memory (7) is calculated, for example, by averaging the brightness of each pixel divided by a predetermined number of surrounding pixels. An averaged image that is averaged by performing processing such as sequentially replacing it with values and blurred as shown in FIG.
Get (S 1 ).
尚、前記モニタカメラ(5)の視野(D)は、第5図および第
6図にも示すように、車体(1)上方より前方下方の作業
値を斜めに見下ろすようになるため、車体(1)より前方
に扇形に広がるものとなり、撮像された原画像信号(S0)
は、車体(1)より遠方となる部分(第2図中上側)の画
素密度が車体(1)に近い部分(第2図中下側)より粗く
なる。従って、このまま一様に平均化すると、画像下方
より上方ほど過平均され、その結果下方はノイズが多
く、上方は不必要にぼけた画像となるので、前記平均化
は画像上、下方より上方に向かって平均化密度が粗くな
るように処理している。As shown in FIGS. 5 and 6, the field of view (D) of the monitor camera (5) is such that the working value from above the vehicle body (1) is obliquely looked down from above the vehicle body (1). 1) It spreads out in a fan shape in front of the original image signal (S 0 )
Has a coarser pixel density in a portion farther from the vehicle body (1) (upper side in FIG. 2) than in a portion closer to the vehicle body (1) (lower side in FIG. 2). Therefore, if the averaging is performed uniformly as it is, the image is over-averaged above the lower part of the image, and as a result, the lower part is noisy and the upper part is an unnecessarily blurred image. The processing is performed so that the averaged density becomes coarser.
次に、第2図(ロ)に示すような平均化画像(S1)より、第
2図(ハ)に示すような2値化画像(S2)を得るための処理
が実行される。Next, the process for obtaining the binarized image (S 2 ) as shown in FIG. 2C is executed from the averaged image (S 1 ) as shown in FIG. 2B.
つまり、平均化画像(S1)より車体横幅方向の明度変化に
対応する微分値を求め、その微分値のうち、車体(1)の
進行方向と作業地状況の関係が、車体(1)右側に処理済
作業地(C)を隣接して未処理作業地(B)上を走行する場合
には、微分値の符号が第2図中左側より右側方向に暗→
明になる負(−)の微分値のみ抽出し、その抽出した負
(−)の微分値の情報のうち微分値が所定の値以上であ
る画素を抽出して2値化することによって、第2図(ハ)
に示すような、未刈地(B)と既刈地(C)との境界(L)部分
が明るい2値化画像(S2)を得るのである。That is, the differential value corresponding to the brightness change in the lateral direction of the vehicle body is calculated from the averaged image (S 1 ), and the relationship between the traveling direction of the vehicle body (1) and the work site situation is calculated from the differential value. When traveling on the unprocessed work site (B) adjacent to the processed work site (C), the sign of the differential value is darker from the left side to the right side in FIG.
By extracting only the negative (-) differential value that becomes clear, and extracting and binarizing the pixel of which the differential value is a predetermined value or more from the extracted negative (-) differential value information, Figure 2 (C)
A binarized image (S 2 ) having a bright boundary (L) between the uncut area (B) and the already cut area (C) is obtained as shown in FIG.
従って、第2図(ロ)中(L′)で示す画像情報のうち車体横
幅方向の微分値が正(+)となる明→暗の変化部を、ノイ
ズとして予め除去することとなる。Therefore, in the image information shown by (L ') in FIG. 2B, the light-> dark change portion where the differential value in the vehicle width direction is positive (+) is removed in advance as noise.
尚、第4図に示すように、車体(1)進行方向は、隣接し
た各行程を行程端で180度方向転換して順次往復走行す
る場合には、車体(1)と処理済作業地(C)との位置関係が
一行程毎に左右反転するので、方向転換の終了とともに
前記明度変化を判別する微分値の符号を正負切換えるよ
うにして、つまり、第4図中(b)に示すように車体(1)右
側に処理済作業地(C)を隣接する場合(第2図(イ)に示す
ような撮像画像の場合)は、明度変化が暗→明となる負
(-)の微分地の情報のみを抽出し、又、第4図中(a)に示
すように車体(1)左側に処理済作業地(C)を隣接する場合
(第2図(ニ)に示すような撮像画像の場合)は、明度変
化が明→暗となる正(+)の微分値の情報のみを抽出する
ようにして、2値化前の不要なノイズ成分を予め除去す
るようにしている。Incidentally, as shown in FIG. 4, the traveling direction of the vehicle body (1) is such that when the vehicle travels back and forth sequentially by advancing each adjacent stroke by 180 degrees at the end of the stroke, the vehicle body (1) and the treated work area ( Since the positional relationship with (C) is reversed right and left for each stroke, the sign of the differential value for discriminating the lightness change is switched between positive and negative at the end of the direction change, that is, as shown in (b) in FIG. When the processed work site (C) is adjacent to the right side of the vehicle body (1) (in the case of a captured image as shown in Fig. 2 (a)), the change in brightness becomes dark → bright.
When only the information of the differential place of (-) is extracted and the processed work site (C) is adjacent to the left side of the vehicle body (1) as shown in (a) of Fig. 4 (Fig. 2 (d)) (In the case of the captured image as shown in FIG. 2), only the information of the positive (+) differential value that changes the lightness from light to dark is extracted so that the unnecessary noise component before binarization is removed in advance. I have to.
そして、第2図(ハ)に示す前記2値化画像(S2)より、最
小自乗法やHaugh変換を用いて、境界(L)に対応する直線
を求めるのである。Then, the straight line corresponding to the boundary (L) is obtained from the binarized image (S 2 ) shown in FIG. 2C by using the least square method or the Haugh transform.
尚、最小自乗法とは、各画素との距離の累積が最も小さ
くなる直線を求めるものであり、又、Haugh変換とは、
各画素を通る直線のうち最も多数の画素を通る直線を求
めるものであるが、第2図(ハ)に示す2値化画像(S2)の
L,L′を含んだデータを最小自乗法又はHaugh変換にて処
理して直線を求めると、その直線が境界(L)に対応する
直線となるのである。In addition, the least squares method is to find a straight line that minimizes the accumulation of distances from each pixel, and the Haugh transform is
The straight line passing through the largest number of pixels among the straight lines passing through each pixel is obtained, and the straight line passing through the binarized image (S 2 ) shown in FIG.
When a straight line is obtained by processing the data including L and L ′ by the least square method or the Haugh transform, the straight line becomes the straight line corresponding to the boundary (L).
従って、第2図(ハ)に示す2値化画像(S2)中のデータ(L,
L′)よりノイズ部分(L′)を除去して、境界(L)に対応
する直線を求めることができる、つまり、未処理作業地
内の明るく見える部分(L′)を本来の境界(L)と区別する
ことができるのである。尚、処理済作業地内の暗く見え
る部分においても、未処理作業地の明るく見える部分
(L′)と同様に処理することにより、本来の境界(L)と区
別することできることとなる(詳細は省略)。Therefore, the data (L, L in the binarized image (S 2 ) shown in FIG.
By removing the noise part (L ′) from L ′), the straight line corresponding to the boundary (L) can be obtained, that is, the brightly visible part (L ′) in the unprocessed work site is the original boundary (L). Can be distinguished from. It should be noted that even in the dark-looking part of the processed work site, the bright-looking part of the unprocessed work site
By processing in the same manner as (L ′), it is possible to distinguish from the original boundary (L) (details omitted).
そして、境界線検出の処理が終了したのちは、上述の如
く、操向制御作動の処理が実行されることになる。After the boundary line detection process is completed, the steering control operation process is executed as described above.
つまり、第5図に示すように車体(1)が沿うべき目標境
界(L0)に対する検出境界(L)のずれ量(X)とずれ角(θ)を
演算する。That is, as shown in FIG. 5, the deviation amount (X) and the deviation angle (θ) of the detection boundary (L) with respect to the target boundary (L 0 ) along which the vehicle body (1) should follow are calculated.
そして、前記演算によって算出されたずれ量(X)に基づ
いて、前記前・後輪(2),(3)を同一方向にステアリング
操作して、車体(1)をその向きを変えること無く平行移
動させた後、前記ずれ角(θ)に基づいて、前記前・後輪
(2),(3)が相対的に逆方向となるようにステアリング操
作して車体(1)の目標境界(L0)に対する向きを修正し
て、前記検出境界(L)と目標境界(L0)とが前記モニタカ
メラ(5)の視野内において一致するように、つまり、車
体(1)が目標境界(L0)に沿うように制御するのである。Then, based on the shift amount (X) calculated by the above calculation, the front and rear wheels (2) and (3) are steered in the same direction, and the vehicle body (1) is parallelized without changing its direction. After moving, based on the deviation angle (θ), the front and rear wheels
Steering operation is performed so that (2) and (3) are relatively opposite to each other, and the direction of the vehicle body (1) with respect to the target boundary (L 0 ) is corrected to detect the detection boundary (L) and the target boundary (L 0 ). 0 ) is controlled so as to coincide with the field of view of the monitor camera (5), that is, the vehicle body (1) is controlled along the target boundary (L 0 ).
従って、不連続な境界、局所的に曲がった境界、芝地に
ムラがあって不明確な境界、などが検出されたとして
も、連続した境界(L)として正確に補正可能であり、従
来のように不要なステアリング操作をしたり、本来の境
界外へ走行方向がずれたりすることの無い、ステアリン
グ制御が可能となったのである。Therefore, even if a discontinuous boundary, a locally curved boundary, or an unclear boundary with uneven grass is detected, it can be accurately corrected as a continuous boundary (L). As described above, the steering control can be performed without performing unnecessary steering operation or shifting the traveling direction to the outside of the original boundary.
尚、第1図中、(9),(10)は夫々前輪(2),(2)および後
輪(3),(3)を実際にステアリング操作する油圧シリン
ダ、(11),(12)は夫々前記油圧シリンダ(9),(10)を駆
動する電磁バルブ、(13)は無段変速装置(14)の変速位置
を操作するモータである。また、(R1),(R2)は夫々前記
前輪(2),(2)および後輪(3),(3)のステアリング量を検
出して前記制御装置(8)にフィードバックするためのポ
テンショメータ、(R3)は同様に前記変速装置(14)の変速
位置を検出して制御装置(8)にフィードバックするため
のポテンショメータである。In FIG. 1, (9) and (10) are hydraulic cylinders for actually steering the front wheels (2) and (2) and the rear wheels (3) and (3), respectively (11) and (12). Are electromagnetic valves for driving the hydraulic cylinders (9), (10), respectively, and (13) is a motor for operating the gear shift position of the continuously variable transmission (14). Further, (R 1 ) and (R 2 ) are for detecting the steering amounts of the front wheels (2) and (2) and the rear wheels (3) and (3), respectively, and feeding them back to the control device (8). Similarly, the potentiometer (R 3 ) is a potentiometer for detecting the shift position of the transmission device (14) and feeding it back to the control device (8).
ところで、前記原画像信号(S0)を平均化して平均化画像
信号(S1)を求めているのは、刈取った芝の葉などの反射
光の影響による大きな明度変化や未刈地(B)内にある既
刈地(C)と区別しにくい芝が小さくハゲた部分やムラの
ある部分などを検出しにくくして、境界(L)の検出誤差
を予め少なくするためである。By the way, the average image signal (S 1 ) is obtained by averaging the original image signal (S 0 ), because a large lightness change or uncut area ( This is because it is difficult to detect a bald area or an uneven area where the grass is small and difficult to distinguish from the already-cut area (C) in B), and the detection error of the boundary (L) is reduced in advance.
そして、この平均化処理を行うに、前記演算処理に変え
て、ボカシ用の光学的なフィルタを用いたり、あるいは
単にカメラ(5)をいわゆるピンボケ状態で使用すること
によって行ってもよい。更に、例えば、光学的なフィル
タを、いわゆるソフトフォーカスフィルタを用いて、そ
の視野の上方より下方に向かって徐々にソフトフォーカ
スとなるようにすることによって、前記カメラ(5)の視
野(D)の歪みによる画像の粗密変化を同時に補正するこ
とができる。Then, in order to perform this averaging process, an optical filter for blurring may be used instead of the arithmetic process, or the camera (5) may be simply used in a so-called out-of-focus state. Further, for example, by using a so-called soft focus filter as an optical filter, by gradually softening the focus from above to below the field of view, the field of view (D) of the camera (5) It is possible to simultaneously correct changes in image density due to distortion.
また、車体(1)の進行方向に対する未処理作業地と処理
済作業地との位置関係に基づいて微分値の符号を選択す
るに、180度方向転換する度に自動的に符号を反転さ
せて選択する他、その都度人為的に設定するようにして
もよい。ちなみに、作業地外周より内周方向へ未処理作
業地(B)の外周部を順次走行する回り走行形式や、一行
程毎に幅寄せを行って前後進を繰り返す前後後進走行形
式等では、車体(1)と処理済作業地(C)すなわち境界(L)
との左右位置関係は変わらないので、作業開始時に前記
微分値の符号を一度設定するだけでよい。In addition, when selecting the sign of the differential value based on the positional relationship between the unprocessed work site and the processed work site with respect to the traveling direction of the vehicle body (1), the sign is automatically inverted every 180 ° direction change. In addition to selection, it may be artificially set each time. By the way, in the case of a traveling type that travels inward from the outer periphery of the work site to the outer periphery of the unprocessed work site (B) in sequence, or a front-rear reverse travel form that repeats forward and backward by performing width adjustment for each stroke, (1) and treated work site (C) or boundary (L)
Since the left-right positional relationship with and does not change, it is only necessary to set the sign of the differential value once at the start of work.
尚、特許請求の範囲の項に図面との対照を便利にする為
に符号を記すが、該記入により本発明は添付図面の構造
に限定されるものではない。It should be noted that reference numerals are added to the claims for convenience of comparison with the drawings, but the present invention is not limited to the structures of the accompanying drawings by the entry.
図面は本発明に係る自動走行作業車の操向制御装置の実
施例を示し、第1図は制御システムの構成を示すブロッ
ク図、第2図(イ)、(ロ)、(ハ),(ニ)は画像信号の説明図、
第3図は制御装置の動作を示すフローチャート、第4図
は車体と境界の位置関係の説明図、第5図は芝刈作業車
の全体構成を示す平面図、そして、第6図はその側面図
である。 (1)……車体、(5)……撮像手段、(A)……境界検出手
段、(B)……未処理作業地、(C)……処理済作業地、(L)
……境界。The drawings show an embodiment of a steering control device for an automated guided vehicle according to the present invention, and FIG. 1 is a block diagram showing the configuration of a control system, and FIG. 2 (a), (b), (c), ( D) is an illustration of the image signal,
FIG. 3 is a flow chart showing the operation of the control device, FIG. 4 is an explanatory view of the positional relationship between the vehicle body and the boundary, FIG. 5 is a plan view showing the overall configuration of the lawn mowing work vehicle, and FIG. 6 is a side view thereof. Is. (1) …… Car body, (5) …… Imaging means, (A) …… Boundary detection means, (B) …… Unprocessed work site, (C) …… Processed work site, (L)
……boundary.
Claims (1)
方所定範囲の作業地状態を撮像し、その撮像画像情報
を、その各画素の明度に基づいて2値化する2値化手
段、その2値化手段の情報に基づいて未処理作業地(B)
と処理済作業地(C)との境界(L)に対応する撮像画像情報
上の線分を検出する境界検出手段(A)、および、この境
界検出手段(A)による境界(L)検出結果に基づいて、車体
(1)が前記境界(L)に沿って自動的に走行するように操向
する制御手段を備えた自動走行作業車の操向制御装置で
あって、前記2値化手段は、前記撮像画像情報の各画素
の車体横幅方向に沿う方向での明度変化に対応する微分
値を演算する微分値演算手段、その微分値の正負符号を
判別する微分値符号判別手段、前記微分値の正負符号の
何れか一方を選択する符号選択手段、および、前記微分
値符号判別手段による判別符号のうちの前記符号選択手
段にて選択された符号の微分値変化が所定の値以上であ
る画素を抽出する抽出手段を備えさせている自動走行作
業車の操向制御装置。1. A binarization for picking up an image of a work ground condition in a predetermined range in the forward direction of a vehicle body (1) by an image pickup means (5) and binarizing the picked-up image information based on the brightness of each pixel. Means, unprocessed work site (B) based on the information of the binarization means
Boundary detection means (A) for detecting the line segment on the captured image information corresponding to the boundary (L) between the processed work site (C) and the boundary (L) detection result by this boundary detection means (A) Based on the car body
(1) is a steering control device for an automatic traveling work vehicle, comprising a control means for steering so as to automatically travel along the boundary (L), wherein the binarization means is the captured image. Differential value computing means for computing a differential value corresponding to a change in brightness of each pixel of information in a direction along the vehicle body lateral direction, differential value code determining means for determining a positive / negative sign of the differential value, and a positive / negative sign of the differential value. A code selecting means for selecting either one, and an extraction for extracting a pixel of which the differential value change of the code selected by the code selecting means of the discrimination codes by the differential value code determining means is a predetermined value or more. A steering control device for an automated guided vehicle equipped with means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61229124A JPH0646886B2 (en) | 1986-09-27 | 1986-09-27 | Steering control device for automated vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61229124A JPH0646886B2 (en) | 1986-09-27 | 1986-09-27 | Steering control device for automated vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62122507A JPS62122507A (en) | 1987-06-03 |
JPH0646886B2 true JPH0646886B2 (en) | 1994-06-22 |
Family
ID=16887124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61229124A Expired - Lifetime JPH0646886B2 (en) | 1986-09-27 | 1986-09-27 | Steering control device for automated vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0646886B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6451504A (en) * | 1987-08-21 | 1989-02-27 | Iseki Agricult Mach | Travel control system for farmwork machine |
JPH01187015A (en) * | 1988-01-22 | 1989-07-26 | Kubota Ltd | Mowing, working vehicle of automatic steering type |
DE19719939A1 (en) * | 1997-05-13 | 1998-11-19 | Claas Ohg | Automatically steerable harvesting machine |
-
1986
- 1986-09-27 JP JP61229124A patent/JPH0646886B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPS62122507A (en) | 1987-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100886605B1 (en) | Boundary line extracting apparatus | |
KR20120113808A (en) | Method and device for detecting drops in a digital image; computer program for implementing said method | |
JPH0646886B2 (en) | Steering control device for automated vehicle | |
JPH0436405B2 (en) | ||
JPH0547161B2 (en) | ||
JPH0661163B2 (en) | Boundary detection device for self-driving work vehicles | |
JP4798576B2 (en) | Attachment detection device | |
JPH0759407A (en) | Traveling controller of automatic traveling working car | |
JPH0610774B2 (en) | Imaging type steering control device for automated driving vehicles | |
JP2520104B2 (en) | Boundary detection device for autonomous vehicles | |
JPH0460242B2 (en) | ||
JPH069011B2 (en) | Travel control system for automated guided vehicles | |
JP2510660B2 (en) | Image-capturing type traveling control device for automated guided vehicles | |
JP2585471B2 (en) | Boundary detection device for autonomous vehicles | |
JPS63293402A (en) | Image pickup type border detecting device | |
JP3502652B2 (en) | Travel control method for autonomous traveling work vehicle | |
JPS6190215A (en) | Automatic steering working wagon | |
JPH07104720B2 (en) | Image-capturing boundary detection device for self-driving work vehicles | |
JPH09168315A (en) | Boundary detector, display device for running stage and running control device in working vehicle | |
JPH0634229B2 (en) | Imaging type boundary detection device | |
JPH0437443B2 (en) | ||
JP2020140478A (en) | Abnormality detection apparatus and abnormality detection method | |
JPH0619541A (en) | End detecting device for automatic travel working vehicle | |
JPS63298103A (en) | Image sensing type boundary detector | |
JPH0465402B2 (en) |