[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019114188A - Vehicle control device, vehicle control method, and program - Google Patents

Vehicle control device, vehicle control method, and program Download PDF

Info

Publication number
JP2019114188A
JP2019114188A JP2017249228A JP2017249228A JP2019114188A JP 2019114188 A JP2019114188 A JP 2019114188A JP 2017249228 A JP2017249228 A JP 2017249228A JP 2017249228 A JP2017249228 A JP 2017249228A JP 2019114188 A JP2019114188 A JP 2019114188A
Authority
JP
Japan
Prior art keywords
vehicle
gesture
information
predetermined
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017249228A
Other languages
Japanese (ja)
Inventor
三浦 弘
Hiroshi Miura
弘 三浦
石川 誠
Makoto Ishikawa
誠 石川
成光 土屋
Narimitsu Tsuchiya
成光 土屋
浩司 川邊
Koji Kawabe
浩司 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017249228A priority Critical patent/JP2019114188A/en
Publication of JP2019114188A publication Critical patent/JP2019114188A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a vehicle control device, a vehicle control method, and a program, capable of achieving more flexible automatic operation while communicating with the driver of another vehicle.SOLUTION: A vehicle control device comprises: an acquisition unit that acquires information indicating a gesture of an occupant of another vehicle; a determination unit that determines whether the gesture indicated by the information acquired by the acquisition unit is a prescribed gesture; and an operation control unit that controls one or both of steering and acceleration/deceleration of an own vehicle, and performs a prescribed control when it is determined that the gesture indicated by the information is the prescribed gesture by the determination unit.SELECTED DRAWING: Figure 1

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。   The present invention relates to a vehicle control device, a vehicle control method, and a program.

カメラによって他車両を撮像し、その撮像した画像から他車両の運転者が前方不注意状態であるか否かを判定し、前方不注意状態である場合に、他車両の運転者への警報を発する技術が知られている(例えば特許文献1参照)。   An image of the other vehicle is taken by the camera, it is determined from the captured image whether the driver of the other vehicle is in the forward careless state, and if it is in the forward careless state, an alert to the driver of the other vehicle is The technique to emit is known (for example, refer to patent documents 1).

特開2017−84157号公報JP 2017-84157 A

しかしながら、従来の技術は、他車両の運転者と意思の疎通を図りながら自車両を自動的に制御することについて検討されていなかった。   However, the prior art has not been considered about automatically controlling the vehicle while attempting to communicate with the driver of the other vehicle.

本発明は、このような事情を考慮してなされたものであり、他車両の運転者と意思の疎通を図りながら、より柔軟な自動運転を実現することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。   The present invention has been made in consideration of such circumstances, and a vehicle control apparatus and a vehicle control method capable of realizing more flexible automatic driving while attempting to communicate with drivers of other vehicles. And to provide one of the programs.

(1):他車両の乗員のジェスチャを示す情報を取得する取得部と、前記取得部により取得された情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定する判定部と、自車両の操舵または加減速のうち一方または双方を制御する運転制御部であって、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、所定の制御を行う運転制御部と、を備える車両制御装置。   (1): an acquisition unit that acquires information indicating a gesture of an occupant of another vehicle, a determination unit that determines whether the gesture indicated by the information acquired by the acquisition unit is a predetermined gesture, and The operation control unit controls one or both of steering and acceleration of the vehicle, and when the determination unit determines that the gesture indicated by the information is the predetermined gesture, performs predetermined control. And a driving control unit.

(2):(1)に記載の車両制御装置は、前記他車両に設置されたステアリングホイールを検出すると共に、検出した前記ステアリングホイールに最も近い乗員のジェスチャを検出する検出部を更に備え、前記取得部が、前記検出部の検出結果を、前記他車両の乗員のジェスチャを示す情報として取得するものである。   (2): The vehicle control device according to (1) further includes a detection unit that detects the steering wheel installed in the other vehicle and detects a gesture of an occupant closest to the detected steering wheel, An acquisition unit acquires the detection result of the detection unit as information indicating a gesture of an occupant of the other vehicle.

(3):(1)または(2)に記載の車両制御装置は、他車両と車車間通信を行う通信部と、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、前記通信部に、前記車車間通信を開始させ、所定の情報を前記他車両に送信させる通信制御部と、を更に備えるものである。   (3): The vehicle control device according to (1) or (2) is that the communication unit performing inter-vehicle communication with another vehicle and the determination unit indicate that the gesture indicated by the information is the predetermined gesture. And a communication control unit that causes the communication unit to start the inter-vehicle communication and transmits predetermined information to the other vehicle.

(4):(1)から(3)のうちいずれか1つに記載の車両制御装置は、前記運転制御部が、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、前記ジェスチャに対応した車両制御を行うものである。   (4): The vehicle control device according to any one of (1) to (3), wherein the operation control unit causes the determination unit to determine that the gesture indicated by the information is the predetermined gesture. When it is determined, vehicle control corresponding to the gesture is performed.

(5):取得部が、他車両の乗員のジェスチャを示す情報を取得し、判定部が、前記取得部により取得された情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定し、運転制御部が、自車両の操舵または加減速のうち一方または双方を制御すると共に、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、所定の制御を行う車両制御方法。   (5): The acquisition unit acquires information indicating a gesture of an occupant of another vehicle, and the determination unit determines whether the gesture indicated by the information acquired by the acquisition unit is a predetermined gesture. The operation control unit controls one or both of steering and acceleration / deceleration of the host vehicle, and the determination unit determines that the gesture indicated by the information is the predetermined gesture. Vehicle control method.

(6):コンピュータに、他車両の乗員のジェスチャを示す情報を取得させ、前記取得させた情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定させ、自車両の操舵または加減速のうち一方または双方を制御させると共に、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定させた場合、所定の制御を行わせるプログラム。   (6): The computer is made to acquire information indicating a gesture of an occupant of another vehicle, and it is determined whether the gesture indicated by the acquired information is a predetermined gesture, and steering or acceleration of the own vehicle A program for performing predetermined control when it is determined that one or both of the above are controlled and the gesture indicated by the information is the predetermined gesture.

(1)〜(6)によれば、他車両の運転者と意思の疎通を図りながら、より柔軟な自動運転を実現することができる。   According to (1) to (6), it is possible to realize more flexible automatic driving while attempting to communicate with the driver of another vehicle.

実施形態に係る車両制御装置を利用した車両システム1の構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram of the vehicle system 1 using the vehicle control apparatus which concerns on embodiment. 第1制御部120および第2制御部160の機能構成図である。FIG. 2 is a functional configuration diagram of a first control unit 120 and a second control unit 160. 推奨車線に基づいて目標軌道が生成される様子を示す図である。It is a figure which shows a mode that a target track | orbit is produced | generated based on a recommendation lane. 本実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by the automatic driving | operation control apparatus 100 of this embodiment. 所定のジェスチャが行われ得る場面の一例を示す図である。It is a figure which shows an example of the scene where a predetermined | prescribed gesture may be performed. 所定のジェスチャが行われ得る場面の一例を示す図である。It is a figure which shows an example of the scene where a predetermined | prescribed gesture may be performed. 他車両mの運転者によるジェスチャを模式的に示す図である。It is a figure which shows typically the gesture by the driver | operator of the other vehicle m. 他車両mの運転者によるジェスチャを模式的に示す図である。It is a figure which shows typically the gesture by the driver | operator of the other vehicle m. 他車両mの表示装置DPに表示させる画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus DP of the other vehicle m. 他車両mの表示装置DPに表示させる画面の他の例を示す図である。It is a figure which shows the other example of the screen displayed on the display apparatus DP of the other vehicle m. ジェスチャと車両制御とが予め対応付けられた情報の一例を示す図である。It is a figure which shows an example of the information with which gesture and vehicle control were matched previously. 他車両mの運転者が所定のジェスチャであるジェスチャBを行った場面の一例を示す図である。It is a figure which shows an example of the scene where the driver of the other vehicle m performed the gesture B which is a predetermined | prescribed gesture. 他車両mの運転者が所定のジェスチャであるジェスチャBを行った場面の一例を示す図である。It is a figure which shows an example of the scene where the driver of the other vehicle m performed the gesture B which is a predetermined | prescribed gesture. 所定のジェスチャが行われ得る場面の他の例を示す図である。It is a figure which shows the other example of the scene where a predetermined | prescribed gesture may be performed. 所定のジェスチャが行われ得る場面の他の例を示す図である。It is a figure which shows the other example of the scene where a predetermined | prescribed gesture may be performed. 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。It is a figure showing an example of the hardware constitutions of automatic operation control device 100 of an embodiment.

以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。以下の実施形態では、車両制御装置が自動運転(自律運転)可能な車両に適用されるものとして説明する。自動運転は、例えば、車両に搭乗した乗員の操作に依らずに、車両の操舵または加減速のうち一方または双方を制御して車両を走行させる態様である。自動運転には、ACC(Adaptive Cruse Control)やLKAS(Lane Keeping Assist)等の運転支援が含まれてもよい。   Hereinafter, embodiments of a vehicle control device, a vehicle control method, and a program according to the present invention will be described with reference to the drawings. In the following embodiments, the vehicle control device will be described as being applied to a vehicle capable of autonomous driving (autonomous driving). In the automatic driving, for example, one or both of the steering and the acceleration / deceleration of the vehicle is controlled to travel the vehicle without depending on the operation of the passenger who got on the vehicle. The automatic driving may include driving support such as ACC (Adaptive Cruse Control) and LKAS (Lane Keeping Assist).

[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using a vehicle control device according to an embodiment. The vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and a driving source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. When the motor is provided, the motor operates using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、ランプ群90群と、クラクション(またはホーン)92と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。   The vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, and a navigation device 50; An MPU (Map Positioning Unit) 60, a driver 80, a lamp group 90, a horn (or horn) 92, an automatic driving control device 100, a traveling driving force output device 200, a brake device 210, a steering And an apparatus 220. These devices and devices are mutually connected by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。   The camera 10 is, for example, a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). One or more cameras 10 are attached to any part of a vehicle (hereinafter referred to as a host vehicle M) on which the vehicle system 1 is mounted. When imaging the front, the camera 10 is attached to the top of the front windshield, the rear of the rearview mirror, or the like. For example, the camera 10 periodically and repeatedly captures the periphery of the vehicle M. The camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。   The radar device 12 emits radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. One or more of the radar devices 12 are attached to any part of the host vehicle M. The radar device 12 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.

ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。   The finder 14 is a light detection and ranging (LIDAR). The finder 14 irradiates light around the host vehicle M and measures scattered light. The finder 14 detects the distance to the object based on the time from light emission to light reception. The light to be irradiated is, for example, pulsed laser light. One or more finders 14 are attached to any part of the host vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。   The object recognition device 16 performs sensor fusion processing on the detection result of a part or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, etc. of the object. The object recognition device 16 outputs the recognition result to the automatic driving control device 100. In addition, the object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the finder 14 to the automatic driving control device 100 as it is, as necessary.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両mと通信し、或いは無線基地局を介して各種サーバ装置と通信する。他車両mは、例えば、自車両Mと同様に、自動運転が行われる車両であってもよいし、手動運転が行われる車両であってもよく、特段の制約はない。手動運転とは、前述した自動運転とは異なり、運転操作子80に対する乗員の操作に応じて自車両Mの加減速および操舵が制御されることをいう。通信装置20は、「通信部」の一例である。   The communication device 20 communicates with another vehicle m existing around the host vehicle M using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or It communicates with various server devices via a wireless base station. The other vehicle m may be, for example, a vehicle on which automatic driving is performed as in the case of the host vehicle M, or may be a vehicle on which manual driving is performed, and there is no particular limitation. Unlike the above-described automatic driving, the manual driving means that the acceleration / deceleration and the steering of the own vehicle M are controlled in accordance with the operation of the occupant with respect to the driving operation element 80. The communication device 20 is an example of a “communication unit”.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。   The HMI 30 presents various information to the occupant of the host vehicle M, and accepts input operation by the occupant. The HMI 30 includes various display devices, speakers, a buzzer, a touch panel, switches, keys, and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。   The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。   The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a path determination unit 53, and stores the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Hold The GNSS receiver 51 specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be identified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys and the like. The navigation HMI 52 may be partially or entirely shared with the above-described HMI 30. The route determination unit 53, for example, a route from the position of the host vehicle M specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52 (hereinafter referred to as The route on the map is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is represented by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The on-map route determined by the route determination unit 53 is output to the MPU 60. The navigation device 50 may also perform route guidance using the navigation HMI 52 based on the on-map route determined by the route determination unit 53. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by a passenger. In addition, the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20, and acquire the on-map route returned from the navigation server.

MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。   The MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, in units of 100 [m] in the traveling direction of the vehicle), and refers to the second map information 62 for each block. Determine the recommended lanes. The recommended lane determination unit 61 determines which lane to travel from the left. The recommended lane determination unit 61 determines the recommended lane so that the host vehicle M can travel on a reasonable route for traveling to a branch destination when a branch point, a junction point, or the like exists in the route.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。   The second map information 62 is map information that is more accurate than the first map information 54. The second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated as needed by accessing another device using the communication device 20.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。   The operating element 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a modified steering wheel, a joystick and other operating elements. A sensor for detecting the amount of operation or the presence or absence of an operation is attached to the driving operation element 80, and the detection result is the automatic driving control device 100 or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to part or all of 220.

ランプ群90は、例えば、自車両Mの車体の前端に設置されたヘッドランプと、後端に設置されたリアランプ、ハザードランプなどを含む。クラクション92は音を鳴らす。   The lamp group 90 includes, for example, a head lamp installed at the front end of the vehicle body of the host vehicle M, a rear lamp installed at the rear end, a hazard lamp, and the like. The horn 92 makes a sound.

自動運転制御装置100は、例えば、第1制御部120および第2制御部160を備える。第1制御部120および第2制御部160の其々は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。   The automatic driving control device 100 includes, for example, a first control unit 120 and a second control unit 160. Each of the first control unit 120 and the second control unit 160 is realized, for example, when a hardware processor such as a CPU (Central Processing Unit) executes a program (software). In addition, some or all of these components may be hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. Circuit (including circuitry) or may be realized by cooperation of software and hardware.

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。認識部130は、例えば、他車両乗員動作認識部132を備える。また、行動計画生成部140は、例えば、他車両遭遇時判定部142を備える。カメラ10と、物体認識装置16と、認識部130とを合わせたものは、「検出部」の一例である。   FIG. 2 is a functional block diagram of the first control unit 120 and the second control unit 160. As shown in FIG. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The recognition unit 130 includes, for example, another vehicle occupant operation recognition unit 132. Further, the action plan generation unit 140 includes, for example, the other vehicle encounter time determination unit 142. What combined the camera 10, the object recognition apparatus 16, and the recognition part 130 is an example of a "detection part."

第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、自動運転の信頼性が担保される。   The first control unit 120 implements, for example, a function by artificial intelligence (AI) and a function by a predetermined model in parallel. For example, in the “identify intersection” function, recognition of an intersection by deep learning etc. and recognition based on predetermined conditions (a signal capable of pattern matching, road marking, etc.) are executed in parallel, and both are performed. It is realized by scoring against and comprehensively evaluating. This ensures the reliability of automatic driving.

認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体には、他車両mや静止した障害物などが含まれる。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部140に出力する。   The recognition unit 130 detects the position of an object in the vicinity of the host vehicle M, the state of the velocity, the acceleration, and the like based on information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. recognize. The objects include other vehicles m and stationary obstacles. The position of the object is recognized as, for example, a position on an absolute coordinate with a representative point (such as the center of gravity or the center of the drive axis) of the host vehicle M as an origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented region. The "state" of an object may include the acceleration or jerk of the object, or "action state" (e.g. whether or not you are changing lanes or trying to change). Further, the recognition unit 130 recognizes the shape of a curve through which the host vehicle M passes from now on the basis of the captured image of the camera 10. The recognition unit 130 converts the shape of the curve from the captured image of the camera 10 to a real plane, and for example, information indicating the shape of the curve which is expressed using two-dimensional point sequence information or a model equivalent thereto. Output to the action plan generation unit 140.

また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線などの道路面に描かれた道路標示や、道路標識、障害物、赤信号、料金所、その他の道路事象を認識する。   The recognition unit 130 also recognizes, for example, a lane in which the host vehicle M is traveling (traveling lane). For example, the recognition unit 130 may use a pattern of road division lines obtained from the second map information 62 (for example, an array of solid lines and broken lines) and road division lines around the host vehicle M recognized from an image captured by the camera 10 The traveling lane is recognized by comparing with the pattern of. The recognition unit 130 may recognize the traveling lane by recognizing a runway boundary (road boundary) including not only road division lines but also road division lines, road shoulders, curbs, median dividers, guard rails and the like. . In this recognition, the position of the host vehicle M acquired from the navigation device 50 or the processing result by the INS may be added. The recognition unit 130 also recognizes road markings drawn on a road surface such as a temporary stop line, road signs, obstacles, red lights, toll plazas, and other road events.

認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。また、これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。   The recognition unit 130 recognizes the position and orientation of the host vehicle M with respect to the traveling lane when recognizing the traveling lane. The recognition unit 130 is, for example, a deviation of the reference point of the host vehicle M from the center of the lane, and an angle formed by a line connecting the center of the lane in the traveling direction of the host vehicle M It may be recognized as an attitude. Also, instead of this, the recognition unit 130 sets the position of the reference point of the host vehicle M with respect to any one side end (road segment or road boundary) of the travel lane relative to the host vehicle M with respect to the travel lane. It may be recognized as

また、認識部130は、上記の認識処理において、認識精度を導出し、認識精度情報として行動計画生成部140に出力してもよい。例えば、認識部130は、一定期間において、道路区画線を認識できた頻度に基づいて、認識精度情報を生成する。   In addition, the recognition unit 130 may derive recognition accuracy in the above-described recognition processing, and output the recognition accuracy to the action plan generation unit 140 as recognition accuracy information. For example, the recognition unit 130 generates recognition accuracy information based on the frequency at which a road marking can be recognized in a fixed period.

また、認識部130の他車両乗員動作認識部132は、認識した物体の中から他車両mを特定し、その他車両mに搭乗する乗員を認識する。そして、他車両乗員動作認識部132は、認識した他車両mの乗員の動作を解析し、特定の意味を表すジェスチャ(又はボディランゲージ)を認識する。   Further, the other vehicle occupant motion recognition unit 132 of the recognition unit 130 specifies the other vehicle m from among the recognized objects, and recognizes the passenger on the other vehicle m. Then, the other-vehicle occupant's operation recognition unit 132 analyzes the recognized operation of the other occupant of the other vehicle m, and recognizes a gesture (or body language) indicating a specific meaning.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、前走車両を追い越す追い越しイベント、障害物との接近を回避するための制動および/または操舵を行う回避イベント、カーブを走行するカーブ走行イベント、交差点や横断歩道、踏切などの所定のポイントを通過する通過イベント、車線変更イベント、合流イベント、分岐イベント、自動停止イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバイベントなどがある。   The action plan generation unit 140 basically travels in the recommended lane determined by the recommended lane determination unit 61, and further determines events to be sequentially executed in automatic driving so as to correspond to the surrounding situation of the host vehicle M. Do. Events include, for example, a constant speed traveling event traveling on the same traveling lane at a constant speed, a following traveling event tracking a preceding vehicle, an overtaking event passing a leading vehicle, braking for avoiding approaching with an obstacle and / Or Avoiding events to steer, curve driving events to drive a curve, passing events passing predetermined points such as intersections, pedestrian crossings, crossings, etc., lane change events, merging events, branching events, automatic stop events, automatic driving There is a takeover event for ending and switching to the manual operation.

行動計画生成部140は、起動したイベントに応じて、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。   The action plan generation unit 140 generates a target track along which the vehicle M travels in the future, in accordance with the activated event. The target trajectory includes, for example, a velocity component. For example, the target trajectory is expressed as a sequence of points (track points) to be reached by the vehicle M. The track point is a point to be reached by the vehicle M for every predetermined traveling distance (for example, several [m]) in road distance, and separately, for a predetermined sampling time (for example, about 0 comma [sec]) ) Target velocity and target acceleration are generated as part of the target trajectory. Further, the track point may be a position to be reached by the vehicle M at the sampling time for each predetermined sampling time. In this case, information on the target velocity and the target acceleration is expressed by the distance between the track points.

図3は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部140は、推奨車線の切り替わり地点の所定距離(イベントの種類に応じて決定されてよい)手前に差し掛かると、通過イベント、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。   FIG. 3 is a diagram showing how a target track is generated based on a recommended lane. As shown, the recommended lanes are set to be convenient to travel along the route to the destination. When the action plan generation unit 140 reaches a predetermined distance (may be determined according to the type of event) of the switching point of the recommended lane, it activates a passing event, a lane changing event, a branching event, a merging event and the like. When it is necessary to avoid an obstacle during the execution of each event, an avoidance trajectory is generated as illustrated.

行動計画生成部140の他車両遭遇時判定部142は、認識部130から、他車両mの乗員のジェスチャを示す情報(以下、ジェスチャ情報)を認識結果として取得する。そして、他車両遭遇時判定部142は、例えば、取得したジェスチャ情報を参照し、その情報が示すジェスチャが所定のジェスチャであるか否かを判定する。他車両遭遇時判定部142は、特許請求の範囲における「取得部」の一例である。   The action plan generation unit 140 determines the other vehicle encounter time determination unit 142 from the recognition unit 130 as information (hereinafter, gesture information) indicating a gesture of an occupant of the other vehicle m as a recognition result. Then, the other vehicle encounter time determination unit 142, for example, refers to the acquired gesture information and determines whether the gesture indicated by the information is a predetermined gesture. The other vehicle encounter time determination unit 142 is an example of the “acquisition unit” in the claims.

行動計画生成部140は、他車両遭遇時判定部142によって乗員のジェスチャが所定のジェスチャであると判定された場合、新たな目標軌道を生成し、これを第2制御部160に出力する。   When the other vehicle encounter time determination unit 142 determines that the gesture of the occupant is a predetermined gesture, the action plan generation unit 140 generates a new target trajectory, and outputs this to the second control unit 160.

図2の説明に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。行動計画生成部140と、速度制御部164と、操舵制御部166とを合わせたものは、「運転制御部」の一例である。   Returning to the description of FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The combination of the action plan generation unit 140, the speed control unit 164, and the steering control unit 166 is an example of the “operation control unit”.

取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、これをメモリに記憶させる。   The acquisition unit 162 acquires information on the target trajectory (orbit point) generated by the action plan generation unit 140, and stores the information in the memory.

速度制御部164および操舵制御部166は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。   The speed control unit 164 and the steering control unit 166 control the travel driving force output device 200, the brake device 210, and the like so that the vehicle M passes the target trajectory generated by the action plan generation unit 140 as scheduled. The steering device 220 is controlled.

例えば、速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合(例えば曲率)に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。   For example, the speed control unit 164 controls the traveling drive power output device 200 or the brake device 210 based on the speed component associated with the target track stored in the memory. The steering control unit 166 controls the steering device 220 according to the degree of curvature (for example, curvature) of the target track stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 combines feedforward control according to the curvature of the road ahead of the host vehicle M and feedback control based on the deviation from the target track.

機器制御部170は、他車両遭遇時判定部142の判定結果を取得し、この判定結果に応じて、通信装置20に指令を出力し、通信装置20を他車両mと車車間通信させる。また、機器制御部170は、他車両遭遇時判定部142による判定結果に応じて、ランプ群90やクラクション92を作動させてもよい。機器制御部170は、「通信制御部」の一例である。   The device control unit 170 acquires the determination result of the other vehicle encounter time determination unit 142, outputs a command to the communication device 20 according to the determination result, and causes the communication device 20 to perform inter-vehicle communication with the other vehicle m. In addition, the device control unit 170 may operate the lamp group 90 or the horn 92 according to the determination result by the other vehicle encounter time determination unit 142. The device control unit 170 is an example of a “communication control unit”.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。   The traveling driving force output device 200 outputs traveling driving force (torque) for the vehicle to travel to the driving wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, a motor, and a transmission, and an ECU (Electronic Control Unit) that controls these. The ECU controls the above configuration in accordance with the information input from the second control unit 160 or the information input from the drive operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。   The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor in accordance with the information input from the second control unit 160 or the information input from the drive operator 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the drive operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder It is also good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。   The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels. The steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the second control unit 160 or the information input from the drive operator 80.

[処理フロー]
図4は、本実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、認識部130によって他車両mが認識されると実行される。また、本フローチャートの処理は、例えば、所定の周期で繰り返し実行されてよい。
Processing flow
FIG. 4 is a flowchart showing an example of processing executed by the automatic driving control apparatus 100 of the present embodiment. The processing of this flowchart is executed, for example, when the recognition unit 130 recognizes the other vehicle m. Also, the processing of this flowchart may be repeatedly executed, for example, at a predetermined cycle.

まず、他車両乗員動作認識部132は、認識した他車両mの運転者を認識する(ステップS100)。運転者とは、例えば、車両に搭乗した一人以上の乗員のうち、ステアリングホイールに最も近い座席に着座した乗員である。   First, the other vehicle occupant motion recognition unit 132 recognizes the recognized driver of the other vehicle m (step S100). The driver is, for example, an occupant seated in a seat closest to the steering wheel among one or more occupants who board the vehicle.

例えば、他車両乗員動作認識部132は、認識した他車両mのウィンドウ越しに乗員を認識した場合、その乗員が着座する座席の前にステアリングホイールが存在しているか否かを判定する。他車両乗員動作認識部132は、認識した乗員が着座する座席の前にステアリングホイールが存在していると判定した場合、その乗員を他車両mの運転者として認識する。   For example, when the other-vehicle occupant operation recognition unit 132 recognizes an occupant over the window of the recognized other vehicle m, the other-vehicle occupant operation recognition unit 132 determines whether a steering wheel is present in front of a seat on which the occupant sits. When it is determined that the steering wheel is present in front of the seat on which the recognized occupant is seated, the other-vehicle occupant motion recognition unit 132 recognizes the occupant as a driver of the other vehicle m.

次に、他車両乗員動作認識部132は、認識した運転者の手や頭、胴体といった身体の動きをジェスチャとして認識する(ステップS102)。   Next, the other-vehicle occupant motion recognition unit 132 recognizes the movement of the body, such as the recognized driver's hand, head, and torso, as a gesture (step S102).

次に、他車両遭遇時判定部142は、他車両乗員動作認識部132から、認識結果としてジェスチャ情報を取得し、そのジェスチャ情報を基に、他車両mの運転者のジェスチャが所定のジェスチャであるか否かを判定する(ステップS104)。   Next, the other vehicle encounter time determination unit 142 acquires gesture information as a recognition result from the other vehicle occupant motion recognition unit 132, and based on the gesture information, the driver's gesture of the other vehicle m is a predetermined gesture. It is determined whether there is any (step S104).

所定のジェスチャとは、例えば、他車両mから見て他車両となる車両(自車両Mを含む)に対して、他車両mが道を譲ることを表明するようなジェスチャである。また、所定のジェスチャは、道を譲ってもらった時に慣習上行われるジェスチャであってもよいし、他車両の乗員に何らかを注意を喚起させるようなジェスチャであってもよい。より具体的には、所定のジェスチャは、手を上げたり、手を振ったり、手の平や手の甲を他車両に向けたり、指さしをしたり、会釈したりするなどの動作である。   The predetermined gesture is, for example, a gesture in which the other vehicle m expresses that the vehicle will give way to a vehicle (including the host vehicle M) viewed from the other vehicle m and becoming another vehicle. Further, the predetermined gesture may be a gesture conventionally performed when the user gives the way, or may be a gesture for alerting an occupant of another vehicle. More specifically, the predetermined gesture is an operation such as raising a hand, waving a hand, pointing a palm or the back of a hand to another vehicle, pointing or speaking.

図5および図6は、所定のジェスチャが行われ得る場面の一例を示す図である。図に例示する場面は、信号機のない交差点を上から見たときの場面である。このような交差点には、4ウェイストップ(4-WAY STOP)またはオールウェイストップ(ALL-WAY STOP)等と呼ばれる交通ルールが定められている場合がある。この交通ルールは、交差点の一時停止線(図中SL)に到着した順に、先に交差点に進入する権利(Right of Way)が与えられるものである。   5 and 6 are diagrams showing an example of a scene in which a predetermined gesture can be performed. The scene illustrated in the figure is a scene when an intersection without a traffic light is viewed from above. At such intersections, traffic rules called 4-way stop or all-way stop may be defined. In this traffic rule, a right of way (Right of Way) is given first to arrive at a stop line (SL in the drawing) of the intersection.

図示の例では、自車両Mよりも他車両mの方が早く一時停止線SLに到着している。このような場合、先に交差点に着いた他車両mに最初に交差点に進入する優先権1stが与えられ、次に交差点に着いた自車両Mに2番目に交差点に進入する優先権2ndが与えられる。自車両Mに優先権2ndが与えられた場合、すなわち、自車両Mが他車両mよりも後に交差点に到着した場合、行動計画生成部140は、一時停止線SVの前で停止している他車両mが発進するまで、自車両Mを自車線の一時停止線SLに停止させ続ける目標軌道を生成する。これによって、自車両Mは、交通ルールに従って付与された優先権の順番通りに交差点に進入することができる。   In the illustrated example, the other vehicle m arrives at the temporary stop line SL earlier than the host vehicle M. In such a case, the other vehicle m that has arrived at the intersection first is given the priority 1st to enter the intersection first, and then the host vehicle M that has arrived at the intersection is given the priority 2nd to enter the intersection second Be If priority 2nd is given to the host vehicle M, that is, if the host vehicle M arrives at the intersection later than the other vehicle m, the action plan generation unit 140 is otherwise stopped in front of the temporary stop line SV A target track is generated that keeps the host vehicle M stopping on the temporary stop line SL of the host lane until the vehicle m starts moving. Thus, the vehicle M can enter the intersection in the order of priority given in accordance with the traffic rules.

一方で、4ウェイストップの場合、各車両の運転者によって到着したのが先か後かが判断されるため、自車両Mと他車両mが交差点に略同じタイミングで到着した場合、どちらの車両に先に交差点に進入する優先権1stがあるのかを厳密に決定できない場合が生じる。このような場合、一般的に、各車両の運転者同士が身振り手振りによってコミュニケーションを図り、優先権を決定している。従って、自車両Mに搭載された自動運転制御装置100は、他車両mの運転者のジェスチャを認識し、認識したジェスチャに応じて、他車両mよりも後に交差点に進入するのか、または他車両mよりも先に交差点に進入するのかを決定する。   On the other hand, in the case of the 4-way stop, it is determined whether the driver of each vehicle arrived earlier or later, so when the own vehicle M and the other vehicle m arrive at the intersection at approximately the same timing, which vehicle In some cases, it may not be possible to precisely determine if there is a priority 1st to enter the intersection first. In such a case, generally, the drivers of the respective vehicles communicate with each other by gesture and decide the priority. Therefore, the automatic driving control apparatus 100 mounted on the host vehicle M recognizes the gesture of the driver of the other vehicle m, and enters the intersection later than the other vehicle m, or the other vehicle according to the recognized gesture Decide whether to enter the intersection earlier than m.

図7および図8は、他車両mの運転者によるジェスチャを模式的に示す図である。図中STは、ステアリングホイールを表し、DPは、後述する表示装置を表している。図示の例のように、他車両mの運転者が、自車両Mの運転者に見える位置(例えばドアウィンドウ越しに腕の8割以上が見える位置)に手を上げて、その上げた手を水平方向(図中X方向)に関して振った場合、他車両遭遇時判定部142は、そのジェスチャを、他車両mが自車両Mに先に道を譲ることを表明する所定のジェスチャであると判定する。言い換えれば、他車両遭遇時判定部142は、他車両mの運転者が優先権1stを放棄したと判定する。   FIG. 7 and FIG. 8 are diagrams schematically showing gestures by the driver of the other vehicle m. In the figure, ST represents a steering wheel, and DP represents a display device described later. As shown in the illustrated example, the driver of the other vehicle m raises his hand to a position where the driver of the host vehicle M can see (for example, a position where 80% or more of the arms can be seen through the door window) When waving in the horizontal direction (X direction in the figure), the other vehicle encounter time determination unit 142 determines that the gesture is a predetermined gesture that indicates that the other vehicle m gives way to the host vehicle M first. Do. In other words, the other vehicle encounter time determination unit 142 determines that the driver of the other vehicle m has abandoned the priority 1st.

他車両遭遇時判定部142によって、他車両mの運転者のジェスチャが所定のジェスチャであると判定された場合、機器制御部170は、通信装置20に、運転者が認識された他車両mと車車間通信を開始させる(ステップS106)。   When the other vehicle encounter time determination unit 142 determines that the gesture of the driver of the other vehicle m is a predetermined gesture, the device control unit 170 causes the communication device 20 to use the other vehicle m with the driver recognized. Inter-vehicle communication is started (step S106).

例えば、機器制御部170は、通信装置20を制御して、車車間通信の通信相手である他車両mに、所定の情報を送信する。所定の情報は、例えば、自車両Mが、他車両mの運転者のジェスチャを認識した結果、どういう行動を起こす予定であるのかを通知するための情報である。例えば、所定の情報を受けた他車両mは、車室内に設置された表示装置DPやスピーカを介して所定の情報を出力する。なお、機器制御部170は、他車両mとの間で車車間通信が確立しない場合、所定の情報を送信する処理を省略してよい。他車両mと車車間通信を行って所定の情報を送信する制御は、「所定の制御」の一例である。   For example, the device control unit 170 controls the communication device 20 to transmit predetermined information to another vehicle m which is a communication partner of inter-vehicle communication. The predetermined information is, for example, information for notifying what action the vehicle M intends to take as a result of recognizing the gesture of the driver of the other vehicle m. For example, the other vehicle m which has received the predetermined information outputs the predetermined information via the display device DP or the speaker installed in the vehicle compartment. The device control unit 170 may omit the process of transmitting predetermined information when inter-vehicle communication is not established with the other vehicle m. Control for performing inter-vehicle communication with another vehicle m and transmitting predetermined information is an example of “predetermined control”.

図9は、他車両mの表示装置DPに表示させる画面の一例を示す図である。図示の例では、表示装置DPの画面に、自車両M側において、他車両mの運転者によるジェスチャが、自車両Mに先に道を譲ることを表明するジェスチャであると認識されたことにより、自車両Mが他車両mよりも先に交差点に進入する予定であることが表示されている。これによって、他車両mの運転者は、自車両Mの行動を予期した上で、車両を運転することができる。   FIG. 9 is a view showing an example of a screen displayed on the display device DP of another vehicle m. In the illustrated example, on the screen of the display device DP, it is recognized that the gesture by the driver of the other vehicle m on the side of the host vehicle M is a gesture for asserting that the host vehicle M gives way first. It is displayed that the host vehicle M is scheduled to enter the intersection earlier than the other vehicle m. Thus, the driver of the other vehicle m can drive the vehicle in anticipation of the action of the host vehicle M.

図10は、他車両mの表示装置DPに表示させる画面の他の例を示す図である。図示の例では、表示装置DPの画面に、自車両M側において、他車両mの運転者によるジェスチャが、道を譲ってもらった時に慣習上行われるジェスチャであると認識されたことにより、他車両mの交差点進入を待ってから進入すると決定されたことが表示されている。例えば、道を譲ってもらった時に慣習上行われるジェスチャは、手の平や手の甲を他車両に向けながら単に手を挙げるようなジェスチャである。一般的に、自車両よりも優先度が高い他車両に道を譲ってもらった場合、慣習上、その自車両の運転者は道を譲ってもらった他車両に向けて手を上げて挨拶する場合がある。そのため、他車両mの運転者が単に手を上げるだけのジェスチャを行った場合、その運転者は、自車両Mに道を譲ってもらったと認識している蓋然性が高く、4ウェイストップの交通ルールが適用される交差点において、自車両Mに優先権1stが与えられ、他車両mに優先権2ndが与えられている状況であっても、他車両mが先に交差点に進入する場合がある。このような場合、機器制御部170は、他車両mが先に交差点に進入するまで自車両Mを待機させておくことを所定の情報として通知する。   FIG. 10 is a view showing another example of the screen displayed on the display device DP of the other vehicle m. In the illustrated example, on the screen of the display device DP, it is recognized that the gesture by the driver of the other vehicle m on the side of the host vehicle M is a gesture that is customarily performed when the vehicle is handed over the road. It is displayed that it is decided to enter after waiting for the intersection approach of m. For example, a gesture that is customarily performed when given a way is a gesture in which the hand or the back of a hand is pointed to another vehicle while simply raising the hand. Generally, when you give the way to another vehicle that has a higher priority than your own vehicle, the driver of your own vehicle raises your hand to greet other vehicles who have given you the way by convention There is a case. Therefore, when the driver of the other vehicle m makes a gesture that merely raises his hand, the driver is highly likely to recognize that he has given the way to the host vehicle M, and the 4-way stop traffic rule Even in a situation where priority 1st is given to the host vehicle M and priority 2nd is given to the other vehicle m at the intersection where the second vehicle is applied, the other vehicle m may enter the intersection first. In such a case, the device control unit 170 notifies that the own vehicle M is on standby until the other vehicle m enters the intersection first as the predetermined information.

また、機器制御部170は、他車両遭遇時判定部142によって、他車両mの運転者のジェスチャが所定のジェスチャであると判定された場合、ランプ群90のヘッドランプを点滅させたり、ハイビームにして点灯させたり、或いはハザードランプを点滅または点灯させたりする。また、機器制御部170は、他車両遭遇時判定部142によって、他車両mの運転者のジェスチャが所定のジェスチャであると判定された場合、クラクション92を鳴らしてもよい。このような制御によって、他車両mの運転者に所定の情報を通知する。ランプ群90のいずれかのランプを作動させたり、クラクション92を鳴らしたりする制御は、「所定の制御」の他の例である。   Further, when the other-vehicle encounter determining unit 142 determines that the gesture of the driver of the other vehicle m is a predetermined gesture, the device control unit 170 causes the headlamps of the lamp group 90 to blink or to have a high beam. Turn on or turn on or off the hazard lamp. In addition, the device control unit 170 may sound the horn 92 when the other vehicle encounter time determination unit 142 determines that the gesture of the driver of the other vehicle m is a predetermined gesture. By such control, the driver of the other vehicle m is notified of predetermined information. The control of activating any one of the lamps of the lamp group 90 and ringing the horn 92 is another example of the "predetermined control".

次に、行動計画生成部140は、他車両遭遇時判定部142により他車両mの運転者のジェスチャが所定のジェスチャであると判定された場合、そのジェスチャの種類に対応した目標軌道を生成する(ステップS108)。例えば、行動計画生成部140は、ジェスチャと車両制御とが予め対応付けられた情報を参照し、ジェスチャに対応した車両制御を実現する目標軌道を生成する。この情報、予めストレージやメモリに記憶されているものとする。目標軌道に従って自車両Mの操舵および加減速を制御することは、「所定の制御」の他の例である。   Next, when the other-vehicle encounter determination unit 142 determines that the gesture of the driver of the other vehicle m is a predetermined gesture, the action plan generation unit 140 generates a target trajectory corresponding to the type of the gesture. (Step S108). For example, the action plan generation unit 140 refers to the information in which the gesture and the vehicle control are associated in advance, and generates a target trajectory that realizes the vehicle control corresponding to the gesture. It is assumed that this information is stored in advance in a storage or memory. Controlling steering and acceleration / deceleration of the host vehicle M according to the target trajectory is another example of “predetermined control”.

図11は、ジェスチャと車両制御とが予め対応付けられた情報の一例を示す図である。例えば、他車両mの運転者が、所定のジェスチャとしてジェスチャAやCを行っていた場合、行動計画生成部140は、自車両Mを停止維持させるための目標軌道を生成する。停止維持させるための目標軌道は、例えば、速度要素として定められた目標速度がゼロまたはゼロ近傍に設定された軌道である。ジェスチャAまたはCは、例えば、道を譲ってもらった時に慣習上行われるジェスチャである。そのため、行動計画生成部140は、他車両mよりも自車両Mの優先順位が高くても、自車両Mを停止維持させるための目標軌道を生成する。また、他車両mの運転者が、所定のジェスチャとしてジェスチャBを行っていた場合、行動計画生成部140は、自車両Mを発進させるための目標軌道を生成する。発進させるための目標軌道は、例えば、速度要素として定められた目標速度が徐々に増加するように決定された軌道である。上述した例の場合、ジェスチャBは、例えば、自車両Mの運転者に見える位置に手を上げて、その上げた手を水平方向に関して振るジェスチャである。このように、自動運転制御装置100は、ジェスチャに対応した目標軌道を生成することで、4ウェイストップの交通ルールを逸脱しない範囲で、他車両mの乗員とコミュニケーションを取りながら、より柔軟な自動運転を行うことができる。   FIG. 11 is a diagram illustrating an example of information in which the gesture and the vehicle control are associated in advance. For example, when the driver of another vehicle m is performing gestures A and C as a predetermined gesture, the action plan generation unit 140 generates a target trajectory for keeping the host vehicle M stopped. The target trajectory for maintaining the stop is, for example, a trajectory in which the target velocity determined as the velocity component is set to zero or near zero. The gesture A or C is, for example, a gesture that is customarily performed when the user gives the way. Therefore, even if the priority of the host vehicle M is higher than that of the other vehicle m, the action plan generation unit 140 generates a target track for keeping the host vehicle M stopped. Further, when the driver of the other vehicle m is performing the gesture B as the predetermined gesture, the action plan generation unit 140 generates a target trajectory for causing the host vehicle M to start moving. The target trajectory for starting is, for example, a trajectory determined to gradually increase the target velocity determined as the velocity component. In the case of the above-described example, the gesture B is, for example, a gesture in which the hand is raised to a position visible to the driver of the host vehicle M and the raised hand is shaken in the horizontal direction. In this manner, the automatic driving control apparatus 100 generates a target trajectory corresponding to the gesture, thereby making the automatic operation more flexible while communicating with the occupant of the other vehicle m without departing from the four-way stop traffic rule. You can drive.

一方、行動計画生成部140は、他車両遭遇時判定部142により所定のジェスチャでないと判定された場合、交通ルールに従って自車両Mを走行させるための目標軌道を生成する(ステップS110)。例えば、4ウェイストップが適用される交差点に自車両Mが到達した場合に、既に他車両mがその交差点に到着しており、自車両Mに優先権2ndが与えられている場合、行動計画生成部140は、優先権1stが与えられ、一時停止線SLの前で停止している他車両mが発進するまで、自車両Mを一時停止線SL前に停止させ続け、他車両mが発進した後に自車両Mを徐々に加速させながら発進させる目標軌道を生成する。これによって、4ウェイストップの交通ルールに従った自動運転を行うことができる。   On the other hand, when the other vehicle encounter determination unit 142 determines that the gesture is not the predetermined gesture, the action plan generation unit 140 generates a target trajectory for causing the host vehicle M to travel according to the traffic rule (step S110). For example, when the host vehicle M has arrived at an intersection to which a 4-way stop is applied, another vehicle m has already arrived at the intersection, and when the host vehicle M is given a priority 2nd, an action plan is generated Unit 140 continues to stop self-vehicle M in front of pause line SL until another vehicle m stopped in front of pause line SL is given priority 1st, and other vehicle m starts A target trajectory to be started is generated while the host vehicle M is gradually accelerated later. This enables automatic driving in accordance with the 4-way stop traffic rules.

なお、S102の処理において、認識部130が、他車両mの運転者のジェスチャを認識できなかった場合、行動計画生成部140は、自車両Mには優先権2ndが与えられているものと判断した上で、S110の処理を行ってよい。これによって、本フローチャートの処理が終了する。   In addition, in the process of S102, when the recognition unit 130 can not recognize the gesture of the driver of the other vehicle m, the action plan generation unit 140 determines that the own vehicle M is given the priority 2nd. Then, the process of S110 may be performed. By this, the processing of this flowchart ends.

図12および図13は、他車両mの運転者が所定のジェスチャであるジェスチャBを行った場面の一例を示す図である。上述したように、ジェスチャBは、自車両Mに道を譲るジェスチャであるため(優先権を放棄するジェスチャであるため)、自動運転制御装置100は、優先権2ndが与えられた自車両Mを、優先権1stが与えられた他車両mよりも先に交差点に進入させる。   FIG. 12 and FIG. 13 are diagrams showing an example of a scene in which the driver of another vehicle m has made a gesture B which is a predetermined gesture. As described above, since the gesture B is a gesture for giving way to the host vehicle M (because it is a gesture for giving up the priority), the automatic driving control apparatus 100 causes the host vehicle M to which the priority 2nd is given. , It is made to enter the intersection earlier than the other vehicle m given the priority 1st.

なお、上述した実施形態では、所定のジェスチャが行われ得る場面が、4ウェイストップが適用される交差点である場合について説明したがこれに限られず、例えば、一時停止などの基本的な交通ルール以外の規則が定められていない信号の無い交差点であってもよい。例えば、自車両Mがこのような交差点に進入するときに他車両mが存在する場合、自動運転制御装置100は、その他車両mの運転者のジェスチャに応じて、自車両Mを交差点に進入させてよい。   In the embodiment described above, the case where the predetermined gesture can be performed is the intersection to which the 4-way stop is applied, but the invention is not limited thereto. For example, other than basic traffic rules such as temporary stop It may be an intersection without a signal for which the rule of is not defined. For example, when another vehicle m is present when the host vehicle M enters such an intersection, the automatic driving control apparatus 100 causes the host vehicle M to enter the intersection according to the gesture of the driver of the other vehicle m. You may

また、所定のジェスチャが行われ得る場面は、例えば、丁字路のような三叉路交差点(3-WAY JUNCTION)やその他の交通場面であってよい。   Also, a scene in which a predetermined gesture can be performed may be, for example, a 3-way junction such as a double-sided road or other traffic scenes.

図14および図15は、所定のジェスチャが行われ得る場面の他の例を示す図である。図示の例では、丁字路を上から見たときの場面を表している。例えば、自車両Mが存在する自車線LN1は、他車両mが存在する直進車線LN2に対して突き当たる車線であり、一時停止規制が交通ルールとして適用される場合がある。この場合、優先権は他車両mに与えられるため、自車両Mは一時停止線SLの前で一時停止し、他車両mが通過するのを待機する必要があるが、他車両mの運転者によっては、自車両Mに道を譲ってくれる場合がある。そのため、自動運転制御装置100は、丁字路において優先道路である直進車線LN2に進入する場合、その直進車線LN2に存在する他車両mの運転者のジェスチャを認識する。自動運転制御装置100は、他車両mの運転者のジェスチャが所定のジェスチャであるか否かを判定し、他車両mの運転者のジェスチャが所定のジェスチャであれば、他車両mに所定の情報を送信すると共に、ジェスチャに対応した車両制御を行う。図示の例では、直進車線LN2に存在する他車両mの運転者が、道を譲ることを表すジェスチャを行っているため、自動運転制御装置100は、自車両Mを直進車線LN1に進入させる。これによって、丁字路の交通ルールを逸脱しない範囲で、他車両mの乗員とコミュニケーションを取りながら、より柔軟な自動運転を行うことができる。   FIG. 14 and FIG. 15 are diagrams showing other examples of scenes where a predetermined gesture can be performed. In the illustrated example, a scene is shown when the chopsticks are viewed from the top. For example, the own lane LN1 in which the own vehicle M exists is a lane that strikes the straight lane LN2 in which the other vehicle m exists, and temporary stop regulation may be applied as a traffic rule. In this case, since the priority is given to the other vehicle m, the host vehicle M has to stop temporarily in front of the temporary stop line SL and wait for the other vehicle m to pass, but the driver of the other vehicle m In some cases, the vehicle M may give way. Therefore, when the autonomous driving control device 100 enters straight lane LN2 which is a priority road on a double-sided road, the automatic driving control device 100 recognizes the gesture of the driver of the other vehicle m present in the straight lane LN2. The autonomous driving control apparatus 100 determines whether the gesture of the driver of the other vehicle m is a predetermined gesture, and if the gesture of the driver of the other vehicle m is a predetermined gesture, the predetermined operation is performed on the other vehicle m. While transmitting information, vehicle control corresponding to a gesture is performed. In the illustrated example, since the driver of the other vehicle m present in the straight lane LN2 makes a gesture representing giving over the road, the automatic driving control apparatus 100 causes the host vehicle M to enter the straight lane LN1. As a result, more flexible automatic driving can be performed while communicating with the occupant of the other vehicle m without departing from the traffic rules of the alley.

また、上述した実施形態では、他車両mの運転者のジェスチャが自車両M側で認識されるものとして説明したがこれに限られず、他車両mの運転者のジェスチャは他車両m側で認識されてもよい。例えば、他車両mの車室内には、乗員監視用のカメラが設置される場合がある。この乗員監視用のカメラは、他車両mの運転者を画角に収めるように設置される。このような場合、機器制御部170は、通信装置20を制御して、他車両mから、乗員監視用のカメラによって撮像された画像を受信する。そして、認識部130は、他車両mから受信した画像に対して画像処理を行って、他車両mの運転者のジェスチャを認識する。また、他車両m側において、乗員監視用のカメラによって撮像された画像からジェスチャが認識されてもよい。この場合、ジェスチャ情報が他車両mから自車両Mに送信される。   In the embodiment described above, although the gesture of the driver of the other vehicle m is described as being recognized by the own vehicle M, the present invention is not limited thereto, and the gesture of the driver of the other vehicle m is recognized by the other vehicle m It may be done. For example, a camera for monitoring an occupant may be installed in the compartment of another vehicle m. The occupant monitoring camera is installed to keep the driver of the other vehicle m within the angle of view. In such a case, the device control unit 170 controls the communication device 20 to receive, from the other vehicle m, an image captured by the occupant monitoring camera. Then, the recognition unit 130 performs image processing on the image received from the other vehicle m to recognize the gesture of the driver of the other vehicle m. Further, on the other vehicle m side, a gesture may be recognized from an image captured by a camera for monitoring an occupant. In this case, gesture information is transmitted from the other vehicle m to the host vehicle M.

また、上述した実施形態では、所定のジェスチャが道を譲るジェスチャである場合について説明したがこれに限られず、所定のジェスチャは車両の進行を制止するジェスチャや、指さしなどで走行車線を指定するジェスチャなどであってもよい。他車両mの運転者のジェスチャが車両の進行を制止するジェスチャである場合、自動運転制御装置100は、車両の進行を制止するジェスチャに対応する車両制御として、自車両Mを減速または停止させてよい。また、他車両mの運転者のジェスチャが指さしなどで走行車線を指定するジェスチャである場合、自動運転制御装置100は、走行車線を指定するジェスチャに対応する車両制御として、指さしによって指示された車線に自車両Mを車線変更させてよい。   In the above-described embodiment, although the case where the predetermined gesture is the gesture for giving the road has been described, the present invention is not limited thereto. The predetermined gesture may be a gesture for stopping the progress of the vehicle or a gesture for specifying the traveling lane Or the like. When the gesture of the driver of the other vehicle m is a gesture for stopping the progress of the vehicle, the automatic driving control device 100 decelerates or stops the own vehicle M as vehicle control corresponding to the gesture for stopping the progress of the vehicle. Good. In addition, when the gesture of the driver of the other vehicle m is a gesture for specifying a traveling lane by pointing or the like, the automatic driving control device 100 is a lane instructed by the pointing as vehicle control corresponding to a gesture for specifying a traveling lane. The host vehicle M may change lanes.

以上説明した実施形態によれば、他車両mの乗員のジェスチャを示すジェスチャ情報を取得し、取得したジェスチャ情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定する他車両遭遇時判定部142と、他車両遭遇時判定部142により、ジェスチャ情報によって示されるジェスチャが所定のジェスチャであると判定された場合、ジェスチャに応じた目標軌道として、自車両Mを停止維持させたり、発進させたりするための目標軌道を生成する行動計画生成部140と、行動計画生成部140により生成された目標軌道に基づいて、走行駆動力出力装置200およびブレーキ装置210を制御する速度制御部164と、上記の目標軌道に基づいて、ステアリング装置220を制御する操舵制御部166と、を備えることにより、他車両の運転者と意思の疎通を図りながら、より柔軟な自動運転を実現することができる。   According to the embodiment described above, the other vehicle encounter determination as to whether or not the gesture indicated by the gesture information indicating the gesture of the occupant of the other vehicle m is acquired and the gesture indicated by the acquired gesture information is a predetermined gesture When it is determined by the part 142 and the other vehicle encounter time determination part 142 that the gesture indicated by the gesture information is a predetermined gesture, the host vehicle M is kept stopped or started as a target track according to the gesture. An action plan generation unit 140 that generates a target trajectory for driving and a speed control unit 164 that controls the traveling drive power output device 200 and the brake device 210 based on the target trajectory generated by the action plan generation unit 140; And a steering control unit 166 that controls the steering device 220 based on the target trajectory described above. Accordingly, while reducing the mutual understanding between the driver of the other vehicle, it is possible to realize a more flexible automatic operation.

[ハードウェア構成]
上述した実施形態の自動運転制御装置100は、例えば、図16に示すようなハードウェアの構成により実現される。図16は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
[Hardware configuration]
The automatic driving control apparatus 100 of the embodiment described above is realized by, for example, the configuration of hardware as shown in FIG. FIG. 16 is a diagram illustrating an example of a hardware configuration of the automatic driving control device 100 according to the embodiment.

自動運転制御装置100は、通信コントローラ100−1、CPU100−2、RAM(Random Access Memory)100−3、ROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disc Drive)等の二次記憶装置100−5、およびドライブ装置100−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100−6には、光ディスク等の可搬型記憶媒体が装着される。二次記憶装置100−5に格納されたプログラム100−5aがDMAコントローラ(不図示)等によってRAM100−3に展開され、CPU100−2によって実行されることで、第1制御部120および第2制御部160が実現される。また、CPU100−2が参照するプログラムは、ドライブ装置100−6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。   The automatic operation control apparatus 100 includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3, a ROM (Read Only Memory) 100-4, and a secondary such as a flash memory or an HDD (Hard Disc Drive). The storage device 100-5 and the drive device 100-6 are mutually connected by an internal bus or a dedicated communication line. A portable storage medium such as an optical disk is attached to the drive device 100-6. The program 100-5a stored in the secondary storage device 100-5 is expanded on the RAM 100-3 by a DMA controller (not shown) or the like, and is executed by the CPU 100-2 to execute the first control unit 120 and the second control. The unit 160 is realized. The program to which the CPU 100-2 refers may be stored in a portable storage medium mounted on the drive device 100-6, or may be downloaded from another device via the network NW.

上記実施形態は、以下のように表現することができる。
プログラムを記憶するストレージと、
プロセッサと、を備え、
前記プロセッサは、前記プログラムを実行することにより、
他車両の乗員のジェスチャを示す情報を取得し、
前記情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定し、
自車両の操舵または加減速のうち一方または双方を制御し、
前記情報によって示されるジェスチャが前記所定のジェスチャであると判定した場合、所定の制御を行うように構成された、
車両制御装置。
The above embodiment can be expressed as follows.
Storage for storing programs,
A processor, and
The processor executes the program to
Obtain information that indicates the gestures of other vehicle occupants,
It is determined whether the gesture indicated by the information is a predetermined gesture,
Control one or both of steering and acceleration / deceleration of the vehicle,
When it is determined that the gesture indicated by the information is the predetermined gesture, a predetermined control is performed.
Vehicle control device.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。例えば、上述した実施形態の車両システム1は、ACCやLKAS等の運転支援を行うシステムに適用されてもよい。   As mentioned above, although the form for carrying out the present invention was explained using an embodiment, the present invention is not limited at all by such an embodiment, and various modification and substitution within the range which does not deviate from the gist of the present invention Can be added. For example, the vehicle system 1 of the embodiment described above may be applied to a system that provides driving assistance such as ACC or LKAS.

1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、90…ランプ群、92…クラクション、100…自動運転制御装置、120…第1制御部、130…認識部、132…他車両乗員動作認識部、140…行動計画生成部、142…他車両遭遇時判定部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両、m…他車両 DESCRIPTION OF SYMBOLS 1 ... Vehicle system, 10 ... Camera, 12 ... Radar apparatus, 14 ... Finder, 16 ... Object recognition apparatus, 20 ... Communication apparatus, 30 ... HMI, 40 ... Vehicle sensor, 50 ... Navigation apparatus, 60 ... MPU, 80 ... Driving Operator, 90: lamp group, 92: horn, 100: automatic operation control device, 120: first control unit, 130: recognition unit, 132: other vehicle occupant operation recognition unit, 140: action plan generation unit, 142: other Vehicle encounter time determination unit, 160: second control unit, 162: acquisition unit, 164: speed control unit, 166: steering control unit, 200: traveling driving force output device, 210: brake device, 220: steering device, M: Own vehicle, m ... other vehicles

Claims (6)

他車両の乗員のジェスチャを示す情報を取得する取得部と、
前記取得部により取得された情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定する判定部と、
自車両の操舵または加減速のうち一方または双方を制御する運転制御部であって、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、所定の制御を行う運転制御部と、
を備える車両制御装置。
An acquisition unit for acquiring information indicating a gesture of an occupant of another vehicle;
A determination unit that determines whether the gesture indicated by the information acquired by the acquisition unit is a predetermined gesture;
The operation control unit controls one or both of steering and acceleration / deceleration of the host vehicle, and when the determination unit determines that the gesture indicated by the information is the predetermined gesture, the predetermined control is performed. Operation control unit to perform
A vehicle control device comprising:
前記他車両に設置されたステアリングホイールを検出すると共に、検出した前記ステアリングホイールに最も近い乗員のジェスチャを検出する検出部を更に備え、
前記取得部は、前記検出部の検出結果を、前記他車両の乗員のジェスチャを示す情報として取得する、
請求項1に記載の車両制御装置。
A detection unit that detects a steering wheel installed in the other vehicle, and detects a gesture of an occupant closest to the detected steering wheel.
The acquisition unit acquires a detection result of the detection unit as information indicating a gesture of an occupant of the other vehicle.
The vehicle control device according to claim 1.
他車両と車車間通信を行う通信部と、
前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、前記通信部に、前記車車間通信を開始させ、所定の情報を前記他車両に送信させる通信制御部と、を更に備える、
請求項1または2に記載の車両制御装置。
A communication unit that performs inter-vehicle communication with other vehicles;
The communication control unit that causes the communication unit to start the inter-vehicle communication and causes the other vehicle to transmit predetermined information when the determination unit determines that the gesture indicated by the information is the predetermined gesture. And further comprising
The vehicle control device according to claim 1.
前記運転制御部は、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、前記ジェスチャに対応した車両制御を行う、
請求項1から3のうちいずれか1項に記載の車両制御装置。
The driving control unit performs vehicle control corresponding to the gesture when the determination unit determines that the gesture indicated by the information is the predetermined gesture.
The vehicle control device according to any one of claims 1 to 3.
取得部が、他車両の乗員のジェスチャを示す情報を取得し、
判定部が、前記取得部により取得された情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定し、
運転制御部が、自車両の操舵または加減速のうち一方または双方を制御すると共に、前記判定部により、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定された場合、所定の制御を行う、
車両制御方法。
An acquisition unit acquires information indicating a gesture of an occupant of another vehicle;
The determination unit determines whether the gesture indicated by the information acquired by the acquisition unit is a predetermined gesture,
The operation control unit controls one or both of steering and acceleration of the host vehicle, and when the determination unit determines that the gesture indicated by the information is the predetermined gesture, the predetermined control is performed. Do,
Vehicle control method.
コンピュータに、
他車両の乗員のジェスチャを示す情報を取得させ、
前記取得させた情報によって示されるジェスチャが、所定のジェスチャであるか否かを判定させ、
自車両の操舵または加減速のうち一方または双方を制御させると共に、前記情報によって示されるジェスチャが前記所定のジェスチャであると判定させた場合、所定の制御を行わせる、
プログラム。
On the computer
Get information that shows the gestures of the occupants of other vehicles,
It is determined whether the gesture indicated by the acquired information is a predetermined gesture,
When one or both of the steering and acceleration / deceleration of the own vehicle is controlled, and it is determined that the gesture indicated by the information is the predetermined gesture, the predetermined control is performed.
program.
JP2017249228A 2017-12-26 2017-12-26 Vehicle control device, vehicle control method, and program Pending JP2019114188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249228A JP2019114188A (en) 2017-12-26 2017-12-26 Vehicle control device, vehicle control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249228A JP2019114188A (en) 2017-12-26 2017-12-26 Vehicle control device, vehicle control method, and program

Publications (1)

Publication Number Publication Date
JP2019114188A true JP2019114188A (en) 2019-07-11

Family

ID=67222649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249228A Pending JP2019114188A (en) 2017-12-26 2017-12-26 Vehicle control device, vehicle control method, and program

Country Status (1)

Country Link
JP (1) JP2019114188A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750159A (en) * 2019-10-22 2020-02-04 深圳市商汤科技有限公司 Gesture control method and device
JP2021051682A (en) * 2019-09-26 2021-04-01 株式会社Subaru Self-drivable vehicle
WO2024172122A1 (en) * 2023-02-17 2024-08-22 株式会社デンソー Automatic driving control device, automatic driving control program, and automatic driving control method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051682A (en) * 2019-09-26 2021-04-01 株式会社Subaru Self-drivable vehicle
JP7356853B2 (en) 2019-09-26 2023-10-05 株式会社Subaru Self-driving vehicle
CN110750159A (en) * 2019-10-22 2020-02-04 深圳市商汤科技有限公司 Gesture control method and device
CN110750159B (en) * 2019-10-22 2023-09-08 深圳市商汤科技有限公司 Gesture control method and device
WO2024172122A1 (en) * 2023-02-17 2024-08-22 株式会社デンソー Automatic driving control device, automatic driving control program, and automatic driving control method

Similar Documents

Publication Publication Date Title
JP6972294B2 (en) Vehicle control systems, vehicle control methods, and programs
JP6704890B2 (en) Vehicle control device, vehicle control method, and program
US10683014B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN110001634B (en) Vehicle control device, vehicle control method, and storage medium
JP7071173B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6961791B2 (en) Vehicle control systems, vehicle control methods, and programs
JP2019108103A (en) Vehicle control device, vehicle control method, and program
JP6788751B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6586685B2 (en) Vehicle control device, vehicle control method, and program
JP6676025B2 (en) Vehicle control device, vehicle control method, and program
WO2019073511A1 (en) Vehicle control device, vehicle control method, and program
JP6613509B2 (en) Vehicle control device, vehicle control method, and program
JP2019128612A (en) Vehicle control device, vehicle control method, and program
WO2019069425A1 (en) Vehicle control device, vehicle control method, and program
JP2019137189A (en) Vehicle control system, vehicle control method, and program
JP2019156008A (en) Vehicle controller, vehicle control method and program
JP2021068016A (en) Vehicle controller, vehicle control method and program
JP2022011545A (en) Control device, control method, and program
JP2019067295A (en) Vehicle control device, vehicle control method, and program
WO2019130483A1 (en) Vehicle control device, vehicle control method, and program
JP2019114188A (en) Vehicle control device, vehicle control method, and program
JP6966626B2 (en) Vehicle control devices, vehicle control methods, and programs
CN115716473A (en) Vehicle control device, vehicle control method, and storage medium
JP6894354B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2020152200A (en) Vehicle control device, vehicle control method, and program