[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006142872A - Occupant crash protection system for vehicle - Google Patents

Occupant crash protection system for vehicle Download PDF

Info

Publication number
JP2006142872A
JP2006142872A JP2004332185A JP2004332185A JP2006142872A JP 2006142872 A JP2006142872 A JP 2006142872A JP 2004332185 A JP2004332185 A JP 2004332185A JP 2004332185 A JP2004332185 A JP 2004332185A JP 2006142872 A JP2006142872 A JP 2006142872A
Authority
JP
Japan
Prior art keywords
occupant
vehicle
airbag
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004332185A
Other languages
Japanese (ja)
Inventor
Hiroshi Suganuma
菅沼  浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2004332185A priority Critical patent/JP2006142872A/en
Publication of JP2006142872A publication Critical patent/JP2006142872A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Air Bags (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an occupant crash protection system for a vehicle, capable of transmitting concrete information for making an airbag properly act to an occupant. <P>SOLUTION: An airbag control unit 10 detects occupant information by using various sensors such as an interior monitoring camera 16, a seating sensor 17, and a seat belt wearing sensor 18, and sends the detected occupant information to a data center 50 with an ID of a vehicle 1. When the data center 50 receives the occupant information, a data analyzing server 54 estimates the behavior of an airbag 3 and an occupant 100 at the time of vehicular collision on the basis of the received information, and produces image data indicating the behavior of the airbag 3 and the occupant 100. The airbag control unit 10 receives the image data from the data center 50, and indicates that by animation, thereby transmitting concrete information for making the airbag 3 properly act to the occupant 100. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、衝突時等にエアバッグを展開させることによって乗員を保護する車両用乗員保護システムに関する。   The present invention relates to a vehicle occupant protection system that protects an occupant by deploying an airbag at the time of a collision or the like.

従来より、車両衝突時等の衝撃から乗員を保護するためのシステムとして、エアバッグ装置を用いた乗員保護システムが広く普及している。ところで、この種のエアバッグ装置は、一般に、乗員が正しい姿勢で着座していることを前提として各種設定等がなされているため、衝突時にエアバッグを乗員に対して適正に作用させるためには、乗員を正しい姿勢で着座させる必要がある。   2. Description of the Related Art Conventionally, an occupant protection system using an airbag device has been widely used as a system for protecting an occupant from an impact such as a vehicle collision. By the way, this type of air bag device is generally configured on the assumption that the occupant is seated in a correct posture, and in order to cause the air bag to properly act on the occupant during a collision. , It is necessary to seat the occupant in the correct posture.

そこで、例えば特許文献1には、乗員等のエアバッグ展開領域(警報領域)への侵入を測距センサによって検出し、乗員等が警報領域に設定時間以上侵入している場合に、警報を発し、乗員に着座姿勢を正すよう促す技術が開示されている。
特開平10−44921号公報
Therefore, for example, in Patent Document 1, an intrusion of an occupant or the like into an airbag deployment area (alarm area) is detected by a distance measuring sensor, and an alarm is issued when the occupant or the like has entered the alarm area for a set time or more. A technique for urging an occupant to correct a sitting posture is disclosed.
Japanese Patent Laid-Open No. 10-44921

しかしながら、上述の特許文献1に開示された技術は、単に、警報領域に乗員等が侵入したか否かに基づいて警報を行う構成にすぎず、この警報で、体型や着座姿勢が千差万別に異なる乗員を、常に正しい着座姿勢で着座させることは困難である。従って、エアバッグを適正に作用させるためには、上述の警報よりもさらに一歩踏み込んだ具体的な情報を乗員に伝達する必要がある。   However, the technique disclosed in Patent Document 1 described above is merely configured to issue a warning based on whether or not an occupant or the like has entered the warning area. With this warning, the body shape and the sitting posture are infinitely wide. It is difficult to seat different occupants in the correct sitting posture at all times. Therefore, in order for the airbag to act properly, it is necessary to transmit specific information that has been stepped further than the warning described above to the occupant.

本発明は上記事情に鑑みてなされたもので、エアバッグを適正に作用させるための情報として衝突時のエアバッグの作用状況を乗員に伝達することのできる車両用乗員保護システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a vehicle occupant protection system capable of transmitting to a vehicle occupant the operating status of an airbag at the time of a collision as information for appropriately operating the airbag. Objective.

本発明は、乗員情報を検出する乗員情報検出手段と、上記乗員情報検出手段で検出した乗員情報に基づいて、車両衝突時のエアバッグ及び乗員の挙動を推定する衝突シミュレーション手段と、上記衝突シミュレーション手段での推定結果に基づいて、車両衝突時の上記エアバッグ及び乗員の挙動を示すイメージ画像データを生成する画像データ生成手段と、上記画像データ生成手段で生成したイメージ画像データを表示する表示手段とを備えたことを特徴とする。   The present invention includes an occupant information detection unit that detects occupant information, a collision simulation unit that estimates the behavior of an airbag and an occupant at the time of a vehicle collision based on the occupant information detected by the occupant information detection unit, and the collision simulation. Image data generating means for generating image data indicating the behavior of the airbag and the occupant at the time of a vehicle collision, and display means for displaying the image data generated by the image data generating means It is characterized by comprising.

本発明の車両用乗員保護システムによれば、エアバッグを適正に作用させるための情報として衝突時のエアバッグの作用状況を乗員に伝達することができる。   According to the vehicle occupant protection system of the present invention, the operation state of the airbag at the time of collision can be transmitted to the occupant as information for appropriately operating the airbag.

以下、図面を参照して本発明の形態を説明する。図面は本発明の一形態に係わり、図1は車両用乗員保護システムの概略構成図、図2は各種センサ類の説明図、図3は警報画像表示制御ルーチンのフローチャート、図4は衝突シミュレーションルーチンのフローチャート、図5はディスプレイ表示される警報画像の一例を示す説明図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to an embodiment of the present invention, FIG. 1 is a schematic configuration diagram of a vehicle occupant protection system, FIG. 2 is an explanatory diagram of various sensors, FIG. 3 is a flowchart of a warning image display control routine, and FIG. FIG. 5 is an explanatory diagram showing an example of an alarm image displayed on the display.

図1において符号10は、自動車等の車両1に搭載されたエアバッグ3の作動制御(展開制御)等を行うエアバッグ制御ユニットを示す。このエアバッグ制御ユニット10には、車両1の車速を検出するためのセンサとして車速センサ15が接続され、さらに、エアバッグ3の作用対象となる乗員100についての各種情報を検出する乗員情報検出手段として、例えば、車内監視カメラ16、着座センサ17、及び、シートベルト着用センサ18が接続されている。   In FIG. 1, reference numeral 10 denotes an airbag control unit that performs operation control (deployment control) of the airbag 3 mounted on the vehicle 1 such as an automobile. The airbag control unit 10 is connected to a vehicle speed sensor 15 as a sensor for detecting the vehicle speed of the vehicle 1, and further detects occupant information detection means for detecting various information about the occupant 100 to be acted upon by the airbag 3. For example, an in-vehicle monitoring camera 16, a seating sensor 17, and a seat belt wearing sensor 18 are connected.

図2に示すように、車内監視カメラ16は、例えば、例えば電荷結合素子(CCD)等の固体撮像素子を用いたCCDカメラで構成され、乗員100を車室内前方から撮像する。また、着座センサ17は、例えば、シート19内にマトリクス状に埋設された複数の圧電素子17aで構成され、シート19に着座した乗員100の荷重及びその分布を検出する。また、シートベルト着用センサ18は、バックル20に対するタングプレート21の接続の有無を検知するスイッチにより構成され、乗員100のシートベルト着用・非着用を検出する。   As shown in FIG. 2, the in-vehicle monitoring camera 16 is configured by a CCD camera using a solid-state image sensor such as a charge coupled device (CCD), for example, and images the occupant 100 from the front in the vehicle interior. The seating sensor 17 is composed of, for example, a plurality of piezoelectric elements 17 a embedded in a matrix in the seat 19, and detects the load and distribution of the occupant 100 seated on the seat 19. The seat belt wearing sensor 18 includes a switch that detects whether or not the tongue plate 21 is connected to the buckle 20 and detects whether the occupant 100 is wearing or not wearing the seat belt.

ここで、図1に示すように、エアバッグ制御ユニット10は、車内ネットワークを通じて車載装置30に接続されている。この車載装置30は、各種制御ユニットを統括して管理するためのもので、車載装置30には、例えば、ボディ制御系のユニットとして、エアバッグ制御ユニット10の他に、エアコン制御ユニット、及びパワーウインド制御ユニット(何れも図示せず)等が接続されている。その他、車載装置30には、例えば、パワートレイン制御系の各種ユニットとして、ステアリング制御ユニット、ブレーキ制御ユニット、ミッション制御ユニット、及びエンジン制御ユニット等(何れも図示せず)が接続されている。さらに、車載装置30には、例えば、情報通信系のユニットとして、ナビゲーションユニット25、及びオーディオユニット(図示せず)等が接続されており、エアバッグ制御ユニット10は、例えば、ナビゲーションユニット25に接続するディスプレイ装置26を通じて、各種情報を表示可能となっている。   Here, as shown in FIG. 1, the airbag control unit 10 is connected to the in-vehicle device 30 through an in-vehicle network. The in-vehicle device 30 is used for managing various control units in an integrated manner. For example, the in-vehicle device 30 includes, as a body control system unit, an air conditioner control unit and a power in addition to the airbag control unit 10. A window control unit (none of which is shown) is connected. In addition, for example, a steering control unit, a brake control unit, a mission control unit, and an engine control unit (all not shown) are connected to the in-vehicle device 30 as various units of the powertrain control system. Furthermore, for example, a navigation unit 25 and an audio unit (not shown) are connected to the in-vehicle device 30 as an information communication system unit. The airbag control unit 10 is connected to the navigation unit 25, for example. Various information can be displayed through the display device 26.

また、車載装置30には、広域通信網35を介して車外のデータセンタ50との間でデータ通信を行う広域通信モジュール31が接続されている。ここで、広域通信網35には、例えば、周知の移動体通信網が採用され、また、この移動体通信網との間で無線通信を行う広域通信モジュール31には、例えば、携帯電話モジュールが採用されている。   The in-vehicle device 30 is connected to a wide area communication module 31 that performs data communication with a data center 50 outside the vehicle via a wide area communication network 35. Here, for example, a well-known mobile communication network is adopted as the wide area communication network 35, and a mobile phone module is an example of the wide area communication module 31 that performs wireless communication with the mobile communication network. It has been adopted.

データセンタ50にはセンタ内LANが構築されており、このセンタ内LANには、当該センタ内LANを実行するWEBサーバ51、センタ内LANと広域通信網35を接続するルータ52、及び、広域通信網35を利用したデータ通信を管理・実行する通信サーバ53が接続されている。そして、これらにより、データセンタ50は、車両1との間で、広域通信モジュール31を通じた通信が可能となっている。   An intra-center LAN is constructed in the data center 50. The intra-center LAN includes a WEB server 51 that executes the intra-center LAN, a router 52 that connects the intra-center LAN and the wide area communication network 35, and wide area communication. A communication server 53 that manages and executes data communication using the network 35 is connected. As a result, the data center 50 can communicate with the vehicle 1 through the wide-area communication module 31.

また、センタ内LANには、広域通信モジュール31等を通じて送信された各種車両データ等の分析を行うデータ分析用サーバ54と、車両データや顧客データ等の各種データを収集して一括管理するデータベースサーバ(DBサーバ)55とが接続されている。   Also, in the center LAN, a data analysis server 54 that analyzes various vehicle data transmitted through the wide area communication module 31 and the like, and a database server that collects and collectively manages various data such as vehicle data and customer data (DB server) 55 is connected.

このようなシステム構成において、エアバッグ制御ユニット10は、収集した乗員情報、車速情報を、車両1のIDナンバーとともに、広域通信モジュール31を通じてデータセンタ50に送信する。ここで、エアバッグ制御ユニット10は、各センサ類16〜18の信号に基づく乗員情報として、例えば、各種センサ類16〜18からの情報に基づいて検出した乗員の体型、着座位置、着座姿勢、及びシートベルト着用の有無等の情報を収集し、データセンタ50に送信する。データセンタ50で車両1からデータを受信すると、データ分析用サーバ54は、例えば、有限要素法を用いたCAE解析(Computer Aided Engineering:コンピュータ支援エンジニアリング)等によって、各センサ類16〜18によって収集された乗員情報に基づいて所定の構造物に対する衝突シミュレーションを行い、車両衝突時のエアバッグ3及び乗員100の挙動を推定する。さらに、データ分析用サーバ54は、上述の推定結果に基づいて車両衝突時のエアバッグ3及び乗員100の挙動を示す画像データを生成し、当該画像データを、ルータ52を通じて車両1に送信する。画像データを受信すると、エアバッグ制御ユニット10は、画像データをディスプレイ装置26に出力し、車両衝突時に予測されるエアバッグ3及び乗員100の挙動を警報画像として動画表示させる。すなわち、本形態において、データ分析用サーバ54は、衝突シミュレーション手段、及び画像データ生成手段としての機能を有し、ディスプレイ装置26は表示手段としての機能を有する。   In such a system configuration, the airbag control unit 10 transmits the collected occupant information and vehicle speed information together with the ID number of the vehicle 1 to the data center 50 through the wide area communication module 31. Here, the airbag control unit 10, as the occupant information based on the signals of the sensors 16 to 18, for example, the occupant's body shape, seating position, seating posture detected based on information from the various sensors 16 to 18, Information on whether or not the seat belt is worn is collected and transmitted to the data center 50. When data is received from the vehicle 1 by the data center 50, the data analysis server 54 is collected by the sensors 16 to 18 by, for example, CAE analysis (Computer Aided Engineering) using the finite element method. Based on the occupant information, a collision simulation for a predetermined structure is performed, and the behavior of the airbag 3 and the occupant 100 at the time of the vehicle collision is estimated. Further, the data analysis server 54 generates image data indicating the behavior of the airbag 3 and the occupant 100 at the time of the vehicle collision based on the above estimation result, and transmits the image data to the vehicle 1 through the router 52. When the image data is received, the airbag control unit 10 outputs the image data to the display device 26, and displays the motion of the airbag 3 and the occupant 100 predicted at the time of the vehicle collision as a warning image. In other words, in this embodiment, the data analysis server 54 has functions as a collision simulation unit and an image data generation unit, and the display device 26 has a function as a display unit.

また、分析用サーバ54は、乗員が正しい着座姿勢にある場合について、衝突シミュレーションを行い、衝突時のエアバッグ3及び乗員の挙動を推定するようになっている。そして、この推定結果を基に、正しい着座姿勢にて衝突した時の乗員とエアバッグ3の挙動を示す画像データを生成し、当該画像データを、乗員情報に基づいて生成された画像データと共にルータ52を通じて車両1に送信する。そして、エアバッグ制御ユニット10は、正しい着座姿勢にて衝突した時の乗員とエアバッグ3の挙動を示す画像データを、乗員情報に基づいて生成された警報画像と対比して表示させる対比画像として、警報画像の表示に続いてディスプレイ装置26に動画表示させるようになっている。   Further, the analysis server 54 performs a collision simulation when the occupant is in a correct sitting posture, and estimates the behavior of the airbag 3 and the occupant at the time of the collision. Then, based on this estimation result, image data indicating the behavior of the occupant and the airbag 3 when colliding in the correct sitting posture is generated, and the image data is generated together with the image data generated based on the occupant information. 52 to the vehicle 1. Then, the airbag control unit 10 displays the image data indicating the behavior of the occupant and the airbag 3 when colliding in the correct sitting posture as a contrast image that is displayed in contrast to the alarm image generated based on the occupant information. The moving image is displayed on the display device 26 following the display of the alarm image.

次に、車両1のエアバッグ制御ユニット10で実行される警報画像の表示制御について、図3に示す警報画像表示制御ルーチンのフローチャートに従って説明する。このルーチンがスタートすると、エアバッグ制御ユニット10は、先ず、ステップS101において、各センサ類16〜18からの信号を用い、乗員情報についての各種演算を行う。すなわち、エアバッグ制御ユニット10は、例えば、車内監視カメラ16で撮像した画像から得られる情報(例えば、撮像画像にエッジ検出等を行うことにより得られる乗員100の輪郭情報等)と、着座センサ17で検出した乗員100の荷重及び荷重分布とに基づいて、乗員の体型、着座位置、及び、着座姿勢等を演算する。さらに、エアバッグ制御ユニット10は、シートベルト着用センサ18からの信号に基づき、シートベルト着用の有無を判定する。   Next, alarm image display control executed by the airbag control unit 10 of the vehicle 1 will be described according to a flowchart of an alarm image display control routine shown in FIG. When this routine starts, the airbag control unit 10 first performs various calculations on occupant information using signals from the sensors 16 to 18 in step S101. That is, the airbag control unit 10 includes, for example, information obtained from an image captured by the in-vehicle monitoring camera 16 (for example, contour information of the occupant 100 obtained by performing edge detection or the like on the captured image) and the seating sensor 17. Based on the load and load distribution of the occupant 100 detected in step 1, the occupant's body shape, seating position, seating posture, and the like are calculated. Furthermore, the airbag control unit 10 determines whether or not the seat belt is worn based on a signal from the seat belt wearing sensor 18.

そして、続くステップS102において、エアバッグ制御ユニット10は、ステップS101で演算した乗員情報、車速情報及び自車両1のIDナンバーを、広域通信モジュール31を通じてデータセンタ50に送信する。   In step S102, the airbag control unit 10 transmits the occupant information, vehicle speed information, and ID number of the host vehicle 1 calculated in step S101 to the data center 50 through the wide area communication module 31.

ステップS102からステップS103に進むと、エアバッグ制御ユニット10は、ステップS102で送信したデータに対する応答があったか否か(すなわち、送信データに対応するデータをデータセンタ50から受信したか否か)を調べ、未だ、送信データに対する応答がない場合には、そのまま待機する。   When the process proceeds from step S102 to step S103, the airbag control unit 10 checks whether or not there is a response to the data transmitted in step S102 (that is, whether or not data corresponding to the transmission data has been received from the data center 50). If there is still no response to the transmission data, it waits as it is.

そして、データセンタ50からのデータを受信してステップS103からステップS104に進むと、エアバッグ制御ユニット10は、データセンタ50から受信したデータの中に、警報画像、警報画像に対比して表示させる対比画像に関する画像データ(後述する)が含まれているか否かを調べ、画像データが含まれていないと判定した場合には、そのままルーチンを抜ける。   When the data from the data center 50 is received and the process proceeds from step S103 to step S104, the airbag control unit 10 displays the alarm image and the alarm image in the data received from the data center 50. Whether or not image data (to be described later) relating to the contrast image is included is checked, and if it is determined that the image data is not included, the routine is directly exited.

一方、ステップS104において、データセンタ50からの受信データの中に、画像データが含まれていると判定すると、エアバッグ制御ユニット10は、ステップS105に進み、受信した画像データに基づく警報画像をディスプレイ装置26上に動画表示させる。これにより、ディスプレイ装置26の表示画面26aには、衝突時に推定されるエアバッグ3と乗員との関係が、警報画像として動画表示される(例えば図5参照)。なお、図5は、乗員100が前傾姿勢で運転している場合において、自車両1が衝突した際に推定されるエアバッグ3と乗員100との関係を示す警報画像の一例である。   On the other hand, if it is determined in step S104 that the image data is included in the data received from the data center 50, the airbag control unit 10 proceeds to step S105 and displays an alarm image based on the received image data. A moving image is displayed on the device 26. Thereby, on the display screen 26a of the display device 26, the relationship between the airbag 3 and the occupant estimated at the time of the collision is displayed as a moving image as a warning image (for example, see FIG. 5). FIG. 5 is an example of an alarm image showing the relationship between the airbag 3 and the occupant 100 estimated when the host vehicle 1 collides when the occupant 100 is driving in a forward leaning posture.

そして、続くステップS106において、受信した画像データに基づく対比画像をディスプレイ装置26上に動画表示させた後、ルーチンを抜ける。これにより、衝突時に乗員が正しい着座姿勢をしている場合のエアバッグ3と乗員との関係が、警報画像の表示に続いて表示される。   In step S106, the comparison image based on the received image data is displayed as a moving image on the display device 26, and the routine is exited. Thereby, the relationship between the airbag 3 and the occupant when the occupant is correctly seated at the time of the collision is displayed following the display of the warning image.

次に、データセンタ50のデータ分析用サーバ54で実行される衝突シミュレーションについて、図4に示す衝突シミュレーションルーチンのフローチャートに従って説明する。このルーチンは、設定時間毎に繰り返し実行されるもので、ルーチンがスタートすると、データ分析用サーバ54は、先ず、ステップS201において、車速情報、乗員情報及び車両IDに係るデータを車両1から受信したか否かを調べる。そして、ステップS201において、未だ車両1からデータを受信していないと判定すると、データ分析用サーバ54は、そのままルーチンを抜ける。   Next, the collision simulation executed by the data analysis server 54 of the data center 50 will be described according to the flowchart of the collision simulation routine shown in FIG. This routine is repeatedly executed every set time. When the routine is started, the data analysis server 54 first receives vehicle speed information, occupant information, and data related to the vehicle ID from the vehicle 1 in step S201. Check whether or not. If it is determined in step S201 that data has not yet been received from the vehicle 1, the data analysis server 54 directly exits the routine.

一方、車両1からデータを受信してステップS202に進むと、データ分析用サーバ54は、今回受信したデータと一致するデータを入力条件として過去に演算された情報が、DBサーバ55内に格納されているか否かを調べる。すなわち、本形態において、データ分析用サーバ54は、車体IDに基づいて判定される車両情報(例えば、車両1の車種、グレード、オプションの搭載状況等)、車速情報及び乗員情報を入力条件として行った衝突シミュレーション等に関する各種演算結果を当該入力条件と関連づけてDBサーバ55内に格納するようになっており(後述のステップS210参照)、データ分析用サーバ54は、ステップS202で、DBサーバ55内に、入力条件が一致する演算情報が格納されているか否かを調べる。   On the other hand, when data is received from the vehicle 1 and the process proceeds to step S202, the data analysis server 54 stores in the DB server 55 information calculated in the past using data that matches the data received this time as an input condition. Find out if it is. In other words, in this embodiment, the data analysis server 54 performs vehicle information (for example, vehicle type, grade, option installation status, etc.) of the vehicle 1, vehicle speed information, and passenger information determined based on the vehicle body ID as input conditions. The various calculation results relating to the collision simulation or the like are stored in the DB server 55 in association with the input conditions (see step S210 described later), and the data analysis server 54 is stored in the DB server 55 in step S202. Whether or not the operation information that matches the input condition is stored.

そして、入力条件が一致する演算情報がDBサーバ55内に格納されていると判定すると、データ分析用サーバ54は、ステップS211に進み、当該演算情報をDBサーバ55から読み出した後、ステップS212に進む。   If it is determined that calculation information that matches the input conditions is stored in the DB server 55, the data analysis server 54 proceeds to step S 211, reads the calculation information from the DB server 55, and then proceeds to step S 212. move on.

一方、ステップS202において、入力条件が一致する演算情報がDBサーバ55内に格納されていないと判定すると、データ分析用サーバ54は、ステップS203に進み、受信した車両IDに適合する車両モデル及び受信した乗員情報に適合する乗員モデルをDBサーバ55から読み出す。すなわち、DBサーバ55内には各種車両情報に応じて予め設定された複数パターンの車両モデルが格納されており、データ分析用サーバ54は、DBサーバ55内から、受信した車両IDに適合する車両モデルを読み出す。同様に、DBサーバ55内には各種乗員情報に応じて予め設定された複数パターンの乗員モデルが格納されており、データ分析用サーバ54は、DBサーバ55内から、受信した乗員情報に適合する乗員モデルを読み出す。   On the other hand, if it is determined in step S202 that the operation information that matches the input conditions is not stored in the DB server 55, the data analysis server 54 proceeds to step S203, and receives the vehicle model and reception that match the received vehicle ID. The occupant model that matches the occupant information is read from the DB server 55. That is, a plurality of patterns of vehicle models preset according to various types of vehicle information are stored in the DB server 55, and the data analysis server 54 is a vehicle that matches the vehicle ID received from the DB server 55. Read the model. Similarly, a plurality of patterns of occupant models preset according to various types of occupant information are stored in the DB server 55, and the data analysis server 54 conforms to the occupant information received from the DB server 55. Read the occupant model.

そして、ステップS204において、データ分析用サーバ54は、ステップS203で読み出した車両モデル、乗員モデル、及び受信した車速情報を用いて車両1が車速情報における車速にて所定の構造物に対して衝突した際に推定されるエアバッグと乗員の挙動をCAE解析によりシミュレーションする。   In step S204, the data analysis server 54 uses the vehicle model, the occupant model, and the received vehicle speed information read in step S203 to cause the vehicle 1 to collide with a predetermined structure at the vehicle speed in the vehicle speed information. The behavior of the airbag and occupant estimated at the time is simulated by CAE analysis.

続くステップS205において、エアバッグ3が乗員100に適正に作用するか否かを調べる。   In subsequent step S205, it is examined whether or not the airbag 3 acts properly on the occupant 100.

そして、ステップS205において、エアバッグ3が乗員100に対して適正に作用すると判定すると、データ分析用サーバ54は、そのまま、ステップS210にジャンプする。ここで、エアバッグ3が乗員100に対して適正に作用する場合とは、例えば、車両1が衝突し、エアバッグ3が展開制御された際に、展開動作後のエアバッグ3が乗員100の頭部を拘束保護する場合等である。   If it is determined in step S205 that the airbag 3 acts properly on the occupant 100, the data analysis server 54 directly jumps to step S210. Here, the case where the airbag 3 appropriately acts on the occupant 100 is, for example, when the vehicle 1 collides and the airbag 3 is subjected to deployment control, the airbag 3 after the deployment operation is performed by the occupant 100. For example, the head is restrained and protected.

一方、ステップS205において、エアバッグ3が乗員100に対して適正に作用しないと判定すると、データ分析用サーバ54は、ステップS206に進み、ステップS204の推定結果に基づいて、車両衝突時のエアバッグ3及び乗員100の挙動を示す画像データを警報画像として生成する。ここで、エアバッグ3が乗員100に対して適正に作用しない場合とは、例えば、エアバッグ3が展開制御された際に、展開動作途中のエアバッグ3に乗員100の頭部が衝突する場合(例えば、図5参照)や、乗員100の頭部が展開したエアバッグ3から逸れてインストルメントパネル等に直接衝突する場合等である。   On the other hand, if it is determined in step S205 that the airbag 3 does not act properly on the occupant 100, the data analysis server 54 proceeds to step S206, and based on the estimation result in step S204, the airbag at the time of the vehicle collision. 3 and image data indicating the behavior of the occupant 100 are generated as a warning image. Here, the case where the airbag 3 does not act properly on the occupant 100 is, for example, when the head of the occupant 100 collides with the airbag 3 in the middle of the deployment operation when the deployment of the airbag 3 is controlled. (For example, refer to FIG. 5) or the case where the head of the occupant 100 deviates from the deployed airbag 3 and directly collides with an instrument panel or the like.

そして、ステップS206からステップS207に進むと、データ分析用サーバ54は、受信した乗員情報に含まれる乗員の体型に適合する正しい着座姿勢にある乗員モデルをDBサーバ55から読み出す。すなわち、データベース55内には、正しい着座姿勢にある複数の乗員モデルが乗員の体型に応じて予め記憶されている。ここで、乗員の正しい着座姿勢とは、エアバッグ3に対して乗員の頭部位置が正面に位置し且つ所定の距離を有した姿勢のことをいう。尚、正しい着座姿勢にある乗員モデルはシートベルトを着用した状態で記憶されている。   When the process proceeds from step S206 to step S207, the data analysis server 54 reads from the DB server 55 an occupant model in a correct seating posture that matches the occupant's body shape included in the received occupant information. That is, in the database 55, a plurality of occupant models in a correct sitting posture are stored in advance according to the occupant's body shape. Here, the correct seating posture of the occupant refers to a posture in which the head position of the occupant is located in front of the airbag 3 and has a predetermined distance. The occupant model in the correct seating posture is stored with the seat belt worn.

続くステップS208において、データ分析用サーバ54は、ステップS203で読み出した車両モデル、ステップ207で読み出した乗員モデル、受信した車速情報を用いて車両1が衝突した際に推定されるエアバッグと乗員の挙動をCAE解析によりシミュレーションする。すなわち、S208におけるシミュレーションは、S204のシミュレーションに対して、使用される乗員モデルのみが異なる。   In subsequent step S208, the data analysis server 54 uses the vehicle model read in step S203, the occupant model read in step 207, and the airbag and occupant estimated when the vehicle 1 collides using the received vehicle speed information. The behavior is simulated by CAE analysis. That is, the simulation in S208 differs from the simulation in S204 only in the occupant model used.

続くステップ209において、データ分析用サーバ54は、ステップS208の推定結果に基づいて車両衝突時のエアバッグ3及び乗員100の挙動を示す画像データを、警報画像の対比画像として生成する。   In subsequent step 209, the data analysis server 54 generates image data indicating the behavior of the airbag 3 and the occupant 100 at the time of the vehicle collision as a contrast image of the warning image based on the estimation result in step S208.

そして、ステップS205或いはステップS209からステップS210に進むと、データ分析用サーバ54は、上述の各演算処理で得られた情報を、入力条件と関連づけてDBサーバ55に記憶させた後、ステップS211に進む。すなわち、上述のS205においてエアバッグが適正に作用すると判断した場合には、該判断結果を入力条件と関連付けて記憶し、エアバッグが適正に作用しないと判断された場合には、該判断結果を上述のS206及びS209で生成された両画像データとともに入力条件に関連付けて記憶させる。   Then, when the process proceeds from step S205 or step S209 to step S210, the data analysis server 54 stores the information obtained by the above-described calculation processes in the DB server 55 in association with the input conditions, and then proceeds to step S211. move on. In other words, when it is determined in S205 that the airbag operates properly, the determination result is stored in association with the input condition, and when it is determined that the airbag does not operate properly, the determination result is stored. The image data generated in S206 and S209 are stored in association with the input condition.

そして、ステップS210或いはステップS211からステップS212に進むと、データ分析用サーバ54は、入力条件に対応する演算情報(すなわち、ステップS210で記憶された各種情報、或いは、ステップS210でDBサーバ55から読み出した各種情報)を車両1に送信した後、ルーチンを抜ける。   Then, when the process proceeds from step S210 or step S211 to step S212, the data analysis server 54 reads the calculation information corresponding to the input condition (that is, various information stored in step S210, or read from the DB server 55 in step S210). After transmitting various information) to the vehicle 1, the routine is exited.

このような形態によれば、車内監視カメラ16、着座センサ17、及びシートベルト着用センサ18等の各種センサ類を用いて検出した乗員情報に基づいて車両衝突時のエアバッグ3及び乗員100の挙動を推定し、当該推定結果に基づいてエアバッグ3及び乗員100の挙動を示す画像データを生成し、生成した画像データを動画表示することにより、エアバッグ3を適正に作用させるための情報として衝突時のエアバッグの作用状況を、乗員100に伝達することができる。   According to such a form, the behavior of the airbag 3 and the occupant 100 at the time of a vehicle collision based on occupant information detected using various sensors such as the in-vehicle monitoring camera 16, the seating sensor 17, and the seat belt wearing sensor 18. Is generated, image data indicating the behavior of the airbag 3 and the occupant 100 is generated based on the estimation result, and the generated image data is displayed as a moving image, thereby causing collision as information for appropriately operating the airbag 3. The operating state of the airbag at the time can be transmitted to the occupant 100.

また、乗員が正しい着座姿勢にて衝突した際のエアバッグ3と乗員の挙動を推定し、この挙動を示す画像を、各種センサ類を用いて検出された乗員情報に基づいて生成された警報画像に対比させるように動画表示することで、正しい着座姿勢における衝突と現在の着座姿勢における衝突時のエアバッグ3の作用の違いを具体的に伝達することができる。   Further, the behavior of the airbag 3 and the occupant when the occupant collides in the correct sitting posture is estimated, and an image showing this behavior is generated based on the occupant information detected using various sensors. By displaying the moving image so as to be compared with the above, it is possible to specifically transmit the difference in the action of the airbag 3 at the time of the collision in the correct sitting posture and the collision in the current sitting posture.

ここで、車両衝突時のエアバッグ3及び乗員100の挙動についてのシミュレーション等はCAE解析等のような演算負荷の高いコンピュータ解析を用いて行われるが、このような複雑な解析処理を、車両1との間で無線通信可能な車外のデータセンタ50に分担させることにより、エアバッグ制御ユニット10等に負荷をかけることなく、詳細なシミュレーション等を容易に実現することができる。   Here, the simulation of the behavior of the airbag 3 and the occupant 100 at the time of a vehicle collision is performed by using a computer analysis with a high calculation load such as CAE analysis. By sharing the data with the data center 50 outside the vehicle that can communicate wirelessly with each other, a detailed simulation or the like can be easily realized without imposing a load on the airbag control unit 10 or the like.

また、複数パターンの車両モデル及び乗員モデルを予め用意し、これらを車両情報や乗員情報に応じて適宜選択的に使い分けることにより、CAE解析等を簡単且つ精度良く行うことができる。   Further, by preparing a plurality of patterns of vehicle models and occupant models in advance and appropriately selectively using them according to vehicle information and occupant information, CAE analysis and the like can be performed easily and accurately.

また、衝突シミュレーション等の演算結果をデータセンタ50に格納することにより、同一の入力条件に対する処理を簡素化することができる。   Further, by storing calculation results such as a collision simulation in the data center 50, processing for the same input condition can be simplified.

なお、上述の形態では、衝突シミュレーション等の処理をデータセンタ50に分担させる構成について説明したが、本発明はこれに限定されるものではなく、例えば、エアバッグ制御ユニット10の処理能力等が高い場合には、全ての処理を車両1側で行っても良いことは勿論である。   In the above-described embodiment, the configuration in which processing such as collision simulation is shared by the data center 50 has been described. However, the present invention is not limited to this, and for example, the processing capability of the airbag control unit 10 is high. In this case, it is needless to say that all processing may be performed on the vehicle 1 side.

また、上述の形態においては、各種センサ類を用いて検出された乗員情報に基づいて推定されたエアバッグ3と乗員の挙動を示し画像データと、乗員が正しい姿勢で着座した際の衝突時のエアバッグ3と乗員の挙動を示す画像データとを表示する一例について説明したが、本発明はこれに限定されるものではなく、各種センサ類を用いて検出された乗員情報に基づいて推定されたエアバッグ3と乗員の挙動を示す画像データのみを表示するようにしても良い。この場合であっても、エアバッグ3を適正に作用させるための情報として衝突時のエアバッグ3の作用状況が乗員100に伝達されることは言うまでもない。   Further, in the above-described embodiment, the airbag 3 and the behavior of the occupant estimated based on the occupant information detected by using various sensors are displayed, and image data, and at the time of the collision when the occupant is seated in the correct posture. Although the example which displays the airbag 3 and the image data which shows a passenger | crew's behavior was demonstrated, this invention is not limited to this, It was estimated based on the passenger | crew information detected using various sensors Only image data indicating the behavior of the airbag 3 and the occupant may be displayed. Even in this case, it goes without saying that the action state of the airbag 3 at the time of collision is transmitted to the occupant 100 as information for causing the airbag 3 to act properly.

更に、上述の形態では、車速センサ15によって検出された車速を用いて衝突シミュレーションを行う構成について説明したが、本発明はこれに限定されるものではなく、例えば、予め定められた走行車速または衝突荷重を入力条件として衝突シミュレーションを行っても良い。   Further, in the above-described embodiment, the configuration in which the collision simulation is performed using the vehicle speed detected by the vehicle speed sensor 15 is described. However, the present invention is not limited to this, and for example, a predetermined traveling vehicle speed or a collision is determined. A collision simulation may be performed using a load as an input condition.

また、乗員情報に基づいた衝突シミュレーションによって生成された警報画像を表示したあとに、正しい着座姿勢にて衝突した時の乗員とエアバッグ3の挙動を示す対比画像を表示する例について説明したが、本発明はこれに限定されるものではなく、例えば、これら警報画像と対比画像とを一枚の画像に合成させてディスプレイ26に並べて表示するようにしても良い。   Moreover, although the warning image produced | generated by the collision simulation based on passenger | crew information was displayed, it demonstrated the example which displays the contrast image which shows the passenger | crew and the behavior of the airbag 3 when it collides with the correct seating posture, The present invention is not limited to this. For example, the alarm image and the contrast image may be combined into a single image and displayed side by side on the display 26.

車両用乗員保護システムの概略構成図Schematic configuration diagram of a vehicle occupant protection system 各種センサ類の説明図Illustration of various sensors 警報画像表示制御ルーチンのフローチャートFlow chart of alarm image display control routine 衝突シミュレーションルーチンのフローチャートCollision simulation routine flowchart ディスプレイ表示される警報画像の一例を示す説明図Explanatory drawing which shows an example of the warning image displayed on a display

符号の説明Explanation of symbols

1 … 車両
3 … エアバッグ
10 … エアバッグ制御ユニット
16 … 車内監視カメラ(乗員情報検出手段)
17 … 着座センサ(乗員情報検出手段)
18 … シートベルト着用センサ(乗員情報検出手段)
26 … ディスプレイ装置(表示手段)
50 … データセンタ
54 … データ分析用サーバ(衝突シミュレーション手段、画像データ生成手段)
100 … 乗員
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 1 ... Vehicle 3 ... Airbag 10 ... Airbag control unit 16 ... Car interior monitoring camera (occupant information detection means)
17 ... Seating sensor (occupant information detection means)
18 ... Seat belt wearing sensor (occupant information detecting means)
26 ... Display device (display means)
50 ... Data center 54 ... Data analysis server (collision simulation means, image data generation means)
100… Crew
Agent Patent Attorney Susumu Ito

Claims (3)

乗員情報を検出する乗員情報検出手段と、
上記乗員情報検出手段で検出した乗員情報に基づいて、車両衝突時のエアバッグ及び乗員の挙動を推定する衝突シミュレーション手段と、
上記衝突シミュレーション手段での推定結果に基づいて、車両衝突時の上記エアバッグ及び乗員の挙動を示す画像データを生成する画像データ生成手段と、
上記画像データ生成手段で生成した画像データを表示する表示手段とを備えたことを特徴とする車両用乗員保護システム。
Occupant information detecting means for detecting occupant information;
Collision simulation means for estimating the behavior of the airbag and the occupant at the time of a vehicle collision based on the occupant information detected by the occupant information detection means,
Image data generating means for generating image data indicating the behavior of the airbag and the occupant at the time of a vehicle collision based on the estimation result in the collision simulation means;
A vehicle occupant protection system comprising: display means for displaying image data generated by the image data generation means.
上記衝突シミュレーション手段及び上記画像データ生成手段を、車両との間で無線通信可能な車外のデータセンタに設けたことを特徴とする請求項1記載の車両用乗員保護システム。   2. The vehicle occupant protection system according to claim 1, wherein the collision simulation unit and the image data generation unit are provided in a data center outside the vehicle capable of wireless communication with the vehicle. 上記表示手段は、予め定められた姿勢で着座する乗員とエアバッグの衝突時の挙動を示す第2の画像データを表示することを特徴とする請求項1または請求項2記載の車両用乗員保護システム。   3. The vehicle occupant protection according to claim 1 or 2, wherein the display means displays second image data indicating a behavior at the time of a collision between an occupant seated in a predetermined posture and an airbag. system.
JP2004332185A 2004-11-16 2004-11-16 Occupant crash protection system for vehicle Pending JP2006142872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004332185A JP2006142872A (en) 2004-11-16 2004-11-16 Occupant crash protection system for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004332185A JP2006142872A (en) 2004-11-16 2004-11-16 Occupant crash protection system for vehicle

Publications (1)

Publication Number Publication Date
JP2006142872A true JP2006142872A (en) 2006-06-08

Family

ID=36623070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004332185A Pending JP2006142872A (en) 2004-11-16 2004-11-16 Occupant crash protection system for vehicle

Country Status (1)

Country Link
JP (1) JP2006142872A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751112B2 (en) 2011-09-06 2014-06-10 Electronics And Telecommunications Research Institute Danger sensing apparatus of vehicle and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751112B2 (en) 2011-09-06 2014-06-10 Electronics And Telecommunications Research Institute Danger sensing apparatus of vehicle and control method thereof

Similar Documents

Publication Publication Date Title
US9734699B2 (en) System for providing alerts to vehicle occupants
CN110281924B (en) Vehicle and method of controlling the same
US9539969B2 (en) System and method for minimizing occupant injury during vehicle crash events
JP5491055B2 (en) Emergency call system
JP2016068905A (en) Passenger state estimation system and on-vehicle apparatus
US20140207341A1 (en) Impact-injury predicting system
JP2010506794A (en) Vehicle safety system
JP5018613B2 (en) Road communicator and accident monitoring system
KR101738414B1 (en) Apparatus for detecting vehicle accident and emergency call system using the same
CN109383431A (en) Windshield vibration is monitored for vehicle collision detection
CN111204302A (en) Automobile collision accident handling method and electronic equipment
JP2007334574A (en) Emergency call unit, emergency call system, and emergency vehicle guide system
KR20150121529A (en) Method for Recording Event Video by Impact Detecting in Vehicle Black Box and System thereof
CN111161551B (en) Apparatus, system and method for detecting, alerting and responding to emergency vehicles
JP2015207049A (en) Vehicle accident situation prediction device, vehicle accident situation prediction system and vehicle accident notification device
JP4903443B2 (en) Drive recorder
JP3632619B2 (en) Occupant protection device starter
KR101305310B1 (en) Method for providing around view of vehicle
JP2005199903A (en) Vehicle occupant protection system
JP2006142872A (en) Occupant crash protection system for vehicle
JP7234614B2 (en) Anomaly detection device, anomaly detection system and anomaly detection program
JP2015169985A (en) Emergency call device for vehicle
KR20140048727A (en) Intelligent car accident responding system based on type of accident
JP3951433B2 (en) Vehicle occupant protection device
KR101621874B1 (en) Airbag system, controlling method thereof and wearble device