JP6820533B2 - 推定装置、学習装置、推定方法、及び推定プログラム - Google Patents
推定装置、学習装置、推定方法、及び推定プログラム Download PDFInfo
- Publication number
- JP6820533B2 JP6820533B2 JP2017027224A JP2017027224A JP6820533B2 JP 6820533 B2 JP6820533 B2 JP 6820533B2 JP 2017027224 A JP2017027224 A JP 2017027224A JP 2017027224 A JP2017027224 A JP 2017027224A JP 6820533 B2 JP6820533 B2 JP 6820533B2
- Authority
- JP
- Japan
- Prior art keywords
- equipment
- occupant
- image
- state
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Description
車両の装備に対する乗員の状態を推定する推定装置であって、
機械学習により構築されたモデルを記憶する記憶部と、
前記装備を含む画像を入力し、前記モデルを用いて前記乗員の状態を推定し、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する処理部と、を備え、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている。
車両の装備に対する乗員の状態を推定するために用いられるモデルを構築する学習装置であって、
前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを取得する入力部と、
前記画像を推定装置に入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように、前記モデルを構築する学習部と、を備える。
車両の装備に対する乗員の状態を推定する推定方法であって、
前記装備を含む画像を取得する第1工程と、
前記第1工程で取得した画像を入力し、機械学習により構築されたモデルを用いて前記装備に対する乗員の状態を推定する第2工程と、
前記第2工程による推定結果として、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する第3工程と、を備え、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている。
車両の装備に対する乗員の状態を推定する推定装置のコンピューターに、
前記装備を含む画像を取得する第1処理と、
前記第1処理で取得した画像を入力し、機械学習により構築されたモデルを用いて前記装備に対する乗員の状態を推定する第2処理と、
前記第2処理による推定結果として、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する第3処理と、を実行させ、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている。
推定装置1は、車両に搭載され、車載カメラ20によって撮像された画像DIに基づいて、当該画像DIに含まれる車両の装備に対する乗員の状態(姿勢や行動)を推定する。
処理部11は、演算/制御装置としてのCPU111(Central Processing Unit)、主記憶装置としてのROM112(Read Only Memory)及びRAM113(Random Access Memory)等を備える(いずれも図示略)。ROM112には、BIOS(Basic Input Output System)と呼ばれる基本プログラムや基本的な設定データが記憶される。CPU111は、ROM112又は記憶部12から処理内容に応じたプログラムを読み出してRAM113に展開し、展開したプログラムを実行することにより、所定の処理を実行する。
図3に示すように、学習装置2は、処理部21及び記憶部22を備える。これらの具体的な構成のうち、推定装置1の処理部11及び記憶部12と共通する部分については、ここでの説明を省略する。
推定装置1において、車載カメラ20の撮像画像をそのまま推定モデルMの入力として用いる場合、訓練データTの画像T1として全体画像が準備され、骨格位置情報T2は全体画像上の座標で与えられる。また、推定装置1において、車載カメラ20の撮像画像を切り出して推定モデルMの入力として用いる場合、訓練データTの画像T1として部分画像が準備され、骨格位置情報T2は部分画像上の座標で与えられる。つまり、学習時の訓練データTの画像T1と推定時の推定モデルMの入力としての画像とは、処理対象範囲(画像サイズと位置)が同じであることが望ましい。
学習が十分であると判断された場合(ステップS104で“YES”)、ステップS105の処理に移行する。一方、学習が十分でないと判断された場合(ステップS104で“NO”)には、ステップSS101以降の処理を繰り返す。
11 処理部
11A 画像入力部
11B 推定部
11C 推定結果出力部
12 記憶部
2 学習装置
21 処理部
21A 訓練データ入力部
21B 学習部
22 記憶部
M 推定モデル
T 訓練データ
Claims (7)
- 車両の装備に対する乗員の状態を推定する推定装置であって、
機械学習により構築されたモデルを記憶する記憶部と、
前記装備を含む画像を入力し、前記モデルを用いて前記乗員の状態を推定し、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する処理部と、
を備え、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている、
推定装置。 - 前記モデルは、ニューラルネットワークを利用したディープラーニングにより構築される、請求項1に記載の推定装置。
- 前記装備は、車種にかかわらず、車室内における所定領域内に設置される、請求項1又は2に記載の推定装置。
- 前記装備は、少なくともハンドル、カーナビゲーションシステムのタッチパネル、窓、ドアノブ、エアコンのコントロールパネル、バックミラー、ダッシュボード、シート、アームレスト、センターボックス、グローブボックスのいずれかを含む、請求項1乃至3のいずれか一項に記載の推定装置。
- 車両の装備に対する乗員の状態を推定するために用いられるモデルを構築する学習装置であって、
前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを取得する入力部と、
前記画像を推定装置に入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように、前記モデルを構築する学習部と、
を含む学習装置。 - 車両の装備に対する乗員の状態を推定する推定方法であって、
前記装備を含む画像を取得する第1工程と、
前記第1工程で取得した画像を入力し、機械学習により構築されたモデルを用いて前記装備に対する乗員の状態を推定する第2工程と、
前記第2工程による推定結果として、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する第3工程と、
を備え、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている、
推定方法。 - 車両の装備に対する乗員の状態を推定する推定装置のコンピューターに、
前記装備を含む画像を取得する第1処理と、
前記第1処理で取得した画像を入力し、機械学習により構築されたモデルを用いて前記装備に対する乗員の状態を推定する第2処理と、
前記第2処理による推定結果として、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、を出力する第3処理と、
を実行させ、
前記モデルは、前記装備を含む画像に、前記乗員の特定部位の骨格位置を示す第1の情報と、前記装備に対する乗員の状態を示す第2の情報と、が関連付けられた訓練データを用いて、前記画像を入力したときに、当該画像に関連付けられた前記第1の情報及び前記第2の情報が出力されるように学習されている、
推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017027224A JP6820533B2 (ja) | 2017-02-16 | 2017-02-16 | 推定装置、学習装置、推定方法、及び推定プログラム |
US15/830,239 US11995536B2 (en) | 2017-02-16 | 2017-12-04 | Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017027224A JP6820533B2 (ja) | 2017-02-16 | 2017-02-16 | 推定装置、学習装置、推定方法、及び推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018132996A JP2018132996A (ja) | 2018-08-23 |
JP6820533B2 true JP6820533B2 (ja) | 2021-01-27 |
Family
ID=63105861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017027224A Active JP6820533B2 (ja) | 2017-02-16 | 2017-02-16 | 推定装置、学習装置、推定方法、及び推定プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11995536B2 (ja) |
JP (1) | JP6820533B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034111A (zh) * | 2018-08-17 | 2018-12-18 | 北京航空航天大学 | 一种基于深度学习的驾驶员手离方向盘检测方法及系统 |
JP7091983B2 (ja) * | 2018-10-01 | 2022-06-28 | トヨタ自動車株式会社 | 機器制御装置 |
US11417122B2 (en) * | 2018-11-21 | 2022-08-16 | Lg Electronics Inc. | Method for monitoring an occupant and a device therefor |
WO2020184281A1 (ja) | 2019-03-08 | 2020-09-17 | マツダ株式会社 | 自動車用演算装置 |
JP7230596B2 (ja) | 2019-03-08 | 2023-03-01 | マツダ株式会社 | 自動車用演算システム |
JP7131441B2 (ja) | 2019-03-08 | 2022-09-06 | マツダ株式会社 | 自動車用演算システム |
CN111753589B (zh) * | 2019-03-28 | 2022-05-03 | 虹软科技股份有限公司 | 手握方向盘状态的检测方法及装置 |
KR20210070117A (ko) * | 2019-12-04 | 2021-06-14 | 현대자동차주식회사 | 모션 인식 기반 핸즈 온 판단 장치, 그를 포함한 시스템 및 그 차량 제어 방법 |
WO2021149593A1 (ja) * | 2020-01-21 | 2021-07-29 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び記憶媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090278915A1 (en) | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
US8942881B2 (en) * | 2012-04-02 | 2015-01-27 | Google Inc. | Gesture-based automotive controls |
US9477315B2 (en) | 2013-03-13 | 2016-10-25 | Honda Motor Co., Ltd. | Information query by pointing |
CA2999671A1 (en) * | 2015-09-30 | 2017-04-06 | Sony Corporation | Control apparatus, control method, and program |
JP6575818B2 (ja) * | 2016-03-25 | 2019-09-18 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援システム、プログラム |
US11423671B1 (en) * | 2016-06-14 | 2022-08-23 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems, and methods for detecting vehicle occupant actions |
-
2017
- 2017-02-16 JP JP2017027224A patent/JP6820533B2/ja active Active
- 2017-12-04 US US15/830,239 patent/US11995536B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180232636A1 (en) | 2018-08-16 |
US11995536B2 (en) | 2024-05-28 |
JP2018132996A (ja) | 2018-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6820533B2 (ja) | 推定装置、学習装置、推定方法、及び推定プログラム | |
US10528804B2 (en) | Detection device, detection method, and storage medium | |
CN112590794B (zh) | 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置 | |
JP6576578B2 (ja) | 車両を制御する方法、システム、及び非一時的コンピューター可読メモリ | |
CN105365707B (zh) | 车辆驾驶员识别 | |
CN112241204B (zh) | 一种车载ar-hud的手势交互方法和系统 | |
US8055020B2 (en) | Method for object tracking | |
US20150116200A1 (en) | System and method for gestural control of vehicle systems | |
CN108327723B (zh) | 通过无监督学习的对象跟踪 | |
JP6507015B2 (ja) | 運転者状態判定装置 | |
JP7301245B2 (ja) | モデル幾何学学習を用いて移動物体の拡大状態を追跡するためのシステムおよび方法 | |
CN110765807A (zh) | 驾驶行为分析、处理方法、装置、设备和存储介质 | |
WO2013128291A2 (en) | Method of fusing multiple information sources in image-based gesture recognition system | |
US20180095462A1 (en) | Method for Determining Road Surface Based on Vehicle Data | |
US20150003669A1 (en) | 3d object shape and pose estimation and tracking method and apparatus | |
US10884614B1 (en) | Actuation interface | |
EP3623950B1 (en) | System and method for verifying vehicle controller based on virtual machine | |
US20140294241A1 (en) | Vehicle having gesture detection system and method | |
US9349044B2 (en) | Gesture recognition apparatus and method | |
CN109895711A (zh) | 车辆维护操作 | |
JP2018131110A (ja) | 推定装置、推定方法、及び推定プログラム | |
US10890981B2 (en) | Gesture-based vehicle control | |
US20230038337A1 (en) | Method and device for evaluating an image classifier | |
CN107134191A (zh) | 交通工具操作者培训系统 | |
US9637057B2 (en) | Method and apparatus for controlling auxiliary step rotated in association with door opening angle of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190829 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6820533 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |