[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013222299A - Operation support device, operation system, operation support method and program - Google Patents

Operation support device, operation system, operation support method and program Download PDF

Info

Publication number
JP2013222299A
JP2013222299A JP2012093248A JP2012093248A JP2013222299A JP 2013222299 A JP2013222299 A JP 2013222299A JP 2012093248 A JP2012093248 A JP 2012093248A JP 2012093248 A JP2012093248 A JP 2012093248A JP 2013222299 A JP2013222299 A JP 2013222299A
Authority
JP
Japan
Prior art keywords
operator
display
line
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012093248A
Other languages
Japanese (ja)
Other versions
JP5813562B2 (en
Inventor
Hiroshi Yoda
拓 依田
Kazunori Higuchi
和則 樋口
Satoshi Nakakoshi
聡 中越
Kazuhiko Nakamoto
一彦 中本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012093248A priority Critical patent/JP5813562B2/en
Publication of JP2013222299A publication Critical patent/JP2013222299A/en
Application granted granted Critical
Publication of JP5813562B2 publication Critical patent/JP5813562B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation support device that performs support display when an operator temporarily has difficulty in operation of an operation device.SOLUTION: On the basis of at least one of a line of sight, a behavior and utterance of an operator of an operation device 14 including an operation reception unit 18 for receiving operation and a display unit 16 provided to the operation reception unit 18, a control unit 28 of an operation support device 12 determines whether or not support for operation by the operator to the operation reception unit 18 is needed. When determining that such support is needed, the control unit 28 controls the display unit 16 to perform support display for supporting operation by the operator to the operation reception unit 18.

Description

本発明は、操作支援装置、操作システム、操作支援方法、及びプログラムに係り、特に機器を操作する操作者の操作を支援する操作支援装置、操作システム、操作支援方法、及びプログラムに関する。   The present invention relates to an operation support device, an operation system, an operation support method, and a program, and more particularly, to an operation support device, an operation system, an operation support method, and a program that support an operation of an operator who operates a device.

車両の外部を撮像して車両の操作者に表示する車両用表示装置であって、車両の操作者の視線が表示手段を見ていることを検知した場合に、撮像手段で撮像した画像を表示装置に明瞭に表示するように制御する車両用表示装置が知られている(例えば、特許文献1参照)。   A display device for a vehicle that images the outside of a vehicle and displays it to an operator of the vehicle, and displays an image captured by the imaging means when detecting that the line of sight of the operator of the vehicle is looking at the display means 2. Description of the Related Art A vehicular display device that controls to display clearly on a device is known (for example, see Patent Document 1).

また、操作者が関心を示す事項を予測し、予測した事項に関連する情報を収集して提示情報を取得し、操作者の視線が特定の機器に移動したことを判別した場合に、視線が移動した特定の機器に応じた情報を上記提示情報から外部に出力する視線移動検出情報提示装置も知られている(例えば、特許文献2参照)。   In addition, when an operator is interested in predicting matters, information related to the predicted matters is collected to obtain presentation information, and it is determined that the operator's line of sight has moved to a specific device. A line-of-sight movement detection information presentation device that outputs information corresponding to a specific device that has moved to the outside from the presentation information is also known (see, for example, Patent Document 2).

特開平6−233306号公報JP-A-6-233306 特開2001−194161号公報JP 2001-194161 A

しかしながら、上記従来の技術は、車両の操作者が車外映像を見るなど、運転中の恒常的な確認作業を支援することを前提として、単に表示手段や特定の機器を見ていることが検知されただけで操作者等の操作者を支援する支援表示を行なう構成となっている。上記技術を、車両に設けられた操作パネル等の操作を支援するための支援表示に用いた場合には、操作者が操作に習熟した段階においても毎回支援表示が発生し、煩わしい。従って、必要なときに必要な支援表示が行なわれることが望ましい。   However, it is detected that the above-mentioned conventional technology simply looks at the display means or a specific device on the premise that the vehicle operator supports constant confirmation work during driving, such as watching a video outside the vehicle. It is configured to perform support display that supports an operator such as an operator. When the above technique is used for assistance display for assisting operation of an operation panel or the like provided in the vehicle, the assistance display occurs every time even when the operator is familiar with the operation, which is troublesome. Therefore, it is desirable to perform necessary support display when necessary.

本発明は、上記問題を解消するためになされたもので、操作者が操作装置の操作に困難を感じている際に支援表示を行なうことができる操作支援装置、操作システム、及び操作支援方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problem, and an operation support device, an operation system, and an operation support method that can perform support display when an operator feels difficulty in operating the operation device, And to provide a program.

上記目的を達成するために、本発明の操作支援装置は、操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者の視線、挙動、及び発話の少なくとも1つに基づいて、前記操作者の前記操作受付手段に対する操作を支援することが必要か否かを判断する判断手段と、前記判断手段により前記支援が必要と判断された場合に、前記操作者の前記操作受付手段に対する操作を支援するための支援表示が行なわれるように前記表示手段を制御する表示制御手段と、を備えている。   In order to achieve the above object, an operation support apparatus according to the present invention includes an operation accepting unit that accepts an operation and an operator's line of sight, behavior, and utterance of an operation device that includes a display unit provided for the operation accepting unit. A determination unit that determines whether or not it is necessary to support the operation of the operation reception unit by the operator based on at least one; and the operation when the determination unit determines that the support is necessary Display control means for controlling the display means so as to perform support display for assisting the user's operation on the operation accepting means.

このように、操作者の視線、挙動、及び発話の少なくとも1つに基づいて、操作者の操作受付手段に対する操作を支援することが必要か否かを判断し、必要であると判断した場合に、支援表示が行なわれるようにしたため、操作者が操作装置の操作に困難を感じている際に支援表示を行なうことができる。   As described above, when it is determined whether it is necessary to determine whether or not it is necessary to support the operation of the operation receiving means by the operator based on at least one of the operator's line of sight, behavior, and utterance. Since the support display is performed, the support display can be performed when the operator feels difficulty in operating the operation device.

なお、操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者を撮影する撮影手段と、前前記撮影手段により撮影された撮影画像に基づいて、前記操作者の視線の分析、又は前記操作者の指先の指示方向及び動きの分析を行なう分析手段と、を更に備え、前記判断手段は、前記操作者の視線又は指先が前記操作装置の方向を向いている時間又は該時間の単位時間あたりの割合が所定値を超えており、且つ前記操作者の単位時間あたりの視線又は指先の移動距離を示す移動速度が所定速度を超えていることが前記分析手段により分析された場合に、前記支援が必要であると判断するようにしてもよい。   In addition, based on an image receiving unit that receives an operation, an imaging unit that captures an operator of an operating device having a display unit provided for the operation receiving unit, and a captured image captured by the previous imaging unit, Analyzing means for analyzing the line of sight of the operator or analyzing the pointing direction and movement of the fingertip of the operator, and the judging means is configured such that the line of sight of the operator or the fingertip faces the direction of the operating device. The analysis that the time or the ratio of the time per unit time exceeds a predetermined value, and the movement speed indicating the line of sight of the operator or the movement distance of the fingertip exceeds the predetermined speed. When analyzed by means, it may be determined that the support is necessary.

このように、操作者の視線又は指先が操作装置の方向を向いている時間又は該時間の単位時間あたりの割合が所定値を超えており、且つ操作者の単位時間あたりの視線又は指先の移動距離を示す移動速度が所定速度を超えていることが分析された場合に、支援表示が行なわれるため、容易に操作者が操作装置の操作に困難を感じていることを検出して支援表示を行なうことができる。   In this way, the time when the operator's line of sight or fingertip is facing the direction of the operating device or the ratio of the time per unit time exceeds a predetermined value, and the movement of the line of sight or fingertip per unit time of the operator When it is analyzed that the moving speed indicating the distance exceeds the predetermined speed, the support display is performed. Therefore, it is easily detected that the operator feels difficulty in operating the operation device and the support display is displayed. Can be done.

なお、前記操作受付手段には異なる機能を実行するための複数の操作要素が配置され、前記表示制御手段は、前記複数の操作要素を複数のグループに区分けしたときに、前記操作者の視線又は指先が複数のグループ間を移動していることが前記分析手段により分析された場合には、前記支援表示として複数のグループの区分けが強調表示されるように前記表示手段を制御し、前記操作者の視線又は指先が前記複数のグループのうち1つのグループ内を移動していることが前記分析手段により分析された場合には、前記支援表示として該視線が向けられているグループに属する操作要素の各々が強調表示されるように前記表示手段を制御するようにしてもよい。   The operation accepting unit includes a plurality of operation elements for executing different functions, and the display control unit is configured to divide the plurality of operation elements into a plurality of groups when the operator's line of sight or When the analysis means analyzes that the fingertip is moving between a plurality of groups, the display means is controlled to highlight the group classification as the support display, and the operator When the analysis means analyzes that the line of sight or the fingertip is moving within one group of the plurality of groups, the operation element belonging to the group to which the line of sight is directed as the support display is displayed. You may make it control the said display means so that each may be highlighted.

このような構成により、操作者が感じている困難の種類に適した支援表示を行なうことができる。   With such a configuration, it is possible to perform support display suitable for the type of difficulty felt by the operator.

また、前記操作要素から算出された正の視覚の誘導場と、前記操作要素のまとまりを区切る機能を有する仕切り部分から算出された負の視覚の誘導場とを合算して得られた視覚の誘導場の分布において、所定の閾値に相当する視覚の誘導場の値を有する点群を、前記複数のグループのうち前記分析手段に用いるグループの境界線として用いてもよい。   Further, the visual guidance obtained by adding the positive visual guidance field calculated from the operation element and the negative visual guidance field calculated from the partition part having a function of dividing the group of the manipulation elements. In the field distribution, a point cloud having a visual induction field value corresponding to a predetermined threshold value may be used as a boundary line of the group used for the analysis means among the plurality of groups.

このような構成により、例えば、操作要素の種類や配置が変化する場合でも、適切に視線を分析して支援表示することができる。   With such a configuration, for example, even when the type or arrangement of operation elements changes, it is possible to appropriately analyze the line of sight and perform support display.

また、本発明の操作システムは、操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置と上記操作支援装置と、を備えている。   The operation system of the present invention includes an operation receiving unit that receives an operation, an operation device having a display unit provided for the operation reception unit, and the operation support device.

また、本発明の操作支援方法は、操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者の視線、挙動、及び発話の少なくとも1つに基づいて、前記操作者の前記操作受付手段に対する操作を支援することが必要か否かを判断する判断ステップと、前記判断ステップにおいて前記支援が必要と判断された場合に、前記操作者の前記操作受付手段に対する操作を支援するための支援表示が行なわれるように前記表示手段を制御する表示制御ステップと、を備えている。   In addition, the operation support method of the present invention is based on at least one of the line of sight, behavior, and utterance of an operator of an operating device having an operation receiving means for receiving an operation and a display means provided for the operation receiving means. A determination step for determining whether or not it is necessary to support the operation of the operator with respect to the operation reception means; and when the support is determined to be necessary in the determination step, the operation reception means of the operator A display control step for controlling the display means so that a support display for supporting an operation on the display is performed.

また、本発明のプログラムは、コンピュータを、上記操作支援装置の分析手段と表示制御手段として機能させるためのプログラムである。   The program of the present invention is a program for causing a computer to function as an analysis unit and a display control unit of the operation support apparatus.

このような、操作システム、操作支援方法、及びプログラムによっても、操作者が操作装置の操作に困難を感じている際に支援表示を行なうことができる。   Such an operation system, operation support method, and program can also perform support display when the operator feels difficulty in operating the operation device.

以上説明したように本発明によれば、操作者が操作装置の操作に困難を感じている際に支援表示を行なうことができる、という効果が得られる。   As described above, according to the present invention, it is possible to obtain an effect that support display can be performed when the operator feels difficulty in operating the operation device.

第1実施形態及び第2実施形態に係る操作システムの機能構成を模式的に示した図である。It is the figure which showed typically the function structure of the operation system which concerns on 1st Embodiment and 2nd Embodiment. 第1実施形態に係る操作支援処理のフローチャートである。It is a flowchart of the operation assistance process which concerns on 1st Embodiment. 車両における操作領域を模式的に示した図である。It is the figure which showed typically the operation area | region in a vehicle. (A)は通常表示の一例を示す図であり、(B)は強調表示の一例を示す図である。(A) is a figure which shows an example of a normal display, (B) is a figure which shows an example of a highlight display. 第2実施形態に係る操作装置の構成要素のレイアウト例を示す図である。It is a figure which shows the example of a layout of the component of the operating device which concerns on 2nd Embodiment. 第2実施形態に係る操作支援処理のフローチャートである。It is a flowchart of the operation assistance process which concerns on 2nd Embodiment. 第3実施形態に係る操作システムの機能構成を模式的に示した図である。It is the figure which showed typically the function structure of the operation system which concerns on 3rd Embodiment. 視覚の誘導場を説明する説明図である。It is explanatory drawing explaining the visual induction field. 誘導場計算結果の具体例を示す図である。It is a figure which shows the specific example of a guidance field calculation result. 第3実施形態に係る操作支援処理のフローチャートである。It is a flowchart of the operation assistance process which concerns on 3rd Embodiment. (A)は、心理的グループの特定処理のフローチャートを示す図であり、(B)は、操作要素の誘導場の計算結果を模式的に示す図であり、(C)は、仕切りの誘導場の計算結果を模式的に示す図であり、(D)は、操作要素の誘導場と仕切りの誘導場とを合算した総計の誘導場を示す図である。(A) is a figure which shows the flowchart of the specific process of a psychological group, (B) is a figure which shows the calculation result of the induction field of an operation element typically, (C) is an induction field of a partition. (D) is a figure which shows the total induction field which added the induction field of the operation element, and the induction field of the partition. 操作装置の画像の一例を示す図である。It is a figure which shows an example of the image of an operating device. 誘導場の合算処理を模式的に示す図である。It is a figure which shows typically the summation process of an induction field. 視覚の誘導場の閾値とグループ数との関係の一例を示す図である。It is a figure which shows an example of the relationship between the threshold value of a visual induction field, and the number of groups.

[第1実施形態]   [First Embodiment]

以下、図面を参照して本実施形態を詳細に説明する。図1は、本実施形態に係る操作システム10の機能構成を模式的に示した図である。以下、操作システム10を、車両に設けられた操作システムとして説明するが、本発明は車両に設けられた操作システム10に限定されるものではなく、様々な操作システムに適用され得る。図1に示すように、本実施形態に係る操作システム10は、操作支援装置12及び操作装置14を備えている。なお、車両の運転者は、操作装置14を操作する操作者でもあるため、以下では、車両の運転者を操作者と呼称する。   Hereinafter, this embodiment will be described in detail with reference to the drawings. FIG. 1 is a diagram schematically illustrating a functional configuration of the operation system 10 according to the present embodiment. Hereinafter, although the operation system 10 is demonstrated as an operation system provided in the vehicle, the present invention is not limited to the operation system 10 provided in the vehicle, and can be applied to various operation systems. As shown in FIG. 1, the operation system 10 according to the present embodiment includes an operation support device 12 and an operation device 14. In addition, since the driver of a vehicle is also an operator who operates the operating device 14, the driver of a vehicle is called an operator below.

操作装置14は、タッチパネル・ディスプレイ30、スイッチ36、及び発光部38を備えている。なお、本実施形態では、タッチパネル・ディスプレイ30及びスイッチ36の各々が操作装置14に設けられている例について説明するが、いずれか一方だけ設けられていてもよい。また、スイッチ36は複数設けられていてもよい。   The operation device 14 includes a touch panel display 30, a switch 36, and a light emitting unit 38. In the present embodiment, an example in which each of the touch panel / display 30 and the switch 36 is provided in the operation device 14 will be described, but only one of them may be provided. A plurality of switches 36 may be provided.

スイッチ36は、車両に設けられた各種機器類(例えば、空調システム、オーディオシステム、カーナビゲーションシステム等の機器類)を動作させるための操作要素として操作装置14に設けられている。スイッチ36には、押圧されることにより、電気信号が発生する機構が設けられている。タッチパネル・ディスプレイ30は、ディスプレイ32にタッチパネルセンサ34が重ねられて構成されている。タッチパネル・ディスプレイ30に機器を動作させるためのアイコンの画像が表示されている場合には、該アイコンも操作要素として扱われる。   The switch 36 is provided in the operating device 14 as an operating element for operating various devices (for example, devices such as an air conditioning system, an audio system, and a car navigation system) provided in the vehicle. The switch 36 is provided with a mechanism that generates an electrical signal when pressed. The touch panel display 30 is configured by a touch panel sensor 34 superimposed on a display 32. When an icon image for operating the device is displayed on the touch panel display 30, the icon is also handled as an operation element.

スイッチ36及びタッチパネル・ディスプレイ30は、図3に示すように、操作装置14が有するパネル39(図1では不図示)の開口部に嵌め込まれており、操作者の座席側から、操作者がスイッチ36及びタッチパネル・ディスプレイ30のタッチパネルセンサ34を操作することが可能となっている。   As shown in FIG. 3, the switch 36 and the touch panel display 30 are fitted into an opening of a panel 39 (not shown in FIG. 1) of the operation device 14, and the operator switches from the operator's seat side. 36 and the touch panel sensor 34 of the touch panel display 30 can be operated.

操作者である車両の操作者は、操作装置14が有するスイッチ36を操作することにより、車両に設けられた各種機器類を動作させる。また、タッチパネル・ディスプレイ30のディスプレイ32に操作要素としてのアイコンの画像が表示されている場合には、操作者は、タッチパネルセンサ34の該アイコンの画像の表示位置に対応する部分を指先等で接触操作することにより、車両に設けられた各種機器類を動作させる。このように、操作要素の各々には、予め定められた機器及び該機器の予め定められた機能が対応付けられており、操作要素を操作することで、対応付けられた機器の対応付けられた機能が実行される。なお、操作装置14は車両に対して着脱可能であってもよい。本実施形態では、操作装置14が配置された領域を操作領域と呼称する。   The operator of the vehicle, which is an operator, operates various devices provided in the vehicle by operating the switch 36 included in the operation device 14. When an icon image as an operation element is displayed on the display 32 of the touch panel display 30, the operator touches the part corresponding to the display position of the icon image on the touch panel sensor 34 with a fingertip or the like. By operating, various devices provided in the vehicle are operated. In this way, each of the operation elements is associated with a predetermined device and a predetermined function of the device, and by operating the operation element, the associated device is associated. The function is executed. The operating device 14 may be detachable from the vehicle. In the present embodiment, an area where the operation device 14 is arranged is referred to as an operation area.

発光部38は、発光ダイオードなどの複数の発光素子により構成されているものとする。本実施形態では、発光部38は、操作装置14のパネル39の裏面にバックライトとして設けられており、発光部38が発光すると、パネル39の開口部と該開口部に嵌め込まれたスイッチ36やタッチパネル・ディスプレイ30との間隙(外周縁)から、発光部38の発光光が透過して、運転席に着座した操作者から該透過した光を視認可能となっている(図3においては図示省略。)。これによりスイッチ36及びタッチパネル・ディスプレイ30の輪郭部分が照明される。なお、発光部38の各々の配置位置は、これに限定されず、例えば、スイッチ36及びタッチパネル・ディスプレイ30の各々の近傍であって、操作装置14のパネル39の表面に配置されていてもよい。   The light emitting unit 38 is assumed to be composed of a plurality of light emitting elements such as light emitting diodes. In the present embodiment, the light emitting unit 38 is provided as a backlight on the back surface of the panel 39 of the operating device 14, and when the light emitting unit 38 emits light, the opening of the panel 39 and the switch 36 fitted in the opening, The light emitted from the light emitting unit 38 is transmitted through a gap (outer peripheral edge) with the touch panel display 30 so that the transmitted light can be visually recognized by an operator seated in the driver's seat (not shown in FIG. 3). .) As a result, the contour portions of the switch 36 and the touch panel display 30 are illuminated. The arrangement positions of the light emitting units 38 are not limited to this, and may be arranged on the surface of the panel 39 of the operation device 14 in the vicinity of the switch 36 and the touch panel display 30, for example. .

なお、ディスプレイ32及び発光部38の各々は、視覚的な効果を有する構成要素であり、タッチパネルセンサ34及びスイッチ36の各々は、操作者の操作を受け付ける構成要素であるといえる。従って、以下では、ディスプレイ32及び発光部38の各々を総称して表示部16と称し、タッチパネルセンサ34及びスイッチ36の各々を総称して操作受付部18と称する。   Each of the display 32 and the light emitting unit 38 is a component having a visual effect, and each of the touch panel sensor 34 and the switch 36 can be said to be a component that receives an operation of the operator. Therefore, hereinafter, the display 32 and the light emitting unit 38 are collectively referred to as the display unit 16, and the touch panel sensor 34 and the switch 36 are collectively referred to as the operation receiving unit 18.

操作支援装置12は、撮影部20、及び制御部28を備えている。   The operation support apparatus 12 includes a photographing unit 20 and a control unit 28.

撮影部20は、運転席に座った操作者の撮影を行なうカメラである。撮影部20は、少なくとも操作者の眼を含む領域を撮影する。撮影部20により撮影された撮影画像の画像データは、制御部28で用いられる。   The photographing unit 20 is a camera that photographs the operator sitting in the driver's seat. The imaging unit 20 images at least a region including the operator's eyes. Image data of a photographed image photographed by the photographing unit 20 is used by the control unit 28.

制御部28は、視線分析部22及び表示制御部24を備えている。視線分析部22は、撮影部20で撮影されて得られた画像データに基づいて、操作者の視線分析を行なう。表示制御部24は、視線分析部22の分析結果に基づいて、表示部16の表示を制御する。本実施形態では、表示制御部24は、表示部16に含まれる発光部38への電流量等を制御して、該発光部38の発光を制御するものとする。   The control unit 28 includes a line-of-sight analysis unit 22 and a display control unit 24. The line-of-sight analysis unit 22 performs line-of-sight analysis of the operator based on the image data obtained by photographing by the photographing unit 20. The display control unit 24 controls display on the display unit 16 based on the analysis result of the line-of-sight analysis unit 22. In the present embodiment, the display control unit 24 controls light emission of the light emitting unit 38 by controlling the amount of current to the light emitting unit 38 included in the display unit 16.

なお、本実施形態においては、制御部28は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を備えたコンピュータにより構成されているものとする。例えば、ROMを、制御部28の視線分析部22及び表示制御部24の各機能を実行するためのプログラムを記憶した記憶媒体とし、CPUがROMに記憶されたプログラムを、RAMをワークエリアとして用いて実行することにより制御部28の各機能を実現するようにしてもよい。プログラムを記憶する記憶媒体は、ROMに限定されるものではなく、例えば、HDD(ハードディスク装置)や、CD−ROM、フラッシュメモリ等の記録媒体であってもよい。なお、制御部28は、視線分析部22及び表示制御部24の各々の機能を有する電子回路等のハードウェアにより構築されていてもよい。   In the present embodiment, the control unit 28 is assumed to be configured by a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). For example, the ROM is used as a storage medium that stores programs for executing the functions of the line-of-sight analysis unit 22 and the display control unit 24 of the control unit 28, and the CPU uses the program stored in the ROM as a work area. Each function of the control unit 28 may be realized by executing the above. The storage medium for storing the program is not limited to the ROM, and may be a recording medium such as an HDD (Hard Disk Device), a CD-ROM, or a flash memory. The control unit 28 may be constructed by hardware such as an electronic circuit having the functions of the line-of-sight analysis unit 22 and the display control unit 24.

以下、図2を参照して、本実施形態の操作支援処理の一例について説明する。操作支援装置12が起動すると、この操作支援処理の処理ルーチンが開始されると共に、撮影部20による操作者の撮影も開始される。撮影部20は、操作支援装置12の起動中は、連続的に操作者の撮影を行なう。   Hereinafter, an example of the operation support process of the present embodiment will be described with reference to FIG. When the operation support apparatus 12 is activated, a processing routine of this operation support process is started, and the photographing of the operator by the photographing unit 20 is also started. The photographing unit 20 continuously photographs the operator while the operation support device 12 is activated.

ステップS100において、表示制御部24は、操作支援装置12の起動直後から予め定められた時間が経過するまでは、通常表示が行なわれるように表示部16を制御する。通常表示とは、図4(A)に示すように、表示部16の発光部38が発光してない状態、或いは発光部38の光量が予め定められた値以下で発光している状態をいう。   In step S <b> 100, the display control unit 24 controls the display unit 16 so that normal display is performed until a predetermined time elapses immediately after the operation support device 12 is activated. As shown in FIG. 4A, the normal display refers to a state where the light emitting unit 38 of the display unit 16 is not emitting light, or a state where the light amount of the light emitting unit 38 emits light below a predetermined value. .

ステップS102において、視線分析部22は、撮影部20により撮影して得られた撮影画像の画像データを取得して、予め定められた記憶手段(例えば上記RAM等)に記憶する。   In step S <b> 102, the line-of-sight analysis unit 22 acquires image data of a photographed image obtained by photographing with the photographing unit 20 and stores the image data in a predetermined storage unit (for example, the RAM or the like).

ステップS104において、視線分析部22は、操作支援装置12が起動してから開始された撮影時間が所定時間を超えたか否かを判断する。視線分析部22は、ステップS104において、撮影時間が所定時間を超えていないと判断した場合には、ステップS102に戻る。視線分析部22は、ステップS104において、撮影時間が所定時間を超えたと判断した場合には、ステップS106に進む。すなわち、ここでは、スタートからの所定時間が経過し、視線分析を行なうのに十分な期間の撮影画像が取得された後に、該撮影画像の画像データの各々を用いて視線分析を行なうようにしている。   In step S <b> 104, the line-of-sight analysis unit 22 determines whether the imaging time started after the operation support device 12 is activated has exceeded a predetermined time. If the line-of-sight analysis unit 22 determines in step S104 that the photographing time does not exceed the predetermined time, the line-of-sight analysis unit 22 returns to step S102. If the line-of-sight analysis unit 22 determines in step S104 that the imaging time has exceeded the predetermined time, the process proceeds to step S106. That is, here, after a predetermined time has elapsed since the start and a captured image for a period sufficient to perform the line-of-sight analysis is acquired, the line-of-sight analysis is performed using each of the image data of the captured image. Yes.

ステップS106において、視線分析部22は、現在時刻から予め定められた時間遡った時刻までの期間(以下、分析期間という)に撮影され記憶された画像データに基づいて視線分析を行なう。具体的には、視線分析部22は、まず、画像データが表わす撮影画像から、操作者の視線方向の検出を行なう。   In step S106, the line-of-sight analysis unit 22 performs line-of-sight analysis based on image data captured and stored in a period (hereinafter referred to as an analysis period) from a current time to a time that is a predetermined time later. Specifically, the line-of-sight analysis unit 22 first detects the line-of-sight direction of the operator from the captured image represented by the image data.

視線方向の検出は、周知の技術を用いて行なう。例えば、seeingmachine社(http://www.seeingmachines.com/index.htm)のfacelabを用いてもよい。その場合には、撮影部20の設置位置を基準とした眼の座標及び視線ベクトルを計測することができる。車両内における撮影部20の設置座標を予め決めておくことで、車両を基準とした操作者の眼の座標位置が計算でき、また、眼の座標位置から視線方向ベクトルを得ることができる。視線方向の検出は、分析期間中に撮影された撮影画像の画像データの各々について行なう。   The line-of-sight direction is detected using a known technique. For example, you may use facelab of seeingmachine (http://www.seeingmachines.com/index.htm). In this case, the eye coordinates and the line-of-sight vector can be measured with the installation position of the photographing unit 20 as a reference. By determining the installation coordinates of the photographing unit 20 in the vehicle in advance, the coordinate position of the operator's eye with respect to the vehicle can be calculated, and the line-of-sight direction vector can be obtained from the eye coordinate position. The line-of-sight direction is detected for each of the image data of the captured images captured during the analysis period.

次に、視線分析部22は、分析期間中の操作領域への視線滞在率を算出する。ここでは、視線方向が操作領域の方向を向いている時間の、単位時間あたりの割合を示す視線滞在率を算出する。より具体的には、分析期間に対し視線方向が操作領域の方向を向いている時間の割合を視線滞在率として算出する。更に、視線分析部22は、分析期間における操作者の単位時間あたりの視線の移動距離(以下、視線速度という)を算出する。   Next, the line-of-sight analysis unit 22 calculates the line-of-sight stay rate in the operation area during the analysis period. Here, the line-of-sight stay rate indicating the ratio per unit time of the time during which the line-of-sight direction faces the direction of the operation area is calculated. More specifically, the ratio of the time during which the line-of-sight direction faces the direction of the operation area with respect to the analysis period is calculated as the line-of-sight stay rate. Further, the line-of-sight analysis unit 22 calculates the line-of-sight movement distance (hereinafter referred to as line-of-sight velocity) per unit time of the operator during the analysis period.

ステップS108において、視線分析部22は、操作領域内の視線滞在率が所定値を超えるか否かを判断する。算出された視線滞在率と比較される所定値は、予め、閾値として設定しておく。視線分析部22は、ステップS108において、操作領域内の視線滞在率が所定値を超えると判断した場合には、ステップS110において、視線速度が所定速度を超えるか否かを判断する。算出された視線速度と比較される所定速度の値は、予め、閾値として設定しておく。   In step S108, the line-of-sight analysis unit 22 determines whether or not the line-of-sight stay rate in the operation region exceeds a predetermined value. The predetermined value to be compared with the calculated line-of-sight stay rate is set in advance as a threshold value. When the line-of-sight analysis unit 22 determines in step S108 that the line-of-sight stay rate in the operation region exceeds a predetermined value, the line-of-sight analysis unit 22 determines whether or not the line-of-sight speed exceeds a predetermined speed in step S110. The value of the predetermined speed to be compared with the calculated line-of-sight speed is set in advance as a threshold value.

視線分析部22は、ステップS110において、視線速度が所定速度を超えると判断した場合には、視線分析結果が操作者は操作装置14の操作に困難を感じていることを示しているため、操作者の操作受付部18に対する操作を支援することが必要であると判断する。そこで、ステップS112において、表示制御部24は、操作者の操作装置14の操作受付部18に対する操作を支援するための支援表示として、強調表示が行なわれるように表示部16を制御する。本実施形態において、強調表示とは、図4(B)に示すように、操作装置14の操作要素の各々、或いは複数の操作要素のまとまり(操作要素群)が強調されるように、表示部16の発光部38が予め定められた値を超える光量(輝度といってもよい)で発光している状態をいう。強調表示により、スイッチ36やタッチパネル・ディスプレイ30の輪郭の輝度がアップして、操作者が操作装置14を操作することが容易になる。   When the line-of-sight analysis unit 22 determines in step S110 that the line-of-sight speed exceeds the predetermined speed, the line-of-sight analysis result indicates that the operator feels difficulty in operating the operation device 14, so that It is determined that it is necessary to support the user's operation on the operation receiving unit 18. Therefore, in step S112, the display control unit 24 controls the display unit 16 so that highlighting is performed as support display for supporting the operation of the operation device 14 of the operator on the operation receiving unit 18. In the present embodiment, as shown in FIG. 4B, the highlighting means that each of the operation elements of the operation device 14 or a group of a plurality of operation elements (operation element group) is emphasized. A state in which the 16 light emitting units 38 emit light with a light amount (also referred to as luminance) exceeding a predetermined value. The highlighting increases the brightness of the outlines of the switch 36 and the touch panel display 30 and makes it easier for the operator to operate the operation device 14.

なお、ステップS112において、既に強調表示が行なわれていた場合には、表示制御部24は、強調表示が継続されるように表示部16を制御する。   If highlighting has already been performed in step S112, the display control unit 24 controls the display unit 16 so that highlighting is continued.

一方、視線分析部22は、ステップS108において、操作領域内の視線滞在率が所定値を超えないと判断した場合、及びステップS110において、視線速度が所定速度を超えないと判断した場合には、視線分析結果が操作者は操作装置14の操作に困難を感じている状態にはないことを示しているため、ステップS114において、表示制御部24は、通常表示が行なわれるように表示部16を制御する。   On the other hand, when the line-of-sight analysis unit 22 determines in step S108 that the line-of-sight stay rate in the operation area does not exceed the predetermined value, and in step S110, when it determines that the line-of-sight speed does not exceed the predetermined speed, Since the line-of-sight analysis result indicates that the operator is not in a state of difficulty in operating the operation device 14, in step S114, the display control unit 24 displays the display unit 16 so that normal display is performed. Control.

なお、ステップS114において、既に通常表示が行なわれていた場合には、表示制御部24は、通常表示が継続されるように表示部16を制御する。   In step S114, if the normal display has already been performed, the display control unit 24 controls the display unit 16 so that the normal display is continued.

本実施形態では、操作者が操作装置14を操作しようとしている意図(操作の意図)と、操作装置14の操作を迷っている迷いの状況とを検出することで、操作者が操作装置14の操作に困難を感じていることを検出するようにしている。   In the present embodiment, the operator detects the intention of the operator to operate the operation device 14 (operation intention) and the situation of hesitation that he / she is confused about the operation of the operation device 14. The system detects that it is difficult to operate.

操作の意図は、操作者の視線滞在率から検出する。視線滞在率が所定値を超えている場合には、操作者は操作領域に視線を向けており、操作装置14に含まれる何らかの機能の操作要素を探索していると推定できる。なお、ここでは、視線滞在率を用いたが、視線方向が操作領域の方向を向いている時間(視線滞在時間)を用いてもよい。迷いの状況は、視線速度によって検出する。これは、操作者が、操作要素の探索作業を行なっている状況下では、視線速度が高くなるという経験的な法則に基づいている。本実施形態では、操作の意図及び迷いの状況の両条件がそろったときに、通常表示を強調表示(支援表示)に切替える。これにより、操作者の操作負担を軽減する。   The intention of the operation is detected from the eye gaze stay rate of the operator. When the line-of-sight stay rate exceeds a predetermined value, it can be estimated that the operator is looking toward the operation area and searching for an operation element of some function included in the operation device 14. Here, the line-of-sight stay rate is used, but the time during which the line-of-sight direction faces the direction of the operation region (line-of-sight stay time) may be used. The situation of hesitation is detected by the line-of-sight speed. This is based on an empirical rule that the line-of-sight speed increases under the situation where the operator is searching for an operation element. In the present embodiment, the normal display is switched to the emphasis display (support display) when both conditions of the intention of operation and the situation of hesitation are met. Thereby, the operation burden on the operator is reduced.

なお、操作者による操作装置14の探索時間が長くなると、周辺への注意不足につながり、車両などにおいては、周辺への注意不足につながることもある。逆に、表示部16の発光部38を常時点灯するなど、常に操作装置14の操作要素が目立つように表示制御すると、操作装置14の操作要素の探索時間は短くなるが、発光に操作者が誘目されてしまい、この場合も周辺への注意不足につながることがある。本実施形態では、操作者が一時的に支援表示を必要としているときにだけ、通常表示から強調表示へ変更するようにしたため、操作装置14における探索時間を短縮する効果がある。   In addition, when the search time of the operating device 14 by an operator becomes long, it will lead to lack of attention to the periphery, and in vehicles etc., it may lead to lack of attention to the periphery. Conversely, if display control is performed so that the operating elements of the operating device 14 are always conspicuous, such as the light emitting unit 38 of the display unit 16 is always lit, the search time for operating elements of the operating device 14 is shortened, but In this case, it may lead to a lack of attention to the surroundings. In this embodiment, since the display is changed from the normal display to the highlight display only when the operator temporarily needs the support display, the search time in the operation device 14 is shortened.

なお、ここでは、操作システム10が車両に設けられた操作システムである場合を例に挙げて説明したが、これに限定されず、例えば、製造工場などに設けられた操作システムであってもよい。具体的には、製造管理者が製造工場において、操作装置14の操作受付部18を操作して製造機器の動作を制御するようなケースが考えられる。この場合であっても、上記のように操作者の視線分析を行なって必要なときに支援表示を行なうことで、上記と同様の効果が得られる。   Here, the case where the operation system 10 is an operation system provided in a vehicle has been described as an example. However, the present invention is not limited thereto, and may be an operation system provided in a manufacturing factory, for example. . Specifically, a case where the manufacturing manager controls the operation of the manufacturing equipment by operating the operation receiving unit 18 of the operating device 14 in the manufacturing factory can be considered. Even in this case, the same effect as described above can be obtained by performing the gaze analysis of the operator as described above and performing support display when necessary.

また、上記実施形態では、支援表示として、操作装置14のパネル39のバックライト(表示部16の発光部38)を所定光量より大きな光量で発光させる強調表示を例に挙げたが、これに限定されるものではない。例えば、発光部38を点滅させるようにしてもよい。また、表示部16の発光部38を、操作装置14のパネル39表面且つ各操作要素或いは操作要素群の輪郭付近等に配置し、発光部38を点灯或いは点滅させるようにしてもよい。   Moreover, in the said embodiment, although the emphasis display which light-emits the backlight (light emission part 38 of the display part 16) of the panel 39 of the operating device 14 by light quantity larger than predetermined light quantity was mentioned as an example of assistance display, it is limited to this. Is not to be done. For example, the light emitting unit 38 may blink. Further, the light emitting unit 38 of the display unit 16 may be arranged on the surface of the panel 39 of the operating device 14 and in the vicinity of the outline of each operation element or operation element group, and the light emitting unit 38 may be turned on or blinked.

また、タッチパネル・ディスプレイ30に操作要素として複数のアイコンが表示されている場合において支援表示を行なう際には、タッチパネル・ディスプレイ30のディスプレイ32のコントラストを挙げて、各アイコンが強調表示されるように表示部16を制御してもよい。或いは、アイコン或いはアイコン群の輪郭が強調されるように、該輪郭部分の色を変更したり点滅させたりしてもよい。或いはアイコン自身の色を目立つ色に変更してもよい。なお、この場合において、通常表示とは、アイコンが強調表示されていない状態、すなわち、タッチパネル・ディスプレイ30のディスプレイ32のコントラストの値が基準値となるように表示制御されている状態、アイコンやアイコンの輪郭部分の色が通常の色(元々の色)となるように表示制御されている状態、及びアイコンの輪郭部分が点滅等しないように表示制御されている状態とすることができる。   Further, when a support display is performed when a plurality of icons are displayed as operation elements on the touch panel display 30, each icon is highlighted by giving the contrast of the display 32 of the touch panel display 30. The display unit 16 may be controlled. Alternatively, the color of the outline portion may be changed or blinked so that the outline of the icon or icon group is emphasized. Alternatively, the color of the icon itself may be changed to a conspicuous color. In this case, the normal display refers to a state in which the icon is not highlighted, that is, a state in which display control is performed so that the contrast value of the display 32 of the touch panel display 30 becomes the reference value. It can be in a state where display control is performed so that the color of the outline portion of the icon becomes a normal color (original color) and a state where display control is performed so that the outline portion of the icon does not blink.

また、上記では、操作者の視線に基づいて、操作者の操作受付部18に対する操作を支援することが必要か否かを判断する例について説明したが、これに限定されない。例えば、操作者の挙動或いは発話に基づいて、該支援が必要か否かを判断するようにしてもよい。具体的には、操作支援装置12に音声認識機能を設け、操作者が操作に困難を感じている旨の発話を行ったことが認識された場合に、上記支援が必要であると判断するようにしてもよい。また、支援を要する際に押下すべきボタンを設け、操作者が該ボタンを押下したという挙動が検出された場合に、上記支援が必要であると判断するようにしてもよい。該ボタンは、操作装置14の各操作要素とは明確に区別可能にデザインされ、操作装置14の各操作要素の配列位置と全く異なる位置に配置することができる。   Moreover, although the example which judges whether it is necessary to support operation with respect to the operator's operation reception part 18 based on an operator's eyes | visual_axis was demonstrated above, it is not limited to this. For example, it may be determined whether or not the support is necessary based on the behavior or utterance of the operator. Specifically, the operation support device 12 is provided with a voice recognition function, and when it is recognized that the operator has made a speech indicating that the operation is difficult, it is determined that the support is necessary. It may be. In addition, a button to be pressed may be provided when assistance is required, and it may be determined that the assistance is necessary when a behavior that the operator has pressed the button is detected. The buttons are designed to be clearly distinguishable from the operation elements of the operation device 14, and can be arranged at positions completely different from the arrangement positions of the operation elements of the operation device 14.

また、操作者の挙動に基づいて上記支援が必要か否かを判断する他の例として、例えば、撮影部20の撮影画像から、操作者の指先の指示方向及び動きを分析し、上記支援が必要であるか否かを判断するようにしてもよい。具体的には、分析期間において操作者の指先が操作領域の方向を向いている時間の割合(或いは、指先が操作領域の方向を向いている時間)が所定値を超え、指先が移動する移動速度が予め定められた速度より速い場合に、上記支援が必要であると判断するようにしてもよい。   Further, as another example of determining whether or not the above-mentioned support is necessary based on the behavior of the operator, for example, the instruction direction and movement of the operator's fingertip are analyzed from the photographed image of the photographing unit 20, and the above-mentioned support is performed. You may make it judge whether it is required. Specifically, in the analysis period, the ratio of the time during which the fingertip of the operator faces the direction of the operation area (or the time during which the fingertip faces the direction of the operation area) exceeds a predetermined value, and the fingertip moves When the speed is higher than a predetermined speed, it may be determined that the support is necessary.

[第2実施形態]   [Second Embodiment]

第2実施形態では、操作システム10の操作装置14の各操作要素を複数のグループに区分けし、操作者の視線分析から、操作装置14に対する操作者の探索状況が、グループ間の探索か、グループ内の探索かを判断し、状況に応じた支援表示を行なう例について説明する。   In the second embodiment, each operation element of the operation device 14 of the operation system 10 is divided into a plurality of groups. From the line-of-sight analysis of the operator, whether the operator's search status for the operation device 14 is a search between groups or a group. A description will be given of an example in which it is determined whether or not the search is performed and the support display according to the situation is performed.

第2実施形態の操作システム10は、予め操作装置14の各操作要素が複数のグループに分かれていること以外は、第1実施形態の操作システム10と同様の構成であるため、ここでは、説明を省略する。   The operation system 10 according to the second embodiment has the same configuration as that of the operation system 10 according to the first embodiment except that each operation element of the operation device 14 is divided into a plurality of groups in advance. Is omitted.

図5に、第2実施形態に係る操作装置14のスイッチ36の配置例を示す。図5に示されるように、複数のスイッチ36は、2つのグループに区分けされている。グループ分けは、例えば、操作対象となる機器が同じ複数のスイッチ36を同じグループとしてもよいし、操作対象となる機器の種類や機能が同じ又は類似する複数のスイッチ36を同じグループとしてもよい。以下、このグループを機能的グループと呼称する。なお、操作者や操作装置14の管理者等が、複数のスイッチ36の機能的グループのグループ分けを予め設定することができるように構成されていてもよい。   In FIG. 5, the example of arrangement | positioning of the switch 36 of the operating device 14 which concerns on 2nd Embodiment is shown. As shown in FIG. 5, the plurality of switches 36 are divided into two groups. In grouping, for example, a plurality of switches 36 having the same device to be operated may be set as the same group, or a plurality of switches 36 having the same or similar type or function of the device to be operated may be set as the same group. Hereinafter, this group is referred to as a functional group. Note that the operator, the administrator of the operation device 14, or the like may be configured so that the functional grouping of the plurality of switches 36 can be set in advance.

図5に示す操作装置14においては、上段のグループG1は、例えばCDプレイヤーを動作させるためのスイッチ36、ラジオ受信器を動作させるためのスイッチ36、音量を調整するスイッチ36等、オーディオシステム機器の動作させるための複数のスイッチ36の各々が属する機能的グループである。また、下段のグループG2は、例えばエアコンを動作させるためのスイッチ36、風量を調節するためのスイッチ36、風向を調節するためのスイッチ36等、空調システム機器の動作させるための複数のスイッチ36の各々が属する機能的グループである。   In the operation device 14 shown in FIG. 5, the upper group G1 includes, for example, a switch 36 for operating a CD player, a switch 36 for operating a radio receiver, a switch 36 for adjusting the volume, and the like of audio system equipment. This is a functional group to which each of the plurality of switches 36 for operation belongs. The lower group G2 includes a plurality of switches 36 for operating the air conditioning system equipment, such as a switch 36 for operating the air conditioner, a switch 36 for adjusting the air volume, and a switch 36 for adjusting the air direction. The functional group to which each belongs.

なお、本実施形態において、表示部16の発光部38は、第1実施形態で説明した複数のスイッチ36の輪郭を照明するバックライトとしての発光部の他に、グループG1とグループG2との境界線を照明するための長尺状の発光部を備えている(図5では38aという符号を付した)。この該長尺状の発光部38aは、パネル39のグループG1のスイッチ36群とグループG2のスイッチ36群との境界領域に配置されている。   In the present embodiment, the light emitting unit 38 of the display unit 16 is a boundary between the group G1 and the group G2 in addition to the light emitting unit as a backlight that illuminates the outlines of the plurality of switches 36 described in the first embodiment. A long light emitting portion for illuminating the line is provided (in FIG. 5, the reference numeral 38a is attached). The long light emitting portion 38a is arranged in a boundary region between the group of switches G1 of the group G1 and the group of switches 36 of the group G2.

図6を参照して、第2実施形態に係る操作支援処理の一例について説明する。第1実施形態と同様に、操作支援装置12が起動すると、この操作支援処理の処理ルーチンが開始されると共に、撮影部20による操作者の撮影も開始される。撮影部20は、操作支援装置12の起動中は、連続的に操作者の撮影を行なう。   An example of the operation support process according to the second embodiment will be described with reference to FIG. As in the first embodiment, when the operation support device 12 is activated, a processing routine for this operation support process is started, and photographing of the operator by the photographing unit 20 is also started. The photographing unit 20 continuously photographs the operator while the operation support device 12 is activated.

ステップS200において、表示制御部24は、操作支援装置12の起動直後から予め定められた時間が経過するまでは、通常表示が行なわれるように表示部16を制御する。 ステップS202において、視線分析部22は、撮影部20により撮影して得られた撮影画像の画像データを取得して、予め定められた記憶手段(例えば上記RAM等)に記憶する。   In step S <b> 200, the display control unit 24 controls the display unit 16 so that normal display is performed until a predetermined time elapses immediately after the operation support device 12 is activated. In step S202, the line-of-sight analysis unit 22 acquires image data of a captured image obtained by capturing by the capturing unit 20, and stores the acquired image data in a predetermined storage unit (for example, the RAM or the like).

ステップS204において、視線分析部22は、操作支援装置12が起動してから開始された撮影時間が所定時間を超えたか否かを判断する。視線分析部22は、ステップS204において、撮影時間が所定時間を超えていないと判断した場合には、ステップS202に戻る。視線分析部22は、ステップS204において、撮影時間が所定時間を超えたと判断した場合には、ステップS206に進む。   In step S <b> 204, the line-of-sight analysis unit 22 determines whether or not the imaging time started after the operation support device 12 is activated has exceeded a predetermined time. If the line-of-sight analysis unit 22 determines in step S204 that the shooting time does not exceed the predetermined time, the line-of-sight analysis unit 22 returns to step S202. If the line-of-sight analysis unit 22 determines in step S204 that the imaging time has exceeded the predetermined time, the process proceeds to step S206.

ステップS206において、視線分析部22は、現在時刻から予め定められた時間遡った時刻までの期間(分析期間)に撮影され記憶された画像データに基づいて視線分析を行なう。第2実施形態においては、視線分析部22は、視線分析として、操作者の視線方向の検出、視線滞在率の算出、及び視線速度の算出に加え、操作者の視線方向の軌跡(以下、視線軌跡という)の検出も行なう。   In step S <b> 206, the line-of-sight analysis unit 22 performs line-of-sight analysis based on image data captured and stored in a period (analysis period) from the current time to a time that is a predetermined time back. In the second embodiment, the line-of-sight analysis unit 22 performs the line-of-sight trajectory (hereinafter referred to as line-of-sight) in addition to detection of the line-of-sight direction of the operator, calculation of the line-of-sight stay rate, and line-of-sight velocity as line-of-sight analysis. (Referred to as trajectory).

ステップS208において、視線分析部22は、操作領域内の視線滞在率が所定値を超えるか否かを判断する。視線分析部22は、ステップS208において、操作領域内の視線滞在率が所定値を超えると判断した場合には、ステップS210において、視線速度が所定速度を超えるか否かを判断する。   In step S208, the line-of-sight analysis unit 22 determines whether the line-of-sight stay rate in the operation region exceeds a predetermined value. If the line-of-sight analysis unit 22 determines in step S208 that the line-of-sight stay rate in the operation region exceeds a predetermined value, the line-of-sight analysis unit 22 determines whether or not the line-of-sight speed exceeds a predetermined speed in step S210.

視線分析部22は、ステップS210において、視線速度が所定速度を超えると判断した場合には、ステップS212に進み、上記検出した視線軌跡に基づいて、操作者の視線が複数のグループ間を移動している(換言すれば、あるグループの一部を見ては別のグループを見るという行動(グループ間探索)を行なっている)か、操作者の視線が複数のグループのうち1つのグループ内を移動している(換言すれば、あるグループ内の操作要素を、順を追って探索するという行動(グループ内探索)を行なっている)か、を判断する。例えば、視線分析部22は、視線軌跡が複数のグループを区切る境界線を交差していれば、グループ間探索を行なっていると判断し、視線軌跡が境界線を交差せずに、ほとんど1つのグループ内を視線が移動している場合には、グループ内探索を行なっていると判断してもよい。   If the line-of-sight analysis unit 22 determines in step S210 that the line-of-sight speed exceeds the predetermined speed, the line-of-sight analysis unit 22 proceeds to step S212, and the line of sight of the operator moves between a plurality of groups based on the detected line-of-sight locus. (In other words, when one part of a group is seen and another group is seen (inter-group search)), or the operator ’s line of sight is within one of the groups. It is determined whether the user is moving (in other words, an action of searching for an operation element in a certain group in order (in-group search) is performed). For example, the line-of-sight analysis unit 22 determines that an inter-group search is performed if the line-of-sight trajectory intersects a boundary line that divides a plurality of groups, and the line-of-sight trajectory does not intersect the boundary line, and almost one When the line of sight is moving within the group, it may be determined that the group search is being performed.

ステップS212において、視線分析部22が、操作者がグループ内探索をしていると判断した場合には、ステップS214において、表示制御部24は、操作者が視線を向けている領域の機能的グループに属する操作要素(ここではスイッチ36)の各々が強調表示されるように表示部16を制御する。例えば、図5において、機能的グループG1のスイッチ36を強調表示する場合には、発光部38のうち、機能的グループG1に対応する位置に配置されたバックライトとしての発光素子のみが点灯(例えば、予め定められた値を超える光量で発光させる)し、機能的グループG2に対応する位置に配置されたバックライトとしての発光素子、及び機能的グループの境界領域に配置された発光部38aの発光素子は点灯しないように表示部16を制御する。この強調表示により、操作者が探索しているグループのスイッチ36の輪郭の輝度がアップして、スイッチ36の各々を区別することが容易になる。   In step S212, when the line-of-sight analysis unit 22 determines that the operator is searching in the group, in step S214, the display control unit 24 displays the functional group of the region in which the operator is looking at the line of sight. The display unit 16 is controlled so that each of the operation elements (here, the switch 36) belonging to is highlighted. For example, in FIG. 5, when the switch 36 of the functional group G1 is highlighted, only the light emitting element as the backlight arranged in the position corresponding to the functional group G1 in the light emitting unit 38 is turned on (for example, And the light emitting element 38a disposed in the boundary region of the functional group and the light emitting element as a backlight disposed at a position corresponding to the functional group G2. The display unit 16 is controlled so that the element does not light up. This highlighting increases the brightness of the outline of the switch 36 of the group that the operator is searching for, and makes it easy to distinguish each of the switches 36.

また、ステップS212において、視線分析部22が、操作者がグループ間探索をしていると判断した場合には、ステップS216において、表示制御部24は、操作装置14において、機能的グループの区分けが強調表示されるように表示部16を制御する。例えば、図5に示す操作装置14においては、機能的グループの境界領域に配置された長尺状の発光部38aが点灯(例えば、予め定められた値を超える光量で発光させる)するように表示部16を制御する。この強調表示により、機能的グループの境界を把握することが容易となる。操作者が、例えばどこからどこまでが同じ機能的グループなのかがわからない状態でスイッチ36を探索している状態において、グループ間探索のための支援表示を行なうことで、余計な機能的グループのスイッチ36まで探索を行なわずに済むため、操作者の負荷が軽減する。   If the line-of-sight analysis unit 22 determines in step S212 that the operator is searching between groups, in step S216, the display control unit 24 uses the operation device 14 to classify functional groups. The display unit 16 is controlled to be highlighted. For example, in the operation device 14 shown in FIG. 5, the long light emitting unit 38 a arranged in the boundary region of the functional group is turned on (for example, light is emitted with a light amount exceeding a predetermined value). The unit 16 is controlled. This highlighting makes it easy to grasp the boundaries of functional groups. For example, in a state where the operator is searching for the switch 36 in a state where the operator does not know where the same functional group is, the support display for the inter-group search is performed, so that the switch 36 for the extra functional group can be obtained. Since it is not necessary to perform a search, the burden on the operator is reduced.

一方、視線分析部22は、ステップS208において、操作領域内の視線滞在率が所定値を超えないと判断した場合、及びステップS210において、視線速度が所定速度を超えないと判断した場合には、視線分析結果が操作者は操作装置14の操作に困難を感じている状態にはないことを示しているため、ステップS218において、表示制御部24は、通常表示が行なわれるように表示部16を制御する。   On the other hand, if the line-of-sight analysis unit 22 determines in step S208 that the line-of-sight stay rate in the operation region does not exceed the predetermined value, and if it is determined in step S210 that the line-of-sight speed does not exceed the predetermined speed, Since the line-of-sight analysis result indicates that the operator is not in a state of difficulty in operating the operation device 14, in step S218, the display control unit 24 displays the display unit 16 so that normal display is performed. Control.

上記のように、グループ間探索とグループ内探索とで支援表示方法を異ならせ、それぞれの探索に応じた支援表示することにより、操作者の探索負荷を軽減することができる。   As described above, the search load on the operator can be reduced by changing the support display method for the inter-group search and the intra-group search and displaying the support according to each search.

なお、ここでは、同じ機能的グループに属する複数のスイッチ36がまとまって配置されている例を挙げて説明したが、同じ機能的グループに属する複数のスイッチ36が、離れた位置に分散して配置されている場合であっても、グループ間探索を支援するための支援表示を行なうことが可能である。例えば、上記区切等になる発光部38aを用いずに、各機能的グループに対応するバックライトとしての発光部38の発光色或いは点滅状態を機能的グループ毎に異ならせる等により、グループ間探索の支援表示を行なうようにしてもよい。   Here, an example has been described in which a plurality of switches 36 belonging to the same functional group are arranged together. However, a plurality of switches 36 belonging to the same functional group are arranged dispersedly at different positions. Even if it is, it is possible to perform support display for supporting search between groups. For example, instead of using the light emitting unit 38a which is the above-mentioned division or the like, the light emission color or blinking state of the light emitting unit 38 as a backlight corresponding to each functional group is changed for each functional group, etc. Support display may be performed.

なお、ここでは、図示を省略したが、操作装置14に含まれるタッチパネル・ディスプレイ30に、同じ機能的グループに所属する複数のアイコンが操作要素として表示されている場合において、グループ内探索の支援表示を行なう際には、例えば、タッチパネル・ディスプレイ30のディスプレイ32のコントラストを上げて、各アイコンが強調表示されるように表示部16を制御してもよい。また、タッチパネル・ディスプレイ30に、所属する機能的グループが異なるアイコン群が複数表示されている場合もある。この場合において、グループ間探索を支援するための支援表示を行なう際には、該機能的グループの境界領域に区切りを表わす画像をディスプレイ32に表示したり、機能的グループ毎にアイコンの色を変更したり、或いは点滅させたりする等、機能的グループ毎にアイコンの表示形態を変更することで、グループ間探索の支援表示を行なうことができる。   Although illustration is omitted here, in the case where a plurality of icons belonging to the same functional group are displayed as operation elements on the touch panel display 30 included in the operation device 14, support display for search within the group is displayed. For example, the display unit 16 may be controlled so that the contrast of the display 32 of the touch panel display 30 is increased and each icon is highlighted. In some cases, a plurality of icon groups with different functional groups may be displayed on the touch panel display 30. In this case, when the support display for supporting the inter-group search is performed, an image representing a break in the boundary area of the functional group is displayed on the display 32, or the color of the icon is changed for each functional group. By changing the icon display form for each functional group, such as by flashing or blinking, it is possible to display support for searching between groups.

また、第2実施形態では、視線の分析結果に基づいて、グループ内探索及びグループ間探索の判断を行なう例について説明したが、これに限定されず、例えば、操作者の指先の移動軌跡に基づいて判断するようにしてもよい。この判断は、視線軌跡を用いる場合と同様に行なえばよいため、ここでは説明を省略する。また、操作者の発話に基づいて、グループ内探索及びグループ間探索の判断を行なってもよい。例えば、認識された操作者の音声の内容が、グループ内探索を指定する内容であるか、グループ間探索を指定する内容であるかに応じて判断することができる。   Further, in the second embodiment, the example in which the intra-group search and the inter-group search are determined based on the analysis result of the line of sight has been described. However, the present invention is not limited to this, and for example, based on the movement trajectory of the operator's fingertip. You may make it judge. Since this determination may be performed in the same manner as in the case where the line-of-sight locus is used, description thereof is omitted here. Moreover, based on an operator's utterance, you may perform the search in a group, and a search between groups. For example, it can be determined depending on whether the recognized content of the voice of the operator is a content that specifies an intra-group search or an inter-group search.

[第3実施形態]   [Third Embodiment]

第3実施形態では、操作部の各操作要素のグループを視線の誘導場理論を用いて特定し、支援表示に反映させる例について説明する。図7は、第3実施形態の操作システム40の機能構成を模式的に示した図である。以下、操作システム40を、車両に設けられた操作システムとして説明するが、本発明は車両に設けられた操作システム40に限定されるものではなく、様々な操作システムに適用され得る。図7に示すように、本実施形態に係る操作システム40は、操作支援装置50及び操作装置14を備えている。操作装置14は第1及び第2実施形態と同様の構成であるため説明を省略する。   In the third embodiment, an example will be described in which a group of each operation element of the operation unit is specified using the gaze guidance field theory and reflected on the support display. FIG. 7 is a diagram schematically illustrating a functional configuration of the operation system 40 according to the third embodiment. Hereinafter, although the operation system 40 is demonstrated as an operation system provided in the vehicle, the present invention is not limited to the operation system 40 provided in the vehicle, and can be applied to various operation systems. As shown in FIG. 7, the operation system 40 according to the present embodiment includes an operation support device 50 and an operation device 14. Since the operation device 14 has the same configuration as that of the first and second embodiments, the description thereof is omitted.

操作支援装置50は、撮影部20及び制御部29を備えている。   The operation support device 50 includes a photographing unit 20 and a control unit 29.

制御部29は、視線分析部22、表示制御部24、及び心理的グループ特定部26を備えている。制御部29は、第1実施形態の制御部28と同様、CPU、RAM、ROMを備えたコンピュータにより実現される。視線分析部22及び表示制御部24については第2実施形態とほぼ同様に作用するため説明を省略し、ここでは主として心理的グループ特定部26について説明する。   The control unit 29 includes a line-of-sight analysis unit 22, a display control unit 24, and a psychological group identification unit 26. The control unit 29 is realized by a computer including a CPU, a RAM, and a ROM, similarly to the control unit 28 of the first embodiment. The line-of-sight analysis unit 22 and the display control unit 24 operate in substantially the same manner as in the second embodiment, and thus description thereof will be omitted. Here, the psychological group identification unit 26 will be mainly described.

心理的グループ特定部26は、操作装置14の操作要素の心理的グループの特定を行なう。ここでは、操作者が感じるグループを「心理的グループ」といい、前述した機能的グループと区別して説明する。   The psychological group specifying unit 26 specifies a psychological group of operation elements of the operation device 14. Here, the group felt by the operator is referred to as a “psychological group” and will be described separately from the functional group described above.

心理的グループ特定部26は、周知の「視覚の誘導場」理論を応用して心理的グループを特定する。ここで、視覚の誘導場理論の基本的な概念を簡単に説明する。視覚の誘導場とは、図形等の周りに電場のような場を仮定して、視知覚現象を説明する心理的概念である。人が図形等を見たときには、該図形そのものの線だけでなく、線と線とのスキマや図形の周辺、図形同士の配置等も感じとって認識していると考えられる。図形等の周囲に等高線で示された視覚的影響のポテンシャル場(誘導場)が分布し、図形から離れるほど場の強さが弱まる。   The psychological group specifying unit 26 specifies a psychological group by applying a well-known “visual induction field” theory. Here, the basic concept of visual induction field theory is briefly explained. The visual induction field is a psychological concept that explains the visual perception phenomenon assuming a field such as an electric field around a figure or the like. When a person looks at a figure or the like, it is considered that not only the line of the figure itself but also the gap between the lines, the periphery of the figure, the arrangement of the figures and the like are recognized. The visual influence potential field (guidance field) indicated by contour lines is distributed around the figure, and the strength of the field becomes weaker as the distance from the figure increases.

図8を参照して、より具体的に説明する。例えば、"長石道博(1996),視覚の誘導場モデルを用いたパターン認識時の心理実験結果の検証,「テレビジョン学会論文誌」,50(12),1965-1973"によれば、デジタル画像に含まれるパターンの外郭を構成する画素を正電荷1の点電荷と仮定し、それらがつくるクーロンポテンシャルの集積から、デジタル画像における誘導場の分布を計算することが記載されている。   A more specific description will be given with reference to FIG. For example, according to Michihiro Nagaishi (1996), Verification of Psychological Experiment Results during Pattern Recognition Using a Visual Guidance Field Model, “Journal of the Institute of Television Engineers”, 50 (12), 1965-1973 Assuming that the pixel constituting the outline of the pattern included in is a point charge of positive charge 1, the distribution of the induced field in the digital image is calculated from the accumulation of the Coulomb potential generated by them.

図8(A)に示すように、n個の点列から構成される曲線f(s)によって点Pに視覚の誘導場が形成されるとする。点Pから曲線f(s)上の点iまでの距離をriとおくと、点Pにおける誘導場の強さMpは以下のように定義される。 As shown in FIG. 8A, it is assumed that a visual induction field is formed at a point P by a curve f (s) composed of n point sequences. When the distance from the point P to the point i on the curve f (s) is denoted by r i , the induction field strength M p at the point P is defined as follows.

図8(B)に示すように、曲線が複数ある場合には、点Pにおける誘導場の強さは個々の曲線が点Pにつくる誘導場の和になる。このとき、誘導場は図形の外郭のみ寄与する("横瀬善正(1986),「形の心理学」,名古屋大学出版会"参照)ため、上式は点Pから見える部分のみ和をとるという制約がつく。例えば、図8(B)において、曲線f3(s)と曲線f2(s)の一部は、曲線f1(s)に遮られて点Pから見えないので、和はとらない。 As shown in FIG. 8B, when there are a plurality of curves, the strength of the induction field at the point P is the sum of the induction fields created by the individual curves at the point P. At this time, the guidance field contributes only to the outline of the figure (see “Yokose Yoshimasa (1986),“ Psychology of Shape ”, Nagoya University Press)”, so the above formula is a constraint that only the part visible from the point P is summed Gatsuku. for example, in FIG. 8 (B), the part of the curve f 3 (s) and the curve f 2 (s), because blocked by the curve f 1 (s) not visible from the point P, the sum is taken Absent.

図9に、単純な誘導場計算結果の具体例を示す。図9(A)に示す白い矩形部分をスイッチ36として視覚の誘導場を計算すると図9(B)に示すような計算結果が得られる。図9(B)に示される数字は、誘導場の強さ(高さ)を示す数字であり、誘導場の高さが同じ点の集まりが等高線で示されている。また、スイッチ36に近いほど誘導場の値は高くなっている。   FIG. 9 shows a specific example of a simple induction field calculation result. When the visual induction field is calculated using the white rectangular portion shown in FIG. 9A as the switch 36, a calculation result as shown in FIG. 9B is obtained. The numbers shown in FIG. 9B are numbers indicating the strength (height) of the induction field, and a collection of points having the same induction field height is indicated by contour lines. Further, the closer to the switch 36, the higher the value of the induction field.

「視覚の誘導場」は、スイッチ36などの要素の心理的グループを明らかにするのに適している。本実施形態では、操作装置14の撮影画像に含まれる操作要素の構成画素から、距離と遮蔽とを考慮して誘導場を算出し、心理的グループを特定する。このように、視覚の誘導場という心理的概念を用いて操作者が感じるグループを特定するため、本実施形態では、操作者が感じるグループを前述した機能的グループと区別して「心理的グループ」と呼称している。   The “visual induction field” is suitable for revealing a psychological group of elements such as the switch 36. In the present embodiment, the guidance field is calculated from the constituent pixels of the operation element included in the captured image of the operation device 14 in consideration of the distance and the shielding, and the psychological group is specified. In this way, in order to identify the group that the operator feels using the psychological concept of visual guidance field, in this embodiment, the group that the operator feels is distinguished from the functional group described above as “psychological group”. It is called.

第3実施形態において、視線分析部22は、機能的グループの位置ではなく、心理的グループ特定部26により特定された心理的グループの位置に基づいてグループ内探索かグループ間探索かを判断する。従って、第3実施形態では、グループ内探索を「心理的グループ内探索」と呼称し、グループ間探索を「心理的グループ間探索」と呼称して、各々区別して説明する。   In the third embodiment, the line-of-sight analysis unit 22 determines whether it is an intra-group search or an inter-group search based on the position of the psychological group specified by the psychological group specifying unit 26 instead of the position of the functional group. Therefore, in the third embodiment, the intra-group search is referred to as “psychological intra-group search”, and the inter-group search is referred to as “psychological inter-group search”, and will be described separately.

図10を参照して、第3実施形態に係る操作支援処理の一例について説明する。操作支援装置50が起動すると、この操作支援処理の処理ルーチンが開始されると共に、撮影部20による操作者の撮影も開始される。撮影部20は、操作支援装置50の起動中は、連続的に操作者の撮影を行なう。   An example of the operation support process according to the third embodiment will be described with reference to FIG. When the operation support device 50 is activated, the processing routine of the operation support process is started, and the photographing of the operator by the photographing unit 20 is also started. The photographing unit 20 continuously photographs the operator while the operation support device 50 is activated.

ステップS300において、表示制御部24は、操作支援装置50の起動直後から予め定められた時間が経過するまでは、第1実施形態及び第2実施形態と同様に通常表示が行なわれるように表示部16を制御する。   In step S300, the display control unit 24 displays the display unit so that normal display is performed in the same manner as in the first and second embodiments until a predetermined time elapses immediately after the operation support device 50 is activated. 16 is controlled.

ステップS302において、視線分析部22は、撮影部20により撮影して得られた撮影画像の画像データを取得して、予め定められた記憶手段(例えば上記RAM等)に記憶する。   In step S302, the line-of-sight analysis unit 22 acquires image data of a captured image obtained by capturing by the capturing unit 20, and stores the acquired image data in a predetermined storage unit (for example, the RAM or the like).

ステップS304において、視線分析部22は、操作支援装置50が起動してから開始された撮影時間が所定時間を超えたか否かを判断する。視線分析部22は、ステップS304において、撮影時間が所定時間を超えていないと判断した場合には、ステップS302に戻る。視線分析部22は、ステップS304において、撮影時間が所定時間を超えたと判断した場合には、ステップS306に進む。   In step S304, the line-of-sight analysis unit 22 determines whether or not the imaging time started after the operation support device 50 is activated has exceeded a predetermined time. If the line-of-sight analysis unit 22 determines in step S304 that the shooting time does not exceed the predetermined time, the line-of-sight analysis unit 22 returns to step S302. If the line-of-sight analysis unit 22 determines in step S304 that the imaging time has exceeded the predetermined time, the process proceeds to step S306.

ステップS306において、視線分析部22は、現在時刻から予め定められた時間遡った時刻までの期間(分析期間)に撮影され記憶された画像データに基づいて視線分析を行なう。視線分析部22は、視線分析として、操作者の視線方向の検出、視線滞在率の算出、視線速度の算出、及び操作者の視線軌跡の検出を行なう。   In step S306, the line-of-sight analysis unit 22 performs line-of-sight analysis based on image data captured and stored in a period (analysis period) from the current time to a time that is a predetermined time back. The line-of-sight analysis unit 22 detects the line-of-sight direction of the operator, calculates the line-of-sight stay rate, calculates the line-of-sight velocity, and detects the line-of-sight locus of the operator as line-of-sight analysis.

ステップS308において、視線分析部22は、操作領域内の視線滞在率が所定値を超えるか否かを判断する。視線分析部22は、ステップS308において、操作領域内の視線滞在率が所定値を超えると判断した場合には、ステップS310において、視線速度が所定速度を超えるか否かを判断する。   In step S308, the line-of-sight analysis unit 22 determines whether the line-of-sight stay rate in the operation region exceeds a predetermined value. When the line-of-sight analysis unit 22 determines in step S308 that the line-of-sight stay rate in the operation region exceeds a predetermined value, the line-of-sight analysis unit 22 determines whether or not the line-of-sight speed exceeds a predetermined speed in step S310.

視線分析部22は、ステップS310において、視線速度が所定速度を超えると判断した場合には、ステップS314に進み、操作者が現在使用している操作装置14の情報を取得する。   If the line-of-sight analysis unit 22 determines in step S310 that the line-of-sight speed exceeds the predetermined speed, the line-of-sight analysis unit 22 proceeds to step S314 and acquires information on the operation device 14 currently used by the operator.

ここで、「現在使用している」との表現を用いたのは、以下の理由による。操作装置14に設けられているスイッチ36は、メカ的且つ電気的な構造として設けられている操作要素であって、その内容や配置を操作者が自由に変更することは困難であるが、操作装置14のタッチパネル・ディスプレイ30に表示される操作要素としてのアイコンは、画面を表示するソフトウェアモジュールに応じて変更可能である。従って、例えば、タッチパネル・ディスプレイ30に表示されるアイコンの種類やアイコンの配置を操作者等が自由に変更できるような仕組みが車両に搭載されている場合には、操作支援装置50の起動前或いは起動中に、タッチパネル・ディスプレイ30に表示されるアイコンの内容やレイアウトが変更されることがある。従って、ここでは「現在使用している」との表現を用いている。   Here, the expression “currently used” is used for the following reason. The switch 36 provided in the operation device 14 is an operation element provided as a mechanical and electrical structure, and it is difficult for the operator to freely change the contents and arrangement thereof. The icon as the operation element displayed on the touch panel display 30 of the device 14 can be changed according to the software module for displaying the screen. Therefore, for example, when the vehicle is equipped with a mechanism that allows the operator or the like to freely change the type of icons displayed on the touch panel display 30 and the arrangement of the icons, During startup, the contents and layout of icons displayed on the touch panel display 30 may be changed. Therefore, the expression “currently used” is used here.

なお、現在使用している操作装置14の情報とは、現在使用している操作装置14の構成要素のレイアウトを識別する識別データと、該操作装置14の各操作要素の心理的グループのデータとを対応付けて記憶した情報である。なお、現在使用している操作装置14について、後述する心理的グループ特定処理が未実行である場合には、識別データに対して心理的グループのデータが記憶されていない場合もあり得る。   Note that the information on the currently used operating device 14 includes identification data for identifying the layout of the constituent elements of the currently used operating device 14, and psychological group data of each operating element of the operating device 14. Is stored in association with each other. Note that when the psychological group specifying process described later is not executed for the operating device 14 currently in use, the psychological group data may not be stored for the identification data.

ステップS316において、視線分析部22は、上記取得した操作部の情報に、操作者が現在使用している操作装置14について、該当する心理的グループのデータがあるか否かを判断する。ステップS316において、否定判断された場合には、現在使用している操作装置14の心理的グループの特定が未実行の状態であるため、ステップS318において、心理的グループ特定部26は、心理的グループの特定処理を実行する。   In step S <b> 316, the line-of-sight analysis unit 22 determines whether the acquired information on the operation unit includes data on a corresponding psychological group for the operation device 14 currently used by the operator. If a negative determination is made in step S316, the psychological group identification unit 26 of the psychological group identification unit 26 in step S318 determines that the psychological group identification of the operating device 14 that is currently used has not been executed. The specific process is executed.

図11(A)に、心理的グループの特定処理のフローチャートを示す。   FIG. 11A shows a flowchart of the psychological group specifying process.

ステップS400において、心理的グループ特定部26は、現在の操作装置14の操作要素の配置が示された画像(操作装置14の前方から事前に撮影された撮影画像であってもよいし、CAD等により事前に生成された設計画像であってもよい)を、操作装置14の操作要素の画像領域と、心理的グループを区分けする機能を有する仕切りの画像領域とに分割する。   In step S <b> 400, the psychological group specifying unit 26 may display an image showing the current arrangement of the operation elements of the operation device 14 (a captured image taken in advance from the front of the operation device 14, CAD, or the like). Is divided into an image area of the operation element of the operation device 14 and an image area of a partition having a function of dividing a psychological group.

また、仕切りの画像は、グループ(まとまり)の感覚が得られる操作要素群に対して、例えば、該まとまりを区切るような感覚が得られるもの、すなわち、段差の画像や加飾の画像などが挙げられる。   In addition, the partition image may be, for example, an operation element group that gives a group (group) sense, for example, a feeling that separates the group, that is, a step image or a decorative image. It is done.

ここで、段差について説明する。操作装置14は、立体的な形状を有していることが多く、段差が存在する。例えば、操作装置14に複数のパネルが設けられた場合の各パネルの隣接部分の段差や、パネル39とその下層部品との段差等がある。従って、この段差は心理的グループを区切る仕切りを表わす対象として被験者(この場合は操作者)に認識される(図12も参照)。   Here, the step will be described. The operating device 14 often has a three-dimensional shape, and there are steps. For example, there are steps in adjacent portions of each panel when the operation device 14 is provided with a plurality of panels, steps between the panel 39 and its lower layer components, and the like. Accordingly, this step is recognized by the subject (in this case, the operator) as an object representing a partition that divides the psychological group (see also FIG. 12).

次に、加飾について説明する。スイッチ36は、パネル39の色と異なる色を有していると、スイッチ36とパネル39との間で色差が大きくなるが、この色差が大きい部分(ここでは、加飾といっている)は、心理的グループを区切る仕切りを表わす対象として被験者(この場合は操作者)に認識される(図12も参照)。   Next, decoration will be described. If the switch 36 has a color different from the color of the panel 39, the color difference between the switch 36 and the panel 39 increases. However, the portion where the color difference is large (herein referred to as decoration) The subject (in this case, the operator) is recognized as an object representing a partition that separates psychological groups (see also FIG. 12).

なお、仕切りを示す画像は上記に限定されず、例えば、予め定められた距離だけスイッチ36同士が離れている場合に、該スイッチ36とスイッチ36との間にあるパネルの継ぎ目等も仕切りの効果があるため、これを仕切りの画像として扱ってもよい。また、タッチパネル・ディスプレイ30においては、例えば、ディスプレイ32に表示されている装飾のラインや、背景の色が異なる領域の境界線などが、アイコン同士を区分けする仕切りの画像として抽出できる。   Note that the image showing the partition is not limited to the above. For example, when the switches 36 are separated from each other by a predetermined distance, the joint of the panel between the switch 36 and the switch 36 is also effective for the partition. Therefore, this may be treated as a partition image. In the touch panel display 30, for example, a decoration line displayed on the display 32, a boundary line of a region having a different background color, or the like can be extracted as a partition image that separates icons.

ステップS402において、心理的グループ特定部26は、スイッチ36やアイコン等の操作要素についての視覚の誘導場(以下、操作要素の誘導場と呼称)を計算する。操作要素の誘導場は、操作要素の種類毎に計算してもよい。例えば、スイッチ36の誘導場とアイコンの誘導場とを個別に計算してもよい。   In step S402, the psychological group identification unit 26 calculates a visual guidance field (hereinafter referred to as a manipulation field guidance field) for the operation elements such as the switch 36 and icons. The guidance field for the operating element may be calculated for each type of operating element. For example, the guidance field of the switch 36 and the guidance field of the icon may be calculated separately.

ステップS404において、心理的グループ特定部26は、仕切りについての視覚の誘導場(以下、仕切りの誘導場と呼称)を計算する。仕切りの誘導場も、仕切りの種類毎に計算してもよい。   In step S404, the psychological group identification unit 26 calculates a visual guidance field (hereinafter referred to as a partition guidance field) for the partition. The guidance field for the partition may also be calculated for each partition type.

なお、誘導場の計算は、操作装置14の画像を表わす画像データに基づいて上記例示した文献に記載の方法を用いて行なえばよい。ただし、操作要素の誘導場については、上記方法を用いて正の視覚の誘導場として計算し、仕切りの誘導場については、上記方法を用いて得られた誘導場にマイナスの符号を付して負の視覚の誘導場として計算するものとする。しかしながら、計算された仕切りの誘導場を、後で負の視覚の誘導場として扱うことがわかるように識別できれば、ここでマイナスの符号を付さずともよい。また、ステップS402及びステップS404はどちらを先に行なってもかまわないし、並列に行なうようにしてもよい。   The guidance field may be calculated using the method described in the above-mentioned literature based on the image data representing the image of the controller device 14. However, the guidance field of the operating element is calculated as a positive visual guidance field using the above method, and the guidance field obtained using the above method is assigned a minus sign to the guidance field of the partition. Calculate as a negative visual induction field. However, as long as it can be identified that the calculated guidance field of the partition is treated as a negative visual guidance field later, it is not necessary to add a minus sign here. Either step S402 or step S404 may be performed first, or may be performed in parallel.

図12に、操作装置14の画像の一例を示す。図12に示した例では、操作装置14のパネル39対して、複数のスイッチ36が配列されている。ここでは、タッチパネル・ディスプレイ30を省略した。上記ステップS402において計算される操作要素の誘導場は、スイッチ36が配置された領域に近くなるに従って場の強さが強まる誘導場となる。図11(B)は、計算された操作要素の誘導場を表わした立体モデルの、図12で示した視点方向から見た断面線部分における断面図である。また、図11(C)は、計算された仕切りの誘導場を表わした立体モデルの、図12で示した視点方向から見た断面線部分における断面図である。ここでは、加飾の誘導場と段差の誘導場とを分けて示した。仕切りの誘導場は、凸の方向が操作要素の誘導場とは逆になっている。   FIG. 12 shows an example of an image of the operation device 14. In the example shown in FIG. 12, a plurality of switches 36 are arranged on the panel 39 of the operating device 14. Here, the touch panel display 30 is omitted. The guidance field of the operation element calculated in step S402 is a guidance field whose field strength increases as it approaches the area where the switch 36 is arranged. FIG. 11B is a cross-sectional view of the three-dimensional model representing the calculated guidance field of the operation element at the cross-sectional line portion viewed from the viewpoint direction shown in FIG. FIG. 11C is a cross-sectional view of the solid model representing the calculated induction field of the partition, taken along the cross-sectional line portion viewed from the viewpoint direction shown in FIG. Here, the decoration induction field and the step induction field are shown separately. The partition induction field has a convex direction opposite to that of the operation element.

ところで、ステップS400〜S404で用いられる操作装置14の画像を表わす画像データは、タッチパネル・ディスプレイ30の画像を表わす画像データを除き、車両に予め搭載された記憶部に記憶しておくことができる。タッチパネル・ディスプレイ30に表示画像については、現在タッチパネル・ディスプレイ30の表示に使用されている画像データを用い、操作装置14のスイッチ36の画像を表わす固定的な画像データと合成し、該合成後の画像データを操作装置14の画像を表わす画像データとして用いて、ステップS400〜S404を実行してもよいし、合成せずに個々にステップS400〜S404を実行してもよい。   By the way, the image data representing the image of the operating device 14 used in steps S400 to S404 can be stored in a storage unit mounted in advance on the vehicle, except for the image data representing the image on the touch panel display 30. As for the display image on the touch panel display 30, the image data currently used for display on the touch panel display 30 is used and synthesized with the fixed image data representing the image of the switch 36 of the operation device 14. Steps S400 to S404 may be executed using the image data as image data representing the image of the controller device 14, or steps S400 to S404 may be executed individually without being combined.

心理的グループ特定部26は、各誘導場を計算した後は、ステップS406において、各誘導場を合算して、総計(総計の誘導場)を算出する。図13は、誘導場の合算処理を模式的に示す図である。ここでは、図13に示すように、操作要素の誘導場の値に、予め定められた係数αを乗算した加飾の誘導場、及び予め定められた係数βを乗算した段差の誘導場の値の各々を加算して、総計を求める。なお、この加算では、互いに対応する位置の値を加算するものとする。負の誘導場の値に乗ずる係数は、仕切りとしての機能が高いものほど大きな数値となるように予め定められている。   After calculating each guidance field, the psychological group identification unit 26 adds up each guidance field to calculate a total (total guidance field) in step S406. FIG. 13 is a diagram schematically showing the induction field summing process. Here, as shown in FIG. 13, a decoration induction field obtained by multiplying the value of the induction field of the operating element by a predetermined coefficient α, and a value of the induction field of the step obtained by multiplying the predetermined coefficient β. Is added to obtain the total. In this addition, values at positions corresponding to each other are added. The coefficient by which the value of the negative induction field is multiplied is determined in advance so that the higher the function as the partition, the larger the value.

また、ステップS404において仕切りの誘導場の値が負の値となるように計算しなかった場合(すなわち、マイナスの符号を付さなかった場合)であっても、ステップS406において仕切りの誘導場を負の視覚の誘導場として取り扱う。すなわち、ステップS406において、操作要素の誘導場に対して仕切りの誘導場を加算処理するのではなく減算処理すればよい。或いは、係数α及びβをマイナスの値にすればよい。更にまた、ここでは、ステップS404で計算した仕切りの誘導場の値に、何らかの係数を乗算してから合算する例について説明したが、係数を乗算しなくてもよい。   Even if the partition induction field value is not calculated to be a negative value in step S404 (that is, when a minus sign is not added), the partition induction field is determined in step S406. Treat as a negative visual induction field. That is, in step S406, the partition induction field is not added to the operation element induction field, but is subtracted. Alternatively, the coefficients α and β may be negative values. Furthermore, here, an example has been described in which the value of the partition induction field calculated in step S404 is multiplied by some coefficient, and then summed, but the coefficient need not be multiplied.

更にまた、合算する際に、操作要素の誘導場にも予め定められた係数を乗算してもよい。この場合、操作要素の種類毎に係数を変更してもよい。   Furthermore, when adding, the induction field of the operation element may be multiplied by a predetermined coefficient. In this case, the coefficient may be changed for each type of operation element.

このように、正の視覚の誘導場と負の視覚の誘導場とを合算することで、図11(D)、及び図13に示すように、「総計の誘導場」が算出される。   In this way, by adding the positive visual guidance field and the negative visual guidance field, as shown in FIG. 11D and FIG. 13, the “total guidance field” is calculated.

次に、ステップS407において、閾値(初期値)を設定する。ステップS408において、心理的グループ特定部26は、閾値に対応する心理的グループ数をカウントする。図14に、視覚の誘導場の閾値と心理的グループ数との関係の一例を示す。後述する処理においては、総計の誘導場における最小値から最大値までの範囲(図14に示す例では、-0.2〜0.3)から閾値を定め、該閾値に相当する等高線をグループの境界線として用いて複数の操作要素の各々が属する心理的グループを特定する。従って、ここでは、閾値をどの値に設定するかを決定するために、予め定められた刻み間隔で閾値の値を変更して、境界線により区切られた領域の各々(誘導場の値が閾値を超える領域の各々)の数を該閾値により抽出される心理的グループの数としてカウントするようにしている。図14には、閾値を0.02間隔で変更してカウントした結果が示されている。   Next, in step S407, a threshold value (initial value) is set. In step S408, the psychological group identification unit 26 counts the number of psychological groups corresponding to the threshold value. FIG. 14 shows an example of the relationship between the visual induction field threshold and the number of psychological groups. In the processing to be described later, a threshold value is determined from the range from the minimum value to the maximum value in the total induction field (-0.2 to 0.3 in the example shown in FIG. 14), and the contour line corresponding to the threshold value is used as the group boundary line. A psychological group to which each of the plurality of operation elements belongs. Therefore, here, in order to determine which value to set the threshold value, the threshold value is changed at a predetermined step interval, and each of the regions separated by the boundary line (the value of the induction field is the threshold value). The number of each of the regions exceeding (1) is counted as the number of psychological groups extracted by the threshold value. FIG. 14 shows the result of counting by changing the threshold at intervals of 0.02.

ステップS410において、心理的グループ特定部26は、カウントした心理的グループ数は所定範囲内であるか否かを判断し、該カウントした心理的グループ数が所定範囲内であると判断した場合には、ステップ411に進み、閾値を1単位増加させて、ステップ408に戻り、該増加させた閾値に対応するグループ数を上記と同様にカウントする。閾値を大きくすると、閾値が小さい場合よりもカウントされるグループ数が多くなる(図14も参照)。心理的グループ特定部26は、ステップS410において、心理的グループ数が所定範囲外であると判断した場合には、ステップS412において、上記カウントされた閾値毎のグループ数の各々を予め定められた記憶手段(例えば、前述したRAM等)に記憶する。なお、ここで、心理的グループ数のカウント値が所定範囲外となった閾値のグループ数は記憶しなくてもよい。   In step S410, the psychological group identification unit 26 determines whether or not the counted number of psychological groups is within a predetermined range, and when it is determined that the counted number of psychological groups is within the predetermined range. In step 411, the threshold value is increased by one unit, and the process returns to step 408, and the number of groups corresponding to the increased threshold value is counted in the same manner as described above. When the threshold value is increased, the number of groups counted is larger than when the threshold value is small (see also FIG. 14). When the psychological group specifying unit 26 determines in step S410 that the number of psychological groups is outside the predetermined range, in step S412, each of the counted number of groups for each threshold is stored in advance. It memorize | stores in a means (for example, RAM mentioned above etc.). Here, the threshold number of groups whose psychological group count value is outside the predetermined range may not be stored.

なお、所定範囲は、経験的に予測される心理的グループの数の範囲であり、設計者或いは操作者によって設定することができる。例えば、所定範囲が2〜10と設定された場合、11〜操作要素総数までのカウント処理が省略できる効果がある。なお、ここで、グループ数の下限(例えば2)を設けたのは、例えば、グループ数が1個では、グループ分けがなされていない状態に等しいためである。また、グループ数の上限(例えば10)を設けたのは、グループの数があまりに多いと、操作要素単位でカウントされている可能性が高いためである。   The predetermined range is a range of the number of psychological groups predicted empirically, and can be set by a designer or an operator. For example, when the predetermined range is set to 2 to 10, there is an effect that the counting process from 11 to the total number of operation elements can be omitted. Here, the reason why the lower limit (for example, 2) of the number of groups is provided is that, for example, when the number of groups is one, it is equivalent to a state where no grouping is performed. The reason why the upper limit (for example, 10) of the number of groups is provided is that there is a high possibility that the number of groups is counted in units of operation elements if the number of groups is too large.

ステップS414において、心理的グループ特定部26は、上記記憶した閾値毎のグループ数に基づいて、グループ数が変動しない閾値幅のうち、最長閾値幅を特定する。ここでは、閾値を多少変化させてもグループ数が変化しない部分は、操作者が心理的にグループ(まとまり)を最も強く感じることができる部分であるとして、最長閾値幅を特定するようにしている。   In step S414, the psychological group specifying unit 26 specifies the longest threshold width among the threshold widths in which the number of groups does not vary based on the stored number of groups for each threshold. Here, the portion where the number of groups does not change even if the threshold value is slightly changed is the portion where the operator can feel the group (group) most strongly psychologically, and the longest threshold width is specified. .

ステップS416において、心理的グループ特定部26は、最長閾値幅の中央値を閾値とした場合の等高線(境界線)を、操作者の感じる心理的グループの境界線と特定する。   In step S416, the psychological group specifying unit 26 specifies the contour line (boundary line) when the median value of the longest threshold width is set as the threshold value as the psychological group boundary line felt by the operator.

図14に、妥当なグループ数を2個以上と限定した上で、最も閾値幅の長い部分に対応するグループ数5の閾値を採用し、視覚化した例を示す。なおグラフ左上の領域に図示した操作装置14の模式図においては、グループの境界線を点線で示した。この点線で示す境界線で囲まれた領域に配置された各操作要素が、同じ心理的グループに属する操作要素として特定される。   FIG. 14 shows an example in which a reasonable number of groups is limited to two or more and a threshold of 5 groups corresponding to the longest threshold width is adopted and visualized. In the schematic diagram of the operating device 14 illustrated in the upper left area of the graph, the boundary lines of the groups are indicated by dotted lines. Each operation element arranged in the area surrounded by the dotted line is specified as an operation element belonging to the same psychological group.

得られた誘導場の操作要素を内包する等高線の数は、ある閾値におけるグループ数と一致する。従って、この数が一定である区間が最も長い誘導場帯域の中央値を閾値とすることで、一般的に被験者の感じやすい心理的グループの境界線を描くことができる。   The number of contour lines that contain the obtained operation element of the induction field coincides with the number of groups at a certain threshold. Therefore, by using the median value of the induction field band with the longest interval in which this number is constant as a threshold value, it is possible to draw a boundary line of a psychological group that is generally easy for the subject to feel.

図11を用いて説明した心理的グループ特定処理の後、心理的グループ特定部26は、図10のステップS320において、特定した心理的グループのデータを、現在の操作装置14の構成要素のレイアウトを識別する識別データに対応付けて予め定められた記憶手段に記憶する。   After the psychological group specifying process described with reference to FIG. 11, the psychological group specifying unit 26 uses the data of the specified psychological group in step S320 of FIG. It is stored in a predetermined storage means in association with identification data to be identified.

ステップS320の処理後、或いはステップS316において肯定判断された場合は、ステップS322において、視線分析部22は、上記記憶されている心理的グループのデータを呼び出す。これにより、現在使用中の操作装置14について、心理的グループの境界線が把握される。   After the process of step S320 or when an affirmative determination is made in step S316, the line-of-sight analysis unit 22 calls the stored psychological group data in step S322. Thereby, the boundary line of the psychological group is grasped about the operating device 14 currently in use.

ステップS324において、視線分析部22は、上記検出した視線軌跡に基づいて、操作者が心理的グループ間探索を行なっているか、心理的グループ内探索を行なっているか否かを判断する。具体的には、視線分析部22は、操作者の視線が複数の心理的グループ間を移動している(換言すれば、ある心理的グループの一部を見ては別の心理的グループを見るという行動(心理的グループ間探索)を行なっている)か、操作者の視線が複数の心理的グループのうち1つの心理的グループ内を移動している(換言すれば、ある心理的グループ内の操作要素を、順を追って探索するという行動(心理的グループ内探索)を行なっている)か、を判断する。例えば、視線分析部22は、視線軌跡が複数の心理的グループを区切る境界線を交差していれば、心理的グループ間探索を行なっていると判断し、視線軌跡が境界線を交差せずに、ほとんど1つの心理的グループ内を視線が移動している場合には、心理的グループ内探索を行なっていると判断してもよい。   In step S324, the line-of-sight analysis unit 22 determines whether the operator is performing a psychological group search or a psychological group search based on the detected line-of-sight locus. Specifically, the line-of-sight analysis unit 22 moves the line of sight of the operator between a plurality of psychological groups (in other words, looking at a part of a certain psychological group and looking at another psychological group) Or the operator's line of sight is moving within one psychological group (in other words, within a psychological group) It is determined whether or not the operation element is searched for in order (being a psychological group search). For example, the line-of-sight analysis unit 22 determines that a search between psychological groups is being performed if the line-of-sight trajectory intersects a boundary line that divides a plurality of psychological groups, and the line-of-sight trajectory does not cross the boundary line. If the line of sight is moving in almost one psychological group, it may be determined that the psychological group search is being performed.

ステップS324において、視線分析部22が、操作者が心理的グループ内探索をしていると判断した場合には、ステップS326において、表示制御部24は、操作者の視線が移動している心理的グループに対応する機能的グループに属するスイッチ36等の操作要素の各々が強調表示されるように表示部16を制御する。心理的グループに対応する機能的グループとは、例えば、心理的グループに含まれる操作要素の一部或いは全てを有する機能的グループ、或いは心理的グループ近傍に位置する機能的グループをいう。例えば、バックライトとしての発光部38を構成する発光素子を機能的グループ毎に分け、操作者の視線が移動している心理的グループに対応する機能的グループの発光素子のみを発光させるようにしてもよい。   In step S324, when the line-of-sight analysis unit 22 determines that the operator is searching in the psychological group, in step S326, the display control unit 24 determines that the operator's line of sight is moving. The display unit 16 is controlled so that each operation element such as the switch 36 belonging to the functional group corresponding to the group is highlighted. The functional group corresponding to the psychological group refers to, for example, a functional group having a part or all of the operation elements included in the psychological group, or a functional group located near the psychological group. For example, the light emitting elements constituting the light emitting unit 38 as the backlight are divided into functional groups, and only the light emitting elements in the functional group corresponding to the psychological group in which the operator's line of sight is moving are caused to emit light. Also good.

また、ステップS324において、視線分析部22が、操作者が心理的グループ間探索をしていると判断した場合には、ステップS326において、表示制御部24は、機能的グループの区分が強調表示されるように表示部16を制御する。ここで、心理的グループは、支援表示の方法を判断するために特定して用いるグループであり、実際の支援表示は、機能的グループの区分けに従って行なうようにしている。   In step S324, when the line-of-sight analysis unit 22 determines that the operator is searching between psychological groups, in step S326, the display control unit 24 highlights the functional group classification. The display unit 16 is controlled in such a manner. Here, the psychological group is a group that is specifically used to determine the support display method, and the actual support display is performed according to the functional group classification.

ところで、スイッチ36類については、タッチパネル・ディスプレイ30のアイコンと異なり、ほとんど変更がないため、心理的グループの区分けは変化しない可能性が高い。従って、例えば、スイッチ36については、心理的グループの特定処理を行なわず、タッチパネル・ディスプレイ30のアイコンについては、上記と同様に動的に心理的グループの特定処理を行なって心理的グループの区分けするようにしてもよい。   By the way, unlike the icons of the touch panel / display 30, the switches 36 have almost no change, and therefore the psychological group classification is likely not to change. Therefore, for example, the switch 36 is not subjected to psychological group identification processing, and the icons of the touch panel display 30 are subjected to dynamic psychological group identification processing in the same manner as described above to classify psychological groups. You may do it.

一方、視線分析部22は、ステップS308において、操作領域内の視線滞在率が所定値を超えないと判断した場合、及びステップS310において、視線速度が所定速度を超えないと判断した場合には、視線分析結果が操作者は操作装置14の操作に困難を感じている状態にはないことを示しているため、ステップS312において、表示制御部24は、通常表示が行なわれるように表示部16を制御する。なお、既に通常表示が行なわれている場合には、表示制御部24は、通常表示が継続されるように表示部16を制御し、なんらかの強調表示が行なわれている場合には、表示制御部24は、通常表示から通常表示に切替えるよう表示部16を制御する。   On the other hand, when the line-of-sight analysis unit 22 determines in step S308 that the line-of-sight stay rate in the operation region does not exceed the predetermined value, and in step S310, it determines that the line-of-sight speed does not exceed the predetermined speed, Since the line-of-sight analysis result indicates that the operator is not in a difficult state to operate the operation device 14, in step S312, the display control unit 24 displays the display unit 16 so that normal display is performed. Control. When the normal display is already performed, the display control unit 24 controls the display unit 16 so that the normal display is continued, and when any highlighted display is performed, the display control unit 24 24 controls the display unit 16 to switch from normal display to normal display.

本実施形態によれば、第2実施形態で説明した(例えば、図5に示す)固定的な境界線に応じて支援表示する場合に比べて、操作者が感じるグループに沿った支援表示が可能になる。また、操作者が操作装置14を操作しようとする段階でグループ分けを計算することも可能であるため、構成要素の種類や配置がタッチパネル・ディスプレイ30を用いたGUIのように任意に変更される場合でも適用可能となる。   According to the present embodiment, it is possible to perform support display along the group felt by the operator as compared to the case where support display is performed according to the fixed boundary line described in the second embodiment (for example, shown in FIG. 5). become. In addition, since the operator can calculate the grouping at the stage of operating the operation device 14, the type and arrangement of the constituent elements are arbitrarily changed as in the GUI using the touch panel display 30. Even if applicable.

なお、本実施形態においては、操作支援処理ルーチンの実行中に、心理的グループ特定処理を行なう例について説明したが、操作要素の種類や配置が動的に変更されない場合には、事前に(例えば操作支援処理ルーチンの実行前、或いは操作装置14の製造段階で)心理的グループ特定処理を行なって、グループの区分け結果を予め定められた記憶手段に記憶しておき、操作支援処理ルーチンにおいて該記憶した区分け結果を呼び出して用いるようにしてもよい。   In the present embodiment, the example of performing the psychological group specifying process during the execution of the operation support process routine has been described. However, when the type and arrangement of the operation elements are not dynamically changed, Psychological group identification processing is performed (before execution of the operation support processing routine or at the manufacturing stage of the operation device 14), and the group division result is stored in a predetermined storage means, and the storage result is stored in the operation support processing routine. You may make it call and use the classified result.

また、第3実施形態においても、第1実施形態及び第2実施形態で説明したように、操作者の視線に代えて(或いは視線と共に)、例えば操作者の挙動(指先の動き等)を検出して分析し、操作者が支援表示を必要としているか否かの判断、及び操作者が心理的グループ内探索を行なっているか心理的グループ間探索を行なっているかの判断を行なうようにしてもよい。また、操作者の発話に基づいて、これら判断を行なうようにしてもよい。   Also in the third embodiment, as described in the first and second embodiments, instead of the operator's line of sight (or along with the line of sight), for example, the behavior of the operator (movement of the fingertip, etc.) is detected. Analysis to determine whether the operator needs a support display and whether the operator is performing a psychological group search or a psychological group search. . Further, these determinations may be made based on the operator's utterance.

10 操作システム
12 操作支援装置
14 操作装置
16 表示部
18 操作受付部
20 撮影部
22 視線分析部
24 表示制御部
26 心理的グループ特定部
28、29 制御部
30 タッチパネル・ディスプレイ
32 ディスプレイ
34 タッチパネルセンサ
36 スイッチ
38、38a 発光部
39 パネル
40 操作システム
50 操作支援装置
DESCRIPTION OF SYMBOLS 10 Operation system 12 Operation support apparatus 14 Operation apparatus 16 Display part 18 Operation reception part 20 Imaging | photography part 22 Gaze analysis part 24 Display control part 26 Psychological group identification part 28, 29 Control part 30 Touch panel display 32 Display 34 Touch panel sensor 36 Switch 38, 38a Light emitting unit 39 Panel 40 Operation system 50 Operation support device

Claims (8)

操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者の視線、挙動、及び発話の少なくとも1つに基づいて、前記操作者の前記操作受付手段に対する操作を支援することが必要か否かを判断する判断手段と、
前記判断手段により前記支援が必要と判断された場合に、前記操作者の前記操作受付手段に対する操作を支援するための支援表示が行なわれるように前記表示手段を制御する表示制御手段と、
を備えた操作支援装置。
Based on at least one of an operator's line of sight, behavior, and utterance of an operating device having an operation receiving unit that receives an operation and a display unit provided for the operation receiving unit, the operator's operation receiving unit A determination means for determining whether it is necessary to support the operation;
Display control means for controlling the display means so that support display for assisting the operation of the operator with respect to the operation accepting means is performed when the determination means determines that the support is necessary;
An operation support apparatus comprising:
操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者を撮影する撮影手段と、
前記撮影手段により撮影された撮影画像に基づいて、前記操作者の視線の分析、又は前記操作者の指先の指示方向及び動きの分析を行なう分析手段と、
を更に備え、
前記判断手段は、前記操作者の視線又は前記操作者の指先が前記操作装置の方向を向いている時間又は該時間の単位時間あたりの割合が所定値を超えており、且つ前記操作者の単位時間あたりの視線又は指先の移動距離を示す移動速度が所定速度を超えていることが前記分析手段により分析された場合に、前記支援が必要であると判断する
請求項1に記載の操作支援装置。
An imaging unit for imaging an operator of an operating device having an operation receiving unit for receiving an operation and a display unit provided for the operation receiving unit;
Analysis means for analyzing the line of sight of the operator or analyzing the pointing direction and movement of the fingertip of the operator, based on the photographed image photographed by the photographing means;
Further comprising
The determination means includes a time when the operator's line of sight or the fingertip of the operator is facing the direction of the operating device, or a ratio per unit time of the time exceeds a predetermined value, and the unit of the operator The operation support apparatus according to claim 1, wherein the support is determined to be necessary when the analysis unit analyzes that a moving speed indicating a line of sight per hour or a moving distance of a fingertip exceeds a predetermined speed. .
前記操作受付手段には異なる機能を実行するための複数の操作要素が配置され、
前記表示制御手段は、前記複数の操作要素を複数のグループに区分けしたときに、前記操作者の視線又は指先が複数のグループ間を移動していることが前記分析手段により分析された場合には、前記支援表示として複数のグループの区分けが強調表示されるように前記表示手段を制御し、前記操作者の視線又は指先が前記複数のグループのうち1つのグループ内を移動していることが前記分析手段により分析された場合には、前記支援表示として該視線が向けられているグループに属する操作要素の各々が強調表示されるように前記表示手段を制御する
請求項2に記載の操作支援装置。
A plurality of operation elements for executing different functions are arranged in the operation receiving means,
In the case where the display control means analyzes the fact that the operator's line of sight or fingertip is moving between a plurality of groups when the plurality of operation elements are divided into a plurality of groups. The display means is controlled so that the division of a plurality of groups is highlighted as the support display, and the operator's line of sight or fingertip is moving within one of the plurality of groups. The operation support apparatus according to claim 2, wherein, when analyzed by an analysis unit, the display unit is controlled so that each of the operation elements belonging to the group to which the line of sight is directed is highlighted as the support display. .
前記操作要素から算出された正の視覚の誘導場と、前記操作要素のまとまりを区切る機能を有する仕切り部分から算出された負の視覚の誘導場とを合算して得られた視覚の誘導場の分布において、所定の閾値に相当する視覚の誘導場の値を有する点群を、前記複数のグループのうち前記分析手段に用いるグループの境界線として用いた
請求項3に記載の操作支援装置。
Of the visual guidance field obtained by adding the positive visual guidance field calculated from the operation element and the negative visual guidance field calculated from the partition part having a function of dividing the group of the manipulation elements. The operation support apparatus according to claim 3, wherein a point cloud having a visual induction field value corresponding to a predetermined threshold in the distribution is used as a boundary line of a group used for the analysis unit among the plurality of groups.
操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置と、
請求項1〜請求項4のいずれか1項記載の操作支援装置と、
を備えた操作システム。
An operation device having an operation receiving means for receiving an operation and a display means provided for the operation receiving means;
The operation support apparatus according to any one of claims 1 to 4,
Operation system equipped with.
操作を受け付ける操作受付手段及び前記操作受付手段に対して設けられた表示手段を有する操作装置の操作者の視線、挙動、及び発話の少なくとも1つに基づいて、前記操作者の前記操作受付手段に対する操作を支援することが必要か否かを判断する判断ステップと、
前記判断ステップにおいて前記支援が必要と判断された場合に、前記操作者の前記操作受付手段に対する操作を支援するための支援表示が行なわれるように前記表示手段を制御する表示制御ステップと、
を備えた操作支援方法。
Based on at least one of an operator's line of sight, behavior, and utterance of an operating device having an operation receiving unit that receives an operation and a display unit provided for the operation receiving unit, the operator's operation receiving unit A determination step for determining whether it is necessary to support the operation;
A display control step for controlling the display means so that support display for supporting the operation of the operator with respect to the operation accepting means is performed when it is determined that the support is necessary in the determining step;
Operation support method with
コンピュータを、
請求項1〜請求項4のいずれか1項記載の操作支援装置の分析手段及び表示制御手段として機能させるためのプログラム。
Computer
The program for functioning as an analysis means and a display control means of the operation assistance apparatus of any one of Claims 1-4.
コンピュータを、
請求項5に記載の操作システムにおける操作支援装置の分析手段及び表示制御手段として機能させるためのプログラム。
Computer
The program for functioning as an analysis means and a display control means of the operation assistance apparatus in the operation system of Claim 5.
JP2012093248A 2012-04-16 2012-04-16 Operation support apparatus, operation system, operation support method, and program Expired - Fee Related JP5813562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012093248A JP5813562B2 (en) 2012-04-16 2012-04-16 Operation support apparatus, operation system, operation support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012093248A JP5813562B2 (en) 2012-04-16 2012-04-16 Operation support apparatus, operation system, operation support method, and program

Publications (2)

Publication Number Publication Date
JP2013222299A true JP2013222299A (en) 2013-10-28
JP5813562B2 JP5813562B2 (en) 2015-11-17

Family

ID=49593216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012093248A Expired - Fee Related JP5813562B2 (en) 2012-04-16 2012-04-16 Operation support apparatus, operation system, operation support method, and program

Country Status (1)

Country Link
JP (1) JP5813562B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015168268A (en) * 2014-03-04 2015-09-28 株式会社デンソー Vehicular operation device
JP2015184698A (en) * 2014-03-20 2015-10-22 京セラドキュメントソリューションズ株式会社 Electronic instrument and operation support program
JP2016126791A (en) * 2014-12-30 2016-07-11 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method of tracking with sensory feedback
JP2018055320A (en) * 2016-09-28 2018-04-05 沖電気工業株式会社 Information processing apparatus and information processing method
JP2019185525A (en) * 2018-04-13 2019-10-24 京セラドキュメントソリューションズ株式会社 Display device and image forming apparatus
JP2020064492A (en) * 2018-10-18 2020-04-23 日産自動車株式会社 Operation support method and operation support device
WO2022097362A1 (en) * 2020-11-09 2022-05-12 アルプスアルパイン株式会社 Input device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (en) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd Unmanned terminal equipment
JPH0916369A (en) * 1995-06-29 1997-01-17 Internatl Business Mach Corp <Ibm> Display method of window
JP2000148323A (en) * 1998-11-05 2000-05-26 Fujitsu Ten Ltd Symbol selecting and inputting device
JP2003030673A (en) * 2001-07-13 2003-01-31 Seiko Epson Corp Image layout evaluation method, image layout evaluation system and image layout evaluation processing program
JP2006282116A (en) * 2005-04-04 2006-10-19 Denso Corp User reception system for automobile
JP2008535726A (en) * 2005-04-08 2008-09-04 松下電器産業株式会社 Human-machine interface system for vehicle application
JP2008257363A (en) * 2007-04-02 2008-10-23 Toyota Motor Corp Operation support device
US20090003622A1 (en) * 2007-05-23 2009-01-01 Burnett Gregory C Advanced Speech Encoding Dual Microphone Configuration (DMC)

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (en) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd Unmanned terminal equipment
JPH0916369A (en) * 1995-06-29 1997-01-17 Internatl Business Mach Corp <Ibm> Display method of window
JP2000148323A (en) * 1998-11-05 2000-05-26 Fujitsu Ten Ltd Symbol selecting and inputting device
JP2003030673A (en) * 2001-07-13 2003-01-31 Seiko Epson Corp Image layout evaluation method, image layout evaluation system and image layout evaluation processing program
JP2006282116A (en) * 2005-04-04 2006-10-19 Denso Corp User reception system for automobile
JP2008535726A (en) * 2005-04-08 2008-09-04 松下電器産業株式会社 Human-machine interface system for vehicle application
JP2008257363A (en) * 2007-04-02 2008-10-23 Toyota Motor Corp Operation support device
US20090003622A1 (en) * 2007-05-23 2009-01-01 Burnett Gregory C Advanced Speech Encoding Dual Microphone Configuration (DMC)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015168268A (en) * 2014-03-04 2015-09-28 株式会社デンソー Vehicular operation device
JP2015184698A (en) * 2014-03-20 2015-10-22 京セラドキュメントソリューションズ株式会社 Electronic instrument and operation support program
JP2016126791A (en) * 2014-12-30 2016-07-11 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method of tracking with sensory feedback
JP2018055320A (en) * 2016-09-28 2018-04-05 沖電気工業株式会社 Information processing apparatus and information processing method
WO2018061299A1 (en) * 2016-09-28 2018-04-05 沖電気工業株式会社 Information processing device and information processing method
JP2019185525A (en) * 2018-04-13 2019-10-24 京セラドキュメントソリューションズ株式会社 Display device and image forming apparatus
JP7070003B2 (en) 2018-04-13 2022-05-18 京セラドキュメントソリューションズ株式会社 Display device and image forming device
JP2020064492A (en) * 2018-10-18 2020-04-23 日産自動車株式会社 Operation support method and operation support device
JP7107157B2 (en) 2018-10-18 2022-07-27 日産自動車株式会社 Operation support method and operation support device
WO2022097362A1 (en) * 2020-11-09 2022-05-12 アルプスアルパイン株式会社 Input device
JP7426504B2 (en) 2020-11-09 2024-02-01 アルプスアルパイン株式会社 input device

Also Published As

Publication number Publication date
JP5813562B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5813562B2 (en) Operation support apparatus, operation system, operation support method, and program
US9858702B2 (en) Device and method for signalling a successful gesture input
EP3072444A1 (en) Display apparatus, vehicle and display method
US9758098B2 (en) Vehicle periphery monitoring device
JP6671288B2 (en) Gesture device, operation method thereof, and vehicle equipped with the same
US10821831B2 (en) Method for interacting with image contents displayed on a display device in a transportation vehicle
JP2016004541A (en) Vehicular operation input apparatus
JP6331567B2 (en) Display input device for vehicle
US20200363903A1 (en) Engagement analytic system and display system responsive to interaction and/or position of users
JP2013125540A (en) Method and apparatus for executing menu of vehicle
US9141185B2 (en) Input device
JP6589796B2 (en) Gesture detection device
JP4789885B2 (en) Interface device, interface method, and interface program
JP5810874B2 (en) Display control system
US20190250776A1 (en) Vehicular display apparatus
WO2014103217A1 (en) Operation device and operation detection method
JP2018055614A (en) Gesture operation system, and gesture operation method and program
KR20170079045A (en) Method and apparatus for providing user interface for vehicle
CN105759955B (en) Input device
JPWO2013175603A1 (en) Operation input device, operation input method, and operation input program
US20230143429A1 (en) Display controlling device and display controlling method
JP5587068B2 (en) Driving support apparatus and method
CN110850975B (en) Electronic system with palm recognition, vehicle and operation method thereof
JP6975595B2 (en) Information terminal and information terminal control program
JP2020187514A (en) Digital signage system and video content display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150916

R150 Certificate of patent or registration of utility model

Ref document number: 5813562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees