[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3918211B2 - Manual operation correction device and camera - Google Patents

Manual operation correction device and camera Download PDF

Info

Publication number
JP3918211B2
JP3918211B2 JP24811196A JP24811196A JP3918211B2 JP 3918211 B2 JP3918211 B2 JP 3918211B2 JP 24811196 A JP24811196 A JP 24811196A JP 24811196 A JP24811196 A JP 24811196A JP 3918211 B2 JP3918211 B2 JP 3918211B2
Authority
JP
Japan
Prior art keywords
manual operation
camera
user
setting
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24811196A
Other languages
Japanese (ja)
Other versions
JPH1097380A (en
Inventor
哲朗 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP24811196A priority Critical patent/JP3918211B2/en
Priority to US08/777,324 priority patent/US5832323A/en
Publication of JPH1097380A publication Critical patent/JPH1097380A/en
Application granted granted Critical
Publication of JP3918211B2 publication Critical patent/JP3918211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えばトラックボールやタッチパネル等の操作部材の操作を補正する手動操作補正装置及びカメラに関する。
【0002】
【従来の技術】
カメラにおいては、撮影者自身が測光モード、露出モード、測距モード等の作動内容を設定できる機能を備えたものが増加している。その操作形態は、それぞれ専用の選択ダイアルにて設定するアナログ的方法、モード選択ボタンとアップダウンボタンの併用にて設定するデジタル的方法の何れかに大別できる。
【0003】
何れの方法においても、被写体の輝度、位置などの急激な変化に合わせて的確な露光が得られなければならないため、それらの操作部材は、迅速に変更調整操作ができること、更に様々な手の大きさを有するあらゆる撮影者に対して使用できることが必要である。
一方、パソコンでは、ポインティングデバイスとして、下面にボールを設けたマウスと称される装置を机上で滑らせ、ボールの回転方向で選択指示をするマウス方式、棒を任意の方向に指で倒して方向指示をするスティック方式、専用のパネル表面を指先で触れながら移動させることでその指示方向を検出するタッチパネル方式等のものが採用されている。
【0004】
【発明が解決しようとする課題】
ところで、本発明者は、トラックボールが本来有する平面内の任意方向の位置を選択する機能に着目してかかるトラックボールで被写体の測距位置を選択指示する方法を開発し先に出願した(特開平6−148714号公報)。
【0005】
このものは、トラックボールをカメラの背面に設置して測距位置を指定する方式のものであるが、以下、このものについて図11〜図14を参照して上述した「迅速に変更調整操作のできること、更に様々な手の大きさを有するあらゆる撮影者に対して使用できること」の観点からその操作性を考察する。
図11と図13は、本発明者の先の出願に係るカメラの背面図である。図12と図14は、表示器に示される複数の測距エリアを示す図である。
【0006】
図11において、カメラ1の背面にトラックボール10を設けてあるが、右手でカメラ1を通常位置の姿勢に構え、右手親指15の先端でトラックボール10を上下方向11及び左右方向12へ、更にそれらの中間方向へ回転させることができる。このとき、右手の人差し指はシャッタボタン3を押せる位置にある。
図12において、表示器5には、25個の測距エリア20A〜20E、21A〜21E、22A〜22E、23A〜23E、24A〜24Eが用意されており、トラックボール10の操作で任意の測距エリアを選択するのである。なお、選択された測距エリアはセグメントが点滅して選択された旨を表示し、他の非選択のエリアと区別できるようになっている。
【0007】
以上のように構成されたカメラ1では、図11に示すように、カメラ1を支持する右手の親指15の先端に対しその親指の付け根は、右斜め下に位置するので、親指15の先端をカメラ1の外形と同一の水平方向または垂直方向へ移動させることが困難で、無理に行えば肉体的に非常な苦痛を感ずる。
つまり、親指15を自然に動かすとすれば、図11に示すように親指15先端を左右へ動かしたときのトラックボール10の回転方向12は、カメラ1の水平方向に対し上向きに傾き、同様に上下へ動かしたときのトラックボール10の回転方向11もカメラ1の垂直方向に対し左右方向へ傾斜したものとなる。
【0008】
そうすると、図12において、現在の測距エリアが例えば測距エリア22Cで、そこから測距エリア22Eを選択しようとする場合、トラックボール10に与えられる回転方向は、図11に示した12の方向となるので、選択されるのは測距エリア22Eではなく、測距エリア21Dあるいは測距エリア21Eが選択されてしまうという問題が発生する。
【0009】
また、測距エリア22Cから測距エリア20Cを選択する場合にも、同様の理由から誤った測距エリア20Bを選択することになる。
そのためにトラックボール10を戻す方向へ再操作しなければならないという事態が発生することが予想され、非常に不便であり、操作性が悪い。
以上の問題は、上下左右のみならず、斜め方向の測距エリアを選択する場合にも起こり得ることであり、更に図13に示すように、カメラ1を縦位置に構えた場合でも同様である。
【0010】
図13は、右手でカメラ1を縦位置の姿勢に構え、右手親指15の先端でトラックボール10を上下方向13及び左右方向14へ、更にそれらの中間方向へ回転操作する様子を示している。このとき、右手の人差し指は別設のシャッタボタン4を押せる位置にある。また、図14は、図12と同様の表示例である。
本図の場合にも親指15先端の自然な水平方向、垂直方向への移動は、カメラ1の外形の水平方向、垂直方向と角度関係を持つことは、以上の説明から容易に理解でき、同様の問題がある。
【0011】
更に、以上のような問題の大小は、撮影者によって千差万別であると言える。つまり、撮影者の手の大きさ、器用さでトラックボール10の操作性は大きく異なり、選択指示される方向は千差万別となり得るのである。
具体的には、図示例では、上下方向と左右方向とは共に直線で、しかも互いに直交するように示してあるが、実際には、例えば上方向と下方向とは一直線ではなく交差する関係にあり上下方向から少し傾斜しており、また例えば上方向と右方向とは直角ではない角度をなす場合が多い。
【0012】
トラックボール10には、前述したように平面内の任意方向の位置を選択できる機能を備えるが、以上の説明したような人間工学的な問題があるので、トラックボールの動きをそのまま一律に読み取る方式では、誤差を伴うのである。
以上はカメラにおける操作例であるが、かかる問題は、その他例えばマウスやタッチパネル等の操作でも同様に指摘できる問題である。
【0013】
本発明は、このような課題を解決すべく創作されたもので、その目的は、操作者の操作癖や姿勢等に左右される操作部材の操作内容を補正できる手動操作補正装置及びカメラを提供することにある。
【0014】
【課題を解決するための手段】
前記目的を達成するために、本発明の手動操作補正装置は次の如き構成を有する。本発明の実施の形態を示す図1、図2、図8を参照して構成を説明する。
【0015】
本発明の手動操作補正装置は、任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段とを備えたことを特徴とする。
【0016】
なお、前記判定手段及び前記設定手段の動作が有効となる校正モードに前記手動操作補正装置を設定する校正モード設定手段をさらに備えてもよい。
【0017】
また、前記判定手段は、互いに異なる複数の方向のそれぞれに関して前記表示及び前記判定を行い、前記設定手段は、前記複数の方向のそれぞれに関して前記判定手段が判定した複数の方向に基づいて前記設定を行ってもよい。
【0018】
また、前記操作手段は、前記手動操作により回転するボールと、前記ボールの回転方向を検出する検出手段とを備えてもよい。
【0019】
また、前記操作手段は、前記ユーザが接触可能な面と、前記面における接触点を検出する検出手段とを備えてもよい。
また、前記設定手段は、前記手動操作補正装置が前記第1の姿勢である場合の前記関係と、前記手動操作補正装置が前記第2の姿勢である場合の前記関係とをそれぞれ設定してもよい。
また、本発明のカメラは、任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段とを備えたことを特徴とする。
なお、本発明のカメラは、前記カメラが第1の姿勢で構えられた場合に操作される第1シャッターボタンと、前記カメラが第2の姿勢で構えられた場合に操作される第2シャッターボタンとを更に有し、前記設定手段は、前記カメラが前記第1の姿勢で構えられた場合の前記関係と、前記カメラが前記第2の姿勢で構えられた場合の前記関係とをそれぞれ設定してもよい。
また、本発明のカメラは、前記カメラが前記第1の姿勢で構えられた場合の前記関係と、前記カメラが前記第2の姿勢で構えられた場合の前記関係とをそれぞれ区別して記憶する記憶手段を更に備えてもよい。
【0020】
その他の手動操作補正装置
【0021】
その他の手動操作補正装置は、操作軌跡取得手段が、表示画面において操作手段による入力位置の移動操作方向を指示し、その指示に従って操作された操作手段の操作軌跡を取得し、領域設定手段が、取得された操作軌跡を用いて起点を同じくする2つの操作軌跡の間に操作判定領域を設定する。
従って、操作手段による実際の入力位置の移動操作方向が操作判定領域に入っているか否かによって当該操作を補正できることになる。
【0022】
具体的には、1モードと第2モードを設定し、第2モードにおいて方向特定手段が、操作手段の操作によって示される操作軌跡と領域設定手段が設定した操作判定領域とを照合すれば、操作者が意図した表示画面の入力位置の移動操作方向を特定することができる。
そして、操作軌跡取得手段は、点位置と終点位置とを任意に指定するだけで、操作手段の操作軌跡を取得することができ、構成が複雑化することはない。
【0023】
また、操作手段は、動操作をボールの回転に置換して検出する方式のものも、動操作補正装置のように手動操作された接触点を検出する方式のものも、同様に採用できる。なお、ボールを有する操作手段には、トラックボールやマウス等が含まれる。また、手動操作された接触点を検出する方式の操作手段には、タッチパネルが含まれる。
【0024】
さらに、他の手動操作補正装置は、当該装置が操作者の都合で各種の姿態で使用されることがあることに鑑み、領域設定手段は、当該装置の姿勢に応じて異なる内容の操作判定領域を設定することができる。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0026】
図1は、本発明の第1実施の形態のカメラの外観図である。図1において、横にした通常位置のカメラ1の前面(図中紙背側)にはレンズ2が装着され、カメラ1の背面(図中紙表側)にはファインダ6が設けられ、レンズ2を通過した被写体像をこのファインダ6で視認できるようになっている。
また、カメラ1の上面には、背面側から見て右側に表示器5が設けられる。この表示器5は、ファインダ6内に配設される場合もあるが、この表示器5により露出、測光、測距等の各種モードの設定内容を視認できるようになっている。
【0027】
また、カメラ1の上面には、背面側から見て右側の図中紙背側への迫り出し部分にシャッタボタン3が配置される。なお、同じ迫り出し部分の側部には、もう1つのシャッタボタン4を配設してある。これはカメラ1を縦位置に構えた際に使用されるものである。
周知のように、シャッタボタン3、4の操作では、半押しの第1段階の押圧で内部回路への給電が行われ、全押しの第2段階の押圧で装填されているフイルムへの露光が行われる。
【0028】
そして、カメラ1の背面(図中紙表側)には、本発明の操作手段の1つであるトラックボール10が設けられる。このトラックボール10は、カメラ1を右手で支持して構えた時に右手の親指先端が自然にかかる位置に配置される。
前述(図11〜図14)したように、トラックボール10は、先の出願では測距エリアの選択のみに使用されたが、本実施の形態では更に、校正モードにおいて操作軌跡を取得すること、及び露出モードに関するシャッタタイムや絞り値等の要素を選択設定するのにも使用される。
【0029】
また、カメラ1の上面には、背面側から見て左側に、モードスイッチ7と校正ボタン8が設けられ、更に図示省略したが、変更ボタンも設けられる。 モードスイッチ7は、本実施の形態では、測距モードと露出モードの2つのモードに切り換える場合に使用される。変更ボタンは、露出モードにおいてシャッタタイムや絞り値等の値を変更する場合に使用される。
【0030】
校正ボタン8は、本実施の形態のカメラを校正モードに設定するものである。校正モードでは、撮影者がトラックボール10を操作する際の癖を読み取り、それを実際の操作において補正できるように、各種データを蓄積する。
即ち、校正ボタン8が操作されたときの校正モードが、特許請求の範囲に言う校正モードに対応し、校正ボタン8が操作されず通常撮影時の状態が非校正モードに対応する。
【0031】
更に、カメラボディ内には、姿勢センサ9が設けられ、カメラ1を構えた時の姿勢を検出できるようになっている。カメラ1の姿勢は、撮影者の操作癖を補正する場合に影響を与えるので、校正モードで取得するデータに姿勢を反映させるため設けてある。なお、姿勢センサ9による姿勢検知方法については、実開昭64−9229号公報に詳述されているので、その説明を割愛する。
【0032】
次に、図2は、本発明の実施の形態のカメラの構成図である。図2の上段において、トラックボール10の側周囲には、2つのローラ40A、40Bがそれぞれの一端をトラックボール10の側周面に接触して設けられる。
つまり、トラックボール10が上下方向11、左右方向12(縦位置撮影の場合はそれぞれ13、14)に回転操作されると、2つのローラ40A、40Bが連れ周りして回転する。言うまでもなく、斜め方向への回転は、ローラ40A、40Bの両者に分割して伝えられる。
【0033】
ローラ40A、40Bの他端には、それぞれ円盤状のセクタ45A、45Bが固定される。セクタ45A、45Bの外表面には、図示するように、それぞれ半径方向に向かうスリットが同一ピッチで刻まれている。
そして、円盤状のセクタ45A、45Bの外周縁部には、それぞれフォトカプラ43A、43Bが設けられる。フォトカプラ43A、43Bは、通過するスリットの数、つまりトラックボール10の回転量と、スリットの通過方向、つまりトラックボール10の回転方向とを表すパルス信号を発生する。
【0034】
それらのパルス信号は、図2の下段に示すインタフェース回路(以下「INT」と言う)56を介して中央処理装置(以下「CPU」と言う)57に取り込まれ、トラックボール10の回転量、回転方向として認識される。
次に図2の下段において、CPU57は、カメラ動作制御の中枢であり、INT56、59を介して情報の入力と制御を実行する。また、CPU57は、記憶回路(以下「MEM」と言う)58と直接データ授受を行う。
【0035】
具体的には、MEM58には、校正モード時及び実際の操作時におけるトラックボール10の操作に関する各種データが格納される。
また、INT56、INT57に関しては、まずINT56を介して、前述したフォトカプラ43A、43Bの出力パルス信号を取り込み、姿勢センサ9の姿勢信号を取り込む。
【0036】
また、INT56を介して、レンズ2を含む光学系51を介した測光センサ50と測距センサ52への被写体像をそれらから取り込み、測距センサ52から被写体の合焦状態に関する信号を取り込み、装填されているフィルムの感度を感度検出回路53から取り込み、フォーカスモータ54を駆動して合焦状態を実現する。
【0037】
更に、INT56を介して、スイッチ群55の各種のスイッチからカメラ1内のシーケンス状態を示す各種の信号を取り込む。
また、INT59を介して、表示器5を駆動して露光条件、測距条件などの表示を行い、シャッタ60を開閉してフィルムへの露光時間を制御し、絞り61の開口量を制御してフィルムへ到達する被写体光量を制御し、給送モータ62を駆動してフィルムの巻き上げ、巻き戻しを制御する。
【0038】
次に、図3は、校正モードでの表示例及び操作手順の説明図である。本発明の校正モードは、校正ボタン8を押下すると、CPU57が、露出に関する作動を全て禁止し、校正モードのプログラムを実行することにより実現される。
即ち、CPU57は、表示器5の表示画面に図3(a)(c)(e)に示すような操作方向指示の表示をして、撮影者にその指示表示に従った図3(b)(d)(f)のような操作を行わせ、撮影者の操作癖、カメラ1の姿勢に合わせて「操作方向指示」と「トラックボール10の回転操作軌跡」との対応関係を取得し、判定領域データを生成し、MEM58に格納する処理を行う。実際の撮影時における操作を記憶内容に基づいて補正するのである。
【0039】
以下、具体的なデータ取得方法を図3を参照して説明する。なお、図3は、説明の便宜上、本発明の校正モード用の表示画面として図12に示した測距エリアの表示画面を利用した場合を示している。従って、測距エリア24A等と同一名称を用いて説明する。
図3(a)は、起点として最左端下の測距エリア24Aを連続点灯し、終点として最右端下の測距エリア24Eを点滅灯させ、左から右へ水平に操作させる指示を行う場合を示す。
【0040】
図3(b)は、撮影者が、図3(a)の操作指示に従い親指15の先端でトラックボール10を右方向30へ回転操作する様子を示す。撮影者は、表示器5の表示を見て測距エリアの指定を24Aから24Eに移すつもりでトラックボール10を回転操作するのである。この回転操作は、水平ベクトル成分と垂直ベクトル成分とで規定される操作軌跡の形で操作指示と関連付けてMEM58に格納される。
【0041】
図3(c)は、MEM58への格納動作を終了したので、次のデータを取得すべく、起点として最左端下の測距エリア24Aを連続点灯し、終点として最右端下の測距エリア24Eの1つ上の測距エリア23Eを点滅灯させ、左から右へ水平方向から少し右上がりに操作させる指示を行う場合を示す。
図3(d)は、撮影者が、図3(c)の操作指示に従い、親指15先端でトラックボール10を右上がり方向31へ回転操作する様子を示す。撮影者は、前述と同様に、表示器5の表示を見て測距エリアの指定を24Aから23Eに移すつもりでトラックボール10を回転操作するのである。この回転操作は、水平ベクトル成分と垂直ベクトル成分とで規定される操作軌跡の形で操作指示と関連付けてMEM58に格納される。
【0042】
図3(e)は、MEM58への格納動作を終了したので、次のデータを取得すべく、起点として最左端下の測距エリア24Aを連続点灯し、終点として最右端測距エリア22Eを点滅灯させ、左から右へ水平方向から更に少し右上がりに操作させる指示を行う場合を示す。
【0043】
図3(d)は、撮影者が、図3(e)の操作指示に従い、親指15先端でトラックボール10を更に右上がり方向32へ回転操作する様子を示す。撮影者は、前述と同様に、表示器5の表示を見て測距エリアの指定を24Aから22Eに移すつもりでトラックボール10を回転操作するのである。この回転操作は、水平ベクトル成分と垂直ベクトル成分とで規定される操作軌跡の形で操作指示と関連付けてMEM58に格納される。
【0044】
以降同様に、起点として最左端下の測距エリア24Aを連続点灯し、終点として測距エリア21E、20E、20D、20C、20B、20Aの9方向への操作軌跡をMEM58に格納し、引き続いて、起点を測距エリア24D、20D、20Aとしそれぞれについての全ての操作軌跡を取得する。取得される軌跡データは全てで36通りである。但し、水平方向と垂直方向では重複するので、後述するようにそれを除く処理をして都合32通りの軌跡データが取得される。
【0045】
更に、カメラ1を縦位置に構え、上記と同様の作業を行い、縦位置でのデータとして前述した横位置でのデータと区別して格納する。
CPU57は、以上のようにして撮影者固有の癖を含んだ回転操作方向を直接表現する軌跡データを格納すると、次に本来必要な各回転操作方向を区分する境界線を求めるために、図4に示す処理を実行する。
【0046】
図4は、境界線算出の概念図である。なお、図4には、図3に示す手順で求めた回転操作方向30、31の操作軌跡に基づき境界線33を算出した例を示してある。
MEM58に格納した回転操作方向30、31の操作軌跡は、それぞれフォトカプラ43A、43Bで水平垂直の各成分に分けられている。そこで、CPU57は、その水平垂直成分の中央値をそれぞれ算術平均することで境界線33を求める。このようにして隣接する操作軌跡相互間を2等分して境界線をそれぞれ求める。
【0047】
その際にCPU57は、重複して取得した水平方向と垂直方向の軌跡データについての補正処理を行う。即ち、前述したように、取得される軌跡データは全てで36通りであるが、水平方向と垂直方向では2個ずつ重複する。
具体的には、測距エリア20A→20Eへの軌跡データと測距エリア24A→24Eへの軌跡データ、測距エリア24A→20Aへの軌跡データと測距エリア24E→20Eへの軌跡データ、測距エリア20E→20Aへの軌跡データと測距エリア24E→24Aへの軌跡データ、測距エリア20A→24Aへの軌跡データと測距エリア20E→24Eへの軌跡データは、それぞれ同じ方向を表す。従って、CPU57は、それらを平均して中間値を求めるのである。
【0048】
以上の境界線算出処理によって32個の境界線、つまり全領域を32分割する境界線が得られる。図4に示すように、境界線33の反時計回り方向側を領域35RU−1、時計回り方向側を領域35Rと名付けると、境界線とそれに挟まれる領域との関係は図5に示すようになる。
この境界線の反時計回り方向側の領域及び時計回り方向側の領域が、前述した操作判定領域に対応する。従って、図5は、以上のようにして求めた境界線とそれに挟まれる領域を部分的に示すが、トラックボール10の実際の操作回転方向が、例えば領域35Rに入る場合は水平右方向と判定され、領域35Uに入る場合は垂直上方向と判定され、領域35RUに入る場合はそれらの丁度中間である斜め右上方向と判定されるのである。
【0049】
ここで、注意すべきことは、図5において、右上半分の領域は細分化されているが、それぞれの領域は等分ではなく、図3で説明した操作指示に従って入力した信号に従うために、撮影者の操作癖を反映した領域配分になっていることである。
なお、縦位置撮影時では、図5とは異なる領域配分となるが、その切替は、姿勢センサ9の信号によって行われる。
【0050】
次に、図6と図7を参照してトラックボール10の操作で露出条件を変更する例を説明する。図6は、表示器の露出条件に関する表示例である。図6は、変更モードでの表示例及び操作手順の説明図である。
図6において、表示器5の表示画面の周辺には、シャッタタイム用のセグメント70、絞り値用のセグメント71、露出モード用のセグメント73、露出補正値用のセグメント74がそれぞれ配置され、中央部には周辺の4つのセグメントの何れを変更対象とするかの指示用のセグメント72が配置される。
【0051】
なお、露出モード用のセグメント73は、PSAMの何れか1つを表示するが、Pはプログラム優先の露出モード、Sはシャッタ優先の露出モード、Aは絞り優先の露出モード、Mはマニュアルの露出モードをそれぞれ示す。
図7において、図7(a)は、シャッタ優先モードSの内容変更可の状態表示例である。即ち、セグメント70はセグメント70Aとして、シャッタタイムが1/2000に設定されていることを示し、セグメント71はセグメント71Aとして、絞り値がF5.6に設定されていることを示し、セグメント73はセグメント73Aとして、シャッタ優先モードSに設定されていることを示し、セグメント74はセグメント74Aとして、露出補正値が±0.3段に設定されていることを示し、セグメント72がセグメント72Aとしてセグメント70Aを指示しシャッタタイムの変更が可能であることを示している。
【0052】
図7(b)は、モード変更操作の説明図である。トラックボール10を図示するように上下方向11と左右方向12とに回転させると、それに連動してセグメント72の指示方向が4方向へ切り替わり、セグメント72が指示した要素についてその値の変更が可能となる。トラックボール10の回転操作方向とセグメント72の変更指示方向とは感覚的に一致する。前述した校正処理の成果である。
【0053】
図7(a)は、シャッタタイムの値の変更が可能な状態を示していることは前述したが、図7(a)に示すように、シャッタ優先モードSの場合は、絞り値は、自動的に演算されて決定されるので、矛盾を防止するためにセグメント72Aがセグメント71Aを指示する表示は不可能とすべきである。従って、トラックボール10を回転させてセグメント71Aを指示することはできず、自動的にスキップするようにしてある。
【0054】
図7(c)は、シャッタ優先モードSの内容変更時の表示例である。図7(d)は、シャッタタイムSの内容変更操作の説明図である。以上のようにしてセグメント72Aでシャッタタイムを表すセグメント70であるセグメント70Bを指示し、シャッタタイムを変更しようとする場合、図示省略した変更ボタンを押しながら、図7(d)に示すようにトラックボール10を上下方向11に回転させると、シャッタタイムの値が変化する。図7(c)は、セグメント70Bとして示すように、シャッタタイムが1/500に変更された時の状態を示す。
【0055】
このシャッタタイムの変更モードでは、トラックボール10の上下方向11への回転のみに連動するが、トラックボール10の回転方向は、厳密な上下方向である必要はなく、図5において最上方向の領域35Uの右側領域35U−1、35U−2、35U−3を含むようにし、撮影者のラフな操作に対応できるようにしてある。
【0056】
露出モードや絞り値、露出補正値等の値を変える場合もトラックボール10をその該当セグメントに向けて回転操作させれば良く、各要素の値の変化とトラックボール10の回転操作方向とは感覚的に合致したものとなり、操作性が向上する。
次に図8は、本発明の第2実施の形態のカメラの外観図である。この第2実施の形態のカメラ1では、トラックボール10に変えて、タッチパネル65を設けたものである。タッチパネル65の表面で指先を触れながら上下方向11、左右方向12へ移動させると、その指示方向を検出できる。
【0057】
タッチパネル65による指示方向の検出方式には、指の押圧を機械的に検知するスイッチ方式、指の感触で静電誘導的に検知する方式などがある。何れの場合も、図示するように、上下方向11、左右方向12は、カメラ1の外形に対して傾斜関係にあり、かつその傾斜程度には個人差がある。
このようなタッチパネル65を採用したカメラ1に対しても、以上説明した本発明の手動操作補正方式は同様に適用でき、同様の効果が得られる。
【0058】
次に、図9と図10を参照して以上説明した本発明の手動操作補正方式の動作を説明する。図9は、本発明の実施の形態の動作フローチャートである。図10は、校正モードでの動作フローチャートである。
図9に示す処理は、バッテリが接続され、シャッタボタン3(4)の第1段階への押圧によって電源スイッチが投入されると開始され、電源タイマ等によって給電が維持されている間繰り返し実行される。
【0059】
図9において、S1では、校正ボタン8が操作され、校正モードの指示がされたか否かを判定する。校正ボタン8が操作されていれば、判定は肯定(YES)となりS2にて校正モード処理を実行しS1に戻る。S2の校正モード処理は後述する(図10)。
S1において校正ボタン8が操作されていなければ、判定は否定(NO)となりS3に進み、MEM58から前回表示器5に表示された設定条件など前回設定された各種の条件を読み出し、S4に進む。
【0060】
S4では、測光センサ50から被写体輝度信号を取り込み、感度検出回路53からフィルム感度信号を取り込み、S5に進む。
S5では、S4で取り込んだ被写体輝度信号及びフィルム感度信号をS3で読み出した各種条件に応じて演算し適正露光条件を算出した後、シャッタタイム、絞り値を決定し、表示器5にその結果を表示し、S6に進む。
【0061】
S6では、姿勢センサ9によりカメラ1の撮影姿勢を判断し、S7に進む。なお、このS6の処理をS5の前に行い、カメラ1の撮影姿勢を露出条件算出の条件に使用しても良い。
【0062】
S7では、モードスイッチ7の切替状態が、AEモード(露出モード)であるか、測距モードであるかを判定する。表示器5の表示画面は、前述したように、測距モードでは図12(図14)に示すようになり、露出モードでは図6に示すようになる。
S7においてAEモードでなければ、即ち測距モードであれば判定は否定(NO)となりS8に進み、一方AEモードであれば判定は肯定(YES)となりS10に進む。
【0063】
S8では、トラックボール10が操作されているか否かを検出する。操作されている場合は、判定は肯定(YES)となり、S9とS14とS15の各処理を行い、S16に進み、レリーズに備える。一方、トラックボール10が操作されていなければ、判定は否定(NO)となり、直接S16に進み、レリーズに備える。
【0064】
S9とS14とS15では次の処理が実行される。即ち、トラックボール10の回転操作方向とその量を求め、MEM58に格納した領域区分(図5参照)との比較を行い、撮影者が真に望んだ操作方向を導出する(S9)。そして、その結果に従い表示器5の表示内容を変更し(S14)、またその結果をMEM58に更新記憶する(S15)。
【0065】
一方S7においてAEモードであると判定された場合は、S10にてトラックボール10が操作されているか否かを検出する。操作されている場合は、判定は肯定(YES)となり、S11にて図示省略した変更ボタンが押されているか否かを判定する。
変更ボタンが押されていなければ、S11の判定は否定(NO)となりS12にて図7(a)(b)で説明したモード変更処理を行う。一方、変更ボタンが押されている場合は、S11の判定は肯定(YES)となりS13にて図7(c)(d)で説明した条件変更処理を行う。そして、S12とS13の各処理結果を表示・記憶し(S14、S15)、レリーズに備える(S16)。
【0066】
他方S10においてトラックボール10が操作されていなければ、判定は否定(NO)となり直接S16に進み、レリーズに備える。
S16では、シャッタボタン3(4)が第2段階まで深く押され、露光開始の指令、即ちレリーズ指令が発せられたか否かを判定する。シャッタボタン3(4)が第2段階まで深く押されていなければ、露光動作は不要であるので判定は否定(NO)となり、S1に戻り、以上説明した処理を繰り返す。
【0067】
一方、S16においてシャッタボタン3(4)が第2段階まで深く押されていければ、判定は肯定(YES)となってS17に進み、所定の露光シーケンスを実行する。即ち、絞り61をS5で求めておいた所定値に制御し、シャッタ60をS5で求められた値に応じて所定時間開き、その後給送モータ62を駆動してフィルムを1コマ分巻き上げる。そして、S1に戻り、次の露光に備える。
【0068】
次に図10を参照して図3〜図5で説明した校正モードの動作を説明する。図10において、S20では、カメラ1を横にした通常位置の姿勢とすべく表示器5に設けてある所定のセグメントに「カメラ1を水平に構えさせる指示表示」を行う。カメラ1の姿勢は、姿勢センサ9にて判断できるので、指示に従っていない場合は然るべき警告を行う。
【0069】
カメラ1が水平支持されると、測距エリア24Aを連続点灯する(S21)と共に、測距エリア24Eを点滅灯する(S22)。即ち、図3(a)に示した操作指示の表示をしたのである。
そして、S23でトラックボール10が指示に従って回転操作されるのを監視する。トラックボール10が指示に従って回転操作されると、S23の判定は肯定(YES)となり、図3(b)に示した操作方向30の操作軌跡をMEM58に格納する(S24)。
【0070】
以降、測距エリア24Aを起点とする8つの回転操作方向での操作軌跡を同様に格納し、同様に測距エリア24D、20Eを起点とする各回転操作方向での操作軌跡を格納する。
更に、測距エリア20Aを連続点灯する(S25)と共に、測距エリア24Aを点滅灯し(S26)、同様に操作軌跡をMEM58に格納する。以降点滅測距エリアを順次切り替え、それぞれについての操作軌跡をMEM58に格納する。
【0071】
最後に測距エリア20Eを点滅灯し(S27)、同様にトラックボール10の回転操作を監視し(S28)、トラックボール10が指示に従って回転操作されると、S28の判定は肯定(YES)となり、操作軌跡をMEM58に格納する(S29)。
そして、重複している水平垂直の操作軌跡を算術平均などで1つの操作軌跡にまとめ(S30)、各操作軌跡を用いて領域の境界を求め(S31)、図5に示した32個の判定領域を決定する。
【0072】
次いで、外側に位置する測距エリアのうち、1つ置きの測距エリア(20A、20C、20E、22A、22C、22E、24A、24C、24E)を所定時間点滅灯させ(S32)、水平状態での校正が完了したことを告知する。
この告知を見て撮影者は、カメラ1を縦位置に構えるので、次にカメラ1を縦位置に構えた場合について以上説明したS21〜S32までの処理と同等の処理を実行する(S33)。
【0073】
以上の実施の形態は、カメラへの適用例であるが、例えばいわゆるパソコンにおいてマウスを操作する場合に、本発明の手動操作補正装置を備えれば、操作者の操作癖を補正できるので、操作性が向上する。
【0074】
【発明の効果
【0077】
発明によれば、操作者の操作癖を学習してそれを補正するので、撮像機器など手に持って操作する機器、撮像機器やいわゆるパソコンなど使用者の姿勢が定まらない機器や使用者を特定できない機器などにおいて、操作性を高めることができる。
【図面の簡単な説明】
【図1】本発明の第1実施の形態のカメラの外観図である。
【図2】本発明の実施の形態のカメラの構成図である。
【図3】校正モードでの表示例及び操作手順の説明図である。
【図4】境界線算出の概念図である。
【図5】境界線とそれに挟まれる領域との関係図である。
【図6】表示器の露出条件に関する表示例を示す図である。
【図7】変更モードでの表示例及び操作手順の説明図である。
【図8】本発明の第1実施の形態のカメラの外観図である。
【図9】本発明の実施の形態の動作フローチャートである。
【図10】校正モードでの動作フローチャートである。
【図11】本発明者の先の出願に係るカメラの外観図(通常位置)である。
【図12】表示器の測距エリアの表示例を示す図である。
【図13】本発明者の先の出願に係るカメラの外観図(縦位置)である。
【図14】表示器の測距エリアの表示例を示す図である。
【符号の説明】
1 カメラ
3、4 シャッタボタン
5 表示器
7 モードスイッチ
8 校正ボタン
9 姿勢センサ
10 トラックボール
40A、40B ローラ
43A、43B フォトカプラ
45A、45B セクタ
55 スイッチ群
57 中央処理装置(CPU)
58 メモリ(MEM)
65 タッチパネル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a manual operation correction device and a camera for correcting an operation of an operation member such as a trackball or a touch panel.
[0002]
[Prior art]
An increasing number of cameras are provided with a function that allows photographers themselves to set operation details such as a photometry mode, an exposure mode, and a distance measurement mode. The operation mode can be broadly classified into either an analog method for setting with a dedicated selection dial or a digital method for setting with a combination of a mode selection button and an up / down button.
[0003]
In any method, since accurate exposure must be obtained in accordance with a sudden change in the brightness, position, etc. of the subject, these operation members can be changed and adjusted quickly, and various hand sizes can be obtained. It is necessary to be able to use it for any photographer having a certain height.
On the other hand, in a personal computer, as a pointing device, a device called a mouse with a ball on the lower surface is slid on the desk and a selection instruction is given according to the rotation direction of the ball. A stick method for giving an instruction, a touch panel method for detecting an indication direction by moving a dedicated panel surface while touching it with a fingertip, and the like are adopted.
[0004]
[Problems to be solved by the invention]
By the way, the present inventor has developed a method for selecting and instructing the distance measurement position of a subject using such a trackball, paying attention to the function of selecting a position in an arbitrary direction in a plane inherent to the trackball (patent application). Kaihei 6-148714).
[0005]
This is a system in which a trackball is installed on the back of the camera and the distance measurement position is designated. Hereinafter, this will be described with reference to FIGS. The operability will be considered from the viewpoint of “what can be used and can be used for any photographer having various hand sizes”.
11 and 13 are rear views of the camera according to the earlier application of the present inventor. 12 and 14 are diagrams showing a plurality of ranging areas shown on the display.
[0006]
In FIG. 11, the trackball 10 is provided on the back of the camera 1, but the camera 1 is held in the normal position with the right hand, and the trackball 10 is moved in the vertical direction 11 and the horizontal direction 12 with the tip of the right hand thumb 15. It can be rotated in the middle direction between them. At this time, the index finger of the right hand is in a position where the shutter button 3 can be pressed.
In FIG. 12, the display 5 has 25 ranging areas 20A to 20E, 21A to 21E, 22A to 22E, 23A to 23E, and 24A to 24E. The distance area is selected. Note that the selected distance measurement area displays that the segment has been selected by blinking, so that it can be distinguished from other non-selected areas.
[0007]
In the camera 1 configured as described above, as shown in FIG. 11, the base of the thumb of the right thumb supporting the camera 1 is positioned obliquely downward to the right, so that the tip of the thumb 15 is It is difficult to move the camera 1 in the same horizontal or vertical direction as the outer shape of the camera 1, and if you do it forcibly, you will feel physical pain.
That is, if the thumb 15 is moved naturally, as shown in FIG. 11, the rotation direction 12 of the trackball 10 when the tip of the thumb 15 is moved to the left and right is inclined upward with respect to the horizontal direction of the camera 1, and similarly The rotation direction 11 of the trackball 10 when moved up and down is also inclined in the left-right direction with respect to the vertical direction of the camera 1.
[0008]
Then, in FIG. 12, when the current distance measurement area is, for example, the distance measurement area 22C and the distance measurement area 22E is to be selected therefrom, the rotation direction given to the trackball 10 is the 12 directions shown in FIG. Therefore, a problem arises that the distance measurement area 21D or the distance measurement area 21E is selected, not the distance measurement area 22E.
[0009]
Further, when the distance measuring area 20C is selected from the distance measuring area 22C, the wrong distance measuring area 20B is selected for the same reason.
For this reason, it is expected that a situation in which the user has to re-operate in the direction in which the trackball 10 is returned, which is very inconvenient and poor in operability.
The above problem can occur not only in the case of selecting a distance measuring area in an oblique direction, but also in the case where the camera 1 is held in a vertical position as shown in FIG. .
[0010]
FIG. 13 shows a state in which the camera 1 is held in a vertical posture with the right hand, and the trackball 10 is rotated in the vertical direction 13 and the horizontal direction 14 with the tip of the right hand thumb 15 and further in the intermediate direction therebetween. At this time, the index finger of the right hand is in a position where a separate shutter button 4 can be pressed. FIG. 14 is a display example similar to FIG.
It can be easily understood from the above description that the movement of the tip of the thumb 15 in the horizontal and vertical directions also has an angular relationship with the horizontal and vertical directions of the outer shape of the camera 1 in the case of this figure. There is a problem.
[0011]
Furthermore, it can be said that the magnitude of the problems as described above varies greatly depending on the photographer. That is, the operability of the trackball 10 varies greatly depending on the size and dexterity of the photographer's hand, and the directions in which selection is instructed can vary widely.
Specifically, in the illustrated example, the vertical direction and the horizontal direction are both straight lines and orthogonal to each other, but actually, for example, the upward direction and the downward direction are not in a straight line but intersect with each other. There is a slight inclination from the vertical direction, and for example, the upward direction and the right direction are often not at right angles.
[0012]
As described above, the trackball 10 has a function of selecting a position in an arbitrary direction within a plane. However, since there is an ergonomic problem as described above, a method of uniformly reading the movement of the trackball as it is. Then there is an error.
The above is an example of the operation in the camera. However, this problem can be pointed out in the same manner by other operations such as a mouse and a touch panel.
[0013]
The present invention was created to solve such problems, and its purpose is to provide a manual operation correction device and a camera capable of correcting the operation content of an operation member that depends on the operation rod, posture, etc. of the operator. There is to do.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, the manual operation correction apparatus of the present invention has the following configuration. The configuration will be described with reference to FIGS. 1, 2, and 8 showing an embodiment of the present invention.
[0015]
The manual operation correcting device according to the present invention can be operated manually by a user in an arbitrary direction, and an operating means for moving a mark displayed in a display screen according to the manual operation, and one on the display screen A determination means for causing the display to prompt the user to operate the operation means in a direction corresponding to a direction, and determining the direction of the manual operation performed by the user prompted by the display; And a setting unit configured to set a relationship between the direction of the manual operation by the user and the moving direction of the mark by the operation unit based on the direction determined by the determination unit.
[0016]
Note that calibration mode setting means for setting the manual operation correction device to a calibration mode in which the operations of the determination means and the setting means are valid may be further provided.
[0017]
The determination unit performs the display and the determination for each of a plurality of different directions, and the setting unit performs the setting based on the plurality of directions determined by the determination unit for each of the plurality of directions. You may go.
[0018]
The operation means may include a ball that is rotated by the manual operation, and a detection means that detects a rotation direction of the ball.
[0019]
Further, the operation means may include a surface that can be contacted by the user and a detection means that detects a contact point on the surface.
The setting means may set the relationship when the manual operation correction device is in the first posture and the relationship when the manual operation correction device is in the second posture, respectively. Good.
The camera of the present invention can be manually operated by the user in an arbitrary direction, and an operating means for moving a mark displayed in the display screen according to the manual operation, and one direction on the display screen Determining means for causing the display to prompt the user to operate the operation means in a direction corresponding to the display screen, and determining the direction of the manual operation performed by the user prompted by the display; And setting means for setting a relationship between the direction of the manual operation by the user and the moving direction of the mark by the operation means based on the direction determined by the means.
The camera of the present invention includes a first shutter button that is operated when the camera is held in a first posture, and a second shutter button that is operated when the camera is held in a second posture. And the setting means sets the relationship when the camera is held in the first posture and the relationship when the camera is held in the second posture, respectively. May be.
The camera according to the present invention stores the relationship when the camera is held in the first posture and the relationship when the camera is held in the second posture separately. Means may further be provided.
[0020]
( Other manual operation correction devices )
[0021]
In another manual operation correction device, the operation trajectory acquisition unit instructs the movement operation direction of the input position by the operation unit on the display screen, acquires the operation trajectory of the operation unit operated according to the instruction, and the region setting unit An operation determination area is set between two operation tracks having the same starting point using the acquired operation track.
Accordingly, the operation can be corrected depending on whether or not the movement operation direction of the actual input position by the operation means is within the operation determination area.
[0022]
Specifically, if the first mode and the second mode are set, and the direction specifying means in the second mode collates the operation locus indicated by the operation of the operation means with the operation determination area set by the area setting means, The moving operation direction of the input position on the display screen intended by the operator can be specified.
Then, operation trace obtaining means, only arbitrarily specify the force point position and end position, it is possible to obtain the operation path of the operating means, not that the configuration complicated.
[0023]
Further, operating means, also of a type which detects by replacing the manual operation to the rotation of the ball, also of a type that detects the contact points which are manually operated as manual operation correction unit, can be adopted similarly . Note that the operation means having a ball includes a trackball and a mouse. Moreover, the touch panel is included in the operation means for detecting the manually operated contact point.
[0024]
In addition, other manual operation correction unit, in view of the fact that the device may be used in various pose the convenience of the operator, the region setting means, the operation determination of different content depending on the orientation of the device An area can be set.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
FIG. 1 is an external view of a camera according to the first embodiment of the present invention. In FIG. 1, a lens 2 is mounted on the front side (back side of the paper in the figure) of the camera 1 in a normal position in a horizontal position, and a viewfinder 6 is provided on the back side (front side of the paper in the figure) of the camera 1. The finder 6 can visually recognize the subject image.
In addition, a display 5 is provided on the upper surface of the camera 1 on the right side when viewed from the back side. The display 5 may be disposed in the finder 6, but the display 5 can visually check the setting contents of various modes such as exposure, photometry, and distance measurement.
[0027]
Further, on the upper surface of the camera 1, a shutter button 3 is arranged at a protruding portion to the paper back side in the drawing on the right side when viewed from the back side. Note that another shutter button 4 is provided on the side of the same protruding portion. This is used when the camera 1 is held in the vertical position.
As is well known, when the shutter buttons 3 and 4 are operated, power is supplied to the internal circuit by half-pressing in the first step, and exposure of the film loaded by full-pressing in the second step is performed. Done.
[0028]
A trackball 10 that is one of the operating means of the present invention is provided on the back surface (the front side of the paper in the drawing) of the camera 1. The trackball 10 is arranged at a position where the tip of the thumb of the right hand is naturally applied when the camera 1 is held with the right hand.
As described above (FIGS. 11 to 14), the trackball 10 was used only for the selection of the distance measurement area in the previous application, but in the present embodiment, the operation track is further acquired in the calibration mode. It is also used to select and set factors such as shutter time and aperture value for the exposure mode.
[0029]
Further, on the upper surface of the camera 1, a mode switch 7 and a calibration button 8 are provided on the left side when viewed from the rear side, and a change button is also provided although not shown. In the present embodiment, the mode switch 7 is used when switching between two modes, ranging mode and exposure mode. The change button is used when changing values such as a shutter time and an aperture value in the exposure mode.
[0030]
The calibration button 8 is used to set the camera of the present embodiment to the calibration mode. In the calibration mode, the photographer reads a wrinkle when operating the trackball 10 and accumulates various data so that it can be corrected in actual operation.
That is, the calibration mode in which the calibration button 8 has been operated, corresponding to the calibration mode referred to in the claims, the state of normal photographing calibration button 8 is not operated corresponds to a non-calibration mode.
[0031]
Further, a posture sensor 9 is provided in the camera body so that the posture when the camera 1 is held can be detected. The posture of the camera 1 has an effect when the photographer's operation stick is corrected, so that the posture is reflected in the data acquired in the calibration mode. The attitude detection method by the attitude sensor 9 is described in detail in Japanese Utility Model Laid-Open No. 64-9229, and will not be described here.
[0032]
Next, FIG. 2 is a configuration diagram of the camera according to the embodiment of the present invention. In the upper stage of FIG. 2, two rollers 40 </ b> A and 40 </ b> B are provided around the side of the trackball 10 so that one end thereof is in contact with the side peripheral surface of the trackball 10.
That is, when the trackball 10 is rotated in the vertical direction 11 and the horizontal direction 12 (13 and 14 in the case of vertical position shooting, respectively), the two rollers 40A and 40B rotate together. Needless to say, the rotation in the oblique direction is transmitted to both of the rollers 40A and 40B.
[0033]
Disk-shaped sectors 45A and 45B are fixed to the other ends of the rollers 40A and 40B, respectively. On the outer surfaces of the sectors 45A and 45B, as shown in the figure, slits directed in the radial direction are formed at the same pitch.
Photocouplers 43A and 43B are provided on the outer peripheral edges of the disk-shaped sectors 45A and 45B, respectively. The photocouplers 43A and 43B generate pulse signals indicating the number of slits that pass, that is, the amount of rotation of the trackball 10 and the direction of passage of the slits, that is, the direction of rotation of the trackball 10.
[0034]
Those pulse signals are taken into a central processing unit (hereinafter referred to as “CPU”) 57 via an interface circuit (hereinafter referred to as “INT”) 56 shown in the lower part of FIG. Recognized as a direction.
Next, in the lower part of FIG. 2, the CPU 57 is the center of camera operation control, and executes input and control of information via the INTs 56 and 59. The CPU 57 directly exchanges data with a memory circuit (hereinafter referred to as “MEM”) 58.
[0035]
Specifically, the MEM 58 stores various data relating to the operation of the trackball 10 during the calibration mode and during the actual operation.
As for the INT 56 and the INT 57, first, the output pulse signals of the photocouplers 43A and 43B described above are taken in via the INT 56, and the posture signal of the posture sensor 9 is taken in.
[0036]
Also, via the INT 56, the subject images to the photometry sensor 50 and the distance measurement sensor 52 via the optical system 51 including the lens 2 are taken in from them, and the signal related to the in-focus state of the subject is taken in from the distance measurement sensor 52 and loaded. The sensitivity of the applied film is taken in from the sensitivity detection circuit 53, and the focus motor 54 is driven to realize the in-focus state.
[0037]
Furthermore, various signals indicating the sequence state in the camera 1 are captured from various switches of the switch group 55 via the INT 56.
Further, the display 5 is driven via the INT 59 to display exposure conditions, distance measurement conditions, etc., the shutter 60 is opened and closed to control the exposure time to the film, and the aperture of the diaphragm 61 is controlled. The amount of subject light reaching the film is controlled, and the feeding motor 62 is driven to control film winding and rewinding.
[0038]
Next, FIG. 3 is an explanatory diagram of a display example and an operation procedure in the calibration mode. The calibration mode of the present invention is realized when the calibration button 8 is pressed and the CPU 57 prohibits all operations related to exposure and executes the calibration mode program.
That is, the CPU 57 displays an operation direction instruction as shown in FIGS. 3A, 3C, and 3E on the display screen of the display 5, and the photographer follows the instruction display shown in FIG. (D) By performing the operation as shown in (f), the correspondence relationship between the “operation direction instruction” and the “rotation operation locus of the trackball 10” is acquired in accordance with the photographer's operation rod and the posture of the camera 1, The determination area data is generated and stored in the MEM 58. The operation at the time of actual photographing is corrected based on the stored contents.
[0039]
Hereinafter, a specific data acquisition method will be described with reference to FIG. For convenience of explanation, FIG. 3 shows a case where the display screen of the distance measurement area shown in FIG. 12 is used as the display screen for the calibration mode of the present invention. Therefore, description will be made using the same name as the distance measurement area 24A and the like.
FIG. 3A shows a case in which the distance measurement area 24A at the lower left end is continuously lit as a starting point, the distance measurement area 24E at the lower right end is blinked as an end point, and an instruction is given to operate horizontally from left to right. Show.
[0040]
FIG. 3B shows a situation where the photographer rotates the trackball 10 in the right direction 30 with the tip of the thumb 15 in accordance with the operation instruction of FIG. The photographer rotates the trackball 10 with the intention of shifting the designation of the distance measuring area from 24A to 24E while viewing the display on the display 5. This rotation operation is stored in the MEM 58 in association with an operation instruction in the form of an operation locus defined by the horizontal vector component and the vertical vector component.
[0041]
In FIG. 3C, since the storing operation to the MEM 58 has been completed, in order to obtain the next data, the ranging area 24A at the lower left end is continuously lit as a starting point, and the ranging area 24E at the lower right end is used as an end point. In this case, the distance measurement area 23E one level above is blinked and an instruction is given to operate from left to right slightly upward from the horizontal direction.
FIG. 3D shows a state in which the photographer rotates the trackball 10 in the upward direction 31 with the tip of the thumb 15 in accordance with the operation instruction of FIG. As described above, the photographer rotates the trackball 10 while looking at the display on the display 5 and intends to move the designation of the distance measurement area from 24A to 23E. This rotation operation is stored in the MEM 58 in association with an operation instruction in the form of an operation locus defined by the horizontal vector component and the vertical vector component.
[0042]
In FIG. 3E, since the storing operation to the MEM 58 has been completed, in order to obtain the next data, the distance measurement area 24A at the lower leftmost position is continuously lit as the starting point, and the rightmost distance measuring area 22E is blinked as the end point. It shows a case where an instruction is given to light up and operate from the horizontal to the right further from the left to the right.
[0043]
FIG. 3D shows a state where the photographer further rotates the trackball 10 in the upward direction 32 at the tip of the thumb 15 in accordance with the operation instruction of FIG. As described above, the photographer rotates the trackball 10 while looking at the display on the display unit 5 and intends to shift the designation of the distance measurement area from 24A to 22E. This rotation operation is stored in the MEM 58 in association with an operation instruction in the form of an operation locus defined by the horizontal vector component and the vertical vector component.
[0044]
Similarly, the lower leftmost distance measuring area 24A is continuously lit as the starting point, and the operation trajectories in the nine directions of the distance measuring areas 21E, 20E, 20D, 20C, 20B, and 20A are stored in the MEM 58 as the end points, and subsequently. The starting points are the distance measurement areas 24D, 20D, and 20A, and all the operation trajectories are acquired for each. There are 36 types of trajectory data acquired. However, since they overlap in the horizontal direction and the vertical direction, as will be described later, processing for removing them is performed, and 32 kinds of trajectory data are acquired.
[0045]
Further, the camera 1 is held in the vertical position, the same operation as described above is performed, and the data at the vertical position is stored separately from the data at the horizontal position described above.
When the CPU 57 stores the trajectory data that directly expresses the rotation operation direction including the photographer-specific wrinkles as described above, the CPU 57 obtains a boundary line that divides each rotation operation direction that is originally necessary, as shown in FIG. The process shown in is executed.
[0046]
FIG. 4 is a conceptual diagram of boundary line calculation. FIG. 4 shows an example in which the boundary line 33 is calculated based on the operation trajectories of the rotation operation directions 30 and 31 obtained by the procedure shown in FIG.
The operation trajectories in the rotation operation directions 30 and 31 stored in the MEM 58 are divided into horizontal and vertical components by the photocouplers 43A and 43B, respectively. Therefore, the CPU 57 obtains the boundary line 33 by arithmetically averaging the median values of the horizontal and vertical components. In this way, the boundary lines are obtained by dividing the adjacent operation trajectories into two equal parts.
[0047]
At that time, the CPU 57 performs a correction process on the trajectory data in the horizontal direction and the vertical direction acquired in duplicate. That is, as described above, the total amount of trajectory data acquired is 36, but two overlap in the horizontal direction and the vertical direction.
Specifically, the trajectory data to the ranging area 20A → 20E, the trajectory data to the ranging area 24A → 24E, the trajectory data to the ranging area 24A → 20A, and the trajectory data to the ranging area 24E → 20E, The trajectory data to the distance area 20E → 20A, the trajectory data to the distance measurement area 24E → 24A, the trajectory data to the distance measurement area 20A → 24A, and the trajectory data to the distance measurement area 20E → 24E respectively represent the same direction. Therefore, the CPU 57 averages them to obtain an intermediate value.
[0048]
By the above boundary line calculation processing, 32 boundary lines, that is, boundary lines that divide the entire region into 32 parts are obtained. As shown in FIG. 4, when the counterclockwise direction side of the boundary line 33 is named area 35RU-1 and the clockwise direction side is named area 35R, the relationship between the boundary line and the area between the boundary lines is as shown in FIG. Become.
A region on the counterclockwise direction side and a region on the clockwise direction side of the boundary line correspond to the operation determination region described above . Therefore, FIG. 5 partially shows the boundary line obtained as described above and the region sandwiched between the boundary lines. When the actual operation rotation direction of the trackball 10 enters the region 35R, for example, it is determined as the horizontal right direction. When entering the area 35U, it is determined as the vertical upward direction, and when entering the area 35RU, it is determined as the diagonal upper right direction which is exactly the middle of them.
[0049]
Here, it should be noted that although the upper right half area in FIG. 5 is subdivided, each area is not equally divided, and the image is taken in accordance with the signal input in accordance with the operation instruction described in FIG. This means that the area allocation reflects the operator's operation habits.
At the time of vertical position shooting, the area distribution is different from that in FIG. 5, but the switching is performed by a signal from the attitude sensor 9.
[0050]
Next, an example in which the exposure condition is changed by operating the trackball 10 will be described with reference to FIGS. FIG. 6 is a display example regarding the exposure condition of the display. FIG. 6 is an explanatory diagram of a display example and an operation procedure in the change mode.
In FIG. 6, a shutter time segment 70, an aperture value segment 71, an exposure mode segment 73, and an exposure correction value segment 74 are arranged around the display screen of the display 5. The segment 72 for indicating which of the four surrounding segments is to be changed is arranged.
[0051]
Note that the exposure mode segment 73 displays one of the PSAMs, P is a program priority exposure mode, S is a shutter priority exposure mode, A is an aperture priority exposure mode, and M is a manual exposure. Each mode is shown.
In FIG. 7, FIG. 7A is an example of a state display in which the contents of the shutter priority mode S can be changed. That is, the segment 70 indicates that the shutter time is set to 1/2000 as the segment 70A, the segment 71 indicates that the aperture value is set to F5.6 as the segment 71A, and the segment 73 indicates that the segment 73 73A indicates that the shutter priority mode S is set, segment 74 indicates that segment 74A indicates that the exposure correction value is set to ± 0.3, and segment 72 indicates segment 72A as segment 72A. This indicates that the shutter time can be changed.
[0052]
FIG. 7B is an explanatory diagram of the mode change operation. When the trackball 10 is rotated in the up and down direction 11 and the left and right direction 12 as shown in the figure, the indication direction of the segment 72 is switched to four directions in conjunction with it, and the value of the element indicated by the segment 72 can be changed. Become. The rotation operation direction of the trackball 10 and the change instruction direction of the segment 72 coincide sensuously. This is the result of the calibration process described above.
[0053]
7A shows that the shutter time value can be changed. As shown in FIG. 7A, in the shutter priority mode S, the aperture value is automatically set. Therefore, in order to prevent contradiction, the display indicating that the segment 72A indicates the segment 71A should be impossible. Accordingly, the trackball 10 cannot be rotated to indicate the segment 71A, and the skip is automatically performed.
[0054]
FIG. 7C is a display example when the content of the shutter priority mode S is changed. FIG. 7D is an explanatory diagram of the content change operation of the shutter time S. When the segment 70B, which is the segment 70 indicating the shutter time, is indicated by the segment 72A as described above and the shutter time is to be changed, the track is displayed as shown in FIG. When the ball 10 is rotated in the vertical direction 11, the value of the shutter time changes. FIG. 7C shows a state when the shutter time is changed to 1/500 as shown as the segment 70B.
[0055]
In this shutter time change mode, it is linked only to the rotation of the trackball 10 in the vertical direction 11, but the rotation direction of the trackball 10 does not have to be strictly vertical, and the uppermost area 35U in FIG. The right side areas 35U-1, 35U-2, and 35U-3 are included so as to cope with rough operations of the photographer.
[0056]
Even when changing the exposure mode, aperture value, exposure correction value, etc., the trackball 10 may be rotated toward the corresponding segment, and the change in the value of each element and the direction of rotation of the trackball 10 are sensed. Operability is improved.
Next, FIG. 8 is an external view of a camera according to the second embodiment of the present invention. In the camera 1 of the second embodiment, a touch panel 65 is provided instead of the trackball 10. When the fingertip is touched on the surface of the touch panel 65 and moved in the vertical direction 11 and the horizontal direction 12, the indicated direction can be detected.
[0057]
As the detection method of the pointing direction by the touch panel 65, there are a switch method for mechanically detecting finger press, a method for electrostatically detecting by finger touch, and the like. In any case, as shown in the figure, the up-down direction 11 and the left-right direction 12 are inclined with respect to the outer shape of the camera 1, and there are individual differences in the degree of inclination.
The above-described manual operation correction method of the present invention can be similarly applied to the camera 1 adopting such a touch panel 65, and the same effect can be obtained.
[0058]
Next, the operation of the manual operation correction method of the present invention described above with reference to FIGS. 9 and 10 will be described. FIG. 9 is an operation flowchart of the embodiment of the present invention. FIG. 10 is an operation flowchart in the calibration mode.
The process shown in FIG. 9 is started when the battery is connected and the power switch is turned on by pressing the shutter button 3 (4) to the first stage, and is repeatedly executed while the power supply is maintained by the power timer or the like. The
[0059]
In FIG. 9, in S1, it is determined whether or not the calibration button 8 has been operated to instruct the calibration mode. If the calibration button 8 has been operated, the determination is affirmative (YES), the calibration mode process is executed in S2, and the process returns to S1. The calibration mode process of S2 will be described later (FIG. 10).
If the calibration button 8 is not operated in S1, the determination is negative (NO), and the process proceeds to S3. Various conditions set previously such as the setting conditions displayed on the display unit 5 are read from the MEM 58, and the process proceeds to S4.
[0060]
In S4, the subject luminance signal is fetched from the photometric sensor 50, the film sensitivity signal is fetched from the sensitivity detection circuit 53, and the process proceeds to S5.
In S5, the subject luminance signal and film sensitivity signal captured in S4 are calculated according to the various conditions read in S3 to calculate appropriate exposure conditions, and then the shutter time and aperture value are determined, and the results are displayed on the display 5. Display, and proceed to S6.
[0061]
In S6, the attitude sensor 9 determines the shooting attitude of the camera 1, and the process proceeds to S7. Note that the processing of S6 may be performed before S5, and the shooting posture of the camera 1 may be used as the condition for calculating the exposure condition.
[0062]
In S7, it is determined whether the switching state of the mode switch 7 is the AE mode (exposure mode) or the ranging mode. As described above, the display screen of the display 5 is as shown in FIG. 12 (FIG. 14) in the distance measurement mode and as shown in FIG. 6 in the exposure mode.
If it is not the AE mode in S7, that is, if it is the distance measuring mode, the determination is negative (NO), and the process proceeds to S8, whereas if it is the AE mode, the determination is affirmative (YES), and the process proceeds to S10.
[0063]
In S8, it is detected whether or not the trackball 10 is being operated. If it is being operated, the determination is affirmative (YES), each process of S9, S14, and S15 is performed, and the process proceeds to S16 to prepare for the release. On the other hand, if the trackball 10 is not operated, the determination is negative (NO), and the process directly proceeds to S16 to prepare for the release.
[0064]
In S9, S14, and S15, the following processing is executed. That is, the rotational operation direction and the amount of the trackball 10 are obtained and compared with the area division (see FIG. 5) stored in the MEM 58 to derive the operation direction that the photographer really wanted (S9). Then, the display content of the display 5 is changed according to the result (S14), and the result is updated and stored in the MEM 58 (S15).
[0065]
On the other hand, if it is determined in S7 that the AE mode is selected, it is detected in S10 whether or not the trackball 10 is being operated. If it is operated, the determination is affirmative (YES), and it is determined whether or not a change button (not shown) is pressed in S11.
If the change button has not been pressed, the determination in S11 is negative (NO), and the mode change processing described in FIGS. 7A and 7B is performed in S12. On the other hand, if the change button is pressed, the determination in S11 is affirmative (YES), and the condition change process described in FIGS. 7C and 7D is performed in S13. Then, the processing results of S12 and S13 are displayed and stored (S14, S15), and prepared for the release (S16).
[0066]
On the other hand, if the trackball 10 is not operated in S10, the determination is negative (NO), and the process proceeds directly to S16 to prepare for the release.
In S16, it is determined whether or not the shutter button 3 (4) is pressed deeply to the second stage and an exposure start command, that is, a release command is issued. If the shutter button 3 (4) is not pressed down to the second stage, the exposure operation is unnecessary, so the determination is negative (NO), the process returns to S1, and the above-described processing is repeated.
[0067]
On the other hand, if the shutter button 3 (4) has not been pressed down to the second stage in S16, the determination is affirmative (YES), the process proceeds to S17, and a predetermined exposure sequence is executed. That is, the aperture 61 is controlled to the predetermined value obtained in S5, the shutter 60 is opened for a predetermined time according to the value obtained in S5, and then the feeding motor 62 is driven to wind up the film by one frame. Then, the process returns to S1 to prepare for the next exposure.
[0068]
Next, the operation in the calibration mode described with reference to FIGS. 3 to 5 will be described with reference to FIG. In FIG. 10, in S <b> 20, “instruction display for holding the camera 1 horizontally” is performed on a predetermined segment provided on the display 5 so that the posture of the camera 1 is in the normal position. Since the attitude of the camera 1 can be determined by the attitude sensor 9, an appropriate warning is given if the instruction is not followed.
[0069]
When the camera 1 is horizontally supported, the ranging area 24A is continuously turned on (S21), and the ranging area 24E is blinked (S22). That is, the operation instruction shown in FIG. 3A is displayed.
In S23, it is monitored that the trackball 10 is rotated according to the instruction. When the trackball 10 is rotated according to the instruction, the determination in S23 is affirmative (YES), and the operation locus in the operation direction 30 shown in FIG. 3B is stored in the MEM 58 (S24).
[0070]
Thereafter, the operation trajectories in the eight rotation operation directions starting from the distance measurement area 24A are similarly stored, and the operation trajectories in the respective rotation operation directions starting from the distance measurement areas 24D and 20E are similarly stored.
Further, the distance measuring area 20A is continuously turned on (S25), the distance measuring area 24A is flashed (S26), and the operation locus is similarly stored in the MEM 58. Thereafter, the blinking ranging area is sequentially switched, and the operation locus for each is stored in the MEM 58.
[0071]
Finally, the distance measuring area 20E is flashed (S27), and similarly the rotation operation of the trackball 10 is monitored (S28). If the trackball 10 is rotated according to the instruction, the determination in S28 is affirmative (YES). The operation trajectory is stored in the MEM 58 (S29).
Then, the overlapping horizontal and vertical operation trajectories are combined into one operation trajectory by arithmetic mean or the like (S30), the boundary of the region is obtained using each operation trajectory (S31), and the 32 determinations shown in FIG. 5 are performed. Determine the area.
[0072]
Next, every other distance measurement area (20A, 20C, 20E, 22A, 22C, 22E, 24A, 24C, 24E) among the distance measurement areas located outside is blinked for a predetermined time (S32), and is in a horizontal state. Announce that the calibration at has been completed.
Since the photographer holds the camera 1 in the vertical position after seeing this notification, the photographer executes processing equivalent to the processing from S21 to S32 described above for the case where the camera 1 is held in the vertical position (S33).
[0073]
The above embodiment is an example applied to a camera. For example, when a mouse is operated on a so-called personal computer, if the manual operation correction device of the present invention is provided, an operator's operation habit can be corrected. Improves.
[0074]
[Effect of the invention ]
[0077]
According to the present invention, since an operator's operation habit is learned and corrected, an apparatus such as an imaging apparatus that is held by hand, an apparatus such as an imaging apparatus or a so-called personal computer, or a user whose posture of the user is not determined can be detected. Usability can be improved in devices that cannot be identified.
[Brief description of the drawings]
FIG. 1 is an external view of a camera according to a first embodiment of the present invention.
FIG. 2 is a configuration diagram of a camera according to an embodiment of the present invention.
FIG. 3 is an explanatory diagram of a display example and an operation procedure in a calibration mode.
FIG. 4 is a conceptual diagram of boundary line calculation.
FIG. 5 is a relationship diagram between a boundary line and a region sandwiched between the boundary line.
FIG. 6 is a diagram showing a display example regarding the exposure condition of the display device.
FIG. 7 is an explanatory diagram of a display example and an operation procedure in a change mode.
FIG. 8 is an external view of the camera according to the first embodiment of the present invention.
FIG. 9 is an operation flowchart according to the embodiment of the present invention.
FIG. 10 is an operation flowchart in a calibration mode.
FIG. 11 is an external view (normal position) of a camera according to an earlier application of the present inventors.
FIG. 12 is a diagram showing a display example of a distance measuring area of the display device.
FIG. 13 is an external view (vertical position) of a camera according to an earlier application of the present inventors.
FIG. 14 is a diagram illustrating a display example of a ranging area of a display device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Camera 3, 4 Shutter button 5 Indicator 7 Mode switch 8 Calibration button 9 Attitude sensor 10 Track ball 40A, 40B Roller 43A, 43B Photocoupler 45A, 45B Sector 55 Switch group 57 Central processing unit (CPU)
58 Memory (MEM)
65 Touch panel

Claims (8)

任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、
前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、
前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段とを備え
前記判定手段は、
互いに異なる複数の方向のそれぞれに関して前記表示及び前記判定を行い、
前記設定手段は、
前記複数の方向のそれぞれに関して前記判定手段が判定した複数の方向に基づいて前記設定を行う
ことを特徴とする手動操作補正装置。
An operation means that can be manually operated by the user in an arbitrary direction and moves a mark displayed in the display screen in accordance with the manual operation;
The display screen prompts the user to operate the operation means in a direction corresponding to one direction on the display screen, and the direction of the manual operation performed by the user in response to the display is displayed. Determination means for determining;
Based on the direction determined by the determination means, comprising a setting means for setting a relationship between the direction of the manual operation by the user and the movement direction of the mark by the operation means ,
The determination means includes
Performing the display and the determination for each of a plurality of different directions;
The setting means includes
The manual operation correction apparatus according to claim 1, wherein the setting is performed based on a plurality of directions determined by the determination unit with respect to each of the plurality of directions .
任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、
前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、
前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段とを備え、
前記設定手段は、
動操作補正装置が第1の姿勢である場合の前記関係と、前記手動操作補正装置が前記第1の姿勢とは異なる第2の姿勢である場合の前記関係とをそれぞれ設定する
ことを特徴とする手動操作補正装置。
An operation means that can be manually operated by the user in an arbitrary direction and moves a mark displayed in the display screen in accordance with the manual operation;
The display screen prompts the user to operate the operation means in a direction corresponding to one direction on the display screen, and the direction of the manual operation performed by the user in response to the display is displayed. Determination means for determining;
Based on the direction determined by the determination means, comprising a setting means for setting a relationship between the direction of the manual operation by the user and the movement direction of the mark by the operation means,
The setting means includes
Wherein said relationship when manual operation correction unit is a first position, said manual operation correction unit is respectively set and the relationship when a different second position from said first position A manual operation correction device.
請求項1又は請求項2に記載の手動操作補正装置において、
前記判定手段及び前記設定手段の動作が有効となる校正モードに前記手動操作補正装置を設定する校正モード設定手段をさらに備えた
ことを特徴とする手動操作補正装置。
In the manual operation correction device according to claim 1 or 2 ,
A manual operation correction apparatus, further comprising calibration mode setting means for setting the manual operation correction apparatus in a calibration mode in which the operations of the determination means and the setting means are valid.
請求項1〜請求項3の何れか一項に記載の手動操作補正装置において、
前記操作手段は、
前記手動操作により回転するボールと、前記ボールの回転方向を検出する検出手段とを備える
ことを特徴とする手動操作補正装置。
In the manual operation correction device according to any one of claims 1 to 3,
The operation means includes
A manual operation correction device comprising: a ball that rotates by the manual operation; and a detection unit that detects a rotation direction of the ball.
請求項1〜請求項3の何れか一項に記載の手動操作補正装置において、
前記操作手段は、
前記ユーザが接触可能な面と、前記面における接触点を検出する検出手段とを備える
ことを特徴とする手動操作補正装置。
In the manual operation correction device according to any one of claims 1 to 3,
The operation means includes
A manual operation correction apparatus comprising: a surface that can be contacted by the user; and a detection unit that detects a contact point on the surface.
任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、
前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、
前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段と
カメラが第1の姿勢で構えられた場合に操作される第1シャッターボタンと、
前記カメラが前記第1の姿勢とは異なる第2の姿勢で構えられた場合に操作される第2シャッターボタンとを備え、
前記設定手段は、
前記カメラが前記第1の姿勢で構えられた場合の前記関係と、前記カメラが前記第2の姿勢で構えられた場合の前記関係とをそれぞれ設定する
ことを特徴とするカメラ。
An operation means that can be manually operated by the user in an arbitrary direction and moves a mark displayed in the display screen in accordance with the manual operation;
The display screen prompts the user to operate the operation means in a direction corresponding to one direction on the display screen, and the direction of the manual operation performed by the user in response to the display is displayed. Determination means for determining;
Setting means for setting a relationship between the direction of the manual operation by the user and the moving direction of the mark by the operation means based on the direction determined by the determination means ;
A first shutter button operated when the camera is held in a first position;
A second shutter button operated when the camera is held in a second posture different from the first posture;
The setting means includes
A camera that sets the relationship when the camera is held in the first posture and the relationship when the camera is held in the second posture, respectively .
任意の方向にユーザが手動操作可能であって、表示画面内に表示されるマークを前記手動操作に応じて移動させる操作手段と、An operation means that can be manually operated by the user in an arbitrary direction and moves a mark displayed in the display screen in accordance with the manual operation;
前記表示画面上の1つの方向に対応する方向にユーザが前記操作手段を操作するように促す表示を前記表示画面に行わせ、前記表示に促されて前記ユーザが行った前記手動操作の方向を判定する判定手段と、  The display screen prompts the user to operate the operation means in a direction corresponding to one direction on the display screen, and the direction of the manual operation performed by the user in response to the display is displayed. Determination means for determining;
前記判定手段が判定した方向に基づいて、前記ユーザによる前記手動操作の方向と、前記操作手段による前記マークの移動方向との関係を設定する設定手段とを備え、  Setting means for setting a relationship between the direction of the manual operation by the user and the moving direction of the mark by the operation means based on the direction determined by the determination means;
前記判定手段は、  The determination means includes
互いに異なる複数の方向のそれぞれに関して前記表示及び前記判定を行い、  Performing the display and the determination for each of a plurality of different directions;
前記設定手段は、  The setting means includes
前記複数の方向のそれぞれに関して前記判定手段が判定した複数の方向に基づいて前記設定を行う  The setting is performed based on a plurality of directions determined by the determination unit for each of the plurality of directions.
ことを特徴とするカメラ。  A camera characterized by that.
請求項に記載のカメラにおいて、
前記カメラが前記第1の姿勢で構えられた場合の前記関係と、前記カメラが前記第2の姿勢で構えられた場合の前記関係とをそれぞれ区別して記憶する記憶手段を更に備えた
ことを特徴とするカメラ。
The camera according to claim 6 , wherein
The apparatus further comprises storage means for separately storing the relationship when the camera is held in the first posture and the relationship when the camera is held in the second posture. Camera.
JP24811196A 1996-01-05 1996-09-19 Manual operation correction device and camera Expired - Fee Related JP3918211B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP24811196A JP3918211B2 (en) 1996-09-19 1996-09-19 Manual operation correction device and camera
US08/777,324 US5832323A (en) 1996-01-05 1996-12-27 Information setting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24811196A JP3918211B2 (en) 1996-09-19 1996-09-19 Manual operation correction device and camera

Publications (2)

Publication Number Publication Date
JPH1097380A JPH1097380A (en) 1998-04-14
JP3918211B2 true JP3918211B2 (en) 2007-05-23

Family

ID=17173401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24811196A Expired - Fee Related JP3918211B2 (en) 1996-01-05 1996-09-19 Manual operation correction device and camera

Country Status (1)

Country Link
JP (1) JP3918211B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138185A (en) * 2009-12-25 2011-07-14 Nikon Corp Display device and electronic equipment
WO2012161223A1 (en) * 2011-05-25 2012-11-29 Necカシオモバイルコミュニケーションズ株式会社 Input device, input method, and program
JP5790203B2 (en) * 2011-06-29 2015-10-07 ソニー株式会社 Information processing apparatus, information processing method, program, and remote operation system
WO2014073403A1 (en) * 2012-11-08 2014-05-15 アルプス電気株式会社 Input device
JP6234283B2 (en) * 2014-03-12 2017-11-22 アルプス電気株式会社 Input device and vehicle operation device

Also Published As

Publication number Publication date
JPH1097380A (en) 1998-04-14

Similar Documents

Publication Publication Date Title
US8760555B2 (en) Display control apparatus, image pickup apparatus, display control method, and storage medium
US8203641B2 (en) Display processing apparatus and method, and recording medium
US20070115385A1 (en) Picture taking apparatus having focusing device
US7889246B2 (en) Photographing apparatus
US11477389B1 (en) Camera
JP2008268726A (en) Photographing device
US10778892B2 (en) Camera, setting method of camera, and setting program of camera
JP3918211B2 (en) Manual operation correction device and camera
JP6986918B2 (en) Electronic devices, control methods, programs, and storage media
JP2021047360A (en) Image capturing device
JP2020043472A (en) Imaging apparatus and control method thereof
JPH1078847A (en) Manual operation region specifying device
JP2003302685A (en) Camera
JP2007058226A (en) Camera
JP2010020250A (en) Lens barrel and optical instrument
JPH09185111A (en) Information setting device
JP2019169823A (en) Imaging apparatus
JPH09185097A (en) Information setting device
JPH1078597A (en) Information setting device for camera
JP2004080477A (en) Camera and display control method
JPH0876080A (en) Display device
JPH10148751A (en) Information input device for optical equipment
JP4135400B2 (en) Digital still camera
WO2019087942A1 (en) Operation device, and operation method and operation program therefor
JPH1090767A (en) Release operation device for camera

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees