[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH113249A - Operability evaluation support device - Google Patents

Operability evaluation support device

Info

Publication number
JPH113249A
JPH113249A JP15337497A JP15337497A JPH113249A JP H113249 A JPH113249 A JP H113249A JP 15337497 A JP15337497 A JP 15337497A JP 15337497 A JP15337497 A JP 15337497A JP H113249 A JPH113249 A JP H113249A
Authority
JP
Japan
Prior art keywords
voice
time
input
recorded
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15337497A
Other languages
Japanese (ja)
Inventor
Atsushi Horioka
篤史 堀岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP15337497A priority Critical patent/JPH113249A/en
Publication of JPH113249A publication Critical patent/JPH113249A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate the experiment of evaluation while securing the correspondence between the speech data and the action history of an examine by preparing an input means recording part and a speech recording part. SOLUTION: The operating results of an operator are inputted to an operating system 108 of an information evaluation device 105 of a personal computer, etc., as the character and coordinate information. An event recording part 114 monitors the data transferred between the system 108 and a user interface program 107 and stores the operations of a keyboard 102 and a mouse 103, i.e., the occurrence of events as an operation history or an event file. A microphone 104 collects the speech of the operator, and these collected speech is stored in a speech recording part 115 via a sound driver 112 and the system 108.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ウィンドウシステ
ムなどを使用した情報処理装置用ユーザインタフェース
の開発において、操作性の評価や設計の支援を行う操作
性評価支援装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operability evaluation support apparatus for evaluating operability and supporting design in developing a user interface for an information processing apparatus using a window system or the like.

【0002】[0002]

【従来の技術】パーソナルコンピュータ(以下、PCと
略す)などの高度情報処理装置の普及に伴い、主にハー
ドウェア性能であるプロセッサや記憶容量などの基本的
性能の高さだけでなく、主にソフトウェアによるマン・
マシン・インタフェース(以下、MMIと略す)の使い
易さが求められるようになってきた。ところが使い易い
MMIが望まれながらも、使い易いMMIを明示する方
法は曖昧であり、試行錯誤による繰り返し設計により開
発されているのが現状である。この繰り返し設計とは、
最初にMMIの設計を行い、次に試作し、その後に試作
した試作機を被験者に使わせて問題点を見つけ、次の設
計と開発はこの点を改良するように行い、その後の評価
では問題点が解決されたかどうかを確かめる方法であ
る。このような繰り返し設計においては、設計、試作、
評価のループが短いほどよく、実際の開発の現場では納
期などの時間的制約もあって、特に評価は素早く行うこ
とが望まれている。
2. Description of the Related Art With the spread of advanced information processing apparatuses such as personal computers (hereinafter abbreviated as PCs), not only the basic performances such as a processor and storage capacity, which are mainly hardware performances, but also Man & Software
There has been a demand for ease of use of a machine interface (hereinafter abbreviated as MMI). However, although an easy-to-use MMI is desired, the method of specifying the easy-to-use MMI is ambiguous, and the current situation is that it is being developed by repeated design through trial and error. What is this repetitive design?
First, the MMI was designed, then a prototype was produced, and then the prototype was used by the subjects to find problems, and the next design and development were performed to improve this point, and subsequent evaluations This is a way to check if the point has been resolved. In such repetitive design, design, prototype,
The shorter the evaluation loop, the better, and in actual development sites, there are time constraints such as delivery dates, and it is particularly desired that evaluation be performed quickly.

【0003】この評価では対象のMMIの問題点を効率
良く抽出することが最大の課題となる。被験者を用い
ず、評価の専門家が試作機を検査することにより問題点
を抽出する方法では、ヒューリスティク・エバリュエー
ション(HeuristicEvaluation)や
カグニティブ・ウォークスルー(CognitiveW
alkthrough)などの方法が提案されている
(例えば、J.Nielsenら:“Heuristi
c Evaluation of UserInter
face”,CHI’90 Conference P
roceedingsやC.Lewisら:“Test
ing a WalkthroughMonthodo
logy for Theory−Based Des
ign of Walk−up−and−Use In
terfaces”,CHI’90 Conferen
ce Proceedingsなど)。
In this evaluation, the most important issue is to efficiently extract the problem of the target MMI. In a method in which an evaluation expert examines a prototype without using a subject and extracts a problem, heuristic evaluation (Heuristic Evaluation) and cognitive walkthrough (CognitiveW) are used.
methods (eg, J. Nielsen et al .: “Heuristi).
c Evaluation of UserInter
face ", CHI'90 Conference P
rosedings and C.I. Lewis et al .: “Test
ing a WalkthroughMonthodo
logy for Theory-Based Des
Ign of Walk-up-and-Use In
terfaces ", CHI'90 Conferen
ce Proceedings).

【0004】しかし、最終的にはユーザを被験者として
実際に操作させて問題点を抽出せねばならず、このため
にはプロトコル解析という実験方法が通常用いられる。
これは、被験者に考えていることを自分で発話させなが
ら試作機を操作させ、この時得られた発話内容をデータ
として収集し、その後、行動と照らし合わせて操作中の
思考過程を調べることにより試作機の問題点を抽出、分
析するというものである。この実験方法は、実際のユー
ザを被験者に採用して実験が行えるため、ユーザのニー
ズを把握しやすいという長所があるが、発話データ採
取、聴きおこし、データの整理、情報抽出の手間がかか
ることと、データの解析は経験豊かな専門家が行う必要
があることなどが短所である。
[0004] However, ultimately, the problem must be extracted by actually operating the user as a subject, and an experimental method called protocol analysis is usually used for this purpose.
This is done by letting the test subject operate the prototype machine while uttering his / her own thoughts, collecting the utterance contents obtained at this time as data, and then examining the thinking process during the operation against the action. It is to extract and analyze the problems of the prototype. This experiment method has the advantage that it is easy to grasp the needs of the user because the experiment can be performed by using the actual user as the subject, but it takes time to collect and listen to the utterance data, organize the data, and extract information. The disadvantage is that data analysis must be performed by experienced experts.

【0005】実験の手順の概略は以下に示すようなもの
である。実験者はビデオカメラなどを用いて、被験者が
試作機を使用している状態を撮影し、同時に録音機を用
いて被験者の発話を記録してデータを収集する。もちろ
んビデオカメラで映像と発話音声とを同時に記録して構
わない。続いてデータの発話音声を文章に書き下し、被
験者の操作状態や試作機の動作状態ごとに文章を分割
し、それぞれの状態に対応させて整理してデータベース
を作成する。その後データベースを分析して、被験者が
誤操作を行った部分について発話データをチェックして
被験者の状態を調べたり、逆に操作が行き詰まったり操
作が解らないなどの発話データの存在する部分を見つ
け、対応するこの時の試作機の状態に問題点が含まれて
いるどうかをチェックするなどで、試作機の問題点を抽
出する。
[0005] The outline of the experimental procedure is as follows. The experimenter uses a video camera or the like to photograph the subject using the prototype, and simultaneously collects data by recording the utterance of the subject using a sound recorder. Of course, the video and the uttered voice may be simultaneously recorded by the video camera. Subsequently, the utterance voice of the data is written down into a sentence, the sentence is divided according to the operation state of the subject and the operation state of the prototype, and the database is created by organizing the sentence according to each state. The database is then analyzed to check the subject's status by checking the utterance data for the part where the subject performed erroneous operation, and to find the part where utterance data exists, such as the operation being stuck or the operation not being understood. Then, the problem of the prototype is extracted by checking whether or not the problem is included in the state of the prototype at this time.

【0006】前述したように、評価実験は素早く行わね
ばならないので、評価実験の作業を支援する装置が望ま
れている。発話データの処理装置として例えば特開平5
−189480号公報などがある。これは操作者(被験
者)の発話データだけでなく、操作者の質問としての発
話データとそれに答える教示者の回答としての発話デー
タをテキストに書き表して格納し、このデータを操作者
の動作と対応付けて表示し、実験者による解析の支援を
するものである。
As described above, since the evaluation experiment must be performed quickly, a device that supports the operation of the evaluation experiment is desired. For example, Japanese Patent Application Laid-Open No.
No. 189480. This stores not only the utterance data of the operator (subject) but also the utterance data as the operator's question and the utterance data as the answer of the teacher who answers it in text, and stores this data in correspondence with the operation of the operator. It is attached and displayed to assist the experimenter in the analysis.

【0007】また、動作の行われた時刻を検出せねばな
らないが、被験者の動作履歴を記録するためにビデオカ
メラなどを使用した場合は実験者が記録された映像をモ
ニタしながら測定するので正確な値を求めるのは困難で
ある上、その作業には長い時間を要する。これを解消す
るためには対話履歴作成装置などが考案されており、例
えば特開平2−41531号公報や特開平5−4059
3号公報などがある。これらは試作機自身にユーザの動
作を記録する機構を設けて自動的にデータ収集を行い、
後にそのデータを使って被験者の操作履歴を再現するこ
とにより誤操作部分を容易に発見できるようにしてい
る。
Further, the time at which the operation was performed must be detected. However, when a video camera or the like is used to record the operation history of the subject, the experimenter measures the recorded image while monitoring the recorded image. It is difficult to find a proper value, and the operation takes a long time. In order to solve this problem, a conversation history creation device and the like have been devised. For example, JP-A-2-41531 and JP-A-5-4059.
No. 3 publication. These are equipped with a mechanism to record the user's operation in the prototype itself and automatically collect data,
Later, by using the data to reproduce the operation history of the subject, it is possible to easily find the erroneous operation part.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上に示
した従来技術には実現する際に次のような問題点が含ま
れている。
However, the above-mentioned prior art has the following problems when it is realized.

【0009】まず、発話データ処理装置では、前記の従
来例は予め実験者が発話音声データを聴きながらテキス
トに書き下してデータを作成せねばならず、データベー
ス作成に手間がかかってしまうという問題があった。
First, in the utterance data processing apparatus, the above-mentioned conventional example has a problem that the experimenter must write down the text while listening to the utterance voice data in advance and create the data, which requires a lot of trouble in creating the database. Was.

【0010】また、試作機自身でユーザの動作履歴を記
録する装置を用いた場合、この装置単体で例えばキーボ
ード操作、マウス操作などのユーザの動作を収集するだ
けの場合は問題はないが、プロトコル解析に用いる場合
は被験者の発話データも記録する。分析時には被験者の
発話データと被験者の動作との対応をとることが困難
で、どの動作においてどの発話が行われたのかを簡単に
示すことができないという問題があった。
[0010] Further, when a device for recording a user's operation history is used by the prototype device itself, there is no problem in a case where the device alone collects only user operations such as a keyboard operation and a mouse operation. When used for analysis, utterance data of the subject is also recorded. At the time of analysis, it is difficult to correlate the utterance data of the subject with the motion of the subject, and there has been a problem that it is not possible to easily indicate which utterance was performed in which motion.

【0011】そこで本発明は、前記の問題点を解決し、
被験者の発話データと被験者の動作履歴とを対応付けな
がら、容易に評価実験のできる操作性評価支援装置を提
供することを目的とする。
Therefore, the present invention solves the above problems,
An object of the present invention is to provide an operability evaluation support device that can easily perform an evaluation experiment while associating utterance data of a subject with a motion history of the subject.

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
めに本発明の操作性評価支援装置は、キーボードやマウ
スなどの入力デバイス群と、イベント記録部と、音声収
録部と、処理部とからなり、オペレータが入力デバイス
で評価対象の機器を操作した場合、イベント記録部はそ
の操作が行われた時刻と入力デバイスの種類やその操作
内容などとからなるイベントを記録し、同時に音声収録
部はオペレータの発話音声を収録し、その収録が行われ
た時刻情報もイベント記録部に送信して、イベントとし
て記録し、処理部は得られたイベントなどの情報の表示
やその整理などを行うように構成したものである。
In order to achieve the above object, an operability evaluation support apparatus according to the present invention comprises an input device group such as a keyboard and a mouse, an event recording unit, a voice recording unit, and a processing unit. When the operator operates the device to be evaluated with the input device, the event recording unit records an event consisting of the time at which the operation was performed, the type of the input device, the operation content, and the like. Records the uttered voice of the operator, transmits the time information when the recording was performed to the event recording unit and records it as an event, and the processing unit displays and organizes the obtained information such as events. It is what was constituted.

【0013】これにより、被験者の発話データと被験者
の動作履歴とを対応付けながら、容易に評価実験のでき
る操作性評価支援装置が得られる。
Thus, an operability evaluation support device that can easily perform an evaluation experiment while associating the utterance data of the subject with the operation history of the subject is obtained.

【0014】[0014]

【発明の実施の形態】本発明は、少なくとも、入力手段
と、前記入力手段の操作状態を検出してその情報を格納
する入力手段記録部と、音声を記録する音声記録部とを
備える操作性評価支援装置としたものであり、前記入力
手段記録部は入力手段が操作された場合、その操作が行
われた時刻と前記入力手段の識別子とその操作方法とを
対応させて記録し、前記音声記録部は音声の入力があっ
た場合、その音声入力が行われた時刻と前記音声とを対
応させて記録するという作用を有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention relates to an operability comprising at least an input means, an input means recording section for detecting an operation state of the input means and storing the information, and a voice recording section for recording voice. When the input means is operated, the input means recording unit records the time when the operation is performed, the identifier of the input means, and the operation method in association with each other, and records the voice. When a voice is input, the recording unit has an operation of recording the time when the voice input is performed and the voice in association with each other.

【0015】以下、本発明の実施の形態について、図面
を用いて説明する。まず、図1は本発明の一実施の形態
における操作性評価支援装置の構成図である。102は
入力手段としてのキーボード、103は同じく入力手段
としてのマウスで、それぞれオペレータが操作を行うた
めのものである。オペレータの操作結果はこれらのデバ
イスよりそれぞれ文字情報や座標情報としてパーソナル
コンピュータなどの情報処理装置105に入力される。
情報処理装置105内には、ソフトウェアとしてのオペ
レーティングシステム108を動作させる。前述したキ
ーボード102やマウス103からの信号はそれぞれキ
ーボードドライバ110やマウスドライバ111を介し
てオペレーティングシステム108に入力される。オペ
レーティングシステム108上ではアプリケーションプ
ログラム106を動作させれば、情報処理装置105は
ワードプロセッサなどの装置として使用できるようにな
るが、オペレータが操作するキーボード102やマウス
103の操作結果、すなわち文字情報や座標情報そのま
まではアプリケーションプログラム106を操作するこ
とはできない。そこで、ユーザインタフェースプログラ
ム107を付け加え、操作結果をアプリケーションプロ
グラム106が実行することのできるコマンド体系に変
換する処理を行わせる。アプリケーションプログラム1
06からの処理結果はオペレーティングシステム108
を介して、ディスプレイドライバ109で映像信号に変
換されてディスプレイ101上に表示され、オペレータ
に対して可視情報として呈示される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, FIG. 1 is a configuration diagram of an operability evaluation support device according to an embodiment of the present invention. Reference numeral 102 denotes a keyboard as input means, and reference numeral 103 denotes a mouse as input means, which are operated by an operator. The operation results of the operator are input from these devices as character information and coordinate information to the information processing apparatus 105 such as a personal computer.
In the information processing apparatus 105, an operating system 108 as software is operated. The signals from the keyboard 102 and the mouse 103 described above are input to the operating system 108 via the keyboard driver 110 and the mouse driver 111, respectively. By operating the application program 106 on the operating system 108, the information processing device 105 can be used as a device such as a word processor. However, the operation result of the keyboard 102 and the mouse 103 operated by the operator, that is, character information and coordinate information The application program 106 cannot be operated as it is. Therefore, the user interface program 107 is added to perform a process of converting the operation result into a command system that can be executed by the application program 106. Application program 1
06 from the operating system 108
Is converted into a video signal by the display driver 109 and displayed on the display 101, and presented to the operator as visible information.

【0016】113は本発明の中心となる評価支援プロ
グラムであるが、これも原則的にオペレーティングシス
テム108上で実行させるものである。ここで入力手段
記録部としてのイベント記録部114はオペレーティン
グシステム108とユーザインタフェースプログラム1
07間のデータを監視し、キーボード102やマウス1
03などの操作があった(イベントが発生した)場合に
は、その旨を操作履歴(あるいは、イベントファイル)
として格納する。また、104はマイクロホンであり、
オペレータの発した音声を収録する。収録音声はサウン
ドドライバ112、オペレーティングシステム108を
介して発話音声記録部115に格納される。図面では簡
略にするために省略したが、実施時にはマイクロホン1
04からの出力はA/D変換器によりディジタル信号に
変換されてからサウンドドライバ112に出力されるよ
うにしている。
Reference numeral 113 denotes an evaluation support program which is the main component of the present invention, which is also executed on the operating system 108 in principle. Here, the event recording unit 114 serving as an input unit recording unit includes the operating system 108 and the user interface program 1.
Monitor data between the keyboard 102 and the mouse 1
If an operation such as 03 has been performed (an event has occurred), this is indicated in the operation history (or event file).
Stored as Reference numeral 104 denotes a microphone,
Record the voice of the operator. The recorded voice is stored in the uttered voice recording unit 115 via the sound driver 112 and the operating system 108. Although omitted in the drawings for simplicity, the microphone 1
The output from the device 04 is converted into a digital signal by an A / D converter and then output to the sound driver 112.

【0017】試作したプログラムの操作性を評価する場
合は、アプリケーションプログラム106およびユーザ
インタフェースプログラム107の部分を評価対象のプ
ログラムに置き換えて動作させることになる。
When evaluating the operability of the prototyped program, the application program 106 and the user interface program 107 are replaced with the program to be evaluated and operated.

【0018】図2はイベントファイルにおける操作履歴
の記録の例である。時刻とはイベントの発生した時刻、
すなわち操作の行われた時刻であり、ここではアプリケ
ーションプログラム106あるいは評価支援プログラム
113の実行開始時からの経過時間を1/10秒単位の
整数にして記録している。続いてウィンドウIDとは操
作の行われた対象のウィンドウの識別子であり、この番
号はウィンドウが作成される時点でオペレーションシス
テム108が割り付ける識別番号に相当する。イベント
とは操作デバイスとその方法の識別子で、続くパラメー
タと組み合わせてオペレータによる操作を表現する。
FIG. 2 shows an example of recording an operation history in an event file. Time is the time when the event occurred,
That is, the time at which the operation was performed. Here, the elapsed time from the start of execution of the application program 106 or the evaluation support program 113 is recorded as an integer in units of 1/10 second. Subsequently, the window ID is an identifier of a window on which an operation has been performed, and this number corresponds to an identification number assigned by the operation system 108 when the window is created. An event is an identifier of an operation device and its method, and expresses an operation by an operator in combination with a subsequent parameter.

【0019】例えば、WM_MOUSEMOVEとはマ
ウスが移動され、パラメータの0000はマウス移動時
のキーの状態をあらわし、440は移動先のX座標の
値、376は移動先のY座標の値を示している。同様に
WM_LBUTTONDOWNはマウスの左ボタンが押
されたイベント、WM_LBUTTONUPはマウスの
右ボタンが押されたイベントを表している。また、イベ
ントALOUDはマイクロホン104よりオペレータの
発話音声が入力された事を示すイベントで、この時のパ
ラメータ00000001は収録された発話音声を記録
したファイルの識別子である。従って、イベントファイ
ルにより、オペレータはいつ、どのような操作を行い、
いつ、どのような発話を行ったのかを知ることができ
る。発話音声が入力された事を示すイベントのパラメー
タとして入力音声をA/D変換したデータの時系列をそ
のまま記録しても構わないが、前述したように入力音声
は別なファイルとして格納し、そのファイル名等の識別
子を用い、識別子により音声ファイルのアドレスを参照
するようにすればイベントファイルの形式が煩雑になら
ないですむ。
For example, WM_MOUSEMOVE indicates that the mouse is moved, 0000 of the parameter indicates the state of the key when the mouse is moved, 440 indicates the value of the X coordinate of the movement destination, and 376 indicates the value of the Y coordinate of the movement destination. . Similarly, WM_LBUTTONDOWN indicates an event in which the left button of the mouse is pressed, and WM_LBUTTONUP indicates an event in which the right button of the mouse is pressed. The event ALOUD is an event indicating that the uttered voice of the operator has been input from the microphone 104, and the parameter 00000001 at this time is an identifier of a file in which the recorded uttered voice is recorded. Therefore, the event file allows the operator to perform
You can know when and what utterance was made. The time series of the data obtained by A / D conversion of the input voice may be recorded as the parameter of the event indicating that the uttered voice has been input. However, as described above, the input voice is stored as a separate file. If an identifier such as a file name is used and the address of the audio file is referred to by the identifier, the format of the event file does not need to be complicated.

【0020】また、イベント収録後には音声の内容を文
字列に変換してファイルを作成しておき、このファイル
名を識別子としてパラメータとして格納しておき、適宜
その文字列を表示するようにしておけば、後の解析にお
いて音声を再生してその内容を聞き取らなくてもその内
容を理解する事ができる。この時、音声の内容を文字列
に変換するには、実験者がその音声を聞き取って、文字
列として入力するが、音声から文字列への自動変換を行
う音声認識装置が利用できるならば、それを用いてもも
ちろん構わない。
After recording the event, a file is created by converting the audio content into a character string, the file name is stored as a parameter as an identifier, and the character string is displayed as appropriate. For example, the contents can be understood without reproducing the sound in the later analysis and listening to the contents. At this time, in order to convert the content of the voice to a character string, the experimenter listens to the voice and inputs it as a character string, but if a voice recognition device that performs automatic conversion from voice to a character string is available, Of course, you can use it.

【0021】なお、イベントは時刻順に収録、保存すれ
ば、オペレータの操作履歴をそのまま表現することにな
るので、後の解析において有効である。
Incidentally, if events are recorded and stored in chronological order, the operation history of the operator will be expressed as it is, which is effective for later analysis.

【0022】また、オペレータの発話音声収録に関して
であるが、アプリケーションプログラム106を実行さ
せ、オペレータの操作開始時より連続的に記録してお
き、結果として1個の連続した音声ファイルができてし
まっては、後に実験者がそのファイルを再生しながら発
話内容をテキストに書き起して一連の単位に分割してそ
れぞれに時刻情報を付与してデータ整理を行わねばなら
ず、これでは従来のプロトコル解析実験における作業と
殆ど変わらなくなってしまう。自動的に一定の長さごと
に音声を分割してそれぞれに時刻情報を付与してデータ
収集ができれば、大幅な作業の削減が見込める。
Regarding the recording of the utterance voice of the operator, the application program 106 is executed and recorded continuously from the start of the operation of the operator. As a result, one continuous voice file is generated. After that, the experimenter must transcribe the utterance contents into text while playing back the file, divide it into a series of units, add time information to each, and perform data reduction, which is a conventional protocol analysis It is almost the same as the work in the experiment. If the data can be collected by automatically dividing the voice into fixed lengths and adding time information to each voice, a significant reduction in work can be expected.

【0023】図3はオペレータの発話音声を分割しなが
らデータ収集を行う場合の発話音声記録部115の動作
を示したフローチャートであり、以下、図を参考しなが
らその処理を説明する。
FIG. 3 is a flow chart showing the operation of the utterance voice recording unit 115 when collecting data while dividing the utterance voice of the operator. The processing will be described below with reference to the drawings.

【0024】まず、二つの変数の初期化として、カウン
タ=0、T1=0を実行する(ステップ1、図ではS1
と示し、以下同様とする)。続いて現在入力されている
音声の振幅値を検出して、これが予め定められた値A以
上かどうかを調べる(ステップ2)。A以上であれば音
声が開始されたと判定し、音声データをファイルに記録
開始し(ステップ3)、この時の時刻をT1として保存
する(ステップ4)。もし振幅値がAに満たなかった場
合はステップ2を繰り返し、音声が開始するのを待機す
る。ステップ4の後、再び振幅値がA以上かどうかを調
べ(ステップ5)、カウンタ=0に保ちながら(ステッ
プ6)、音声の記録を続け(ステップ7)、音声の振幅
値がAよりも小さくなるまで続けられる。音声の振幅値
がAよりも小さくなった場合は音声が中断された可能性
がある。そこでカウンタの値を1だけ増加させ(ステッ
プ8)、カウンタの値がT_OFF(発音の区切りを決
定するための閾値)以上かどうかを調べる(ステップ
9)。ここでカウンタの値が予め決められた値T_OF
F未満であれば、まだ音声が中断されたとは確定せず、
ステップ7に戻って音声記録を続ける。
First, as initialization of two variables, counter = 0 and T1 = 0 are executed (step 1, S1 in the figure).
And the same shall apply hereinafter). Subsequently, the amplitude value of the currently input voice is detected, and it is checked whether or not the amplitude value is equal to or larger than a predetermined value A (step 2). If it is equal to or greater than A, it is determined that the sound has been started, and the recording of the sound data in the file is started (step 3), and the time at this time is stored as T1 (step 4). If the amplitude value is less than A, repeat step 2 and wait for the sound to start. After step 4, it is checked again whether the amplitude value is equal to or greater than A (step 5), and while the counter is kept at 0 (step 6), recording of the sound is continued (step 7), and the amplitude value of the sound is smaller than A. Continue until it becomes. If the amplitude value of the sound becomes smaller than A, the sound may have been interrupted. Therefore, the value of the counter is increased by 1 (step 8), and it is checked whether or not the value of the counter is equal to or greater than T_OFF (threshold value for determining a sound separation) (step 9). Here, the value of the counter is a predetermined value T_OF.
If it is less than F, it is not determined that the sound has been interrupted yet,
Return to step 7 and continue voice recording.

【0025】ステップ5において音声の振幅値がA未満
である状態が続くと、やがてステップ9においてカウン
タの値がT_OFF以上となる。この時、音声が終了し
たと確定し、音声記録を終了する(ステップ10)。こ
こで一定の時間長をもった音声のファイルが作成される
が、このファイルの音声長がDUR(予め定められたフ
ァイルの有効無効を決定する閾値)以上であるかどうか
を調べ(ステップ11)、DUR以上であれば、ステッ
プ4で記録しておいた音声開始時刻T1の情報を付与し
てファイルを格納して(ステップ12)、全処理を終了
する。ステップ11において音声長がDURに満たなか
った場合は、オペレータの言いよどみや咳払い、あるい
は周辺の雑音の可能性が高いのでこのファイルは破棄す
る(ステップ13)。
If the state where the amplitude value of the voice is less than A continues in step 5, the value of the counter eventually becomes equal to or greater than T_OFF in step 9. At this time, it is determined that the voice has ended, and the voice recording ends (step 10). Here, an audio file having a certain time length is created, and it is checked whether or not the audio length of this file is equal to or greater than DUR (a threshold value for determining validity / invalidity of a predetermined file) (step 11). , DUR or more, the information of the sound start time T1 recorded in step 4 is added and the file is stored (step 12), and the entire process is terminated. If the voice length is less than the DUR in step 11, this file is discarded because there is a high possibility of the operator's stagnation, coughing, or noise around (step 13).

【0026】この動作で用いられるさまざまな定数は、
本装置を動作させる環境などによって適当な値に変更・
調整するのが望ましい。すなわち、Aの値は暗雑音とオ
ペレータの発話音声とを区別するための閾値であるか
ら、オペレータが発話を行っていない時の入力音声レベ
ルよりも高く、オペレータの発話音声のレベルよりも低
い値になるよう設定する。また、T_OFFは発話の区
切りを決定するための閾値であり、この値が大きすぎる
と発話が分割されず、逆に小さすぎると発話音声にオペ
レータの息継ぎや話調のたて直しによる僅かな無音ごと
にファイルが分割されがちになる。また、DURもオペ
レータの発話の内、言いよどみや咳払いを取り除くため
の閾値であり、この値が大きすぎると、必要な発話デー
タが破棄されるし、逆に小さすぎると、不必要な音声デ
ータが多く保存されてしまい、後にこれらのデータを取
り除く作業が大変なものとなる。入力された一連の音声
情報の中から、音声開始位置と終了位置とを検出して、
オペレータの発話音声のみを保存する方法は、前記に説
明した方法に限らず、他の方法を使用しても構わない。
The various constants used in this operation are:
Change to an appropriate value depending on the environment in which the
It is desirable to adjust. That is, since the value of A is a threshold value for distinguishing between the background noise and the uttered voice of the operator, the value is higher than the input voice level when the operator is not speaking and lower than the level of the uttered voice of the operator. Set to be. T_OFF is a threshold value for determining an utterance break. If this value is too large, the utterance will not be divided. File tends to be divided every time. DUR is also a threshold value for eliminating stagnation and coughing out of the operator's utterance. If this value is too large, necessary utterance data is discarded. Conversely, if it is too small, unnecessary voice data is generated. A lot of data is stored, and the work of removing these data later becomes difficult. From a series of input audio information, a voice start position and an end position are detected,
The method of storing only the uttered voice of the operator is not limited to the method described above, and another method may be used.

【0027】また、前述の方法でデータを収録した後
に、記録された音声データの分割が希望通りにいかなか
った場合、すなわち、T_OFFの値が大きすぎた場合
などは、記録後の音声データに前述の方法を再実行して
ファイルを更新することも可能であるから、最初はAの
値を小さめ、T_OFFの値を大きめ、DURの値を小
さめにして、余裕をもって音声データを収録し、後に上
記の方法を再実行して、ファイルを分割するのも効果的
である。例えば、分割にあたって1つのファイルAをフ
ァイルB、ファイルCに分割した場合、ファイルBの音
声開始時刻はファイルAの音声開始時刻と同一なので、
そのまま値を代入すればよいが、ファイルCの音声開始
時刻は、ファイルAの音声開始時刻よりファイルBの長
さの時間だけ遅れた値を付与しなければならない。
If the recorded audio data is not divided as desired after the data has been recorded by the above-described method, that is, if the value of T_OFF is too large, the recorded audio data is recorded in the recorded audio data. Since it is also possible to update the file by re-executing the above method, first reduce the value of A, increase the value of T_OFF, decrease the value of DUR, record the audio data with a margin, and later It is also effective to split the file by re-executing the above method. For example, if one file A is divided into a file B and a file C for division, the audio start time of the file B is the same as the audio start time of the file A.
Although the value may be substituted as it is, the audio start time of the file C must be given a value delayed by the length of the file B from the audio start time of the file A.

【0028】なお、ファイルの分割は前述のように自動
的に行うのではなく、オペレータがマウスなどの入力装
置(図示せず)を操作して指定させるようにしても構わ
ない。
Note that the file may not be divided automatically as described above, but may be designated by an operator operating an input device (not shown) such as a mouse.

【0029】図4は情報記録部(図示せず)に記録され
た、前述の方法で収録したオペレータの操作履歴と発話
音声のデータとを表示する実施例の画面表示である。
FIG. 4 is a screen display of an embodiment for displaying an operator's operation history and speech voice data recorded by an information recording unit (not shown) recorded by the above-described method.

【0030】401は表示ウィンドウでこれを表示部と
してのディスプレイ101上に表示する。402は時刻
軸で、下方向に時刻の経過を示している。403、40
4はマウスムーブイベントの表示、405はマウス左ボ
タンダウンイベントの表示、406はマウス左ボタンア
ップイベントの表示、407は発話イベントの表示であ
る。408は発話文字列で、ここでは発話イベントの場
合、その発話の文字列を図のように表示させておく。こ
うすれば、操作中に被験者が発話で指摘した問題点など
を探し出すのに都合が良い。もちろん画面上が煩雑にな
るのが気になるならば、文字列を表示させず、文字列を
記録したアドレスへの識別子として適当な記号(図示せ
ず)だけを表示させ、オペレータより指示があった場合
のみ文字列が格納されたアドレスにアクセスして文字列
を表示させるようにしても良い。同様に発話音声を記録
したアドレスへの識別子として適当な記号(図示せず)
だけを表示させてもよい。
Reference numeral 401 denotes a display window, which is displayed on the display 101 as a display unit. Reference numeral 402 denotes a time axis, which indicates a lapse of time in a downward direction. 403, 40
4 is a display of a mouse move event, 405 is a display of a mouse left button down event, 406 is a display of a mouse left button up event, and 407 is a display of a speech event. Reference numeral 408 denotes an utterance character string. In the case of an utterance event, the utterance character string is displayed as shown in the figure. In this way, it is convenient to find out a problem or the like pointed out by the subject during the operation. Of course, if the screen is complicated, the character string is not displayed, and only an appropriate symbol (not shown) is displayed as an identifier to the address where the character string is recorded. In such a case, the character string may be displayed by accessing the address where the character string is stored. Similarly, an appropriate symbol (not shown) as an identifier for the address where the speech voice was recorded
May be displayed.

【0031】発話文字列408あるいは前記記号をマウ
スカーソル409で指定することにより、音声の格納さ
れたアドレスにアクセスして音声データを獲得し、これ
をD/A変換してスピーカ(図示せず)より相当する音
声データが出力されるようにすることも可能である。4
09はマウスカーソルで、オペレータはマウスでこのマ
ウスカーソル409をウィンドウ401で操作して操作
を行う。410はスクロールバーであり、マウスカーソ
ル409でこのスクロールバーの上下の三角印を指定す
ることにより、表示範囲を上下にスクロールさせる。
By designating the utterance character string 408 or the symbol with the mouse cursor 409, the address at which the voice is stored is accessed to obtain voice data, which is D / A converted, and a speaker (not shown) It is also possible to output more equivalent audio data. 4
Reference numeral 09 denotes a mouse cursor, and the operator operates the mouse cursor 409 in the window 401 using a mouse. A scroll bar 410 scrolls the display range up and down by designating the upper and lower triangles of the scroll bar with the mouse cursor 409.

【0032】以上のように、本実施の形態によれば、ソ
フトウェアの操作履歴再現と、オペレータの発音とを同
期して得られるので、操作性の問題点の抽出が容易にな
る。また、評価実験そのものも容易に行えるようにな
る。
As described above, according to the present embodiment, the reproduction of the operation history of the software and the sound generation of the operator can be obtained in synchronization with each other, so that the problem of the operability can be easily extracted. Also, the evaluation experiment itself can be easily performed.

【0033】[0033]

【発明の効果】以上詳細に説明したように、本発明によ
れば、オペレータの操作履歴が手軽に行えるため、機器
操作の問題点抽出が容易となり、操作性の評価実験の時
間を短縮し、開発コストを下げることができる。
As described above in detail, according to the present invention, since the operation history of the operator can be easily performed, the problem of equipment operation can be easily extracted, and the time required for the operability evaluation experiment can be shortened. Development costs can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態による操作性評価支援装置
の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of an operability evaluation support device according to an embodiment of the present invention.

【図2】同操作性評価支援装置の操作履歴を記録したイ
ベントファイルの例を示す概念図
FIG. 2 is a conceptual diagram showing an example of an event file in which an operation history of the operability evaluation support device is recorded.

【図3】同操作性評価支援装置の発話音声記録部の動作
を示したフローチャート
FIG. 3 is a flowchart showing the operation of an utterance voice recording unit of the operability evaluation support device.

【図4】同操作性評価支援装置のオペレータの操作履歴
と発話音声のデータとの表示部での表示例を示す画面構
成概念図
FIG. 4 is a conceptual diagram of a screen configuration showing a display example of an operation history of an operator and speech voice data on a display unit of the operability evaluation support device.

【符号の説明】[Explanation of symbols]

101 ディスプレイ 102 キーボード 103 マウス 104 マイクロホン 105 情報処理装置 106 アプリケーションプログラム 107 ユーザインタフェースプログラム 108 オペレーティングシステム 109 ディスプレイドライバ 110 キーボードドライバ 111 マウスドライバ 112 サウンドドライバ 113 評価支援プログラム 114 イベント記録部 115 発話音声記録部 Reference Signs List 101 display 102 keyboard 103 mouse 104 microphone 105 information processing device 106 application program 107 user interface program 108 operating system 109 display driver 110 keyboard driver 111 mouse driver 112 sound driver 113 evaluation support program 114 event recording unit 115 uttered voice recording unit

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 入力手段と、前記入力手段の操作状態を
検出してその情報を格納する入力手段記録部と、音声を
記録する音声記録部とを具備し、 前記入力手段記録部は入力手段が操作された場合、その
操作が行われた時刻と前記入力手段の識別子とその操作
方法とを対応させて記録し、 前記音声記録部は音声の入力があった場合、その音声入
力が行われた時刻と前記音声とを対応させて記録するこ
とを特徴とする操作性評価支援装置。
1. An input means, an input means recording unit for detecting an operation state of the input means and storing the information, and a voice recording unit for recording a voice, the input means recording unit comprising: Is operated, the time at which the operation is performed, the identifier of the input means, and the operation method are recorded in association with each other, and when the voice is input, the voice input is performed. An operability evaluation support apparatus for recording the time and the voice in association with each other.
【請求項2】 対応させて記録された前記操作が行われ
た時刻と前記入力手段の識別子とその操作方法と、対応
させて記録された前記音声入力が行われた時刻と前記音
声とは、それぞれの時刻の順に記録することを特徴とす
る請求項1記載の操作性評価支援装置。
2. The time recorded in correspondence with the operation, the identifier of the input means and the operation method thereof, and the time recorded in correspondence with the voice input and the voice, The operability evaluation support device according to claim 1, wherein the recording is performed in the order of the respective times.
【請求項3】 前記音声入力が行われた時刻と前記音声
を記憶したアドレスへの識別子とを対応させて記録する
ことを特徴とする請求項1記載の操作性評価支援装置。
3. The operability evaluation support device according to claim 1, wherein a time at which the voice input is performed and an identifier for an address at which the voice is stored are recorded in association with each other.
【請求項4】 前記音声の内容を文字列として表現し、
前記音声入力が行われた時刻と前記文字列を記憶したア
ドレスへの識別子とを対応させて記録することを特徴と
する請求項1記載の操作性評価支援装置。
4. The content of the voice is expressed as a character string,
The operability evaluation support device according to claim 1, wherein a time at which the voice input is performed and an identifier for an address at which the character string is stored are recorded in association with each other.
【請求項5】 前記音声記録部は、入力された音声の振
幅値があらかじめ定められた値を超えた場合に動作を開
始し、その時の時刻を上記音声入力が行われた時刻とし
て記録することを特徴とする請求項1記載の操作性評価
支援装置。
5. The voice recording section starts operation when the amplitude value of the input voice exceeds a predetermined value, and records the time at that time as the time at which the voice input was performed. The operability evaluation support device according to claim 1, wherein:
【請求項6】 前記音声記録部は、入力された音声の振
幅値があらかじめ定められた値を下回った状態が、あら
かじめ定められた時間を超えた場合に、動作を終了する
ことを特徴とする請求項1記載の操作性評価支援装置。
6. The operation of the sound recording unit is terminated when the state in which the amplitude value of the input sound falls below a predetermined value exceeds a predetermined time. The operability evaluation support device according to claim 1.
【請求項7】 分割手段を具備し、前記分割手段は、前
記音声を時間軸方向に2個以上の音声に分割し、分割さ
れた前記音声にはそれぞれの音声の先頭の時刻に対応す
る時刻をその音声入力が行われた時刻として前記音声と
を対応させて記録することを特徴とする請求項1記載の
操作性評価支援装置。
7. A dividing unit, wherein the dividing unit divides the voice into two or more voices in a time axis direction, and the divided voice includes a time corresponding to a leading time of each voice. 2. The operability evaluation support device according to claim 1, wherein a time when the voice input is performed is recorded in association with the voice.
【請求項8】 分割手段を具備し、前記分割手段は、前
記音声を時間軸方向に2個以上の音声に分割し、分割さ
れた前記音声にはそれぞれの音声の先頭の時刻に対応す
る時刻をその音声入力が行われた時刻として前記音声を
記録したアドレスへの識別子とを対応させて記録するこ
とを特徴とする請求項3記載の操作性評価支援装置。
8. A dividing unit, wherein the dividing unit divides the sound into two or more sounds in a time axis direction, and the divided sound has a time corresponding to a leading time of each sound. 4. The operability evaluation support device according to claim 3, wherein a time when the voice is input is recorded in association with an identifier of an address at which the voice is recorded.
【請求項9】 分割手段を具備し、前記分割手段は、前
記音声を時間軸方向に2個以上の音声に分割し、分割さ
れた前記音声にはそれぞれの音声の先頭の時刻に対応す
る時刻をその音声入力が行われた時刻として前記音声の
内容を表現した文字列を記録したアドレスへの識別子と
を対応させて記録することを特徴とする請求項4記載の
操作性評価支援装置。
9. A dividing unit, wherein the dividing unit divides the voice into two or more voices in a time axis direction, and the divided voice includes a time corresponding to a head time of each voice. 5. The operability evaluation support device according to claim 4, wherein a time when the voice input is performed is recorded in association with an identifier to an address where a character string expressing the content of the voice is recorded.
【請求項10】 前記分割を行う位置を指定する指定手
段を具備したことを特徴とする請求項7ないし9のいず
れかに記載の操作性評価支援装置。
10. The operability evaluation support device according to claim 7, further comprising a designation unit for designating a position at which the division is performed.
【請求項11】 前記分割手段は、入力された音声の振
幅値があらかじめ定められた値を下回った状態が、あら
かじめ定められた時間を超えた位置で分割を行うするこ
とを特徴とする請求項7ないし9のいずれかに記載の操
作性評価支援装置。
11. The apparatus according to claim 1, wherein the dividing unit performs the division at a position where a state in which the amplitude value of the input voice falls below a predetermined value exceeds a predetermined time. 10. The operability evaluation support device according to any one of 7 to 9.
【請求項12】 入力手段と、表示部と、情報記録部と
を具備し、前記情報記録部は、前記入力手段の操作が行
われた時刻と前記入力手段の識別子とその操作方法と、
音声の入力が行われた時刻と前記音声とを格納し、前記
表示部は前記時刻順に、前記入力手段の識別子とその操
作方法と、前記音声を記録したアドレスへの識別子とを
表示することを特徴とする操作性評価支援装置。
12. An input unit, a display unit, and an information recording unit, wherein the information recording unit includes a time when the operation of the input unit is performed, an identifier of the input unit, an operation method thereof,
The time when the input of the voice is performed and the voice are stored, and the display unit displays, in the order of the time, the identifier of the input unit, the operation method thereof, and the identifier to the address where the voice is recorded. Characteristic operability evaluation support device.
【請求項13】 前記情報記録部は、対応させて記録さ
れた前記操作が行われた時刻と前記入力手段の識別子と
その操作方法と、対応させて記録された前記音声入力が
行われた時刻と前記音声の内容を表現した文字列へのア
ドレスとを、それぞれの時刻の順に情報を格納し、前記
表示部は前記時刻順に、前記入力手段の識別子とその操
作方法と、前記音声の内容を表現した前記文字列を記録
したアドレスへの識別子とを表示することを特徴とする
請求項12記載の操作性評価支援装置。
13. The information recording unit according to claim 1, further comprising: a time at which the operation is recorded correspondingly; an identifier of the input means; an operation method thereof; and a time at which the voice input recorded correspondingly is performed. And an address to a character string expressing the content of the voice, information is stored in the order of each time, the display unit, in the time order, the identifier of the input means and its operation method, the content of the voice 13. The operability evaluation support device according to claim 12, wherein an identifier to an address at which the expressed character string is recorded is displayed.
【請求項14】 前記表示部は、前記時刻順に、前記入
力手段の識別子とその操作方法と、前記音声の内容を表
現した前記文字列とを表示することを特徴とした請求項
12記載の操作性評価支援装置。
14. The operation according to claim 12, wherein the display unit displays, in the order of the time, an identifier of the input unit, an operation method thereof, and the character string expressing the content of the voice. Sex evaluation support device.
JP15337497A 1997-06-11 1997-06-11 Operability evaluation support device Pending JPH113249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15337497A JPH113249A (en) 1997-06-11 1997-06-11 Operability evaluation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15337497A JPH113249A (en) 1997-06-11 1997-06-11 Operability evaluation support device

Publications (1)

Publication Number Publication Date
JPH113249A true JPH113249A (en) 1999-01-06

Family

ID=15561070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15337497A Pending JPH113249A (en) 1997-06-11 1997-06-11 Operability evaluation support device

Country Status (1)

Country Link
JP (1) JPH113249A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051876A (en) * 1999-08-09 2001-02-23 Fuji Xerox Co Ltd Usability evaluating device
JP2001166785A (en) * 1999-12-10 2001-06-22 Fujitsu Ltd Device and method for generating voice talk corpus
US6529747B1 (en) 1999-02-23 2003-03-04 Nec Corporation Open/close-type portable telephone
JP2008040560A (en) * 2006-08-01 2008-02-21 Sharp Corp Device and method for displaying history information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529747B1 (en) 1999-02-23 2003-03-04 Nec Corporation Open/close-type portable telephone
JP2001051876A (en) * 1999-08-09 2001-02-23 Fuji Xerox Co Ltd Usability evaluating device
JP2001166785A (en) * 1999-12-10 2001-06-22 Fujitsu Ltd Device and method for generating voice talk corpus
JP2008040560A (en) * 2006-08-01 2008-02-21 Sharp Corp Device and method for displaying history information

Similar Documents

Publication Publication Date Title
US6728680B1 (en) Method and apparatus for providing visual feedback of speed production
US5526407A (en) Method and apparatus for managing information
US8805929B2 (en) Event-driven annotation techniques
JP5685702B2 (en) Speech recognition result management apparatus and speech recognition result display method
KR20060128022A (en) Automated system and method for conducting usability testing
WO2007132690A1 (en) Speech data summary reproducing device, speech data summary reproducing method, and speech data summary reproducing program
JP2001014319A (en) Hypertext access device
JPH0651930A (en) Computer
WO2010024426A1 (en) Sound recording device
JP2013222347A (en) Minute book generation device and minute book generation method
Arons Interactively skimming recorded speech
JP2014222290A (en) Minute recording device, minute recording method, and program
JPH08286693A (en) Information processing device
JP3896760B2 (en) Dialog record editing apparatus, method, and storage medium
JPH06274533A (en) System and method for usage of voice search pattern at inside of multimedia presentation
JPH11259501A (en) Speech structure detector/display
JPH113249A (en) Operability evaluation support device
JPH0991928A (en) Method for editing image
JPH0482357A (en) Method for recording and retrieval and automatic recorder
US7353175B2 (en) Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user
JP2006251898A (en) Information processor, information processing method, and program
JPH08249343A (en) Device and method for speech information acquisition
JP3813132B2 (en) Presentation program and presentation apparatus
JPH08153118A (en) Speech data processor
JP4270854B2 (en) Audio recording apparatus, audio recording method, audio recording program, and recording medium