[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4449446B2 - In-vehicle device and data creation device - Google Patents

In-vehicle device and data creation device Download PDF

Info

Publication number
JP4449446B2
JP4449446B2 JP2003424922A JP2003424922A JP4449446B2 JP 4449446 B2 JP4449446 B2 JP 4449446B2 JP 2003424922 A JP2003424922 A JP 2003424922A JP 2003424922 A JP2003424922 A JP 2003424922A JP 4449446 B2 JP4449446 B2 JP 4449446B2
Authority
JP
Japan
Prior art keywords
scenario
data
condition
scene
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003424922A
Other languages
Japanese (ja)
Other versions
JP2005181196A (en
Inventor
智氣 窪田
和英 足立
孝二 堀
裕昭 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2003424922A priority Critical patent/JP4449446B2/en
Publication of JP2005181196A publication Critical patent/JP2005181196A/en
Application granted granted Critical
Publication of JP4449446B2 publication Critical patent/JP4449446B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載装置及びデータ作成装置に係り、例えば、車両の搭乗者とのコミュニケーションにより会話をしたり機器操作等を自律的に行うエージェント機能を実現する車載装置、及びそのデータ作成装置に関する。   The present invention relates to an on-vehicle device and a data creation device, and for example, relates to an on-vehicle device that realizes an agent function for performing conversations and autonomously performing device operations through communication with a vehicle occupant, and the data creation device.

例えば、犬などのペット型のロボットや、車室内においてナビゲーション装置等の機器操作の案内をしたり状況に応じた質問や提案等を行うことで搭乗者との対話や対応をするエージェント装置が開発され、車載装置として車両に搭載されている。
このような車載装置(エージェント装置)では、その装置に対して考えられる種々の状態を想定すると共に、想定した各状態を検出した場合にとるべき対応が、所定のデータやプログラムに従って規定されている。
しかし、従来のエージェント装置では、エージェントが自動で登場するための条件設定はプログラムを作成及び修正することでしか実現できなかったため、プログラムの知識が無いと作成や変更することができず、また、開発に費やす時間や費用も多く必要であった。
そこで、本出願人は、車載装置(エージェント装置)が行う各種処理を、各シーンが連続するシナリオを特定するシナリオデータ(一部プログラムを含む場合がある)によって指示された処理の実行であるととらえ、シナリオデータの形式を規格化することで、プログラムの知識の有無に関係なくシナリオデータを作成することができるデータ作成装置(シナリオエディタ)を提案している。
特願2002−161744
For example, pet-type robots such as dogs, and agent devices that interact with passengers by providing guidance on device operations such as navigation devices in the passenger compartment and asking questions and suggestions according to the situation have been developed. It is mounted on a vehicle as an in-vehicle device.
In such an in-vehicle device (agent device), various states conceivable for the device are assumed, and the actions to be taken when each assumed state is detected are defined according to predetermined data and programs. .
However, in the conventional agent device, since the condition setting for the agent to appear automatically can only be realized by creating and modifying the program, it cannot be created or changed without knowledge of the program, It took a lot of time and money for development.
Therefore, the applicant of the present invention considers that the various processes performed by the in-vehicle apparatus (agent apparatus) are execution of processes instructed by scenario data (which may include some programs) that specify a scenario in which each scene continues. In view of this, we have proposed a data creation device (scenario editor) that can create scenario data regardless of the knowledge of the program by standardizing the scenario data format.
Japanese Patent Application No. 2002-161744

このデータ作成装置では、キャラクタの表示内容や処理内容を定義した画面要素(シーン)を1画面要素とし、1画面要素から他の画面要素に推移する推移条件と共に複数の画面要素を組み合わせて構成した画面要素推移体(シナリオ)と、その画面要素推移体を実行するための起動条件を、順次選択及び入力することで、作成者は自分の好きな条件で好きなシーン展開をするシナリオデータを容易に作成することができるようになっている。
そして、車載装置では、作成されたシナリオデータを外部から取得して登録し、全ての起動条件に対して条件を満足したか否かを判断し、起動条件を満足したシナリオデータの画面要素推移体を実行するようになっている。
In this data creation device, a screen element (scene) defining character display content and processing content is defined as one screen element, and a plurality of screen elements are combined with transition conditions for transition from one screen element to another screen element. By selecting and entering the screen element transition body (scenario) and the activation conditions for executing the screen element transition body in order, the creator can easily create scenario data that develops the scenes of his / her favorite conditions. Can be created.
In the in-vehicle device, the created scenario data is acquired and registered from the outside, and it is determined whether or not the conditions for all the start conditions are satisfied, and the screen element transition body of the scenario data that satisfies the start conditions Is supposed to run.

このように、データ作成装置により、ダウンロード等により取得した第3者作成のシナリオデータやユーザが自分で作成したシナリオデータをエージェント装置に登録してシナリオデータを増やすことが可能になった。
そして、シナリオデータに含まれる起動条件についても画面要素推移体(シナリオ)と同様に自由に設定できるため、そのシナリオを実行する場面(条件)も多種多様にわたって設定される可能性がある。
As described above, the data creation apparatus can increase the scenario data by registering the scenario data created by a third party obtained by downloading or the like and the scenario data created by the user himself / herself in the agent apparatus.
Since the activation conditions included in the scenario data can be freely set in the same manner as the screen element transition body (scenario), there are possibilities that scenes (conditions) for executing the scenario are set in a wide variety.

しかし、従来のデータ作成装置で作成されるシナリオデータは、シナリオを実行するための条件部分(起動条件)を含む管理部分と、実行時の使用するシナリオデータの実体部分(画面要素推移体)とが常に一体に作成されていた。
このため、データサイズの大きなシナリオデータが一体として車載装置に記憶され、記憶領域が大きくなるという問題があった。
また、シナリオは、その起動条件に応じて、例えば、特定の年月日や、特定の地域に車両が存在する場合に起動されるシナリオも多数存在する。このため、実際には余り使用されないシナリオであっても、条件を満たす場合にそのシナリオを起動するためには車載装置の記憶媒体に保存する必要があり、記憶媒体の容量が大きくなるという問題がある。
車載装置に搭載されている記憶媒体の容量は限られているため、ダウンロードして登録できるシナリオの量には限度が有り、この限度を増やすには、車載装置に搭載されている記憶媒体の容量を増やさなければならなかった。
また、シナリオデータ数が増えるにしたがってエージェント装置側において、シナリオを自動で開始するための起動条件を満足したか否かの状況を判断する負荷が増加するという問題もあった。
However, scenario data created by a conventional data creation device includes a management part including a condition part (startup condition) for executing a scenario, and an actual part (screen element transition body) of scenario data used at the time of execution. Have always been made together.
For this reason, there is a problem that scenario data having a large data size is integrally stored in the in-vehicle device, and the storage area becomes large.
In addition, there are many scenarios that are activated in accordance with the activation conditions, for example, when a vehicle exists in a specific date or a specific area. For this reason, even if the scenario is not actually used, it is necessary to save it in the storage medium of the in-vehicle device in order to start the scenario when the condition is satisfied, and the capacity of the storage medium increases. is there.
Since the capacity of the storage medium installed in the in-vehicle device is limited, there is a limit to the amount of scenarios that can be downloaded and registered. To increase this limit, the capacity of the storage medium installed in the in-vehicle device is limited. Had to be increased.
In addition, as the number of scenario data increases, there is a problem in that the load on the agent device side for determining whether or not a start condition for automatically starting a scenario is satisfied increases.

本発明は上記課題を解決するためになされたもので、より少ない記憶容量でより多くの画面要素推移体を実行可能にすることを第1の目的とする。
また、画面要素推移体を実行するための起動条件の判断負荷を軽減することを第2の目的とする。
The present invention has been made to solve the above-described problems, and has as its first object to make it possible to execute more screen element transition bodies with a smaller storage capacity.
A second object is to reduce the determination load of the start condition for executing the screen element transition body.

(1)請求項1記載の発明では、画面表示と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データに対する、起動条件を記憶する起動条件記憶手段と、前記起動条件に対応する画面要素推移体データの保存先を管理する管理データを記憶する管理データ記憶手段と、前記起動条件を満たしたか否かを判断する条件判断手段と、前記条件判断手段で起動条件を満たしていると判断された場合、当該起動条件と関連付けて保存された前記画面要素推移体データを前記管理データに従い取得する取得手段と、前記取得した画面要素推移体データを実行する実行手段と、を備え、前記管理データ記憶手段には、前記管理データとして、前記起動条件に対応する画面要素推移体データが装置内に保存されているのか、装置外部に保存されているのかを示す情報が記録され、前記装置外部に保存されている画面要素推移体データの保存先を指定する保存先指定情報は、前記起動条件に関連付けて保存されている、ことを特徴とする車載装置を提供する。
(2)請求項記載の発明では、前記画面要素推移体データ毎にIDが付与されており、当該IDに対応する起動条件と保存先指定情報が紐付けられている、ことを特徴とする請求項1に記載の車載装置を提供する。
(3)請求項記載の発明では、前記起動条件は、年月日又は位置により分類されており、前記条件判断手段は、起動条件を満たしているか否かを前記分類に従って判断することを特徴とする請求項1は請求項に記載の車載装置を提供する。
(4)請求項記載の発明では、前記起動条件は、位置を条件に含む起動条件と含まない起動条件に分類され、更に、位置を条件に含む起動条件は、一定サイズに区分した領域単位で分類されており、前記条件判断手段は、前記位置を条件を含まない起動条件と、車両の現在位置に対応する領域に分類された起動条件を満たしたか否かを判断する、ことを特徴とする請求項1から請求項のうちのいずれか1の請求項に記載の車載装置を提供する。
(5)請求項記載の発明では、画面表示と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データに対する、起動条件を記憶する起動条件記憶手段と、画面表示と同期して車載装置で実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データを作成する作成手段と、前記画面要素推移体データを起動する起動条件を設定する起動条件設定手段と、前記起動条件に対応する画面要素推移体データが装置内に保存されているのか、装置外部に保存されているのかを示す情報が記録された管理データを設定する管理データ設定手段と、前記画面要素推移体データが装置外部のいずれの場所に保存されているかを示す保存先指定情報を、その起動条件と関連付けて設定する保存先情報設定手段と、を備えたことを特徴とするデータ作成装置を提供する。
(1) In the first aspect of the invention, a start condition storage means for storing a start condition for screen element transition body data configured by combining screen elements in which processing contents defined in synchronism with screen display are defined. Management data storage means for storing management data for managing the storage destination of the screen element transition body data corresponding to the activation condition, condition determination means for determining whether the activation condition is satisfied, and the condition determination means in case it is determined to satisfy the activation condition, an acquisition means for acquiring the screen element transition element data stored in association with the start condition in accordance with the management data, executes the screen element transition body data the acquired It includes execution means, and wherein the management data storage means, as said management data, screen element transition element data corresponding to the activation condition is stored in the device Runoka, information indicating whether stored on the outside of the device is recorded, the storage destination specifying information that specifies the storage destination of the screen element transition body data stored in the device outside, stored in association with the activation condition An in-vehicle device is provided.
(2) In invention of Claim 2 , ID is provided for every said screen element transition body data , The starting condition and preservation | save destination designation | designated information corresponding to the said ID are linked | related, It is characterized by the above-mentioned. An in-vehicle device according to claim 1 is provided.
(3) In the invention described in claim 3 , the activation conditions are classified by date or position, and the condition determining means determines whether the activation conditions are satisfied according to the classification. claim 1 or a provide a vehicle apparatus according to claim 2.
(4) In the invention according to claim 4 , the activation condition is classified into an activation condition that includes a position as a condition and an activation condition that does not include a position, and the activation condition that includes a position as a condition is an area unit divided into a certain size. And the condition determining means determines whether or not the position satisfies an activation condition that does not include a condition and an activation condition that is classified into an area corresponding to the current position of the vehicle. A vehicle-mounted device according to any one of claims 1 to 3 is provided.
(5) In the invention described in claim 5, the activation condition storage means for storing the activation condition for the screen element transition body data configured by combining the screen elements in which the processing contents executed in synchronization with the screen display are defined. And creation means for creating screen element transition body data configured by combining screen elements in which processing contents executed in the in- vehicle device are defined in synchronization with the screen display, and activation for starting the screen element transition body data Setting start condition setting means for setting a condition and management data in which information indicating whether screen element transition body data corresponding to the start condition is stored in the apparatus or stored outside the apparatus is set a management data setting means for said screen element transition body data storage destination specifying information that indicates whether the stored anywhere outside the device, set in association with the activation condition It provides data creation apparatus characterized by comprising: a storage destination information setting means.

本発明によれば、起動条件に対応する画面要素推移体データが装置内に保存されているのか、装置外部に保存されているのかを示す情報を管理データとして記憶すると共に、装置外部に保存されているデータ又はプログラムの保存先を指定する保存先指定情報が起動条件に関連付けて保存されているので、より少ない記憶容量でより多くのデータ又はプログラムを追加して実行することができる。 According to the present invention, information indicating whether the screen element transition body data corresponding to the activation condition is stored in the device or stored outside the device is stored as management data, and is stored outside the device. Since the storage destination designation information for designating the storage destination of the stored data or program is stored in association with the activation condition, more data or programs can be added and executed with a smaller storage capacity.

以下、本発明の車載装置の好適な実施形態であるエージェント装置、シナリオが記憶されるサーバ、及びデータ作成装置の好適な実施形態であるシナリオエディタについて、図1から図21を参照して詳細に説明する。   Hereinafter, an agent device that is a preferred embodiment of the in-vehicle device of the present invention, a server that stores a scenario, and a scenario editor that is a preferred embodiment of a data creation device will be described in detail with reference to FIGS. explain.

(1)実施形態の概要
本実施形態のエージェント装置では、所定の容姿からなるエージェント(キャラクタ)の画像(平面的画像、ホログラフィ等の立体的画像等)を車両内に表示する。そして、エージェント装置の機能である、センサ等の検出結果から周囲の状態(人の動きや音声を含む)を認識、判断し、その結果に応じた動作や音声を出力するという機能を、このエージェントの容姿の動きや音声と連動して実行する。例えば、「どのジャンルの食事がすきですか」等の回答(和食、洋食等)を要求する問かけを行い、この問いかけに対するユーザの回答内容を判別(回答音声の認識や、回答選択ボタンの選択から判別)して、次のシーンに応じた処理を実行する。このように、装置からの回答を要求する問いかけと、その回答に応じて、所定の操作の実行を開始するので、ユーザは、あたかも擬似人格を備えたエージェントが車両内に存在しているような体感をするようになる。以下の説明では、このようなエージェント装置の一連の機能の実行を、エージェントの行為や動作として説明する。
本実施形態のエージェント装置では、このエージェントに運転者との各種コミュニケーションや、操作の代行を行わせる。そしてエージェントが自律的に行う様々な行為(各行為)を複数のシナリオ(画面要素推移体)で構成する。
そして、エージェントによる一連の連続した行為の内容を規定した複数のシナリオデータと、各シナリオの展開を自律的に開始(起動)するための自律起動条件(起動条件)とにより規格化された形式で作成される。
(1) Outline of Embodiment In the agent device of the present embodiment, an agent (character) image (planar image, stereoscopic image such as holography) having a predetermined appearance is displayed in the vehicle. The agent device has a function of recognizing and judging the surrounding state (including human movement and voice) from the detection result of the sensor and the like, and outputting an action and voice according to the result. Executes in conjunction with the movement and voice of the appearance. For example, a question requesting an answer (Japanese food, Western food, etc.) such as “Which genre do you like to eat” is performed, and the content of the user's answer to this question is determined (recognition of answer voice and selection of answer selection button) And the process corresponding to the next scene is executed. In this way, since the inquiry requesting an answer from the apparatus and the execution of the predetermined operation is started in response to the answer, the user seems to have an agent with a pseudo personality in the vehicle. Come to experience. In the following description, execution of a series of functions of such an agent device will be described as an agent action or operation.
In the agent device of the present embodiment, this agent performs various communications with the driver and substitution of operations. And various actions (each action) autonomously performed by the agent are composed of a plurality of scenarios (screen element transition bodies).
In a format standardized by a plurality of scenario data that defines the contents of a series of consecutive actions by agents and autonomous activation conditions (activation conditions) for autonomously starting (activating) the deployment of each scenario. Created.

シナリオデータは、シーン(画面要素)を最小単位として、1又は連続する複数のシーンで構成される。自律的に行う処理内容とエージェントの画像及び音声の少なくとも1つから構成される場面が1シーンである。
シナリオデータは、所定のシーンから次のシーンに移行するための1の移行条件(推移条件)又は複数の移行条件(分岐条件(複数の状態が発生する場合の各状態毎へのシーンの移行するための条件))と、各移行条件に対応して移行先のシーンを特定する移行先データとから、各シーンの展開構成が規定されている。
The scenario data is composed of one or a plurality of continuous scenes with a scene (screen element) as a minimum unit. A scene composed of at least one of autonomously processed content and agent image and sound is one scene.
Scenario data includes one transition condition (transition condition) for transitioning from a predetermined scene to the next scene or a plurality of transition conditions (branching conditions (transition of scenes for each state when a plurality of states occur). The development configuration of each scene is defined from the conditions for) and the transfer destination data for specifying the transfer destination scene corresponding to each transfer condition.

このように構成された各シナリオは、自律起動条件とは分離されてネット接続された1又は複数のサーバや、ホームページ等の所定のアドレスに保存される。
各シナリオの保存先を示す保存先指定情報としては、URL(Uniform Resource Locator)により、インターネット上のリソースが指示される。
なお、シナリオ作成装置は、シナリオデータの保存先URLの指定及び、起動条件の年月日と位置情報による分類を、シナリオとその起動条件の作成が完了し、エージェント装置で実行可能な形式に変換する際に行う。
Each scenario configured as described above is stored in a predetermined address such as one or a plurality of servers connected to the Internet separated from the autonomous activation condition, or a homepage.
As storage destination designation information indicating the storage destination of each scenario, a resource on the Internet is designated by a URL (Uniform Resource Locator).
The scenario creation device converts the designation of the scenario data storage URL and the classification based on the date and location information of the activation condition into a format that can be executed by the agent device after the creation of the scenario and its activation condition is completed. When you do.

各シナリオを自動的に実行するための自律起動条件は、年月日、時間、位置、道路種別、車両状態、ナビゲーション装置の稼動状態、使用者データによる個別条件の論理積(論理和を含まない個別条件の組)に展開されている。そして、論理積から成る自律起動条件は、所定の個別条件である年月日と位置でソートすることでグループ化(分類)されている。位置については、一定サイズに区分した領域(メッシュ)単位で分類されている。本実施形態では、年、月、日、一次メッシュ、二次メッシュの順に下位となるように分類されている。
すなわち、最初に、年による条件の中から自動で開始する条件(個別条件)が同じ年のものがグループ化され、次に日付(月日)による条件の中から自動で開始する条件が同じ日付(月日)のものがグループ化され、次に位置に関する自動で開始する条件で大きい領域(1次メッシュ)に入るものがまとめてグループ化され、最後に1次メッシュの中でさらに切り分けた小領域(2次メッシュ)に入るものがまとめてグループ化されている。
なお、年、日付、位置の条件を含まないものも、該当条件がないものに分類されている。例えば、年月日の条件がなく位置の条件がある自律起動条件の場合、年条件無しという分類内の、日付条件無しという分類内に、その位置に応じた1次メッシュ、2次メッシュに分類されている。
Autonomous activation conditions for automatically executing each scenario are the logical product of the individual conditions based on the date, time, position, road type, vehicle status, navigation device operating status, and user data (not including logical sum) It is expanded to a set of individual conditions. And the autonomous starting conditions which consist of a logical product are grouped (classified) by sorting by the date and time which are predetermined individual conditions. The positions are classified by area (mesh) divided into a certain size. In the present embodiment, the classification is made in the order of year, month, day, primary mesh, and secondary mesh.
That is, first, the conditions that start automatically from the conditions by year (individual conditions) are grouped, and then the conditions that start automatically from the conditions by date (month and day) are the same date (Months and days) are grouped, then those that enter a large area (primary mesh) under the automatic start condition for the next position are grouped together, and finally small pieces further separated in the primary mesh Those that fall in the region (secondary mesh) are grouped together.
Note that those that do not include the year, date, and location conditions are also classified as those that do not have the applicable conditions. For example, in the case of an autonomous activation condition that has a position condition without a year / month / day condition, it is classified into a primary mesh and a secondary mesh according to the position within the classification with no date condition and the classification with no date condition. Has been.

各シナリオデータについての分類された自律起動条件には、シナリオデータの保存先を示すURL(保存先指定情報)と関連付けて設定される。
そして、各シナリオの自律起動条件は、シナリオから分離され、起動条件とシナリオが保存されたURLとが、インターネットやメール、所定の記憶媒体等を介してエージェント装置で取得され、記憶されることになる(起動条件記憶手段)。
The classified autonomous activation conditions for each scenario data are set in association with a URL (save destination designation information) indicating the save destination of the scenario data.
The autonomous activation conditions for each scenario are separated from the scenario, and the activation condition and the URL storing the scenario are acquired and stored in the agent device via the Internet, mail, a predetermined storage medium, or the like. (Start condition storage means)

一方、エージェント装置のユーザ等は、規定された規格に従った独自のシナリオデータを、シナリオ作成装置を使用して作成する。シナリオ作成装置は、シナリオ編集プログラムやデータをパーソナルコンピュータにインストールすることで構成することができる。
作成したシナリオデータは、インターネット等のネットワークを介してエージェント装置に送信し、又はダウンロードしてもらうことにより、また、所定の半導体メモリを介してエージェント装置に格納することで、自己(第三者)の希望通りの行為(コミュニケーションや処理)をエージェントに行わせることが可能になる。
作成するシナリオの最初のシーンに、例えば、人間に対する回答を要求する問いかけのシーンのシナリオとすることができる。
On the other hand, the user of the agent device creates unique scenario data according to the defined standard using the scenario creation device. The scenario creation device can be configured by installing a scenario editing program and data in a personal computer.
The created scenario data is transmitted to the agent device via a network such as the Internet, or downloaded, or stored in the agent device via a predetermined semiconductor memory. It is possible to make an agent perform the desired action (communication and processing).
The first scene of the scenario to be created can be, for example, a scenario of a question scene that requires an answer to a human being.

そして、独自に作成したシナリオデータを、インターネット等の通信によりサーバ等にURLを指定して保存することが可能である。
一方、作成したシナリオデータに対応する起動条件とシナリオデータの保存先URLは、外部の装置から入力装置を介して入力することが可能である。この場合の入力装置は、半導体メモリに追加する起動条件とURLが格納されている場合には、半導体メモリの内容を読みとる記憶媒体駆動装置が該当し、インターネット等のネットワークを介して特定のサーバ等からダウンロードする場合には通信制御装置が該当する。
Then, it is possible to store the uniquely created scenario data by specifying a URL in a server or the like by communication such as the Internet.
On the other hand, the activation condition corresponding to the created scenario data and the save destination URL of the scenario data can be input from an external device via the input device. The input device in this case corresponds to a storage medium drive device that reads the contents of the semiconductor memory when the activation condition and URL to be added to the semiconductor memory are stored, and a specific server or the like via a network such as the Internet. In the case of downloading from, the communication control device corresponds.

エージェント装置は、メール、ブラウザソフトを備えることにより、ブラウザソフト等を使ってシナリオの起動条件とURLをダウンロードし、そのダウンロードしたファイルがエージェントを機能させるシナリオデータの起動条件とURLであるか否かを判断し、起動条件とURLであれば所定の場所に組み込んで使用できるようにする。
また、メールに添付されている場合も同様に、添付のファイルが起動条件とURLであるか否か判断し、そうであればエージェントシステムに組み込んで使用できるようにする。
これにより従来の手法以外にも、既存の通信インフラであるメール、ネットワーク等を使った通信とを使用することにより、また、半導体メモリ等を介することで、パーソナルコンピュータ等を使用して作成した独自のシナリオの起動条件とURLを追加することができるようになる。
このように、ユーザは自分の思い通りにエージェントを機能させるシナリオを独自にまた、容易に作成ことが可能になるので、エージェント装置の自律的な動作に対する抵抗がなくなる。
The agent device is provided with mail and browser software to download the scenario start condition and URL using the browser software or the like, and whether or not the downloaded file is the scenario data start condition and URL for causing the agent to function If the activation condition and the URL are included, it can be incorporated into a predetermined place and used.
Similarly, when attached to an e-mail, it is determined whether or not the attached file is an activation condition and a URL, and if so, it is incorporated into the agent system and can be used.
As a result, in addition to the conventional method, the original communication infrastructure was created using a personal computer or the like by using the existing communication infrastructure such as mail or communication using a network, or via a semiconductor memory or the like. It becomes possible to add the activation condition and URL of the scenario.
In this way, the user can easily and independently create a scenario for causing the agent to function as he / she desires, thereby eliminating resistance to the autonomous operation of the agent device.

さらに、エージェント装置では、シナリオ作成装置で作成されたシナリオデータに基づいてエージェントを自律的に起動させる(自動で登場させる)条件を満たしたかを判断する処理を定期的にもしくは特定の状態を満たしたときに実行し、条件を満たした場合にエージェントを自動で登場させることができるシステムを少ない記憶容量で実現する。   Furthermore, the agent device fulfills the process of determining whether the condition for autonomously starting (automatically appearing) the agent based on the scenario data created by the scenario creation device is satisfied or meets a specific state A system that can be executed occasionally and can automatically make agents appear when the conditions are met is realized with a small storage capacity.

すなわち、シナリオをエージェント装置で実行可能にする場合、シナリオを実行するための自律起動条件とURLを含む集録シナリオ管理データのみをダウンロード等により取得して存する。
そして、エージェント装置では、自律起動条件を満たしたか否かを監視し、自律起動条件を満たした場合、その自律起動条件に対応するシナリオデータ(シナリオ本体)を、自律起動条件に関連付けられたURLで指定される保存先からダウンロードして一時記憶し(画面要素推移体取得手段)、取得したシナリオを実行する。
シナリオの自律起動条件は、条件部分の現在位置と日付から必要な部分を高速アクセスが可能な記憶媒体(例えば、RAM)に読み込み、実行判定を行なう。
実行判定の結果、シナリオ実行要求を発行された場合、シナリオデータが存在するサーバのURLを使ってサーバからシナリオデータをダウンロードする処理を行ない、ダウンロードが完了したら実行する。
That is, when a scenario can be executed by an agent device, only acquisition scenario management data including an autonomous activation condition and URL for executing the scenario is obtained by downloading or the like.
Then, the agent device monitors whether or not the autonomous activation condition is satisfied, and when the autonomous activation condition is satisfied, the scenario data (scenario main body) corresponding to the autonomous activation condition is represented by the URL associated with the autonomous activation condition. Download from the designated storage location and temporarily store it (screen element transition body acquisition means), and execute the acquired scenario.
As the autonomous activation condition of the scenario, a necessary portion is read from a current position and date of the condition portion into a storage medium (for example, RAM) that can be accessed at high speed, and execution is determined.
When a scenario execution request is issued as a result of the execution determination, the scenario data is downloaded from the server using the URL of the server where the scenario data exists, and is executed when the download is completed.

このように、ナビゲーション装置では、自律起動条件とURLを含む集録シナリオ管理データを記憶し、シナリオデータ(シナリオ本体)は実行する際に保存先のURLからダウンロードして実行するので、同等の実行可能なシナリオ数(機能)であっても、車載装置に搭載する記憶媒体の容量を少なくすることができる。   As described above, the navigation device stores the acquisition scenario management data including the autonomous activation condition and the URL, and the scenario data (scenario main body) is downloaded and executed from the URL of the storage destination at the time of execution. Even if the number of scenarios (functions) is large, the capacity of the storage medium mounted on the in-vehicle device can be reduced.

また、エージェントを自動で登場させる条件判断部で、地点による条件を含んだ開始条件のシナリオは、例えば自分の居る地点が存在するエリア(メッシュ)とその隣のメッシュのみ自動で開始するか否かの判断をする。地点による条件を含まないものは常に自動で開始するか否かの判断をする。自車位置が移動して自分の居る位置が隣のメッシュに移動した場合は、新たに自動で開始する条件を取得しなおす。つまり自分が居る地点が存在するメッシュとその隣のメッシュを取得しなおす。これにより自車位置が東京の場合には、札幌に居る場合という条件が含まれているシナリオや福岡に居る場合という条件が含まれているシナリオ(常識的に考えて自動で開始しえないシナリオ)は、はじめから判断しないことになり負荷は軽くなる。   In addition, in the condition determination unit that automatically makes an agent appear, the scenario of the start condition including the condition depending on the point is, for example, whether or not only the area (mesh) where the point is located and the adjacent mesh are automatically started. Judgment. It is always determined whether or not to automatically start those that do not include a point condition. When the position of the vehicle moves and the position where the vehicle is located moves to the adjacent mesh, a new automatic start condition is acquired again. In other words, the mesh where the point where you are and the mesh next to it are acquired again. As a result, when the vehicle is located in Tokyo, a scenario that includes the condition of being in Sapporo or a scenario that includes the condition of being in Fukuoka (a scenario that cannot be started automatically based on common sense) ) Is not judged from the beginning, and the load is reduced.

また他にも、日付による条件を含んだ開始条件のシナリオは、例えば当日及び翌日のみ自動で開始するか否かの判断をする。日付による条件を含まないものは常に自動で開始するか否かの判断をする。これにより日付が12月24日の場合は、当日である12月24日と、翌日である12月25日という条件が含まれているシナリオ以外の日付に関する条件が含まれているシナリオ(常識的に考えて自動で開始しえないシナリオ)は、はじめから判断しないことになり負荷は軽くなる。
本実施形態では、このシナリオの自律起動条件を満たすか否かを判断する場合、自律起動条件が年月日及び位置により分類されているので、判断している当日及び翌日に分類され、かつ、その分類内で、車両現在位置を含む一次メッシュとその隣接メッシュ内に分類されている自律起動条件のみを読み込み、条件を満たしたか否かの判断を行う。
In addition, in the scenario of the start condition including the condition based on the date, for example, it is determined whether to start automatically only on the current day and the next day. For those that do not include a date condition, it is always determined whether to start automatically. As a result, when the date is December 24, a scenario including a condition related to a date other than the scenario including the condition of December 24 which is the current day and December 25 which is the next day (common sense The scenario that cannot be started automatically) is not judged from the beginning and the load is reduced.
In this embodiment, when determining whether or not the autonomous activation condition of this scenario is satisfied, since the autonomous activation condition is classified by date and position, it is classified on the current day and the next day, and Within the classification, only the primary mesh including the vehicle current position and the autonomous activation conditions classified in the adjacent mesh are read, and it is determined whether or not the conditions are satisfied.

(2)実施形態の詳細
図1は、エージェント装置とシナリオ作成装置及びサーバからなる全体のシステム構成を表したものである。
このシステムでは、シナリオ作成プログラムであるシナリオエディタを組み込んだシナリオ作成装置(コンピュータ)2(2a、2b、…)と、例えばインターネット等のネットワークを介してシナリオを配信するサーバ3(A、B、…)と、エージェント装置1との構成の一例を示したものである。
シナリオ作成装置2は、ユーザ又は第三者であるシナリオデータ作成者の操作によって、シナリオ作成プログラムに従って指定された規格でシナリオデータが作成される。
(2) Details of Embodiment FIG. 1 shows an overall system configuration including an agent device, a scenario creation device, and a server.
In this system, a scenario creation device (computer) 2 (2a, 2b,...) Incorporating a scenario editor, which is a scenario creation program, and a server 3 (A, B,. ) And an example of the configuration of the agent device 1.
The scenario creation device 2 creates scenario data according to a standard specified in accordance with a scenario creation program by an operation of a scenario data creator who is a user or a third party.

シナリオ作成者は、所定形式のシナリオデータを、例えば、シナリオエディタを使用してシナリオ作成装置2aで作成し、シナリオ本体と集録シナリオ管理データとを分離して、又は一体としてホームページに掲載し(サーバ3Aにアップロードし)、エージェント装置1を持ったユーザからダウンロード可能にする。エージェント装置1では、シナリオ本体と集録シナリオ管理データとが分離している場合には、集録シナリオ管理データを一括してダウンロードして情報記憶装置に格納しておき、シナリオ本体は対応する自律起動条件が満たされて実行する際に個別にダウンロードされた一時記憶される。
シナリオ作成装置2からアップロードするサーバはサーバ3Aに限定されるものでなく、シナリオ作成者が契約しているプロバイダ等インターネット上のどのサーバ3A、3B、…でもよい。また、別のシナリオ作成者が、シナリオ作成装置2bで作成し、ホームページに掲載してサーバBにアップロードし、エージェント装置1を持ったユーザからダウンロード可能にする。
このように、さまざまなシナリオ作成者が、さまざまなサーバに自身の作成したシナリオをアップロードする。
エージェント装置1のユーザは、エージェント装置1のブラウザを使用して、サーバ3群(A、B、…)の中から、自分が欲しいと思うシナリオをブラウズし、気に入ったシナリオがあればダウンロードし、装置内に組み込むことで、ダウンロードしたシナリオデータをエージェント装置1で動作させることが可能になる。
The scenario creator creates scenario data in a predetermined format with the scenario creation device 2a using, for example, a scenario editor, and separates the scenario main body and the acquired scenario management data or publishes them as a unit on the homepage (server 3A) and downloadable from the user who has the agent device 1. In the agent device 1, when the scenario body and the acquisition scenario management data are separated, the acquisition scenario management data is downloaded in a lump and stored in the information storage device. Is downloaded and temporarily stored when it is executed.
The server uploaded from the scenario creation device 2 is not limited to the server 3A, and may be any server 3A, 3B,... On the Internet, such as a provider contracted by the scenario creator. Further, another scenario creator creates the scenario with the scenario creation device 2b, posts it on the homepage, uploads it to the server B, and makes it downloadable from the user who has the agent device 1.
In this way, various scenario creators upload their created scenarios to various servers.
The user of the agent device 1 uses the browser of the agent device 1 to browse the scenario he / she wants from the server 3 group (A, B,...), Downloads the scenario he / she likes, By incorporating it into the device, the downloaded scenario data can be operated on the agent device 1.

また、エージェント装置1のユーザは、自身が持っているシナリオ作成装置2aのブラウザを使用して、サーバ3(A、B、…)の中から、自分が欲しいと思うシナリオをブラウズし、ダウンロードしてもよい。
この場合、DVD−ROM、ICカード等の半導体記憶装置その他の記憶媒体に、ダウンロードしたシナリオデータを格納して、エージェント装置1に受け渡す。そして、シナリオデータを受け取ったエージェント装置1では、記憶媒体駆動装置により記憶媒体からシナリオデータを読み込んで、組み込むことで、ダウンロードしたシナリオデータをエージェント装置1で動作させることが可能になる。
Further, the user of the agent device 1 browses and downloads the scenario he / she wants from the server 3 (A, B,...) Using the browser of the scenario creation device 2a he has. May be.
In this case, the downloaded scenario data is stored in a semiconductor storage device or other storage medium such as a DVD-ROM or IC card and transferred to the agent device 1. The agent device 1 that has received the scenario data reads the scenario data from the storage medium by the storage medium driving device and incorporates it, so that the downloaded scenario data can be operated on the agent device 1.

まず、開発者やユーザによって作成されたシナリオに従ってエージェントが自律的に起動するエージェント装置1について、その構成と動作を説明する。
図1は、本実施形態におけるエージェント装置1の構成を表したブロック図である。
本実施形態におけるエージェント装置は、車両に搭載されおり、車両内のユーザとの間でコミュニケーションを行なう機能や車両に対して所定の処理を行なう車両制御機能等のエージェント機能の他、ユーザに走行経路の案内等を行なうナビゲーション機能も備えている。
First, the configuration and operation of the agent device 1 in which an agent autonomously starts according to a scenario created by a developer or user will be described.
FIG. 1 is a block diagram showing the configuration of the agent device 1 in this embodiment.
The agent device according to the present embodiment is mounted on a vehicle and has a function of communicating with a user in the vehicle and an agent function such as a vehicle control function of performing predetermined processing on the vehicle, as well as a travel route to the user. It also has a navigation function that guides users.

本実施形態のエージェント装置では、エージェント機能および、ナビゲーション機能を実現するための中央処理装置(1)、表示装置(2)、音声出力装置(3)、音声入力装置(4)、入力装置(5)、各種状況検出装置(6)、各種車載装置(7)、通信制御装置(8)、通信装置(9)、情報記憶装置(10)を備えている。   In the agent device of this embodiment, the central processing unit (1), the display device (2), the voice output device (3), the voice input device (4), the input device (5) for realizing the agent function and the navigation function. ), Various status detection devices (6), various in-vehicle devices (7), a communication control device (8), a communication device (9), and an information storage device (10).

中央処理装置(1)は、種々の演算処理を実行するCPU(1-1)、情報記憶装置(10)からプログラムを読み込んで格納するフラッシュメモリ(1-2)、フラッシュメモリ(1-2)のプログラムチェック、更新処理を行なうプログラム(プログラム読み込み手段)を格納したROM(1-3)、CPU(1-1)がワーキングメモリとして演算処理中のデータを一時的に格納するRAM(1-4)、時計(1-5)、表示装置(2)への画面表示に使用する画像データが記憶された画像メモリ(1-7)、CPU(1-1)からの表示出力制御信号に基づいて画像メモリ(1-7)から画像データを取り出し、画像処理を施して表示装置(2)に出力する画像プロセッサ(1-6)、CPU(1-1)からの音声出力制御信号をアナログ信号に変換して音声出力装置(3)に出力する処理と、音声入力装置(4)から入力されたアナログ信号をデジタルの音声入力信号に変換する処理を行なう音声プロセッサ(1-8)、入力装置(5)による入力内容を受け取る入力装置I/F部(1-9)、各種状況を検出するための検出器類から情報を受け取るための各種入力I/F部(1-10)、他の装置と情報のやり取りを行なう通信I/F部(1-11)、CD-ROMやICカード類、ハードディスク等といった情報記憶媒体(10-2)からデータ及びプログラムといった情報を読み込んだり、情報を書き込んだりする情報記憶装置(10)と情報のやり取りを行なうための情報記憶装置I/F部(1-12)を備えている。   The central processing unit (1) includes a CPU (1-1) that executes various arithmetic processes, a flash memory (1-2) that reads and stores a program from the information storage device (10), and a flash memory (1-2) ROM (1-3) that stores the program (program reading means) that performs the program check and update processing of the RAM, and RAM (1-4) that temporarily stores the data being processed as the working memory by the CPU (1-1) ), Clock (1-5), image memory (1-7) that stores image data used for screen display on display device (2), based on display output control signal from CPU (1-1) Image processor (1-6) that extracts image data from image memory (1-7), performs image processing and outputs it to display device (2), and converts audio output control signals from CPU (1-1) to analog signals Conversion and output to the audio output device (3) and conversion of the analog signal input from the audio input device (4) into a digital audio input signal To receive information from the audio processor (1-8), the input device I / F unit (1-9) that receives input from the input device (5), and detectors for detecting various situations Various input I / F units (1-10), communication I / F units (1-11) for exchanging information with other devices, information storage media such as CD-ROMs, IC cards, and hard disks (10-2) ) Includes an information storage device I / F unit (1-12) for reading information such as data and programs from / to the information storage device (10) for writing information.

この中央処理装置(1)は、経路探索処理や、経路案内に必要な表示案内処理や、インターネットの閲覧やメールを使用したシナリオのダウンロード等の、その他システム全体において必要な処理、本実施形態におけるエージェント処理(エージェントと運転者との各種コミュニケーションや操作代行、状況判断を行ないその結果に応じて自律的に行なう処理)を行なうようになっている。
更新処理を行なうプログラム(プログラム読み込み手段)は、ROM(1-3)以外にもフラッシュメモリ(1-2)に格納するようにしてもよい。
本実施形態におけるプログラムを含め、CPU(1-1)で実行される全てのプログラムは、情報記憶媒体(10-2)であるCD-ROM等に格納されてもよいし、それらプログラムの一部または全てが本体側のROM(1-3)またはフラッシュメモリ(1-2)に格納するようにしてもよい。
この情報記憶媒体(10-2)に記憶されたデータやプログラムが外部信号として中央処理装置(1)に入力されて演算処理されることにより、種々のエージェント機能及びナビゲーション機能が実現されるようになっている。
また、本実施形態の中央処理装置(1)は、起動条件(自律起動条件)を満たしていると判断された場合、画面要素推移体(シナリオ)を実行する、画面要素推移体実行手段を形成している。
This central processing unit (1) is a route search process, a display guidance process necessary for route guidance, and other processes necessary for the entire system, such as browsing the Internet and downloading scenarios using mail, in this embodiment. Agent processing (various communication between the agent and the driver, operation substitution, situation determination and autonomous processing according to the result) is performed.
The program (program reading means) for performing the update process may be stored in the flash memory (1-2) in addition to the ROM (1-3).
All the programs executed by the CPU (1-1) including the program in the present embodiment may be stored in a CD-ROM or the like as the information storage medium (10-2), or a part of the programs Alternatively, all may be stored in the ROM (1-3) or the flash memory (1-2) on the main body side.
Data and programs stored in the information storage medium (10-2) are input as external signals to the central processing unit (1) and processed to realize various agent functions and navigation functions. It has become.
Further, the central processing unit (1) of the present embodiment forms a screen element transition body execution means for executing a screen element transition body (scenario) when it is determined that the start condition (autonomous start condition) is satisfied. is doing.

表示装置(2)は、中央処理装置(1)の処理による経路案内用の道路地図や各種画像情報が表示されたり、キャラクタの各種行動(動画)及び画面構成のパーツで構成された画面要素推移体(シナリオ)が表示されたりするようになっている。
この表示装置(2)には、液晶表示装置、CRT等の各種表示装置が使用される。
なお、この表示装置(2)は、例えばタッチパネル等の、入力装置(5)としての機能を兼ね備えたものとすることができる。
The display device (2) displays the route map for road guidance and various image information by the processing of the central processing unit (1), and the screen element transition composed of various character actions (video) and screen configuration parts The body (scenario) is displayed.
For the display device (2), various display devices such as a liquid crystal display device and a CRT are used.
The display device (2) may have a function as an input device (5) such as a touch panel.

音声出力装置(3)は、中央処理装置(1)の処理によって声による経路案内を行なう場合の案内音声や、エージェントによる運転者との通常のコミュニケーション用の会話や運転者情報取得のための質問による音声や音が出力されるようになっている。
音声出力装置(3)は、音声認識処理において、音声認識を開始する際(音声入力装置(4)で入力データの取得を開始する際)に、ユーザに対して音声による入力が可能であることを示す開始音を出力するようになっている(開始音出力手段)。本実施形態では、開始音として「ピー」等の音を出力するようになっているが、ブザー音やチャイム音であってもよい。
音声出力装置(3)は、車内に配置された複数のスピーカで構成されている。これらは、オーディオ用のスピーカと兼用するようにしてもよい。
The voice output device (3) is a guidance voice when performing route guidance by voice by the processing of the central processing unit (1), a conversation for normal communication with the driver by the agent, and a question for obtaining driver information. Voice and sound are output.
The voice output device (3) is capable of voice input to the user when voice recognition is started in voice recognition processing (when input data acquisition is started by the voice input device (4)). Is output (starting sound output means). In the present embodiment, a sound such as “beep” is output as the start sound, but a buzzer sound or a chime sound may be output.
The audio output device (3) is composed of a plurality of speakers arranged in the vehicle. These may also be used as audio speakers.

音声入力装置(4)は、運転者の音声を的確に収集するために指向性のある専用のマイクが使用されたりする。この音声入力装置(4)から入力されたアナログ信号を変換したデジタルの音声入力信号を使ってCPU(1-1)で音声認識処理が実行されるようになっている。
音声認識の対象となる音声としては、例えば、ナビゲーション処理における目的地等の入力音声や、エージェントとの運転者の会話(運転者による応答を含む)等があげられ、音声入力装置はこれらの音声を入力する音声入力手段として機能する。
なお、音声認識が必要なシーンか否かについては各シーンデータにおいて、音声認識の指示が設定されている。そして、音声認識の指示が設定されているシーンのシーンデータには、音声認識の対象となる音声を認識するための辞書が指定されている。この音声認識の指示は、音声認識を「自動で開始する」、「自動で開始しない」、「エージェント装置(車載装置)が判断する」、のうちのいずれかが設定されている。音声認識の指示が「エージェント装置が判断する」である場合、エージェント装置は、運転者の負荷を走行中の道路状態(カーブ、交差点、直線等)や、運転動作状態(急加速中、急ブレーキ中、ステアリング操作中等)などから判断し、負荷が高い場合には音声認識を開始せず、負荷が低い場合には、開始音を出力した後に音声の入力を可能にする。
In the voice input device (4), a dedicated microphone having directivity is used to accurately collect the voice of the driver. A voice recognition process is executed by the CPU (1-1) using a digital voice input signal obtained by converting an analog signal inputted from the voice input device (4).
Examples of voices that are subject to voice recognition include input voices such as destinations in navigation processing, driver conversations with agents (including responses by drivers), and the voice input device uses these voices. Functions as voice input means for inputting.
As to whether or not a scene requires voice recognition, a voice recognition instruction is set in each scene data. In addition, a dictionary for recognizing a voice that is a target of voice recognition is specified in the scene data of a scene for which a voice recognition instruction is set. This voice recognition instruction is set to any one of “automatically start”, “not automatically start”, and “judgment by agent device (on-vehicle device)”. When the voice recognition instruction is “the agent device determines”, the agent device determines that the road condition (curve, intersection, straight line, etc.) while driving the driver's load, or the driving operation condition (during rapid acceleration, sudden braking) When the load is high, voice recognition is not started. When the load is low, voice input is enabled after the start sound is output.

尚、音声出力装置(3)と音声入力装置(4)とでハンズフリーユニットを形成させて、通信制御装置(8)及び通信装置(9)を用いて通話を行なえるようにしてもよい。
また、音声入力装置(4)、音声プロセッサ(1-8)及び音声認識処理を組み合わせることで、運転者が同乗者と会話中か否かを検出する会話検出手段や、運転者の発する音声を使って運転者の状況を検出する状況検出手段として機能させてもよい。
The voice output device (3) and the voice input device (4) may form a hands-free unit so that a call can be performed using the communication control device (8) and the communication device (9).
In addition, by combining the voice input device (4), the voice processor (1-8), and voice recognition processing, the conversation detection means for detecting whether the driver is talking with the passenger or the voice emitted by the driver. It may be used as a situation detection means for detecting the situation of the driver.

入力装置(5)は、目的地を設定する際に電話番号や地図上の座標などにて入力したり、目的地までの経路探索や経路案内を要求(リクエスト)したりするために使用される。また、入力装置(5)は、運転者情報を運転者が入力する場合や、エージェント機能の使用を開始する場合のトリガとしてとして使用される。さらに入力装置(5)は、エージェント機能による、エージェントとのコミュニケーションにおいて、エージェントからの問い合わせ等に対して運転者が応答するための1つの応答手段としても機能するようになっている。
入力装置(5)には、タッチパネル(スイッチとして機能)、キーボード、マウス、ライトペン、ジョイスティックなどの各種の装置が使用可能である。
また、赤外線等を利用したリモコンと、リモコンから送信される各種信号を受信する受信部を備えてもよい。
リモコンには、画面上に表示されたカーソルの移動操作等を行なうジョイスティックの他、メニュー指定キー(ボタン)、テンキー等の各種キーが配置される。
また、上記の音声入力装置(4)を使った音声認識を入力装置の代わりに使用しても良い。
The input device (5) is used to input a phone number or coordinates on a map when setting a destination, or to request (request) a route search or route guidance to the destination. . The input device (5) is used as a trigger when the driver inputs driver information or when the use of the agent function is started. Further, the input device (5) functions as one response means for the driver to respond to an inquiry from the agent in communication with the agent by the agent function.
As the input device (5), various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, and a joystick can be used.
Moreover, you may provide the receiving part which receives the remote control using infrared rays etc., and the various signals transmitted from a remote control.
In addition to a joystick for moving the cursor displayed on the screen, the remote control is provided with various keys such as a menu designation key (button) and a numeric keypad.
Further, voice recognition using the voice input device (4) may be used instead of the input device.

中央処理装置(1)は、入力装置I/F部(1-9)を介して入力装置(5)から受け取った内容を使ってCPU(1-1)が運転者による入力操作中か否かを検出すること、又は/及び音声認識結果を併用して各種機器の操作状況を検出する機能(機器操作状況検出手段)を備えるようにしてもよい。
各種状況検出装置(6)は、特に図示しないが、機器操作状況検出手段として、車両の絶対位置(緯度、経度による)を検出する現在位置検出装置、道路の混雑状況等を検出するための交通状況情報受信装置、運転操作等の状況を検出するためにブレーキ検出器、サイドブレーキ(パーキングブレーキ)検出器、アクセル開度検出器、A/Tのシフト位置検出器、ワイパ検出器、方向指示器検出器、ハザード検出器、イグニッション検出器、車両の速度を検出する車速検出器、ヘッドランプやルームランプ等のランプ類の操作状況を検出するライト検出器、運転者のシートベルト着脱操作を検出するシートベルト検出器、その他のさまざまな検出器を備えている。
現在位置検出装置としては、例えば人工衛星を利用して車両の位置を測定するGPS(Global Positioning System)受信装置、GPSの補正信号を受信するデータ送受信装置、方位センサ、舵角センサ、距離センサ等が使用される。
交通情報受信装置としては、例えば路上に配置されたビーコンから情報を受信するビーコン受信装置、FM放送電波を用いて情報を受信する装置等が使用される。
The central processing unit (1) uses the contents received from the input device (5) via the input device I / F unit (1-9) to determine whether the CPU (1-1) is performing an input operation by the driver. Or / and a function (device operation status detection means) for detecting the operation status of various devices by using the voice recognition result together.
Various status detection devices (6) are not particularly shown, but as device operation status detection means, current position detection devices for detecting the absolute position of the vehicle (by latitude and longitude), traffic for detecting road congestion, etc. Situation information receiving device, brake detector, side brake (parking brake) detector, accelerator opening detector, A / T shift position detector, wiper detector, direction indicator to detect the situation such as driving operation Detectors, hazard detectors, ignition detectors, vehicle speed detectors that detect vehicle speed, light detectors that detect the operating status of lamps such as headlamps and room lamps, and detection of driver's seat belt attachment / detachment operations It has a seat belt detector and various other detectors.
Current position detection devices include, for example, a GPS (Global Positioning System) receiver that measures the position of a vehicle using an artificial satellite, a data transmitter / receiver that receives a GPS correction signal, an orientation sensor, a steering angle sensor, a distance sensor, etc. Is used.
As the traffic information receiving device, for example, a beacon receiving device that receives information from beacons arranged on the road, a device that receives information using FM broadcast radio waves, and the like are used.

通信装置I/F部(1-11)には、他にも通信制御装置(8)が接続できるようになっている。この通信制御装置(8)には、通信装置(9)(各種無線通信機器からなる携帯電話等)が接続されるようになっている。
これらを使って電話回線による通話の他、例えば車内での通信カラオケのために使用するカラオケデータを提供するような情報提供局との通信を行なったりすることもできるようになっている。
カラオケデータを提供する情報提供局の他にも、交通情報を提供する情報基地局との通信や、エージェント処理に用いるシナリオデータを提供する情報提供局と通信を、通信装置(9)と通信制御装置(8)を介して行なうことも可能である。
In addition, a communication control device (8) can be connected to the communication device I / F unit (1-11). The communication control device (8) is connected to a communication device (9) (such as a mobile phone made up of various wireless communication devices).
In addition to telephone calls using these, communication with an information providing station that provides karaoke data used for communication karaoke in a car can be performed.
In addition to the information providing station that provides karaoke data, communication with the information base station that provides traffic information and communication with the information providing station that provides scenario data used for agent processing are communicated with the communication device (9). It is also possible to carry out via the device (8).

本実施形態において中央処理装置(1)は、通信制御装置(8)を介してシナリオが添付された電子メールや、シナリオの保存先を表すURL及びそのシナリオの自律起動条件が添付又は記述された電子メールを受信することができるようになっている。
また、中央処理装置(1)には、インターネット上のホームページを表示するブラウザソフトを組み込み、CPU(1-1)で処理させることが可能であり、通信制御装置(8)を介してホームページからシナリオを含めたデータをダウンロードすることができるようになっている。
更に、中央処理装置(1)は、自律起動条件を満たしたシナリオを、そのシナリオが保存されているURLを指定してサーバ3からダウンロードすることができるようになっている。
なお、通信制御装置(8)は、通信装置(9)と一体になったものを使用してもよい。
また、中央処理装置(1)は、通信I/F部(1-11)を通して車内通信を行なうことで他の車載装置(7)の操作状況を受け取ったり、また、車載装置に対する各種制御を行なったりするようになっている。
例えば、中央処理装置(1)は、各種車載装置(7)であるエアコン装置から、運転者がエアコンの各種スイッチ等を操作中か否かの情報を受け取ったり、設定温度を上げるや、下げるといったようにエアコン装置の制御を行なったりする。また、オーディオ装置から運転者がラジオ、CDプレーヤ、カセットプレーヤー等のオーディオ機器を操作中か否か、及びオーディオ機器による音声が出力中か否かの情報を受け取ったり、出力音量を上げるや、下げるといったようにオーディオ装置の制御を行なったりするようになっている。
In the present embodiment, the central processing unit (1) is attached or described with an e-mail to which a scenario is attached via the communication control unit (8), a URL indicating a scenario storage destination, and an autonomous activation condition for the scenario. You can receive e-mail.
In addition, the central processing unit (1) can incorporate browser software that displays homepages on the Internet and can be processed by the CPU (1-1). Scenarios can be accessed from the homepage via the communication control unit (8). You can download the data including.
Further, the central processing unit (1) can download a scenario satisfying the autonomous activation condition from the server 3 by specifying a URL where the scenario is stored.
The communication control device (8) may be integrated with the communication device (9).
In addition, the central processing unit (1) receives in-vehicle communication through the communication I / F unit (1-11) to receive operation statuses of other in-vehicle devices (7), and performs various controls on the in-vehicle devices. It has come to be.
For example, the central processing unit (1) receives information on whether or not the driver is operating various switches of the air conditioner from the air conditioner that is the various in-vehicle devices (7), and increases or decreases the set temperature. The air conditioner is controlled as described above. Also, it receives information from the audio device whether the driver is operating an audio device such as a radio, CD player, cassette player, etc., and whether audio is being output by the audio device, and increases or decreases the output volume. For example, the audio device is controlled.

情報記憶装置(10)は、情報記憶媒体駆動部(10-1)とその情報記憶媒体(10-2)を備えている。情報記憶装置(10)は、CPU(1-1)からの指示で情報記憶装置I/F部(1-12)を通して情報記憶媒体駆動部を制御して、情報記憶媒体(10-2)からデータやプログラムの読み込み、及び情報記憶媒体(10-2)へのデータやプログラムの書き込みを行なうようになっている。
情報記憶媒体(10-2)には、例えば、フレキシブルディスク、ハードディスク、CD-ROM、DVD-ROM、光ディスク、磁気テープ、ICカード類、光カード等の各種記憶媒体が使用され、使用する媒体ごとにそれぞれの情報記憶媒体駆動装置(10-1)が使用される。
情報記憶装置(10)は、システムにおいて複数個所持してもよいものとする。例えば、収集した個人情報である、運転者情報データ(10-2-3-6)と、学習項目データ及び応答データ(10-2-3-7)を持ち運びが容易なICカードやフレキシブルディスクで構成し、その他のデータをDVD-ROMで構成するといった例が考えられる。こうすることで、他の車両を運転する場合にこれらを記憶させたICカードからデータを読み出させて使用し、自分が過去に応対した状況を学習した状態のエージェントとコミュニケーションすることが可能になる。つまり、車両毎のエージェントではなく、運転者毎に固有な学習内容のエージェントを車両内に出現させることが可能になる。
The information storage device (10) includes an information storage medium driving unit (10-1) and its information storage medium (10-2). The information storage device (10) controls the information storage medium driving unit through the information storage device I / F unit (1-12) in response to an instruction from the CPU (1-1), and the information storage device (10-2) Data and programs are read, and data and programs are written to the information storage medium (10-2).
As the information storage medium (10-2), for example, various storage media such as a flexible disk, a hard disk, a CD-ROM, a DVD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, and the like are used. Each information storage medium driving device (10-1) is used.
A plurality of information storage devices (10) may be possessed in the system. For example, collected personal information such as driver information data (10-2-3-6), learning item data and response data (10-2-3-7) can be easily carried with an IC card or flexible disk. It is possible to configure a DVD-ROM with other data. In this way, when driving other vehicles, it is possible to read and use the data from the IC card that stores them, and to communicate with agents who have learned the situation that they have responded to in the past Become. That is, it is possible to make an agent having learning content unique to each driver appear in the vehicle instead of the agent for each vehicle.

CPU(1-1)は各種エージェント機能やナビゲーション機能を実現するプログラム(10-2-1)や、演算処理に使用するエージェントデータ(10-2-3)とナビゲーションデータ(10-2-2)を、上記構成例で示すDVD-ROMやICカード等から別の情報記憶装置(例えばハードディスク装置等)に格納(インストール)し、この記憶装置から必要なプログラム等をフラッシュメモリ(1-2)に読み込んで(ロードして)実行するようにしてもよいし、演算処理に必要なデータをこの記憶装置からRAM(1-4)に読み込んで(ロードして)実行するようにしてもよい。   CPU (1-1) is a program (10-2-1) that implements various agent functions and navigation functions, as well as agent data (10-2-3) and navigation data (10-2-2) used for arithmetic processing. Is stored (installed) in another information storage device (for example, a hard disk device) from the DVD-ROM or IC card shown in the above configuration example, and necessary programs are stored in the flash memory (1-2). The data may be read (loaded) and executed, or data necessary for the arithmetic processing may be read (loaded) from the storage device into the RAM (1-4) and executed.

次に、実行されるソフトウエアの構成について説明する。
図3は、CPU(1-1)でプログラムが実行されることにより実現されるエージェント処理部(101)と、全体処理部(102)との関係を表したものである。
本実施例では、種々のナビゲーション機能を実現する全体処理部(102)に、エージェント機能を実現するエージェント処理部(101)を加えることでエージェント機能付きナビゲーション装置を実現する構成になっている。
エージェント処理部(101)と全体処理部(102)は、互いの処理データをやり取りするためのI/F部をそれぞれが持っており、互いの処理データを取得し合えるようになっている。
例えば、エージェント処理部(101)は、シナリオデータのダウンロードや、シナリオデータに従って運転者とのコミュニケーションを実行した結果、運転者が設定したい目的地データを取得した場合に、このデータを全体処理部(102)に供給するようになっている。
全体処理部(102)では、取得した目的地データにより経路探索をし、作成した走行経路データに基づく経路案内を行なう。この経路案内処理において、画像や音声による進路変更方向等の案内を行なう場合に、案内に必要なデータを全体処理部(102)からエージェント処理部(101)に供給し、走行経路案内をするシナリオをデータ化したシナリオデータに従ってエージェントが案内することも可能である。
エージェント処理部(101)については後述する。
Next, the configuration of software to be executed will be described.
FIG. 3 shows the relationship between the agent processing unit (101) realized by the CPU (1-1) executing the program and the overall processing unit (102).
In this embodiment, an agent function navigation device is realized by adding an agent processing unit (101) for realizing an agent function to an overall processing unit (102) for realizing various navigation functions.
The agent processing unit (101) and the overall processing unit (102) each have an I / F unit for exchanging processing data with each other, and can acquire each other's processing data.
For example, if the agent processing unit (101) acquires destination data that the driver wants to set as a result of downloading scenario data or performing communication with the driver according to the scenario data, the agent processing unit (101) 102).
The overall processing unit (102) searches for a route based on the acquired destination data and performs route guidance based on the generated travel route data. In this route guidance process, when guidance such as a route change direction by image or voice is provided, the data required for guidance is supplied from the overall processing unit (102) to the agent processing unit (101) to guide the traveling route It is also possible for the agent to guide according to the scenario data converted into data.
The agent processing unit (101) will be described later.

全体処理部(102)は、図示しないが地図描画部、経路探索部、経路案内部、現在位置計算部、目的地設定操作制御部等からなりナビゲーションの信号出力処理を行なうアプリケーション部、及び地図表示や経路案内に必要な表示出力制御、音声案内に必要な音声出力制御を行なうためのプログラム等のOS部等で構成されている。
また、この全体処理部(102)には音声認識を行なう音声認識処理部、テキストデータを音声データに変換する処理部も存在する。ブラウザ機能やメール機能を追加する場合の当該処理部はこの全体処理部(102)に追加される。
もしくは、エージェント処理部(101)がブラウザ機能やメール機能を持つような構成にしてもよい。
また、本実施形態ではエージェント処理を実行するための拡張機能が全体処理部(102)に加えられている。この拡張機能には、例えばナビゲーションデータの中にある道路データと現在位置から、走行中の道路の種別(高速道路、国道、等)を検出する手段や走行中の道路のカーブ状況(カーブ手前、カーブ終了)を検出する手段等が存在する。
Although not shown, the overall processing unit (102) includes a map drawing unit, a route search unit, a route guide unit, a current position calculation unit, a destination setting operation control unit, etc., and an application unit that performs navigation signal output processing, and a map display And a display output control necessary for route guidance and an OS unit such as a program for performing voice output control necessary for voice guidance.
The overall processing unit (102) also includes a speech recognition processing unit that performs speech recognition and a processing unit that converts text data into speech data. When the browser function or the mail function is added, the processing unit is added to the overall processing unit (102).
Alternatively, the agent processing unit (101) may have a browser function or a mail function.
In this embodiment, an extended function for executing agent processing is added to the overall processing unit (102). This extended function includes, for example, means for detecting the type of road (highway, national road, etc.) that is running from the road data in the navigation data and the current position, and the curve status of the road that is running (before the curve, There are means for detecting the end of the curve.

次に、エージェント処理部の構成について説明する。
図4は、エージェント処理部(101)の構成を表したものである。
エージェント処理部(101)は、シナリオ駆動部(101-1)と、自律起動判断部(101-2)と、学習部(101-3)と、キャラクタ心理部(101-4)と、描画・音声出力部(101-5)と、音声認識部(101-7)と、エージェントOS部(101-8)と、外部I/F部(101-9)とを備えている。
Next, the configuration of the agent processing unit will be described.
FIG. 4 shows the configuration of the agent processing unit (101).
The agent processing unit (101) includes a scenario driving unit (101-1), an autonomous activation determination unit (101-2), a learning unit (101-3), a character psychology unit (101-4), a drawing / A voice output unit (101-5), a voice recognition unit (101-7), an agent OS unit (101-8), and an external I / F unit (101-9) are provided.

シナリオ駆動部(101-1)は、シナリオデータ(10-2-3-4)を読み込み、そのシナリオデータに基づいて各処理部にメッセージ通信等を使って指示(各処理部が提供する機能を使用)する。シナリオ駆動部(101-1)は、シナリオの実行を管理し運転者に各種エージェント機能を提供するといったエージェント処理部の中心的な処理を行なう。
シナリオ駆動部(101-1)は、実行すべきシナリオデータが情報記憶装置(10)に格納されている場合にはそこから読み出して実行する。一方、シナリオ駆動部(101-1)は、実行すべきシナリオがサーバ3に格納されている場合にはシナリオが保存されているURLを指定してダウンロードして実行する。サーバ3からダウンロードしたシナリオはワークメモリとして確保したRAM(1-4)上に格納され、実行が完了した後に消去される。
The scenario driver (101-1) reads the scenario data (10-2-3-4) and instructs each processing unit using message communication based on the scenario data (functions provided by each processing unit). use. The scenario driving unit (101-1) performs central processing of the agent processing unit, such as managing scenario execution and providing various agent functions to the driver.
When the scenario data to be executed is stored in the information storage device (10), the scenario driving unit (101-1) reads out and executes it. On the other hand, when the scenario to be executed is stored in the server 3, the scenario driving unit (101-1) specifies and downloads the URL where the scenario is stored and executes it. The scenario downloaded from the server 3 is stored on the RAM (1-4) secured as a work memory, and is deleted after the execution is completed.

自律起動判断部(101-2)は、シナリオデータ(10-2-3-4)にある各シナリオの自律起動条件データを保持し、エージェントOS部(101-8)から出される定期的な自律起動判断指示により、時間、位置、状態等の各種条件と各種状況との比較、判断を行なっている。
条件が一致した場合に、自律起動判断部(101-2)はシナリオ駆動部(101-1)に対し、条件が一致したシナリオの実行要求の指示を出す。
自律起動条件と比較するための各種状況はエージェントOS部(101-8)及び学習部(101-3)から入手している。
また、定期的な自律起動判断指示以外にも、状況の変化が大きいとされる場合は、エージェントOS部(101-8)から自律起動判断指示が出されるので、自律起動判断部(101-2)は、自律起動判断処理を行なうようになっている。状況の変化が大きいとされる場合とは、例えば運転者が目的地設定を行なった場合、ナビゲーション機能による走行案内経路をはずれた場合、シナリオデータが追加された場合、シナリオデータが削除された場合等がある。
The autonomous activation determination unit (101-2) holds the autonomous activation condition data of each scenario in the scenario data (10-2-3-4), and the periodic activation issued by the agent OS unit (101-8) Various conditions such as time, position, and state are compared with various situations in accordance with an activation determination instruction, and determination is performed.
When the conditions are matched, the autonomous activation determining unit (101-2) issues an instruction to execute the scenario having the matched conditions to the scenario driving unit (101-1).
Various situations for comparison with the autonomous activation conditions are obtained from the agent OS unit (101-8) and the learning unit (101-3).
In addition to the periodic autonomous activation determination instruction, if the change in the situation is considered to be large, the autonomous activation determination instruction is issued from the agent OS unit (101-8). ) Performs autonomous activation determination processing. For example, when the driver makes a destination setting, when the driver leaves the driving guidance route using the navigation function, when scenario data is added, or when scenario data is deleted Etc.

学習部(101-3)は、エージェントとのコミュニケーションにおいて運転者の選択や応答によって入手した項目(実行結果や実行履歴)を運転者情報データ(10-2-3-6)や、学習項目データ及び応答データ(10-2-3-7)として格納する。
キャラクタ心理部(101-4)は、エージェントOS部(101-8)が管理している現在状況を入手し、メンタルモデル変更条件データに基づき、キャラクタの心理状態を表す5つのパラメータ(元気、友好、従順、自信、モラル)を自律的に変更する。
The learning unit (101-3) uses the driver information data (10-2-3-6) and learning item data to obtain items (execution results and execution history) obtained through driver selection and response in communication with agents. And response data (10-2-3-7).
The character psychology unit (101-4) obtains the current situation managed by the agent OS unit (101-8), and based on the mental model change condition data, the five parameters that represent the character's psychological state (energetic and friendly) , Autonomous, self-confidence, morals).

描画・音声出力部(101-5)は、シナリオ駆動部(101-1)からの指示で選択ボタンやタイトル等のパーツから構成される画面を表示するための制御信号を作成する。また、シナリオ駆動部(101-1)からの指示で、シーンデータによる表示状態に対応するキャラクタの各種行動(動作)を表示するための制御信号も作成する。
描画・音声出力部(101-5)は、また、シナリオ駆動部(101-1)からの指示でエージェントが運転者とコミュニケーションを行なう際の台詞を出力するための制御信号を作成する。また、シナリオ駆動部(101-1)からの指示で各種効果音を出力するための制御信号も作成する。
音声認識部(101-7)は、シナリオ駆動部(101-1)からの指示により、全体処理部(102)中の音声認識処理部に音声認識辞書を作成させるための制御信号を発する。また、音声認識部(101-7)は、シナリオ駆動部(101-1)からの指示で音声認識処理を開始させたり停止させたりする制御信号も発する。
The drawing / sound output unit (101-5) creates a control signal for displaying a screen composed of parts such as a selection button and a title in response to an instruction from the scenario driving unit (101-1). In addition, a control signal for displaying various actions (motions) of the character corresponding to the display state by the scene data is also created by an instruction from the scenario drive unit (101-1).
The drawing / voice output unit (101-5) also creates a control signal for outputting a dialogue when the agent communicates with the driver in response to an instruction from the scenario driving unit (101-1). In addition, a control signal for outputting various sound effects in response to an instruction from the scenario driving unit (101-1) is also created.
The voice recognition unit (101-7) issues a control signal for causing the voice recognition processing unit in the overall processing unit (102) to create a voice recognition dictionary in response to an instruction from the scenario driving unit (101-1). The voice recognition unit (101-7) also issues a control signal for starting and stopping the voice recognition process in response to an instruction from the scenario driving unit (101-1).

エージェントOS部(101-8)は、時間、場所、各種入力等の状況の変化(シナリオの追加も含む)を取得して現在の状況を管理し、状況の変化に対して必要に応じてメッセージ通信にて各処理部に通知する。状況の変化は、外部I/F部(101-9)を通して全体処理部(102)から供給されたり、問い合わせたりして入手する。
エージェントOS部(101-8)は、自律起動判断部(101-2)に対して、定期的に自律起動判断指示を出すようになっている。この定期的な自律起動判断指示は、所定時間毎に出される。所定時間としては、定期的に出される自律起動判断指示によって定期的に処理される自律起動判断処理が、中央処理装置(1)全体の他の処理に影響しない範囲でできるだけ短い時間であることが望ましく、本実施形態では5秒間隔に設定されている。この所定時間は入力装置(5)からの操作によってユーザが当該所定時間を任意に変更することができるようにしてもよい。
また、エージェントOS部(101-8)は、状況の変化が大きいと判断された場合にも、自律起動判断部(101-2)に対して、自律起動判断指示を出すようになっている。状況の変化が大きいとされる場合とは、例えば運転者が目的地設定を行なった場合、案内経路から車両がはずれた場合、シナリオデータが追加された場合、シナリオデータが削除された場合等であり、あらかじめ該当する項目が規定されRAM(1-4)等に記憶されている。
The agent OS section (101-8) acquires changes in the situation (including addition of scenarios) such as time, place, and various inputs, manages the current situation, and sends a message to the situation change as necessary. Notify each processing unit by communication. The change in the situation is supplied from the overall processing unit (102) through the external I / F unit (101-9) or obtained through an inquiry.
The agent OS unit (101-8) periodically issues an autonomous activation determination instruction to the autonomous activation determination unit (101-2). This periodic autonomous activation determination instruction is issued every predetermined time. The predetermined time may be as short as possible within a range in which the autonomous activation determination process periodically processed by the autonomous activation determination instruction issued periodically does not affect other processes of the entire central processing unit (1). Desirably, the interval is set to 5 seconds in this embodiment. The predetermined time may be arbitrarily changed by the user by an operation from the input device (5).
The agent OS unit (101-8) also issues an autonomous activation determination instruction to the autonomous activation determination unit (101-2) even when it is determined that the change in the situation is large. Cases where the change in the situation is considered to be large include, for example, when the driver has set a destination, the vehicle has been removed from the guide route, scenario data has been added, scenario data has been deleted, etc. Yes, relevant items are defined in advance and stored in RAM (1-4).

外部I/F部(101-9)は、エージェント処理部(101)と全体処理部(102)との間のインターフェースになっている(全体処理部(102)には受け手であるエージェントI/F部が存在する)。エージェント処理において利用するナビゲーション情報等各種情報の取得と、エージェント処理部から全体処理部に制御信号を伝えてナビゲーションを制御したりする。   The external I / F unit (101-9) is an interface between the agent processing unit (101) and the overall processing unit (102) (the overall processing unit (102) has an agent I / F as a receiver). Part exists). Acquisition of various types of information such as navigation information used in agent processing, and transmission of control signals from the agent processing unit to the entire processing unit control navigation.

次に、データ構成(プログラムを含む)について説明する。本実施例では、これらは情報記憶媒体(10-2)に格納されている。
図5は、情報記憶媒体(10-2)に集録されている情報を概念的に表したものである。
情報記憶媒体(10-2)には本実施形態による各種エージェント機能やナビゲーション機能を実現するプログラム(10-2-1)、及び必要な各種データとして、エージェントデータ(10-2-3)とナビゲーションデータ(10-2-2)が格納されている。
Next, a data structure (including a program) will be described. In the present embodiment, these are stored in the information storage medium (10-2).
FIG. 5 conceptually shows information collected in the information storage medium (10-2).
The information storage medium (10-2) includes a program (10-2-1) for realizing various agent functions and navigation functions according to the present embodiment, and agent data (10-2-3) and navigation as necessary various data. Data (10-2-2) is stored.

ナビゲーションデータ(10-2-2)は、地図描画、経路探索、経路案内、目的地設定操作等に必要な各種データで構成されている。例としては、経路案内に必要な地図データ(道路地図、住宅地図、建造物形状地図等)、交差点データ、ノードデータ、道路データ、写真データ、登録地点データ、目的地点データ、案内道路データ、詳細目的地データ、目的地読みデータ、電話番号データ、住所データ、その他のデータのファイルからなりナビゲーション装置に必要なすべてのデータが記憶されている。また、必要に応じて通信地域データ等も記憶される。   The navigation data (10-2-2) is composed of various data necessary for map drawing, route search, route guidance, destination setting operation, and the like. Examples include map data required for route guidance (road map, house map, building shape map, etc.), intersection data, node data, road data, photo data, registration point data, destination point data, guide road data, details The destination data, destination reading data, telephone number data, address data, and other data files are stored, and all data necessary for the navigation device is stored. Moreover, communication area data etc. are also memorize | stored as needed.

描画地図データは、表示装置(2)に描画される描画地図データであり、この描画地図データは、階層化されている。
交差点データは、各交差点を特定する交差点番号、交差点名、交差点の座標(緯度と経度)、その交差点が始点や終点になっている道路の番号、および信号の有無などで構成されている。
ノードデータは、各道路における各地点の座標を指定する緯度、経度などの情報から構成されている。すなわち、このデータは、道路上の一地点に関するデータであり、ノード間を接続するものをアークと呼び、複数あるノード列のそれぞれの間をアークで接続することによって道路が表現される。
道路データは、各道路を特定する道路番号、始点や終点となる交差点番号、同じ始点や終点を持つ道路の番号、道路の太さ、進入禁止等の禁止情報、後述の写真データの写真番号などで構成されている。
通信地域データは、通信制御装置(8)に接続され又は無接続で車内において使用される通信装置(9)である携帯電話が、車内から通信できる地域を表示装置(2)に表示したり、その通信できる地域を経路探索の際に使用したりするための通信地域データが、携帯電話のタイプ別に存在する。
The drawn map data is drawn map data drawn on the display device (2), and this drawn map data is hierarchized.
The intersection data includes an intersection number for identifying each intersection, an intersection name, intersection coordinates (latitude and longitude), a road number at which the intersection is a starting point or an ending point, and presence / absence of a signal.
The node data is composed of information such as latitude and longitude specifying the coordinates of each point on each road. That is, this data is data relating to a single point on the road. A node connecting nodes is called an arc, and a road is represented by connecting each of a plurality of node rows with an arc.
Road data includes road numbers that identify each road, intersection numbers that are the start and end points, road numbers that have the same start and end points, road thickness, prohibition information such as entry prohibition, photo numbers of photo data that will be described later, etc. It consists of
The communication area data is displayed on the display device (2) where the mobile phone, which is a communication device (9) connected to the communication control device (8) or used in the vehicle without connection, can communicate from within the vehicle, There is communication area data for each type of mobile phone in order to use the area where communication is possible when searching for a route.

エージェントデータ(10-2-3)は、メンタルモデルデータ(10-2-3-1)と、シナリオデータ(10-2-3-4)と、キャラクタデータ(10-2-3-5)と、運転者情報データ(10-2-3-6)と、学習項目データ及び応答データ(10-2-3-7)と、で構成されている。他にも、お勧めのレストラン提案を行なう等のお勧め提案データや知識データ等も、エージェントデータ(10-2-3)には存在する。
メンタルモデルデータ(10-2-3-1)は、キャラクタの心理状態を表す5つのパラメータ(友好度、従順度、自信度、モラル、元気度)及びメンタルモデル変更条件データとで構成されている。
Agent data (10-2-3) includes mental model data (10-2-3-1), scenario data (10-2-3-4), character data (10-2-3-5), Driver information data (10-2-3-6), learning item data and response data (10-2-3-7). In addition, there are also recommended suggestion data, knowledge data, etc. for making recommended restaurant proposals in the agent data (10-2-3).
The mental model data (10-2-3-1) is composed of five parameters (friendship level, obedience level, confidence level, morality, spirit level) representing the character's psychological state and mental model change condition data. .

学習項目データ及び応答データ(10-2-3-7)は、エージェントとのコミュニケーションにおいて運転者の選択や応答によってエージェントが学習した結果を格納するデータである。
従って、学習項目データ及び応答データ(10-2-3-7)は、運転者毎にそのデータが格納・更新(学習)されるようになっている。例えば、シナリオの使用状況として前回の選択結果や前回使用した日時、通算の使用回数等が格納される。
この学習内容に従って、例えば、毎回ナビ電源ON時に挨拶をするシナリオにおいて、前回使用から5分以内の場合に「つい先ほどにもお会いしましたね」と対応したり、逆に1ヶ月以上間があいている場合には「お久しぶりですね」と対応したりする。
また、どの球団のファンであるか質問した結果の回答(無回答という対応も含めて)を格納したりもする。この応答の結果によって無回答の場合はもう一度どの球団のファンか質問したり、特定の球団が記憶されている場合はその球団についての会話を行なったりと対応を変えることができる。
The learning item data and the response data (10-2-3-7) are data for storing the results learned by the agent by the driver's selection and response in communication with the agent.
Therefore, the learning item data and the response data (10-2-3-7) are stored / updated (learned) for each driver. For example, as the usage status of the scenario, the previous selection result, the date and time of last use, the total number of times of use, and the like are stored.
According to this learning content, for example, in a scenario where greetings are made every time the navigation power is turned on, if you are within 5 minutes from the previous use, respond `` I met you just before '' or conversely for more than a month When it is open, it responds with “Long time no see”.
It also stores the answer (including the answer of no answer) as a result of asking which team the fan is. Depending on the result of this response, it is possible to change the response such as inquiring which team the fan is in again if there is no answer, or if a specific team is stored, having a conversation about that team.

シナリオデータ(10-2-3-4)には、シナリオとその起動条件が一体的に保存される場合と、シナリオの起動条件とシナリオの保存先であるURLとが関連付けられて保存される場合とがある。後者の場合にシナリオは、URLで指定されるサーバ3に保存される。
このシナリオデータ(10-2-3-4)にシナリオの起動条件とシナリオの保存先であるURLとが関連付けられて保存されることで、画面要素推移体データに対する、起動条件及び車外の保存先指定情報を関連付けて記憶する起動条件記憶手段が構成される。
In scenario data (10-2-3-4), the scenario and its activation conditions are stored together, and the scenario activation condition and the URL where the scenario is stored are associated and stored There is. In the latter case, the scenario is stored in the server 3 specified by the URL.
The scenario data (10-2-3-4) is stored in association with the scenario activation condition and the URL where the scenario is stored, so that the activation condition and the storage destination outside the vehicle for the screen element transition body data are stored. An activation condition storage unit is configured to store the designation information in association with each other.

図6は、車載装置で実行するシナリオデータの構成と、起動条件とURL等で構成される収録シナリオの管理データの構成を表したものである。
シナリオデータ(10-2-3-4)は、複数のシナリオで構成されており、それらを管理するための集録シナリオの管理データと、個々のシナリオの内容を示すデータ(シナリオ本体)とで構成されている。
集録シナリオの管理データには、このシナリオデータは、集録シナリオの管理データとシナリオ本体とが一体として格納されているのか、集録シナリオの管理データだけが本体データから分離して格納されているのかを示す情報が記録されている。集録シナリオの管理データが分離されて格納されていることは、本体データが保存されてるサーバ3のURL(保存先指定情報)が自律起動条件と関連つけて格納されることで示される。
FIG. 6 shows the configuration of scenario data executed by the in-vehicle device, and the configuration of management data of a recorded scenario including start conditions and URLs.
The scenario data (10-2-3-4) consists of multiple scenarios. It consists of management data for the acquisition scenarios to manage them and data (scenario itself) that shows the contents of each scenario. Has been.
In the acquisition scenario management data, whether this scenario data is stored together with the acquisition scenario management data and the scenario main body, or whether only the acquisition scenario management data is stored separately from the main body data. Information to be recorded is recorded. The fact that the management data of the acquisition scenario is stored separately is indicated by the fact that the URL (storage destination designation information) of the server 3 storing the main body data is stored in association with the autonomous activation condition.

また、集録シナリオの管理データには、このシナリオデータの有効期限、作成された日や作成者等といった情報と、シナリオデータに収録されている個々のシナリオを全体的に管理するためのデータ(シナリオ番号、シナリオ名称、優先順位(プライオリティ))と、シナリオファイルに収録されているシナリオの自律起動条件データと、シナリオファイルに収録されているシナリオの中で運転者が入力装置(5)等を使って手動起動させることができるシナリオ一覧データが記されている。
本実施形態では、この集録シナリオの管理データ部分を全体のシナリオデータから分離し(図6(a))、この部分のみを車載装置側に置き、シナリオデータ1、シナリオデータ2、…をサーバ上に置く構成となる。
サーバ3上に置く、シナリオデータ1、シナリオデータ2、…は、シナリオ本体と管理データとをそれぞれ分離した形を取っても良いし、結合した形を取っても良いものとする。結合した形を取る場合は、サーバ上3では、各シナリオデータが全体のどの位置に有るのかを示す管理データをシナリオデータの先頭に配置する。
The acquisition scenario management data includes information such as the expiration date of the scenario data, date of creation, creator, etc., and data for overall management of each scenario recorded in the scenario data (scenario Number, scenario name, priority (priority)), autonomous activation condition data of the scenario recorded in the scenario file, and the driver using the input device (5) etc. in the scenario recorded in the scenario file The scenario list data that can be started manually is written.
In this embodiment, the management data part of this acquisition scenario is separated from the entire scenario data (FIG. 6 (a)), and only this part is placed on the in-vehicle device side, and scenario data 1, scenario data 2,. It becomes the composition to put in.
The scenario data 1, scenario data 2,... Placed on the server 3 may take a form in which the scenario main body and the management data are separated from each other, or may take a combined form. When taking the combined form, on the server 3, management data indicating where each scenario data is located is arranged at the head of the scenario data.

図6(b)に示されるように、個々のシナリオの内容を示すデータには、それぞれのシナリオを管理する管理データと、シナリオを構成する個々のシーンの内容を示すシーンデータとで構成されている。
それぞれのシナリオを管理するデータには、シナリオに関する情報と、このシナリオで使用する音声認識辞書を作成するためのテキスト情報と、シナリオを構成する各シーンデータを全体的に管理するためのデータが記されている。
As shown in FIG. 6B, the data indicating the contents of each scenario includes management data for managing each scenario and scene data indicating the contents of the individual scenes constituting the scenario. Yes.
In the data for managing each scenario, information on the scenario, text information for creating a speech recognition dictionary used in this scenario, and data for managing the entire scene data constituting the scenario are recorded. Has been.

エージェント装置は、シナリオの管理データに設定されている判断データと、エージェント装置側の設定(自動判断、使用する、使用しない)とによって、シナリオ処理をするか否かを判断するようになっている。
シーンデータは、シーンを管理するデータと、画面構成データと、キャラクタ動作データと、各種処理データと、展開管理データとで構成されている。
シーンを管理するデータには、そのシーンに関する情報とシーンデータに属する各データセクションを管理するデータが記されている。
画面構成データには、このシーンにおいて表示装置(2)に表示する画面構成の各パーツのデータ(大きさや表示位置等)が記されている。
キャラクタ動作データには、このシーンにおいてキャラクタが行なう動作の指示データと、話す内容に関する指示データが記されている。動作の指示データには、シナリオデータで直接各キャラクタの表現手段で指示するものと、キャラクタに表現させたい状態で指示するものの2種類のうちどちらかで指示データが記されている。
The agent device determines whether or not to perform the scenario processing based on the determination data set in the scenario management data and the setting on the agent device side (automatic determination, use, not use). .
The scene data includes data for managing a scene, screen configuration data, character action data, various processing data, and development management data.
In the data for managing a scene, information on the scene and data for managing each data section belonging to the scene data are described.
In the screen configuration data, data (size, display position, etc.) of each part of the screen configuration displayed on the display device (2) in this scene is described.
The character action data includes instruction data for actions performed by the character in this scene, and instruction data related to the content to be spoken. In the instruction data of the action, the instruction data is written in one of two types: scenario data that is directly instructed by means of expressing each character, and that that is instructed in a state that the character wants to express.

各種処理データには、このシーンにおいて外部機器を制御(処理をさせる)する情報や、ナビゲーションを制御する情報や、他のシナリオを実行する指示や、タイマー設定情報や、キャラクタ心理を示すメンタルモデルのパラメータを変化させる情報等が記されている。
展開管理データには、このシーンで何かイベントが発生した場合に、シナリオを終了するのか、次に進むシーンが何であるか、もしくは何も展開しないのか、といった情報が記述されている。
Various processing data includes information for controlling (processing) external devices in this scene, information for controlling navigation, instructions for executing other scenarios, timer setting information, and mental models that indicate character psychology. Information for changing the parameters is described.
The development management data describes information such as whether to end the scenario, what is the next scene, or nothing to be developed when an event occurs in this scene.

図7は、集録シナリオの管理データに格納されている自律起動条件データの構造を概念的に表したものである。
自律起動条件は、図7に示されるように、年、日付(月日)、及び位置を、所定の個別条件としてグループ化されている。
本実施形態では、最上位のグループ分けとして、年に関する条件を最上位のグループとしてグループ化されている。
図7(a)に示されるように、年に関するグループとして、各年に限定した(その年にのみ実行される)自律起動条件と、年に関する条件が無い(年に関係なく実行可能)自律起動条件とにグループ分け(分類)されている。
FIG. 7 conceptually shows the structure of the autonomous activation condition data stored in the management data of the acquisition scenario.
As shown in FIG. 7, the autonomous activation conditions are grouped by year, date (month / day), and position as predetermined individual conditions.
In the present embodiment, the conditions relating to the year are grouped as the highest group as the highest grouping.
As shown in Fig. 7 (a), as a group related to the year, autonomous activation conditions limited to each year (executed only in that year) and no conditions related to the year (executable regardless of year) autonomous activation They are grouped (classified) into conditions.

そして、この年に関する条件による各グループの中で、第2位のグループとして、図7(b)に示されるように、日付(月日)に関するグループとして、各日付に限定した(その日付にのみ実行される)自律起動条件と、日付に関する条件が無い(日付に関係なく実行可能)自律起動条件とにグループ分け(分類)されている。日付によるグループにおいても、年と同様に、日付に関する条件が無い自律起動条件も日付条件無しにグループ分けされている。そして、年条件がなくて日付がある場合には、年条件無しのグループ内の該当日付にグループ化され、年月日の全条件がない自律起動条件は、年条件無しのグループの中の、日付条件無しグループ化されている。
日付条件無しのグループには、歳時記・記念日といった直接の日付指定ではないグループが存在する。これは日付に関する条件ではあるが、運転者が登録した記念日であったりするので、エージェント装置側では条件が無い場合と同じ扱いで日付に関係なく条件判断を行なうよう登録される。
And, as shown in Fig. 7 (b), as the second-ranked group in each group according to the conditions related to this year, it was limited to each date as a group related to date (month and day) (only on that date) It is grouped (classified) into autonomous activation conditions (executed) and autonomous activation conditions that have no date-related conditions (can be executed regardless of date). In the group by date, as in the year, the autonomous activation conditions that do not have a date-related condition are also grouped without a date condition. And if there is no year condition and there is a date, it is grouped to the corresponding date in the group without year condition, and the autonomous start condition without all the conditions of year, month and day is Grouped without date condition.
In the group without date condition, there is a group that is not a direct date specification such as an chronology or anniversary. Although this is a date-related condition, it may be an anniversary date registered by the driver, so the agent device is registered to make a condition judgment regardless of the date in the same manner as when there is no condition.

そして、これら年条件内の日付条件によるグループの中で、更に、位置に関するグループ分けがされている。
すなわち、日付に関するグループの中で、第3位のグループとして、図7(c)に示されるように、位置(1次メッシュ)に関するグループとして、位置に関する条件がない自律起動条件(位置に関係なくどこでも実行可能な地点条件無しのグループ)と、各1次メッシュに限定した(そのメッシュ内でのみ実行される)自律起動条件とにグループ分けされている。
In addition, among the groups based on the date conditions within these year conditions, grouping is further performed regarding the positions.
That is, among the groups related to the date, as the third-ranked group, as shown in FIG. 7 (c), as the group related to the position (primary mesh), the autonomous activation condition without the position related condition (regardless of the position) Group where there is no point condition that can be executed anywhere) and autonomous activation conditions limited to each primary mesh (executed only within that mesh).

そして、位置に関する1次メッシュのグループの中で、位置に関する条件が存在するもの(何処かの1次メッシュに属する条件さらに細かくエリア分割した2次メッシュのグループに分割する。
すなわち、1次メッシュのグループの中で、さらに最下位(第4位)のグループとして、図7(d)に示されるように、位置(2次メッシュに)に関するグループとして、各2次メッシュに限定した(そのメッシュ内でのみ実行される)自律起動条件とにグループ分けされている。
位置に関する条件がない自律起動条件は、1次メッシュの地点条件無し以上のグループ分けが無いので、第4位のグループにおいてもそのまま1つのグループとなっている。
このようにグループ化した自動起動条件は、自律起動判断部(101-2)ですばやく取得できるようにインデックス(識別符号)を付けて、車載装置で扱う形式(NAV形式)のシナリオデータに格納されている。
すなわち、各自動起動条件には、該当するグループを表すインデックス(識別符号)が付されている。
Then, among the groups of primary meshes related to positions, those having conditions regarding positions (conditions belonging to some primary meshes are further divided into groups of secondary meshes divided into areas.
That is, among the primary mesh groups, as the lowest (fourth) group, as shown in FIG. 7 (d), each secondary mesh is assigned to a position (secondary mesh) group. They are grouped into limited autonomous activation conditions (executed only within the mesh).
Autonomous activation conditions that do not have a position-related condition are not grouped more than those without the primary mesh point condition, so they are one group even in the fourth-ranked group.
The automatic start conditions grouped in this way are stored in scenario data in a format (NAV format) handled by the in-vehicle device, with an index (identification code) attached so that the auto start determination unit (101-2) can quickly obtain it. ing.
That is, an index (identification code) indicating a corresponding group is attached to each automatic activation condition.

図8は、1次メッシュ及び2次メッシュによる位置座標の正規化について表したものである。
ここでは、例として、座標X=(北緯35度40分8.91秒、東経139度43分36.48秒)の位置が、2次メッシュで正規化した座標上でどのように表されるかについて説明する。
まず、図8(a)に示した1次メッシュのうちのどのメッシュに座標Xが位置するかを求めることで、1次メッシュコードを算出する。
いま、北緯35度40分8.91秒、東経139度43分36.48秒の座標Xの点は、左下の点が(緯度、軽度)=(35度20分、139度)である1次メッシュに含まれていることが求められる。
緯度方向の1次メッシュコードは、左下の値に3/2を掛けたものになる。従って、緯度方向の1次メッシュコード=35度20分×(3/2)=(35+1/3)×(3/2)=53
また、経度方向の1次メッシュコードは、左下の値から100を引いたものになる。
従って、経度方向の1次メッシュコード=139-100=39この緯度方向と経度方向の1次メッシュコードから、座標Xの1次メッシュコードは、5339となる。
FIG. 8 shows the normalization of the position coordinates by the primary mesh and the secondary mesh.
Here, as an example, we will explain how the position of coordinates X = (35 degrees 40 minutes 8.91 seconds north, 139 degrees 43 minutes 36.48 seconds east) is expressed on coordinates normalized by a secondary mesh .
First, a primary mesh code is calculated by determining which mesh among the primary meshes shown in FIG.
Now, the point of coordinates X at 35 degrees 40 minutes 8.91 seconds north latitude and 139 degrees 43 minutes 36.48 seconds east longitude is included in the primary mesh where the lower left point is (latitude, light) = (35 degrees 20 minutes, 139 degrees) Is required.
The latitudinal primary mesh code is the lower left value multiplied by 3/2. Therefore, the primary mesh code in the latitude direction = 35 degrees 20 minutes x (3/2) = (35 + 1/3) x (3/2) = 53
Also, the primary mesh code in the longitude direction is obtained by subtracting 100 from the lower left value.
Accordingly, the primary mesh code in the longitude direction = 139-100 = 39 From this latitude direction and the primary mesh code in the longitude direction, the primary mesh code of the coordinate X is 5339.

続いて、2次メッシュコードを算出する。図8(b)に示されるように、各1次メッシュコードは、緯度方向8、経度方向8の64の2次メッシュに分割されていて、緯度、経度共にその値が小さいほうから0〜7の値が割り振られている。
従って、位置Xの点は、緯度方向:4、経度方向:5の2次メッシュに含まれるので、2次メッシュのコードは45になる。
以上の計算から、座標X=(北緯35度40分8.91秒、東経139度43分36.48秒)の位置は、1次メッシュコードと2次メッシュコードとをあわせて、5339-45となる。
Subsequently, a secondary mesh code is calculated. As shown in FIG. 8 (b), each primary mesh code is divided into 64 secondary meshes in the latitudinal direction 8 and the longitude direction 8, and 0 to 7 from the smallest value of both latitude and longitude. The value of is allocated.
Therefore, since the point at position X is included in the secondary mesh of the latitude direction: 4 and the longitude direction: 5, the code of the secondary mesh is 45.
From the above calculation, the position of the coordinate X = (35 degrees 40 minutes 8.91 seconds north, 139 degrees 43 minutes 36.48 seconds east) is 5339-45, combining the primary mesh code and the secondary mesh code.

図5において、キャラクタデータ(10-2-3-5)には、複数のキャラクタのデータが格納されており、運転者の好みによって入力装置(5)等から選択することができるようになっている。
キャラクタデータ(10-2-3-5)は、各キャラクタA、B、…毎に、キャラクタ画像データ102351と、キャラクタ音声データ102352と、キャラクタ画像選択データ102353とを備えている。
キャラクタ画像データ102351は、シナリオにより指定された各シーンで表示されるキャラクタの状態を表す静止画像や、動作を表す動画(アニメーション)等が格納されている。例えば、キャラクタがお辞儀をする動画、うなずく動画、右手を挙げる動画等が格納されている。
シナリオデータ(10-2-3-4)のシナリオ本体では、キャラクタの種類によらない共通化した表示状態により各シーンの内容を規定している。
In FIG. 5, the character data (10-2-3-5) stores data of a plurality of characters, and can be selected from the input device (5) or the like according to the driver's preference. Yes.
The character data (10-2-3-5) includes character image data 102351, character voice data 102352, and character image selection data 102353 for each character A, B,.
The character image data 102351 stores a still image representing the state of the character displayed in each scene specified by the scenario, a moving image (animation) representing the motion, and the like. For example, a moving image in which the character bows, a moving image that nods, a moving image that raises the right hand, and the like are stored.
In the scenario body of scenario data (10-2-3-4), the contents of each scene are defined by a common display state that does not depend on the character type.

また、図5における運転者情報データ(10-2-3-6)は、運転者に関する情報で、エージェントのコミュニケーションをより運転者の希望や趣味、嗜好に合ったものとするために利用される。
運転者情報データ(10-2-3-6)には、運転者毎に情報を格納するための運転者のID(識別情報)、名前、年齢、性別、結婚(既婚か未婚か)、子供の有無と人数と年齢からなる運転者基礎データや、スポーツ、飲食等の趣味嗜好データとが格納されるようになっている。
本実施形態では、これら各運転者情報には優先順位が決められており、エージェントは、未だ格納されていない運転者情報のうち優先順位が高い順に運転者に質問をするようになっている。運転者基礎データは、趣味嗜好データよりも優先順位が高くなっている。
運転者情報データ(10-2-3-6)は、その車両を運転する運転者が複数存在する場合には、運転者毎に作成される。そして、運転者を特定して該当する運転者情報が使用される。
The driver information data (10-2-3-6) in FIG. 5 is information about the driver, and is used to make the agent's communication more suitable for the driver's wishes, hobbies and preferences. .
Driver information data (10-2-3-6) contains the driver ID (identification information), name, age, gender, marriage (married or unmarried), child, for storing information for each driver. The driver basic data including the presence / absence, the number of persons, and the age, and hobby preference data such as sports and food and drink are stored.
In this embodiment, the priority order is determined for each of the driver information, and the agent asks the driver questions in descending order of priority among the driver information not yet stored. The driver basic data has a higher priority than the hobby preference data.
Driver information data (10-2-3-6) is created for each driver when there are a plurality of drivers who drive the vehicle. Then, the corresponding driver information is used by specifying the driver.

図9は、旅館が宿泊予定者に送信した案内シナリオによるシーン画面の遷移をシーン毎に表したものである。
この案内シナリオは、複数のシーン画面のうち(a)〜(f)までのシーン画面で構成されている。
シーン画面(c)に対するユーザの選択結果によって次のシーン画面が4と6に分岐している。また、図9の例では分岐していないが、シーン画面(d)においても選択した料理の種類に応じた料理をシーン表示画面54に表示するようにシーン画面を分岐させるようにしてもよい。
FIG. 9 shows the transition of the scene screen according to the guidance scenario transmitted from the inn to the prospective guest for each scene.
This guidance scenario is composed of scene screens (a) to (f) among a plurality of scene screens.
The next scene screen is branched into 4 and 6 depending on the user's selection result for the scene screen (c). Although not branched in the example of FIG. 9, the scene screen may be branched so that dishes corresponding to the selected dish type are displayed on the scene display screen 54 in the scene screen (d).

まず、シナリオのシーンデータに基づいて表示装置(2)に表示されるシーン画面の構成について説明する。
シーン画面(a)に示されるように、エージェントの画像(静止画、動画)が表示されるエージェント表示画面51、エージェントの音声に対応した文字が表示される吹き出し画面52、タイトル画面53、及び、各シーン固有の画像データ(実画像データの画像や回答選択ボタン等)が表示されるシーン表示画面54から構成されている.
エージェント表示画面51に表示されるエージェントは、ユーザが選択したキャラクタ、又はデフォルトのキャラクタである.
First, the configuration of the scene screen displayed on the display device (2) based on the scenario scene data will be described.
As shown in the scene screen (a), an agent display screen 51 on which an agent image (still image, moving image) is displayed, a balloon screen 52 on which characters corresponding to the voice of the agent are displayed, a title screen 53, and It consists of a scene display screen 54 that displays image data unique to each scene (images of actual image data, answer selection buttons, etc.).
The agent displayed on the agent display screen 51 is a character selected by the user or a default character.

以下、図9に従って予約シナリオによるエージェントの各行為について説明する。
以下の各シーン画面に対応して説明するエージェントの動作や画面の表示はいずれも、外部シナリオのシナリオデータに格納されているデータや画像及び指示に従って表示等されるものである。また、エージェントの動作として説明するが、実際にはエージェント処理部(101)のシナリオ駆動部(101-1)が処理を行う。
後述するシナリオ開始処理においてエージェント処理部(101)のシナリオ駆動部(101-1)は、案内シナリオを起動すると、最初にシーンヘッダで指定される番号1のシーンの画面構成データをシナリオデータから読み出して表示装置(2)に表示する。このシーンでは、エージェントOS部(101-8)で管理しているキャラクタのエージェントが、エージェント表示画面51に登場し、お辞儀をして音声による挨拶をする。音声による挨拶の内容は、吹き出し画面52に表示されている文章と同一である。
音声による挨拶は、旅館に代わってエージェントが代行して行うことになるが、旅館の女将の写真画像をシーン表示画面54に表示することで旅館からの挨拶であることが表現されている。この女将の画像は、外部シナリオの一部として受信し追加した画像で、シナリオデータ(10-2-3-4)の実画像データとして格納されている。
エージェントの動作に対する指示は、キャラクタ動作指示データに格納されている指示に従う。
エージェントによる挨拶が終了すると、次のシーン2に遷移する。
Hereinafter, each action of the agent according to the reservation scenario will be described with reference to FIG.
The agent operations and screen displays described below corresponding to each scene screen are displayed according to data, images, and instructions stored in the scenario data of the external scenario. Further, although described as an agent operation, the scenario driving unit (101-1) of the agent processing unit (101) actually performs the processing.
In the scenario start process described later, when the scenario driving unit (101-1) of the agent processing unit (101) starts the guidance scenario, it first reads the screen configuration data of the scene number 1 specified by the scene header from the scenario data. Display on the display device (2). In this scene, the agent of the character managed by the agent OS section (101-8) appears on the agent display screen 51, bows and greets with voice. The content of the voice greeting is the same as the text displayed on the balloon screen 52.
The greeting by voice is performed on behalf of the inn by the agent, but it is expressed that the inn is a greeting from the inn by displaying a photo image of the landlady of the inn on the scene display screen 54. The image of the landlady is an image received and added as part of the external scenario, and is stored as actual image data of the scenario data (10-2-3-4).
The instruction for the action of the agent follows the instruction stored in the character action instruction data.
When the greeting by the agent ends, the screen transitions to the next scene 2.

次のシーン2では、シーン表示画面54に露天風呂の画像が表示される。そして、この露天風呂の絵をエージェントが指し示して、旅館の名物(ここが売りだということ)を、エージェントが音声と吹き出し画面52の表示で説明する。
エージェントの話が終了すると、次のシーン3に遷移し、本日の食事の画像(懐石料理の画像)をシーン表示画面54に表示し、エージェントが料理の説明と、この料理で良いか否かを質問する。
In the next scene 2, an open-air bath image is displayed on the scene display screen 54. Then, the agent points to this open-air bath picture, and the agent explains the specialty of the inn (that it is for sale) by voice and display of the balloon screen 52.
When the agent's story ends, the scene transitions to the next scene 3, and an image of today's meal (an image of kaiseki cuisine) is displayed on the scene display screen 54. Question.

そして、シーン3のシーンデータにタイマー設定時間と、タイマー設定条件「走行中のみ設定する」が規定されているものとする。この場合、走行中であることを条件に、シーン開始時にタイマーによる計時が開始される。走行中か否かは車速センサ(6-11)又は、距離センサ(6-1-5)において、車速v=0が検出された場合に停車中と判断され、車速v≠0が検出された場合に走行中と判断される。
そして、表示した料理でよいか否かの質問に対する回答としてユーザが「はい」を選択した場合にはシーン4に分岐し、「いいえ」を選択した場合にはシーン6に分岐する。
It is assumed that the scene data of scene 3 defines a timer setting time and a timer setting condition “set only during running”. In this case, counting by a timer is started at the start of the scene on condition that the vehicle is running. The vehicle speed sensor (6-11) or the distance sensor (6-1-5) determines whether the vehicle is running or not when the vehicle speed v = 0 is detected, and the vehicle speed v ≠ 0 is detected. It is determined that the vehicle is traveling.
If the user selects “Yes” as an answer to the question as to whether or not the displayed dish is acceptable, the process branches to Scene 4, and if “No” is selected, the process branches to Scene 6.

一方、タイマー設定時間内に、ユーザが音声による回答も、画面に表示された選択ボタンの選択による回答もせずにタイマー通知(設定時間の経過)した場合、シーン3のシーンデータで規定されているタイマー通知時の移行条件に従って、そのシナリオを終了させる。
このように、ユーザからの回答がない場合にも、無回答という選択がされたと判断して、無回答を移行条件とする次のシーン(図9の例では終了)に移行することで、擬人化されたキャラクタとのコミュニケーションをより人間同士のコミュニケーションに近づけることができる。
On the other hand, if the user gives a timer notification (elapsed set time) without answering by voice or answering by selecting the selection button displayed on the screen within the timer setting time, it is specified by the scene 3 scene data The scenario is terminated according to the transition condition at the time of timer notification.
In this way, even when there is no answer from the user, it is determined that no answer has been selected, and the process shifts to the next scene (end in the example of FIG. 9) using no answer as a transition condition. It is possible to make the communication with the character converted closer to the communication between humans.

シーン4では、懐石料理以外の選択可能なリストをシーン表示画面54に表示する。エージェントは、シーン表示画面54のリストを指し示して、どの料理が良いかを質問する。
そして、ユーザがいずれか1つを選択したらシーン5に遷移する。
シーン5では、懐石料理から変更すべき人数のリストをシーン表示画面54に表示し、エージェントはこのリストを指し示して、人数の質問をする。
そしてユーザがいずれか1つを選択したらシーン6に遷移する。
In scene 4, a selectable list other than kaiseki cuisine is displayed on the scene display screen 54. The agent points to the list on the scene display screen 54 and asks which dishes are good.
Then, when the user selects any one, the screen transitions to the scene 5.
In scene 5, a list of the number of people to be changed from kaiseki cuisine is displayed on the scene display screen 54, and the agent points to this list and asks the number of people.
When the user selects any one, the screen transitions to scene 6.

シーン6では、シーン表示画面54に旅館の外観写真画像を表示し、エージェントがお辞儀をして挨拶をする。
そして、エージェントは、ユーザが選択してきた結果、図9の案内シナリオの場合には食事に関する回答結果を、通信装置I/F部(1-11)から通信制御装置(8)に接続されている通信装置(9)を介して実行中の外部シナリオを送信した第三者(旅館)に送信する。
In scene 6, an external appearance photo image of the inn is displayed on the scene display screen 54, and the agent bows and greets.
Then, as a result of the user's selection, the agent is connected to the communication control device (8) from the communication device I / F unit (1-11) to the answer result regarding the meal in the case of the guidance scenario of FIG. The external scenario being executed is transmitted to the third party (inn) that has been transmitted via the communication device (9).

このように、ユーザについての情報を取得したい場合には、外部シナリオの作成者は、取得したい情報が得られる質問のシーンをシナリオ中に設け、その回答を電子メールで送信するようにシナリオを作成する。なお、回答の送信が必要な場合には、作成者の電子メールアドレスをシナリオデータ中に含める。
最後のシーン(図9ではシーン6)でのエージェントの話が終了すると、シナリオを終了させる。
このようにして、シナリオ駆動部(101-1)は、シナリオに規定された各シーン画像と音声を最後のシーンまで順次表示、出力する。
起動したシナリオが終了すると、シナリオ駆動部(101-1)は、他のシナリオの実行についての起動要求が存在するかの判断を行う。
In this way, when the user wants to obtain information about the user, the creator of the external scenario creates a scenario in which a scene of a question from which the desired information can be obtained is provided in the scenario and the response is sent by e-mail. To do. If it is necessary to send an answer, the e-mail address of the creator is included in the scenario data.
When the agent's story in the last scene (scene 6 in FIG. 9) ends, the scenario ends.
In this way, the scenario driving unit (101-1) sequentially displays and outputs each scene image and sound specified in the scenario up to the last scene.
When the activated scenario ends, the scenario driving unit (101-1) determines whether there is an activation request for executing another scenario.

次に、このようなシナリオ駆動部(101-1)で実行される各種シナリオを自律的に起動するか否かの判断処理について説明する。
図10は、自律起動判断部(101-2)によるシナリオの自律起動判断処理について表したものである。
この自律起動判断処理では、自律起動判断部(101-2)が装置の負荷を軽減するために、位置と日付に関する情報を受け取り、その受け取った位置と日付に近似する起動条件の塊を、シナリオデータを保持している外部記憶装置(10)より読み出し(抽出手段)、ワークメモリ(RAM(1-4))に一時的に格納する処理を行う。
Next, a description will be given of a process for determining whether or not to autonomously start various scenarios executed by the scenario driving unit (101-1).
FIG. 10 shows the autonomous activation determination process of the scenario by the autonomous activation determination unit (101-2).
In this autonomous activation determination process, the autonomous activation determination unit (101-2) receives information on the position and date in order to reduce the load on the device, and creates a block of activation conditions that approximate the received position and date as a scenario. A process of reading (extracting means) from the external storage device (10) holding the data and temporarily storing it in the work memory (RAM (1-4)) is performed.

すなわち、自律起動判断部(101-2)は、今現在置かれている状況情報を取得するため、エージェントI/Fを介し、エージェントOS部(101-8)より現在位置、時間などの状況情報を取得する(ステップ11)。
そして、自律起動判断部(101-2)は、取得した位置、時間などの状況情報が所定単位の変化があるか否かを判断する(ステップ12)。
That is, the autonomous activation determination unit (101-2) obtains the current status information from the agent OS unit (101-8) via the agent I / F, and acquires the current status, time, and other status information. Is acquired (step 11).
Then, the autonomous activation determination unit (101-2) determines whether or not the acquired status information such as position and time has a predetermined unit change (step 12).

判断の結果、所定単位の変化がありと判断された場合(ステップ12;Yes)、自律起動判断部(101-2)は、その位置と時間などの条件に近似する条件を備えた自律起動条件群を外部記憶装置(10)より読み出し、ワークメモリ(RAM(1-4))に一時的に格納する(ステップ13)。
ここで、近似する条件とは、位置の場合、地図データの全範囲を所定単位の方形ブロックに区画し、車両が存在する位置が含まれているブロックと、そのブロックに隣接する8つのブロックに位置情報が含まれる条件をいい、日付の場合、その当日と翌日が該当する。そして、所定単位の変化とは、位置の場合には車両が他のブロックに移動した場合で、日付の場合には日付が変わった場合が該当する。
As a result of the determination, when it is determined that there is a change of a predetermined unit (Step 12; Yes), the autonomous activation determination unit (101-2) determines the autonomous activation condition having conditions that approximate conditions such as the position and time. The group is read from the external storage device (10) and temporarily stored in the work memory (RAM (1-4)) (step 13).
Here, the approximate condition is, in the case of a position, the entire range of the map data is divided into rectangular blocks of a predetermined unit, and the block including the position where the vehicle exists and the eight blocks adjacent to the block are included. A condition that includes location information. In the case of a date, the current day and the next day are applicable. The change in the predetermined unit corresponds to a case where the vehicle moves to another block in the case of a position, and a case where the date changes in the case of a date.

そして自律起動判断部(101-2)は、読み込まれた自律起動条件群に対して、状況情報が満たしているか否かについての条件判断処理を行う(ステップ14)。
なお、ステップ12の判断で所定単位の変化なしと判断された場合(ステップ12;No)、ワークメモリに一時保存している自律起動条件群を変更する必要がないため、ステップ14の処理に進む。
Then, the autonomous activation determination unit (101-2) performs a condition determination process on whether or not the situation information is satisfied for the read autonomous activation condition group (step 14).
If it is determined in step 12 that there is no change in the predetermined unit (step 12; No), it is not necessary to change the autonomous activation condition group temporarily stored in the work memory, so the process proceeds to step 14 .

図11は、図10における条件判断処理(ステップ14)の処理内容を表したものである。
自律起動判断部(101-2)は、ワークメモリ(RAM(1-4))に一時的に格納された自律起動条件群から、最初の自律起動条件を取得し(ステップ21)、ステップ12で入手した各種状況情報による状況が、取得した自律起動条件を満たしているか否かを判断する(ステップ22)。
自律起動条件を満たしている場合(ステップ22;Yes)、自律起動判断部(101-2)は、その自律起動条件に対応するシナリオの実行要求メッセージを、シナリオ駆動部(101-1)に対して発行する(ステップ23)。
FIG. 11 shows the processing contents of the condition determination processing (step 14) in FIG.
The autonomous activation determination unit (101-2) acquires the first autonomous activation condition from the autonomous activation condition group temporarily stored in the work memory (RAM (1-4)) (step 21). It is determined whether or not the situation based on the obtained various situation information satisfies the obtained autonomous activation condition (step 22).
When the autonomous activation condition is satisfied (step 22; Yes), the autonomous activation determining unit (101-2) sends a scenario execution request message corresponding to the autonomous activation condition to the scenario driving unit (101-1). (Step 23).

次に自律起動判断部(101-2)は、ワークメモリ(RAM(1-4))に一時的に格納された自律起動条件群に次の自律起動条件がまだ存在するか否かを判断し(ステップ24)、あれば(;Yes)、次の自律起動条件を取得し(ステップ21に戻る)、以後ステップ21〜24の各処理をワークメモリ(RAM(1-4))に一時的に格納された全ての自律起動条件に対する判断が終了するまで繰り返す。
ステップ24において、次の自律起動条件が存在しない(ワークメモリ(RAM(1-4))に一時的に格納した全ての自律起動条件に対する判断が終了した)場合(;No)、自律起動判断部(101-2)は、自律起動判断処理を終了する。
このように、図10のナリオの自律起動判断処理及び図11の条件判断処理により、車載された入力装置からの入力が起動条件を満たしたか否かを判断する条件判断手段が構成される。
Next, the autonomous activation determination unit (101-2) determines whether or not the next autonomous activation condition still exists in the autonomous activation condition group temporarily stored in the work memory (RAM (1-4)). (Step 24) If there is (Yes), the next autonomous activation condition is acquired (return to Step 21), and thereafter each processing of Steps 21 to 24 is temporarily stored in the work memory (RAM (1-4)). Repeat until all stored autonomous activation conditions are judged.
In step 24, if the following autonomous activation conditions do not exist (judgment for all autonomous activation conditions temporarily stored in the work memory (RAM (1-4)) is completed) (; No), the autonomous activation determination unit (101-2) ends the autonomous activation determination process.
Thus, the condition determination means for determining whether or not the input from the on-board input device satisfies the activation condition is configured by the Nario autonomous activation determination process of FIG. 10 and the condition determination process of FIG.

次に、シナリオ駆動部(101-1)が、自律起動判断部(101-2)からシナリオ実行要求を受け取った場合のシナリオ実行処理について説明する。
図12は、シナリオ実行処理の流れの一例を表したものである。
ユーザの操作内容や、シナリオデータの記述内容によってシナリオ実行処理の流れは変わってくる。よって、図12では、シナリオを実行する場合の、エージェント処理部(101)の各部、及び全体処理部(102)による一連の代表的な動作を表したものであり、本実施例において、各部はそれぞれ独立した処理を行うようにし、ユーザの操作内容や、シナリオデータの記述内容によってシナリオ実行処理の流れを変えることを実現している。すなわち、各部の独立した処理が、連続することで図12に示した代表的な流れになる。
Next, scenario execution processing when the scenario drive unit (101-1) receives a scenario execution request from the autonomous activation determination unit (101-2) will be described.
FIG. 12 shows an example of the flow of scenario execution processing.
The flow of scenario execution processing varies depending on the user's operation content and the description content of the scenario data. Therefore, FIG. 12 shows a series of typical operations performed by each unit of the agent processing unit (101) and the entire processing unit (102) when executing a scenario. Each process is performed independently, and the flow of the scenario execution process is changed depending on the contents of the user operation and the description contents of the scenario data. That is, the independent process of each part is continued, and the typical flow shown in FIG. 12 is obtained.

具体的には、エージェント処理部(101)の各部、及び全体処理部(102)は、メッセージを受け取ったら、そのメッセージに対する処理を行ない、処理が完了したら次のメッセージを待つようになっている。
シナリオ駆動部(101-1)は、自律起動判断部(101-2)からシナリオ実行要求を受け取ると、ワークメモリの確保、初期化によるエージェント開始準備処理を行う(ステップ505-1)。
そして、シナリオ駆動部(101-1)は、シナリオの実行要求が手動起動か自動起動かを確認する(ステップ505-2)。手動起動は、ユーザが表示装置(2)のメニューからシナリオ起動を選択した場合で、自動起動は、シナリオの自律起動条件を満たした場合である。
Specifically, each part of the agent processing unit (101) and the entire processing unit (102) perform processing on the message when receiving the message, and wait for the next message when the processing is completed.
When the scenario driving unit (101-1) receives a scenario execution request from the autonomous activation determining unit (101-2), it performs agent start preparation processing by securing and initializing work memory (step 505-1).
Then, the scenario driving unit (101-1) confirms whether the scenario execution request is a manual activation or an automatic activation (step 505-2). Manual activation is when the user selects scenario activation from the menu of the display device (2), and automatic activation is when the autonomous activation condition of the scenario is satisfied.

シナリオの実行要求が手動起動の場合はメニューシナリオの要求処理を行う(ステップ505-3)。その後、シナリオデータ取得処理(ステップ505-4)に移行する。
一方、自動起動の場合には、自律起動条件を満たすことで実行要求されているシナリオが存在するので、そのままシナリオデータ取得処理(ステップ505-4)に移行する。
If the scenario execution request is manual startup, menu scenario request processing is performed (step 505-3). Thereafter, the process proceeds to scenario data acquisition processing (step 505-4).
On the other hand, in the case of automatic activation, there is a scenario that is requested to be executed by satisfying the autonomous activation condition, so that the process directly proceeds to the scenario data acquisition process (step 505-4).

次にシナリオ駆動部(101-1)は、実行すべきシナリオデータをワークメモリ(RAM(1-4)に確保する)に取得する(ステップ505-4)。シナリオデータを取得する際、実行対象となっているシナリオが複数存在する場合(複数の自律起動条件が満たされた場合、手動起動要求と自動起動が重複した場合等)には、シナリオ駆動部(101-1)は、各シナリオに規定されている優先順位を判断し一番優先順位の高いシナリオデータを読み込む。
優先順位が同じである場合には、自律起動判断部(101-2)から実行要求を受けた順に優先順位が高いものとして決定する。シナリオの優先順位は、シナリオデータ(10-2-3-4)の収録シナリオの管理データに存在し、シナリオ実行要求と一緒にシナリオ駆動部(101-1)は取得しており、それを確認する。
Next, the scenario driver (101-1) acquires the scenario data to be executed in the work memory (secured in the RAM (1-4)) (step 505-4). When acquiring scenario data, if there are multiple scenarios to be executed (when multiple autonomous activation conditions are satisfied, manual activation request and automatic activation overlap, etc.), the scenario driver ( 101-1) reads the scenario data with the highest priority by judging the priority order defined for each scenario.
If the priorities are the same, it is determined that the priorities are higher in the order in which the execution requests are received from the autonomous activation determination unit (101-2). The priority of the scenario exists in the scenario management data of the scenario data (10-2-3-4), and the scenario driver (101-1) acquires it together with the scenario execution request, and confirms it To do.

図13は、実施形態におけるシナリオデータ取得処理を表したフローチャートである。
実行対象となっているシナリオが複数存在する場合は、前述したように、優先順位が一番高いシナリオデータを取得する。
まず、シナリオ駆動部(101-1)は、取得するシナリオデータ(シナリオ本体)がサーバに存在するもの(自律起動条件と実行時に使用するシナリオ本体が分離されたもの)なのか、情報記憶媒体に存在するもの(自律起動条件と実行時に使用するシナリオ本体とが一体になっているもの)なのか判断し(ステップ505-4-1)、後者の場合は、情報記憶媒体からシナリオデータを読み込み、ワークメモリ上に取得する(ステップ505-4-2)。
FIG. 13 is a flowchart showing scenario data acquisition processing in the embodiment.
If there are multiple scenarios to be executed, the scenario data with the highest priority is acquired as described above.
First, the scenario drive unit (101-1) stores the scenario data (scenario body) to be acquired in the server (the autonomous startup condition and the scenario body to be used at the time of execution are separated) on the information storage medium. Judgment is made (automatic activation condition and scenario main body used at the time of execution) (step 505-4-1). In the latter case, the scenario data is read from the information storage medium, Obtained in work memory (step 505-4-2).

前者の場合、シナリオ駆動部(101-1)は、外部I/F(101-9)に対してメッセージを出力して処理依頼を行なう。これにより外部I/F(101-9)は、ネットワーク接続処理(ステップ505-4-3)を行ない、接続処理が完了したら、シナリオ駆動部(101-1)は、サーバからシナリオデータをダウンロード(読み込み)し、ワークメモリであるRAM(1-4)上に格納する(ステップ505-4-4)。
このシナリオ駆動部シナリオ駆動部(101-1)が、サーバからシナリオデータをダウンロード(読み込み)し、ワークメモリであるRAM(1-4)上に格納することで条件判断手段で起動条件を満たしていると判断された場合、起動条件と関連付けられて記憶された画面要素推移体データを、保存先指定情報で指定された車外の保存先から取得する画面要素推移体取得手段が構成される。
シナリオデータのダウンロードが完了した後、シナリオ駆動部からの指示により全体処理部は、ネットワーク切断処理(ステップ505-4-5)を行なう。なお、この切断処理をここで行なわず、一定時間経過後に切断するようにしてもよい。
In the former case, the scenario driving unit (101-1) outputs a message to the external I / F (101-9) to make a processing request. As a result, the external I / F (101-9) performs network connection processing (step 505-4-3). When the connection processing is completed, the scenario driver (101-1) downloads scenario data from the server ( Read) and stored in the RAM (1-4), which is a work memory (step 505-4-4).
The scenario driver (101-1) downloads (reads) the scenario data from the server and stores it on the RAM (1-4), which is the work memory. If it is determined that the screen element transition body data is stored, the screen element transition body acquisition means for acquiring the screen element transition body data stored in association with the activation condition from the storage destination outside the vehicle designated by the storage destination designation information is configured.
After the scenario data has been downloaded, the overall processing unit performs network disconnection processing (step 505-4-5) according to an instruction from the scenario driving unit. Note that the cutting process may not be performed here, and the cutting may be performed after a predetermined time has elapsed.

接続処理に失敗した場合(例えば、移動体電話が圏外の場所だった等)、シナリオ駆動部(101-1)は、実行要求のあったシナリオをリジェクト(自律起動判断部(101-2)に実行できないことを通知)する。
これを受けて、自律起動判断部(101-2)は、所定時間後(例えば1分後)から、該シナリオの起動判断を再開し、再び条件を満たせば、実行要求が発行されて、ステップ505-1からの処理が実行される。(シナリオ実行要求の再発行)
If the connection process fails (for example, the mobile phone is outside the service area), the scenario driver (101-1) rejects the scenario requested to be executed (autonomous activation determination unit (101-2)). Notification that it cannot be executed).
In response, the autonomous activation determination unit (101-2) restarts the activation determination of the scenario after a predetermined time (for example, after 1 minute), and if the condition is satisfied again, an execution request is issued, Processing from 505-1 is executed. (Reissue scenario execution request)

シナリオデータの取得が完了すると、シナリオ駆動部(101-1)は、次に、シナリオ開始処理を行う(図12:ステップ505-5)。
シナリオ開始処理においてシナリオ駆動部(101-1)は、まず、シナリオを開始するための初期化処理を行う。
また、シナリオ駆動部(101-1)はシナリオ開始処理において、後述するようにスタンバイ処理を行うか否かの判断を行う。
When the acquisition of the scenario data is completed, the scenario driving unit (101-1) next performs a scenario start process (FIG. 12: step 505-5).
In the scenario start process, the scenario driver (101-1) first performs an initialization process for starting a scenario.
Also, the scenario driving unit (101-1) determines whether or not to perform standby processing as will be described later in the scenario start processing.

シナリオ開始処理(ステップ505-5)の後に、シナリオ駆動部(101-1)は、シナリオを構成するシーンの内容に応じてキャラクタの描画や音声を処理するシーン処理を実行する(ステップ505-6)。
すなわち、シーン処理においてシナリオ駆動部(101-1)は、ステップ505-4-4でダウンロードしたシナリオデータが一時記憶されているRAM(1-4)を参照し、表示する画面構成やキャラクタの動作指示、等を解析する。
そして各シーンデータにおける規定に従って、シナリオ駆動部(101-1)は、出力する音声データやキャラクタ描画データを作成して描画・音声出力部(101-5)に描画の指示を行なう。この指示に従って描画・音声出力部(101-5)により、キャラクタがお辞儀をしたり、右方向や左方向を手で指したり、ユーザに話しかけたりするシーンが展開される。
また、処理中のシーンデータに音声認識についての指示ある場合、音声認識処理が行われる。
After the scenario start process (step 505-5), the scenario drive unit (101-1) executes a scene process for processing character drawing and sound according to the contents of the scenes constituting the scenario (step 505-6). ).
That is, in the scene processing, the scenario drive unit (101-1) refers to the RAM (1-4) in which the scenario data downloaded in step 505-4-4 is temporarily stored, and displays the screen configuration and character actions. Analyze instructions, etc.
Then, in accordance with the rules for each scene data, the scenario drive unit (101-1) creates voice data and character drawing data to be output and instructs the drawing / voice output unit (101-5) to draw. In accordance with this instruction, the drawing / speech output unit (101-5) develops a scene in which the character bows, points in the right or left direction by hand, or talks to the user.
If the scene data being processed has an instruction for voice recognition, voice recognition processing is performed.

シーン処理が完了すると、シナリオ駆動部(101-1)は、シナリオ終了か確認を行なう(ステップ505-7)。
シナリオ終了の場合、シナリオ駆動部(101-1)は、シナリオ終了処理を行なう(ステップ505-8)。このシナリオ終了処理において、学習部(101-3)が、終了の仕方を示すエンドIDを入手して応答データ(10-2-3-7)に格納する。
シナリオ終了でない場合(シナリオがまだ続く場合)、シナリオの終了位置まで、ステップ505-6に戻って次のシーン、次のシーン、…とシーン処理を繰り返す。
シナリオの終了処理の後、シナリオ駆動部(101-1)は、他にシナリオの実行要求が有るか否か確認し(ステップ505-9)、他のシナリオの実行要求が存在する場合は、シナリオデータの読み込み処理(ステップ505-4)に戻って同様に処理が実行される。
一方、他に実行するシナリオが存在しない場合、シナリオ駆動部(101-1)は、エージェント終了処理を実行する(ステップ505-10)。すなわち、エージェントOS部(101-8)に対して、要求された全てのシナリオの実行処理が終了したことを知らせる。
その後、表示装置(2)に表示される画面は通常のナビゲーション画面に戻るが、その後の処理はエージェントI/Fを介して全体処理部(102)に受け渡す。
When the scene processing is completed, the scenario driving unit (101-1) checks whether the scenario is finished (step 505-7).
In the case of scenario end, the scenario driver (101-1) performs scenario end processing (step 505-8). In this scenario termination process, the learning unit (101-3) obtains an end ID indicating the termination method and stores it in the response data (10-2-3-7).
If the scenario is not finished (if the scenario still continues), the process returns to step 505-6 to repeat the scene process with the next scene, the next scene,.
After scenario termination processing, the scenario driver (101-1) checks whether there is another scenario execution request (step 505-9). If there is another scenario execution request, the scenario drive unit (101-1) Returning to the data reading process (step 505-4), the same process is executed.
On the other hand, when there is no other scenario to be executed, the scenario driving unit (101-1) executes an agent termination process (step 505-10). That is, the agent OS unit (101-8) is notified that the execution processing of all requested scenarios has been completed.
Thereafter, the screen displayed on the display device (2) returns to the normal navigation screen, but the subsequent processing is transferred to the overall processing unit (102) via the agent I / F.

次に、ユーザや第三者が独自のシナリオを作成するシナリオ作成装置2の構成とその動作について説明する。
図14は、シナリオ作成装置の構成を表したものである。
シナリオ作成装置は、制御部(200)と、入力装置(210)と、出力装置(220)と、通信制御装置(230)と、記憶装置(240)と、記憶媒体駆動装置(250)と、入出力I/F(260)とを備えている。これら各装置は、データバスや制御バス等のバスラインにより接続されている。
Next, the configuration and operation of the scenario creation device 2 in which a user or a third party creates an original scenario will be described.
FIG. 14 shows the configuration of the scenario creation device.
The scenario creation device includes a control unit (200), an input device (210), an output device (220), a communication control device (230), a storage device (240), a storage medium drive device (250), Input / output I / F (260). These devices are connected by a bus line such as a data bus or a control bus.

制御部(200)は、CPU(200-1)と、メモリ(200-2)等から構成されており、シナリオ作成装置全体を制御する。
CPU(200-1)は、種々の演算処理を実行するプロセッサである。
メモリ(200-2)は、CPU(200-1)が種々の演算処理を実行する際にワーキングメモリとして使用される。
CPU(200-1)は、メモリ(200-2)にプログラムやデータなどを書き込んだり消去したりすることができる。
本実施の形態におけるメモリ(200-2)には、CPU(200-1)がシナリオエディタ(シナリオ編集プログラム)に従ってシナリオデータを作成、編集、記憶等するためのエリアが確保可能になっている。
The control unit (200) includes a CPU (200-1), a memory (200-2), and the like, and controls the entire scenario creation device.
The CPU (200-1) is a processor that executes various arithmetic processes.
The memory (200-2) is used as a working memory when the CPU (200-1) executes various arithmetic processes.
The CPU (200-1) can write and erase programs and data in the memory (200-2).
In the memory (200-2) in the present embodiment, an area for the CPU (200-1) to create, edit, and store scenario data according to the scenario editor (scenario editing program) can be secured.

入力装置(210)は、シナリオ作成装置に対して文字や数字その他の情報を入力するための装置であり、例えばキーボードやマウスなどにより構成されている。
キーボードは、主にカナや英文字などを入力するための入力装置で、例えばユーザがシナリオ作成装置にログインするためのログインIDやパスワードを入力したり、シナリオ作成の際に音声合成や音声認識の対象となる文を入力したりする際などに使用される。
マウスは、ポインティングデバイスである。GUI(Graphical User Interface)などを用いてシナリオ作成装置を操作する場合、表示装置上に表示されたボタンやアイコンなどをクリックすることにより、所定の情報の入力を行なうこと等に使用される入力装置である。
The input device (210) is a device for inputting characters, numbers, and other information to the scenario creation device, and is composed of, for example, a keyboard and a mouse.
The keyboard is an input device for mainly inputting kana and English characters. It is used when inputting the target sentence.
A mouse is a pointing device. When operating a scenario creation device using a GUI (Graphical User Interface), etc., an input device used for inputting predetermined information by clicking a button or icon displayed on the display device It is.

出力装置(220)は、例えば表示装置や印刷装置などである。
表示装置は、例えばCRTディスプレイ、液晶ディスプレイ、プラズマディスプレイなどが使用され、シナリオを作成するためのメイン画面や、各シーンにおける画面構成を選択するための画面等の各種画面が表示される。また、各画面において選択された情報や入力された情報が表示されるようになっている。
印刷装置は、例えば、インクジェットプリンタ、レーザプリンタ、熱転写プリンタ、ドットプリンタなどの各種プリンタ装置が使用される。
The output device (220) is, for example, a display device or a printing device.
As the display device, for example, a CRT display, a liquid crystal display, a plasma display, or the like is used, and various screens such as a main screen for creating a scenario and a screen for selecting a screen configuration in each scene are displayed. In addition, selected information and input information are displayed on each screen.
As the printing apparatus, for example, various printer apparatuses such as an ink jet printer, a laser printer, a thermal transfer printer, and a dot printer are used.

通信制御装置(230)は、外部との間で各種データやプログラムを送受信するための装置であって、モデム、ターミナルアダプタその他の装置が使用される。
通信制御装置(230)は、例えばインターネットやLAN(Local Area Network)などに接続可能に構成されている。
通信制御装置(230)を介して、これらのネットワークで接続されたいずれかのサーバ3(3A、3B、…)に作成したシナリオデータをアップロードするようになっている。シナリオデータのアップロードは、図6(a)の収録シナリオの管理データ(自律起動条件等)と、図6(b)のシナリオ本体(シナリオデータ)の両者を一体としてアップロードする場合と、両者を分離してアップロードする場合とがある。
The communication control device (230) is a device for transmitting and receiving various data and programs to and from the outside, and a modem, a terminal adapter, and other devices are used.
The communication control device (230) is configured to be connectable to, for example, the Internet or a LAN (Local Area Network).
The created scenario data is uploaded to any of the servers 3 (3A, 3B,...) Connected via these networks via the communication control device (230). Scenario data can be uploaded by uploading the management data (autonomous activation conditions, etc.) of the recorded scenario in FIG. 6 (a) and the scenario body (scenario data) in FIG. And upload it.

シナリオ本体と収録シナリオ管理データを分離してアップロードする場合、シナリオ管理データには、シナリオ本体を起動するための自律起動条件と、シナリオ本体の保存先を示すURL(保存先指定情報)が含まれる。
この場合、エージェント装置1では、容量の大きいシナリオ本体はサーバに保存したまま、収録シナリオ管理データだけをダウンロードすればよく、少ない記憶容量でも多くの管理データを収集することができる。そして、自律起動条件を満たした際にURLを指定して該当するシナリオ本体を一時記憶して実行する。
When uploading the scenario main body and the recorded scenario management data separately, the scenario management data includes an autonomous start condition for starting the scenario main body and a URL (storage destination designation information) indicating the storage destination of the scenario main body. .
In this case, in the agent device 1, only the recorded scenario management data needs to be downloaded while the large-capacity scenario main body is stored in the server, and a large amount of management data can be collected with a small storage capacity. Then, when the autonomous activation condition is satisfied, the URL is specified and the corresponding scenario body is temporarily stored and executed.

また、シナリオ作成装置2の通信制御装置(230)は、ネットワークに接続した他のシナリオ作成装置との間で、お互いに作成したシナリオデータの送受信したり、シナリオデータの作成に必要なデータの送受信をしたりすることができるようになっている。シナリオ作成装置間でのシナリオデータの送受信を行う場合も、シナリオ本体と管理データとを一体で送受信する場合と、管理データ(自律起動条件とシナリオ本体の保存先URL等)のみを送受信する場合がある。
通信制御装置(230)はCPU(200-1)によって制御され、例えば、TCP/IPなどの所定のプロトコルに従ってこれら端末装置やサーバ装置との信号及びデータの送受信を行なう。
なお、シナリオ作成装置2で作成したシナリオデータは、ICカード等の記憶媒体に書き込んでエージェント装置1に取り込むことも可能である。
Also, the communication control device (230) of the scenario creation device 2 transmits / receives scenario data created with each other to / from other scenario creation devices connected to the network, and sends / receives data necessary for creating scenario data. You can do it. Even when scenario data is transmitted / received between scenario creation devices, there are cases where the scenario body and the management data are transmitted / received together, or only management data (such as the autonomous activation condition and the storage destination URL of the scenario body) is transmitted / received. is there.
The communication control device (230) is controlled by the CPU (200-1), and transmits and receives signals and data to and from these terminal devices and server devices according to a predetermined protocol such as TCP / IP.
The scenario data created by the scenario creation device 2 can be written in a storage medium such as an IC card and taken into the agent device 1.

記憶装置(240)は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータを読み書きするための駆動装置によって構成されている。当該記憶媒体として主にハードディスクが使用されるが、その他に、例えば、光磁気ディスク、磁気ディスク、半導体メモリなどの他の読み書き可能な記憶媒体によって構成することも可能である。
記憶装置(240)には、シナリオ編集プログラム(240-1)、シナリオ編集データ(240-2)、及びその他のプログラム・データ(240-3)が格納されている。その他のプログラムとして、例えば、通信制御装置(230)を制御し、シナリオ作成装置とネットワークでつながれた端末装置やサーバ装置との通信を維持する通信プログラムや、メモリ管理や入出力管理などのシナリオ作成装置を動作させるための基本ソフトウエアであるOS(Operating System)なども記憶装置(240)に格納されている。
記憶媒体駆動装置(250)は、着脱可能な記憶媒体を駆動してデータの読み書きを行なうための駆動装置である。着脱可能な記憶媒体としては、例えば、光磁気ディスク、磁気ディスク、磁気テープ、ICカード類、データをパンチした紙テープ、CD-ROMなどがある。
The storage device (240) includes a readable / writable storage medium and a drive device for reading / writing programs and data from / to the storage medium. A hard disk is mainly used as the storage medium, but other storage media that can be read and written such as a magneto-optical disk, a magnetic disk, and a semiconductor memory can also be used.
The storage device (240) stores a scenario editing program (240-1), scenario editing data (240-2), and other program data (240-3). Other programs include, for example, a communication program that controls the communication control device (230) and maintains communication with the terminal device and server device connected to the scenario creation device and the network, and scenario creation such as memory management and input / output management An OS (Operating System), which is basic software for operating the apparatus, is also stored in the storage device (240).
The storage medium driving device (250) is a driving device for driving a removable storage medium to read / write data. Examples of the removable storage medium include a magneto-optical disk, a magnetic disk, a magnetic tape, IC cards, a paper tape punched with data, and a CD-ROM.

シナリオ作成装置2は、記憶媒体駆動装置(250)によって記憶媒体を駆動することにより、シナリオデータが格納された記憶媒体からシナリオを取得したり、あるいは、作成したシナリオデータを記憶媒体駆動装置から記憶媒体に格納したりすることができる。
入出力I/F(260)は、例えば、シリアルインターフェースやその他の規格のインターフェースにより構成されている。
入出力I/F(260)に当該インターフェースに対応した外部機器を接続することにより、シナリオ作成装置の機能を拡張することができる。このような外部機器として例えば、ハードディスクなどの記憶装置、通信制御装置、スピーカ、マイクロフォンなどがある。
The scenario creation device 2 acquires a scenario from the storage medium storing the scenario data by driving the storage medium by the storage medium drive device (250), or stores the created scenario data from the storage medium drive device. Or it can be stored on a medium.
The input / output I / F (260) is composed of, for example, a serial interface or other standard interface.
By connecting an external device corresponding to the interface to the input / output I / F (260), the function of the scenario creation device can be expanded. Examples of such external devices include a storage device such as a hard disk, a communication control device, a speaker, and a microphone.

次に、シナリオ編集プログラム(240-1)と、シナリオ編集データ(240-2)の構成について説明する。
図15は、シナリオ編集プログラムとデータの構成を概念的に表したものである。
シナリオ編集プログラム(240-1)は、シナリオエディタ(240-1-1)と、シナリオコンパイラ(240-1-2)と、DB編集ツール(240-1-3)が存在する。
シナリオ編集データ(240-2)は、共通定義DB(240-2-1)と、ローカル定義DB(240-2-2)と、シナリオエディタで作成したSCE形式シナリオデータ(240-2-3)と、シナリオコンパイラで変換された実機形式(NAV形式)シナリオデータ(240-2-4)が存在する。
シナリオエディタ(240-1-1)は、シナリオデータを作成するアプリケーションプログラムである。
シナリオコンパイラ(240-1-2)は、シナリオエディタ(240-1-1)で作成されたSCE形式のシナリオデータ(240-2-3)を、エージェント装置で使用可能な実機形式のシナリオデータ(240-2-4)に変換するアプリケーションプログラムで、変換手段として機能する。
Next, the configuration of the scenario editing program (240-1) and scenario editing data (240-2) will be described.
FIG. 15 conceptually shows the configuration of the scenario editing program and data.
The scenario editing program (240-1) includes a scenario editor (240-1-1), a scenario compiler (240-1-2), and a DB editing tool (240-1-3).
Scenario edit data (240-2) is the common definition DB (240-2-1), local definition DB (240-2-2), and SCE scenario data (240-2-3) created with the scenario editor. And real machine format (NAV format) scenario data (240-2-4) converted by the scenario compiler exists.
The scenario editor (240-1-1) is an application program that creates scenario data.
The scenario compiler (240-1-2) converts the scenario data (240-2-3) created in the scenario editor (240-1-1) into scenario data (240-2-3) that can be used on the agent device ( It is an application program that converts to 240-2-4) and functions as a conversion means.

図16は、シナリオコンパイラ(240-1-2)によるシナリオデータのデータ形式を変更した状態を概念的に表したものである。
この図16に示されるように、シナリオコンパイラ(240-1-2)は、1個以上のSCE形式シナリオデータ(240-2-3)を、個々の実機形式(NAV形式)のシナリオ本体と、この個々のシナリオ本体に対応する1個の実記形式の集録シナリオ管理データからなるシナリオデータ(240-2-4)に変換する。
集録シナリオ管理データには、各シナリオ本体毎の自律起動条件とそのシナリオ本体が格納されているサーバのURLを含むデータで構成される。図示しないが、詳細には、各シナリオ本体毎にIDが付与されており、そのシナリオ本体のIDに対応する自律起動条件とサーバのURLとを紐付けておくことにより、車載装置においてのシナリオダウンロードが可能となる。
この自律起動条件は、後述するシナリオコンパイラ(240-1-2)により、各起動条件を分類した際に付けられる識別番号単位で管理される。
FIG. 16 conceptually shows a state in which the data format of the scenario data is changed by the scenario compiler (240-1-2).
As shown in FIG. 16, the scenario compiler (240-1-2) includes one or more SCE format scenario data (240-2-3), a scenario body in each actual machine format (NAV format), The data is converted into scenario data (240-2-4) consisting of one scenario-recorded acquisition scenario management data corresponding to each scenario main body.
The acquisition scenario management data is composed of data including an autonomous activation condition for each scenario body and a URL of a server storing the scenario body. Although not shown, in detail, an ID is assigned to each scenario body, and the scenario download in the in-vehicle device is performed by associating the autonomous activation condition corresponding to the scenario body ID with the URL of the server. Is possible.
The autonomous activation conditions are managed in units of identification numbers given when the activation conditions are classified by a scenario compiler (240-1-2) described later.

図15において、DB編集ツール(240-1-3)は、共通定義DB(240-2-1)に格納されているデータを編集・更新するためのアプリケーションプログラムである。
共通定義DB(240-2-1)は、シナリオデータを作成する際の定義データが格納される。共通定義DB(240-2-1)には、後述する自動起動項目データの他、シーン展開をするアクション項目及び追加判断項目、キャラクタの表示状態指示テーブル等が格納される。この共通定義DB(240-2-1)は、シナリオ作成装置の記憶装置ではなく、ローカルエリアネットワーク(LAN)でつながっているサーバ上に存在してもよい。こうすることで、ローカルエリアネットワーク(LAN)でつながっている各シナリオ作成装置は共通の共通定義DB(240-2-1)を使ってシナリオデータの作成ができる。
ローカル定義DB(240-2-2)は、シナリオ作成者がシナリオデータを作成中に定義した画面構成が格納される。
SCE形式シナリオデータ(240-2-3)は、シナリオエディタ(240-1-1)で作成されたデータである。
実機形式(NAV形式)シナリオデータ(240-2-4)は、シナリオコンパイラ(240-1-2)によってSCE形式シナリオデータ(240-2-3)からエージェント装置で使用するためのデータ形式に変換されたデータである。
In FIG. 15, a DB editing tool (240-1-3) is an application program for editing / updating data stored in the common definition DB (240-2-1).
The common definition DB (240-2-1) stores definition data when creating scenario data. The common definition DB (240-2-1) stores, in addition to automatic start item data, which will be described later, action items for scene development, additional determination items, a character display state instruction table, and the like. This common definition DB (240-2-1) may exist on a server connected by a local area network (LAN) instead of the storage device of the scenario creation device. By doing so, scenario creation devices connected by a local area network (LAN) can create scenario data using a common common definition DB (240-2-1).
The local definition DB (240-2-2) stores the screen configuration defined by the scenario creator while creating the scenario data.
The SCE format scenario data (240-2-3) is data created by the scenario editor (240-1-1).
Real machine format (NAV format) scenario data (240-2-4) is converted from SCE format scenario data (240-2-3) to data format for use on agent devices by scenario compiler (240-1-2) Data.

図17は、共通定義DB(240-2-1)に格納されている自動起動項目として設定可能な項目を例示したものである。
この自動起動項目は、エージェント装置で検出、認識、確認可能な各項目の種類のサンプルを概念的に一覧表示したものである。
この自動起動項目は、共通定義DB(240-2-1)に記述されており、シナリオエディタ(240-1-1)でシナリオを作成する際に、自律起動条件を設定するために、自動起動項目が共通定義DB(240-2-1)から読み出され、リスト表示される(提示手段)。作成者は、このリスト表示(一覧表示)された中から自動起動項目を選択する(選択手段)。
それぞれ選択された項目の種類に記されている内容によって数値入力を行なうウインドウが表示されたり、一覧から選択するウインドウが表示されたりして自動起動項目の判断条件を入力する。この操作を1又は複数回繰り返しシナリオを自律的に起動するための判断条件である自律起動条件のデータが作成される。
このように、画面要素推移体(シナリオ)の起動条件を設定することにより、起動条件設定手段が形成される。
FIG. 17 exemplifies items that can be set as automatic start items stored in the common definition DB (240-2-1).
This automatic activation item is a conceptual list of samples of each item type that can be detected, recognized, and confirmed by the agent device.
This automatic start item is described in the common definition DB (240-2-1). When creating a scenario with the scenario editor (240-1-1), it is automatically started to set the autonomous start condition. Items are read from the common definition DB (240-2-1) and displayed in a list (presentation means). The creator selects an automatic activation item from the list display (list display) (selection means).
A window for inputting a numerical value or a window for selecting from a list is displayed depending on the contents described in the type of each selected item, and a condition for determining the automatic activation item is input. Autonomous activation condition data, which is a determination condition for autonomously activating a scenario by repeating this operation one or more times, is created.
In this way, the activation condition setting means is formed by setting the activation condition of the screen element transition body (scenario).

図17(b)、図17(c)は、自動起動項目に対して、自律起動条件として選択可能な選択可能項目を例示したものである。
選択可能項目も共通定義DB(240-2-1)に記述されている。図17(a)に例示した自動起動項目を示したテーブルのうち、種別の欄に一覧から選択と表記された項目について、更に下位の概念として選択可能な項目が、選択可能項目として図17(b)、図17(c)に規定されている。選択可能項目に規定されたグループと、自動起動項目の項目とは、一番左側のNo.の項目で対応付けられている。
選択された自動起動項目と選択された選択可能項目及び入力された数値や時刻、距離等の組み合わせが、各シナリオに対する自律起動条件となる。例えば、ユーザによる選択が、自動起動項目「加速度」、選択可能項目「急減速状態」である場合、自律起動条件は「加速度−急減速」となる。
なお、本サンプルはあくまでもサンプルであり定義を変更してもよい。
例えば車速入力を一覧から選択にし、10km/h毎に区切られた項目の中から選択する形をとってもよい。
FIG. 17B and FIG. 17C illustrate selectable items that can be selected as an autonomous activation condition for the automatic activation item.
Selectable items are also described in the common definition DB (240-2-1). In the table showing the automatic start items exemplified in FIG. 17A, items that can be selected as a lower concept for the items indicated as selection from the list in the type column are shown as selectable items in FIG. b) Specified in FIG. 17 (c). The group defined in the selectable item and the item of the automatic start item are associated with the No. item on the left side.
A combination of the selected automatic activation item, the selected selectable item, and the input numerical value, time, distance, and the like becomes an autonomous activation condition for each scenario. For example, when the selection by the user is the automatic activation item “acceleration” and the selectable item “rapid deceleration”, the autonomous activation condition is “acceleration-rapid deceleration”.
Note that this sample is just a sample and the definition may be changed.
For example, the vehicle speed input may be selected from a list and selected from items separated every 10 km / h.

図15における共通定義DB(240-2-1)には、更に、1のシーン(画面要素)から次のシーンに展開するための移行条件(展開条件)や分岐条件が格納されている。
展開条件の各項目は、各シーンの展開構成を作成する際に読み出され、分岐条件指定ウインドウにリスト表示される。このリスト表示された中から展開条件項目を選択することにより、図9の(a)から(b)へ、(b)から(c)へと例示されるように、シーンの展開構成が作成される。
また、各シーンから条件を判断して、その判断結果から複数のシーンに分岐する場合の条件項目も選択可能である。図9の例では、(c)から(d)と(f)に分岐するシーンが展開されている。
このように通常シーンの後に分岐シーンを複数(直列、及び並列に)継続させることで、1の通常シーンに対して多彩な条件で分岐する複数の通常シーンを展開させることが可能になる。
The common definition DB (240-2-1) in FIG. 15 further stores transition conditions (development conditions) and branch conditions for expanding from one scene (screen element) to the next scene.
Each item of the development condition is read out when creating the development configuration of each scene, and is displayed in a list in the branch condition designation window. By selecting a development condition item from the list displayed, a scene development configuration is created as illustrated from (a) to (b) and (b) to (c) in FIG. The
In addition, it is possible to select a condition item when judging a condition from each scene and branching to a plurality of scenes from the judgment result. In the example of FIG. 9, a scene that branches from (c) to (d) and (f) is developed.
In this way, by continuing a plurality of branch scenes (in series and in parallel) after the normal scene, it is possible to develop a plurality of normal scenes that branch under various conditions with respect to one normal scene.

共通定義DB(240-2-1)には、その他、音声認識に使用する音声認識用データと、キャラクタの動作指示に使用するデータ(別途台詞の指示データも存在する)と、各シーンで設定した指示をプレビューして確認するためのキャラクタ画像データ及びキャラクタ台詞データ及びキャラクタによらない統一の指示に対する各キャラクタの表現方法への変換テーブルと、表示装置(2)に表示する各パーツデータ及びそれらをどのように配置するかが記された画面構成データと、シーンにおける処理内容として選択可能な項目、例えば、エージェントが処理可能な行為である、オーディオ装置のオン・オフやチャンネル選択、エアコン装置のオン・オフと温度設定、全体処理部(102)に供給する目的地の設定等の各種処理内容項目データ等が格納されている。
これら全ての定義データも、各定義データと同様に、変更及び追加がDB編集ツール(240-1-3)を使って行なうことができるようになっている。
各シーンで設定した指示をプレビューして確認するためのキャラクタ画像データは、エージェント装置に格納されている各種キャラクタの画像データが格納されている。
In the common definition DB (240-2-1), other settings are made for each scene, including voice recognition data used for voice recognition, data used for character movement instructions (separate line instruction data also exists), and so on. Character image data and character dialogue data for previewing and confirming the designated instructions, a conversion table to the expression method of each character for a unified instruction independent of characters, each part data to be displayed on the display device (2), and those Screen configuration data describing how to arrange the items and items that can be selected as processing contents in the scene, for example, actions that can be processed by the agent, on / off of the audio device, channel selection, air conditioner device Various processing content item data such as on / off, temperature setting, destination setting to be supplied to the overall processing unit (102), and the like are stored.
All these definition data can be changed and added using the DB editing tool (240-1-3) as well as each definition data.
Character image data for previewing and confirming the instruction set in each scene stores image data of various characters stored in the agent device.

次に、このように構成されたシナリオ作成装置によるシナリオ作成の各動作について、画面の遷移に従って説明する。
図18は、シナリオエディタ(240-1-1)を起動した場合に表示装置に表示されるメインウインドウの構成を表したものである。
以下に説明するように、このメインウィンドウからの各種設定により、車載装置の表示画面と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データを作成する画面要素推移体作成手段が構成される。
この図18に示されるように、メインウインドウは、作成中のシーン画面(エージェント装置1の表示装置(2)に表示されるシーン画面(図9参照))が表示されるシーン画面301と、各種設定を行う設定項目が表示された設定画面303と、シーンの展開構成(分岐の状態)が各シーンを表すシーンアイコン307のツリー構造により表示されるシーン展開画面305、及び処理アイコン表示部で構成されている。
Next, each operation of scenario creation by the scenario creation device configured as described above will be described according to the transition of the screen.
FIG. 18 shows the configuration of the main window displayed on the display device when the scenario editor (240-1-1) is activated.
As described below, the screen element transition body data configured by combining the screen elements in which the processing contents executed in synchronization with the display screen of the in-vehicle device are defined is created by various settings from the main window. Screen element transition body creation means is configured.
As shown in FIG. 18, the main window includes a scene screen 301 on which a scene screen being created (a scene screen (see FIG. 9) displayed on the display device (2) of the agent device 1) is displayed. A setting screen 303 for displaying setting items to be set, a scene development screen 305 in which a scene development configuration (branch state) is displayed by a tree structure of scene icons 307 representing each scene, and a processing icon display unit Has been.

シナリオエディタ(240-1-1)を起動すると、メインウインドウのシーン展開画面305には、スタートポイント308が表示される。このスタートポイント308を選択するとシナリオプロパティの編集ができる。選択は、例えば、マウスカーソルによるポイント位置を該当箇所に合わせて、マウスをダブルクリックすることで選択される。
画面構成の変更ボタン309は、表示したい画面構成を選択するボタン、効果音設定ボタン310は、シナリオのシーン毎に効果音を設定する画面を表示するボタンである。
エージェント表示画面311を選択すると、エージェント(キャラクタ)の動作の編集画面が表示される。
When the scenario editor (240-1-1) is activated, a start point 308 is displayed on the scene development screen 305 of the main window. When this start point 308 is selected, scenario properties can be edited. The selection is made by, for example, matching the point position by the mouse cursor to the corresponding location and double-clicking the mouse.
The screen configuration change button 309 is a button for selecting a screen configuration to be displayed, and the sound effect setting button 310 is a button for displaying a screen for setting sound effects for each scene of the scenario.
When the agent display screen 311 is selected, an agent (character) action editing screen is displayed.

台詞編集ボタン313は、キャラクタの台詞の指示を編集するボタンである。
ボタンパーツとバックグラウンド音声認識辞書設定315を選択すると使用する音声認識辞書の編集ができる。シーン画面301の回答選択ボタン315aのマークで表示されている方を選択すると認識する単語の名称がシーン画面に表示され、バックグラウンドで認識する方315bを選択すると、音声認識の対象となるが認識する単語の名称は表示されない。
タイマー設定ボタン317は、タイマー設定情報を設定、及び変更するためのボタンである。
外部機器等の制御指示編集319では、外部機器等(ナビも含む)の制御指示を設定する。
The dialogue editing button 313 is a button for editing a dialogue instruction of the character.
When the button part and the background speech recognition dictionary setting 315 are selected, the speech recognition dictionary to be used can be edited. The name of the word to be recognized is displayed on the scene screen when the one displayed with the answer selection button 315a mark on the scene screen 301 is selected, and when the person 315b to be recognized in the background is selected, it is recognized as a voice recognition target. The name of the word to be displayed is not displayed.
The timer setting button 317 is a button for setting and changing timer setting information.
In the control instruction editing 319 for an external device or the like, a control instruction for an external device or the like (including a navigation) is set.

音声認識開始制御指示320aでは、作成中のシーンにおいて音声認識を行う場合に、音声認識の開始をどのようにするかを規定する音声認識の指示を設定する。音声認識の指示としては、音声認識を「自動で開始する」、「自動で開始しない」、「エージェント装置(車載装置)が判断する(おまかせ)」、のうちのいずれかを選択可能になっている。
コールバック制御指示320bでは、音声認識の結果を確認するためのコールバックを行うか否かについての指示を設定する。コールバックの指示としては、「コールバックする」、「コールバックしない」、エージェント装置が状況判断してコールバックをするかしないかを判断する「エージェント装置が判断(おまかせ)」のうちのいずれかを選択可能になっている。
The voice recognition start control instruction 320a sets a voice recognition instruction that defines how to start voice recognition when voice recognition is performed in the scene being created. As an instruction for voice recognition, one of “start automatically”, “do not start automatically”, and “judgment by agent device (on-vehicle device)” can be selected. Yes.
In the callback control instruction 320b, an instruction as to whether or not to perform a callback for confirming the result of voice recognition is set. As a callback instruction, one of “call back”, “do not call back”, or “agent device determines (automatic)” that determines whether the agent device determines the situation and determines whether to call back or not. Can be selected.

AMMの変化の設定変更ボタン321は、作成中のシーンでエージェントの各長期的感情要素を変更するためのボタンである。
シーン展開表示部322は、シーン展開画面で指定された(アクティブ状態の)シーンに対して規定されている展開条件項目及び追加条件項目と、その条件項目を満たす場合に継続(接続)するシーンが表示される。
シーン展開表示部322の左側には、図18に示されるように、アクティブ状態のシーンに設定された展開条件(表2参照)や追加条件の分類(表3参照)がツリー構造で表示される。また、シーン展開表示部の右側には、移行条件の内容とその接続先(展開先のシーン番号)が表示される。
処理アイコン表示部には、シーン作成ボタン323、分岐シーン作成ボタン324、ダミーシーン作成ボタン325、エイリアスシーン指定ボタン326、エンドIDボタン327、リンクIDボタン328、挿入ボタン329、上下差替ボタン330、シーン再生ボタン331、ビルドボタン332、その他の処理ボタンが表示されている。
The AMM change setting change button 321 is a button for changing each long-term emotional element of the agent in the scene being created.
The scene development display unit 322 displays a development condition item and an additional condition item that are defined for a scene (active state) specified on the scene development screen, and a scene that is continued (connected) when the condition item is satisfied. Is displayed.
On the left side of the scene development display unit 322, as shown in FIG. 18, the development conditions (see Table 2) and the classification of additional conditions (see Table 3) set for the active scene are displayed in a tree structure. . In addition, on the right side of the scene development display portion, the contents of the transition condition and the connection destination (the scene number of the development destination) are displayed.
The processing icon display section includes a scene creation button 323, a branch scene creation button 324, a dummy scene creation button 325, an alias scene designation button 326, an end ID button 327, a link ID button 328, an insert button 329, an up / down replacement button 330, A scene playback button 331, a build button 332, and other processing buttons are displayed.

シーン作成ボタン323は、新たに通常シーンを作成する場合に使用する。
シーン作成ボタン323をクリックするとシナリオの流れを編集できる(次のシーンを作成する)。シーン作成ボタン323をクリックすると、現在選択しているシーンの次に展開する通常シーンの作成が可能になる。
シーン作成ボタン323でシナリオの流れを分岐させることで、各通常シーンに対する展開構成が作成される。例えば、図18のシーン展開画面305に表示されているシーン展開構成に於いて、通常シーンのアイコン5を選択した状態(アクティブ表示されている状態)で、シーン作成ボタン323をクリックするとシーン5に続くシーンのアイコンが下層側に表示され、複数回クリック(複数回作成操作を行う)することでシーン5に続いて展開される通常シーン7、8、…が分岐して作成される。
The scene creation button 323 is used when a new normal scene is created.
Clicking the scene creation button 323 allows you to edit the scenario flow (create the next scene). When the scene creation button 323 is clicked, a normal scene to be developed next to the currently selected scene can be created.
By branching the scenario flow with the scene creation button 323, a development configuration for each normal scene is created. For example, in the scene development configuration displayed on the scene development screen 305 in FIG. The icon of the subsequent scene is displayed on the lower layer side, and normal scenes 7, 8,... Developed after the scene 5 are branched and created by clicking a plurality of times (a plurality of creation operations are performed).

すなわち、シーンm(通常シーン又は分岐シーン)を選択した状態でシーン作成ボタン323をクリックすることで、シーンmに続く次の通常シーンm1が作成される。そして、再度シーンmを選択した状態で、シーン作成ボタン323をクリックするとシーンmに続く次の通常シーンm2が、通常シーンm1と並列に分岐して作成される。同様に再度シーンmを選択した状態でシーン作成ボタン323をクリックすると通常シーンm3が作成される。
そして、作成した通常シーンm1に続くシーンを更に展開させたい場合には、通常シーンm1を選択した状態でシーン作成ボタン323をクリックすることで、通常シーンm1に続く次の通常シーンm1-1が作成される。通常シーンm1から分岐する別のシーンを作成する場合にはシーンm1を再度選択してシーン作成ボタン323をクリックすればシーンm1に続くシーンm1-2が作成される。
That is, when the scene creation button 323 is clicked with the scene m (normal scene or branch scene) selected, the next normal scene m1 following the scene m is created. When the scene creation button 323 is clicked with the scene m selected again, the next normal scene m2 following the scene m is created in parallel with the normal scene m1. Similarly, when the scene creation button 323 is clicked with the scene m selected again, a normal scene m3 is created.
If you want to further develop the scene that follows the created normal scene m1, click the scene creation button 323 with the normal scene m1 selected, so that the next normal scene m1-1 that follows the normal scene m1 is displayed. Created. When another scene branched from the normal scene m1 is created, the scene m1-2 subsequent to the scene m1 is created by selecting the scene m1 again and clicking the scene creation button 323.

更に、作成した通常シーンm1-1アクティブにした状態でシーン作成ボタン323をクリックすれば、通常シーンm1-1に続く通常シーンm1-1-1が作成される。
分岐シーン作成ボタン324、新たに分岐シーンを作成する場合に使用する。
分岐シーン作成ボタン324をクリックするとシナリオの流れを編集できる(次の分岐シーンを作成する)。分岐シーン作成ボタン324をクリックすると、現在選択しているシーンの次に展開する分岐シーンの作成が可能になる。
分岐シーン作成ボタン324により、展開条件に続けてさらに複数の追加条件で分岐させることで、移行条件の論理演算(論理和、論理積)による各通常シーンに対する展開構成を作成することができる。
Furthermore, when the scene creation button 323 is clicked in a state where the created normal scene m1-1 is activated, a normal scene m1-1-1 following the normal scene m1-1 is created.
Branch scene creation button 324, which is used to create a new branch scene.
Click the branch scene creation button 324 to edit the scenario flow (create the next branch scene). When the branch scene creation button 324 is clicked, a branch scene to be developed next to the currently selected scene can be created.
By using the branch scene creation button 324, branching is performed under a plurality of additional conditions following the development condition, so that a development configuration for each normal scene can be created by a logical operation (logical sum, logical product) of the transition conditions.

例えば、図18のシーン展開画面305に表示されているシーン展開構成において、通常シーン1から通常シーン2に展開する場合に、両通常シーン間に分岐シーン4と分岐シーン6を挿入することで、通常シーン1に規定する状態変化をした場合で、分岐条件4と分岐条件6の両者を満たした場合に通常シーン2が通常シーン1に続いて展開される。このように、分岐シーンを複数使用することで、多彩な条件設定により種々の展開をするシナリオを作成することができる。   For example, in the scene development configuration displayed on the scene development screen 305 in FIG. 18, when developing from the normal scene 1 to the normal scene 2, by inserting the branch scene 4 and the branch scene 6 between the two normal scenes, When the state change defined in the normal scene 1 is performed and both the branch condition 4 and the branch condition 6 are satisfied, the normal scene 2 is developed following the normal scene 1. In this way, by using a plurality of branch scenes, it is possible to create scenarios that perform various developments with various condition settings.

図18において分岐シーンは符号333で表されている。分岐シーンの作成は、通常シーンに続けることも、分岐シーンに続けて作成することも可能である。例えば、図18のシーン展開画面305の通常シーン1をアクティブにした状態で分岐シーン作成ボタン324を選択することで分岐シーン4が作成され、この分岐シーンをアクティブにした状態で更に分岐シーン作成ボタン324を選択することで分岐シーン6が作成されている。
分岐シーンを階層的に作成する方法は、上で説明した通常シーンの作成方法と同様である。
In FIG. 18, the branch scene is denoted by reference numeral 333. A branch scene can be created following a normal scene or a branch scene. For example, a branch scene 4 is created by selecting the branch scene creation button 324 with the normal scene 1 on the scene development screen 305 of FIG. 18 activated, and a branch scene creation button with this branch scene activated. Branch scene 6 is created by selecting 324.
The method for creating the branch scene hierarchically is the same as the method for creating the normal scene described above.

ダミーシーン作成ボタン325は、ダミーシーンを作成するボタンである。
ダミーシーンは、シーンを管理する管理データと、各種処理データと、展開管理データとで構成されていて、ナビゲーション機能における目的地の設定処理、エージェントの学習結果の記憶処理等の各種処理が規定される。
エイリアスシーン指定ボタン326は、アクティブ状態のシーン(通常シーン、分岐シーン)から、作成済みの他のシーン(通常シーン、分岐シーン)に移行させるボタンである。
例えば、シーン展開画面305のシーン展開構成において分岐シーン6をアクティブにした状態で、エイリアスシーン指定ボタン326を選択した後に、移行したいシーン画面5を選択すると、シーン画面5に移行することを表すエイリアス画面334が表示される。
終了位置作成ボタン327は、シナリオの終了位置を特定するためのエンドIDを作成するためのボタンである。
The dummy scene creation button 325 is a button for creating a dummy scene.
The dummy scene is composed of management data for managing the scene, various processing data, and development management data, and various processing such as destination setting processing and agent learning result storage processing in the navigation function is defined. The
The alias scene designation button 326 is a button for shifting from an active scene (normal scene, branch scene) to another created scene (normal scene, branch scene).
For example, in the scene development configuration of the scene development screen 305, when the branch scene 6 is activated and the alias scene designation button 326 is selected and then the scene screen 5 to be transferred is selected, the alias indicating that the scene screen 5 is transferred A screen 334 is displayed.
The end position creation button 327 is a button for creating an end ID for specifying the end position of the scenario.

終了位置作成ボタン327をクリックするとシナリオの終了位置340を作成できる。作成した各シナリオの終了位置340には、終了番号がエンドIDとして割り振られるようになっている。
作成したシナリオの終了位置340を選択すると、エンドプロパティ編集画面(図40参照)を表示し、この画面において、エージェントの各短期的感情要素を設定、及び変更することができる。
リンクIDボタン328は、シーンに他のシナリオをリンクさせるリンクIDを作成するためのボタンである。
When the end position creation button 327 is clicked, a scenario end position 340 can be created. An end number is assigned as an end ID to the end position 340 of each created scenario.
When the end position 340 of the created scenario is selected, an end property editing screen (see FIG. 40) is displayed, and each short-term emotion element of the agent can be set and changed on this screen.
The link ID button 328 is a button for creating a link ID for linking another scenario to the scene.

挿入ボタン329は、それぞれアクティブ状態のシーン(通常シーン、分岐シーン)又はエンドマークの前に通常シーン、分岐シーン、ダミーシーンを挿入するためのボタンである。各シーンの種類に応じたボタンを選択する。
上下差替ボタン330は、シーンの上下位置を変更するボタンであり、アクティブなシーンを上に移動するボタンと下に移動するボタンがある。
シーン再生ボタン331は、アクティブな通常シーンを再生するためのボタンである。
ビルドボタン332は、作成したシナリオをエージェント装置で使うための実機形式(NAV形式)のフォーマットにコンパイルするためのボタンである。
The insert button 329 is a button for inserting a normal scene, a branch scene, and a dummy scene before an active scene (normal scene, branch scene) or end mark, respectively. Select a button for each scene type.
The up / down replacement button 330 is a button for changing the vertical position of the scene, and includes a button for moving the active scene up and a button for moving down the active scene.
The scene playback button 331 is a button for playing back an active normal scene.
The build button 332 is a button for compiling the created scenario into an actual machine format (NAV format) for use by the agent device.

なお、図18に示したメインウインドウは、シナリオの作成途中を例示したもので、シナリオエディタ(240-1-1)を起動した当初の画面は、シーン展開画面305にスタートポイント308だけが表示され、シーン画面301には何も表示されていず、設定画面303も未設定(デフォルト値は表示されている)の状態である。   Note that the main window shown in FIG. 18 is an example of a scenario being created, and only the start point 308 is displayed on the scene development screen 305 when the scenario editor (240-1-1) is started. Nothing is displayed on the scene screen 301, and the setting screen 303 is not set (the default value is displayed).

シーン展開画面305において分岐シーン、例えば、図18の分岐シーン4を選択してアクティブにするとシーン画面301の領域に、追加条件分類表示欄と、追加条件項目欄が表示される。
分岐条件分類表示欄には、アクティブ状態の分岐シーンに対して選択されている追加条件項目の分類が表示され、分岐条件項目欄には、分岐先を指定する追加条件項目が表示される。
When a branch scene, for example, branch scene 4 in FIG. 18 is selected and activated on the scene development screen 305, an additional condition classification display field and an additional condition item field are displayed in the area of the scene screen 301.
The branch condition classification display field displays the classification of the additional condition item selected for the active branch scene, and the branch condition item field displays the additional condition item for designating the branch destination.

図19は、シナリオプロパティを編集する画面操作の流れを表したものである。
図18に示したメインウインドウにおいて、シーン展開画面305に表示されているスタートポイント308をダブルクリックすると、図19に示すシナリオプロパティの編集ウインドウがメインウインドウ上に重ねて表示される。
このシナリオプロパティの編集ウインドウにおいて、シナリオ名称入力、カナ名称入力、アイコン選択、ジャンル選択、プライオリティの設定、有効期限(開始条件を満たしてから実際に開始するまでのタイムラグの上限値)の設定、走行中実行条件の設定、シナリオの起動条件の設定(別ウインドウ)、スタンバイ処理使用条件の設定、作成者名称入力、コメント入力が行なえる。この画面で入力されるシナリオ名称入力、カナ名称入力は、実機形式のシナリオデータにおける管理データ等となる。
シナリオプロパティの編集ウインドウにおいて、決定ボタン402をクリックすると編集内容がデータに反映され、メインウインドウに戻る。一方、キャンセルボタン403をクリックするとデータに反映されなで、メインウインドウに戻る。
シナリオプロパティの編集ウィンドウ(図19)において、スタンバイ処理使用条件の設定ボタン409をクリックすると、スタンバイ処理の条件画面が表示され、スタンバイ処理を行うか否かを選択できるようになっている。
FIG. 19 shows the flow of screen operations for editing scenario properties.
In the main window shown in FIG. 18, when the start point 308 displayed on the scene development screen 305 is double-clicked, the scenario property editing window shown in FIG. 19 is displayed over the main window.
In this scenario property editing window, scenario name input, kana name input, icon selection, genre selection, priority setting, expiration date (upper limit of time lag from start condition to actual start) setting, travel Setting of medium execution condition, setting of scenario start condition (separate window), setting of standby process use condition, creator name input and comment input can be performed. The scenario name input and kana name input entered on this screen are management data in scenario data in the actual machine format.
When the OK button 402 is clicked in the scenario property editing window, the edited content is reflected in the data, and the screen returns to the main window. On the other hand, when the cancel button 403 is clicked, it is not reflected in the data and returns to the main window.
When a standby process use condition setting button 409 is clicked in the scenario property edit window (FIG. 19), a standby process condition screen is displayed, and it is possible to select whether or not to perform standby process.

シナリオプロパティの編集ウインドウにおいて、起動条件の設定ボタン401を選択すると、図20(a)に示す、シナリオ開始条件(自動起動条件)のメイン編集ウインドウが表示される。
以下に説明する、このシナリオ開始条件のメイン編集ウィンドウによる設定処理により、画面要素推移体データを起動する起動条件を設定する起動条件設定手段が構成される。
シナリオ開始条件のメイン編集ウインドウ(図20(a))では、ユーザがシナリオを手動で開始できるように設定できる。この事例ではチェックボックス406のチェックを外して手動で起動しないに設定されている。
When the start condition setting button 401 is selected in the scenario property edit window, the main edit window for the scenario start condition (automatic start condition) shown in FIG. 20A is displayed.
The start condition setting means for setting the start condition for starting the screen element transition body data is configured by the setting process in the main edit window of the scenario start condition described below.
The main editing window (FIG. 20 (a)) of the scenario start condition can be set so that the user can start the scenario manually. In this example, the check box 406 is unchecked and set to not start manually.

このシナリオ開始条件のメイン編集ウインドウ(a)の左側の自動起動条件(自律起動条件)一覧にはシステムがシナリオを自動で開始する条件が表示される。図20(a)の状態では、まだ何も設定されていないので空欄の状態である。
シナリオ開始条件のメイン編集ウインドウ(図20(a))において、新規作成ボタン405をクリックすると、自動開始条件選択ウインドウ(図20(b))が表示され、新しい開始条件の編集ができる。
Conditions for automatically starting a scenario by the system are displayed in the list of automatic start conditions (autonomous start conditions) on the left side of the main editing window (a) for this scenario start condition. In the state of FIG. 20 (a), nothing has been set yet, so this is a blank state.
When the new creation button 405 is clicked in the main editing window (FIG. 20A) of the scenario start condition, an automatic start condition selection window (FIG. 20B) is displayed and a new start condition can be edited.

自動開始条件選択ウインドウ(図20(b))において、設定したい判断条件項目(カテゴリ)を選択し、決定をクリックすると自動開始する条件範囲の選択ウインドウ(図20(c))へ進む。この図20(b)の例示では、高速道路走行中にシナリオを自動で開始(自律起動)したいので、「道路の状態がどのようなときに起動するか選択」の中の「種類を選択」の項目を選択し、決定をクリックする。
キャンセルをクリックするとシナリオ開始条件のメイン編集ウインドウ(図20(a))に戻る。
In the automatic start condition selection window (FIG. 20 (b)), the judgment condition item (category) to be set is selected, and when the decision is clicked, the process proceeds to the condition range selection window (FIG. 20 (c)) to be automatically started. In the example of FIG. 20B, since it is desired to automatically start (autonomous activation) a scenario while traveling on a highway, “select type” in “select when to activate the road state” Select the item and click OK.
Click Cancel to return to the main editing window (FIG. 20 (a)) of the scenario start condition.

この自動開始条件選択ウインドウ(図20(b))に表示し、選択できる項目は、図17(a)に表示した自動起動項目である。図20(b)において、「いつ起動させるかを選択」のフォルダ内を選択すると図17(a)のNo.1〜10の条件項目が1つ下の階層に表示される。
同様に、「どこで起動させるかを選択」のフォルダを選択するとNo.10〜16が、「道路の状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.21〜23が、「車の状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.17〜20が、「ナビの状態がどのようなときに起動させるかを選択」のフォルダを選択するとNo.21〜28が、「ユーザがどのようなときに起動させるかを選択」のフォルダを選択するとNo.29〜30が、それぞれ1つ下の階層に表示される。
Items that can be displayed and selected in the automatic start condition selection window (FIG. 20B) are the automatic start items displayed in FIG. In FIG. 20B, when the “Select when to start” folder is selected, the condition items No. 1 to No. 10 in FIG. 17A are displayed in the next lower hierarchy.
Similarly, if you select the “Select where to start” folder, No. 10 to 16 will be selected, and if you select the “Select when to start when road condition” folder, No. 21 to 23 will be displayed. , When you select the folder “Select when to start the car” No.17 ~ 20, when you select the folder “Select when to start the navigation” When No. 21 to 28 select a folder “Select when to start when user”, No. 29 to 30 are displayed in the next lower hierarchy.

自動開始する条件範囲の選択ウインドウ(図20(c))では、前のウインドウ(b)で選択した判断条件項目(カテゴリ)によってウインドウの構成が変わる。図示した例では、道路の種類を選択する項目のウインドウが表示されている。
自動開始する条件範囲の選択ウインドウ(図20(c))で、選択可能な項目は、自動開始条件選択ウインドウ(図20(b))で選択した自動起動項目に対応する、選択できる項目(図17(b))である。この選択できる項目は、選択項目欄408右側のマークをクリックすることで、プルダウンメニュー表示される。
In the condition range selection window (FIG. 20C) to be automatically started, the window configuration changes depending on the judgment condition item (category) selected in the previous window (b). In the illustrated example, an item window for selecting a road type is displayed.
Items that can be selected in the automatic start condition range selection window (FIG. 20C) are selectable items corresponding to the automatic start items selected in the automatic start condition selection window (FIG. 20B) (FIG. 20). 17 (b)). This selectable item is displayed in a pull-down menu by clicking the mark on the right side of the selection item column 408.

自動で開始しても良い条件範囲を一覧から選択(又は数字で入力)し、追加ボタンをクリックすると選択した項目が設定されて下の欄に表示される。図示した例では、「高速道路」を選択して追加ボタンをクリックした場合が表示されている。
自動開始する条件範囲の選択ウインドウ(図20(c))で決定ボタンをクリックするとその設定状態に決定し、シナリオ起動条件のメイン編集ウインドウ(図20(c))に戻る。
キャンセルをクリックすると自動開始条件選択ウインドウ(図20(b))に戻る。
図20(d)のシナリオ開始条件のメイン編集ウインドウでは、左側の自動起動条件一覧に、上記操作で設定した自動で開始する条件(道路の種類が高速道路だったら起動する)が表示されている。
また、自動起動の条件一覧画面に表示されている自動で開始する条件を選択して編集ボタンをクリックすると、選択した条件にさらに条件設定を追加するための自動開始条件選択ウインドウ(図20(b))が表示される。
Select a condition range that may be started automatically from the list (or enter a number), and click the Add button to set the selected item and display it in the lower column. In the illustrated example, the case where “highway” is selected and the add button is clicked is displayed.
When the determination button is clicked in the condition range selection window (FIG. 20 (c)) to be automatically started, the setting state is determined, and the scenario editing condition main editing window (FIG. 20 (c)) is returned.
Click Cancel to return to the automatic start condition selection window (FIG. 20B).
In the main editing window of the scenario start condition in FIG. 20 (d), the automatic start condition list set in the above operation is displayed on the left side of the automatic start condition list (starts when the road type is a highway). .
When an automatic start condition displayed on the automatic start condition list screen is selected and the edit button is clicked, an automatic start condition selection window (FIG. 20 (b) for adding additional condition settings to the selected condition. )) Is displayed.

次に、自律起動条件以外の、シナリオを作成する各種操作について説明する。
エージェント表示画面51(図9参照)に表示する画面構成は、図18に示されるメインウインドウのシーン展開画面305に表示されているシーンアイコン307を選択してアクティブ状態にすると、選択したシーンアイコンに対応するシーン画面が表示される。このそして、設定画面303の画面構成の変更ボタン309をクリックすると、画面構成の選択ウインドウが表示される。
この画面構成の選択ウインドウでは、シーン表示画面54(図9参照)に表示可能なる画面の構成として、何も表示されない基本画面、ボタンによる選択ボタンが2つ表示された2択画面、選択ボタンが複数表示されたボタン選択画面、例えば、都道府県名等の複数の項目がリスト表示されるリスト選択画面、画像データを表示する画像表示画面等の各種選択可能な画面が表示される。
一覧表示された各画面構成の中から1の画面構成を選択することで画面構成を決定する。
Next, various operations for creating a scenario other than the autonomous activation condition will be described.
The screen configuration displayed on the agent display screen 51 (see FIG. 9) is that the scene icon 307 displayed on the scene development screen 305 of the main window shown in FIG. The corresponding scene screen is displayed. When a screen configuration change button 309 on the setting screen 303 is clicked, a screen configuration selection window is displayed.
In this screen configuration selection window, as a screen configuration that can be displayed on the scene display screen 54 (see FIG. 9), there is a basic screen in which nothing is displayed, a 2-option screen in which two selection buttons are displayed, and a selection button. A plurality of selectable screens such as a plurality of button selection screens, for example, a list selection screen in which a plurality of items such as prefecture names are displayed in a list, and an image display screen in which image data is displayed are displayed.
The screen configuration is determined by selecting one screen configuration from the listed screen configurations.

シーン画面の編集状態を表しているメインウィンドウ(図18)において、エージェント表示画面311をマウスでダブルクリックすると、キャラクタ動作(エージェントの動作)指示を編集する動作編集ダイアログが表示される。
この動作編集ダイアログにおいて、お辞儀をする、右を指す、右を見る等の個別の動作の一覧や、感謝、否定、誉める、挨拶等の表現内容の一覧が表示され、各シーン画面毎のキャラクタの動作を指定する。
When the agent display screen 311 is double-clicked with the mouse in the main window (FIG. 18) showing the editing state of the scene screen, an action editing dialog for editing a character action (agent action) instruction is displayed.
In this action editing dialog, a list of individual actions such as bowing, pointing to the right, and looking at the right, and a list of expressions such as thanks, denial, praise, greetings, etc. are displayed. Specify the action.

キャラクタ(エージェント)の台詞は、台詞の編集ウィンドウで設定される。
台詞の編集ウィンドウは、シーン画面の編集状態を表しているメインウインドウ(図18)において、設定画面303の台詞編集ボタン313をクリックすることで表示される。
台詞の編集ウインドウでは、PCM(録音されて用意されている肉声データ)による設定と、TTS(合成音声)による設定が可能である。
PCMの場合、台詞を全角ひらがなで入力(上記入力用ボックス)し該当する台詞が有るか検索し、検索結果(検索結果一覧表示欄が存在する)から選択しキャラクタに話させる台詞を設定する。
一方、TTSの場合は台詞名称(吹き出し表示用データ)とフリガナ(合成音声を作成するためのデータ)を入力しキャラクタに話させる台詞を設定する。
台詞の編集ウインドウにおいて、設定された台詞の内容が吹き出し画面430のデータとしても反映される。
The dialogue of the character (agent) is set in the dialogue editing window.
The dialogue editing window is displayed by clicking the dialogue editing button 313 on the setting screen 303 in the main window (FIG. 18) showing the editing state of the scene screen.
In the dialogue editing window, setting by PCM (recorded voice data prepared) and setting by TTS (synthetic speech) are possible.
In the case of PCM, a dialogue is input with full-width hiragana (the above input box), and a search is made for the corresponding dialogue. A dialogue is selected from the retrieval result (the retrieval result list display column is present) and the character to be spoken is set.
On the other hand, in the case of TTS, a dialogue name (data for balloon display) and a reading (data for creating a synthesized speech) are input to set a dialogue that causes the character to speak.
In the dialog editing window, the contents of the set dialog are also reflected as data on the balloon screen 430.

図21は、作成したシナリオをエージェント装置1で使用可能な実機形式(NAV形式)のフォーマットにコンパイルするための画面操作の流れを表したものである。
メインウインドウ(図18)において、ビルドボタン332をクリックすると、シナリオコンパイラのウインドウ(図21(b))が表示される。
FIG. 21 shows the flow of screen operations for compiling the created scenario into a real machine format (NAV format) that can be used by the agent device 1.
When the build button 332 is clicked in the main window (FIG. 18), a scenario compiler window (FIG. 21 (b)) is displayed.

このシナリオコンパイラのウインドウ(図21(b))において、コンパイルしたデータを出力するファイルの名称を名称欄701で指定する。
また、同時に変換するシナリオを選択(シナリオ一覧リスト702にリストアップされているシナリオを同時に変換する)し、コンパイルボタン703をクリックすると、シナリオコンパイラ(図15:240-1-2)がデータ変換を開始する。
データ変換の状況は、結果表示部704に表示される。
なお、同時に変換するシナリオの追加は、追加ボタン705を選択して行なう。
In the scenario compiler window (FIG. 21 (b)), the name of the file to which the compiled data is output is designated in the name column 701.
Also, select the scenarios to be converted at the same time (convert the scenarios listed in the scenario list list 702 at the same time), and click the compile button 703, the scenario compiler (Figure 15: 240-1-2) will convert the data. Start.
The data conversion status is displayed on the result display unit 704.
Note that a scenario to be simultaneously converted is added by selecting an add button 705.

シナリオコンパイラのウインドウ(図21(b))において、条件設定ボタン706を選択すると、コンパイル条件設定ダイアログ(図21(c))が表示される。
このコンパイル条件設定ダイアログ(図21(c))では、エージェント装置で使用可能な実機形式(NAV形式)のフォーマットにコンパイルするときに、コンパイル条件として、シナリオの自律起動条件を含む集録シナリオ管理データと、シナリオ実行時のデータ(シナリオ本体)とを分割するか、一体にするかを選択する。
また、集録シナリオ管理データとシナリオ本体とを分離する場合、保存先指定情報欄711でシナリオ本体の保存先となるURLを設定し、どのサーバに置くかを設定する。
コンパイル条件として、選択する項目は、上記以外にも、シナリオデータの有効期限等が存在する。
When the condition setting button 706 is selected in the scenario compiler window (FIG. 21B), a compile condition setting dialog (FIG. 21C) is displayed.
In this compile condition setting dialog (FIG. 21 (c)), when compiling into a real machine format (NAV format) that can be used by the agent device, the acquisition scenario management data including the autonomous start condition of the scenario is included as the compile condition The scenario execution data (scenario main body) is divided or integrated.
Further, when the acquired scenario management data and the scenario main body are separated, a URL that is a storage destination of the scenario main body is set in the storage destination designation information field 711 and a server to be set is set.
In addition to the above, items to be selected as compile conditions include an expiration date of scenario data.

コンパイル条件設定ダイアログ(図21(c))で、O.K.ボタンを選択すると、その設定で決定し、シナリオコンパイラのウインドウ(図21(b))に戻る。キャンセルボタンを選択すると、その設定は反映されなで、シナリオコンパイラのウインドウ(図21(b))に戻る。シナリオコンパイラのウインドウ(図21(b))において、終了ボタンをクリックすると、メインウィンドウ(a)に戻る。   When the O.K. button is selected in the compile condition setting dialog (FIG. 21 (c)), the setting is determined and the screen returns to the scenario compiler window (FIG. 21 (b)). When the cancel button is selected, the setting is not reflected, and the screen returns to the scenario compiler window (FIG. 21B). When the end button is clicked in the scenario compiler window (FIG. 21B), the screen returns to the main window (a).

シナリオコンパイラのウインドウ(図21(b))においてコンパイルボタン703をクリックすると、データ変換により、シナリオエディタで作成された自律起動条件の展開と、グループ化(分類)が行われる。
例えば、オービス警告のシナリオPを起動する条件として、次のa〜eの5の条件が設定された場合について説明する。
条件a:走行中の道路が高速道路である
条件b:車速が120km/h以上である
条件c:オービスAの地点の2km手前
条件d:オービスBの地点の2km手前
条件e:オービスCの地点の2km手前
そして、これらの各条件a〜条件eは、条件aと条件bを満たし、かつ、条件c〜条件eのいずれかを満たす場合を自律起動条件としてSCE形式のシナリオデータ(シナリオエディタでのデータ形式)で規定されているものとする。この場合の自律起動条件を概念的に表すと次のようになる。
条件a×条件b×(条件c+条件d+条件e)
When the compile button 703 is clicked in the scenario compiler window (FIG. 21B), the autonomous activation conditions created by the scenario editor and grouping (classification) are performed by data conversion.
For example, a case where the following five conditions a to e are set as conditions for activating the Orbis warning scenario P will be described.
Condition a: The running road is an expressway Condition b: The vehicle speed is 120 km / h or more Condition c: 2 km before the point of Orbis A Condition d: 2 km before the point of Orbis B Condition e: The point of Orbis C Then, each of these condition a to condition e satisfies the conditions a and b and satisfies any one of the conditions c to e as an autonomous activation condition (in the scenario editor) Data format). The autonomous start conditions in this case are conceptually expressed as follows.
Condition a × condition b × (condition c + condition d + condition e)

この自律起動条件をコンパイラ(240-1-2)により実機形式(NAV形式)に変換すると、まず、論理和を含まず論理積からなる次の3つの自律起動条件に展開する。
条件a×条件b×条件c
条件a×条件b×条件d
条件a×条件b×条件e
このように展開した各自律起動条件はいずれも対応するシナリオを実行するための自律起動条件であり、いずれか1つでも満たせば、対応するシナリオが実行される。上記例の場合であれば、いずれか1つの条件を満たせばオービスを警告するシナリオが実行されることになる。すなわち、シナリオコンパイラ(240-1-2)によって、1のシナリオに対して作成された1の自律起動条件が、当該1のシナリオに対する複数の自律起動条件に展開されることになる。展開された各自律起動条件は該当するシナリオに対応つけられている。
When this autonomous activation condition is converted into the actual machine format (NAV format) by the compiler (240-1-2), first, the autonomous activation condition is expanded into the following three autonomous activation conditions consisting of logical products without including logical sums.
Condition a × condition b × condition c
Condition a × condition b × condition d
Condition a × condition b × condition e
Each of the autonomous activation conditions developed in this way is an autonomous activation condition for executing a corresponding scenario, and if any one is satisfied, the corresponding scenario is executed. In the case of the above example, if any one of the conditions is satisfied, a scenario for warning of Orbis will be executed. That is, one autonomous activation condition created for one scenario by the scenario compiler (240-1-2) is expanded into a plurality of autonomous activation conditions for the one scenario. Each deployed autonomous activation condition is associated with the corresponding scenario.

同様に他のシナリオQに対して、
f×(g+h)×(i+j+k)といった自律起動条件が設定されている場合、シナリオコンパイラ(240−1−2)で実機形式(NAV形式)に変換すると次の6つの自律起動条件に展開される。
f×g×i
f×g×j
f×g×k
f×h×i
f×h×j
f×h×k
従って、上記2種類のシナリオP、Qをコンパイラ(240-1-2)で実機形式(NAV形式)に変換すると、9個の自律起動条件が存在することになる。オービス警告のシナリオPを実行する自律起動条件が3個で、もう一方のシナリオQを実行する自律起動条件が6個になる。
以上のように、個別条件の論理和と論理積で構成された起動条件を、個別条件の論理積で構成された複数の起動条件に展開することにより、本願発明の条件展開手段が形成される。
Similarly for other scenarios Q,
When an autonomous activation condition such as f × (g + h) × (i + j + k) is set, it is expanded into the following six autonomous activation conditions when converted into the real machine format (NAV format) by the scenario compiler (240-1-2). .
f × g × i
f × g × j
f × g × k
f × h × i
f × h × j
f × h × k
Accordingly, when the two types of scenarios P and Q are converted into the actual machine format (NAV format) by the compiler (240-1-2), nine autonomous activation conditions exist. There are three autonomous activation conditions for executing the scenario P of the Orbis warning, and six autonomous activation conditions for executing the other scenario Q.
As described above, the condition expansion means of the present invention is formed by expanding the activation condition constituted by the logical sum and logical product of the individual conditions into a plurality of activation conditions constituted by the logical product of the individual conditions. .

次に、シナリオコンパイラ(240-1-2)は、展開処理後の全ての自律起動条件(展開した自律起動条件と、論理和を含まないために展開対象外であった自律起動条件を含む)に対して、年月日及び位置に関して、図7、図8で説明したように、グループ化を行う。
グループ化処理において、シナリオコンパイラ(240-1-2)は、各自律起動条件から位置に関する情報を取得し、図8の説明に従って、当該位置に対する1次メッシュ及び2次メッシュの正規化を行い、その位置に対する1次メッシュコードと2次メッシュコードを算出する。
そして、年によるソート処理を行うことで、最上位の年に関するグループ化(分類)を行う。そしてグループ化された各年と年条件無しのグループに対して、第2位の日付(月日)によるソート処理を行う。更に、グループ化された各日付と日付条件無しのグループに対して、第3位、第4位の位置に関するグループ化を行う。
このように、展開した起動条件と、それ以外の設定した起動条件を、所定の個別条件に分類(グループ化)することにより、本願発明の分類手段が形成される。
Next, the scenario compiler (240-1-2) has all the autonomous startup conditions after the expansion process (including the expanded autonomous startup conditions and the autonomous startup conditions that were not expanded because they do not include logical sums). On the other hand, the date and position are grouped as described with reference to FIGS.
In the grouping process, the scenario compiler (240-1-2) acquires information on the position from each autonomous activation condition, normalizes the primary mesh and the secondary mesh for the position according to the description of FIG. A primary mesh code and a secondary mesh code for the position are calculated.
Then, by sorting by year, grouping (classification) for the highest year is performed. Then, the sorting process by the second date (month and day) is performed for each grouped year and the group without year condition. Further, grouping is performed on the third and fourth positions for each grouped date and group without date condition.
In this way, the classifying means of the present invention is formed by classifying (grouping) the developed activation conditions and other set activation conditions into predetermined individual conditions.

シナリオコンパイラ(240-1-2)でグループ化(分類)した各自動起動条件は、グループを表すインデックス(識別符号)を付けて、シナリオ本体と共に実機形式(NAV形式)のシナリオデータ(240-2-4)として、記憶装置240のシナリオ編集データ(240-2)に格納される。
なお、各自動起動条件ごとに識別符号を付けるのではなく、各グループ単位に自動起動条件を格納し、グループ単位に識別符号を付するようにしてもよい。
Each automatic startup condition grouped (classified) by the scenario compiler (240-1-2) is attached with an index (identification code) that represents the group, and the scenario data (240-2) in the actual machine format (NAV format) together with the scenario body -4), it is stored in the scenario edit data (240-2) of the storage device 240.
Instead of attaching an identification code for each automatic activation condition, the automatic activation condition may be stored for each group and the identification code may be assigned for each group.

実機形式(NAV形式)のシナリオデータ(240-2-4)は、シナリオ本体と収録シナリオ管理データが一体となっている場合と、分離されている場合がある。
以下分離される場合について説明するが、この場合の処理が、画面要素推移体データが車外のいずれの場所に保存されているかを示す保存先指定情報を、その起動条件と関連付けて設定する保存先情報設定手段に該当する。
コンパイル条件設定ダイアログ(図21(c))で「分割してサーバに置く」を選択した場合、コンパイルしたシナリオ本体と、集力シナリオ管理データとを置く場所を指定する。
図21(C)では、「http://www.equos.co.jp/Sample/」が設定された状態が表示されており、このアドレスに作成したシナリオを置くことを意味している。
例えば、図21(b)のように、サンプルシナリオ、サンプルシナリオ2、サンプルシナリオ3、の3個のシナリオで、NAV形式シナリオデータを作成する場合で説明する。
管理部分の名称は、図21(b)の名称入力欄で入力したものになる。つまり、Sample.NAVとなる。各シナリオデータは、Scenario0001、Scenario0002、Scenario0003という形で「Scenario」+シーケンス番号の形で生成される。シーケンス番号は、図21(b)の一覧表の上にあるシナリオから順に、1、2、3、…と自動で割り当てられる。
The scenario data (240-2-4) in the actual machine format (NAV format) may be separated or separated from the scenario body and the recorded scenario management data.
The following describes the case where the data is separated. In this case, the storage destination is set by associating the storage destination designation information indicating where the screen element transition body data is stored outside the vehicle with the activation condition. Corresponds to information setting means.
When “Split and place on server” is selected in the compile condition setting dialog (FIG. 21 (c)), a place for placing the compiled scenario main body and the collected scenario management data is designated.
FIG. 21C shows a state where “http://www.equos.co.jp/Sample/” is set, which means that the created scenario is placed at this address.
For example, as shown in FIG. 21 (b), a case will be described in which NAV format scenario data is created with three scenarios of sample scenario, sample scenario 2, and sample scenario 3.
The name of the management part is the one entered in the name input field of FIG. That is, Sample.NAV. Each scenario data is generated in the form of “Scenario” + sequence number in the form of Scenario0001, Scenario0002, Scenario0003. Sequence numbers are automatically assigned as 1, 2, 3,... In order from the scenario on the list of FIG.

これに、図21(C)で設定したアドレスhttp://www.abcd.co.jp/Sample/を組み合わせて、各ファイルの実際のアドレスは次のようになる。
(イ)http://www.abcd.co.jp/Sample/Sample.NAV
(ロ)http://www.abcd.co.jp/Sample/Scenario0001
(ハ)http://www.abcd.co.jp/Sample/Scenario0002
(ニ)http://www.abcd.co.jp/Sample/Scenario0003
By combining this with the address http://www.abcd.co.jp/Sample/ set in FIG. 21 (C), the actual address of each file is as follows.
(B) http://www.abcd.co.jp/Sample/Sample.NAV
(B) http://www.abcd.co.jp/Sample/Scenario0001
(C) http://www.abcd.co.jp/Sample/Scenario0002
(D) http://www.abcd.co.jp/Sample/Scenario0003

実際に、エージェント装置1のシナリオデータ(10-2-3-4)には、Sample.NAVを置くアドレスである、http://www.abcd.co.jp/Sample/Sample.NAV/が、ヘッダ部分に存在し、Scenario0001、Scenario0002、Scenario0003の部分が、ソートされた自律起動条件の各条件と一緒に格納される。
ヘッダ部分に存在するhttp://www.abcd.co.jp/Sample/Sample.NAV/の部分を、シナリオ起動条件が登録されたときに、シナリオデータ(10-2-3-4)に一緒に格納される。
Actually, the scenario data (10-2-3-4) of the agent device 1 includes http://www.abcd.co.jp/Sample/Sample.NAV/, the address where Sample.NAV is placed, It exists in the header part, and the parts of Scenario0001, Scenario0002, and Scenario0003 are stored together with each condition of the sorted autonomous activation conditions.
The http://www.abcd.co.jp/Sample/Sample.NAV/ part in the header part is added to the scenario data (10-2-3-4) when the scenario activation condition is registered. Stored in

シナリオデータ(10-2-3-4)に格納された実機形式のシナリオデータ、すなわち自律起動条件、シナリオ1、シナリオ2、及びシナリオ3は、それぞれ上記(イ)〜(ニ)のアドレスにアップロードされる。
そして、車載装置でこれらシナリオ1、シナリオ2、シナリオ3を使用する場合には、集録シナリオ管理データを、そのアドレスhttp://www.abcd.co.jp/Sample/Sample.NAVからダウンロードする。
Scenario data in the actual machine format stored in scenario data (10-2-3-4), that is, autonomous start conditions, scenario 1, scenario 2, and scenario 3, are uploaded to the addresses (i) to (d) above. Is done.
Then, when these scenarios 1, 2 and 3 are used in the in-vehicle device, the acquisition scenario management data is downloaded from its address http://www.abcd.co.jp/Sample/Sample.NAV.

車載装置でシナリオ起動要求を発行する(図11のS23)において、シナリオが登録されたときに記録したhttp://www.abcd.co.jp/Sample/と、ソートされた自律起動条件の各条件と一緒に格納されているScenario0001の部分を組み合わせ、シナリオ起動要求に添付してシナリオ駆動部(101-1)に対しメッセージを送る。
こうすることで、シナリオ駆動部(101-1)は、シナリオデータを取得する(図17のs505-4-4)ときに、http://www.abcd.co.jp/Sample/Scenario0001をダウンロードするのである。
When issuing a scenario activation request on the in-vehicle device (S23 in FIG. 11), http://www.abcd.co.jp/Sample/ recorded when the scenario is registered and each of the sorted autonomous activation conditions The part of Scenario0001 stored together with the condition is combined, attached to the scenario activation request, and sent to the scenario driver (101-1).
By doing so, the scenario driver (101-1) downloads http://www.abcd.co.jp/Sample/Scenario0001 when acquiring scenario data (s505-4-4 in FIG. 17). To do.

また、各シナリオデータのファイル名称を自動生成することなく、ユーザに入力させるようにしてもよい。この場合、図21(b)のコンパイルするシナリオの一覧表に、コンパイルしたときのファイル名称を入力する欄を設けることで行なう。ただし、入力するのはSample.NAVからの相対位置となる。   Further, the user may be allowed to input the file name of each scenario data without automatically generating the file name. In this case, this is done by providing a column for inputting the file name when compiling in the list of scenarios to be compiled in FIG. However, the input is the relative position from Sample.NAV.

なお、シナリオエディタでシナリオデータ置く場所を指定する場合について説明したが、他の方法でもよい。
例えば、ダウンロードしたときのアドレスを記憶するようにしてもよい(変形1)。
この場合、コンパイル条件設定ダイアログ図21(C)における保存先指定情報欄711は不要であり、表示されない。
いま、コンパイルしたシナリオをhttp://www.abcd.co.jp/Sample/Sample.NAVに置いたとする。
これを車載装置でダウンロードする場合、ブラウザソフトから、エージェント処理部に対して、ダウンロードしたアドレスhttp://www.abcd.co.jp/Sample/Sample.NAVを伝え、ファイル名称部分のSample.NAVを除いたhttp://www.abcd.co.jp/Sample/の部分を記録する。以下、車載装置でシナリオ起動要求の発行以降は上記と同じである。
この変形1の場合でも、各シナリオデータのファイル名称を自動生成することなく、ユーザに入力させても良い。この場合、図21(b)のコンパイルするシナリオの一覧表に、コンパイルしたときのファイル名称を入力する欄を設けることで行なう。ただし、入力するのはSample.NAVからの相対位置となる。
In addition, although the case where the place where scenario data is placed is specified in the scenario editor has been described, other methods may be used.
For example, the address at the time of downloading may be stored (variation 1).
In this case, the storage destination designation information field 711 in the compilation condition setting dialog FIG. 21C is unnecessary and is not displayed.
Assume that the compiled scenario is placed at http://www.abcd.co.jp/Sample/Sample.NAV.
When downloading this with the in-vehicle device, the downloaded address http://www.abcd.co.jp/Sample/Sample.NAV is transmitted from the browser software to the agent processing unit, and Sample.NAV in the file name portion is transmitted. Record the part of http://www.abcd.co.jp/Sample/ excluding. Hereinafter, the process after issuing the scenario activation request in the in-vehicle device is the same as the above.
Even in the case of the first modification, the user may be allowed to input the file name of each scenario data without automatically generating the file name. In this case, this is done by providing a column for inputting the file name when compiling in the list of scenarios to be compiled in FIG. However, the input is the relative position from Sample.NAV.

さらに、上記方法と変形1とを組み合わせた形でもよいものとする。つまり、上記方法場合でも、ダウンロードしたときに、ブラウザソフトから、エージェント処理部に対して、ダウンロードしたアドレスを伝えるのである。これからファイル名称を除いたものが、シナリオデータに収録されているもの(図21(C)で設定したアドレス)と異なる場合はブラウザソフトから伝えたアドレスを使用する。
つまり、シナリオデータを作成してしばらくはhttp://www.abcd.co.jp/Sample/に置いていたが、何らかの事情で場所を変えて、http://www.efgh.co.jp/NAVI/Sample/に置いた場合、わざわざシナリオデータを作成しなおす必要がなくなる。
Furthermore, the form which combined the said method and the deformation | transformation 1 may be used. That is, even in the case of the above method, when downloading, the downloaded address is transmitted from the browser software to the agent processing unit. If the file name is different from the one recorded in the scenario data (the address set in FIG. 21C), the address transmitted from the browser software is used.
In other words, scenario data was created and placed at http://www.abcd.co.jp/Sample/ for a while, but for some reason, the location was changed to http://www.efgh.co.jp/ When placed in NAVI / Sample /, there is no need to recreate scenario data.

以上説明したように、本実施形態のエージェント装置によれば、シナリオ作成装置で作成されたシナリオデータに基づいてエージェントを自律的に起動させる(自動で登場させる)条件を満たしたかを判断する処理を定期的にもしくは特定の状態を満たしたときに実行し、条件を満たした場合にエージェントを自動で登場させることができる。
一方、本実施形態のシナリオ作成装置及びシナリオエディタによれば、プログラムの知識の有無に関係無く、シナリオエディタを持つことで特定の条件を満たしたときに自動で登場して対応してくれるエージェントのシナリオデータを容易に作成及び編集することができる。
As described above, according to the agent device of the present embodiment, the process of determining whether the condition for autonomously starting the agent (making it appear automatically) is satisfied based on the scenario data created by the scenario creation device. It is executed periodically or when a specific state is satisfied, and an agent can be automatically added when a condition is satisfied.
On the other hand, according to the scenario creation device and the scenario editor of this embodiment, regardless of whether or not there is knowledge of the program, having a scenario editor makes it possible for agents to automatically appear and respond when a specific condition is met. Scenario data can be easily created and edited.

また、本実施形態のシナリオ作成装置1によれば、シナリオコンパイラ(240-1-2)により、自律起動条件を論理和を含まない自律起動条件に展開し、年、日付、位置に関するグループ化を行うことができる。
そして、シナリオ作成装置により自律起動条件がグループ化されているので、エージェント装置では、判断を行う年月日と車両現在位置に該当するグループ内の自律起動条件のみを判断すればよく、判断処理の負荷を小さくすることができる。
In addition, according to the scenario creation device 1 of the present embodiment, the scenario compiler (240-1-2) expands the autonomous activation conditions into autonomous activation conditions that do not include a logical sum, and groups the year, date, and position. It can be carried out.
And since the autonomous activation conditions are grouped by the scenario creation device, the agent device only needs to determine the autonomous activation conditions in the group corresponding to the date and vehicle current position for the determination, The load can be reduced.

さらに、本実施形態のシナリオ装置によれば、シナリオコンパイラ(240-1-2)によりシナリオ本体と収録シナリオ管理データとを分離して実機形式に変換する。
このため、エージェント装置(車載装置)では、シナリオ本体は個別にサーバからダウンロードして一時記憶し、実行するので、収録シナリオ管理データ(シナリオ本体のURLと起動条件を含む)を情報記憶装置10に格納しておけばよく、限られた記憶媒体の容量に対してより多くの集力管理データを格納することができる。すなわち、同一の記憶容量で、より多くのシナリオを実行することができるようになる。
Furthermore, according to the scenario apparatus of the present embodiment, the scenario main body and the recorded scenario management data are separated and converted into the actual machine format by the scenario compiler (240-1-2).
For this reason, in the agent device (in-vehicle device), the scenario main body is individually downloaded from the server, temporarily stored, and executed, so the recorded scenario management data (including the URL of the scenario main body and the activation condition) is stored in the information storage device 10. What is necessary is just to store, and more power collection management data can be stored with respect to the capacity of a limited storage medium. That is, more scenarios can be executed with the same storage capacity.

以上、本発明の車載装置、データ作成装置、及びデータ作成プログラムにおける1実施形態について説明したが、本発明は説明した実施形態に限定されるものではなく、各種の変形を行うことが可能である。
例えば、説明した実施形態のエージェント装置では、現在の状況を満たす分類に含まれる1以上の自律起動条件を抽出し、抽出した自律起動条件について条件が満たされたか判断するようにしているが、自律起動条件の分類を行わず、全自律起動条件を判断対象とすることも可能である。この場合も、満たした自律起動条件に関連付けて保存されているURLを指定して対応するシナリオをダウンロードして実行する。
As mentioned above, although 1 embodiment in the vehicle-mounted apparatus of this invention, a data creation apparatus, and a data creation program was described, this invention is not limited to described embodiment, It is possible to perform various deformation | transformation. .
For example, in the agent device according to the embodiment described above, one or more autonomous activation conditions included in the classification satisfying the current situation are extracted, and it is determined whether the conditions are satisfied for the extracted autonomous activation conditions. It is also possible to determine all autonomous activation conditions as a determination target without classifying the activation conditions. Also in this case, the corresponding scenario is downloaded and executed by specifying the URL stored in association with the satisfied autonomous activation condition.

また、説明した実施形態では、図10で説明したように、自律起動条件を満たした際にその自律起動条件に対応するシナリオを個別にサーバからダウンロードしてRAM(1-4)に格納し、実行するようにしている。
これに対して、自律起動判断部(101-2)が、自律起動条件の判断軽減のために抽出した、車両の位置と時間などの条件に近似する条件を備えた自律起動条件群(現在の状況を満たす分類に含まれる自律起動条件)に対応する全シナリオを一括してダウンロードしてRAM(1-4)に格納するようにしてもよい。
この場合、ダウンロードとその一時記憶に対する負担が増加するが、自律起動条件を満たす可能性が高いシナリオが予めダウンロードされているので、自律起動条件を満足したシナリオをすぐに起動することができる。
In the described embodiment, as described in FIG. 10, when the autonomous activation condition is satisfied, a scenario corresponding to the autonomous activation condition is individually downloaded from the server and stored in the RAM (1-4). I am trying to do it.
In contrast, the autonomous activation determination unit (101-2) extracts the autonomous activation condition group (currently extracted) to reduce the determination of the autonomous activation condition, and includes conditions that approximate conditions such as the vehicle position and time. All scenarios corresponding to the autonomous activation conditions included in the classification satisfying the situation may be downloaded in a lump and stored in the RAM (1-4).
In this case, although the burden on the download and its temporary storage increases, a scenario that has a high possibility of satisfying the autonomous activation condition is downloaded in advance, so that a scenario that satisfies the autonomous activation condition can be activated immediately.

また、説明した実施形態では、展開した自律起動条件に対し年、日付、位置に関するグループ化を行ったが、これらのうちの1つ又は2つによりグループ化するようにしてもよい。また、他の個別条件に関するグループ化を行うようにしてもよい。
また、グループ化に際しては、時間経過や車両移動に伴う変化が少ない条件ほどより上位に分類したが、位置に関する条件を最上位にするようにしてもよい。
また、位置に関するグループ化において、1次メッシュと2次メッシュによる正規化を行いグループ化したが、1次メッシュのみによるグループ化でもよい。この場合、1次メッシュのサイズを2次メッシュと同一サイズとすることも可能である。
In the described embodiment, grouping related to the year, date, and position is performed on the deployed autonomous activation condition. However, grouping may be performed based on one or two of them. Further, grouping for other individual conditions may be performed.
Further, in grouping, conditions with less change with time and vehicle movement are classified into higher ranks, but the position-related conditions may be made highest.
Further, in the grouping related to the position, the normalization by the primary mesh and the secondary mesh is performed for the grouping, but the grouping by only the primary mesh may be used. In this case, the size of the primary mesh can be the same as that of the secondary mesh.

また、説明した実施形態では、シナリオ作成装置が自律起動条件の展開処理とグループ化を行う場合について説明したが、エージェント装置がシナリオデータに含まれる自律起動条件に対して展開処理(展開手段)とグループ化(分類手段)を行うようにしてもよい。
また、説明した実施形態及び変形例では、自律起動条件の展開処理として、論理和を含む全ての自律起動条件に対して、論理和を含まない自律起動条件に展開する場合について説明したが、分類処理の対象となる個別条件に限定して論理和の展開を行うようにしてもよい。すなわち、説明した実施形態の場合、分類対象となる年、日付、位置以外の個別条件に対する論理和は展開の対象外となる。
Further, in the embodiment described above, the scenario creation device has been described for the case where the scenario creation device performs the autonomous activation condition deployment processing and grouping. However, the agent device performs the deployment processing (deployment means) on the autonomous activation condition included in the scenario data. Grouping (classification means) may be performed.
Further, in the embodiment and the modification described above, the case where the autonomous activation condition is expanded to the autonomous activation condition that does not include the logical sum for the autonomous activation condition that includes the logical sum as the expansion processing of the autonomous activation condition has been described. The logical sum may be expanded only for individual conditions to be processed. That is, in the case of the described embodiment, the logical sum for individual conditions other than the year, date, and position to be classified is not expanded.

また、説明した実施形態では、自律起動条件を年、日付、位置に関してグループ化して判断処理の負担を軽減する場合について説明したが、他に適用するようにしてもよい。
例えば、シナリオ作成装置やエージェント装置、ナビゲーション機能等におけるメニューの絞り込みを行う場合、各種紹介シナリオをユーザが選択して起動する場合のグループ化に適用することができる。位置に関するグループ化については図11で説明した1次メッシュ及び2次メッシュによる正規化処理を行う。
すなわち、レジャーガイド等の情報提供項目(シナリオ)を増やすとうれしい反面、選択項目が増えるため、メニュー階層が深くなったり、リスト表示項目が増えてスクロールが大変になる。
そこで、地域と日付によって関係のあるシナリオ(必要なもの)に絞り込んでメニュー表示することで、選択しやすくすることができる。
例えば、地域で絞り込む例として、軽井沢紹介(観光、名産等)、横浜紹介、・・・、都心の場合には渋滞情報、などがあり、横浜及びその周辺のメッシュに車両が存在する場合に限定して横浜の紹介シナリオを表示する。
また、日付でグループ化する場合の例として、スキー場ガイド、海水浴ガイド、初詣ガイド、等がある。このようにグループ化することで、冬に海水浴ガイドが表示対象から除かれ、夏にはスキーガイドや初詣ガイドが対象から除かれることで、表示項目を減らし選択を容易にすることができる。
また、日付及び地域で絞り込む例として、お祭り等がある。
In the embodiment described above, the case where the autonomous activation conditions are grouped with respect to the year, date, and position to reduce the burden of determination processing has been described.
For example, when narrowing down menus in a scenario creation device, an agent device, a navigation function, etc., it can be applied to grouping when a user selects and starts various introduction scenarios. As for the grouping related to the position, the normalization process using the primary mesh and the secondary mesh described in FIG. 11 is performed.
In other words, it would be nice to increase information provision items (scenarios) such as leisure guides, but on the other hand, since the number of selection items increases, the menu hierarchy becomes deeper and the list display items increase, which makes scrolling difficult.
Therefore, it is possible to make selection easier by narrowing down to a scenario (necessary one) related to the region and date and displaying the menu.
For example, as an example of narrowing down by area, there are Karuizawa introduction (tourism, special product, etc.), Yokohama introduction, ..., traffic information in the case of the city center, etc. Limited to when vehicles exist in Yokohama and its surrounding mesh And display the introduction scenario of Yokohama.
In addition, examples of grouping by date include a ski resort guide, a beach guide, a first bath guide, and the like. By grouping in this way, the bathing guide is excluded from the display target in winter, and the ski guide and the initial guide are excluded from the target in summer, so that the display items can be reduced and the selection can be facilitated.
An example of narrowing down by date and region is a festival.

このように、レジャーや買い物、飲食等の各種紹介シナリオを地域や日付によってグループ化して絞り込むことで、ユーザが個別に実行するシナリオを選択する場合に、時期、地域に関係のあるシナリオに限定して表示され、時期が外れていたり、地域が遠い場合のシナリオは表示対象外となる。
これにより、関係のないシナリオが表示されないので、ユーザは必要なシナリオを選択しやすくなる。
In this way, by narrowing down various introductory scenarios such as leisure, shopping, eating and drinking, etc., by grouping them by region or date, when the user selects a scenario to be executed individually, it is limited to scenarios that are relevant to the time and region. If the time is out of date or the area is far away, the scenario is not displayed.
As a result, unrelated scenarios are not displayed, so that the user can easily select a necessary scenario.

本発明の実施形態におけるエージェント装置とシナリオ作成装置及びサーバからなる全体のシステム構成図である。1 is an overall system configuration diagram including an agent device, a scenario creation device, and a server according to an embodiment of the present invention. 本発明の一実施形態におけるエージェント装置の構成を示すブロック図である。It is a block diagram which shows the structure of the agent apparatus in one Embodiment of this invention. CPUでプログラムが実行されることにより実現されるエージェント処理部と、全体処理部との関係を表した説明図である。It is explanatory drawing showing the relationship between the agent process part implement | achieved by executing a program with CPU, and the whole process part. エージェント処理部の構成を表した説明図である。It is explanatory drawing showing the structure of the agent process part. 外部記憶媒体に集録されている情報を概念的に表した説明図である。It is explanatory drawing which represented the information currently collected on the external storage medium notionally. 実機形式シナリオデータの構成を表したものである。This shows the configuration of actual machine format scenario data. 集録シナリオの管理データに格納されている自律起動条件データの構造を概念的に表した説明図である。It is explanatory drawing which represented notionally the structure of the autonomous starting condition data stored in the management data of an acquisition scenario. 1次メッシュ及び2次メッシュによる位置座標の正規化について表した説明図である。It is explanatory drawing showing normalization of the position coordinate by a primary mesh and a secondary mesh. 旅館が宿泊予定者に送信した案内シナリオによるシーン画面の遷移を各シーン毎に表した画面遷移図である。It is the screen transition diagram showing the transition of the scene screen by the guidance scenario which the inn transmitted to the prospective guest for each scene. 自律起動判断部によるシナリオの自律起動判断処理について表したフローチャートである。It is the flowchart showing the autonomous start determination process of the scenario by an autonomous start determination part. 条件判断処理の処理内容を表したフローチャートである。It is a flowchart showing the processing content of condition judgment processing. シナリオ実行処理の流れの一例を表したフローチャートである。It is a flowchart showing an example of the flow of scenario execution processing. シナリオデータ取得処理を表したフローチャートである。It is a flowchart showing scenario data acquisition processing. シナリオ作成装置の構成図である。It is a block diagram of a scenario creation apparatus. シナリオ編集プログラムとデータの構成を概念的に表したものである。This is a conceptual representation of the scenario editing program and data structure. データ形式の変換を概念的に表したものである。It is a conceptual representation of data format conversion. 自動起動項目として設定可能な項目を例示したものである。The items that can be set as the automatic start items are illustrated. シナリオエディタを起動した場合に表示装置に表示されるメインウィンドウの構成を表したものである。It shows the structure of the main window displayed on the display device when the scenario editor is activated. シナリオプロパティを編集する画面操作の流れを表したものである。This shows the flow of screen operations for editing scenario properties. シナリオ開始条件のメイン編集ウィンドウから、シナリオ起動条件を編集する画面操作の流れを表したものである。It shows the flow of screen operations for editing scenario start conditions from the main edit window for scenario start conditions. 作成したシナリオをナビゲーションで使用可能な実機形式のフォーマットにコンパイルするための画面操作の流れを表したものである。It shows the flow of screen operations for compiling the created scenario into a real machine format that can be used for navigation.

符号の説明Explanation of symbols

1 エージェント装置装置
2 シナリオ作成装置
3 サーバ
(1) 中央処理装置
(2) 表示装置
(3) 音声出力装置
(4) 音声入力装置
(5) 入力装置
(6) 各種状況検出装置
(7)各種車載装置
(8)通信制御装置
(9)通信装置
(10)外部記憶装置
(200) 制御部
(210) 入力装置
(220) 出力装置
(230) 通信制御装置
(240) 記憶装置
(250) 記憶媒体駆動装置
(260) 入出力I/F
DESCRIPTION OF SYMBOLS 1 Agent apparatus apparatus 2 Scenario preparation apparatus 3 Server (1) Central processing apparatus (2) Display apparatus (3) Audio | voice output apparatus (4) Audio input apparatus (5) Input apparatus (6) Various condition detection apparatuses (7) Various vehicle-mounted Device (8) Communication control device (9) Communication device
(10) External storage device
(200) Control unit
(210) Input device
(220) Output device
(230) Communication control device
(240) Storage device
(250) Storage medium drive
(260) Input / output I / F

Claims (5)

画面表示と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データに対する、起動条件を記憶する起動条件記憶手段と、
前記起動条件に対応する画面要素推移体データの保存先を管理する管理データを記憶する管理データ記憶手段と、
前記起動条件を満たしたか否かを判断する条件判断手段と、
前記条件判断手段で起動条件を満たしていると判断された場合、当該起動条件と関連付けて保存された前記画面要素推移体データを前記管理データに従い取得する取得手段と、
前記取得した画面要素推移体データを実行する実行手段と、を備え、
前記管理データ記憶手段には、前記管理データとして、前記起動条件に対応する画面要素推移体データが装置内に保存されているのか、装置外部に保存されているのかを示す情報が記録され、
前記装置外部に保存されている画面要素推移体データの保存先を指定する保存先指定情報は、前記起動条件に関連付けて保存されている、
ことを特徴とする車載装置。
Start condition storage means for storing start conditions for screen element transition body data configured by combining screen elements in which processing contents executed in synchronization with screen display are defined;
Management data storage means for storing management data for managing the storage destination of the screen element transition body data corresponding to the activation condition;
Condition judging means for judging whether or not the activation condition is satisfied;
When it is determined that the activation condition is satisfied by the condition determination unit, an acquisition unit that acquires the screen element transition body data stored in association with the activation condition according to the management data;
Execution means for executing the acquired screen element transition body data ,
In the management data storage means, information indicating whether the screen element transition body data corresponding to the start condition is stored in the device or stored outside the device is recorded as the management data,
Storage location designation information for designating a storage location of screen element transition body data stored outside the device is stored in association with the activation condition,
In-vehicle device characterized by the above.
前記画面要素推移体データ毎にIDが付与されており、当該IDに対応する起動条件と保存先指定情報が紐付けられている、ことを特徴とする請求項1に記載の車載装置。 Vehicle apparatus according to claim 1, wherein the screen element transition body has data every ID is imparted, the storage destination specifying information and activation condition corresponding to the ID is tied, characterized in that. 前記起動条件は、年月日又は位置により分類されており、
前記条件判断手段は、起動条件を満たしているか否かを前記分類に従って判断する
ことを特徴とする請求項1は請求項に記載の車載装置。
The activation conditions are classified by date or position,
It said condition judging means is claim 1 or characterized by determining whether to satisfy the activation condition according to the classification-vehicle apparatus according to claim 2.
前記起動条件は、位置を条件に含む起動条件と含まない起動条件に分類され、更に、位置を条件に含む起動条件は、一定サイズに区分した領域単位で分類されており、
前記条件判断手段は、前記位置を条件を含まない起動条件と、車両の現在位置に対応する領域に分類された起動条件を満たしたか否かを判断する、
ことを特徴とする請求項1から請求項のうちのいずれか1の請求項に記載の車載装置。
The activation condition is classified into an activation condition that includes a position as a condition and an activation condition that does not include a position.In addition, the activation condition that includes a position as a condition is classified in units of areas divided into a certain size,
The condition determining means determines whether or not an activation condition that does not include a condition for the position and an activation condition classified into an area corresponding to the current position of the vehicle is satisfied.
Vehicle apparatus according to any one of claims of claims 1 to 3, characterized in that.
画面表示と同期して実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データに対する、起動条件を記憶する起動条件記憶手段と、
画面表示と同期して車載装置で実行される処理内容が定義された画面要素を組み合わせて構成された画面要素推移体データを作成する作成手段と、
前記画面要素推移体データを起動する起動条件を設定する起動条件設定手段と、
前記起動条件に対応する画面要素推移体データが装置内に保存されているのか、装置外部に保存されているのかを示す情報が記録された管理データを設定する管理データ設定手段と、
前記画面要素推移体データが装置外部のいずれの場所に保存されているかを示す保存先指定情報を、その起動条件と関連付けて設定する保存先情報設定手段と、
を備えたことを特徴とするデータ作成装置。
Start condition storage means for storing start conditions for screen element transition body data configured by combining screen elements in which processing contents executed in synchronization with screen display are defined;
Creating means for creating screen element transition body data configured by combining screen elements in which processing contents executed in the in- vehicle device are defined in synchronization with the screen display ;
An activation condition setting means for setting an activation condition for activating the screen element transition body data ;
Management data setting means for setting management data in which information indicating whether the screen element transition body data corresponding to the activation condition is stored in the device or stored outside the device;
Storage destination information setting means for setting storage destination designation information indicating where the screen element transition body data is stored outside the apparatus in association with the activation condition;
A data creation device characterized by comprising:
JP2003424922A 2003-12-22 2003-12-22 In-vehicle device and data creation device Expired - Fee Related JP4449446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003424922A JP4449446B2 (en) 2003-12-22 2003-12-22 In-vehicle device and data creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003424922A JP4449446B2 (en) 2003-12-22 2003-12-22 In-vehicle device and data creation device

Publications (2)

Publication Number Publication Date
JP2005181196A JP2005181196A (en) 2005-07-07
JP4449446B2 true JP4449446B2 (en) 2010-04-14

Family

ID=34784970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003424922A Expired - Fee Related JP4449446B2 (en) 2003-12-22 2003-12-22 In-vehicle device and data creation device

Country Status (1)

Country Link
JP (1) JP4449446B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012060669A1 (en) * 2010-11-05 2012-05-10 삼성전자 주식회사 Method for controlling remote device through sms and device therefor
JP6574550B2 (en) * 2014-03-25 2019-09-11 国立大学法人京都大学 γ-ray energy spectrum measurement method
JP2018032330A (en) * 2016-08-26 2018-03-01 株式会社アドバンスト・メディア Information processing system, information processing device, server, information processing method, and program

Also Published As

Publication number Publication date
JP2005181196A (en) 2005-07-07

Similar Documents

Publication Publication Date Title
JP6670350B2 (en) System and method for integrating a third party service with a digital assistant
EP1462317A1 (en) Data creation apparatus
JP5019145B2 (en) Driver information collection device
CN101939740B (en) Natural language speech user interface is provided in integrating language navigation Service environment
RU2425329C2 (en) Navigation device and method of receiving and reproducing audio images
JP4259054B2 (en) In-vehicle device
JP2005100382A (en) Dialog system and dialog method
EP1310883B1 (en) Car navigation system and method therefor
JP2005190192A (en) Onboard system
JP2004054883A (en) Onboard agent system and interactive operation control system
JP4356450B2 (en) In-vehicle device
JP4258607B2 (en) In-vehicle device
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP4449446B2 (en) In-vehicle device and data creation device
JP2003157489A (en) Operation control device
JP4059019B2 (en) In-vehicle device and data creation device
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP2004301651A (en) Vehicle-mounted device and data preparation device
JP2003106846A (en) Agent apparatus
JP4206818B2 (en) In-vehicle device and data creation device
JP2004050975A (en) In-vehicle device, data preparation device, and data preparation program
JP2005178685A (en) Car-mounted device
JP2004051074A (en) In-vehicle device, data preparation device, and data preparation program
JP4305245B2 (en) Destination description generator, destination description interpreter
JP2004061252A (en) On-vehicle device, data generation device and data generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees