[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7279206B2 - In-vehicle device, inter-vehicle communication system, and program - Google Patents

In-vehicle device, inter-vehicle communication system, and program Download PDF

Info

Publication number
JP7279206B2
JP7279206B2 JP2021573679A JP2021573679A JP7279206B2 JP 7279206 B2 JP7279206 B2 JP 7279206B2 JP 2021573679 A JP2021573679 A JP 2021573679A JP 2021573679 A JP2021573679 A JP 2021573679A JP 7279206 B2 JP7279206 B2 JP 7279206B2
Authority
JP
Japan
Prior art keywords
vehicle
message data
information
voice
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021573679A
Other languages
Japanese (ja)
Other versions
JPWO2021152713A1 (en
JPWO2021152713A5 (en
Inventor
智子 山口
喜義 久保
和則 青柳
能弘 荻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Publication of JPWO2021152713A1 publication Critical patent/JPWO2021152713A1/ja
Publication of JPWO2021152713A5 publication Critical patent/JPWO2021152713A5/ja
Application granted granted Critical
Publication of JP7279206B2 publication Critical patent/JP7279206B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、車載装置、車車間通信システム、およびプログラムに関する。 An embodiment of the present invention relates to an in-vehicle device, an inter-vehicle communication system, and a program.

車車間通信は、長期にわたって継続的に検討されている。検討では、例えば700MHz帯の利用などが提案された。しかしながら現実的な普及の度合いは、現在に至っても十分とは言えない。それには、主に以下のような事情が考えられる。
(1) 普及が或る程度進まなければ利用者が利益を享受できないので、初期の普及が進まないというジレンマがあること。つまり、普及数が一定数を超えるまでの<普及の壁>があること。
(2) 車買い替え周期が伸びてきており、新たな技術が浸透するのに時間がかかるようになったこと。
(3) 全国規模での標準化、或いは国際的な基準化が難しく、標準化作業に時間がかかるとともに、標準の普及自体が進んでいないこと。
(4) 車車間通信の明確なメリットが社会に浸透していないこと。
(5) 車載レーダ/カメラを用いた安全サポート機能の実用性が広く社会に認知され、車車間通信の価値が相対的に低下したこと。
Vehicle-to-vehicle communication has been under constant investigation for a long time. In the study, for example, use of the 700 MHz band was proposed. However, it cannot be said that the degree of realistic spread is sufficient even at present. Main reasons for this are as follows.
(1) There is a dilemma that early spread does not progress because users cannot enjoy benefits unless spread progresses to a certain extent. In other words, there is a <wall of diffusion> until the number of spread exceeds a certain number.
(2) The car replacement cycle is getting longer, and it takes time for new technology to penetrate.
(3) Standardization on a national scale or international standardization is difficult, standardization work takes time, and standardization itself has not progressed.
(4) Clear benefits of vehicle-to-vehicle communication have not permeated society.
(5) The practicality of safety support functions using in-vehicle radar/cameras has been widely recognized by society, and the value of vehicle-to-vehicle communication has declined relatively.

日本国特許第4040441号明細書Japanese Patent No. 4040441 日本国特許第6447749号明細書Japanese Patent No. 6447749

“RECAIUS(登録商標) 音声クリエータ/音声合成サービス”,[online],[令和1年11月8日検索],インターネット,<URL:https://www.toshiba-sol.co.jp/pro/recaius/lineup/creator.html>“RECAIUS (Registered Trademark) Voice Creator/Speech Synthesis Service”, [online], [searched on November 8, 2019], Internet, <URL: https://www.toshiba-sol.co.jp/pro /recaius/lineup/creator.html> “coestation(登録商標)”,[online],[令和1年11月8日検索],インターネット,<URL:https://coestation.jp/>“coestation (registered trademark)”, [online], [searched on November 8, 2019], Internet, <URL: https://coestation.jp/>

車車間通信で送信すべき情報を効率よく取捨選択する技術等が知られているが、車車間通信の方法や、実用的なアプリケーションは未だ検討段階にある。Society5.0ともいわれる、来るべき社会のため、車車間通信に係わる装置や各種のインフラを普及させることが望まれている。
そこで、目的は、車車間通信システムの普及を促進することにある。
Techniques for efficiently selecting information to be transmitted in inter-vehicle communication are known, but inter-vehicle communication methods and practical applications are still under study. For the coming society, which is also called Society 5.0, it is desired to disseminate devices and various infrastructures related to vehicle-to-vehicle communication.
Therefore, the object is to promote the spread of inter-vehicle communication systems.

実施形態によれば、車載装置は、受信部と、音声合成部とを具備する。受信部は、他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報を少なくとも含むメッセージデータを他車から受信する。音声合成部は、メッセージデータに含まれる位置情報と自車の位置情報とに基づいて、メッセージデータの宛先が自車であると判定された場合に、メッセージデータに含まれるコマンドコードから音声メッセージを合成する。 According to an embodiment, an in-vehicle device includes a receiver and a speech synthesizer. The receiving unit receives message data including at least a command code corresponding to the intention of the driver of the other vehicle and positional information of the other vehicle from the other vehicle. The speech synthesizer generates a voice message from the command code included in the message data when it is determined that the destination of the message data is the vehicle based on the location information included in the message data and the location information of the vehicle. Synthesize.

図1は、実施形態に係わる車載システムの一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of an in-vehicle system according to an embodiment. 図2は、車載装置2の使用環境の一例を示す図である。FIG. 2 is a diagram showing an example of the usage environment of the in-vehicle device 2. As shown in FIG. 図3は、車載装置2の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the in-vehicle device 2. As shown in FIG. 図4は、実施形態に係わる車車間通信で用いられるメッセージデータのフォーマットの一例を示す図である。FIG. 4 is a diagram showing an example of the format of message data used in inter-vehicle communication according to the embodiment. 図5は、走行情報算出部24iの機能を説明するためのフローチャートである。FIG. 5 is a flow chart for explaining the function of the travel information calculator 24i. 図6は、受信部24gの機能を説明するためのフローチャートである。FIG. 6 is a flow chart for explaining the function of the receiver 24g. 図7は、転送部24dの機能を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining the functions of the transfer unit 24d. 図8は、リツイート部24cの機能を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining the function of the retweet section 24c. 図9は、送信部24bの機能を説明するためのフローチャートである。FIG. 9 is a flow chart for explaining the function of the transmission section 24b. 図10は、相対位置算出部24fの機能を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining the function of the relative position calculator 24f. 図11は、通信相手コードと、相対的な位置関係との対応の一例を示す図である。FIG. 11 is a diagram showing an example of correspondence between communication partner codes and relative positional relationships. 図12は、音声認識部24aの機能を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining the functions of the speech recognition section 24a. 図13は、音声コマンドのフォーマットの一例を示す図である。FIG. 13 is a diagram showing an example of a voice command format. 図14は、会話相手を指定するためのキーワードと符号化列の一例を示す図である。FIG. 14 is a diagram showing an example of a keyword and an encoded string for designating a conversation partner. 図15は、音声コマンドと符号化列の一例を示す図である。FIG. 15 is a diagram showing an example of voice commands and encoded strings. 図16は、音声合成部24eにより合成出力される音声を示す概念図である。FIG. 16 is a conceptual diagram showing speech synthesized and output by the speech synthesizing unit 24e. 図17は、音声合成部24eの機能を説明するためのフローチャートである。FIG. 17 is a flow chart for explaining the function of the speech synthesizing section 24e. 図18は、音声フレーズ発生用文字列とコマンドコードとの対応の一例を示す図である。FIG. 18 is a diagram showing an example of the correspondence between character strings for voice phrase generation and command codes. 図19は、車種毎に定義された声質データの一例を示す図である。FIG. 19 is a diagram showing an example of voice quality data defined for each vehicle type. 図20は、車両の色毎に定義された声質データの一例を示す図である。FIG. 20 is a diagram showing an example of voice quality data defined for each vehicle color. 図21は、運転歴に対して定義された声質データの一例を示す図である。FIG. 21 is a diagram showing an example of voice quality data defined for a driving history. 図22は、自車と相手車との相対位置を表現するキーワードの一例を示す図である。FIG. 22 is a diagram showing an example of keywords expressing the relative positions of the own vehicle and the opponent vehicle. 図23は、広島県の方言用音声メッセージデータの一例を示す図である。FIG. 23 is a diagram showing an example of voice message data for the dialect of Hiroshima Prefecture. 図24は、大阪府の方言用音声メッセージデータの一例を示す図である。FIG. 24 is a diagram showing an example of voice message data for dialect of Osaka prefecture.

<構成>
図1は、実施形態に係わる車載システムの一例を示す機能ブロック図である。車車間通信システムは、車載装置をはじめとするハードウェア、および、当該ハードウェアにおいて実行される機能を実装するプログラム等の、各種のインフラを含んでよい。
車載システムは、車両に搭載される車載装置2を中核として形成される。車載装置2は、カーナビゲーションシステム3を備える車両に搭載されることができる。車載装置2に、カーナビゲーションシステム3用のGPS(Global Positioning System)アンテナ1と、運転手6の音声データを取得するためのマイク5が接続される。カーナビゲーションシステム3には、車両の複数のスピーカ4,7,8,9が接続される。スピーカ4,7,8,9は、それぞれ運転手6の左前方(前L)、右前方(前R)、左後方(後L)、右後方(後R)に設置される。
<Configuration>
FIG. 1 is a functional block diagram showing an example of an in-vehicle system according to an embodiment. A vehicle-to-vehicle communication system may include various infrastructures such as hardware such as an in-vehicle device and a program that implements a function executed by the hardware.
The in-vehicle system is formed with an in-vehicle device 2 mounted in the vehicle as a core. The in-vehicle device 2 can be mounted in a vehicle equipped with the car navigation system 3 . A GPS (Global Positioning System) antenna 1 for a car navigation system 3 and a microphone 5 for acquiring voice data of a driver 6 are connected to an in-vehicle device 2 . A plurality of vehicle speakers 4 , 7 , 8 , 9 are connected to the car navigation system 3 . Speakers 4, 7, 8, and 9 are installed in front left (front L), front right (front R), rear left (rear L), and rear right (rear R) of driver 6, respectively.

すなわち実施形態では、いわゆる4チャンネル・スピーカを備えるオーディオ設備を持つ車両を想定する。スピーカ4,7,8,9により、オーディオ設備は、車内空間の任意の位置に音像を定位させることができる。 That is, the embodiment assumes a vehicle with an audio installation with so-called four-channel speakers. With the speakers 4, 7, 8, 9, the audio equipment can localize the sound image at any position in the vehicle interior space.

車載装置2は、CPU(Central Processing Unit)24およびメモリ25を備える、いわゆる組み込み型のコンピュータである。車載装置2は、さらに、GPSモジュール21、内蔵アンテナ22、および無線モジュール23を備える。GPSモジュール21は、GPSアンテナ1からの信号を取り込み、内部で分岐してカーナビゲーションシステム3へと出力する。一方、内蔵アンテナ22は無線モジュール23が他車の車載装置と通信するために用いられる。 The in-vehicle device 2 is a so-called embedded computer including a CPU (Central Processing Unit) 24 and a memory 25 . The in-vehicle device 2 further includes a GPS module 21 , a built-in antenna 22 and a wireless module 23 . The GPS module 21 takes in the signal from the GPS antenna 1 , branches it internally and outputs it to the car navigation system 3 . On the other hand, the built-in antenna 22 is used for the wireless module 23 to communicate with the in-vehicle device of another vehicle.

図2は、車載装置2の使用環境の一例を示す図である。図2に示されるように、車載装置2は、例えばダッシュボードに取り付けられる。いわゆるポン付けである。好ましくは、バックミラーの下方の、運転手の視野の妨げにならない位置に取り付けるとよい。車載装置2を搭載する複数の車両が互いに通信し合うことで、実施形態の車車間通信システムが形成される。
実施形態では、各車両の車載装置2が互いに既定のフォーマットのメッセージデータを授受し合うことを想定する。複数の車載装置2は、例えば、既設の特定小電力無線通信インフラ基盤を利用して互いにメッセージデータを授受し合うことができる。この種のインフラ基盤として代表的なものは、日本においては、スマートメータ通信インフラを挙げることができる。周知のように、日本におけるスマートメータ通信インフラは、900MHz帯を利用して装置間のデータの授受を仲介する。
FIG. 2 is a diagram showing an example of the usage environment of the in-vehicle device 2. As shown in FIG. As shown in FIG. 2, the in-vehicle device 2 is attached to, for example, a dashboard. This is so-called ponting. Preferably, it should be mounted below the rear-view mirror so that it does not interfere with the driver's field of vision. A vehicle-to-vehicle communication system of the embodiment is formed by communicating with each other among a plurality of vehicles equipped with the in-vehicle device 2 .
In the embodiment, it is assumed that the in-vehicle device 2 of each vehicle exchanges message data in a predetermined format with each other. A plurality of in-vehicle devices 2 can exchange message data with each other, for example, using an existing specific low-power wireless communication infrastructure. A typical example of this kind of infrastructure is the smart meter communication infrastructure in Japan. As is well known, the smart meter communication infrastructure in Japan uses the 900 MHz band to transfer data between devices.

車両の運転手は、車載装置2に音声で例えば「平均車速を教えて!」と命令する(音声コマンド)。そうすると車載装置2は、「平均車速は、左車線が時速〇km、右車線が時速〇kmです」と自動で応答する(自動応答)。これを受けて運転手は、車線変更の要否について、例えば「1分しか違わないならこのまま行こう」という判断を下すことができる。 The driver of the vehicle issues a voice command to the in-vehicle device 2, for example, "Tell me the average vehicle speed!" (voice command). Then, the in-vehicle device 2 automatically responds that "the average vehicle speed is 0 km/h in the left lane and 0 km/h in the right lane" (automatic response). In response to this, the driver can make a decision as to whether or not it is necessary to change lanes, for example, "If the difference is only one minute, let's continue as is."

図3は、車載装置2の一例を示す機能ブロック図である。車載装置2は、音声認識部24a、送信部24b、リツイート部24c、転送部24d、音声合成部24e、相対位置算出部24f、受信部24g、スピーカ接続部24h、走行情報算出部24i、および、GPS受信部24jを備える。これらの機能ブロックは、CPU24の処理機能として実現される。なお、音声合成部24eは、スピーカ接続部24hを介してスピーカ4,7,8,9に接続される。 FIG. 3 is a functional block diagram showing an example of the in-vehicle device 2. As shown in FIG. The in-vehicle device 2 includes a voice recognition unit 24a, a transmission unit 24b, a retweet unit 24c, a transfer unit 24d, a voice synthesis unit 24e, a relative position calculation unit 24f, a reception unit 24g, a speaker connection unit 24h, a travel information calculation unit 24i, and A GPS receiver 24j is provided. These functional blocks are implemented as processing functions of the CPU 24 . The voice synthesizing section 24e is connected to the speakers 4, 7, 8 and 9 via the speaker connecting section 24h.

また、車載装置2は、キーワード保存部25a、方言データ保存部25b、車種毎声質定義データ保存部25c、運転手属性毎声質定義データ保存部25d、コマンド定義データ保存部25e、自車走行情報記憶部25f、他車走行情報記憶部25g、自車設定情報保存部25h、および、運転手設定情報保存部25iを備える。これらは、メモリ25に設けられる記憶領域として理解され得る。また、メモリ25は、CPU24の各機能を実現するための命令を含むプログラムも、記憶する。 The in-vehicle device 2 also includes a keyword storage unit 25a, a dialect data storage unit 25b, a voice quality definition data storage unit 25c for each vehicle type, a voice quality definition data storage unit 25d for each driver attribute, a command definition data storage unit 25e, and an own vehicle running information storage. 25f, other vehicle travel information storage unit 25g, host vehicle setting information storage unit 25h, and driver setting information storage unit 25i. These can be understood as storage areas provided in the memory 25 . The memory 25 also stores programs including instructions for realizing each function of the CPU 24 .

受信部24gは、他車から送信されたメッセージデータを受信する。メッセージデータは、他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報を少なくとも含む。 The receiving unit 24g receives message data transmitted from other vehicles. The message data includes at least a command code corresponding to the intention of the driver of the other vehicle and position information of the other vehicle.

図4は、実施形態に係わる車車間通信で用いられるメッセージデータのフォーマットの一例を示す図である。コマンドコードは、メッセージデータの例えば10番目のフィールドに記載される。他車の位置情報は、複数(例えば(1)~(N))の他車走行履歴情報にそれぞれ記載される。 FIG. 4 is a diagram showing an example of the format of message data used in inter-vehicle communication according to the embodiment. The command code is written in, for example, the tenth field of the message data. The location information of the other vehicle is described in each of a plurality of (eg, (1) to (N)) other vehicle travel history information.

他車走行履歴情報は、他車の識別情報(例えば、製造番号)に、当該他車の複数の履歴データ(1)~(m)を対応付けた構造のデータである。履歴データのそれぞれは、緯度・経度で表される位置情報、移動方角、および移動速度にタイムスタンプを対応付けた構造を持つ情報である。この情報を走行情報と称する。走行情報は受信部24gによりメッセージデータから抽出されて、他車走行情報記憶部25gに記憶される。
メッセージデータは、このほか、リツイートフラグ、発信者の識別情報、発信者の緯度・経度、発信時タイムスタンプ、通信相手コード、、、等のフィールドを含む。
The other vehicle travel history information is data having a structure in which a plurality of pieces of history data (1) to (m) of the other vehicle are associated with identification information (for example, manufacturing number) of the other vehicle. Each piece of history data is information having a structure in which position information represented by latitude and longitude, moving direction, and moving speed are associated with time stamps. This information is called travel information. The traveling information is extracted from the message data by the receiving section 24g and stored in the other vehicle traveling information storage section 25g.
The message data also includes fields such as a retweet flag, sender's identification information, sender's latitude/longitude, sending time stamp, communication partner code, and so on.

8番目のフィールドの発信車種別は、メッセージデータを送信した車両の属性を示す。車両の属性とは、例えば車種、色、年式、タイプなどがある。車種としては大型トラック、中型トラック、…、普通車、軽自動車などがある。色は、例えば赤系、青系、…、等に分類される。これらの情報は、例えば車載装置2の初期設定の際に、自車設定情報保存部25hに予め記憶される。 The transmission vehicle type in the eighth field indicates the attributes of the vehicle that transmitted the message data. Vehicle attributes include, for example, vehicle type, color, model year, and type. Vehicle types include heavy-duty trucks, medium-duty trucks, ordinary vehicles, and light vehicles. Colors are classified into, for example, red series, blue series, and so on. These pieces of information are stored in advance in the own vehicle setting information storage unit 25h, for example, when the in-vehicle device 2 is initialized.

9番目のフィールドの発信車の運転手属性は、メッセージデータを送信した車両の運転手の属性(運転手属性)を示す。運転手属性とは、例えば男性、女性、年齢、ベテラン、初心者などの、運転手の特徴を示す情報である。これらの情報は、例えば車載装置2の初期設定の際に、運転手設定情報保存部25iに予め記憶される。 The attribute of the driver of the originating vehicle in the ninth field indicates the attribute of the driver of the vehicle that has transmitted the message data (driver's attribute). Driver attributes are information that indicates characteristics of drivers, such as male, female, age, veteran, and beginner. These pieces of information are stored in advance in the driver setting information storage unit 25i, for example, when the in-vehicle device 2 is initialized.

なお、図4に示されるメッセージデータの構成は一例であり、実際の通信における具体的な通信メッセージの内容を示すとは限らず、番号と各フィールドの対応も一例に過ぎない。現実の通信においては、効率等の観点から、例えばデータ圧縮処理等が適宜、施される。 Note that the configuration of the message data shown in FIG. 4 is just an example, and does not necessarily indicate the specific contents of the communication message in actual communication, and the correspondence between the number and each field is also just an example. In actual communication, for example, data compression processing or the like is appropriately performed from the viewpoint of efficiency or the like.

音声合成部24eは、受信したメッセージデータに含まれる送信元他車の位置情報と、GPS受信部24jから取得された自車の位置情報とに基づいて、メッセージデータの宛先が自車であるか否かを判定する。そして、メッセージデータの宛先が自車であると判定された場合に、音声合成部24eは、受信したメッセージデータのコマンドコードから音声メッセージを合成する。合成された音声メッセージは、スピーカ4,7,8,9から拡声出力される。 The voice synthesizing unit 24e determines whether the destination of the message data is the own vehicle based on the location information of the other vehicle as the transmission source included in the received message data and the location information of the own vehicle acquired from the GPS receiving unit 24j. determine whether or not Then, when it is determined that the destination of the message data is the own vehicle, the voice synthesizing unit 24e synthesizes a voice message from the command code of the received message data. The synthesized voice message is loudly output from speakers 4, 7, 8, and 9. FIG.

送信部24bは、メッセージデータを他車に宛てて送信する。図4に示されるように、メッセージデータは、自車(発信者)の運転手の意思に対応するコマンドコードと、自車の位置情報(緯度・経度)を少なくとも含む。もちろん、発信車の識別情報や発信時タイムスタンプなども、メッセージデータに含まれる。 The transmission unit 24b transmits the message data to other vehicles. As shown in FIG. 4, the message data includes at least a command code corresponding to the intention of the driver of the vehicle (sender) and position information (latitude and longitude) of the vehicle. Of course, the message data also includes the identification information of the originating vehicle and the time stamp at the time of origination.

ここで、送信部24bおよび受信部24gは、スマートメータ通信基盤100を利用して、自車と他車との間でメッセージデータを授受する。日本国内の各電力会社がスマートメータの導入を進めており、2020年度から2023年度にかけて、ほぼ国内全世帯への導入が完了する。その通信手段の大多数は920MHz帯の特定小電力無線を用いたものであり、適用範囲は3,000万世帯~5,000万世帯にも上ると見込まれる。よって、スマートメータ通信基盤100として、信頼性が高く、安価なものを利用することが可能である。 Here, the transmission unit 24b and the reception unit 24g use the smart meter communication infrastructure 100 to transmit and receive message data between the own vehicle and the other vehicle. Each electric power company in Japan is promoting the introduction of smart meters, and from fiscal 2020 to 2023, the introduction to almost all domestic households will be completed. Most of the means of communication use 920 MHz band specified low-power radio, and the range of application is expected to reach 30 to 50 million households. Therefore, it is possible to use a highly reliable and inexpensive smart meter communication infrastructure 100 .

920MHz帯の特定小電力無線は、さらに以下の特徴を有する。
(1)出力20mWまでは無線局免許が不要であること。
(2)携帯電話でいうところのいわゆるプラチナバンドに相当する周波数帯であり、建物への回り込み特性が比較的良いこと。
(3)電波が遠くに飛びすぎないので、車車間通信のような比較的近距離間通信に適すること。
これらの特徴から、スマートメータ通信基盤100は車車間通信の適用にも適している。このような特徴を活用し、高信頼で安価な通信機能を利用することにより<普及の壁>を打破することが期待される。
The 920 MHz band specified low-power radio further has the following features.
(1) A radio station license is not required for outputs up to 20 mW.
(2) The frequency band is equivalent to the so-called platinum band used in mobile phones, and has relatively good wraparound characteristics into buildings.
(3) Since radio waves do not travel too far, it should be suitable for relatively short distance communication such as vehicle-to-vehicle communication.
Due to these features, the smart meter communication infrastructure 100 is also suitable for inter-vehicle communication. By making use of these features and using highly reliable and inexpensive communication functions, it is expected that the <barrier to popularization> will be overcome.

音声認識部24aは、自車の運転手の発した音声を認識する。認識の結果は送信部に送られる。送信部は、音声認識の結果に基づくコマンドコードをメッセージデータに格納し、他車に宛てて送信する。 The speech recognition unit 24a recognizes the speech uttered by the driver of the vehicle. The recognition result is sent to the transmitter. The transmission unit stores a command code based on the voice recognition result in message data and transmits the message data to another vehicle.

走行情報算出部24iは、GPS受信部24jから自車の位置情報を取得し、自車の位置情報、移動方角、および移動速度にタイムスタンプを対応付けた、自車の走行情報を算出する。自車走行情報は、自車走行情報記憶部25fに記憶されるとともに、送信部24bにより、メッセージデータに格納されて送信される。 The travel information calculation unit 24i acquires the position information of the own vehicle from the GPS reception unit 24j, and calculates the travel information of the own vehicle in which the time stamp is associated with the position information, moving direction, and moving speed of the own vehicle. The own vehicle running information is stored in the own vehicle running information storage unit 25f, and is stored in message data and transmitted by the transmitting unit 24b.

転送部24dは、他車から受信したメッセージデータを、別の他車にさらに1ホップ(HOP)だけ転送する。
リツイート部24cは、他車から受信したメッセージデータを、自車の運転手の意思に応じて、別の他車にさらに転送する。
The transfer unit 24d transfers the message data received from another vehicle to another vehicle by one hop (HOP).
The retweet unit 24c further forwards the message data received from the other vehicle to another other vehicle according to the intention of the driver of the own vehicle.

相対位置算出部24fは、他車から受信したメッセージデータに含まれる位置情報と自車の位置情報とに基づいて、このメッセージデータを送信した通信相手(送信元)の、自車に対する相対位置を算出する。相対位置が算出されると、音声合成部24eは、この相対位置に基づいて、送信元から送信されたメッセージデータの宛先が自車であるか否かを判定する。 Based on the position information included in the message data received from the other vehicle and the position information of the own vehicle, the relative position calculation unit 24f calculates the relative position of the communication partner (sender) that sent the message data to the own vehicle. calculate. When the relative position is calculated, the voice synthesizing unit 24e determines whether or not the destination of the message data transmitted from the transmission source is the own vehicle based on this relative position.

<作用>
次に、上記構成における作用を説明する。以下の説明において、機能の主体である車載装置2を搭載する車両を[自車]と称する。また、自車以外の車両を[他車]と称する。先ず、走行情報算出部24iについて説明する。
<Action>
Next, the operation of the above configuration will be described. In the following description, the vehicle equipped with the in-vehicle device 2, which is the subject of the function, is referred to as "own vehicle". Vehicles other than the own vehicle are referred to as [other vehicles]. First, the travel information calculator 24i will be described.

<走行情報算出部24iについて>
図5は、走行情報算出部24iの機能を説明するためのフローチャートである。走行情報算出部24iは、GPS受信部24jから自車の位置情報を定期的に取得し(ステップS91)、タイムスタンプを付与する(ステップS92)。次に走行情報算出部24iは、自車位置情報の前回の値を自車走行情報記憶部25fから読み出し(ステップS93)、今回取得した位置情報と比較する。そして、位置情報の時間に対する変化に基づいて、自車の速度と移動方向とを算出する(ステップS94)。次に走行情報算出部24iは、得られた結果にタイムスタンプを付与し、[自車走行情報]として、自車走行情報記憶部25fにサイクリックに保存する(ステップS95)。つまり、古い情報を消去して、新しい情報を保存することにより、新しい情報から順に一定数の情報を保存する。以上の手順は、処理ループ(LOOP)内で繰り返される。
<Regarding Travel Information Calculation Unit 24i>
FIG. 5 is a flow chart for explaining the function of the travel information calculator 24i. The travel information calculator 24i periodically acquires the position information of the own vehicle from the GPS receiver 24j (step S91), and adds a time stamp (step S92). Next, the travel information calculation unit 24i reads the previous value of the vehicle position information from the vehicle travel information storage unit 25f (step S93), and compares it with the position information acquired this time. Then, the speed and moving direction of the own vehicle are calculated based on the change of the position information with respect to time (step S94). Next, the travel information calculation unit 24i adds a time stamp to the obtained result, and cyclically saves it as [own vehicle travel information] in the own vehicle travel information storage unit 25f (step S95). That is, by erasing old information and storing new information, a certain number of pieces of information are stored in order from the newest information. The above procedure is repeated within a processing loop (LOOP).

サイクリックに保存した[自車走行情報]の履歴情報は、図4に示されるメッセージデータに挿入され、車車間で相互に情報交換される。自車の走行情報は、他車により受信され、受信先の車両では[他車走行情報]としてサイクリックに記録され、[他車走行情報]の履歴情報となる。当然、自車においても、他車から受信する情報には全て情報発信車の[自車走行情報]が付与されているので、様々な車からの[他車走行情報]を集め、記憶することができる。 The cyclically stored history information of [vehicle running information] is inserted into the message data shown in FIG. 4, and information is exchanged between vehicles. The travel information of the own vehicle is received by the other vehicle, and is cyclically recorded as [other vehicle travel information] in the receiving vehicle, and becomes history information of [other vehicle travel information]. As a matter of course, all the information received from other vehicles in the own vehicle is given with the [Own vehicle driving information] of the information transmission vehicle, so it is possible to collect and store [Other vehicle driving information] from various vehicles. can be done.

こうした走行情報の集合体は付近の交通の状況を示す情報となり得る。例えば、以下のような付加価値情報を取り出し提供すことが可能である。しかも、これらの情報は自律分散的に収集・提供することが可能であり、交通管制センターシステムのような全体を管理するシステムを必要としないという、大きな利点になる。 A collection of such travel information can be information indicating traffic conditions in the vicinity. For example, it is possible to extract and provide the following added-value information. Moreover, this information can be collected and provided in an autonomous distributed manner, which is a great advantage in that it does not require a system for overall management such as a traffic control center system.

(1)道路毎・車線毎・時間帯毎の平均走行速度と速度の分散
(2)自車を中心とする前方向の車列の長さ、後ろ方向の車列の長さ
(3)付近の渋滞状況
(4)事故発生時の付近の車の動きの証拠データ
(5)不合理な交通違反摘発時の反論データ
(6)適切な制限速度見直しのための基礎データ提供
こうした付加価値情報は<普及の壁>を超えるための強力な推進力となり得る。
(1) Average running speed and speed variance for each road, lane, and time period (2) Length of forward and rearward lines centered on own vehicle (3) Around (4) Evidence data of the movement of cars in the vicinity at the time of the accident (5) Objection data when unreasonable traffic violations were exposed (6) Provision of basic data for appropriate review of speed limits These value-added information It can be a powerful driving force for overcoming the <wall of popularization>.

<受信部24gについて>
図6は、受信部24gの機能を説明するためのフローチャートである。受信部24gは、車車間通信で授受されるメッセージデータを取得し、必要な情報を記憶するとともに、必要なアクションを実行する。
<Regarding the receiving unit 24g>
FIG. 6 is a flow chart for explaining the function of the receiver 24g. The receiving unit 24g acquires message data exchanged through inter-vehicle communication, stores necessary information, and executes necessary actions.

図6の処理ループの中で、受信部24gは、他車からの受信データ(メッセージデータ)の到来を待ち受ける(ステップS1)。メッセージデータが到来すると(YES)、受信部24gは、受信したメッセージデータから、図4に示される[自車走行情報]、[他車走行情報]、[通信相手コード]、[コマンドコード]、あるいは[リツイートフラグ]等の各種の情報を抽出する。 In the processing loop of FIG. 6, the receiver 24g waits for arrival of reception data (message data) from other vehicles (step S1). When the message data arrives (YES), the receiving unit 24g reads the received message data from the [Own vehicle running information], [Other vehicle running information], [Communication partner code], [Command code], Alternatively, various information such as [retweet flag] is extracted.

次に、[自車走行情報]の抽出に成功すれば、つまりメッセージデータに[自車走行情報]が有れば(ステップS2:YES)、受信部24gは、他車走行情報記憶部25gにその内容を記録する(ステップS3)。また、メッセージデータに[他車走行情報]が有れば(ステップS4:YES)、受信部24gは、その内容を他車走行情報記憶部25gに記録する(ステップS5)。つまり自車にとっては、[他車の自車走行情報]、および[他車の他車走行情報]のいずれも他車走行情報である。 Next, if the [vehicle travel information] is successfully extracted, that is, if there is [vehicle travel information] in the message data (step S2: YES), the receiving unit 24g stores the other vehicle travel information storage unit 25g. The content is recorded (step S3). Also, if the message data includes [other vehicle traveling information] (step S4: YES), the reception unit 24g records the contents in the other vehicle traveling information storage unit 25g (step S5). In other words, for the own vehicle, both [Own vehicle traveling information of other vehicle] and [Other vehicle traveling information of other vehicle] are other vehicle traveling information.

次に受信部24gは、メッセージデータの[リツイートフラグ]が0ホップ目を示す値(0)であるか否かを判定し(ステップS6)、YESであれば、受信したメッセージデータを転送部24dに送って1ホップだけ転送させる(ステップS7)。転送されるメッセージデータの[リツイートフラグ]には、1ホップ目を示す値が記載される。 Next, the receiving unit 24g determines whether or not the [retweet flag] of the message data is a value (0) indicating the 0th hop (step S6). and forwarded by one hop (step S7). A value indicating the first hop is described in the [retweet flag] of the transferred message data.

ステップS6でNOならば、受信部24gは、受信したメッセージデータに記載されたコマンドがリツイート対象であるか否かを判定する(ステップS8)。NOならば、受信部24gは、メッセージデータを相対位置算出部24fに送り、送信元他車の相対位置を算出させる(ステップS11)。ステップS8でYESならば、受信部24gは、[リツイートフラグ]に(リツイート済み)を示す値(2)が記載されているか否かを判定する(ステップS9)。NOであれば、受信部24gは、メッセージデータをリツイート部24cに送り、さらに1ホップだけ転送(リツイート)させる(ステップS10)。ステップS9でYESならば、受信部24gは、メッセージデータを相対位置算出部24fに送り、送信元他車の相対位置を算出させる(ステップS11)。以上の手順は、処理ループ(LOOP)内で繰り返される。 If NO in step S6, the receiving unit 24g determines whether or not the command described in the received message data is a retweet target (step S8). If NO, the receiving section 24g sends the message data to the relative position calculating section 24f to calculate the relative position of the other vehicle as the transmission source (step S11). If YES in step S8, the receiving unit 24g determines whether or not the value (2) indicating (retweeted) is described in [retweet flag] (step S9). If NO, the receiving unit 24g sends the message data to the retweeting unit 24c, and further forwards (retweet) by one hop (step S10). If YES in step S9, the reception unit 24g sends the message data to the relative position calculation unit 24f to calculate the relative position of the other vehicle as the transmission source (step S11). The above procedure is repeated within a processing loop (LOOP).

<転送部24dについて>
図7は、転送部24dの機能を説明するためのフローチャートである。図7の処理ループの中で、転送部24dは、メッセージデータの到来を待ち受け(ステップS21)、メッセージデータが到来すると(YES)、転送部24dは、受信したメッセージデータの[リツイートフラグ]に1ホップ目を示す値(1)をセットする。そのうえで転送部24dは、メッセージデータを送信部24bに送り(ステップS23)、他車に向けて1ホップだけ送信させる。以上の手順は、処理ループ(LOOP)内で繰り返される。
<Regarding the transfer unit 24d>
FIG. 7 is a flowchart for explaining the functions of the transfer unit 24d. In the processing loop of FIG. 7, the transfer unit 24d waits for the arrival of message data (step S21), and when the message data arrives (YES), the transfer unit 24d sets the [retweet flag] of the received message data to 1. Set the value (1) to indicate the hop number. After that, the transfer unit 24d sends the message data to the transmission unit 24b (step S23), and causes the message data to be transmitted by one hop toward the other vehicle. The above procedure is repeated within a processing loop (LOOP).

転送を1ホップだけに限定することにより以下の効果を得られる。つまり、2ホップ以上の多数の転送を繰り返したときに生じる以下のような不具合を、回避することができる。
(a)転送を複数回にわたって繰り返すと、転送の無限ループが発生する。このような状況下では転送データが爆発的に増加してしまい、いわゆるブロードキャストストームが生じて実用的な通信が行えなくなる。
(b)転送の無限ループを生じないケースであっても、転送に参加する通信ノード(車)が指数関数的に増大するケースがあり、それらの通信ノード(車)の極一部しか転送情報を必要としないケースを生じうる。つまり、本来必要としない情報の転送にCPU資源や無線の電波資源を浪費してしまうケースを生じる。
(c)現時点で、日本国内のスマートメータ間のマルチホップ通信方式は統一されていない。このため、全国規模での車車間通信に、そのまま適用することができない。
Limiting forwarding to only one hop has the following effects. In other words, it is possible to avoid the following problems that occur when a large number of transfers of two hops or more are repeated.
(a) Repeating a transfer multiple times causes an infinite loop of transfers. Under such circumstances, the amount of transfer data increases explosively, causing a so-called broadcast storm and making practical communication impossible.
(b) Even in cases where an infinite transfer loop does not occur, there are cases where the number of communication nodes (vehicles) participating in the transfer increases exponentially, and only a small portion of those communication nodes (vehicles) transfer information. There may be cases where you don't need In other words, there are cases where CPU resources and radio wave resources are wasted in transferring information that is not originally required.
(c) Currently, the multi-hop communication method between smart meters in Japan is not standardized. Therefore, it cannot be applied as is to vehicle-to-vehicle communication on a nationwide scale.

(a)~(c)のような不具合に対し、転送ホップ数を1ホップだけに限ることで、極めて容易かつシンプルにシステムを実装できる。いわゆる「ポン付け」が可能な、シンプルで安価な車載装置を容易に実現でき、<普及の壁>を超えることへの後押しになる。 By limiting the number of transfer hops to only one hop, the system can be implemented extremely easily and simply to deal with problems such as (a) to (c). A simple and inexpensive in-vehicle device that can be so-called "pop-up" can be easily realized, and it will help to overcome the <wall of popularization>.

なお、2ホップだけの転送としても上記のコンセプトは大きくは変わらない。1ホップよりも2ホップのほうが広範囲の通信が可能となるが、1ホップだけの場合と比較すると、上記(a)、(b)の可能性が高まるというトレードオフの関係がある。しかし、1ホップだけの転送では、データの到達可能距離が限定されてしまい、広域に渡る通信を実現することはできない。そこで実施形態では、リツイート部24cを設けることで、広域に渡る通信を実現する。つまり実施形態ではシンプルさを優先し、1ホップだけの転送を採用するとともに、運転手の意思に応じて情報を拡散できるようにするために、”リツイート”という処理を適用する。 Note that the above concept does not change greatly even if only two hops are transferred. Although two-hop communication enables communication in a wider range than one-hop communication, there is a trade-off in that the possibilities of (a) and (b) are higher than in the case of only one hop. However, with only one-hop transfer, the reachable distance of data is limited, and communication over a wide area cannot be realized. Therefore, in the embodiment, by providing the retweet section 24c, communication over a wide area is realized. In other words, in the embodiment, simplicity is prioritized, one-hop transfer is adopted, and a process called "retweet" is applied so that information can be spread according to the intention of the driver.

<リツイート部24cについて>
図8は、リツイート部24cの機能を説明するためのフローチャートである。リツイート部24cは、受信部24gからメッセージデータが送られると(ステップS31:YES)、バッファメモリ(図示せず)などにメッセージデータを一時的に記憶し(ステップS32)、音声合成部24eにメッセージデータを送った(ステップS33)のちにステップS34の手順を実行する。なお受信データが無ければ(ステップS31:NO)、そのままステップS34に至る。
<Regarding the retweet section 24c>
FIG. 8 is a flowchart for explaining the function of the retweet section 24c. When the message data is sent from the receiving unit 24g (step S31: YES), the retweeting unit 24c temporarily stores the message data in a buffer memory (not shown) or the like (step S32), and transmits the message to the voice synthesizing unit 24e. After sending the data (step S33), the procedure of step S34 is executed. If there is no received data (step S31: NO), the process proceeds directly to step S34.

ステップS34において、リツイート部24cは、音声認識部24aの認識結果を取得し、認識結果が”リツイート”であるか否かを判定する(ステップS34)。このステップを設けることで、自車の運転手の意思に応じて、メッセージデータを他車に転送する(つまりリツイートする)か否かが決定される。 In step S34, the retweet unit 24c acquires the recognition result of the voice recognition unit 24a, and determines whether or not the recognition result is "retweet" (step S34). By providing this step, it is determined whether or not to transfer the message data to the other vehicle (that is, retweet) according to the intention of the driver of the own vehicle.

ステップS34でYESであれば、リツイート部24cは、ステップS32でバッファされたメッセージデータを送信部24bに送り、不特定多数の他車(無線ゾーン内の車両)に向けて送信する(ステップS35)。すなわち、運転手からのリツイートの意思表示があると、リツイート部24cは、他車から受け渡されたメッセージデータを送信部24bに渡して、さらに別の車両へと送信させる。以上の手順は、処理ループ(LOOP)内で繰り返される。 If YES in step S34, the retweet unit 24c sends the message data buffered in step S32 to the transmission unit 24b, and transmits the message data to an unspecified number of other vehicles (vehicles within the wireless zone) (step S35). . That is, when the driver expresses his/her intention to retweet, the retweet unit 24c passes the message data received from the other vehicle to the transmission unit 24b, and causes the transmission unit 24b to transmit the message data to another vehicle. The above procedure is repeated within a processing loop (LOOP).

このような処理手順により、運転手にとって真に必要な情報を、広範囲に迅速に拡散することが可能である。また、SNS(Social Networking Service)の文化を取り入れることができ、特に若年層の強力な牽引力に期待できるとともに、<普及の壁>を超えることへの後押しにもなる。 Such a processing procedure enables the information that is truly necessary for the driver to spread quickly over a wide area. In addition, it is possible to incorporate the culture of SNS (Social Networking Service), which can be expected to attract young people in particular, and it will also help to overcome the <wall of popularization>.

<送信部24bについて>
図9は、送信部24bの機能を説明するためのフローチャートである。送信部24bは、転送部24d、音声認識部24a、または、リツイート部24cからのデータ送信要求を受けるとメッセージデータを作成し、他車に送信する。
図9に示されるように、送信部24bの処理手順は、ループの中に3つの判断ブロック(ステップS41、S43、S48)を備える。ステップS41において、送信部24bは、転送部24dからの送信要求を待ち受ける。また、ステップS43において、送信部24bは、音声認識部24aからの送信要求を待ち受ける。また、ステップS48において、送信部24bは、リツイート部24cからの送信要求を待ち受ける。いずれかのステップで送信要求がキャッチされると、プロセスは、各ステップに応じた処理へとジャンプする。
<Regarding the transmission unit 24b>
FIG. 9 is a flow chart for explaining the function of the transmission section 24b. Upon receiving a data transmission request from the transfer unit 24d, the voice recognition unit 24a, or the retweet unit 24c, the transmission unit 24b creates message data and transmits it to the other vehicle.
As shown in FIG. 9, the processing procedure of the transmission unit 24b has three decision blocks (steps S41, S43, S48) in a loop. In step S41, the transmission unit 24b waits for a transmission request from the transfer unit 24d. Further, in step S43, the transmission unit 24b waits for a transmission request from the voice recognition unit 24a. Also, in step S48, the transmission unit 24b waits for a transmission request from the retweet unit 24c. If a send request is caught at any step, the process jumps to processing according to each step.

ステップS41で転送部24dからの送信要求があれば(YES)、送信部24bは、スマートメータ通信基盤100にデータの送信を要求する(ステップS42)。
ステップS43で音声認識部24aからの送信要求があれば(YES)、送信部24bは、自車走行情報記憶部25fから自車走行情報を読み出し(ステップS44)、他車走行情報記憶部25gから他車走行情報を読み出して(ステップS45)、送信すべきメッセージデータを作成する(ステップS46)。そして、送信部24bは、このメッセージデータの送信をスマートメータ通信基盤100に要求する(ステップS47)。
If there is a transmission request from the transfer unit 24d in step S41 (YES), the transmission unit 24b requests the smart meter communication base 100 to transmit data (step S42).
If there is a transmission request from the voice recognition unit 24a in step S43 (YES), the transmission unit 24b reads own vehicle running information from the own vehicle running information storage unit 25f (step S44), Other vehicle travel information is read (step S45), and message data to be transmitted is created (step S46). Then, the transmission unit 24b requests the smart meter communication infrastructure 100 to transmit this message data (step S47).

ステップS48でリツイート部24cからの送信要求があれば(YES)、送信部24bは、リツイートフラグをセットした(つまり、1にした)メッセージデータを作成し(ステップS49)、このメッセージデータの送信をスマートメータ通信基盤100に要求する(ステップS50)。 If there is a transmission request from the retweet unit 24c in step S48 (YES), the transmission unit 24b creates message data with the retweet flag set (that is, set to 1) (step S49), and transmits this message data. A request is made to the smart meter communication base 100 (step S50).

<相対位置算出部24fについて>
図10は、相対位置算出部24fの機能を説明するためのフローチャートである。処理ループの中で、相対位置算出部24fは、他車からのメッセージデータの到来を待ち受ける(ステップS61)。メッセージデータが到来すると(YES)、相対位置算出部24fは、受信したメッセージデータから、図4に示される[自車走行情報]を読み出し、発信車の位置、速度、および向きを取得する(ステップS62)。
<Regarding the relative position calculator 24f>
FIG. 10 is a flowchart for explaining the function of the relative position calculator 24f. In the processing loop, the relative position calculator 24f waits for arrival of message data from other vehicles (step S61). When the message data arrives (YES), the relative position calculator 24f reads the [vehicle travel information] shown in FIG. S62).

次に相対位置算出部24fは、自車走行情報記憶部25fから自車の位置、速度、および向きを取得する(ステップS63)。ここまでで自車および他車の、位置、速度、および方向が取得されると、相対位置算出部24fはこれらの情報から、自車と、メッセージデータを送信した通信相手の車両との相対的な位置関係、相対速度、および、相対的な移動方向を算出する(ステップS64)。 Next, the relative position calculation unit 24f acquires the position, speed, and direction of the vehicle from the vehicle travel information storage unit 25f (step S63). When the positions, velocities, and directions of the own vehicle and the other vehicle have been acquired so far, the relative position calculator 24f calculates the relative position between the own vehicle and the vehicle of the communication partner to which the message data has been transmitted. positional relationship, relative speed, and relative moving direction are calculated (step S64).

次に、相対位置算出部24fは、受信したメッセージデータの通信相手コード(図4:5番目のフィールド)に記載された発信者の位置と、上記算出された相対的な位置関係とが合致しているか否かを判定する(ステップS65)。両者が合致していれば(YES)、相対位置算出部24fは、このメッセージデータが自車向けに送信されたデータであると判定する。そして相対位置算出部24fは、メッセージデータと、このメッセージデータから取得された各種情報を音声合成部24eに送る(ステップS66)。以上の手順は、処理ループ(LOOP)内で繰り返される。 Next, the relative position calculator 24f determines whether the position of the caller described in the communication partner code (fifth field in FIG. 4) of the received message data matches the calculated relative positional relationship. (step S65). If both match (YES), the relative position calculator 24f determines that this message data is data sent to the own vehicle. The relative position calculator 24f then sends the message data and various information acquired from the message data to the speech synthesizer 24e (step S66). The above procedure is repeated within a processing loop (LOOP).

図11は、通信相手コードと、相対的な位置関係との対応の一例を示す図である。メッセージデータの送信者から見た受信者との位置関係が、例えば[全て]、[前方の全て]、[後方の全て]、…、[左後ろ]、[左後方]というように詳細に区別され、各位置ごとに、通信相手コードが予め対応付けられる。相対位置算出部24fから送られた情報に基づき、音声合成部24eは、自車を中心とする相対位置とメッセージデータのコマンド内容を音声で表現し、自車の運転手に伝える。 FIG. 11 is a diagram showing an example of correspondence between communication partner codes and relative positional relationships. The positional relationship with the receiver as seen from the sender of the message data is distinguished in detail, for example, [All], [All in front], [All in back], ..., [Left rear], [Left rear]. A communication partner code is associated in advance with each position. Based on the information sent from the relative position calculator 24f, the voice synthesizing unit 24e expresses the command content of the message data and the relative position centering on the own vehicle by voice, and conveys it to the driver of the own vehicle.

<音声認識部24aについて>
図12は、音声認識部24aの機能を説明するためのフローチャートである。音声認識部24aは、自車の運転手が発した音声データをマイク5(図1)から取得し、音声認識を行う。音声認識については非特許文献1,2に示されるような、既存の技術を適用することができる。
<Regarding the voice recognition unit 24a>
FIG. 12 is a flowchart for explaining the functions of the speech recognition section 24a. The voice recognition unit 24a acquires voice data uttered by the driver of the vehicle from the microphone 5 (FIG. 1) and performs voice recognition. As for speech recognition, existing techniques as shown in Non-Patent Documents 1 and 2 can be applied.

図12のループにおいて、音声認識部24aは、マイク5から取得された音声に、通信相手を指定するためのキーワードが或るか否かを判定する(ステップS81)。ここで、実施形態では、キーワードを確実に識別できるようにするため、音声コマンドの形式を予め固定化して取り扱うようにする。 In the loop of FIG. 12, the voice recognition unit 24a determines whether or not the voice acquired from the microphone 5 has a keyword for designating the communication partner (step S81). Here, in the embodiment, in order to ensure that the keyword can be identified, the format of the voice command is fixed in advance.

図13は、音声コマンドのフォーマットの一例を示す図である。音声コマンドは、『会話相手を指定するキーワード』、および『コマンド』の2つのフィールドを含む。音声コマンドのフォーマットを定型化しておくことで、様々な音声や雑音が飛び交う社内の音データの中から、適切な通信相手と適切なコマンドを抜き出すことが可能になる。 FIG. 13 is a diagram showing an example of a voice command format. The voice command includes two fields, 'keyword specifying conversation partner' and 'command'. By stylizing the voice command format, it becomes possible to extract the appropriate communication partner and the appropriate command from the sound data in the company where various voices and noises fly.

図14は、会話相手を指定するためのキーワードと符号化列の一例を示す図である。例えば、自車から見て『すべて』、『ぜんぽうのすべて』、『こうほうのすべて』、…、等のキーワードに、各キーワードを識別するための符号『0』、『1』、『2』、…、が対応付けられる。この情報は、キーワード保存部25a(図3)に予め記憶される。 FIG. 14 is a diagram showing an example of a keyword and an encoded string for designating a conversation partner. For example, for keywords such as ``all'', ``everything in general'', ``everything in this way'', etc. as seen from the own vehicle, codes ``0'', ``1'', and ``2'' for identifying each keyword are used. , . . . are associated. This information is stored in advance in the keyword storage unit 25a (FIG. 3).

図15は、音声コマンドと符号化列の一例を示す図である。コマンドは、例えば『謝意』、『返答』、『促し』、『方向』、…などの複数のカテゴリごとに、共通の符号『1』、『2』、『11』、『12』…が対応付けられた情報である。この情報は、コマンド定義データ保存部25e(図3)に予め記憶される。 FIG. 15 is a diagram showing an example of voice commands and encoded strings. Commands correspond to common codes "1", "2", "11", "12", etc. for each of multiple categories such as "gratitude", "response", "encouragement", "direction", etc. attached information. This information is stored in advance in the command definition data storage unit 25e (FIG. 3).

例えば『謝意』のカテゴリには「ありがとう」、「どうも」、「さんきゅー」、…等の、いずれも謝意を表す言葉が対応付けられていて、これらのうちいずれかのコマンドが認識された場合には、共通のコード『1』にコード化される。このコマンドコード『1』を受けた側では、謝意を表す音声が合成出力される。 For example, the category "gratitude" is associated with words such as "thank you", "domo", "thank you", etc., all of which express gratitude, and any one of these commands is recognized. are coded to a common code "1". On the side receiving this command code "1", a speech expressing gratitude is synthesized and output.

図12に戻って説明を続ける。音声の中に通信相手を指定するキーワードを見つけると(ステップS81:YES)、音声認識部24aは、当該キーワードに対応する、通信相手を識別するコード(通信相手コード)をキーワード保存部25aから読み出す(ステップS82)。次に音声認識部24aは、通信相手識別コードに続く音声がコマンドであるか否かを判定し(ステップS83)、YESであれば、コマンドの識別コード(コマンドコード)をコマンド定義データ保存部25eから読み出す。 Returning to FIG. 12, the description continues. When a keyword specifying a communication partner is found in the voice (step S81: YES), the speech recognition unit 24a reads a code (communication partner code) for identifying the communication partner corresponding to the keyword from the keyword storage unit 25a. (Step S82). Next, the voice recognition unit 24a determines whether or not the voice following the communication partner identification code is a command (step S83). read from

そして、音声認識部24aは、読み出した通信相手コードとコマンドコードとを送信部24bに通知し、両コードを含むデータメッセージの送信を要求する(ステップS85)。通信相手コードおよびコマンドコードは、図4に示されるフォーマットの各フィールドに格納される。以上の手順は、処理ループ(LOOP)内で繰り返される。 Then, the speech recognition unit 24a notifies the transmission unit 24b of the read communication partner code and command code, and requests transmission of a data message containing both codes (step S85). The communication partner code and command code are stored in each field of the format shown in FIG. The above procedure is repeated within a processing loop (LOOP).

例えば、自車の運転手が、直後を走行中の車に向けて「先に行ってください」というメッセージを送信したくなったとする。この場合には、運転手は「こうぞくしゃ さきにいってください」と2つのフレーズからなる音声を発すれば、音声認識部24aにより、通信の相手先が[後続車]であること、および、伝えたいメッセージが「先に行ってください」であることが識別される。このようにして、運転手の意思を反映したメッセージデータが自車から送信されることになる。 For example, suppose that the driver of his/her own car wants to send a message to the car that is running immediately after, saying, "Please go ahead." In this case, if the driver utters a voice consisting of two phrases, ``Please go ahead,'' the speech recognition unit 24a recognizes that the other party of the communication is [following vehicle]. And it is identified that the message to be conveyed is "Please go ahead". In this way, the message data reflecting the intention of the driver is transmitted from the own vehicle.

<音声合成部24eについて>
次に、音声合成部24eについて説明する。実施形態において、音声合成部24eは、大きく3つの機能を有する。すなわち、受信したコマンドの意味を自車の運転手に伝える機能と、メッセージの送出元である相手位置を自車の運転手に伝える機能と、擬人化された音声を合成する機能とである。音声合成部24eにより合成出力される音声は、例えば図16に示されるように、大きく2つのパートを含む。
<Regarding the voice synthesizing unit 24e>
Next, the voice synthesizing unit 24e will be described. In the embodiment, the speech synthesizing unit 24e has three main functions. That is, a function to inform the driver of the vehicle of the meaning of the received command, a function to inform the driver of the vehicle of the location of the other party who sent the message, and a function to synthesize anthropomorphic voice. The voice synthesized and output by the voice synthesizing unit 24e includes roughly two parts, as shown in FIG. 16, for example.

図16は、音声合成部24eにより合成出力される音声を示す概念図である。自車内で拡声出力される音声メッセージは、受信相手を指定するための[キーワード部]と、音声コマンドの意味を表現するための[フレーズ部]とを有する。 FIG. 16 is a conceptual diagram showing speech synthesized and output by the speech synthesizing unit 24e. A voice message loudly output within the vehicle has a [keyword part] for designating the recipient and a [phrase part] for expressing the meaning of the voice command.

図17は、音声合成部24eの機能を説明するためのフローチャートである。図17の処理ループにおいて、音声合成部24eは他車から受信されたメッセージデータの有無を判定し(ステップS71)、メッセージデータがあれば(YES)、音声合成部24eは、当該受信されたメッセージデータに含まれるコマンドコードを取り出す(ステップS72)。 FIG. 17 is a flow chart for explaining the function of the speech synthesizing section 24e. In the processing loop of FIG. 17, the speech synthesis unit 24e determines whether or not there is message data received from another vehicle (step S71). A command code included in the data is extracted (step S72).

次に音声合成部24eは、取得したコマンドコードに対応する音声フレーズ発生用文字列を、コマンド定義データ保存部25eから取得する(ステップS73)。ステップS72で例えばコマンドコード『1』が抽出されていれば、そのメッセージは『謝意』を表しているので、対応する『ありがとう』といった文字列が取得される。 Next, the voice synthesizing unit 24e acquires a character string for voice phrase generation corresponding to the acquired command code from the command definition data saving unit 25e (step S73). If, for example, the command code "1" is extracted in step S72, the message expresses "thank you", so the corresponding character string "thank you" is acquired.

図18は、音声フレーズ発生用文字列とコマンドコードとの対応の一例を示す図である。この情報はコマンド定義データ保存部25eに予め保存される。図18に示されるように、各コマンドコードに対して、予め決められたパターンの文字列が割り当てられる。つまり発信車でどのような音声が発せられたとしても、その受け手である受信車では特定のパターンの音声しか発生されない。このようにすることで、誹謗中傷的なメッセージや煽りを助長するようなメッセージ交換を防止することができる。また、受信したコマンドの意味を自車の運転手に伝える機能が実現される
図17において、次に音声合成部24eは、受信したメッセージデータから発信車種別を読み出す(ステップS74)。発信車種別を示す情報は、図4に示されるようにメッセージデータの8番目のフィールドに記載されている。次に音声合成部24eは、発信車種別に対応する声質定義データを、車種毎声質定義データ保存部25cから読み出す(ステップS75)。
FIG. 18 is a diagram showing an example of the correspondence between character strings for voice phrase generation and command codes. This information is stored in advance in the command definition data storage unit 25e. As shown in FIG. 18, a character string of a predetermined pattern is assigned to each command code. In other words, no matter what kind of sound is produced by the originating vehicle, only a specific pattern of sound is produced by the receiving vehicle. By doing so, it is possible to prevent slanderous messages and message exchanges that encourage incitement. In addition, a function of conveying the meaning of the received command to the driver of the own vehicle is realized. In FIG. 17, next, the voice synthesizing unit 24e reads the calling vehicle type from the received message data (step S74). Information indicating the type of caller vehicle is described in the eighth field of the message data as shown in FIG. Next, the voice synthesizing unit 24e reads out the voice quality definition data corresponding to each vehicle type from the vehicle type voice quality definition data storage unit 25c (step S75).

図19は、車種毎に定義された声質データの一例を示す図である。例えば大型トラックに対しては、[高さ]が(低い)、[かすれ]が(大)、[高調波]が(小)、…、というような情報が予め定義される。 FIG. 19 is a diagram showing an example of voice quality data defined for each vehicle type. For example, for a large truck, information such as [height] (low), [blur] (large), [harmonics] (small), . . . is defined in advance.

図20は、車両の色毎に定義された声質データの一例を示す図である。例えば赤系の色には、[高さ]が(高い)、[かすれ]が(なし)、[高調波]が(小)、…、というような、若者をイメージさせる情報が予め定義される。 FIG. 20 is a diagram showing an example of voice quality data defined for each vehicle color. For example, for reddish colors, information that makes people imagine young people is defined in advance, such as [height] is (high), [blur] is (none), [harmonics] is (low), and so on. .

車両の運転手は走行中、相手の車の車種と色によって、運転手のおおまかなイメージを判断している。例えば、黒の大型トラックを見れば、大柄で太い声をした男性の運転手をイメージするであろうし、ピンクの軽自動車を見れば、細い声をした小柄な女性の運転手をイメージするであろう。 While the vehicle is running, the driver makes a rough image of the driver based on the model and color of the other vehicle. For example, if you see a black heavy-duty truck, you may imagine a large male driver with a deep voice, and if you see a pink light car, you may imagine a small female driver with a thin voice. deaf.

そこで、車載装置2に自車の車種と外形色を登録しておき、これらの情報を車車間通信の発信車属性情報として送信する。これを受けた受信側では、車種と外形色に応じた印象の音声を音声合成することにより、通信の発信車を特定することをサポートできるようになる。 Therefore, the vehicle type and external color of the own vehicle are registered in the on-vehicle device 2, and these information are transmitted as originating vehicle attribute information for inter-vehicle communication. On the receiving side receiving this, by synthesizing the voice of the impression corresponding to the vehicle type and exterior color, it becomes possible to support the identification of the vehicle that originated the communication.

例えば、自車の周りにピンクの軽自動車が1台だけ走行している最中に、細い女性の声質でメッセージが流れれば、運転手は、その軽自動車からのメッセージであることを容易に認識することができる。 For example, if a message is played in a slender female voice while only one pink mini vehicle is driving around the driver, the driver can easily recognize that the message is from that mini vehicle. can recognize.

図17に戻って説明を続ける。次に音声合成部24eは、受信したメッセージデータの9番目のフィールド(図4)から運転手属性を読み出す(ステップS76)。次に音声合成部24eは、運転手属性に対応する声質定義データを、運転手属性毎声質定義データ保存部25dから読み出す(ステップS77)。 Returning to FIG. 17, the description continues. Next, the speech synthesizing unit 24e reads the driver attributes from the ninth field (FIG. 4) of the received message data (step S76). Next, the voice synthesizing unit 24e reads the voice quality definition data corresponding to the driver attribute from the voice quality definition data storage unit 25d for each driver attribute (step S77).

図21は、運転歴に対して定義された声質データの一例を示す図である。例えばベテランの運転手については、[高さ]が(中)、[かすれ]が(なし)、[高調波]が(小)、…、というような、落ち着きを感じさせる情報が予め定義される。 FIG. 21 is a diagram showing an example of voice quality data defined for a driving history. For example, for a veteran driver, information that gives a feeling of calmness is defined in advance, such as [height] (medium), [blur] (none), [harmonics] (low), and so on. .

最後に音声合成部24eは、音声発生用文字列を、読み出された声質定義データの組み合わせに従って音声合成することで(ステップS78)、発信車をいわば<擬人化>する。以上の手順は、処理ループ(LOOP)内で繰り返される。 Finally, the voice synthesizing unit 24e synthesizes the voice generating character string according to the combination of the read voice quality definition data (step S78), so to speak, <personification> of the calling car. The above procedure is repeated within a processing loop (LOOP).

<受信相手位置を伝える機能について>
受信相手位置を伝える機能について説明する。音声合成部24eは、相対位置算出部24fから送られた、自車と受信相手車の相対的な位置情報から受信相手を指定するキーワード(図14)を合成出力する。これにより自車の運転手に、相手車の相対的な位置を的確に伝えることができる。
<About the function to transmit the location of the receiving party>
A function for transmitting the location of the receiving party will be described. The voice synthesizing unit 24e synthesizes and outputs a keyword (FIG. 14) designating a recipient from the relative position information between the own vehicle and the recipient vehicle sent from the relative position calculator 24f. As a result, the driver of the own vehicle can be accurately informed of the relative position of the other vehicle.

図22は、自車と相手車との相対位置を表現するキーワードの一例を示す図である。例えば自車との相対位置が直前、または前方の車両に対し、『前のくるま』といった、相手を指定するキーワードが対応付けられる。なお、キーワードは図22に示される用語に限定されるものではない。音声として聞いた場合に、自車と相手車の位置関係が連想できるようなキーワードであればどのような用語でも良い。 FIG. 22 is a diagram showing an example of keywords expressing the relative positions of the own vehicle and the opponent vehicle. For example, a keyword designating the other party such as "previous car" is associated with a vehicle whose relative position is immediately before or in front of the own vehicle. Keywords are not limited to the terms shown in FIG. Any term may be used as long as the keyword is associated with the positional relationship between the own vehicle and the other vehicle when heard as a voice.

さらに、音声合成部24eは、自車の乗車空間に、3次元的な音場を形成する。すなわち、音声合成部24eは、通信相手と自車との相対位置関係に基づいて、運転手から見た通信相手の位置に対応した位置に3次元的な音像を合成する。これにより、運転手が通信相手を特定することをサポートすることができる。 Furthermore, the speech synthesizing unit 24e forms a three-dimensional sound field in the passenger space of the own vehicle. That is, the voice synthesizing unit 24e synthesizes a three-dimensional sound image at a position corresponding to the position of the communication partner as seen from the driver, based on the relative positional relationship between the communication partner and the own vehicle. Thereby, it is possible to support the driver to specify the communication partner.

例えば、後方を走行中の車から受信したメッセージについては、運転手の後方に音像を定位させることによって、後方の車両からのメッセージであることを、運転手に容易に認識させることが可能になる。前方や側方も同様である。 For example, for a message received from a vehicle running behind, the sound image is localized behind the driver so that the driver can easily recognize that the message is from the vehicle behind the driver. . The same applies to the front and sides.

さらに、通信相手の速度と移動方向に基づいて、3次元的な音像を合成する際に、通信相手の動きに応じて時間的な音像位置の変化とドップラー効果を持たせるようにしても良い。つまり通信相手の相対速度および相対的な移動方向を反映すべく、音像の位置およびピッチを変化させるようにしてもよい。このようにすることで、運転手にとっては、通信相手を特定することがさらに容易になる。 Furthermore, when synthesizing a three-dimensional sound image based on the speed and direction of movement of the communication partner, temporal changes in sound image position and Doppler effect may be given according to the movement of the communication partner. In other words, the position and pitch of the sound image may be changed to reflect the relative speed and relative movement direction of the communication partner. By doing so, it becomes easier for the driver to identify the communication partner.

例えば、対向車線を走行中の車からのメッセージは、右前方から右後方へドップラー効果を伴いながら移動する音像として音声合成することによって、対向車からのメッセージであることを容易に運転手に認識させることが可能である。 For example, by synthesizing a message from a car in the oncoming lane as a sound image that moves from the right front to the right rear with the Doppler effect, the driver can easily recognize that the message is coming from the oncoming car. It is possible to

<擬人化された音声を合成する機能について>
擬人化は、例えば音声合成のための音質をパラメータ化し、調整可能とする機能を音声合成部24eに実装することで、実現可能である。擬人化により、運転手が通信相手を特定することを、別の側面からサポートすることができる。
<About the function to synthesize anthropomorphic voice>
Personification can be realized, for example, by parameterizing the sound quality for speech synthesis and implementing an adjustable function in the speech synthesizing unit 24e. Anthropomorphization can help the driver to identify the communication partner from another aspect.

なお、実施形態における擬人化とは、音声合成に用いる声質を制御することで、音声に仮想的な人格を持たせることを意味する。非特許文献1に示されるように、近年の音声合成の技術の進展により幅広い年代・性別の話者を選んで音声データを作成したり、喜・怒・哀・楽の感情の組合せ、声の抑揚や速さなどを調整することで、表現力豊かな音声を合成することが可能になってきている。あるいは非特許文献2に記載のように、特定の人の声データを元に音声を合成することも可能になっている。擬人化を用いたコミュケーションを反復的に実施することで、運転手には音声の音質だけから通信相手を特定することが可能となり、「いつものあの人だな」と認識することが可能となる。 It should be noted that the term anthropomorphic in the embodiment means giving voice a virtual personality by controlling the voice quality used for voice synthesis. As shown in Non-Patent Document 1, recent advances in speech synthesis technology have made it possible to select speakers of a wide range of ages and genders to create speech data, combine emotions of joy, anger, sorrow, and comfort, and create voice data. By adjusting the intonation, speed, etc., it has become possible to synthesize speech with rich expressiveness. Alternatively, as described in Non-Patent Document 2, it is also possible to synthesize speech based on voice data of a specific person. By repeatedly conducting communication using anthropomorphism, it is possible for the driver to identify the communication partner only from the sound quality of the voice, and it is possible to recognize that it is the usual person. Become.

<運転手属性による擬人化>
運転手属性による擬人化について詳しく説明する。例えば以下の3つの運転手属性を考える。
(1)運転経歴
(2)性別・年代
(3)出身県
<運転経歴に応じた擬人化>
運転手は走行中、相手の運転手の運転経験に応じて意識を変えながら運転している。例えば、初心者や高齢者が走行中の場合、車間距離を採ったり、スムーズな車線移動を意識したりしている。
そこで、車載装置2を初期設定する際、自車の運転手の運転歴を登録しておき、運転歴を運転手属性情報として車両間で授受し合う。メッセージデータを受信した車両では、通信相手の運転手の運転歴に応じた印象の音色で音声を合成することにより、通信の発信車の運転歴を特定することをサポートすることができる。例えば、ベテラン運転手はしっとりとした落ち着いた音声、初心者はおどおどしたうわずった印象の音声で音声合成することで、発信車の運転歴を表現することができる。図21の定義データはこのような属性を反映している。なお、例えば1か月の走行距離に応じて、初心者、中級者、上級者と運転レベル分けし、それに応じた声質を用いることも考えられる。
<Personification by driver attributes>
Anthropomorphization by driver attributes will be described in detail. For example, consider the following three driver attributes.
(1) Driving history (2) Gender/age (3) Home prefecture <Personification according to driving history>
While driving, the driver drives while changing his consciousness according to the driving experience of the other driver. For example, when a beginner or an elderly person is driving, they are conscious of maintaining a distance between vehicles and smooth lane changes.
Therefore, when the in-vehicle device 2 is initialized, the driving history of the driver of the own vehicle is registered, and the driving history is exchanged between vehicles as driver attribute information. The vehicle that receives the message data synthesizes voice with a timbre that gives an impression according to the driving history of the driver of the communication partner, thereby supporting the identification of the driving history of the vehicle that originated the communication. For example, it is possible to express the driving history of the originating vehicle by synthesizing a soft and calm voice for a veteran driver and a timid and timid voice for a beginner. The definition data in FIG. 21 reflects such attributes. It is also conceivable to classify the driving level into beginner, intermediate, and advanced according to, for example, one month's running distance, and use voice quality corresponding to each driving level.

実際の運転シーンの例では、自車の周りに初心者マークを張った車が1台だけ走行している最中に、おどおどしたうわずった印象の音声でメッセージが流れれば、運転手は、その初心者の車からのメッセージであることを容易に認識することが可能である。 In an example of an actual driving scene, if a message with a timid and timid voice is played while only one car with a beginner's mark is running around the driver, the driver will It is possible to easily recognize that the message is from a beginner's car.

<性別・年代に応じた擬人化>
運転手は走行中、相手の運転手の性別や年代に応じて意識を変えながら運転している。例えば、女性の中高年の運転手が周囲の流れよりも著しく遅い速度で走行していても、「仕方ないな・・・」と思って運転している。あるいは、若い男性がスポーツ車両で周囲の流れよりも早い速度で走行していても、「仕方ないな、近寄らないようにしよう・・・」と思って運転したりする。このような情報は運転のイライラを防止するために効果的な情報となり得るもので、交通事故発生のリスクを低減させる効果をもたらす。
<Personification according to gender and age>
While driving, the driver drives while changing his consciousness according to the gender and age of the other driver. For example, even if a middle-aged and elderly female driver is traveling at a significantly slower speed than the traffic around her, she thinks "it can't be helped..." and drives. Or, even if a young man is driving a sports car at a speed faster than the surrounding traffic, he may drive thinking, "It can't be helped, let's not get too close...". Such information can be effective information for preventing driving frustration, and has the effect of reducing the risk of traffic accidents.

そこで、車載装置2を初期設定する際、自車の運転手の性別と年代を登録しておき、車車間通信の運転手属性情報として、その情報を送信する。これを受信した車両では、通信相手の運転手の性別と年代に応じた印象の音色で音声合成することにより、運転相手に応じた運転をサポートすることができる。例えば、若い女性の運転手は細い高い声質、初老の男性は、落ちついたダンディーな印象の声質で音声合成することにより、発信車の性別と世代を表現することができる。 Therefore, when initializing the in-vehicle device 2, the sex and age of the driver of the own vehicle are registered, and the information is transmitted as driver attribute information for inter-vehicle communication. The vehicle that receives this can synthesize voice with tone colors that give an impression according to the gender and age of the driver of the other party, thereby supporting driving according to the other party. For example, by synthesizing a young female driver with a thin, high-pitched voice and an elderly male with a calm and dandy voice, it is possible to express the gender and generation of the calling vehicle.

<出身県に応じた擬人化>
運転手は走行中、相手の車のナンバーから判る出身県に応じて意識を変えながら運転していることがある。例えば、県外ナンバーの車は予測不能な不規則な動きをする可能性がある、あるいは、経験則に基づいて、特定県の運転手は運転が荒い、などである。
<Personification according to home prefecture>
While driving, drivers sometimes drive while changing their consciousness according to the prefecture of origin, which can be known from the license plate of the other car. For example, cars with out-of-prefecture license plates may behave unpredictably and erratically, or, based on empirical rules, drivers in specific prefectures drive rough.

そこで、車載装置2を初期設定する際、自車の登録県を登録しておき、車車間通信の運転手属性情報として、その情報を送信する。メッセージデータを受信した車両では、通信相手の登録県に応じた(有名な)方言を用いた音色で音声合成することにより、運転相手に応じた運転を行う事をサポートすることができる。また、そうした通信を反復して繰り返すことにより、運転手同士に「いつものあの人だな」と判らせることが可能となる。 Therefore, when the in-vehicle device 2 is initialized, the registration prefecture of the own vehicle is registered, and the information is transmitted as driver attribute information for inter-vehicle communication. When the vehicle receives the message data, it can synthesize voice with a tone using a (famous) dialect according to the registered prefecture of the other party, thereby supporting driving according to the other party. In addition, by repeating such communication repeatedly, it becomes possible for the drivers to recognize each other as "that same person."

方言の切り替えは、コマンドに対応した音声合成用のメッセージデータを県ごとに準備しておくことにより、容易に切り替えることが可能である。 Dialects can be easily switched by preparing message data for speech synthesis corresponding to commands for each prefecture.

図23は、広島県の方言用音声メッセージデータの一例を示す図である。図18に示される標準語の音声フレーズ発生用文字列に対して、広島弁の特徴が浮き出た表現となっている。
図24は、大阪府の方言用音声メッセージデータの一例を示す図である。関西弁の特徴がよくわかる表現になっている。なお、方言を適用すべき地方の情報は、車両のナンバープレートからも或る程度推測できる。
FIG. 23 is a diagram showing an example of voice message data for the dialect of Hiroshima Prefecture. The character string for generating a spoken phrase in the standard language shown in FIG.
FIG. 24 is a diagram showing an example of voice message data for dialect of Osaka prefecture. It is an expression that clearly shows the characteristics of the Kansai dialect. Local information to which the dialect should be applied can also be inferred to some extent from the license plate of the vehicle.

擬人化により、例えば以下のような効果を得ることができる。 By anthropomorphizing, for example, the following effects can be obtained.

(1)運転手に通信相手を識別することを容易にさせる。
(2)運転手間の相互認識が向上し、相互の思いやりにより事故低減につながる。
(3)運転手間の相互理解が深まるので、イライラ低減により事故低減につながる。
(4)親しみが得られるので<普及の壁>を超える助けとなる。
このように、擬人化により運転手間の意思の疎通をサポートすることができる。
(1) It makes it easier for the driver to identify the communication partner.
(2) Mutual recognition between drivers will improve, and mutual consideration will lead to a reduction in accidents.
(3) Mutual understanding between drivers will be deepened, leading to a reduction in accidents due to less frustration.
(4) Familiarity is gained, so it helps to overcome the <wall of popularization>.
In this way, personification can support communication between drivers.

<効果>
以上述べたように実施形態によれば、車車間通信でメッセージデータを授受し合うことにより、車車間通信システムの普及を、多様な側面から促進することが可能になる。しかもセンター装置を特に必要とせず、複数の車両間での自律分散的な処理により、車両間の情報共有を促すことができる。
<effect>
As described above, according to the embodiment, by exchanging message data through inter-vehicle communication, it becomes possible to promote the spread of inter-vehicle communication systems from various aspects. Moreover, information sharing among vehicles can be promoted by autonomous decentralized processing among a plurality of vehicles without requiring a central device.

また、転送のホップ数を1ホップに留めているので、ブロードキャストストームのような通信の輻そうのおそれがない。これに加えて、リツイートという処理を設けることで、重要な情報については1ホップでなく、2ホップ、3ホップ、…というように拡散させることができ、情報伝達に際して運転手の意思を反映させることができる。 Also, since the number of transfer hops is limited to one hop, there is no fear of communication congestion such as a broadcast storm. In addition to this, by providing a process called retweet, important information can be spread not in one hop, but in two hops, three hops, and so on, and the intention of the driver can be reflected in information transmission. can be done.

1ホップ転送、リツイート機能のいずれも、ソフトウェアによるアプリケーションレイヤとして実装することで、車載装置2の装置規模を縮小していわゆる「ポン付け」タイプの車載装置として実現することができる。スマートメータ通信基盤100を利用することで、通信機能をさらに簡略化でき、小型軽量化をさらに促進できる。 By implementing both the one-hop transfer function and the retweet function as an application layer by software, the scale of the in-vehicle device 2 can be reduced and realized as a so-called "pong-attached" type in-vehicle device. By using the smart meter communication infrastructure 100, the communication function can be further simplified, and the reduction in size and weight can be further promoted.

さらに、4チャンネルのスピーカを用いて立体的な音像を形成し、音像の定位する位置を制御したり、自在に動かしたりすることで、通信相手の車両を把握することが容易になる。 Furthermore, by forming a three-dimensional sound image using 4-channel speakers, and controlling the localization position of the sound image and freely moving it, it becomes easy to grasp the vehicle of the communication partner.

このほか実施形態によれば、[自車走行情報]、[他車走行情報]として各車両の位置情報、移動速度、移動方向等の情報が授受されるので、交通情報を局所的に共有できる環境を形成することができる。 In addition, according to the embodiment, information such as position information, moving speed, moving direction, etc. of each vehicle is exchanged as [own vehicle driving information] and [other vehicle driving information], so that traffic information can be shared locally. environment can be formed.

さらに、[自車走行情報]、[他車走行情報]を利用し、その履歴を管理することで、例えば走行車線の走行速度の平均値や分散等の、統計的な情報を求めることも可能になる。このような情報に基づき、例えば自車の前後の車列数を算出して、自車の速度と走行中車線の平均速度の差が規定値を下回っている、且つ、自車の後ろに規定数の車列がある、且つ、自動車が先頭を走っているという条件が成立した場合に、運転手に渋滞警告のアラームを通知する、などのアプリケーションも考えらえる。 Furthermore, by using [Own vehicle driving information] and [Other vehicle driving information] and managing the history, it is possible to obtain statistical information such as the average value and variance of the driving speed of the driving lane. become. Based on such information, for example, the number of vehicles in front of and behind the own vehicle is calculated, and if the difference between the speed of the own vehicle and the average speed of the current lane is below a specified value, An application such as notifying a traffic jam warning alarm to a driver when the conditions are satisfied that there are a number of cars in a line and that a car is running in the lead can also be considered.

このほか、車線毎の平均車速情報、自車の前後の車列数、交通事故発生時の目撃車データを収集するための手段、あるいは、交通事故発生時の周辺車の動きを含めた俯瞰データを提供するための手段としても、車載装置2は応用することができる。つまり、ドライブレコーダの補完としても車載装置2は利用できる。 In addition, average vehicle speed information for each lane, the number of vehicles in front of and behind the own vehicle, a means to collect witness vehicle data when a traffic accident occurs, or bird's-eye view data including the movement of surrounding vehicles when a traffic accident occurs The in-vehicle device 2 can also be applied as a means for providing In other words, the in-vehicle device 2 can be used as a complement to the drive recorder.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

Claims (18)

他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報を少なくとも含むメッセージデータを前記他車から受信する受信部と、
前記メッセージデータに含まれる位置情報と自車の位置情報とに基づいて、前記メッセージデータの宛先が前記自車であると判定された場合に、前記メッセージデータに含まれるコマンドコードから音声メッセージを合成する音声合成部と、
前記受信したメッセージデータを1ホップだけ転送する転送部と、
前記受信したメッセージデータを、自車の運転手の意思に応じてさらに転送するリツイート部とを具備する、車載装置。
a receiving unit that receives from the other vehicle message data including at least a command code corresponding to the intention of the driver of the other vehicle and position information of the other vehicle;
When it is determined that the destination of the message data is the vehicle based on the position information contained in the message data and the position information of the vehicle, a voice message is synthesized from the command code contained in the message data. a speech synthesizer that
a transfer unit that transfers the received message data by one hop;
and a retweet unit that further forwards the received message data according to the intention of the driver of the vehicle .
他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報と当該他車から見たときの通信相手を識別するコード情報を少なくとも含むメッセージデータを前記他車から受信する受信部と、
前記メッセージデータに含まれる位置情報および前記コード情報ならびに自車の位置情報に基づいて、前記メッセージデータの宛先が前記自車であると判定された場合に、前記メッセージデータに含まれるコマンドコードから音声メッセージを合成する音声合成部と、
を具備する、車載装置。
Receiving from the other vehicle message data including at least a command code corresponding to the intention of the driver of the other vehicle, position information of the other vehicle, and code information identifying a communication partner when viewed from the other vehicle. Department and
When it is determined that the destination of the message data is the vehicle based on the position information and the code information contained in the message data and the position information of the vehicle, a command code contained in the message data is voiced. a speech synthesizer that synthesizes a message;
In- vehicle device.
前記メッセージデータに含まれる位置情報と自車の位置情報とに基づいて、当該メッセージデータを送信した通信相手の自車に対する相対位置を算出する相対位置算出部をさらに具備する、請求項1または2に記載の車載装置。 3. A relative position calculator for calculating a relative position of a communication partner to which the message data is transmitted based on the position information included in the message data and the position information of the vehicle. In-vehicle device according to . 前記音声合成部は、算出された前記相対位置に基づいて、前記メッセージデータの宛先が前記自車であるか否かを判定する、請求項3に記載の車載装置 4. The in-vehicle device according to claim 3, wherein said speech synthesizer determines whether or not the destination of said message data is said vehicle based on said calculated relative position. 自車が複数のスピーカを備える場合に、前記音声合成部は、算出された前記通信相手の相対位置を反映する位置に音像を定位させて前記音声メッセージを拡声出力する、請求項3に記載の車載装置。 4. The method according to claim 3, wherein, when the own vehicle has a plurality of speakers, the voice synthesizing unit localizes a sound image at a position reflecting the calculated relative position of the communication partner and outputs the voice message in loud voice. In-vehicle device. 前記相対位置算出部は、前記メッセージデータに含まれる位置情報と自車の位置情報とに基づいて、前記通信相手の自車に対する相対速度、および相対的な移動方向を算出し、
前記音声合成部は、算出された前記通信相手の相対速度および相対的な移動方向を反映すべく前記音像の位置およびピッチを変化させる、請求項5に記載の車載装置。
The relative position calculation unit calculates a relative speed and a relative movement direction of the communication partner to the own vehicle based on the position information included in the message data and the position information of the own vehicle,
6. The in-vehicle device according to claim 5, wherein said speech synthesizer changes the position and pitch of said sound image so as to reflect the calculated relative speed and relative movement direction of said communicating party.
前記音声合成部は、前記通信相手の車種に応じて擬人化した音声メッセージを出力する、請求項5に記載の車載装置。 6. The in-vehicle device according to claim 5, wherein said voice synthesizing unit outputs a personified voice message according to the vehicle type of said communication partner . 前記音声合成部は、前記通信相手の車両の運転手の属性に応じて擬人化した音声メッセージを出力する、請求項5に記載の車載装置。 6. The in-vehicle device according to claim 5, wherein said voice synthesizing unit outputs an anthropomorphic voice message according to attributes of a driver of said communication partner vehicle. 前記自車の運転手の意思に対応するコマンドコード、および、当該自車の位置情報を少なくとも含むメッセージデータを送信する送信部をさらに具備する、請求項1または2に記載の車載装置。 3. The in-vehicle device according to claim 1, further comprising a transmission unit that transmits message data including at least a command code corresponding to the intention of the driver of the own vehicle and position information of the own vehicle. 自車の運転手の発した音声を認識する音声認識部をさらに具備し、
前記送信部は、前記認識の結果に基づく前記コマンドコードを前記メッセージデータに含めて送信する、請求項9に記載の車載装置。
Further equipped with a voice recognition unit that recognizes the voice uttered by the driver of the vehicle,
The in-vehicle device according to claim 9, wherein said transmission unit includes said command code based on said recognition result in said message data and transmits said message data .
自車の位置情報を取得して当該自車の走行情報を算出する走行情報算出部をさらに具備し、
前記送信部は、前記走行情報を前記メッセージデータに含めて送信する、請求項9に記載の車載装置。
further comprising a travel information calculation unit that acquires position information of the own vehicle and calculates travel information of the own vehicle;
The in-vehicle device according to claim 9, wherein said transmission unit includes said travel information in said message data and transmits said message data .
前記走行情報算出部は、前記自車の位置情報、移動方角、および、移動速度をタイムスタンプとともに当該自車の識別情報に対応付けた履歴データを含む自車の走行履歴情報を算出し、
前記送信部は、前記自車の走行履歴情報を前記メッセージデータに含めて送信する、請求項11に記載の車載装置。
The travel information calculation unit calculates travel history information of the own vehicle including history data in which the location information, moving direction, and moving speed of the own vehicle are associated with the identification information of the own vehicle together with a time stamp,
12. The in-vehicle device according to claim 11 , wherein said transmission unit includes said vehicle's travel history information in said message data and transmits the message data.
前記送信部は、さらに、他車から受信した当該他車の走行履歴情報を前記メッセージデータに含めて送信する、請求項12に記載の車載装置。 13. The in-vehicle device according to claim 12, wherein the transmission unit further includes travel history information of the other vehicle received from the other vehicle in the message data and transmits the message data. 前記自車の走行履歴情報と、受信したメッセージデータに含まれる前記他車の走行履歴情報とに基づいて算出される自車の後の車列数が規定数を超えた場合に、前記音声合成部は、警告メッセージを生成する、請求項13に記載の車載装置。 When the number of convoys behind the own vehicle calculated based on the travel history information of the own vehicle and the travel history information of the other vehicle included in the received message data exceeds a specified number, the speech synthesis is performed. 14. The in-vehicle device of claim 13, wherein the unit generates a warning message . 前記受信部および前記送信部は、特定小電力無線通信インフラ基盤を利用して前記メッセージデータを授受する、請求項9に記載の車載装置。 10. The in-vehicle device according to claim 9 , wherein said receiving unit and said transmitting unit transmit and receive said message data using a specified low-power wireless communication infrastructure. 請求項15に記載の車載装置と、
車両間の前記メッセージデータの授受を仲介する特定小電力無線通信インフラ基盤とを具備する、車車間通信システム。
an in-vehicle device according to claim 15;
A vehicle-to-vehicle communication system comprising a specific low-power wireless communication infrastructure that mediates transmission and reception of the message data between vehicles.
プロセッサとメモリを備える車載装置の前記メモリに書き込み可能なプログラムであって、
前記プロセッサに、他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報を少なくとも含むメッセージデータを前記他車から受信させるための命令と、
前記プロセッサに、前記メッセージデータに含まれる位置情報と自車の位置情報とに基づいて、前記メッセージデータの宛先が前記自車であると判定された場合に、前記メッセージデータに含まれるコマンドコードから音声メッセージを合成させるための命令と
前記プロセッサに、前記受信したメッセージデータを1ホップだけ転送させるための命令と、
前記プロセッサに、前記受信したメッセージデータを、自車の運転手の意思に応じてさらに転送させるための命令とを含む、プログラム。
A program writable in the memory of an in-vehicle device comprising a processor and a memory,
a command for causing the processor to receive from the other vehicle message data including at least a command code corresponding to the intention of the driver of the other vehicle and position information of the other vehicle;
When the processor determines that the destination of the message data is the own vehicle based on the position information included in the message data and the position information of the own vehicle, from the command code included in the message data instructions for synthesizing a voice message ;
instructions for causing the processor to forward the received message data by one hop;
and a command for causing the processor to further transfer the received message data according to the intention of the driver of the own vehicle .
プロセッサとメモリを備える車載装置の前記メモリに書き込み可能なプログラムであって、A program writable in the memory of an in-vehicle device comprising a processor and a memory,
前記プロセッサに、他車の運転手の意思に対応するコマンドコード、および、当該他車の位置情報と当該他車から見たときの通信相手を識別するコード情報を少なくとも含むメッセージデータを前記他車から受信させるための命令と、The processor is provided with message data including at least a command code corresponding to the intention of the driver of the other vehicle, location information of the other vehicle, and code information identifying a communication partner when viewed from the other vehicle. an instruction to receive from
前記プロセッサに、前記メッセージデータに含まれる位置情報および前記コード情報ならびに自車の位置情報に基づいて、前記メッセージデータの宛先が前記自車であると判定された場合に、前記メッセージデータに含まれるコマンドコードから音声メッセージを合成させるための命令とを含む、プログラム。When the processor determines that the destination of the message data is the own vehicle based on the position information and the code information included in the message data and the position information of the own vehicle, the code information is included in the message data. and instructions for synthesizing voice messages from command codes.
JP2021573679A 2020-01-29 2020-01-29 In-vehicle device, inter-vehicle communication system, and program Active JP7279206B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/003070 WO2021152713A1 (en) 2020-01-29 2020-01-29 Vehicle-mounted device, vehicle-to-vehicle communication system, and program

Publications (3)

Publication Number Publication Date
JPWO2021152713A1 JPWO2021152713A1 (en) 2021-08-05
JPWO2021152713A5 JPWO2021152713A5 (en) 2022-03-09
JP7279206B2 true JP7279206B2 (en) 2023-05-22

Family

ID=77078056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573679A Active JP7279206B2 (en) 2020-01-29 2020-01-29 In-vehicle device, inter-vehicle communication system, and program

Country Status (2)

Country Link
JP (1) JP7279206B2 (en)
WO (1) WO2021152713A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183889A (en) 2000-10-03 2002-06-28 Honda Motor Co Ltd Inter-vehicle communication device
JP2010272083A (en) 2009-05-25 2010-12-02 Denso Corp On-board communication device and communication system
JP2014134897A (en) 2013-01-08 2014-07-24 Denso Corp Vehicular communication device and vehicular communication system employing the same
JP2015194828A (en) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 Driving support device
JP2017182776A (en) 2016-03-29 2017-10-05 株式会社デンソー Vehicle periphery monitoring apparatus and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6031294B2 (en) * 2012-08-07 2016-11-24 本田技研工業株式会社 Vehicle communication device
JP6143647B2 (en) * 2013-11-06 2017-06-07 本田技研工業株式会社 Method, program, and electronic apparatus for displaying information on moving body from information transmission source
JP6590250B2 (en) * 2015-10-01 2019-10-16 パナソニックIpマネジメント株式会社 In-vehicle terminal device, pedestrian terminal device, inter-pedal communication system, and inter-pedal communication method
JP7009834B2 (en) * 2017-08-23 2022-01-26 株式会社デンソー Collection system and center

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183889A (en) 2000-10-03 2002-06-28 Honda Motor Co Ltd Inter-vehicle communication device
JP2010272083A (en) 2009-05-25 2010-12-02 Denso Corp On-board communication device and communication system
JP2014134897A (en) 2013-01-08 2014-07-24 Denso Corp Vehicular communication device and vehicular communication system employing the same
JP2015194828A (en) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 Driving support device
JP2017182776A (en) 2016-03-29 2017-10-05 株式会社デンソー Vehicle periphery monitoring apparatus and computer program

Also Published As

Publication number Publication date
JPWO2021152713A1 (en) 2021-08-05
WO2021152713A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US20070162550A1 (en) Vehicle-to-vehicle instant messaging with locative addressing
US10875525B2 (en) Ability enhancement
JP3704925B2 (en) Mobile terminal device and medium recording voice output program thereof
CN104067326B (en) The situation mark of user&#39;s auxiliary
CN104200803A (en) Voice broadcasting method, device and system
CN101113906B (en) Route-matching method for use with vehicle navigation systems
US9396655B2 (en) Intelligently providing user-specific traffic-related information
JP6846617B2 (en) Information provision method, server, information terminal device, system and voice dialogue system
JP2013529794A (en) Communication system and method between in-vehicle speech recognition system and off-vehicle speech recognition system
US10848454B2 (en) System and method for facilitating driver communication via an audio centric network
KR101776750B1 (en) Server, apparatus and computer readable recording medium for providing call enable information of driver
JP7279206B2 (en) In-vehicle device, inter-vehicle communication system, and program
JP5729257B2 (en) Information providing apparatus and information providing method
JPWO2013136499A1 (en) MOBILE COMMUNICATION DEVICE, MANAGEMENT DEVICE, MOBILE COMMUNICATION METHOD, MOBILE COMMUNICATION PROGRAM, AND RECORDING MEDIUM
US11710405B2 (en) Method for determining a communications scenario and associated terminal
JP4080986B2 (en) Voice notification device
KR101608911B1 (en) the notice system using beacon of BIT(Bus Infomation Terminal)
Szmelter The concepts of connected car and internet of cars and their impact on future people mobility
CN115129293A (en) Navigation voice processing method and device, electronic equipment and program product
JP3721900B2 (en) Information exchange system, information communication terminal and information management apparatus used therefor
EP4460009A1 (en) Content delivery system, method of operating content delivery system, mobile object, method of operating mobile object, terminal device, method of operating terminal device, and program
JP2020165796A (en) Guidance device, guidance server, and guidance method
JP2018167737A (en) On-vehicle communication device mounted on vehicle to enable communication with user getting in vehicle, communication method and program
KR100723799B1 (en) The wireless internet service providing system using navigation in the congestion area and its method
CN117641290A (en) Vehicle-mounted social contact method and device and vehicle

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20211130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7279206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150