[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7252309B1 - Task display system - Google Patents

Task display system Download PDF

Info

Publication number
JP7252309B1
JP7252309B1 JP2021212224A JP2021212224A JP7252309B1 JP 7252309 B1 JP7252309 B1 JP 7252309B1 JP 2021212224 A JP2021212224 A JP 2021212224A JP 2021212224 A JP2021212224 A JP 2021212224A JP 7252309 B1 JP7252309 B1 JP 7252309B1
Authority
JP
Japan
Prior art keywords
task
user
input
display
tasks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021212224A
Other languages
Japanese (ja)
Other versions
JP2023096440A (en
Inventor
祐作 若園
浩美 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Services International Dentsu Ltd
Dentsu Group Inc
Original Assignee
Dentsu Inc
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dentsu Inc, Information Services International Dentsu Ltd filed Critical Dentsu Inc
Priority to JP2021212224A priority Critical patent/JP7252309B1/en
Application granted granted Critical
Publication of JP7252309B1 publication Critical patent/JP7252309B1/en
Publication of JP2023096440A publication Critical patent/JP2023096440A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことのできるタスク表示システムを提供する。【解決手段】 タスク表示システム1は、拡張現実空間内における位置や対象物を指定するユーザ入力に基づいて、ユーザが指定した位置や対象物に、ユーザが処理すべきタスクを紐づけるアンカー20をセットし、ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体21を生成する。ユーザが処理すべきタスクを入力するユーザ入力に基づいて、入力された複数のタスクの各々を、複数のタスク表示面の各々に表示させ、ユーザがタスクの入力を完了したことを示すユーザ入力に基づいて、拡張現実空間内におけるタスク表示体21の近傍にタスク入力完了を示す入力完了表示体24を生成する。【選択図】 図1A task display system capable of preventing a so-called omission of tasks in which a user forgets to execute one or some of a plurality of tasks that he or she intended to execute later. SOLUTION: A task display system 1 attaches an anchor 20 that links a task to be processed by a user to a position or object specified by the user based on user input specifying a position or object in an augmented reality space. A task display body 21 having a plurality of task display surfaces capable of displaying tasks to be processed by the user is generated. Based on user input for inputting a task to be processed by the user, each of the plurality of input tasks is displayed on each of the plurality of task display surfaces, and the user input indicating that the user has completed inputting the task is displayed. Based on this, an input completion indicator 24 indicating task input completion is generated in the vicinity of the task indicator 21 in the augmented reality space. [Selection diagram] Fig. 1

Description

本発明は、拡張現実空間内でユーザに対してタスクを表示するタスク表示システムに関する。 The present invention relates to a task display system that displays tasks to a user in an augmented reality space.

従来、拡張現実空間内に、所定のデータを表示するシステムが提案されている。例えば、メガネ型装置を用いた手術支援システムや、倉庫内作業支援システムが提案されている(特許文献1参照)。従来の手術支援システムでは、メガネ型装置を用いて、拡張現実空間内で医師等がバイタルデータを参照することができる。また、従来の倉庫内作業支援システムでは、倉庫内の棚の位置や倉庫内の各棚の商品リストなどを参照することができる。 Conventionally, systems have been proposed that display predetermined data in an augmented reality space. For example, a surgery support system using a glasses-type device and a warehouse work support system have been proposed (see Patent Document 1). In a conventional surgery support system, a doctor or the like can refer to vital data in an augmented reality space using a glasses-type device. Further, in the conventional warehouse work support system, it is possible to refer to the position of the shelves in the warehouse, the product list of each shelf in the warehouse, and the like.

特開2019-162251号公報JP 2019-162251 A

しかしながら、従来のタスク表示システムにおいては、拡張現実空間内に、所定のデータを表示することはできるものの、日々の生活等でユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことは困難である。 However, in the conventional task display system, although it is possible to display predetermined data in the augmented reality space, it is possible to display one or more tasks among a plurality of tasks that the user intends to perform later in daily life. It is difficult to prevent so-called task omission, in which some tasks are forgotten to be executed.

本発明は、上記の課題に鑑みてなされたもので、ユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことのできるタスク表示システムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and is intended to prevent so-called omission of tasks, in which a user forgets to execute one or some of a plurality of tasks that he intended to execute later. To provide a task display system capable of

本発明のタスク表示システムは、拡張現実空間内でユーザに対してタスクを表示するシステムであって、前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットするアンカーセット部と、前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成するタスク表示体生成部と、前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させるタスク表示処理部と、前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成する入力完了表示体生成部と、を備えている。 A task display system of the present invention is a system for displaying a task to a user in an augmented reality space, wherein the user's An anchor setting unit that sets an anchor that links the task to be processed by the user to the position or object specified by the a task display generating unit for generating a task display having a plurality of task display surfaces capable of displaying a task to be processed by a user; and a second user input for inputting a task to be processed by the user. A task display processing unit that displays each of a plurality of tasks input by a user on each of the plurality of task display surfaces, and a third user input indicating that the user has completed inputting a task Based on, an input completion display body generation unit that generates an input completion display body indicating task input completion in the vicinity of the task display body in the augmented reality space.

この構成によれば、拡張現実空間内の所定の位置や対象物上に複数のタスク表示面を有するタスク表示体を表示させ、タスク表示体の各タスク表示面にユーザが実行すべきタスクをそれぞれ表示させることができる。これにより、日々の生活等でユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことが可能である。この場合、拡張現実空間内におけるタスク表示体の生成(拡張現実空間内の所定の位置や対象物に紐づけたタスク表示体の設置)や各タスク表示面へのタスクの入力は、所定のユーザ入力(第1~第3のユーザ入力)により簡便に行うことが可能である。また、タスク表示体の近傍に入力完了表示体が表示されているか否かにより、タスクの入力が完了したか否かをユーザは一目で把握することができる。 According to this configuration, a task display body having a plurality of task display surfaces is displayed at a predetermined position or object in the augmented reality space, and tasks to be executed by the user are displayed on each task display surface of the task display body. can be displayed. As a result, it is possible to prevent so-called omission of tasks, in which the user forgets to execute one or some of a plurality of tasks that the user intended to execute later in daily life. In this case, generation of a task display body in the augmented reality space (installation of a task display body linked to a predetermined position or object in the augmented reality space) and input of a task to each task display surface are performed by a predetermined user. It can be easily performed by input (first to third user inputs). Further, the user can grasp at a glance whether or not the input of the task has been completed, depending on whether or not the input completion display is displayed near the task display.

また、本発明のタスク表示システムは、前記第2のユーザ入力に基づいて、当該第2のユーザ入力で入力されたタスクに期限があるか否かを判定する期限判定部と、前記第2のユーザ入力で入力されたいずれかのタスクに期限があると判定された場合の前記入力完了表示体の表示と、前記第2のユーザ入力で入力されたすべてのタスクに期限がないと判定された場合の前記入力完了表示体の表示とを異ならせる期限表示処理部と、を備えてもよい。 Further, the task display system of the present invention includes a deadline determination unit that determines, based on the second user input, whether or not the task input by the second user input has a deadline; Display of the input completion indicator when it is determined that any of the tasks input by the user input has a deadline, and it is determined that all the tasks input by the second user input have no deadline. and a time limit display processing unit that makes the display of the input completion display different from that of the case.

この構成によれば、ユーザから入力された複数のタスクのうち、いずれかのタスクに期限がある場合には、いずれのタスクにも期限がない場合とは異なるように入力完了表示体の表示が行われる。例えば、いずれかのタスクに期限がある場合には、入力完了表示体(タスク表示体の周囲に表示される)に沿って回転する(タスク表示体の周りを公転する)ボール体を有する入力完了表示体が表示され、いずれのタスクにも期限がない場合には、そのようなボール体のない入力完了表示体が表示される。このように、入力完了表示体の表示が異なるので、タスクに期限があるか否かをユーザは一目で把握することができる。 According to this configuration, if one of a plurality of tasks input by the user has a deadline, the input completion indicator is displayed differently from the case where none of the tasks has a deadline. done. For example, if any task has a deadline, an input completion indicator with a ball that rotates (revolves around the task indicator) along the input completion indicator (displayed around the task indicator) An indicator is displayed, and if there is no due date for any task, an input completion indicator without such a ball is displayed. Since the display of the input completion indicator is different in this manner, the user can grasp at a glance whether or not the task has a deadline.

また、本発明のタスク表示システムは、前記第2のユーザ入力と現在の日時情報に基づいて、当該第2のユーザ入力で入力されたタスクの期限までの日数または時間を決定する期間決定部を備え、前記期限表示処理部は、前記第2のユーザ入力で入力されたタスクに期限があると判定された場合に、当該期限までの日数または時間に応じて前記入力完了表示体の表示を変化させてもよい。 Further, the task display system of the present invention includes a period determination unit that determines the number of days or time until the deadline of the task input by the second user input based on the second user input and current date and time information. wherein, when it is determined that the task input by the second user input has a deadline, the deadline display processing unit changes the display of the input completion indicator according to the number of days or hours until the deadline. You may let

この構成によれば、タスクの期限までの日数または時間に応じて入力完了表示体の表示を変化させる処理が行われる。例えば、期限までの日数が3日である場合には、入力完了表示体に沿ってボール体がゆっくり回転する(タスク表示体の周りをボール体がゆっくり公転する)表示が行われ、期限までの日数が1日である場合には、入力完了表示体に沿ってボール体が速く回転する(タスク表示体の周りをボール体が速く公転する)表示が行われる。このように、入力完了表示体の表示が変化するので、タスクの期限が近づいているか否かをユーザは直感的に把握することができる。 According to this configuration, the process of changing the display of the input completion indicator according to the number of days or time until the deadline of the task is performed. For example, when the number of days until the deadline is 3 days, a ball slowly rotates along the input completion indicator (the ball slowly revolves around the task indicator) is displayed. When the number of days is one day, a display in which the ball rotates rapidly along the input completion display (the ball revolves rapidly around the task display) is displayed. Since the display of the input completion indicator changes in this way, the user can intuitively grasp whether the deadline for the task is approaching.

また、本発明のタスク表示システムは、前記第2のユーザ入力で入力されたタスクに優先度を設定する優先度設定部と、前記優先度が高いタスクが含まれる場合に、前記タスク表示体が目立つように前記タスク表示体の強調表示を行う強調表示部を備えてもよい。 Further, the task display system of the present invention includes: a priority setting unit for setting a priority to the task input by the second user input; A highlighting unit may be provided for highlighting the task display body so as to stand out.

この構成によれば、タスクに優先度が設定され、タスクの優先度が高い場合には、タスク表示体が目立つようにタスク表示体の強調表示が行われる。例えば、タスクの優先度は、予め用意された優先度のリスト(優先度が高いタスクのリスト)に基づいて設定することができる。すなわち、予め用意された優先度のリスト(優先度が高いタスクのリスト)に該当する場合に、タスクの優先度が高く設定される。また、タスクの期限までの日数や時間が短い場合に、タスクの優先度が高く設定されてもよい。そして、タスクの優先度が高い場合には、例えば、タスク表示体が大きく表示されたり、タスク表示体が上下に震えたり、タスク表示体が激しく点滅するなどの強調表示が行われる。このように、タスク表示体の強調表示が行われるので、タスクの優先度が高いことをユーザは直感的に把握することができる。 According to this configuration, a priority is set for each task, and when the priority of the task is high, the task display is highlighted so that the task display is conspicuous. For example, the priority of a task can be set based on a prepared priority list (a list of tasks with high priority). That is, if the task corresponds to a prepared priority list (a list of tasks with high priority), the priority of the task is set high. Also, when the number of days or time until the deadline of the task is short, the priority of the task may be set high. When the priority of the task is high, for example, the task display is displayed in a large size, the task display is shaken up and down, or the task display is flashing violently. Since the task display body is highlighted in this manner, the user can intuitively grasp that the task has a high priority.

また、本発明のタスク表示システムは、前記優先度が低いタスクが含まれる場合に、前記タスク表示体が目立たないように前記タスク表示体の非強調表示を行う非強調表示部を備えてもよい。 In addition, the task display system of the present invention may include a non-highlighting unit for non-highlighting the task display so that the task display is inconspicuous when the low-priority task is included. .

この構成によれば、タスクの優先度が低い場合には、タスク表示体が目立たないようにタスク表示体の非強調表示が行われる。例えば、予め用意された優先度のリスト(優先度が高いタスクのリスト)に該当しない場合に、タスクの優先度が低く設定される。また、タスクの期限がない場合に、タスクの優先度が低く設定されてもよい。そして、タスクの優先度が低い場合には、例えば、タスク表示体が縮小表示されたり、タスク表示体が非表示とされたりするなどの非強調表示が行われる。このように、タスク表示体の非強調表示が行われるので、タスクの優先度が低いことをユーザは直感的に把握することができる。 According to this configuration, when the priority of the task is low, the task display is non-highlighted so that the task display is inconspicuous. For example, if the task does not correspond to a prepared priority list (a list of tasks with high priority), the priority of the task is set low. Also, if there is no deadline for the task, the priority of the task may be set low. Then, when the priority of the task is low, for example, non-highlighting display such as reduction display of the task display body or non-display of the task display body is performed. In this way, the non-highlighted display of the task display body is performed, so that the user can intuitively grasp that the priority of the task is low.

本発明の方法は、拡張現実空間内でユーザに対してタスクを表示するシステムで実行される方法あって、前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットするステップと、前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成するステップと、前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させるステップと、前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成するステップと、を含んでいる。 The method of the present invention is a method performed by a system for displaying a task to a user in an augmented reality space, based on a first user input designating a location or object within the augmented reality space, setting an anchor that links a task to be processed by the user to the position or object designated by the user; generating a task display having a plurality of task display surfaces capable of displaying tasks to be processed by a user; displaying each of the plurality of tasks on each of the plurality of task display surfaces; and based on a third user input indicating that the user has completed inputting the task, the generating an input completion indicator proximate to the task indicator to indicate task entry completion.

この方法によっても、上記のシステムと同様に、拡張現実空間内の所定の位置や対象物上に複数のタスク表示面を有するタスク表示体を表示させ、タスク表示体の各タスク表示面にユーザが実行すべきタスクをそれぞれ表示させることができる。これにより、日々の生活等でユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことが可能である。この場合、拡張現実空間内におけるタスク表示体の生成(拡張現実空間内の所定の位置や対象物に紐づけたタスク表示体の設置)や各タスク表示面へのタスクの入力は、所定のユーザ入力(第1~第3のユーザ入力)により簡便に行うことが可能である。また、タスク表示体の近傍に入力完了表示体が表示されているか否かにより、タスクの入力が完了したか否かをユーザは一目で把握することができる。 In this method, similarly to the system described above, a task display object having a plurality of task display surfaces is displayed at a predetermined position or on an object in the augmented reality space, and a user is displayed on each task display surface of the task display object. Each task to be executed can be displayed. As a result, it is possible to prevent so-called omission of tasks, in which the user forgets to execute one or some of a plurality of tasks that the user intended to execute later in daily life. In this case, generation of a task display body in the augmented reality space (installation of a task display body linked to a predetermined position or object in the augmented reality space) and input of a task to each task display surface are performed by a predetermined user. It can be easily performed by input (first to third user inputs). Further, the user can grasp at a glance whether or not the input of the task has been completed, depending on whether or not the input completion display is displayed near the task display.

本発明のプログラムは、拡張現実空間内でユーザに対してタスクを表示するシステムのコンピュータで実行されるプログラムあって、前記プログラムは、前記コンピュータに、前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットする処理と、前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成する処理と、前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させる処理と、前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成する処理と、を実行させる。 A program of the present invention is a program executed by a computer of a system for displaying a task to a user in an augmented reality space, the program instructing the computer to specify a position or an object in the augmented reality space. A process of setting an anchor that links a task to be processed by the user to a position or object specified by the user based on a first user input, and setting the anchor in the augmented reality space a process of generating a task display body having a plurality of task display surfaces capable of displaying a task to be processed by the user on the position or the object; and a second user inputting the task to be processed by the user. a process of displaying each of the plurality of tasks input by the user on each of the plurality of task display surfaces based on the input; and a third user input indicating that the user has completed inputting the task. a process of generating an input completion display indicating task input completion in the vicinity of the task display in the augmented reality space.

このプログラムによっても、上記のシステムと同様に、拡張現実空間内の所定の位置や対象物上に複数のタスク表示面を有するタスク表示体を表示させ、タスク表示体の各タスク表示面にユーザが実行すべきタスクをそれぞれ表示させることができる。これにより、日々の生活等でユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことが可能である。この場合、拡張現実空間内におけるタスク表示体の生成(拡張現実空間内の所定の位置や対象物に紐づけたタスク表示体の設置)や各タスク表示面へのタスクの入力は、所定のユーザ入力(第1~第3のユーザ入力)により簡便に行うことが可能である。また、タスク表示体の近傍に入力完了表示体が表示されているか否かにより、タスクの入力が完了したか否かをユーザは一目で把握することができる。 As with the above system, this program also displays a task display object having a plurality of task display surfaces at a predetermined position or on an object in the augmented reality space. Each task to be executed can be displayed. As a result, it is possible to prevent so-called omission of tasks, in which the user forgets to execute one or some of a plurality of tasks that the user intended to execute later in daily life. In this case, generation of a task display body in the augmented reality space (installation of a task display body linked to a predetermined position or object in the augmented reality space) and input of a task to each task display surface are performed by a predetermined user. It can be easily performed by input (first to third user inputs). Further, the user can grasp at a glance whether or not the input of the task has been completed, depending on whether or not the input completion display is displayed near the task display.

本発明によれば、ユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことができる。 According to the present invention, it is possible to prevent so-called omission of tasks, in which a user forgets to execute one or some of a plurality of tasks that he intended to execute later.

本発明の実施の形態におけるタスク表示システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a task display system according to an embodiment of the present invention; FIG. 本発明の実施の形態におけるタスク表示体(タスク表示体の生成までの流れ)の説明図である。FIG. 4 is an explanatory diagram of a task display (flow up to generation of a task display) according to the embodiment of the present invention; 本発明の実施の形態におけるタスク表示体と入力完了表示体の一例を示す図である。It is a figure which shows an example of the task display body and the input completion display body in embodiment of this invention. 本発明の実施の形態におけるタスク表示体(タスク表示体の消去までの流れ)の説明図である。FIG. 4 is an explanatory diagram of a task display body (flow up to deletion of the task display body) according to the embodiment of the present invention; 本発明の実施の形態におけるタスク表示システムの動作(全体の処理)を説明するためのフロー図である。FIG. 4 is a flowchart for explaining the operation (overall processing) of the task display system according to the embodiment of the present invention; 本発明の実施の形態におけるタスク表示システムの動作(期限に関する処理)を説明するためのフロー図である。FIG. 4 is a flow chart for explaining the operation (processing related to deadline) of the task display system according to the embodiment of the present invention; 本発明の実施の形態におけるタスク表示システムの動作(優先度に関する処理)を説明するためのフロー図である。FIG. 4 is a flow chart for explaining the operation (processing regarding priority) of the task display system according to the embodiment of the present invention; 本発明の実施の形態におけるタスク表示体と入力完了表示体の他の例を示す図である。It is a figure which shows the other example of the task display body and the input completion display body in embodiment of this invention. 本発明の実施の形態におけるタスク表示体と入力完了表示体の他の例を示す図である。It is a figure which shows the other example of the task display body and the input completion display body in embodiment of this invention. 本発明の実施の形態におけるタスク表示体と入力完了表示体の他の例を示す図である。It is a figure which shows the other example of the task display body and the input completion display body in embodiment of this invention.

以下、本発明の実施の形態のタスク表示システムについて、図面を用いて説明する。本実施の形態では、日々の生活のなかでタスク漏れを防ぐためのタスク管理システム等として用いられるタスク表示システムの場合を例示する。 A task display system according to an embodiment of the present invention will be described below with reference to the drawings. This embodiment will exemplify the case of a task display system used as a task management system or the like for preventing omission of tasks in daily life.

本発明の実施の形態のタスク表示システムの構成を、図面を参照して説明する。図1は、本実施の形態のタスク表示システムの構成を示すブロック図である。図1に示すように、タスク表示システム1は、仮想現実空間において種々のデータを表示する機能(AR表示機能)を備えるユーザ端末2と、ユーザ端末2がネットワーク3を介して接続可能なサーバ装置4とを備えている。ユーザ端末2は、AR表示機能を有するデバイスであれば、如何なるデバイスでもよく、例えばHMDとコントローラ等で構成される。サーバ装置4は、例えばクラウドサービスを提供するクラウドサーバ等で構成される。 A configuration of a task display system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the task display system of this embodiment. As shown in FIG. 1, a task display system 1 includes a user terminal 2 having a function of displaying various data in a virtual reality space (AR display function), and a server device to which the user terminal 2 can be connected via a network 3. 4. The user terminal 2 may be any device as long as it has an AR display function, and is composed of, for example, an HMD and a controller. The server device 4 is configured by, for example, a cloud server that provides cloud services.

図1に示すように、ユーザ端末2は、入力部5と、出力部6と、記憶部7と、制御部8を備えている。入力部5は、ユーザが情報を入力するための入力インターフェースであり、例えば、ユーザ端末2に備えられたカメラ(図示せず)で撮影したカメラ画像(動画像)が入力される。また、入力部5には、仮想現実空間内におけるユーザの視線情報やユーザからの音声入力が入力される。出力部6は、ユーザに情報を出力するための出力インターフェースであり、例えば、入力されたカメラ画像を用いて生成されたAR画像(動画像)が出力される。記憶部7は、メモリなどで構成されており、制御部8は、CPUなどで構成されている。以下で説明する制御部8の機能(拡張現実空間内でユーザに対してタスクを表示する機能)は、記憶部7に格納されたプログラムを実行することにより実現することができる。 As shown in FIG. 1, the user terminal 2 includes an input section 5, an output section 6, a storage section 7, and a control section 8. FIG. The input unit 5 is an input interface for the user to input information, and for example, a camera image (moving image) captured by a camera (not shown) provided in the user terminal 2 is input. Further, the input unit 5 receives the user's line-of-sight information in the virtual reality space and voice input from the user. The output unit 6 is an output interface for outputting information to the user, and outputs, for example, an AR image (moving image) generated using an input camera image. The storage unit 7 is configured with a memory or the like, and the control unit 8 is configured with a CPU or the like. A function of the control unit 8 (a function of displaying tasks to the user in the augmented reality space) described below can be realized by executing a program stored in the storage unit 7 .

制御部8は、機能ブロックとして、アンカーセット部10、タグ表示体生成部11、タスク表示処理部12、入力完了表示体生成部13、期限判定部14、期間決定部15、期限表示処理部16、優先度設定部17、強調表示部18、非強調表示部を備えている。 The control unit 8 includes, as functional blocks, an anchor setting unit 10, a tag display generation unit 11, a task display processing unit 12, an input completion display generation unit 13, a deadline determination unit 14, a period determination unit 15, and a deadline display processing unit 16. , a priority setting section 17, a highlighting section 18, and a non-highlighting section.

アンカーセット部10は、拡張現実空間内における位置または対象物を指定するユーザ入力(第1のユーザ入力)に基づいて、ユーザが指定した位置または対象物に、ユーザが処理すべきタスクを紐づけるアンカー20をセットする機能を備えている。本実施の形態のアンカーセット部10は、ユーザ端末2を用いて、拡張現実空間内における所定の位置(例えば、拡張現実空間内における座標)や対象物(例えば、拡張現実空間内におけるオブジェクト)にユーザが視線を向けて、所定の音声入力(例えば、拡張現実空間内における位置を指定する場合には「この場所にメモ」、拡張現実空間内における対象物を指定する場合には「この物にメモ」などの音声入力)をすると、ユーザが指定した位置または対象物に、ユーザが処理すべきタスクを紐づけるアンカー20(例えば、図2(a)に示すようなアンカー20)をセットする。 Based on a user input (first user input) specifying a position or object in the augmented reality space, the anchor set unit 10 associates a task to be processed by the user with the position or object specified by the user. A function to set the anchor 20 is provided. The anchor set unit 10 of the present embodiment uses the user terminal 2 to set a predetermined position in the augmented reality space (eg, coordinates in the augmented reality space) or an object (eg, an object in the augmented reality space). When the user turns his gaze, a predetermined voice input (for example, "note this place" when specifying a position in the augmented reality space, "this object" when specifying an object in the augmented reality space) When the voice input such as "Memo" is input, an anchor 20 (for example, the anchor 20 shown in FIG. 2A) that links the task to be processed by the user is set to the position or object specified by the user.

タスク表示体生成部は、拡張現実空間内において、アンカー20がセットされた位置または対象物上に、ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体21を生成する機能を備えている(図2参照)。本実施の形態では、タスク表示体生成部は、例えば、図2(b)に示すような8個のタスク表示面を有するタスク表示体21(8面体のタスク表示体21)を生成する。また、タスク表示体生成部は、タスク表示体21のタスク表示面に表示されたすべてのタスクが完了した場合に、タスク表示体21を消去する機能を備えている(図4(d)参照)。なお、タスク表示体21は、タスク表示面を持つ表示体であればよく、8面体に限定されない。例えば、タスク表示体21は、4面体、6面体、10面体、・・・などの多面体であってもよい。 The task display body generation unit generates a task display body 21 having a plurality of task display surfaces capable of displaying tasks to be processed by the user at the position where the anchor 20 is set or on the object in the augmented reality space. It has functions (see Fig. 2). In the present embodiment, the task display body generation unit generates, for example, a task display body 21 (octahedral task display body 21) having eight task display surfaces as shown in FIG. 2(b). Further, the task display body generation unit has a function of erasing the task display body 21 when all the tasks displayed on the task display surface of the task display body 21 are completed (see FIG. 4D). . Note that the task display body 21 is not limited to an octahedron as long as it has a task display surface. For example, the task display body 21 may be a polyhedron such as a tetrahedron, a hexahedron, an octahedron, and so on.

タスク表示処理部12は、ユーザが処理すべきタスクを入力するユーザ入力(第2のユーザ入力)に基づいて、ユーザによって入力された複数のタスクの各々を、複数のタスク表示面の各々に表示させる機能を備えている。本実施の形態では、タスク表示処理部12は、ユーザからの所定の音声入力(例えば「○○○する」などの音声入力)によって、タスク表示体21の第1のタスク表示面に第1のタスク(例えば「○○○する」)を表示させる。さらに、タスク表示処理部12は、ユーザからの所定の音声入力(例えば「つぎ、△△△する」などの音声入力)によって、タスク表示体21の第2のタスク表示面に第2のタスク(例えば「△△△する」)を表示させる。例えば、図2(c)では、タスク表示体21の第1のタスク表示面に第1のタスク22が入力され表示されており、図2(d)では、さらにタスク表示体21の第2のタスク表示目に第2のタスク23が入力され表示されている。また、タスク表示処理部12は、タスク表示体21のタスク面に表示されたタスク22、23が完了した場合に、タスク表示面のタスクを削除する機能を備えている(図4(b)(c)参照)。なお、本実施の形態では、タスクの完了を示すユーザ入力も、ユーザからの所定の音声入力(例えば「○○○のタスク完了」などの音声入力)によって、ユーザ端末2に入力される。 The task display processing unit 12 displays each of the plurality of tasks input by the user on each of the plurality of task display screens based on user input (second user input) for inputting tasks to be processed by the user. It has the function to In the present embodiment, the task display processing unit 12 displays the first task display surface of the task display body 21 in accordance with a predetermined voice input from the user (for example, voice input such as "do XX"). Display a task (for example, "Do ○○○"). Further, the task display processing unit 12 displays a second task ( For example, "I will △△△") is displayed. For example, in FIG. 2C, the first task 22 is input and displayed on the first task display surface of the task display body 21, and in FIG. A second task 23 is input and displayed in the task display. Further, the task display processing unit 12 has a function of deleting the task on the task display surface when the tasks 22 and 23 displayed on the task surface of the task display body 21 are completed (Fig. 4(b) ( c) see). In the present embodiment, the user input indicating task completion is also input to the user terminal 2 by a predetermined voice input from the user (for example, voice input such as "○○○ task completed").

入力完了表示体生成部13は、ユーザがタスクの入力を完了したことを示すユーザ入力(第3のユーザ入力)に基づいて、拡張現実空間内におけるタスク表示体21の近傍にタスク入力完了を示す入力完了表示体24を生成する機能を備えている。本実施の形態では、入力完了表示体生成部13は、ユーザからの所定の音声入力(例えば「あとやるわ!」などの音声入力)によって、例えば、図3(a)に示すようなリング型の入力完了表示体24を生成する。また、入力完了表示体生成部13は、タスク表示体21のタスク表示面に表示されたすべてのタスク22、23が完了した場合に、タスク表示体21が消去されるのとともに、入力完了表示体24を消去する機能を備えている(図4(d)参照)。 The input completion display generation unit 13 displays task input completion in the vicinity of the task display 21 in the augmented reality space based on the user input (third user input) indicating that the user has completed the input of the task. It has a function of generating an input completion indicator 24 . In the present embodiment, the input completion indicator generator 13 generates a ring-shaped display as shown in FIG. is generated. Further, when all the tasks 22 and 23 displayed on the task display surface of the task display body 21 are completed, the input completion display body generation unit 13 erases the task display body 21 and creates an input completion display body. 24 (see FIG. 4(d)).

期限判定部14は、ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、その第2のユーザ入力で入力されたタスクに期限があるか否かを判定する機能を備えている。例えば、期限判定部14は、第2のユーザ入力(音声入力)を言語解析して、その中に「日付(例えば「○月○日」など)」や「時刻(例えば「○時○分」など)」や「期限(例えば「○日後」など)」を示す単語が含まれているか否かを判定する。 The deadline judgment unit 14 has a function of judging whether or not the task input by the second user input has a deadline based on the second user input of the task to be processed by the user. . For example, the deadline determination unit 14 language-analyzes the second user input (speech input), and includes "date (for example, 'month and day')" and "time (for example, 'hour and minute'). etc.)” or “deadline (for example, “X days later”)” is included.

期限表示処理部16は、第2のユーザ入力で入力されたいずれかのタスクに期限があると判定された場合の入力完了表示体24の表示と、第2のユーザ入力で入力されたすべてのタスクに期限がないと判定された場合の入力完了表示体24の表示とを異ならせる機能を備えている。例えば、本実施の形態では、入力されたタスクのいずれにも期限がないと判定された場合には、図3(a)に示すようにリング型の入力完了表示体24のみが表示され、入力されたタスクのいずれかに期限があると判定された場合には、図3(b)に示すようにリング型の入力完了表示体24の周りを周回するボール型の入力完了表示体25があわせて表示される。 The time limit display processing unit 16 displays the input completion indicator 24 when it is determined that any of the tasks input by the second user input has a time limit, and displays all the tasks input by the second user input. It has a function of differentiating the display of the input completion display 24 when it is determined that the task has no deadline. For example, in this embodiment, when it is determined that none of the input tasks has a deadline, only the ring-shaped input completion indicator 24 is displayed as shown in FIG. If it is determined that any of the tasks has a deadline, a ball-shaped input completion display body 25 circling around the ring-shaped input completion display body 24 is put together as shown in FIG. displayed.

期間決定部15は、第2のユーザ入力と現在の日時情報(ユーザ端末2は、現在の日時情報を取得する機能を備えている)に基づいて、その第2のユーザ入力で入力されたタスクの期限までの日数または時間を決定する機能を備えている。例えば、期間決定部15は、第2のユーザ入力の中に「○月○日」などの日付の情報が含まれていた場合には、現在の日にちからその日にち(○月○日)までの日数を算出する。あるいは、期間決定部15は、第2のユーザ入力の中に「○時○分」などの時刻の情報が含まれていた場合には、現在の時刻からその時刻(○時○分)までの時間を算出する。 Based on the second user input and the current date and time information (the user terminal 2 has a function of acquiring the current date and time information), the period determination unit 15 determines the task input by the second user input. have the ability to determine the number of days or hours until the due date. For example, if the second user input includes date information such as "MM/DD", the period determination unit 15 determines the period from the current date to that date (MM/DD). Calculate the number of days. Alternatively, if the second user input includes time information such as "○ hour ○ minute", the period determining unit 15 Calculate time.

期限表示処理部16は、第2のユーザ入力で入力されたタスクに期限があると判定された場合に、その期限までの日数または時間に応じて入力完了表示体24の表示を変化させる機能を備えている。例えば、期限表示処理部16は、期限までの日数が「3日」である場合には、リング型の入力完了表示体24の周りでボール型の入力完了表示体25をゆっくり周回させ、期限までの日数が「1日」である場合には、リング型の入力完了表示体24の周りでボール型の入力完了表示体25をはやく周回させる。また、期限表示処理部16は、期限までの日数が「1日」である場合には、タスク表示体21をゆっくり明滅させ、期限までの時間が「1時間」である場合には、タスク表示体21を上下に震えさせたり激しく点滅させたりしてもよい。 The deadline display processing unit 16 has a function of changing the display of the input completion indicator 24 according to the number of days or time until the deadline when it is determined that the task input by the second user input has a deadline. I have. For example, when the number of days until the deadline is "three days", the deadline display processing unit 16 causes the ball-shaped input completion display body 25 to rotate slowly around the ring-shaped input completion display body 24 until the deadline. is "1 day", the ball-shaped input completion display body 25 is rapidly rotated around the ring-shaped input completion display body 24. - 特許庁Further, the deadline display processing unit 16 causes the task display body 21 to blink slowly when the number of days until the deadline is "1 day", and when the time until the deadline is "1 hour", the task display The body 21 may be vibrated up and down or blink violently.

優先度設定部17は、第2のユーザ入力で入力されたタスクに優先度を設定する機能を備えている。例えば、優先度設定部17は、第2のユーザ入力で入力されたタスクが、予め作成された優先タスクリスト(記憶部7に記憶される)に含まれている場合には、優先度を「高」に設定し、優先タスクリストに含まれていない場合には、優先度を「低」に設定する。また、優先度設定部17は、仮想現実空間内においてタスク表示体21が設置されている位置(アンカー20がセットされている仮想現実空間内における座標)と仮想現実空間内におけるユーザの現在位置(仮想現実空間内におけるユーザの現在座標)との距離が近い場合には、優先度を「高」に設定し、距離が遠い場合には、優先度を「低」に設定する。また、優先度設定部17は、第2のユーザ入力で入力されたタスクに期限がある場合には、優先度を「高」に設定し、期限がない場合には、優先度を「低」に設定する。 The priority setting unit 17 has a function of setting priority to the task input by the second user input. For example, the priority setting unit 17 sets the priority to " set it to 'high' and if it is not on the priority task list, set the priority to 'low'. In addition, the priority setting unit 17 determines the position where the task display body 21 is installed in the virtual reality space (coordinates in the virtual reality space where the anchor 20 is set) and the current position of the user in the virtual reality space ( If the distance to the user's current coordinates in the virtual reality space) is short, the priority is set to "high", and if the distance is long, the priority is set to "low". Also, the priority setting unit 17 sets the priority to "high" if the task input by the second user input has a deadline, and sets the priority to "low" if there is no deadline. set to

強調表示部18は、タスク表示体21のタスク表示面に表示されているタスクの中に優先度が高いタスクが含まれる場合に、タスク表示体21が目立つようにタスク表示体21の強調表示を行う機能を備えている。例えば、強調表示部18は、そのタスク表示体21(優先度が高いタスクを含むタスク表示体)を他のタスク表示体(優先度が高いタスクを含まないタスク表示体)より大きく表示する強調表示を行う。または、強調表示部18は、仮想現実空間においてそのタスク表示体21(優先度が高いタスクを含むタスク表示体21)だけを表示させ、他のタスク表示体(優先度が高いタスクを含まないタスク表示体)を表示しない強調表示を行う。 The highlighting unit 18 highlights the task display body 21 so that the task display body 21 stands out when a task with a high priority is included in the tasks displayed on the task display surface of the task display body 21. It has the ability to do For example, the highlighting unit 18 displays the task display body 21 (task display body including tasks with high priority) larger than other task display bodies (task display bodies not including tasks with high priority). I do. Alternatively, the highlighting unit 18 displays only the task display body 21 (the task display body 21 including the task with high priority) in the virtual reality space, and displays other task display bodies (tasks not including the task with high priority). Display object) is highlighted without displaying it.

非強調表示部19は、タスク表示体21のタスク表示面に表示されているタスクの中に優先度が低いタスクが含まれる場合に、タスク表示体21が目立たないようにタスク表示体21の非強調表示を行う機能を備えている。例えば、非強調表示部19は、そのタスク表示体21(優先度が低いタスクを含むタスク表示体21)を他のタスク表示体(優先度が低いタスクを含まないタスク表示体)より小さく表示する非強調表示を行う。または、非強調表示部19は、仮想現実空間においてそのタスク表示体21(優先度が低いタスクを含むタスク表示体21)を表示せず、他のタスク表示体(優先度が低いタスクを含まないタスク表示体)を表示する非強調表示を行う。 The non-highlighting part 19 is a non-highlighting part of the task display body 21 so that the task display body 21 is not conspicuous when the tasks displayed on the task display surface of the task display body 21 include tasks with low priority. It has a function for highlighting. For example, the non-highlighting unit 19 displays the task display body 21 (task display body 21 including tasks with low priority) smaller than other task display bodies (task display bodies not including tasks with low priority). Do non-highlighting. Alternatively, the non-highlighting unit 19 does not display the task display body 21 (the task display body 21 including the task with the low priority) in the virtual reality space, and does not display the other task display body (not including the task with the low priority). Perform non-highlighting to display the task display body).

以上のように構成された本実施の形態のタスク表示システム1について、図5~図7のフロー図を参照してその動作を説明する。 The operation of the task display system 1 of the present embodiment configured as described above will be described with reference to the flowcharts of FIGS. 5 to 7. FIG.

図5は、本実施の形態のタスク表示システム1の全体の処理を説明するためのフロー図である。図5に示すように、本実施の形態では、拡張現実空間内における位置や対象物を指定する第1のユーザ入力(例えば、拡張現実空間内の位置や対象物にユーザが視線を向けて「この場所にメモ」や「この物にメモ」などの音声入力をする)が行われると、ユーザが指定した位置や対象物に、図2(a)に示すようなアンカー20がセットされ(S1)、アンカー20がセットされた位置や対象物上に、図2(b)に示すようなタスク表示体21が生成される(S2)。 FIG. 5 is a flowchart for explaining the overall processing of the task display system 1 of this embodiment. As shown in FIG. 5, in the present embodiment, a first user input that designates a position or an object in the augmented reality space (for example, the user directs the line of sight to the position or the object in the augmented reality space and " 2(a) is set at the position or object specified by the user (S1). ), a task display body 21 as shown in FIG. 2B is generated at the position where the anchor 20 is set or on the object (S2).

つぎに、ユーザが処理すべきタスクを入力する第2のユーザ入力(例えば「○○○する」「つぎ、△△△する」などの音声入力)が行われると、図2(c)(d)に示すように、ユーザによって入力された複数のタスク22、23の各々が複数のタスク表示面の各々に表示される(S3)。そして、ユーザがタスクの入力を完了したことを示す第3のユーザ入力(例えば「あとやるわ!」などの音声入力)が行われると、図3に示すように、拡張現実空間内におけるタスク表示体21の近傍にタスク入力完了を示す入力完了表示体24が生成される(S4)。 Next, when the user inputs a task to be processed (for example, a voice input such as "do ○○○", "next, △△△"), FIG. ), each of the plurality of tasks 22 and 23 input by the user is displayed on each of the plurality of task display screens (S3). Then, when a third user input (for example, voice input such as "I'll do it later!") indicating that the user has completed the input of the task is performed, the task is displayed in the augmented reality space as shown in FIG. An input completion indicator 24 indicating task input completion is generated near the body 21 (S4).

その後、タスクを行ったユーザからのユーザ入力(例えば「○○○のタスク完了」などの音声入力)などに基づいて、そのタスクが実行されたかの判定が行われ(S5)、タスク表示体21のタスク面に表示されたタスク22、23が完了した場合には、図4(b)(c)に示すように、そのタスク表示面のタスク22、23が削除される(S6)。そして、すべてのタスク22、23が完了した場合には(S7)、図4(d)に示すように、入力完了表示体24とともにタスク表示体21が消去される(S8)。 After that, based on user input from the user who performed the task (for example, voice input such as "○○○ task completed"), it is determined whether or not the task has been executed (S5). When the tasks 22 and 23 displayed on the task screen are completed, the tasks 22 and 23 on the task display screen are deleted as shown in FIGS. 4(b) and 4(c) (S6). Then, when all the tasks 22 and 23 are completed (S7), as shown in FIG. 4(d), the input completion display 24 and the task display 21 are erased (S8).

図6は、期限に関する処理を説明するためのフロー図である。図6に示すように、本実施の形態のタスク表示システム1では、ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、その第2のユーザ入力で入力されたタスクに期限があるか否かの判定が行われる(S10)。タスクに期限があると判定された場合には(S11)、その期限までの期間(日数や時間)が算出される(S12)。そして、期限の有無や期間に応じて、入力完了表示体24の表示を変化させる処理が行われる(S13)。 FIG. 6 is a flow diagram for explaining the processing related to the deadline. As shown in FIG. 6, in the task display system 1 of the present embodiment, based on the second user input for inputting the task to be processed by the user, the task input by the second user input has a deadline. It is determined whether or not there is (S10). When it is determined that the task has a deadline (S11), the period (days or hours) until the deadline is calculated (S12). Then, a process of changing the display of the input completion display 24 is performed according to the presence or absence of the deadline and the period (S13).

例えば、期限までの日数が「3日」である場合には、リング型の入力完了表示体24の周りでボール型の入力完了表示体25をゆっくり周回させ、期限までの日数が「1日」である場合には、リング型の入力完了表示体24の周りでボール型の入力完了表示体25をはやく周回させる。また、期限までの日数が「1日」である場合には、タスク表示体21をゆっくり明滅させ、期限までの時間が「1時間」である場合には、タスク表示体21を上下に震えさせたり激しく点滅させたりしてもよい。 For example, when the number of days until the deadline is "three days", the ball-shaped input completion display body 25 is slowly rotated around the ring-shaped input completion display body 24 so that the number of days until the deadline is "one day". , the ball-shaped input completion display body 25 is rapidly circulated around the ring-shaped input completion display body 24 . When the number of days until the deadline is "1 day", the task display body 21 is slowly blinked, and when the time until the deadline is "1 hour", the task display body 21 is shaken up and down. or flickering vigorously.

図7は、優先度に関する処理を説明するためのフロー図である。図7に示すように、本実施の形態のタスク表示システム1では、第2のユーザ入力で入力されたタスクに優先度が設定される(S20)。優先度の設定は、予め作成された優先タスクリストや、仮想現実空間内においてタスク表示体21が設置されている位置との距離や、入力されたタスクの期限の有無などに基づいて行うことができる。 FIG. 7 is a flow diagram for explaining processing regarding priority. As shown in FIG. 7, in the task display system 1 of the present embodiment, priority is set for tasks input by the second user input (S20). The priority can be set based on a priority task list created in advance, the distance from the position where the task display body 21 is installed in the virtual reality space, the presence or absence of the deadline of the input task, and the like. can.

そして、タスク表示体21のタスク表示面に表示されているタスクの中に優先度が高いタスクが含まれる場合には(S21)、タスク表示体21が目立つようにタスク表示体21の強調表示が行われる(S22)。例えば、そのタスク表示体21(優先度が高いタスクを含むタスク表示体21)を他のタスク表示体(優先度が高いタスクを含まないタスク表示体)より大きく表示する強調表示が行われる。または、仮想現実空間においてそのタスク表示体21(優先度が高いタスクを含むタスク表示体21)だけを表示させ、他のタスク表示体(優先度が高いタスクを含まないタスク表示体)を表示しない強調表示が行われる。 When the tasks displayed on the task display surface of the task display body 21 include a task with a high priority (S21), the task display body 21 is highlighted so that the task display body 21 stands out. (S22). For example, the task display body 21 (the task display body 21 including the task with high priority) is displayed in a larger size than the other task display bodies (task display bodies not including the task with high priority). Alternatively, only the task display body 21 (the task display body 21 including the task with high priority) is displayed in the virtual reality space, and other task display bodies (task display bodies not including the task with high priority) are not displayed. Highlighting is done.

また、タスク表示体21のタスク表示面に表示されているタスクの中に優先度が低いタスクが含まれる場合には(S23)、タスク表示体21が目立たないようにタスク表示体21の非強調表示が行われる。例えば、そのタスク表示体21(優先度が低いタスクを含むタスク表示体21)を他のタスク表示体(優先度が低いタスクを含まないタスク表示体)より小さく表示する非強調表示が行われる。または、仮想現実空間においてそのタスク表示体21(優先度が低いタスクを含むタスク表示体21)を表示せず、他のタスク表示体(優先度が低いタスクを含まないタスク表示体)を表示する非強調表示が行われる。 If the tasks displayed on the task display surface of the task display body 21 include tasks with low priority (S23), the task display body 21 is de-emphasized so that the task display body 21 does not stand out. display is performed. For example, the task display 21 (task display 21 including tasks with low priority) is displayed in a smaller size than other task displays (task displays not including tasks with low priority). Alternatively, the task display body 21 (the task display body 21 including the task with the low priority) is not displayed in the virtual reality space, and another task display body (the task display body not including the task with the low priority) is displayed. De-highlighting is done.

このような本実施の形態のタスク表示システム1によれば、拡張現実空間内の所定の位置や対象物上に複数のタスク表示面を有するタスク表示体21を表示させ、タスク表示体21の各タスク表示面にユーザが実行すべきタスク22、23をそれぞれ表示させることができる。これにより、日々の生活等でユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことが可能である。 According to the task display system 1 of the present embodiment, the task display body 21 having a plurality of task display surfaces is displayed at a predetermined position or object in the augmented reality space, and each of the task display bodies 21 is displayed. Tasks 22 and 23 to be executed by the user can be displayed on the task display screen. As a result, it is possible to prevent so-called omission of tasks, in which the user forgets to execute one or some of a plurality of tasks that the user intended to execute later in daily life.

この場合、拡張現実空間内におけるタスク表示体21の生成(拡張現実空間内の所定の位置や対象物に紐づけたタスク表示体21の設置)や各タスク表示面へのタスクの入力は、所定のユーザ入力(第1~第3のユーザ入力)により簡便に行うことが可能である。また、タスク表示体21の近傍に入力完了表示体24が表示されているか否かにより、タスクの入力が完了したか否かをユーザは一目で把握することができる。 In this case, the generation of the task display body 21 in the augmented reality space (installation of the task display body 21 linked to a predetermined position or object in the augmented reality space) and the input of the task to each task display surface can be easily performed by user input (first to third user inputs). Further, the user can grasp at a glance whether or not the input of the task has been completed, depending on whether or not the input completion display 24 is displayed near the task display 21 .

また、本実施の形態では、ユーザから入力された複数のタスクのうち、いずれかのタスクに期限がある場合には、いずれのタスクにも期限がない場合とは異なるように入力完了表示体24の表示が行われる。例えば、いずれかのタスクに期限がある場合には、リング型の入力完了表示体24(タスク表示体21の周囲に表示される)に沿って回転する(タスク表示体21の周りを公転する)ボール型の入力完了表示体25が表示され、いずれのタスクにも期限がない場合には、リング型の入力完了表示体24のみが表示される。このように、入力完了表示体24の表示が異なるので、タスクに期限があるか否かをユーザは一目で把握することができる。 In addition, in the present embodiment, when any of a plurality of tasks input by the user has a deadline, the input completion indicator 24 is displayed differently from the case where none of the tasks has a deadline. is displayed. For example, if any task has a deadline, it rotates (revolves around the task display 21) along the ring-shaped input completion display 24 (displayed around the task display 21). A ball-shaped input completion indicator 25 is displayed, and only a ring-shaped input completion indicator 24 is displayed when there is no deadline for any task. Since the display of the input completion indicator 24 is different in this manner, the user can grasp at a glance whether or not the task has a deadline.

また、本実施の形態では、タスクの期限までの日数または時間に応じて入力完了表示体24の表示を変化させる処理が行われる。例えば、期限までの日数が3日である場合には、リング型の入力完了表示体24に沿ってボール型の入力完了表示体25がゆっくり回転する(タスク表示体21の周りをボール体がゆっくり公転する)表示が行われ、期限までの日数が1日である場合には、リング型の入力完了表示体24に沿ってボール型の入力完了表示体25が速く回転する(タスク表示体21の周りをボール型の入力完了表示体25が速く公転する)表示が行われる。このように、入力完了表示体24の表示が変化するので、タスクの期限が近づいているか否かをユーザは直感的に把握することができる。 Further, in the present embodiment, a process of changing the display of the input completion indicator 24 according to the number of days or time until the deadline of the task is performed. For example, when the number of days until the deadline is three days, the ball-shaped input completion display body 25 rotates slowly along the ring-shaped input completion display body 24 (the ball slowly rotates around the task display body 21). revolving) is displayed, and when the number of days until the deadline is one day, the ball-shaped input completion display 25 rotates rapidly along the ring-shaped input completion display 24 (the task display 21 A ball-shaped input completion display 25 revolves rapidly around it) is displayed. Since the display of the input completion indicator 24 changes in this way, the user can intuitively grasp whether or not the deadline for the task is approaching.

また、本実施の形態では、タスクに優先度が設定され、タスクの優先度が高い場合には、タスク表示体21が目立つようにタスク表示体21の強調表示が行われる。例えば、タスクの優先度は、予め用意された優先度のリスト(優先度が高いタスクのリスト)に基づいて設定することができる。すなわち、予め用意された優先度のリスト(優先度が高いタスクのリスト)に該当する場合に、タスクの優先度が高く設定される。また、タスクの期限までの日数や時間が短い場合に、タスクの優先度が高く設定されてもよい。そして、タスクの優先度が高い場合には、例えば、タスク表示体21が大きく表示されたり、タスク表示体21が上下に震えたり、タスク表示体21が激しく点滅するなどの強調表示が行われる。このように、タスク表示体21の強調表示が行われるので、タスクの優先度が高いことをユーザは直感的に把握することができる。 Further, in the present embodiment, priority is set for tasks, and when the priority of a task is high, the task display body 21 is highlighted so that the task display body 21 stands out. For example, the priority of a task can be set based on a prepared priority list (a list of tasks with high priority). That is, if the task corresponds to a prepared priority list (a list of tasks with high priority), the priority of the task is set high. Also, when the number of days or time until the deadline of the task is short, the priority of the task may be set high. When the priority of the task is high, for example, the task display 21 is displayed large, the task display 21 shakes up and down, or the task display 21 flickers violently. Since the task display body 21 is highlighted in this manner, the user can intuitively understand that the priority of the task is high.

また、本実施の形態では、タスクの優先度が低い場合には、タスク表示体21が目立たないようにタスク表示体21の非強調表示が行われる。例えば、予め用意された優先度のリスト(優先度が高いタスクのリスト)に該当しない場合に、タスクの優先度が低く設定される。また、タスクの期限がない場合に、タスクの優先度が低く設定されてもよい。そして、タスクの優先度が低い場合には、例えば、タスク表示体21が縮小表示されたり、タスク表示体21が非表示とされたりするなどの非強調表示が行われる。このように、タスク表示体21の非強調表示が行われるので、タスクの優先度が低いことをユーザは直感的に把握することができる。 Further, in this embodiment, when the priority of the task is low, the task display 21 is displayed in a non-highlighted manner so that the task display 21 does not stand out. For example, if the task does not correspond to a prepared priority list (a list of tasks with high priority), the priority of the task is set low. Also, if there is no deadline for the task, the priority of the task may be set low. Then, when the priority of the task is low, for example, the task display body 21 is displayed in a reduced size, or the task display body 21 is hidden. Since the task display body 21 is thus non-highlighted, the user can intuitively understand that the priority of the task is low.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。 Although the embodiments of the present invention have been described above by way of examples, the scope of the present invention is not limited to these, and can be changed and modified according to the purpose within the scope described in the claims. be.

例えば、以上の説明では、図3に示すような入力完了表示体(リング型の入力完了表示体24とボール型の入力完了表示体5)の例について説明したが、本発明における入力完了表示体の態様は、これに限定されない。 For example, in the above description, an example of the input completion display body (the ring-shaped input completion display body 24 and the ball-shaped input completion display body 5) as shown in FIG. 3 has been described. The aspect of is not limited to this.

図8に示すように、番号型の入力完了表示体26と時計型の入力完了表示体27であっても同様に実施可能である。すなわち、入力されたタスクのいずれにも期限がないと判定された場合には、図8(a)に示すように番号型の入力完了表示体26のみが表示され、入力されたタスクのいずれかに期限があると判定された場合には、図8(b)に示すように番号型の入力完了表示体26とあわせて時計型の入力完了表示体27が表示されてもよい。この場合、タスク表示体21のタスクの期限が近づくと、番号型の入力完了表示体26を上下にバウンスさせ、時計型の入力完了表示体27を明滅させてもよい。 As shown in FIG. 8, a number-type input completion display 26 and a clock-type input completion display 27 can be used in the same manner. That is, when it is determined that none of the input tasks has a deadline, only the number-type input completion indicator 26 is displayed as shown in FIG. When it is determined that there is a time limit, a clock-type input completion display 27 may be displayed together with a number-type input completion display 26 as shown in FIG. 8B. In this case, when the deadline for the task on the task display 21 approaches, the number-type input completion display 26 may bounce up and down, and the clock-type input completion display 27 may blink.

図9に示すように、吹き出し型の入力完了表示体28と時計型の入力完了表示体27であっても同様に実施可能である。すなわち、入力されたタスクのいずれにも期限がないと判定された場合には、図9(a)に示すように吹き出し型の入力完了表示体28のみが表示され、入力されたタスクのいずれかに期限があると判定された場合には、図9(b)に示すように吹き出し型の入力完了表示体28とあわせて時計型の入力完了表示体27が表示されてもよい。この場合、タスク表示体21のタスクの期限が近づくと、吹き出し型の入力完了表示体28を高速で回転させ、時計型の入力完了表示体27を明滅させてもよい。 As shown in FIG. 9, a balloon-shaped input completion display body 28 and a clock-shaped input completion display body 27 can be used in the same manner. That is, when it is determined that none of the input tasks has a deadline, only the balloon-type input completion indicator 28 is displayed as shown in FIG. When it is determined that there is a time limit, a clock-shaped input completion display 27 may be displayed together with a balloon-shaped input completion display 28, as shown in FIG. 9B. In this case, when the deadline for the task on the task display body 21 approaches, the balloon-shaped input completion display body 28 may be rotated at high speed, and the clock-shaped input completion display body 27 may blink.

図10に示すように、フレーム型の入力完了表示体29と時計型の入力完了表示体27であっても同様に実施可能である。すなわち、入力されたタスクのいずれにも期限がないと判定された場合には、図8(a)に示すようにフレーム型の入力完了表示体29のみが表示され、入力されたタスクのいずれかに期限があると判定された場合には、図8(b)に示すようにフレーム型の入力完了表示体29とあわせて時計型の入力完了表示体27が表示されてもよい。この場合、タスク表示体21のタスクの期限が近づくと、フレーム型の入力完了表示体29を高速で回転させ、時計型の入力完了表示体27を明滅させてもよい。 As shown in FIG. 10, a frame type input completion display 29 and a clock type input completion display 27 can be used in the same manner. That is, when it is determined that none of the input tasks has a deadline, only the frame-type input completion indicator 29 is displayed as shown in FIG. When it is determined that there is a time limit, a clock-shaped input completion display 27 may be displayed together with a frame-shaped input completion display 29 as shown in FIG. 8B. In this case, when the deadline for the task on the task display body 21 approaches, the frame-shaped input completion display body 29 may be rotated at high speed, and the clock-shaped input completion display body 27 may blink.

以上のように、本発明にかかるタスク表示システムは、ユーザが後で実行しようと考えていた複数のタスクのうち一つまたはいくつかタスクを実行し忘れてしまう、いわゆるタスク漏れを防ぐことが可能であるという効果を有し、日々の生活のなかでタスク漏れを防ぐためのタスク管理システム等等として用いられ、有用である。 As described above, the task display system according to the present invention can prevent so-called omission of tasks, in which a user forgets to execute one or some of a plurality of tasks that he or she intended to execute later. and is useful as a task management system or the like for preventing omission of tasks in daily life.

1 タスク表示システム
2 ユーザ端末
3 ネットワーク
4 サーバ装置
5 入力部
6 出力部
7 記憶部
8 制御部
10 アンカーセット部
11 タグ表示体生成部
12 タスク表示処理部
13 入力完了表示体生成部
14 期限判定部
15 期間決定部
16 期限表示処理部
17 優先度設定部
18 強調表示部
19 非強調表示部
20 アンカー
21 タスク表示体
22 第1のタスク
23 第2のタスク
24 入力完了表示体(リング型)
25 入力完了表示体(ボール型)
26 入力完了表示体(番号型)
27 入力完了表示体(時計型)
28 入力完了表示体(吹き出し型)
29 入力完了表示体(フレーム型)
1 task display system 2 user terminal 3 network 4 server device 5 input unit 6 output unit 7 storage unit 8 control unit 10 anchor set unit 11 tag display generation unit 12 task display processing unit 13 input completion display generation unit 14 deadline determination unit 15 period determination unit 16 deadline display processing unit 17 priority setting unit 18 highlighting unit 19 non-highlighting unit 20 anchor 21 task indicator 22 first task 23 second task 24 input completion indicator (ring type)
25 Input completion indicator (ball type)
26 Input completion indicator (number type)
27 Input completion indicator (clock type)
28 Input completion indicator (balloon type)
29 Input completion indicator (frame type)

Claims (7)

拡張現実空間内でユーザに対してタスクを表示するシステムであって、
前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットするアンカーセット部と、
前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成するタスク表示体生成部と、
前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させるタスク表示処理部と、
前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成する入力完了表示体生成部と、
を備えることを特徴とするタスク表示システム。
A system for displaying tasks to a user in an augmented reality space, comprising:
An anchor setting unit that sets an anchor that links a task to be processed by the user to the position or object specified by the user based on a first user input that specifies a position or object in the augmented reality space. and,
A task display body generation unit for generating a task display body having a plurality of task display surfaces capable of displaying tasks to be processed by the user on the position or object where the anchor is set in the augmented reality space. and,
a task display processing unit for displaying each of the plurality of tasks input by the user on each of the plurality of task display screens based on a second user input for inputting a task to be processed by the user;
An input completion indicator that generates an input completion indicator indicating completion of task input in the vicinity of the task display in the augmented reality space based on a third user input indicating that the user has completed input of the task. a generator;
A task display system comprising:
前記第2のユーザ入力に基づいて、当該第2のユーザ入力で入力されたタスクに期限があるか否かを判定する期限判定部と、
前記第2のユーザ入力で入力されたいずれかのタスクに期限があると判定された場合の前記入力完了表示体の表示と、前記第2のユーザ入力で入力されたすべてのタスクに期限がないと判定された場合の前記入力完了表示体の表示とを異ならせる期限表示処理部と、
を備える、請求項1に記載のタスク表示システム。
a deadline determination unit that determines, based on the second user input, whether or not the task input by the second user input has a deadline;
Displaying the input completion indicator when it is determined that any task input by the second user input has a deadline, and all tasks input by the second user input have no deadline. A time limit display processing unit that makes the display of the input completion display different from the display of the input completion display when it is determined that
The task display system of claim 1, comprising:
前記第2のユーザ入力と現在の日時情報に基づいて、当該第2のユーザ入力で入力されたタスクの期限までの日数または時間を決定する期間決定部を備え、
前記期限表示処理部は、前記第2のユーザ入力で入力されたタスクに期限があると判定された場合に、当該期限までの日数または時間に応じて前記入力完了表示体の表示を変化させる、請求項2に記載のタスク表示システム。
Based on the second user input and current date and time information, a period determination unit that determines the number of days or time until the deadline of the task input by the second user input,
When it is determined that the task input by the second user input has a deadline, the deadline display processing unit changes the display of the input completion indicator according to the number of days or time until the deadline. The task display system according to claim 2.
前記第2のユーザ入力で入力されたタスクに優先度を設定する優先度設定部と、
前記優先度が高いタスクが含まれる場合に、前記タスク表示体が目立つように前記タスク表示体の強調表示を行う強調表示部を備える、請求項1~請求項3のいずれか一項に記載のタスク表示システム。
a priority setting unit that sets a priority to the task input by the second user input;
The highlighting unit for highlighting the task display body so that the task display body stands out when the task with the high priority is included, according to any one of claims 1 to 3. Task display system.
前記優先度が低いタスクが含まれる場合に、前記タスク表示体が目立たないように前記タスク表示体の非強調表示を行う非強調表示部を備える、請求項4に記載のタスク表示システム。 5. The task display system according to claim 4, further comprising a non-highlight display unit that performs non-highlight display of said task display so that said task display is inconspicuous when said low-priority task is included. 拡張現実空間内でユーザに対してタスクを表示するシステムで実行される方法あって、
前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットするステップと、
前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成するステップと、
前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させるステップと、
前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成するステップと、
を含むことを特徴とする方法。
A method, implemented in a system, of displaying a task to a user in an augmented reality space, comprising:
setting an anchor that links a task to be processed by the user to the position or object specified by the user based on a first user input specifying a position or object in the augmented reality space;
generating a task display body having a plurality of task display surfaces capable of displaying tasks to be processed by the user on the position or object where the anchor is set in the augmented reality space;
causing each of the plurality of tasks input by the user to be displayed on each of the plurality of task display surfaces based on a second user input of the user inputting a task to be processed;
generating an input completion indicator indicating completion of task input in the vicinity of the task indicator in the augmented reality space based on a third user input indicating that the user has completed input of the task;
A method comprising:
拡張現実空間内でユーザに対してタスクを表示するシステムのコンピュータで実行されるプログラムあって、
前記プログラムは、前記コンピュータに、
前記拡張現実空間内における位置または対象物を指定する第1のユーザ入力に基づいて、前記ユーザが指定した位置または対象物に、前記ユーザが処理すべきタスクを紐づけるアンカーをセットする処理と、
前記拡張現実空間内において、前記アンカーがセットされた前記位置または対象物上に、前記ユーザが処理すべきタスクを表示可能な複数のタスク表示面を有するタスク表示体を生成する処理と、
前記ユーザが処理すべきタスクを入力する第2のユーザ入力に基づいて、前記ユーザによって入力された複数のタスクの各々を、前記複数のタスク表示面の各々に表示させる処理と、
前記ユーザがタスクの入力を完了したことを示す第3のユーザ入力に基づいて、前記拡張現実空間内における前記タスク表示体の近傍にタスク入力完了を示す入力完了表示体を生成する処理と、
を実行させることを特徴とするプログラム。
A program running on a computer of a system that displays tasks to a user in an augmented reality space,
The program causes the computer to:
A process of setting an anchor that links a task to be processed by the user to the position or object specified by the user based on a first user input specifying a position or object in the augmented reality space;
a process of generating a task display body having a plurality of task display surfaces capable of displaying a task to be processed by the user on the position or object where the anchor is set in the augmented reality space;
a process of displaying each of the plurality of tasks input by the user on each of the plurality of task display surfaces based on a second user input for inputting a task to be processed by the user;
a process of generating an input completion display indicating task input completion near the task display in the augmented reality space based on a third user input indicating that the user has completed input of the task;
A program characterized by causing the execution of
JP2021212224A 2021-12-27 2021-12-27 Task display system Active JP7252309B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021212224A JP7252309B1 (en) 2021-12-27 2021-12-27 Task display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021212224A JP7252309B1 (en) 2021-12-27 2021-12-27 Task display system

Publications (2)

Publication Number Publication Date
JP7252309B1 true JP7252309B1 (en) 2023-04-04
JP2023096440A JP2023096440A (en) 2023-07-07

Family

ID=85779550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021212224A Active JP7252309B1 (en) 2021-12-27 2021-12-27 Task display system

Country Status (1)

Country Link
JP (1) JP7252309B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288690A (en) 2001-03-26 2002-10-04 Jinyama Shunichi Method and system for information processing, portable information terminal device, server system, and software for information processing
WO2014129204A1 (en) 2013-02-22 2014-08-28 ソニー株式会社 Head-mounted display
JP2016218268A (en) 2015-05-21 2016-12-22 セイコーエプソン株式会社 Portable display device, display system and display method
JP2019101945A (en) 2017-12-06 2019-06-24 国立大学法人秋田大学 Input system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288690A (en) 2001-03-26 2002-10-04 Jinyama Shunichi Method and system for information processing, portable information terminal device, server system, and software for information processing
WO2014129204A1 (en) 2013-02-22 2014-08-28 ソニー株式会社 Head-mounted display
JP2016218268A (en) 2015-05-21 2016-12-22 セイコーエプソン株式会社 Portable display device, display system and display method
JP2019101945A (en) 2017-12-06 2019-06-24 国立大学法人秋田大学 Input system

Also Published As

Publication number Publication date
JP2023096440A (en) 2023-07-07

Similar Documents

Publication Publication Date Title
DK181279B1 (en) System, method and user interface for supporting scheduled mode changes on electronic devices
US11954242B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11212449B1 (en) User interfaces for media capture and management
JP5824779B2 (en) Terminal and schedule display method
DK202070625A1 (en) User interfaces related to time
JP2020194555A (en) Context-specific user interface
JP2021523452A (en) Watch user interface
WO2018140358A1 (en) Intentional user experience
US20170083178A1 (en) Systems and methods for implementing improved interactive calendar for mobile devices
US5943236A (en) Plant-operation-information displaying method and plant-operation monitoring apparatus
EP3876085A1 (en) Self-learning digital interface
JP2023053946A (en) User interfaces related to time
JP7252309B1 (en) Task display system
US12105936B2 (en) Virtual commute
US9552145B2 (en) System and method for planning tasks based on a graphical representation of time
US11302293B2 (en) Systems and methods for overlays in an augmented and virtual reality environment
WO2024064937A1 (en) Methods for interacting with user interfaces based on attention
CN114244952B (en) Alarm clock processing method and device, electronic equipment and medium
AU6875300A (en) Method of and apparatus for displaying measured quantity, recording medium, and program
US20140286134A1 (en) Time Indicators for Calendars
CN114697442B (en) Schedule generation method and device, terminal and storage medium
WO2024226225A1 (en) User interfaces and techniques for editing, creating, and using stickers
WO2024196579A1 (en) Techniques for receiving user information and/or device fit information
CN118715499A (en) Apparatus, method and graphical user interface for accessing system functions of a computer system when displaying a three-dimensional environment
JP2020187668A (en) Display control method, display control apparatus, display control program, and display control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350