[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101242162B1 - Apparatus and method for training peripheral vision - Google Patents

Apparatus and method for training peripheral vision Download PDF

Info

Publication number
KR101242162B1
KR101242162B1 KR1020110025484A KR20110025484A KR101242162B1 KR 101242162 B1 KR101242162 B1 KR 101242162B1 KR 1020110025484 A KR1020110025484 A KR 1020110025484A KR 20110025484 A KR20110025484 A KR 20110025484A KR 101242162 B1 KR101242162 B1 KR 101242162B1
Authority
KR
South Korea
Prior art keywords
target object
peripheral
user
perceptual
displayed
Prior art date
Application number
KR1020110025484A
Other languages
Korean (ko)
Other versions
KR20120107768A (en
Inventor
정재범
이관민
문윤희
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020110025484A priority Critical patent/KR101242162B1/en
Publication of KR20120107768A publication Critical patent/KR20120107768A/en
Application granted granted Critical
Publication of KR101242162B1 publication Critical patent/KR101242162B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/14Traffic procedures, e.g. traffic regulations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/167Control of land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

주변시 훈련 장치는 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경을 시뮬레이션하는 그래픽 처리부, 디스플레이 화면에 지각 대상 객체를 표시하는 객체 표시부 및 지각 대상 객체 또는 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 기초로 지각 대상 객체에 대한 주변시 지각능력을 측정하는 주변시 지각능력 측정부를 포함한다.The peripheral training apparatus may include a graphic processing unit that simulates a virtual environment for training a user's peripheral vision on at least one display screen, an object display unit displaying a perceptual target object on the display screen, and a display screen displaying a perceptual target object or a perceptual target object. Peripheral perception capability measuring unit for measuring the perceptual perception ability for the perceptual target object based on the input data of the input means performed.

Description

주변시 훈련 장치 및 방법{APPARATUS AND METHOD FOR TRAINING PERIPHERAL VISION}APAPATUS AND METHOD FOR TRAINING PERIPHERAL VISION}

본 발명은 주변시 훈련 장치 및 방법에 관한 것이다.The present invention relates to a peripheral training device and method.

운전자는 방향감각의 상당한 부분을 시각에 의존한다. 이러한 시각은 초점시(focal vision)와 주변시(peripheral vision)로 구분될 수 있다. 이때, 초점시의 시세포 수는 주변시보다 수백 배 정도 많고, 사물을 자세히 구별하는 역할을 한다. The driver relies on vision for a significant part of the sense of direction. This vision can be divided into focal vision and peripheral vision. At this time, the number of eye cells at the time of focus is several hundred times larger than the surrounding time, and serves to distinguish the object in detail.

그리고, 주변시는 시야의 주변부에 대한 시력으로서 초점이 맺히는 상 주변의 사물을 인식한다. 구체적으로, 망막의 주변에는 간상세포가 많고 원초세포가 적으므로, 중심부보다 시력이 나쁘고 색각도 약하지만, 약한 빛이나 사물의 움직임을 보는 데는 민감하다. 특히, 지나치게 긴장을 하거나 혹은 스트레스를 받으면 주변시를 이용한 정보판단력이 거의 사라지는 터널비전(tunnel vision)현상이 나타날 수 있다. 이는 운전자라면 누구나 한번쯤 경험하는 것으로, 전방 주시와 동시에 룸 미러, 사이드 미러, 속도계 등을 인식하지 못하여 안전 운전에 치명적인 영향을 미칠 수 있다.The peripheral vision recognizes an object around an image in focus as a vision for a peripheral portion of the visual field. Specifically, since there are many rod cells and fewer primitive cells in the periphery of the retina, the eyesight is worse than the center and weak in color vision, but sensitive to seeing weak light or movement of objects. In particular, when too nervous or stressed, a tunnel vision phenomenon may occur in which information judgment power using peripheral vision is almost disappeared. This can be experienced by every driver once, and it can have a fatal effect on safe driving by not looking at the front and not recognizing the room mirror, side mirror and speedometer.

한편, 최근에는 차량, 항공기 등에 대한 모의 훈련기가 출시되어 예비 운전자들에게 운전연습을 실시할 수 있도록 하였다. 예컨대, 종래의 자동차 모의 운전연습장치는 통상적으로 실제 차량과 동일 또는 유사하게 운전 좌석, 계기판, 가속페달, 브레이크, 클러치, 핸드 브레이크, 핸들, 변속기어 등으로 구성된 운전석을 구비하고, 도로상태나 코스, 사용방법 등의 교육내용과 주행동작을 영상으로 화면에 표시한다.Recently, simulators for vehicles, aircrafts, etc. have been launched to allow preliminary drivers to practice driving. For example, a conventional vehicle simulation driving apparatus typically includes a driver's seat composed of a driving seat, an instrument panel, an accelerator pedal, a brake, a clutch, a hand brake, a steering wheel, a transmission gear, and the like, similar to an actual vehicle, and includes a road condition, a course, Display training contents such as how to use and driving motion on the screen.

이때, 운전자는 화면을 보면서 운전연습을 실시하며, 운전자의 조작에 따라서 도로상태나 코스, 사용방법 등의 내용에 노면기준선, 차체 기준점, 코스 경로 유도선의 뷰 포인트가 제시될 수 있다. 이와 같이, 운전자는 반복적인 운전연습을 통해 운전환경에 적응하고 장치조작 및 주행운전연습 등의 운전기능을 숙달할 수 있게 된다.At this time, the driver performs driving practice while viewing the screen, and the view point of the road reference line, the body reference point, and the course route guidance line may be presented in the contents of the road condition, the course, and the use method according to the driver's operation. In this way, the driver can adapt to the driving environment through repetitive driving practice and can master driving functions such as device operation and driving driving practice.

그러나, 이러한 종래 기술은 운전자가 단순히 운전연습을 실시할 수 있도록 하는 것에만 치중하고 있어, 상술한 바와 같이 운전자의 주변시를 훈련시켜 주변시의 지각능력을 향상시키는 데에는 도움을 제공하지 못하고 있다.However, the prior art focuses only on allowing the driver to practice driving, and thus, does not provide assistance in improving the perception ability of the peripheral vision by training the peripheral vision of the driver as described above.

따라서, 주변시 훈련 방법을 제공하여 효과적으로 주변시의 지각능력을 향상시킬 필요성이 제기된다.Therefore, there is a need to provide a peripheral training method to effectively improve the perception of the surrounding vision.

본 발명의 일 실시예는 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경 및 지각 대상 객체를 표시하고, 지각 대상 객체 또는 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 기초로 지각 대상 객체에 대한 주변시 지각능력을 측정함으로써, 사용자의 주변시의 훈련 및 지각능력을 향상시킬 수 있는 주변시 훈련 장치 및 방법을 제공하는 데에 그 목적이 있다.An embodiment of the present invention displays a virtual environment and perceptual target object for training a user's surroundings on one or more display screens, and inputs input data of input means performed on the perceptual target object or the display screen on which the perceptual target object is displayed. It is an object of the present invention to provide a peripheral training apparatus and method for improving perception and training of a user's periphery by measuring periphery perception of a perceptual target object.

또한, 본 발명의 일 실시예는 교통수단의 운전 또는 운항 상황에 대한 가상 환경을 디스플레이 화면에 시뮬레이션하되, 교통수단의 형태에 따라 디스플레이 화면을 둘 이상으로 분할하여 해당 디스플레이 화면에 가상 환경을 시뮬레이션함으로써 실제 상황에 맞는 주변시 훈련을 제공하고, 교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함하는 지각 대상 객체를 통해 사용자에게 다양한 주변시 훈련을 제공할 수 있는 주변시 훈련 장치 및 방법을 제공하는 데에 그 목적이 있다.In addition, an embodiment of the present invention by simulating a virtual environment on the display screen driving or operating conditions of transportation, by dividing the display screen into two or more according to the type of transportation to simulate the virtual environment on the display screen Provides periphery training in real-world situations, and provides various periphery training to users through perceptual objects that include one or more of a vehicle's instruments, driving devices, traffic signs, route maps, and specific characters. It is an object of the present invention to provide a peripheral training apparatus and method.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 주변시 훈련 장치는 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경을 시뮬레이션하는 그래픽 처리부, 디스플레이 화면에 지각 대상 객체를 표시하는 객체 표시부 및 지각 대상 객체 또는 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 기초로 지각 대상 객체에 대한 주변시 지각능력을 측정하는 주변시 지각능력 측정부를 포함한다.As a technical means for achieving the above-described technical problem, the peripheral training apparatus according to an embodiment of the present invention is a graphic processing unit for simulating a virtual environment for training the user's surroundings on one or more display screens, the target of perception on the display screen An object display unit for displaying an object and a periphery perceptual ability measuring unit for measuring perceptual perceptual perception of the perceptual target object based on input data of an input means performed on a display screen on which the perceptual target object or perceptual target object is displayed. .

또한, 본 발명의 일 실시예에 따른 주변시 훈련 방법은 (a) 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경 및 지각 대상 객체를 표시하는 단계, (b) 지각 대상 객체 또는 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 수신하는 단계, (c) 입력된 데이터를 기초로 지각 대상 객체에 대한 사용자의 주변시 지각능력을 측정하는 단계 및 (d) 측정된 사용자의 주변시 지각능력을 결과 데이터로 출력하는 단계를 포함한다.In addition, the peripheral training method according to an embodiment of the present invention comprises the steps of (a) displaying a virtual environment and perceptual target object for training the peripheral vision of the user on one or more display screen, (b) the perceptual target object or perceptual target Receiving input data of an input means performed on a display screen on which an object is displayed, (c) measuring perceptual perception of the user with respect to the perceptual target object based on the input data, and (d) measuring the user And outputting the perceptual ability of periphery as a result data.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경 및 지각 대상 객체를 표시하고, 지각 대상 객체 또는 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 기초로 지각 대상 객체에 대한 주변시 지각능력을 측정함으로써, 사용자의 주변시의 훈련 및 지각능력을 향상시킬 수 있다.According to any one of the above-described problem solving means of the present invention, the virtual environment for the training of the user's surroundings and the perceptual target object is displayed on one or more display screens, and performed on the display screen on which the perceptual target object or the perceptual target object is displayed By measuring the perceptual perception ability of the perceptual target object based on the input data of the input means, the training and perception ability of the periphery of the user can be improved.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 교통수단의 운전 또는 운항 상황에 대한 가상 환경을 디스플레이 화면에 시뮬레이션하되, 교통수단의 형태에 따라 디스플레이 화면을 둘 이상으로 분할하여 해당 디스플레이 화면에 가상 환경을 시뮬레이션함으로써 실제 상황에 맞는 주변시 훈련을 제공하고, 교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함하는 지각 대상 객체를 통해 사용자에게 다양한 주변시 훈련을 제공할 수 있다.In addition, according to any one of the above-described problem solving means of the present invention, while simulating a virtual environment of the driving or operating situation of the vehicle on the display screen, according to the type of transportation by dividing the display screen into two or more corresponding display Simulate virtual environments on the screen to provide real-world ambient training and provide users with perceptual objects that include one or more of a vehicle's instruments, driving devices, traffic signs, route maps, and specific text. Can provide a variety of ambient training.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 설정된 임계시간 또는 레벨에 따라 시야각이 커지는 방향으로 디스플레이 화면상에서 지각 대상 객체를 이동시키면서 주변시 훈련을 진행함으로써, 주변시 훈련의 효과를 극대화시킬 수 있다.In addition, according to any one of the above-described problem solving means of the present invention, by performing the periphery training while moving the perceptual target object on the display screen in the direction of increasing the viewing angle according to the set threshold time or level, the effect of the periphery training It can be maximized.

또한, 전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 디스플레이 화면에 위치한 지각 대상 객체의 시야각의 크기가 임계치를 초과한 경우 현 레벨의 주변시 훈련 프로그램을 종료시키고 다음 레벨의 주변시 훈련 프로그램을 실행시킴으로써 사용자 레벨에 따른 주변시 훈련을 제공할 수 있다.In addition, according to any one of the above-described problem solving means of the present invention, when the size of the viewing angle of the perceptual target object located on the display screen exceeds the threshold, the peripheral training program of the current level is terminated and the peripheral training program of the next level By executing the user can provide training at the periphery according to the user level.

도 1은 본 발명의 일 실시예에 따른 주변시 훈련 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자동차의 운전장치 및 계기를 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.
도 3은 본 발명의 일 실시예에 따른 도로의 교통 표지판을 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.
도 4는 본 발명의 일 실시예에 따른 자동차의 경로 맵을 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.
도 5는 본 발명의 일 실시예에 따른 특정 문자를 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.
도 6은 본 발명의 일 실시예에 따른 사용자의 주변시 지각능력을 결과 데이터로 출력한 화면을 도시한다.
도 7은 본 발명의 일 실시예에 따른 주변시 훈련 장치를 이용하여 주변시 훈련 방법의 순서도이다.
1 is a block diagram of a peripheral training device according to an embodiment of the present invention.
FIG. 2 illustrates a method of training a user's peripheral vision using a driving device and an instrument of a vehicle according to an embodiment of the present invention as an object to be perceived.
3 illustrates a method of training a user's peripheral vision using a traffic sign on a road as a perceptual target object according to an exemplary embodiment of the present invention.
4 illustrates a method of training a user's peripheral vision using a route map of a vehicle as a perceptual target object according to an exemplary embodiment of the present invention.
5 illustrates a method of training a user's peripheral vision using a specific character as a perceptual target object according to an exemplary embodiment of the present invention.
FIG. 6 illustrates a screen outputting peripheral perception ability of a user as result data according to an exemplary embodiment.
7 is a flowchart illustrating a method for training peripheral vision using the peripheral vision training apparatus according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 주변시 훈련 장치의 블록도이다.1 is a block diagram of a peripheral training device according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 주변시 훈련 장치(100)는 그래픽 처리부(110), 객체 표시부(120), 객체 이동부(130), 데이터 입력부(140), 주변시 지각능력 측정부(150), 평가 결과 산출부(160), 실행 제어부(170) 및 데이터 저장부(180)를 포함한다. 본 발명의 실시예에서 교통수단은 자동차, 항공기, 배, 기차 등의 운전 가능한 모든 수단을 포함할 수 있으며, 이하에서는 자동차를 예로 들어 설명하기로 한다.As shown in FIG. 1, the peripheral vision training apparatus 100 may include a graphic processor 110, an object display unit 120, an object moving unit 130, a data input unit 140, and a peripheral vision perception measuring unit 150. And an evaluation result calculator 160, an execution controller 170, and a data storage unit 180. In the exemplary embodiment of the present invention, the transportation means may include all means capable of driving such as a car, an aircraft, a ship, a train, and the like.

그래픽 처리부(110)는 주변시 훈련을 위한 가상 환경을 시뮬레이션한다. 예컨대, 그래픽 처리부(110)는 운전자(이하, “사용자”라 함)에 의해 선택되거나 기 설정된 훈련 레벨(이하, “레벨”이라 함)에 따라 일정 형태로 배치된 하나 이상의 디스플레이 화면(이하, “화면”이라 함)에 사용자의 주변시 훈련을 위한 가상 환경을 시뮬레이션한다. The graphic processor 110 simulates a virtual environment for training around. For example, the graphic processor 110 may include one or more display screens (hereinafter, “selected” by the driver (hereinafter referred to as “user”) or arranged in a predetermined form according to a preset training level (hereinafter referred to as “level”). Screen ”) to simulate a virtual environment for training the user's surroundings.

이때, 그래픽 처리부(110)는 화면에 위치한 사용자를 중심으로 교통수단을 운전 또는 운항하는 가상 환경을 시뮬레이션할 수 있다. 시뮬레이션되는 가상 환경에는 교통수단의 구조(룸 미러, 사이드 미러, 계기, 운전장치 등) 및 교통 상황(도로상태, 코스, 보행자 등)에 대한 이미지가 표시될 수 있다. 여기서, 가상 환경에 교통수단의 구조가 그래픽 처리되어 표시될 경우, 물리적인 운전석 등의 장치가 구비되지 않을 수 있다.In this case, the graphic processor 110 may simulate a virtual environment in which a vehicle is driven or operated based on a user located on the screen. In the simulated virtual environment, an image of the structure of the vehicle (room mirror, side mirror, instrument, driving device, etc.) and the traffic situation (road condition, course, pedestrian, etc.) may be displayed. Here, when the structure of the transportation means is displayed graphically in the virtual environment, a device such as a physical driver's seat may not be provided.

보다 구체적으로, 그래픽 처리부(110)는 교통수단에 따라 운전(예컨대, 차량의 경우 운전이라 함) 또는 운항(예컨대, 항공기의 경우 운항이라 함) 상황에 대한 가상 환경을 화면에 시뮬레이션하되, 교통수단의 형태에 따라 화면을 둘 이상으로 분할하여 가상 환경을 시뮬레이션할 수 있다. 여기서, 교통수단의 형태는 교통수단의 종류에 따라 다르다. 예컨대, 자동차와 기차의 경우 내부 형태가 서로 다르므로, 그에 따라 분할된 화면에 가상 환경이 시뮬레이션될 수 있다. 상술한 화면은 물리적으로 분할된 형태로 미리 제작된 화면이거나, 그래픽 처리부(110)에 의해 논리적으로 분할된 형태의 그래픽 처리된 화면일 수 있다.More specifically, the graphic processor 110 simulates a virtual environment on a screen of driving (eg, driving in a vehicle) or navigation (eg, in the case of an aircraft) according to a transportation method on a screen. Depending on the shape of the screen can be divided into two or more to simulate the virtual environment. Here, the type of transportation depends on the type of transportation. For example, since a car and a train have different internal shapes, a virtual environment may be simulated on a divided screen. The above-described screen may be a screen previously produced in a physically divided form or may be a graphically processed screen in a form logically divided by the graphic processor 110.

객체 표시부(120)는 화면에 지각 대상 객체를 표시한다. 이때, 객체 표시부(120)는 하나 이상의 지각 대상 객체를 임계시간 동안 화면에 표시할 수 있다. 여기서, 지각 대상 객체는 교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함할 수 있다. 또한, 지각 대상 객체는 상술한 계기, 운전장치 등의 교통수단 내부의 객체 및 보행자, 교통표지판 등의 교통수단 외부의 객체를 모두 포함할 수 있다.The object display unit 120 displays the perceptual target object on the screen. In this case, the object display unit 120 may display one or more perceptual target objects on the screen for a threshold time. Here, the perceptual target object may include at least one of a gauge of a vehicle, a driving device, a traffic sign, a route map, and a specific character. In addition, the object to be perceived may include all of the objects inside the means of transportation, such as the above-described instrument, driving device, and objects outside the means of transportation, such as pedestrians, traffic signs.

예컨대, 자동차의 운전장치는 룸 미러, 사이드(도어) 미러, 펜더 미러, 방향지시기 레버, 핸들, 경음기 스위치, 변속 레버, 핸드 브레이크 레버, 브레이크 페달, 가속 페달 등을 포함한다. 그리고, 자동차의 계기는 속도계, 연료계기, 적산 거리계, 구간 거리계, 타코미터, 냉각도 온도 계기, 방향전환 표시등, 도어 경고등, 시트벨트 경고등, 브레이크 경고등, 연료잔량 경고등, 충전 경고등, 오일압력 경고등, 상향 표시등 등을 포함한다. For example, a driving device of a vehicle includes a room mirror, a side (door) mirror, a fender mirror, a direction indicating lever, a steering wheel, a horn switch, a shift lever, a hand brake lever, a brake pedal, an accelerator pedal, and the like. The vehicle gauges include speedometer, fuel gauge, totalizer, rangefinder, tachometer, coolant temperature gauge, turn indicator, door warning lamp, seat belt warning lamp, brake warning lamp, fuel level warning lamp, charging warning lamp, oil pressure warning lamp, Upward indicator light.

여기서, 객체 표시부(120)는 하기 도 2와 같이 지각 대상 객체의 테두리 색상, 굵기 등을 다른 객체와 다르게 표시하거나, 특수 효과(하이라이트 등)를 부여하는 방법으로 사용자가 지각 대상 객체를 인식할 수 있도록 화면에 표시할 수 있다. 또한, 객체 표시부(120)는 하기 도 3 및 도 4와 같이 지각 대상 객체를 화면에 오버랩(overlap)시켜 표시하거나, 하기 도 5와 같이 지각 대상 객체로서 특정 문자를 화면 전체를 배경으로 하여 표시할 수 있다.Here, the object display unit 120 may display the edge color and thickness of the perceptual target object differently from other objects as shown in FIG. 2 or give a special effect (highlight, etc.) to recognize the perceptual target object. Can be displayed on the screen. In addition, the object display unit 120 overlaps the perceptual target object on the screen as shown in FIGS. 3 and 4, or displays a specific character as the perceptual target object as the background of the entire screen as shown in FIG. 5. Can be.

객체 이동부(130)는 화면상에서 지각 대상 객체를 이동시킨다. 예컨대, 객체 이동부(130)는 설정된 임계시간 또는 레벨에 따라 설정된 기준점을 기준으로 지각 대상 객체를 시야각이 커지는 방향으로 화면상에서 이동시킬 수 있다. The object moving unit 130 moves the perceptual target object on the screen. For example, the object moving unit 130 may move the perceptual target object on the screen in a direction in which the viewing angle is increased based on the reference point set according to the set threshold time or level.

데이터 입력부(140)는 외부장치로부터 데이터 입력을 수신하여 처리한다. 예컨대 데이터 입력부(140)는 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 수행된 입력수단의 입력 데이터를 수신한다. 여기서, 입력수단에 의한 입력 형태는 키보드 등에 의한 키 입력 및 손가락 등에 의한 터치 입력 형태를 포함할 수 있다. 즉, 사용자가 화면에 표시된 지각 대상 객체에 대해 키 입력을 수행한 경우, 데이터 입력부(140)는 키 입력에 의한 입력 데이터를 수신하여 하기 주변시 지각능력 측정부(150)로 제공할 수 있다.The data input unit 140 receives and processes data input from an external device. For example, the data input unit 140 receives input data of input means performed on a screen for displaying a perceptual target object or a perceptual target object. Here, the input form by the input means may include a key input by a keyboard or the like and a touch input form by a finger or the like. That is, when the user performs a key input on the perceptual target object displayed on the screen, the data input unit 140 may receive the input data by the key input and provide it to the perceptual ability measuring unit 150 at the following periphery.

주변시 지각능력 측정부(150)는 데이터 입력부(140)로부터 입력수단에 의해 입력된 데이터를 수신하면, 지각 대상 객체와 동일 또는 유사한 객체를 포함하는 선다형의 문제를 화면에 표시하고, 표시된 문제에 대해 입력수단에 의해 입력된 정답의 정확도를 기초로 사용자의 주변시 지각능력을 측정할 수 있다. 이에 대해서는 도 2에서 구체적으로 후술하기로 한다.Peripheral perception ability measurement unit 150 receives the data input by the input means from the data input unit 140, and displays a multiple-choice problem that includes the same or similar objects as the perceptual target object on the screen, The perceptual perception of the user may be measured based on the accuracy of the correct answer inputted by the input means. This will be described in detail later with reference to FIG. 2.

또한, 주변시 지각능력 측정부(150)는 지각 대상 객체에 대응되는 목표물이 화면에 표시된 시점과 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 수행된 입력수단에 의한 사용자의 반응 시점을 비교하여 사용자의 주변시 지각능력을 측정할 수 있다. 이때, 키, 마우스 및 터치 등의 입력 방법에 의해 사용자의 반응 시점이 초 단위로 측정될 수 있다. 이에 대해서는 도 3에서 상세히 후술하기로 한다.In addition, the periphery perception ability measuring unit 150 compares the time when a target corresponding to the perceptual target object is displayed on the screen and the reaction time of the user by the input means performed on the screen on which the perceptual target object or perceptual target object is displayed. The perception ability of the user around can be measured. In this case, the response time of the user may be measured in units of seconds by an input method such as a key, a mouse, and a touch. This will be described later in detail with reference to FIG. 3.

또한, 주변시 지각능력 측정부(150)는 경로 맵에 표시된 운전 또는 운항 경로와 입력수단의 입력 데이터의 정확도를 비교하여 사용자의 주변시 지각능력을 측정할 수 있다. 이에 대해서는 도 4에서 상세히 후술하기로 한다.In addition, the peripheral visual perception capability measuring unit 150 may measure the peripheral visual perception ability of the user by comparing the accuracy of the driving or operating route displayed on the route map with the input data of the input means. This will be described later in detail with reference to FIG. 4.

또한, 주변시 지각능력 측정부(150)는 화면에 표시된 특정 문자와 입력수단에 의해 입력된 데이터를 비교하여 사용자의 주변시 지각능력을 측정할 수 있다. 이에 대해서는 도 5에서 보다 구체적으로 후술하기로 한다.In addition, the peripheral visual perception capability measuring unit 150 may measure the peripheral visual perception ability of the user by comparing the specific characters displayed on the screen with data input by the input means. This will be described later in more detail with reference to FIG. 5.

또한, 다른 실시 예에서 주변시 지각능력 측정부(150)는 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 수행된 입력수단의 입력 데이터를 수신한 경우, 색상만으로 이루어진 선다형 문제를 화면에 표시할 수 있다. 즉, 지각 대상 객체가 사이드 미러이고, 해당 사이드 미러가 노란색 테두리로 표시된 경우, 사용자가 입력수단에 의해 임의의 키를 클릭하면, 주변시 지각능력 측정부(150)는 노란색을 포함한 다양한 색상을 선다형 문제로 화면에 표시하여 사용자가 선택하도록 할 수 있다. 이를 통해 색상을 이용한 주변시 훈련 및 측정이 이루어질 수 있다.In addition, in another embodiment, when the perceptual perception capability measuring unit 150 receives input data of the input means performed on the screen on which the perceptual target object or perceptual target object is displayed, the multiple-choice problem consisting only of colors may be displayed on the screen. Can be. That is, when the perceptual target object is a side mirror and the corresponding side mirror is displayed with a yellow border, when the user clicks an arbitrary key by the input means, the perceptual perception measuring unit 150 selects various colors including yellow. The problem can be displayed on the screen so that the user can make a selection. This allows for training and measurement of ambient vision using color.

평가 결과 산출부(160)는 사용자의 주변시 지각능력의 측정 결과를 결과 데이터로 화면에 출력한다. 이때, 평가 결과 산출부(160)는 사용자의 주변시 지각능력의 측정 결과를 다양한 그래프 형태 및 유형별로 분류하여 화면에 출력함으로써, 사용자가 객관적으로 자신의 주변시 지각능력을 확인할 수 있도록 할 수 있다.The evaluation result calculator 160 outputs the measurement result of the user's peripheral visual perception ability as the result data on the screen. In this case, the evaluation result calculator 160 may classify the measurement results of the user's peripheral visual perception ability by various graph types and types and output them on the screen, so that the user can objectively check his or her peripheral visual perception ability. .

또한, 평가 결과 산출부(160)는 측정된 사용자의 주변시 지각능력을 기초로 사용자의 레벨을 재 산출할 수 있다. 이를 통해, 사용자는 자신의 주변시 지각능력에 따라 맞춤형 주변시 훈련을 제공받을 수 있다. 이에 대해서는 도 6에서 후술하기로 한다.In addition, the evaluation result calculator 160 may recalculate the level of the user based on the measured peripheral visual perception ability of the user. Through this, the user may be provided with a customized peripheral vision training according to his / her peripheral vision perception ability. This will be described later with reference to FIG. 6.

실행 제어부(170)는 주변시 훈련 프로그램을 실행시킨다. 예컨대, 실행 제어부(170)는 설정된 레벨 또는 사용자의 선택에 대응되는 주변시 훈련 프로그램을 실행시킬 수 있다. 또한, 실행 제어부(170)는 평가 결과 산출부(160)에 의해 재 산출된 사용자의 주변시 지각능력의 평가 결과에 따라 다음 레벨의 주변시 훈련 프로그램을 실행시킬 수 있다. The execution control unit 170 executes a training program around. For example, the execution control unit 170 may execute a training program around the periphery corresponding to the set level or the user's selection. In addition, the execution control unit 170 may execute the next level of peripheral training program according to the evaluation result of the user's peripheral visual perception ability recalculated by the evaluation result calculating unit 160.

또한, 실행 제어부(170)는 객체 이동부(130)에 의해 화면상에서 이동하는 지각 대상 객체의 시야각의 크기가 임계치를 초과한 경우 현 레벨의 주변시 훈련 프로그램을 종료시키고 다음 레벨의 주변시 훈련 프로그램을 실행시킬 수 있다. 또한, 내부 알고리즘에 따라 현 레벨의 프로그램이 종료되면 다음 레벨의 프로그램을 실행시킬 수도 있음은 당연하다.In addition, the execution control unit 170 terminates the peripheral training program of the current level when the viewing angle of the perceptual target object moving on the screen by the object moving unit 130 exceeds the threshold and the peripheral training program of the next level. You can run In addition, according to the internal algorithm, it is natural that the program of the next level may be executed when the program of the current level is terminated.

데이터 저장부(180)는 사용자 주변시 훈련에 필요한 각종 데이터, 프로그램 및 알고리즘을 저장한다. 또한, 데이터 저장부(180)는 사용자의 주변시 지각능력 및 각종 설정 값을 저장할 수 있다.The data storage unit 180 stores various data, programs, and algorithms necessary for training around the user. In addition, the data storage unit 180 may store the user's peripheral visual perception ability and various setting values.

이하, 도 2 내지 도 5를 통해 주변시 훈련 과정에 대해서 보다 구체적으로 설명하기로 한다. 이때, 도 2 내지 도 5는 설정된 레벨 및 알고리즘에 따라 순차적으로 실행될 수 있다. 그리고, 본 발명의 일 실시예를 통해 주변시 훈련이 이루어질 경우, 실제 교통수단과 동일 또는 유사한 환경의 물리적인 내부 구조(예컨대 운전 좌석, 계기판, 가속페달, 브레이크, 클러치, 핸드 브레이크, 핸들 등)가 구비되지 않을 수 있다. 이 경우, 사용자는 간단한 키 조작으로 시뮬레이션되는 가상 환경에서 교통수단을 운전하거나 주변시 훈련을 수행할 수 있다.Hereinafter, the training process around the surroundings will be described in more detail with reference to FIGS. 2 to 5. 2 to 5 may be executed sequentially according to the set level and algorithm. In addition, when the peripheral training is carried out through an embodiment of the present invention, the physical internal structure of the same or similar environment as the actual transportation means (for example, a driving seat, a dashboard, an accelerator pedal, a brake, a clutch, a hand brake, a handle, etc.) May not be provided. In this case, the user may drive a vehicle or perform a training around when in a virtual environment simulated by simple key manipulation.

도 2는 본 발명의 일 실시예에 따른 자동차의 운전장치 및 계기를 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.FIG. 2 illustrates a method of training a user's peripheral vision using a driving device and an instrument of a vehicle according to an embodiment of the present invention as an object to be perceived.

도 2에 도시된 바와 같이, 자동차의 내부 형태에 따라 둘 이상으로 분할된 화면(이하, “화면”이라 함)(202)에 자동차의 운전 상황에 대한 가상 환경이 시뮬레이션된다. 이때, 시뮬레이션되는 가상 환경은 자동차 내부 구조 및 자동차 외부의 교통 상황을 포함할 수 있다. As shown in FIG. 2, a virtual environment of a driving situation of a vehicle is simulated on a screen divided into two or more (hereinafter, referred to as “screens”) 202 according to the internal shape of the vehicle. In this case, the simulated virtual environment may include a vehicle internal structure and a traffic situation outside the vehicle.

또한, 자동차의 계기 및 운전장치가 지각 대상 객체로 화면(202)에 표시되어 사용자의 주변시 지각능력을 훈련 및 측정하는 데에 사용될 수 있다. 여기서, 자동차의 계기는 속도계, 연료계기, 적산 거리계, 구간 거리계, 타코미터 등을 포함할 수 있으며, 운전장치는 룸 미러, 사이드(도어), 방향지시기 레버, 핸들 등을 포함할 수 있다. In addition, the instrument and the driving device of the vehicle is displayed on the screen 202 as a perceptual target object may be used to train and measure the perception ability of the user around. Here, the instrument of the vehicle may include a speedometer, a fuel gauge, an integrated rangefinder, a section rangefinder, a tachometer, and the like, and the driving apparatus may include a room mirror, a side (door), a direction indicator lever, a handle, and the like.

만약, 항공기의 운항 상황에서 주변시 훈련이 이루어질 경우에는 항공기의 내부 형태에 따라 분할된 화면(202)에 항공기의 운항 상황에 대한 가상 환경이 시뮬레이션되고, 항공기의 운항 장치 및 계기들이 지각 대상 객체로 화면(202)에 표시될 수 있다.If the training is performed in the surroundings of the aircraft, the virtual environment of the aircraft's operating situation is simulated on the divided screen 202 according to the internal form of the aircraft, and the aircraft's navigation devices and instruments are used as the target object. May be displayed on screen 202.

예컨대, 자동차의 속도계(204)가 지각 대상 객체로서 다른 객체와 구별되게 임계시간 동안 표시되면, 사용자는 키 입력을 통해 자신이 해당 지각 대상 객체 즉, 속도계(204)를 인식하였다는 사실을 알린다. 사용자는 키 입력뿐 아니라, 지각 대상 객체가 표시된 화면을 직접 터치하는 방법으로 반응할 수 있다. 이때, 해당 속도계(204)를 포함하는 선다형의 문제가 화면(202)에 표시될 수 있으며, 사용자는 표시된 이미지 중 자신이 인식한 속도계(204)를 키 입력을 통해 선택할 수 있다.For example, if the speedometer 204 of a vehicle is displayed for a threshold time to be distinguished from other objects as a perceptual target object, the user informs that he / she has recognized the perceptual target object, that is, the speedometer 204, through a key input. In addition to key input, the user may react by directly touching a screen on which a perceptual target object is displayed. At this time, the multiple-choice problem including the speedometer 204 may be displayed on the screen 202, and the user may select the speedometer 204 recognized by the user from a displayed image through key input.

예컨대, 선다형의 문제에는 속도계(204)와 색상만 달리한 유사한 객체들이 표시될 수 있으며, 사용자가 인식한 동일한 속도계(204)가 선다형의 문제에 없을 경우에는 가장 유사한 객체가 정답으로 채택될 수 있다. 이후, 룸 미러(206), 사이드 미러(208) 등이 지각 대상 객체로 사용되어 사용자의 주변시 훈련 및 주변시 지각능력 측정에 이용될 수 있다. 그리고, 정답 개수 및 정확도에 따라 사용자의 주변시 지각능력에 대한 평가가 이루어질 수 있다.For example, the multiple choice problem may display similar objects that differ only in color from the speedometer 204. If the same speedometer 204 recognized by the user is not present in the multiple choice problem, the most similar object may be adopted as the correct answer. . Subsequently, the room mirror 206, the side mirror 208, and the like may be used as the perceptual target object and used to train the user around the periphery and measure the perception of the periphery. In addition, the user may be evaluated for perception of peripheral vision according to the number and accuracy of answers.

도 3은 본 발명의 일 실시예에 따른 도로의 교통 표지판을 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.3 illustrates a method of training a user's peripheral vision using a traffic sign on a road as a perceptual target object according to an exemplary embodiment of the present invention.

도 3에 도시된 바와 같이, 주변시 훈련 시작 전 또는 주변시 훈련 도중에 도로의 교통 표지판(210)이 지각 대상 객체로 화면(202)에 표시된다. 이때, 임계시간 후에 교통 표지판(210)은 일정 크기로 줄어든 채 화면(202)에 계속 표시되거나 완전히 사라질 수 있다. 그리고, 사용자는 정면을 응시하면서 키 조작을 통해 시뮬레이션되는 도로의 형태에 따라 운전을 하면서 주변시를 사용해 교통 표지판(210)에 대응되는 목표물이 화면(202)에 나타나면, 키(예컨대 스페이스바) 입력을 통해 자신이 지각 대상 객체를 인식하였음을 알릴 수 있다. As shown in FIG. 3, a traffic sign 210 of a road is displayed on the screen 202 as a perceptual target object before the start of a peripheral time training or during a peripheral time training. In this case, after the threshold time, the traffic sign 210 may be continuously displayed or completely disappeared on the screen 202 while being reduced to a predetermined size. Then, when the user gazes at the front and a target corresponding to the traffic sign 210 is displayed on the screen 202 by using the surrounding vision while driving according to the shape of the road simulated by the key manipulation, a key (for example, a space bar) is input. Through this, it can inform that it has recognized the perceptual target object.

이와 같이, 지각 대상 객체에 대응되는 목표물이 화면(202)에 표시된 시점과 지각 대상 객체에 대해 반응한 시점을 비교하여 사용자의 주변시 지각능력을 측정할 수 있다. 이때, 사용자는 키 입력뿐 아니라, 지각 대상 객체가 표시된 화면을 직접 터치하는 방법으로 반응할 수 있으며, 사용자의 반응 시점이 목표물이 화면(202)에 표시된 시점과 가까울수록 주변시 지각능력에 대한 좋은 평가를 얻을 수 있다.As described above, the perception of the user's peripheral vision may be measured by comparing a time point corresponding to the perceptual target object with the time point displayed on the screen 202 and the response time with respect to the perceptual target object. In this case, the user may respond by directly touching the screen on which the perceptual target object is displayed, as well as key input, and the closer the response time of the user is to the time when the target is displayed on the screen 202, the better the perception of the peripheral vision. Evaluation can be obtained.

또한, 주변시 훈련 도중에 교통 표지판(210)뿐만 아니라 다양한 지각 대상 객체가 화면(202)에 표시되면서 사용자의 주변시 지각능력에 대한 측정이 이루어질 수도 있음은 당연하다.In addition, it is natural that various perceptual target objects are displayed on the screen 202 as well as the traffic sign 210 during the periphery training.

도 4는 본 발명의 일 실시예에 따른 자동차의 경로 맵을 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.FIG. 4 illustrates a method of training a user's peripheral vision using a route map of a vehicle as a perceptual target object according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 경로 맵(212)이 지각 대상 객체로 표시된 경우, 사용자는 경로 맵(212)에 표시된 경로를 주변시로 인식하면서 키 입력을 수행할 수 있다. 이때, 키보드의 방향키 또는 다양한 입력 수단(마우스, 스틱, 핸들 등)을 통해 운전을 수행할 수 있으며, 경로 맵(212)에 표시된 경로와 입력수단에 의해 입력된 데이터를 비교하여 정확도에 따라 사용자의 주변시 지각능력이 측정될 수 있다. 예컨대, 경로 맵(212)에 표시된 경로에서 벗어난 인도 침범, 중앙선 침범 등의 경로 이탈 횟수는 사용자의 주변시 지각능력의 측정값에서 차감되는 인자로 작용할 수 있다.As illustrated in FIG. 4, when the path map 212 is displayed as the perceptual target object, the user may perform key input while recognizing the path displayed on the path map 212 as the peripheral time. In this case, driving may be performed through a direction key of the keyboard or various input means (mouse, stick, handle, etc.), and the path displayed on the route map 212 may be compared with data input by the input means according to the accuracy of the user. Peripheral perception can be measured. For example, the number of path departures, such as a sidewalk violation, a centerline violation, and the like, which deviate from the path displayed on the path map 212, may act as a factor that is subtracted from the measured value of the perceptual ability of the user.

그리고, 레벨 또는 설정된 임계시간에 따라 시야각이 커지는 방향으로 경로 맵(212)이 화면(202)상에서 이동될 수 있다. 즉, 주변시 훈련 초기에 화면(202) 중앙에 위치한 경로 맵(212)이 훈련이 진행됨에 따라 점차적으로 시야각이 커지는 방향으로 이동됨으로써 사용자의 주변시 훈련 효과를 높이 수 있게 된다. 이때, 화면(202)에 위치한 경로 맵(212)의 시야각의 크기가 임계치를 초과한 경우 현 레벨의 프로그램이 종료되고 다음 레벨의 프로그램이 자동으로 실행될 수 있다.In addition, the path map 212 may be moved on the screen 202 in a direction in which the viewing angle increases according to a level or a set threshold time. That is, as the path map 212 located at the center of the screen 202 is initially moved around as the training proceeds, the path angle 212 is gradually moved in a direction in which the viewing angle increases, thereby increasing the training effect of the user around. At this time, when the size of the viewing angle of the route map 212 located on the screen 202 exceeds the threshold, the program of the current level is terminated and the program of the next level may be automatically executed.

도 5는 본 발명의 일 실시예에 따른 특정 문자를 지각 대상 객체로 하여 사용자의 주변시를 훈련하는 방법을 도시한다.5 illustrates a method of training a user's peripheral vision using a specific character as a perceptual target object according to an exemplary embodiment of the present invention.

화면(202)에 특정 문자가 지각 대상 객체로 표시된 경우, 사용자는 특정 문자를 주변시로 인식하면서 키 입력을 수행하게 된다. 이때, 특정 문자와 입력수단에 의해 입력된 데이터를 비교하여 정확도에 따라 사용자의 주변시 지각능력이 측정될 수 있다.When a specific character is displayed on the screen 202 as an object to be perceived, the user performs a key input while recognizing the specific character as a peripheral vision. At this time, the perception ability of the user around the user can be measured according to the accuracy by comparing the specific character and the data input by the input means.

예컨대, 도 5에 도시된 바와 같이, 화면(202)에 표시된 기준 객체(216)로부터 일정 거리만큼 떨어진 위치에 0~9까지의 숫자(214)가 지각 대상 객체로 랜덤하게 표시될 수 있다. 사용자는 해당 숫자(214)를 주변시로 인식하면서 키 입력을 수행할 수 있으며, 입력된 데이터의 정확도를 기초로 사용자의 주변시 지각능력이 측정될 수 있다. 여기서, 레벨 또는 설정된 임계시간에 따라 시야각이 커지는 방향으로 숫자(214)가 이동할 수 있다.For example, as illustrated in FIG. 5, a number 214 of 0 to 9 may be randomly displayed as a perceptual target object at a position separated by a predetermined distance from the reference object 216 displayed on the screen 202. The user may perform key input while recognizing the corresponding number 214 as the peripheral time, and the perceptual perception of the user may be measured based on the accuracy of the input data. Here, the number 214 may move in the direction of increasing the viewing angle according to the level or the set threshold time.

또한, 다른 실시 예에서 화면에 표시된 숫자(214)가 사라진 이후, 사용자가 임의의 키 입력을 수행하거나 임계시간이 지나면, 화면(202)에 선다형 문제로 숫자들이 표시될 수 있다. 이때, 화면(202)에 표시된 숫자 중에서 해당 숫자(214)와 동일한 숫자를 선택하는 방식으로 주변시 훈련 및 측정이 이루어질 수 있다.In addition, in another embodiment, after the number 214 displayed on the screen disappears, if the user performs an arbitrary key input or a threshold time elapses, the numbers may be displayed on the screen 202 due to multiple choice problems. In this case, training and measurement may be performed in the vicinity by selecting the same number as the corresponding number 214 among the numbers displayed on the screen 202.

도 6은 본 발명의 일 실시예에 따른 사용자의 주변시 지각능력을 결과 데이터로 출력한 화면을 도시한다.FIG. 6 illustrates a screen outputting peripheral perception ability of a user as result data according to an exemplary embodiment.

도 6에 도시된 바와 같이, 사용자의 주변시 지각능력에 대한 측정 결과 데이터가 화면에 출력될 수 있다. 이때, 실행한 훈련 결과와 데이터베이스에 저장된 이전의 훈련 기록이 그래프 형태로 화면에 출력될 수 있다. 여기서, 반응시간은 초(sec) 단위로, 입력 데이터의 정확도는 백분율(%)로, 시야각은 도(°)로 표시될 수 있으며, 각 훈련 레벨별로 출력되는 항목이 다를 수 있다. As illustrated in FIG. 6, measurement result data regarding the perception ability of the user around the user may be output on the screen. In this case, the executed training result and the previous training record stored in the database may be output on the screen in the form of a graph. Here, the response time may be expressed in seconds, the accuracy of the input data may be expressed as a percentage (%), the viewing angle may be expressed in degrees (°), and the items outputted for each training level may be different.

또한, 출력 항목에는 사용자의 이름, 나이와 훈련한 날짜, 훈련한 일수와 시간 등이 포함되어 표시될 수 있으며, 각 개인마다 자신의 주변시 훈련 기록을 확인할 수 있어 개인화된 맞춤형 훈련을 제공받을 수 있다. 또한 당일의 훈련 결과는 평균하여 점수가 매겨지므로 사용자가 알기 쉽게 자신의 주변시 훈련 상황을 파악할 수 있다. In addition, the output items can be displayed including the user's name, age and training date, days and hours of training, and each individual can check his / her surrounding training records to receive personalized customized training. have. In addition, the training results of the day are averaged, so that the user can easily understand the situation of the training around them.

또한, 시야각, 사용자의 반응 시간 및 정확도 등에 따라 점수 비율이 다르게 적용될 수 있으며, 사용자의 주변시 지각능력에 대한 측정 결과를 기초로 훈련 레벨에 대한 재 산출(평가)이 이루어질 수 있다. 이와 같이, 측정 결과를 기초로 각 사용자에게 적합한 맞춤형 관리가 이루어질 수 있다.In addition, the score ratio may be differently applied according to the viewing angle, the response time and the accuracy of the user, and the training level may be recalculated (evaluated) based on the measurement result of the user's peripheral visual perception ability. In this way, a customized management suitable for each user can be made based on the measurement result.

도 7은 본 발명의 일 실시예에 따른 주변시 훈련 장치(100)를 이용하여 주변시 훈련 방법의 순서도이다.7 is a flowchart illustrating a method of training peripheral vision using the peripheral training apparatus 100 according to an embodiment of the present invention.

주변시 훈련 장치(100)가 하나 이상의 화면에 시뮬레이션되는 사용자의 주변시 훈련을 위한 가상 환경에 지각 대상 객체를 표시한다(S701). 지각 대상 객체는 교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함할 수 있다. 또한, 지각 대상 객체는 설정된 임계시간 또는 레벨을 기초로 시야각이 커지는 방향으로 화면상에서 이동될 수 있다. 이때, 교통수단의 운전 또는 운항 상황에 대한 가상 환경을 화면에 시뮬레이션하되, 교통수단의 형태에 따라 화면을 둘 이상으로 분할하여 가상 환경을 시뮬레이션할 수 있다. The peripheral training apparatus 100 displays the perceptual target object in a virtual environment for training the peripheral vision of the user simulated on at least one screen (S701). The perceptual target object may include at least one of a vehicle, a driving device, a traffic sign, a route map, and a specific character of a vehicle. Also, the perceptual target object may be moved on the screen in a direction in which the viewing angle is increased based on the set threshold time or level. At this time, while simulating a virtual environment of the driving or operating situation of the vehicle on the screen, the virtual environment can be simulated by dividing the screen into two or more according to the type of transportation.

다음으로, 주변시 훈련 장치(100)가 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 수행된 입력수단의 입력 데이터를 수신한다(S711).Next, the peripheral training apparatus 100 receives the input data of the input means performed on the screen on which the perceptual target object or the perceptual target object is displayed (S711).

다음으로, 주변시 훈련 장치(100)가 입력된 데이터를 기초로 지각 대상 객체에 대한 사용자의 주변시 지각능력을 측정한다(S721).Next, the peripheral visual training apparatus 100 measures the peripheral visual perception ability of the user with respect to the perceptual target object based on the input data (S721).

이때, 설정된 레벨에 따라 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 입력수단에 의한 데이터 입력이 이루어진 경우, 지각 대상 객체와 동일 또는 유사한 객체를 포함하는 선다형의 문제를 화면에 표시하고, 표시된 문제에 대해 입력수단에 의해 입력된 정답의 정확도를 기초로 사용자의 주변시 지각능력을 측정할 수 있다.In this case, when data input by the input means is input to the screen on which the perceptual target object or the perceptual target object is displayed according to the set level, a multiple-choice problem including the same or similar object as the perceptual target object is displayed on the screen, and the displayed problem The perceptual perception of the user may be measured based on the accuracy of the correct answer inputted by the input means.

또한, 지각 대상 객체에 대응되는 목표물이 화면에 표시된 시점과 지각 대상 객체 또는 지각 대상 객체가 표시된 화면에 대해 입력수단에 의한 사용자의 반응 시점을 비교하여 사용자의 주변시 지각능력을 측정할 수 있다.In addition, a user's perceptual perception ability may be measured by comparing a user's response time by an input means with respect to a time point at which a target corresponding to the perceptible target object is displayed on the screen and a screen displaying the perceptual target object or perceptual target object.

또한, 경로 맵에 표시된 교통수단의 운전 또는 운항 경로와 입력수단에 의해 입력된 데이터를 비교하여 사용자의 주변시 지각능력을 측정하거나, 화면에 표시된 특정 문자와 입력수단에 의해 입력된 데이터를 비교하여 사용자의 주변시 지각능력을 측정할 수 있다.In addition, by comparing the driving or operating route of the transportation means displayed on the route map with the data input by the input means to measure the perception of the user's surroundings, or by comparing the specific characters displayed on the screen with the data input by the input means The perception ability of the user around can be measured.

다음으로, 주변시 훈련 장치(100)가 측정된 사용자의 주변시 지각능력을 결과 데이터로 출력한다(S731).Next, the peripheral training device 100 outputs the measured peripheral visual perception ability of the user as result data (S731).

한편, 본 발명의 다른 실시예에서는 지각 대상 객체의 색상을 달리하면서 색상을 이용한 시야각 훈련 및 측정이 수행될 수 있다. 예컨대, 지각 대상 객체인 숫자가 기 설정된 일곱 색상 중 어느 하나의 색상으로 임의로 표시되되, 50°까지는 10°씩, 70°까지는 5°씩 시야각 각도가 커지면서 화면상에서 이동될 수 있다.Meanwhile, in another embodiment of the present invention, the viewing angle training and measurement using the color may be performed while changing the color of the perceptual target object. For example, the number of the perceptual target object may be arbitrarily displayed in any one of seven preset colors, and may be moved on the screen while the viewing angle is increased by 10 ° up to 50 ° and 5 ° up to 70 °.

이때, 화면에 표시된 숫자가 임계시간 후에 사라지고 사용자가 임의의 키 입력을 수행하거나 임계시간이 지나면, 화면에 선다형으로 색상들이 표시되고, 표시된 숫자 중에서 해당 숫자의 색상과 동일한 것을 선택하는 방식으로 색상을 이용한 주변시 훈련 및 측정이 이루어질 수 있다.At this time, the number displayed on the screen disappears after the threshold time and when the user performs any key input or the threshold time passes, the colors are displayed in multiple forms on the screen, and the color is selected by selecting the same color as the corresponding number among the displayed numbers. Used ambient training and measurements can be made.

도 1에서 도시된 각각의 구성요소는 일종의 '모듈'로 구성될 수 있다. 상기 '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(ASIC, Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 예컨대, 상술한 그래픽 처리부(110) 및 객체 표시부(120)가 하나의 모듈로 결합될 수 있다. 또한, 데이터 입력부(140) 및 주변시 지각능력 측정부(150), 평가 결과 산출부(160) 및 실행 제어부(180)가 각각 하나의 모듈로 결합될 수 있다.Each component illustrated in FIG. 1 may be configured as a kind of 'module'. The term 'module' refers to a hardware component such as software or a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC), and the module performs certain roles. However, a module is not limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. For example, the graphic processor 110 and the object display unit 120 may be combined into one module. In addition, the data input unit 140, the peripheral visual perception capability measuring unit 150, the evaluation result calculating unit 160, and the execution control unit 180 may be combined into one module.

상술된 데이터 저장부(180)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. 데이터 저장부(180)가 하드디스크 드라이브와 같은 저장매체로 구현되는 경우, 데이터 저장부(180)는 복수의 운영체제에 대응하는 논리 영역으로 분할될 수 있으며, 복수의 운영체제는 분할된 논리 영역에 각각 저장될 수 있다. 또는 논리적으로 분할된 복수의 영역 중에서 어느 하나의 영역에 복수의 운영체제가 모두 저장될 수도 있다.The above-described data storage unit 180 may include a nonvolatile memory such as a cache, a read only memory (ROM), a programmable ROM (PROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), and a flash memory. The device may be implemented as at least one of a volatile memory device such as a random access memory (RAM) or a storage medium such as a hard disk drive (HDD) or a CD-ROM. When the data storage unit 180 is implemented as a storage medium such as a hard disk drive, the data storage unit 180 may be divided into logical areas corresponding to a plurality of operating systems, and the plurality of operating systems may be divided into divided logical areas. Can be stored. Alternatively, all of a plurality of operating systems may be stored in any one of a plurality of logically divided areas.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

110: 그래픽 처리부
120: 객체 표시부
130: 객체 이동부
140: 데이터 입력부
150: 주변시 지각능력 측정부
160: 평가 결과 산출부
170: 실행 제어부
180: 데이터 저장부
110: graphics processing unit
120: object display unit
130: object moving unit
140: data input unit
150: periphery perception ability measurement unit
160: evaluation result calculation unit
170: execution control unit
180: data storage unit

Claims (14)

주변시 훈련 장치에 있어서,
기설정된 레벨, 사용자의 선택 및 기측정된 사용자의 주변시 지각 능력의 평가 결과 중 어느 하나에 대응되는 레벨의 주변시 훈련 프로그램을 실행시키는 실행 제어부,
하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경을 시뮬레이션하는 그래픽 처리부,
상기 디스플레이 화면에 지각 대상 객체를 표시하는 객체 표시부,
상기 디스플레이 화면상에서 상기 지각 대상 객체를 이동시키되, 설정된 임계시간 또는 레벨에 따라 설정된 기준점을 기준으로 시야각이 커지는 방향으로 상기 지각 대상 객체를 이동시키는 객체 이동부, 및
상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 기초로 상기 지각 대상 객체에 대한 주변시 지각능력을 측정하는 주변시 지각능력 측정부를 포함하되,
상기 실행 제어부는,
상기 디스플레이 화면에 위치한 상기 지각 대상 객체의 시야각의 크기가 임계치를 초과한 경우 현 레벨의 주변시 훈련 프로그램을 종료시키고 다음 레벨의 주변시 훈련 프로그램을 실행시키는 주변시 훈련 장치.
In the peripheral training device,
An execution control unit configured to execute a training program for the peripheral training of a level corresponding to any one of a predetermined level, a user's selection, and a result of evaluating the measured peripheral perception ability of the user;
Graphic processing unit for simulating a virtual environment for training the user's surroundings on at least one display screen,
An object display unit displaying an object to be perceived on the display screen;
An object moving unit which moves the perceptual target object on the display screen and moves the perceptual target object in a direction in which a viewing angle increases with respect to a reference point set according to a set threshold time or level;
Peripheral perception ability measurement unit for measuring the perceptual perceptual perception of the perceptual target object based on the input data of the input means performed on the perceptual target object or the display screen on which the perceptual target object is displayed,
The execution control unit,
And a peripheral training program of the current level and executing the peripheral training program of the next level when the viewing angle of the perceptual target object located on the display screen exceeds a threshold.
제 1 항에 있어서,
상기 그래픽 처리부는
교통수단의 운전 또는 운항 상황에 대한 가상 환경을 상기 디스플레이 화면에 시뮬레이션하되, 상기 교통수단의 형태에 따라 상기 디스플레이 화면을 둘 이상으로 분할하여 상기 가상 환경을 시뮬레이션하는 것을 특징으로 하는 주변시 훈련 장치.
The method of claim 1,
The graphic processing unit
Simulate a virtual environment for driving or operating conditions of transportation on the display screen, the peripheral screen training apparatus, characterized in that to simulate the virtual environment by dividing the display screen into two or more according to the type of transportation.
삭제delete 제 1 항에 있어서,
상기 주변시 지각능력 측정부는
상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 상기 입력수단에 의한 데이터 입력이 이루어진 경우, 상기 지각 대상 객체와 동일 또는 유사한 객체를 포함하는 선다형의 문제를 상기 디스플레이 화면에 표시하고, 상기 표시된 문제에 대해 상기 입력수단에 의해 입력된 정답의 정확도를 기초로 상기 사용자의 주변시 지각능력을 측정하는 것인 주변시 훈련 장치.
The method of claim 1,
Peripheral perception measurement unit
When data is input by the input means to the perceptual target object or the display screen on which the perceptual target object is displayed, a multiple-choice problem including the same or similar object as the perceptual target object is displayed on the display screen. Peripheral training device for measuring the perceptual perception of the user based on the accuracy of the correct answer input by the input means for the displayed problem.
제 1 항에 있어서,
상기 주변시 지각능력 측정부는
상기 지각 대상 객체에 대응되는 목표물이 상기 디스플레이 화면에 표시된 시점과 상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 상기 입력수단에 의한 사용자의 반응 시점을 비교하여 상기 사용자의 주변시 지각능력을 측정하는 것인 주변시 훈련 장치.
The method of claim 1,
Peripheral perception measurement unit
Peripheral perception ability of the user by comparing a time point at which a target corresponding to the perceptual target object is displayed on the display screen and a reaction time of the user by the input means with respect to the display object on which the perceptual target object or the perceptual target object is displayed. Peripheral training device that will measure.
제 1 항에 있어서,
상기 지각 대상 객체는
교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함하는 것을 특징으로 하는 주변시 훈련 장치.
The method of claim 1,
The perceptual target object
Peripheral training device, characterized in that it comprises at least one of a vehicle instrument, a driving device, a traffic sign, a route map, and certain characters.
제 6 항에 있어서,
상기 주변시 지각능력 측정부는
상기 경로 맵에 표시된 운전 또는 운항 경로와 상기 입력수단에 의해 입력된 데이터를 비교하여 상기 사용자의 주변시 지각능력을 측정하는 것인 주변시 훈련 장치.
The method according to claim 6,
Peripheral perception measurement unit
Peripheral training device for measuring the perception of the peripheral vision of the user by comparing the driving or flight route displayed on the route map with the data input by the input means.
제 6 항에 있어서,
상기 주변시 지각능력 측정부는
상기 디스플레이 화면에 표시된 상기 특정 문자와 상기 입력수단에 의해 입력된 데이터를 비교하여 상기 사용자의 주변시 지각능력을 측정하는 것인 주변시 훈련 장치.
The method according to claim 6,
Peripheral perception measurement unit
Peripheral training device for measuring the perception of the peripheral vision of the user by comparing the data input by the input means with the particular character displayed on the display screen.
삭제delete 주변시 훈련 장치를 이용한 주변시 훈련 방법에 있어서,
(a) 기설정된 레벨, 사용자의 선택 및 기측정된 사용자의 주변시 지각 능력의 평가 결과 중 어느 하나에 대응되는 레벨의 주변시 훈련 프로그램을 실행시켜, 하나 이상의 디스플레이 화면에 사용자의 주변시 훈련을 위한 가상 환경 및 지각 대상 객체를 표시하는 단계,
(b) 상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 수행된 입력수단의 입력 데이터를 수신하는 단계,
(c) 상기 입력된 데이터를 기초로 상기 지각 대상 객체에 대한 사용자의 주변시 지각능력을 측정하는 단계 및
(d) 상기 측정된 사용자의 주변시 지각능력을 결과 데이터로 출력하는 단계를 포함하되,
상기 (a) 단계는,
상기 디스플레이 화면상에서 설정된 임계시간 또는 레벨에 따라 설정된 기준점을 기준으로 시야각이 커지는 방향으로 상기 지각 대상 객체를 이동시키고,
상기 디스플레이 화면에 위치한 상기 지각 대상 객체의 시야각의 크기가 임계치를 초과한 경우 현 레벨의 주변시 훈련 프로그램을 종료시키고 다음 레벨의 주변시 훈련 프로그램을 실행시키는 주변시 훈련 방법.
In the peripheral training method using the peripheral training device,
(a) executing the peripheral training of the user on one or more display screens by executing a peripheral training program having a level corresponding to any one of a preset level, a user's selection, and a measured evaluation result of the user's peripheral perception ability; Displaying the virtual environment and perceptual target object for
(b) receiving input data of input means performed on the perception target object or the display screen on which the perception target object is displayed;
(c) measuring a user's perception of periphery with respect to the perceptual target object based on the input data; and
(d) outputting the measured periphery perception of the user as result data,
The step (a)
Move the perceptual target object in a direction in which a viewing angle increases with respect to a reference point set according to a threshold time or level set on the display screen;
And the peripheral training program of the current level is terminated and the peripheral training program of the next level is executed when the size of the viewing angle of the perceptual target object located on the display screen exceeds a threshold.
제 10 항에 있어서,
상기 (a) 단계는
교통수단의 운전 또는 운항 상황에 대한 상기 가상 환경을 상기 디스플레이 화면에 시뮬레이션하되, 상기 교통수단의 형태에 따라 상기 디스플레이 화면을 둘 이상으로 분할하여 상기 가상 환경을 시뮬레이션하는 단계를 포함하는 주변시 훈련 방법.
11. The method of claim 10,
The step (a)
Simulating the virtual environment for driving or operating conditions of transportation on the display screen, and dividing the display screen into two or more according to the type of transportation to simulate the virtual environment. .
제 10 항에 있어서,
상기 지각 대상 객체는
교통수단의 계기, 운전장치, 교통 표지판, 경로 맵(map) 및 특정 문자 중 하나 이상을 포함하는 것을 특징으로 하는 주변시 훈련 방법.
11. The method of claim 10,
The perceptual target object
A method of training surroundings, characterized in that it comprises at least one of a vehicle instrument, a driving device, a traffic sign, a route map, and certain characters.
제 12 항에 있어서,
상기 (c) 단계는
상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 상기 입력수단에 의한 데이터 입력이 이루어진 경우, 상기 지각 대상 객체와 동일 또는 유사한 객체를 포함하는 선다형의 문제를 상기 디스플레이 화면에 표시하고, 상기 표시된 문제에 대해 상기 입력수단에 의해 입력된 정답의 정확도를 기초로 상기 사용자의 주변시 지각능력을 측정하는 단계,
상기 지각 대상 객체에 대응되는 목표물이 상기 디스플레이 화면에 표시된 시점과 상기 지각 대상 객체 또는 상기 지각 대상 객체가 표시된 디스플레이 화면에 대해 상기 입력수단에 의한 사용자의 반응 시점을 비교하여 상기 사용자의 주변시 지각능력을 측정하는 단계,
상기 경로 맵에 표시된 운전 또는 운항 경로와 상기 입력수단에 의해 입력된 데이터를 비교하여 상기 사용자의 주변시 지각능력을 측정하는 단계 및
상기 디스플레이 화면에 표시된 상기 특정 문자와 상기 입력수단에 의해 입력된 데이터를 비교하여 상기 사용자의 주변시 지각능력을 측정하는 단계 중 하나 이상의 단계를 포함하는 주변시 훈련 방법.
13. The method of claim 12,
The step (c)
When data is input by the input means to the perceptual target object or the display screen on which the perceptual target object is displayed, a multiple-choice problem including the same or similar object as the perceptual target object is displayed on the display screen. Measuring perception of periphery of the user based on the accuracy of the correct answer inputted by the input means for the displayed problem,
Peripheral perception ability of the user by comparing a time point at which a target corresponding to the perceptual target object is displayed on the display screen and a reaction time of the user by the input means with respect to the display object on which the perceptual target object or the perceptual target object is displayed. Measuring step,
Measuring perceptual perception of the user by comparing the driving or navigation route displayed on the route map with data input by the input means;
And at least one of measuring the peripheral visual perception ability of the user by comparing the specific character displayed on the display screen with data input by the input means.
삭제delete
KR1020110025484A 2011-03-22 2011-03-22 Apparatus and method for training peripheral vision KR101242162B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110025484A KR101242162B1 (en) 2011-03-22 2011-03-22 Apparatus and method for training peripheral vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110025484A KR101242162B1 (en) 2011-03-22 2011-03-22 Apparatus and method for training peripheral vision

Publications (2)

Publication Number Publication Date
KR20120107768A KR20120107768A (en) 2012-10-04
KR101242162B1 true KR101242162B1 (en) 2013-03-11

Family

ID=47279638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110025484A KR101242162B1 (en) 2011-03-22 2011-03-22 Apparatus and method for training peripheral vision

Country Status (1)

Country Link
KR (1) KR101242162B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014818A1 (en) * 2020-07-16 2022-01-20 재단법인 아산사회복지재단 Device and method for providing visual perception training using visual perception learning

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102327089B1 (en) * 2020-03-13 2021-11-16 재단법인 아산사회복지재단 Device for providing a visual perceptual training and method using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576573A (en) * 1991-06-25 1993-03-30 Shimadzu Corp Peripheral eyesight training device
JP2007094082A (en) 2005-09-29 2007-04-12 Honda Motor Co Ltd Mobile object simulator system, control method and control program thereof
JP2008292643A (en) * 2007-05-23 2008-12-04 Akita Univ Traffic visual perception capability inspection system using virtual reality technology
KR20090096051A (en) * 2008-03-07 2009-09-10 고려대학교 산학협력단 Driving simulation system and method for controlling tension level, and recording medium used there to

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576573A (en) * 1991-06-25 1993-03-30 Shimadzu Corp Peripheral eyesight training device
JP2007094082A (en) 2005-09-29 2007-04-12 Honda Motor Co Ltd Mobile object simulator system, control method and control program thereof
JP2008292643A (en) * 2007-05-23 2008-12-04 Akita Univ Traffic visual perception capability inspection system using virtual reality technology
KR20090096051A (en) * 2008-03-07 2009-09-10 고려대학교 산학협력단 Driving simulation system and method for controlling tension level, and recording medium used there to

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014818A1 (en) * 2020-07-16 2022-01-20 재단법인 아산사회복지재단 Device and method for providing visual perception training using visual perception learning

Also Published As

Publication number Publication date
KR20120107768A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
US11842653B2 (en) Systems and methods for virtual reality based driver situational awareness recovery training
US11501657B2 (en) Systems and methods for virtual reality based driver training
KR102118438B1 (en) Head up display apparatus for vehicle and method thereof
US10446047B1 (en) Real-time driver observation and scoring for driver'S education
Smith et al. Visual search tasks: the effects of head-up displays on driving and task performance
Francois et al. Digital, analogue, or redundant speedometers for truck driving: Impact on visual distraction, efficiency and usability
Cao et al. Modeling the development of vehicle lateral control skills in a cognitive architecture
CN106663260A (en) Information presentation device, method, and program
Maag et al. Measuring workload effects of augmented reality head-up displays using detection response task
Kennedy et al. Inattentional blindness in a simulated driving task
KR101242162B1 (en) Apparatus and method for training peripheral vision
JP2008203913A (en) Traffic flow simulation apparatus
JP2015045826A (en) Electric wheelchair driver education device
US11875707B2 (en) System, method and apparatus for adaptive driver training
Pampel et al. An investigation of the effects of driver age when using novel navigation systems in a head-up display
JP4841903B2 (en) Driving simulator
JP6401821B1 (en) Operating load estimation device
CN112434573A (en) Method and device for evaluating spatial perception capability of driver
Moniri et al. Incorporating the Driver's Focus of Attention into Automotive Applications in Real Traffic and in Simulator Setups
JP6481596B2 (en) Evaluation support device for vehicle head-up display
US20230215193A1 (en) Sign visibility test system
Van Gent et al. The persuasive automobile: Design and evaluation of a persuasive lane-specific advice human machine interface
Ageev et al. Formation of professional skills the system of driver training
Pyun et al. Point & Select: Designing an Interaction Technique for Inputting Surrounding Point of Interests in Driving Context
Singer et al. Influence of New Signal Lamps for Automated Vehicles on Other Road Users–Can Virtual Reality be Used to Investigate the Behaviour of Pedestrians?

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160113

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181206

Year of fee payment: 6

R401 Registration of restoration
LAPS Lapse due to unpaid annual fee