[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20160076488A - 근골격계 질환의 발생가능성의 판단 장치 및 방법 - Google Patents

근골격계 질환의 발생가능성의 판단 장치 및 방법 Download PDF

Info

Publication number
KR20160076488A
KR20160076488A KR1020150184195A KR20150184195A KR20160076488A KR 20160076488 A KR20160076488 A KR 20160076488A KR 1020150184195 A KR1020150184195 A KR 1020150184195A KR 20150184195 A KR20150184195 A KR 20150184195A KR 20160076488 A KR20160076488 A KR 20160076488A
Authority
KR
South Korea
Prior art keywords
data
occurrence
sensor
musculoskeletal
determining
Prior art date
Application number
KR1020150184195A
Other languages
English (en)
Inventor
이성균
Original Assignee
디게이트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디게이트 주식회사 filed Critical 디게이트 주식회사
Publication of KR20160076488A publication Critical patent/KR20160076488A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rheumatology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)

Abstract

근골격계 질환의 발생가능성의 판단 장치는, 대상체에 부착되는 관성 센서(IMU: Inertial Measurement Unit) 및 상기 대상체의 외부에서 상기 대상체를 촬영하는 3D(Three Dimensional) 센서를 포함하는 감지부; 상기 관성 센서로부터 출력되는 관성 데이터 및 상기 3D 센서로부터 출력되는 3D영상 데이터를 동기화하여 동기화된 데이터를 생성하는 데이터 동기화부; 상기 동기화된 데이터에 기초하여, 상기 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하는 판단부; 및 상기 판단된 결과를 출력하는 사용자 인터페이스;를 포함할 수 있다.
이와 같은 근골격계 질환의 발생가능성의 판단 장치는 및 판단 방법에 의한면, 대상체의 동작 정보를 보다 정확하게 획득할 수 있으며, 대상체의 동작 패턴이나 대상체의 부위에 따라 질환의 발생가능성을 판단하기 위한 방법들을 선택적으로 적용할 수 있다.
또한, 질환의 발생가능성의 판단이 자동화됨에 따라 판단 결과의 객관성 및 신뢰성을 향상시킬 수 있다.

Description

근골격계 질환의 발생가능성의 판단 장치 및 방법{Apparatus and method of measuring the probability of muscular skeletal disease}
본 발명은 근골격계 질환의 발생가능성을 판단하는 장치 및 방법에 관한 것으로, 더욱 구체적으로는 대상체의 신체 부위의 동작 정보를 이용하여, 대상체의 근골격계 질환의 발생 위험성이 있는지 여부를 판단하는 장치와 그 판단 방법에 관한 것이다.
일반적으로 근골격계 질환은 반복적인 동작, 부적절한 작업 자세, 또는 무리한 힘의 사용 등으로 발생하는 건강상의 장애로서, 목, 어깨, 허리, 상·하지의 신경근육 및 그 주변 신체조직 등에 나타나는 질환을 의미하며, 산업안전보건법에서 단순 반복작업 또는 인체에 과도한 부담을 주는 작업에 의한 건강 장애에 대해 이를 예방하기 위한 적절한 조치를 취할 것을 규정하는 등 근골격계 질환 예방에 대한 사회적 비용이 꾸준히 증가하고 있는 현실이다.
근골격계 질환의 예방을 위해서는 근골격계 운동의 위험도 측정 또는 근골격계 질환의 발생가능성을 판단이 선행되어야 하는데, 종래에는 근골격계 질환의 발생가능성을 사람에 의한 작업환경 관찰에 의하여 판단을 하거나, 질환의 증상을 계기로 하여 검진 등을 통하여 판단하여 왔다.
그러나 이는 질환 발생가능성의 판단에 있어 객관적이지 못하거나, 사후적인 치료에 불과하기에 근골격계 질환의 예방에 있어 적합한 수단이 되지 못하는 문제점이 있다.
본 발명은 대상체의 동작에 따른 동작 정보를 획득하고, 이에 기초하여 대상체의 근골격계 질환의 발생가능성을 판단하는 장치 및 판단하는 방법을 제공한다.
상술한 과제를 해결하기 위하여, 다음과 같은 근골격계 질환의 발생가능성 판단 장치 및 방법이 제공된다.
근골격계 질환의 발생가능성의 판단 장치는, 대상체에 부착되는 관성 센서(IMU: Inertial Measurement Unit) 및 대상체의 외부에서 대상체를 촬영하는 3D(Three Dimensional) 센서를 포함하는 감지부; 관성 센서로부터 출력되는 관성 데이터 및 3D 센서로부터 출력되는 3D영상 데이터를 동기화하여 동기화된 데이터를 생성하는 데이터 동기화부; 동기화된 데이터에 기초하여, 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하는 판단부; 및 판단된 결과를 출력하는 사용자 인터페이스; 를 포함할 수 있다.
여기서, 3D 센서는, 이미지 센서, 적외선 센서, 및 초음파 센서 중 적어도 하나를 포함할 수 있다.
또한, 3D영상 데이터는, 색상 영상 및 거리 영상을 포함할 수 있다.
데이터 동기화부는, 관성 데이터에 기초하여 3D영상 데이터를 보정할 수 있다.
이 경우, 데이터 동기화부는, 관성 데이터 및 보정된 후의 3D영상 데이터에 기초하여 동기화된 데이터를 생성할 수 있다.
판단부는, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 이용하여 근골격계 질환의 발생가능성을 판단할 수 있다.
사용자 인터페이스는, 대상체의 동작을 복수의 동작 패턴으로 분류하는 사용자 명령을 입력받을 수 있다.
판단부는, 대상체의 동작이 복수의 동작 패턴으로 분류되는 경우, 동작 패턴에 대응하여 동기화된 데이터를 분류할 수 있다.
이 때, 판단부는, 동작 패턴 각각의 동기화된 데이터에 기초하여, 동작 패턴별로 근골격계 질환의 발생가능성을 판단할 수 있다.
또한, 판단부는, 동작 패턴별로, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용할 수 있다.
사용자 인터페이스는, 동작 패턴 중 적어도 하나의 동작 패턴을 선택하는 사용자 명령을 입력받을 수 있다.
판단부는, 동작 패턴 중 적어도 하나의 동작 패턴이 선택되는 경우, 선택된 동작 패턴의 동기화된 데이터에 기초하여, 선택된 동작 패턴에 대한 근골격계 질환의 발생가능성을 판단할 수 있다.
이 때, 판단부는, 선택된 동작 패턴에 따라, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용할 수 있다.
또한, 사용자 인터페이스는, 대상체를 설정하는 사용자 명령을 입력받을 수도 있다.
판단부는, 대상체의 부위에 따라, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용할 수 있다.
근골격계 질환의 발생가능성의 판단 방법은, 대상체에 부착되는 관성 센서(IMU: Inertial Measurement Unit)의 관성 데이터 및 대상체의 외부에서 대상체를 촬영하는 3D(Three Dimensional) 센서의 3D영상 데이터를 획득하고;
관성 데이터 및 3D영상 데이터를 동기화하여 동기화된 데이터를 생성하고; 동기화된 데이터에 기초하여, 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하고; 및 판단된 결과를 출력하는; 것을 포함할 수 있다.
동기화된 데이터에 기초하여, 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하는 것은, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 이용하여 근골격계 질환의 발생가능성을 판단할 수 있다.
이와 같은 근골격계 질환의 발생가능성 판단 장치 및 판단 방법에 의하면, 대상체의 동작 정보를 보다 정확하게 획득할 수 있으며, 대상체의 동작 패턴이나 대상체의 부위에 따라 질환의 발생가능성을 판단하기 위한 방법들을 선택적으로 적용할 수 있다.
또한, 질환의 발생가능성의 판단이 자동화됨에 따라 판단 결과의 객관성 및 신뢰성을 향상시킬 수 있다.
도 1은 근골격계 질환의 발생가능성의 판단 장치의 일 실시예에 따른 제어 블럭도이다.
도 2 는 사용자 인터페이스를 통한 대상체의 설정을 일 예에 따라 도시한 면이다.
도 3은 사용자 인터페이스를 통한 대상체의 설정을 다른 예에 따라 도시한 도면이다.
도 4는 RULA을 이용하여 작업부하는 평가하는 과정을 설명하기 위한 도면이다.
도 5는 RULA에 의해 최종적으로 생성되는 조치단계표를 예시한 도면이다.
도 6는 REBA의 의사결정표를 예시한 도면이다.
도 7을 일 실시예에 따른 근골격계 질환의 발생가능성의 판단 방법을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는 첨부된 도면을 참조하여 근골격계 질환의 발생가능성의 판단 장치 및 판단 방법을 후술된 실시예들에 따라 구체적으로 설명하기로 한다.
도 1은 근골격계 질환의 발생가능성의 판단 장치의 일 실시예에 따른 제어 블럭도이다.
도 1을 참조하면, 근골격계 질환의 발생가능성의 판단 장치(100)는 감지부(110), 제어부(120), 저장부(130) 및 사용자 인터페이스(140)를 포함하여, 대상체의 동작을 감지하고 이에 기초하여 근골격계 질환의 발생가능성을 판단 및 판단 결과를 출력할 수 있다.
여기서, 대상체는 인간이나 동물의 생체, 또는 목, 어깨, 팔, 허리, 상·하지 등와 같이 생체의 특정 부위일 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 대상체는 공장과 같이 일정한 작업환경 내에서 정해진 동작 패턴 즉, 공정에 따라 작업을 수행하는 작업자일 수 있으며, 작업자의 상·하지가 될 수도 있고, 또는 작업자의 허리가 될 수도 있다. 또한, 대상체는 작업자를 대신하여 공정을 수행하는 로봇 및 로봇의 특정 부위일 수 있다. 다만, 이하에서는 설명의 편의를 위해 대상체가 정해진 패턴에 따라 작업을 수행하는 작업자, 또는 작업자 신체의 특정 부위인 것으로 하여 상술하기로 한다.
사용자 인터페이스(140)는 입력부(141) 및 디스플레이부(142)를 포함하여, 사용자 명령을 입력받거나, 사용자에게 각종 정보를 표시함으로 사용자 인터페이스를 제공한다.
여기서, 사용자는 근골격계 질환의 발생가능성의 판단 장치(100)를 이용하여 대상체의 모니터링을 수행하는 자로서, 예를 들어, 대상체가 작업자인 경우, 사용자는 정해진 공정을 관리하는 관리인 또는 작업자의 건강을 관리하는 의료진이 될 수 있으며, 작업자 자신도 사용자가 될 수 있다. 다만, 이에 한정되는 것은 아니며, 근골격계 질환의 발생가능성의 판단 장치(100)를 사용하는 자이면 모두 사용자가 될 수 있는 것으로 한다.
사용자 인터페이스(140)는 질환 발생가능성의 판단과정에서 얻어진 영상이나 결과를 출력할 수 있다. 또한, 사용자 인터페이스(140)는 사용자로부터 근골격계 질환의 발생가능성의 판단을 위한 각종 조건들을 입력받을 수 있다. 예를 들어, 사용자는 사용자 인터페이스(140)를 통해 모니터링의 대상이 되는 대상체를 설정하거나, 판단의 대상이 되는 공정, 또는 판단이 필요한 시점 등을 입력할 수 있으며, 이에 대한 구체적 설명은 도 2 및 도 3을 참조하여 상술하기로 한다.
도 2 는 사용자 인터페이스를 통한 대상체의 설정을 일 예에 따라 도시한 면이고, 도 3은 사용자 인터페이스를 통한 대상체의 설정을 다른 예에 따라 도시한 도면이다.
후술될 감지부(110)를 통해 대상체의 촬영 영상 또는 대상체가 포함된 작업환경의 촬영 영상이 획득될 수 있으며, 이와 같은 촬영 영상은 도 2(a)에 도시된 바와 같이, 사용자 인터페이스(140)의 구성인 디스플레이부(142)를 통해 출력될 수 있다. 이 때, 촬영 영상은 색상 영상만을 포함할 수도 있고, 색상 영상 및 거리 영상을 포함할 수도 있다.
사용자는 디스플레이부(142)에서 출력된 작업환경의 촬영 영상으로부터 작업자의 수와 작업자의 위치를 확인하고, 도 2(b)에 도시된 바와 같이, 단일의 작업자(ob1)를 대상체로 설정할 수도 있고, 도 2(c)에 도시된 바와 같이, 복수의 작업자(ob1, ob2)를 대상체로 설정할 수도 있다.
도 3(a)에 도시된 바와 같이, 디스플레이부(142)가 단일의 작업자에 대한 작업환경을 출력하는 경우, 사용자는 작업자의 신체의 특정 부위를 대상체로 설정할 수도 있다. 도 3(b)에 도시된 바와 같이, 단일의 신체 부위 예를 들어, 작업자의 상지(ob3)만을 대상체로 설정할 수도 있고, 도 3(c)에 도시된 바와 같이, 복수의 신체 부위 예를 들어, 작업자의 상지(ob3) 및 하지(ob4)를 대상체로 설정할 수도 있다. 이와 같은 대상체의 설정은 사용자 인터페이스(140)를 구성하는 입력부(141) 또는 디스플이부(142)를 통해 이루어지게 된다.
입력부(141)는 사용자의 입력을 위해 각종 버튼이나 스위치, 키보드, 마우스, 트랙볼(track-ball), 각종 레버(lever), 핸들(handle)이나 스틱(stick) 등과 같은 하드웨어적인 입력장치를 포함할 수 있다. 입력부(141)는 사용자 입력을 위해 터치 패드(touch pad) 등과 같은 GUI(Graphical User interface), 즉 소프트웨어인 입력 장치를 포함할 수도 있다. 터치 패드는 터치 스크린 패널(Touch Screen Panel: TSP)로 구현되어 디스플레이부(142)와 상호 레이어 구조를 이룰 수 있다.
디스플레이부(142)는 음극선관(Cathode Ray Tube: CRT), 디지털 광원 처리(Digital Light Processing: DLP) 패널, 플라즈마 디스플레이 패널(Plasma Display Penal), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 전기 발광(Electro Luminescence: EL) 패널, 전기영동 디스플레이(Electrophoretic Display: EPD) 패널, 전기변색 디스플레이(Electrochromic Display: ECD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 마련될 수 있으나, 이에 한정되지는 않는다.
전술한 바 있듯이, 터치 패드와 상호 레이어 구조를 이루는 터치 스크린 패널(TSP)으로 구성되는 경우, 디스플레이부(142)는 표시 장치 외에 입력 장치로도 사용될 수 있다.
감지부(110)는 대상체의 동작을 감지하고, 감지된 동작 정보를 제어부(120)에 출력한다. 감지부(110)는 대상체의 동작을 감지하기 위해 관성 센서(IMU: Inertial Measurement Unit) 및 3D(Three D imensional) 센서로 구현될 수 있다.
관성 센서는 대상체에 부착되어 부착부위의 기울기, 대상체가 동작하는 동작 방향, 동작 속도, 동작 가속도 등과 같은 동작 정보를 감지한다. 이 때, 관성 센서로부터 감지된 동작 정보를 이하 '관성 데이터'라 정의하기로 한다.
관성 센서는 센서착용부재 예를 들어, 신체에 감기게 되는 착용밴드나, 부착 패치 등에 장착되는 형태로 마련될 수 있다. 관성 센서는 자이로 센서(Gyro Sensor), 가속도 센서(Acceleration Sensor), 또는 지자기 센서(Geo-magnetic Sensor) 등으로 마련될 수 있다. 관성 센서는 적어도 하나로 마련될 수 있으며, 자이로 센서, 가속도 센서, 및 지자기 센서의 조합으로 구성될 수도 있다. 예를 들어, 관성 센서는 가속도 센서와 함께 물체의 회전각도 등을 정밀하게 측정할 수 있는 자이로 센서로 구성되거나, 가속도 센서와 함께 위치, 방향 등을 정밀하게 측정할 수 있는 지자기 센서로 구성되어, 관성 데이터의 정밀성을 향상시킬 수 있다.
3D 센서는 대상체에 부착되지 않고 대상체의 외부에서 대상체의 색상 영상이나 거리(또는 깊이) 영상을 획득하고, 색상 영상이나 거리 영상으로부터 대상체의 동작 방향, 동작 속도, 동작 가속도 등과 같은 동작 정보를 감지한다. 이 때, 3D 센서로부터 감지된 동작 정보를 이하 '3D영상 데이터'라 정의하기로 한다.
3D 센서는 적어도 하나로 마련될 수 있으며, 이미지 센서, 적외선 센서, 또는 초음파 센서 등으로 구현될 수 있다.
여기서, 이미지 센서는 카메라에서 영상을 생성해 내는 영상 소자 부품으로 CCD (Charge Coupled Device) 이미지 센서와 CMOS (Complementary Metal Oxide Semiconductor) 이미지 센서로 나뉠 수 있다. 이미지 센서가 단일하게 구비되는 경우, 이미지 센서는 대상체의 색상 영상을 획득할 수 있으며, 복수개의 이미지 센서가 구비되는 경우, 이미지 센서는 대상체의 색상 영상뿐만 아니라 거리 영상까지 획득할 수 있다.
적외선 센서는 발광소자와 수광소자를 포함하여, 발광소자에서 발생된 적외선이 물체에 부딪혀 반사되고, 수광소자에서 이와 같이 반사된 빛의 변화량을 감지하여 물체의 동작을 알아내거나, 반사된 빛의 세기를 측정하여 물체까지의 거리를 알아내는 센서로서, 적외선 센서를 통해 대상체의 거리 영상을 획득할 수 있다.
초음파 센서는 압전(piezoelectricity)이나 자왜(magnetostriction)를 이용하여 초음파를 발생시키고, 발생한 초음파가 물체에 반사되어 돌아오는데 걸리는 시간을 측정하고, 음파의 속도를 곱해 거리를 계산함으로써 물체까지의 거리를 알아내는 센서로서, 적외선 센서와 마찬가지로 대상체의 거리 영상을 획득하는데 이용될 수 있다.
3D 센서는 이미지 센서, 적외선 센서, 및 초음파 센서의 조합으로 구성될 수도 있다. 일 예로, 3D 센서는 이미지 센서 및 적외선 센서로 구성되어, 색상 영상은 이미지 센서로부터 획득하고 거리 영상은 적외선 센서를 통해 획득할 수 있다. 다른 예로, 3D 센서는 이미지 센서 및 초음파 센서로 구성되어, 색상 영상은 이미지 센서로부터 획득하고 거리 영상은 초음파 센서를 통해 획득할 수도 있다.
3D 센서로부터 생성된 3D영상 데이터 즉, 색상 영상 또는 거리 영상은 디스플레이부(142) 통해 출력될 수 있다. 디스플레이부(142)는 3D영상 데이터 중 색상 영상만을 출력할 수도 있고, 색상 영상 및 거리 영상을 함께 출력할 수도 있다. 사용자는 디스플레이부(142)에 출력되는 3D영상 데이터를 확인하고, 녹화, 재생 및 트레킹을 수행할 수 있으며, 이와 같이 녹화, 재생 및 트레킹을 이용하여, 3D영상 데이터를 동작 패턴별로 또는 공정별로 분할할 수 있다. 분할된 제 3D 데이터는 동작 패턴별로 후술될 저장부(130)에 DB(Data Base)로 구축될 수 있다.
상술한 바와 같이, 관성 센서 및 3D 센서로부터 감지된 대상체의 동작 정보 즉, 관성 데이터 및 3D 데이터는 제어부(120)에 출력된다.
제어부(120)는 근골격계 질환 발생가능성의 판단 장치(100)를 제어하기 위한 각종 제어신호를 생성할 수 있다. 또한, 제어부(120)는 데이터 동기화부(121) 및 판단부(122)를 포함하여, 근골격계 질환 발생가능성의 판단 장치(100)의 동작을 위한 각종 연산 및 판단을 수행할 수 있다.
제어부(120)는 집적 회로가 형성된 적어도 하나의 칩을 포함하는 각종 프로세서(processor)일 수 있다. 제어부(120)는 하나의 프로세서에 마련될 수도 있으나, 복수의 프로세서에서 분리되어 마련되는 것도 가능하다. 이하에서는 설명의 편의를 위해 제어부(120)를 데이터 동기화부(121) 및 판단부(122)로 분리하여 상술하나, 데이터 동기화부(121) 및 판단부(122) 또한 하나의 프로세서에 함께 마련될 수도 있고, 복수의 프로세서에 분리되어 마련될 수도 있다.
데이터 동기화부(121)는 감지부(110)에서 출력된 동작 정보 즉, 관성 센서의 관성 데이터 및 3D 센서의 3D 데이터를 동기화(sync)한다. 데이터 동기화부(121)는 3D영상 데이터에 관성 데이터를 동기화시켜, 동기화된 데이터를 획득한다.
3D영상 데이터를 동작 패턴별로 또는 공정별로 분할할 수 있음을 전술한 바 있는데, 설정된 알고리즘에 따라 사용자는 3D영상 데이터를 대신하여 동기화된 데이터에 대해 동작 패턴별로 또는 공정별로 분할을 수행할 수도 있다. 구체적으로, 데이터 동기화부(121)를 통해 생성된 동기화된 데이터는 디스플레이부(142)에 출력되고, 사용자는 디스플레이부(142)에 출력되는 동기화된 데이터를 확인하고, 녹화, 재생 및 트레킹을 수행할 수 있으며, 이와 같이 녹화, 재생 및 트레킹을 이용하여, 동기화된 데이터를 동작 패턴별로 또는 공정별로 분할할 수 있다. 이 경우, 분할된 동기화된 데이터는 동작 패턴별로 후술될 저장부(130)에 DB로 구축될 수 있다.
데이터 동기화부(121)는 3D영상 데이터를 관성 데이터에 기초하여 보정할 수 도 있다. 3D 센서의 떨림이나, 대상체 전체 또는 일부의 폐색 등의 환경에서는, 3D 센서에 의해 획득된 3D영상 데이터에 오류가 발생할 수 있다. 반면, 전술한 바 있듯이, 관성 센서는 대상체에 부착되어 작동하기 때문에, 3D 센서의 떨림이나, 대상체 전체 또는 일부의 폐색 등의 환경에서도 정확한 관성 데이터를 획득할 수 있게 된다. 따라서, 3D영상 데이터에 오류가 방생하는 경우, 데이터 동기화부(121)는 관성 데이터에 기초하여 3D영상 데이터를 보정하며, 이에 따라 3D영상 데이터 또는 동기화된 데이터의 신뢰성을 향상시킬 수 있다.
판단부(122)는 동기화된 데이터에 기초하여, 근골격계 질환의 발생가능성을 판단한다. 판단부(122)는 인간공학 평가방법론 예를 들어, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 등과 같은 평가방법론을 이용하여 판단할 수 있으나, 상술한 예에 한정되는 것은 아니며, 대상체의 동작에 대해 질환 발생가능성을 판단할 수만 있다면 모두 적용될 수 있는 것으로 한다. 판단부(122)는 동기화된 데이터를 RULA, REBA, 및 NLE 등과 같은 인간공학 평가방법론에 적용시켜, 대상체의 동작의 위험수준을 수치화하고, 수치화된 값에 기초하여 동작에 따른 질환 발생가능성을 판단한다.
RULA(Rapid Upper Limb Assessment)는 어깨, 팔목, 손목, 목 등 상지에 초점을 맞추어 작업자세로 인한 작업부하를 평가하는 방법으로, 3개의 배점표를 이용하여 총 15단계의 평가로 이루어진다. RULA에서 각 작업자세는 신체 부위별로 두 그룹으로 나누어지고, 각 그룹별로 작업자세, 근육의 사용정도, 및 힘에 대한 평가로 구성되며, 이에 대한 구체적 설명은 도 4 및 도 5를 참조하여 상술하기로 한다.
도 4는 RULA을 이용하여 작업부하는 평가하는 과정을 설명하기 위한 도면이며, 도 5는 RULA에 의해 최종적으로 생성되는 조치단계표를 예시한 도면이다.
도 4를 참조하면, RULA는 각 작업자세를 신체 부위별로 그룹 A(윗팔 아래팔, 손목, 손목 비틀림)과 그룹 B(목, 몸통, 다리)로 나눈다.
팔과 손목의 분석을 위한 RULA 배점표(제 1배점표)를 이용하여, 그룹 A에 대한 자세점수 P1를 획득하고, 근육 사용정도와 힘에 대한 평가로서 그룹 A의 동작이 추가적인 세부사항에 포함되면 해당하는 추가점수를 자세점수 P1에 부여하여 점수 P2를 획득한다. 마찬가지로, 목, 허리 다리의 분석을 위한 RULA 배점표(제 2배점표)를 이용하여, 그룹 B에 대한 자세점수 P3를 획득하고, 근육 사용정도와 힘에 대한 평가로서 그룹 B의 동작이 추가적인 세부사항이 포함되면 해당하는 추가점수를 자세점수 P3에 부여하여 점수 P4를 획득한다.
그런 다음, 그룹 A에 대한 평가결과(점수 P2)와 그룹 B에 대한 평가결과(점수 P4)를 합하고, 해당 점수를 RULA 최종점수표(제 3배점표)와 비교하여 최종점수 P5를 획득한다. 제 3배점표는 1에서 7점 사이의 총점으로 나타내어지며, 최종점수에 따라 4개의 조치단계(action level)로 분류될 수 있다. 도 5에 예시된 바와 같이, 최종점수 1에서 2점 사이는 조치단계 1, 최종점수 3에서 4점 사이는 조치단계 2, 최종점수 5에서 6점 사이는 조치단계 3, 최종점수 7점 이상은 조치단계 4로 각각 분류되어, 작업의 부하를 수치화하여 평가한다.
REBA(Rapid Entire Body Assessment)는 RULA의 개념을 확장시켜 전신의 작업자세를 분석하기 위한 도구이며, 총괄부하지수라는 점수를 이용하여 총 15단계의 자세를 분석하여 측정된 결과를 5단계의 의사결정수준으로 구분하여 자세에 대한 위험수준을 최종 평가를 한다.
첫 번째로, REBA는 허리, 목, 다리의 자세를 분석하고 무게·힘에 대한 점수를 더하여 점수 S1를 구한다. 두 번째로, 팔과 팔목에 대한 자세분석을 하고 손잡이에 대한 점수를 더하여 점수 S2를 구한다. 세 번째로, 점수 S1과 점수 S2를 합하여 점수 S3를 구하고, 점수 S3와 행동점수를 합하여 최종점수를 구한다. 최종점수의 단계를, 도 6에 도시된 바와 같은 REBA의 의사결정표에 의해 찾을 수 있다.
도 6는 REBA의 의사결정표를 예시한 도면이다.
도 6를 참조하면, 위험수준은 최종점수에 대응하여 5단계로 분류될 수 다. 구체적으로, 최종점수가 1에 해당하는 경우, 위험수준은 0단계로 무시해도 되며, 최종점수가 2에서 3사이인 경우에는, 위험수준이 1단계로 낮으며, 최종점수가 4에서 7인 경우, 위험수준이 2단계로 중간이라고 평가하며, 최종점수가 8에서 10사이인 경우, 위험수준은 3단계로 높으며, 최종점수가 11에서 15사이인 경우, 위험수준이 가장 높은 4단계로 각각 평가한다.
NLE(NIOSH Lifting Equation)는 들기작업에 대한 권장무게한계(RWL: Recommended Weighr Limit)를 산출하여 작업의 위험성을 평가하는 방법론이다. 여기서, 권장무게한계란(RWL)란 건강한 작업자가 특정한 들기작업에서 실제 작업시간 동안 허리에 무리를 주지 않고 요통의 위험 없이 들 수 있는 무게의 한계로 정의되며, 하기의 [수학식 1]과 같이 여러 작업 변수들에 의해 결정된다.
Figure pat00001
여기서, HM은 수평계수(Horizontal Multipllier), VM은 수직계수 (Vertical Multiplier), DM은 거리계수(distance Multiplier), AM은 비대칭계수(Asymmetric Multiplier), FM은 빈도계수(Frequency Multiplier), CM은 커플링 계수(Coupling Multiplier)를 각각 의미한다.
NLE는 하기의 [수학식 2]와 같이, 실제 작업물의 무게와 권장무게한계의 비를 이용하여 들기지수(LI: Lifting Index)를 산출하고, 들기지수(LI)가 1보다 크면 작업부하가 권장치보다 커 요통의 발생위험이 높다고 판단한다.
Figure pat00002
판단부(122)는 데이터 동기화부(121)로부터 획득한 동기화 데이터를, 상술한 바와 같은 RULA, REBA, 및 NLE 등의 인간공학 평가방법론에 적용하고, 대상체의 동작의 위험수준을 수치화하여 동작에 따른 근골격계의 질환 발생가능성을 판단한다.
판단부(122)는 대상체의 부위에 따라 적합한 인간공학 평가방법론을 선택하고, 선택된 평가방법론을 이용하여 질환 발생가능성을 판단할 수 있다. 예를 들어, 사용자가 사용자 인터페이스(140)를 통해 작업자의 목·어깨를 대상체로 선택하는 경우, 판단부(122)는 상지 판단에 적합한 RULA 방법론을 채택할 수 있다. 또한 사용자가 작업자의 전신을 대상체로 선택하는 경우, 판단부(122)는 전신 판단에 적합한 REBA 방법론을 채택할 수 있다.
판단부(122)는 동작 패턴에 따라 적합한 인간공학 평가방법론을 선택하고, 선택된 평가방법론을 이용하여 질환 발생가능성을 판단할 수 있다. 예를 들어, 대상체가 수행하는 공정이 힘을 주어 밀거나 당기는 작업이 반복되는 공정인 경우, 판단부(122)는 이에 적합한 REBA 방법론을 채택할 수 있다. 또한, 대상체가 수행하는 공정이 작업물을 들고 운반하는 공정인 경우, 판단부(122)는 이에 적합한 NLE 방법론을 채택할 수 있다.
판단부(122)는 모든 동작 패턴에 대응하여 질환 발생가능성을 판단할 수도 있고, 선택된 동작 패턴에 대해 질환 발생가능성을 판단할 수도 있는 것으로, 이는 사용자의 입력에 기초한다.
예를 들어, 사용자가 디스플레이부(142)를 통해 출력된 3D영상 데이터 또는 동기화된 데이터를 확인하고, 이를 재생, 녹화, 및 트레킹함으로써, 공정 1, 공정 2, 및 공정 3으로 분류한 경우, 판단부(122)는 공정 1, 공정 2, 및 공정 3 모두에 대해 질환 발생가능성을 판단할 수 있다.
사용자가 공정 1, 공정 2, 및 공정 3 중, 판단 대상의 공정을 공정 2로 입력하는 경우, 판단부(122)는 사용자 입력에 기초하여 공정 2에 대해서만 질환 발생가능성을 판단할 수 있다. 또는, 사용자가 판단이 필요한 시점을 입력하고, 입력된 시점이 공정 2에 포함되는 경우, 판단부(122)는 해당 시점을 포함하는 공정 2에 대하여 질환 발생가능성을 판단할 수 있다.
상술한 바에 따라, 판단부(122)에서 판단된 판단 결과는 사용자 확인을 위해 디스플레이부(142)를 통해 출력될 수 있다.
도 5를 다시 참조하면, 판단부(122)가 RULA 방법론을 이용하는 경우, 디스플레이부(142)는 도 5의 조치단계표와 산출된 최종점수를 함께 출력하여, 사용자로 하여금 질환 발생가능성의 간접적 결과를 확인할 수 있도록 할 수 있다. 디스플레이부(142)는 산출된 최종점수에 대응되는 조치단계 및 조치를 출력할 수도 있다. 예를 들어, 판단부(122)에서 산출된 최종 점수가 5인 경우, 디스플레이부(142)는 조치단계 ““3”” 및 ““가능한 빨리 자세를 변경해 줄 필요가 있음””이라는 조치 문구를 출력할 수 있다.
도 6를 다시 참조하면, 판단부(122)가 REBA 방법론을 이용하는 경우, 디스플레이부(142)는 도 6의 의사결정표와 산출된 REBA의 최종점수를 함께 출력하여, 사용자로 하여금 질환 발생가능성의 간접적 결과를 확인할 수 있도록 할 수 있다. 디스플레이부(142)는 산출된 최종점수에 대응하는 위험수준를 출력할 수도 있다. 예를 들어, 판단부(122)에서 산출된 최종 점수가 12인 경우, 디스플레이부(142)는 위험단계 ““4”” 및 위험수준 ““매우 높음””이라는 문구를 출력할 수 있다.
다만, 상술한 바는 판단 결과의 출력 방법의 예시들에 불과한 것으로, 사용자로 하여금 판단 결과 또는 질환 발생가능성을 확인시킬 수 있다면 디스플레이부(142)는 상술한 예시들에 한정되지 않고 출력 방법을 채택할 수 있다.
저장부(130)는 근골격계 질환의 발생가능성의 판단 장치(100)의 동작을 위한 데이터 및 알고리즘을 일시적 또는 비일시적으로 저장한다.
저장부(130)는 사용자 인터페이스(140)를 통해 입력되는 사용자 명령들을 저장할 수 있다. 예를 들어, 저장부(130)는 사용자에 의해 선택된 대상체의 부위를 저장할 수 있으며, 사용자에 의해 분류된 동작 패턴들 또는 공정들을 저장할 수도 있다. 또한, 저장부(130)는 사용자가 선택한 판단 대상의 공정 또는 시점들을 저장할 수도 있다.
저장부(130)는 감지부(110)에서 출력되는 동작 정보를 저장할 수 있다. 저장부(130)는 관성 센서로부터 출력되는 관성 데이터 및 3D 센서로부터 출력되는 3D영상 데이터를 저장할 수도 있다. 저장부(130)는 관성 데이터와 3D영상 데이터가 동기화된 데이터를 저장할 수도 있으며, 3D영상 데이터가 관성 데이터에 의해 보정되는 경우, 보정된 후의 3D영상 데이터 및 동기화된 데이터를 저장할 수도 있다. 저장부(130)는 3D영상 데이터 또는 동기화된 데이터를 동작 패턴별로 분류하여 DB로 구축할 수 있다. 저장부(130) 보정된 후의 3D영상 데이터 또는 동기화된 데이터를 동작 패턴별로 분류하여 DB화할 수도 있다.
저장부(130)는 동기화된 데이터에 기초하여 질환 발생가능성을 판단하기 위한 알고리즘들을 저장할 수 있다. 예를 들어, 저장부(130)는 RULA, REBA, 및 NLE 등과 같이 인간공학 평가방법론의 알고리즘들을 저장할 수 있으며, 설정된 대상체 부위별로 적합한 인간공학 평가방법론을 채택하기 위한 알고리즘, 동작 패턴별로 적합한 인간공학 평가방법론을 채택하기 위한 알고리즘 등을 저장할 수도 있다.
이와 같은 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있다. 또한, 근골격계 질환의 발생가능성 판단장치(100)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.
이상으로 근골격계 질환의 발생가능성의 판단 장치(100)를 예시된 블록도를 바탕으로 설명하였으며, 이하에서는 주어진 흐름도를 참조하여 근골격계 질환의 발생가능성의 판단 방법을 살펴보기로 한다.
도 7을 일 실시예에 따른 근골격계 질환의 발생가능성의 판단 방법을 도시한 흐름도이다.
도 7을 참조하면, 먼저 대상체의 동작을 감지하는 관성 센서 및 3D 센서로부터, 관성 데이터 및 3D영상 데이터를 각각 획득한다(310).
관성 센서는 대상체에 부착되어 대상체의 동작을 감지하고, 감지된 대상체의 동작 정보 즉, 관성 데이터를 출력한다. 3D 센서는 대상체에 부착되지 않고, 대상체의 외부에서 대상체 또는 대상체가 포함된 작업환경을 촬영하며 색상 영상 및 거리 영상을 생성한다. 이와 같이 대상체의 촬영에 의해 생성된 색상 영상 및 거리 영상 즉, 3D영상 데이터는 대상체의 동작 정보를 포함할 수 있다.
관성 데이터 및 3D영상 데이터는 유선 또는 무선 통신을 통해 제어부(120)에 전송되며, 제어부(120)는 근골격계 질환의 발생가능성의 판단을 위한 기초 데이터를 획득하게 된다.
이와 같이 획득한 관성 데이터 및 3D영상 데이터를 동기화한다(320).
제어부(120)는 3D영상 데이터에 관성 데이터를 동기화하여, 동기화된 데이터를 생성할 수 있다. 동기화 수행에 앞서, 제어부(120)는 3D영상 데이터를 관성 데이터에 기초하여 보정할 수도 있다. 특히, 3D 센서의 떨림이나, 대상체 전체 또는 일부의 폐색 등 3D영상 데이터에 오류가 발생할 수 있는 환경에서, 제어부(120)는 3D영상 데이터를 관성 데이터에 기초하여 보정할 수 있다. 3D영상 데이터가 보정된 경우, 제어부(120)는 보정된 후의 3D영상 데이터에 기초하여 동기화된 데이터를 생성할 수 있다. 즉, 보정된 후의 3D영상 데이터를 관성 데이터와 동기화하여 동기화된 데이터를 생성할 수 있다.
동기화된 데이터가 생성되면, 디스플레이부(142)를 통해 동기화된 데이터를 디스플레이한다(330).
동기화된 데이터는 자동으로 디스플레이될 수도 있고, 사용자의 입력명령에 기초하여 디스플레이될 수도 있다. 예를 들어, 사용자가 사용자 인터페이스(140)를 통해 재생버튼을 누른다거나, 재생아이콘을 터치하는 방식 등으로 디스플레이 명령을 입력하는 경우, 제어부(120)는 사용자의 디스플레이 명령에 따라, 동기화된 데이터를 디스플레이하도록 제어명령을 출력할 수 있다.
다음으로, 사용자로부터 동작 패턴의 분류명령이 입력되었는지 여부를 판단한다(340).
사용자는 디스플레이를 통해 대상체의 동작을 영상으로 확인할 수 있으며, 대상체의 동작을 복수의 동작 패턴으로 분류할 수 있다. 이 때, 동작 패턴의 분류는 디스플레이 화면상에서 클릭(click) 또는 터치(touch)하여 마킹(marking)하는 방식, 또는 드레그(drag) 하는 방식 등을 이용할 수 있다.
예를 들어, 사용자는 디스플레이 화면의 타임라인(time line) 상에서 시점 T1, 시점 T2, 및 시점 T3를 마킹(marking)함으로써 분류명령을 입력할 수 있으며, 이에 따라 사용자의 동작은 세개의 공정으로 분류될 수 있다. 예를 들어, 시점 T1까지의 동작은 공정 1로, 시점 T1에서 T2까지의 동작은 공정 2로, 시점 T2이후의 동작은 공정 3으로 각각 분류될 수 있다.
제어부(120)는 사용자로부터 동작 패턴의 분류명령이 입력되었는지 여부를 판단하며, 분류명령이 입력된 경우, 351 이하의 과정을 거치게 된다.
제어부(120)는 동기화된 데이터를 동작 패턴별로 분류한다(351).
상술한 예에서, 사용자의 입력에 따라 사용자의 동작이 공정 1, 공정 2, 및 공정 3으로 분류된 바, 제어부(120)는 전체 동기화된 데이터를, 공정 1을 구성하는 동기화된 데이터(이하, '동기화된 데이터 1'이라 칭함), 공정 2를 구성하는 동기화된 데이터(이하, '동기화된 데이터 2'이라 칭함), 및 공정 3을 구성하는 동기화된 데이터(이하, '동기화된 데이터 3'이라 칭함)로 각각 분류할 수 있다.
이하에서는 설명의 편의를 위해, 공정 1, 공정 2, 및 공정 3과, 이에 대응하여 분류된 동기화된 데이터 1, 동기화된 데이터 2, 및 동기화된 데이터 3를 계속 예시하여 상술하기로 한다.
또한, 동기화된 데이터는 해당 동작 패턴에 대응하여 DB로 저장부(130)에 구축될 수 있다.
각 동작 패턴에 대응하여 동기화된 데이터가 분류되면, 사용자로부터 동작 패턴의 선택명령이 입력되었는지 여부를 판단한다(361).
사용자는 판단 대상의 동작 패턴을 사용자 인터페이스(140)를 통해 선택할 수 있다. 이 때, 사용자는 단일의 동작 패턴을 선택할 수도 있으나, 복수의 동작 패턴을 선택하는 것도 가능하다.
공정 1, 공정 2, 및 공정 3 중에서, 공정 2에 대해 판단이 이루어지길 원하는 경우, 사용자는 디스플레이 화면의 타임라인(time line) 상에서 공정 2에 포함된 어느 한 시점을 터칭(touch)하거나, '공정 2'라고 직접 입력하는 등의 방식을 이용하여 판단 대상을 공정 2로 선택할 수 있다.
그런 다음, 선택된 동작 패턴의 동기화 데이터에 기초하여, 선택된 동작 패턴에 대한 근골격계 질환의 발생가능성을 판단한다(371).
제어부(120)는 인간공학 평가방법론 예를 들어, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 등과 같은 평가방법론을 이용하여 판단할 수 있다.
상술한 예와 같이, 공정 1, 공정 2, 및 공정 3 중에서 공정 2가 판단 대상으로 선택된 경우, 제어부(120)는 공정 2에 대응하는 동기화된 데이터 즉, 동기화된 데이터 2를 인간공학 평가방법론에 적용시킨다. 제어부(120)는 동기화된 데이터 2를 RULA, REBA, 및 NLE 등과 같은 인간공학 평가방법론에 적용시켜, 공정 2를 수행하는 동안 근골격계의 위험수준을 수치화하고, 수치화된 값에 기초하여 해당 공정에 따른 근골격계의 질환 발생가능성을 판단한다.
제어부(120)는 선택된 동작 패턴에 따라 적합한 인간공학 평가방법론을 채택하여 질환 발생가능성을 판단할 수 있다. 예를 들어, 공정 2가 힘을 주어 밀거나 당기는 작업이 반복되는 공정인 경우, 제어부(120)는 이에 적합한 REBA 방법론을 채택할 수 있다.
제어부(120)는 선택된 동작 패턴이 아닌, 대상체의 부위에 따라 적합한 인간공학 평가방법론을 선택하여 질환 발생가능성을 판단할 수도 있다. 예를 들어, 대상체가 작업자의 목·어깨인 경우, 제어부(120)는 상지 판단에 적합한 RULA 방법론을 채택할 수 있다.
판단 결과는 사용자 확인을 위해 사용자 인터페이스(140) 또는 디스플레이부(142)를 통해 출력될 수 있다(380).
361의 과정에서, 사용자로부터 동작 패턴의 선택명령이 입력되지 않은 경우, 각 동작 패턴의 동기화 데이터에 기초하여, 동작 패턴별로 근골격계 질환의 발생가능성을 판단한다(372).
소정의 시간 내에, 판단 대상의 동작 패턴이 입력되지 않은 경우, 제어부(120)는 사용자가 모든 동작 패턴에 대해 질환 발생가능성의 판단이 이루어지길 바라는 것으로 인식한다. 제어부(120)는 사용자가 모든 동작 패턴을 선택한 것과 마찬가지로 인식하는 것이다.
제어부(120)는 동기화된 데이터 1를 RULA, REBA, 및 NLE 등과 같은 인간공학 평가방법론에 적용시켜, 공정 1를 수행하는 동안 근골격계의 위험수준을 수치화하고, 수치화된 값에 기초하여, 공정 1에 따른 근골격계의 질환 발생가능성을 판단한다. 마찬가지로, 제어부(120)는 동기화된 데이터 2 및 동기화된 데이터 3을 인간공학 평가방법론에 각각 적용시켜, 공정 2 및 공정 3을 수행하는 동안 근골격계의 질환 발생가능성을 판단한다.
제어부(120)는 동작 패턴별로 적합한 인간공학 평가방법론을 채택하여 질환 발생가능성을 판단할 수 있다. 예를 들어, 공정 2가 힘을 주어 밀거나 당기는 작업이 반복되는 공정인 경우, 제어부(120)는 이에 적합한 REBA 방법론을 채택할 수 있다.
예를 들어, 공정 1 및 공정 3은 힘을 주어 작업물을 밀거나 당기는 작업이 반복되는 공정이고, 공정 2는 작업물을 들고 운반하는 공정인 경우, 제어부(120)는 공정 1과 공정 3에 대해서는 밀고 당기는 반복작업의 판단에 적합한 REBA 방법론을 채택할 수 있고, 공정 2에는 들기작업의 판단에 적합한 NLE 방법론을 채택할 수 있는 것이다.
동작 패턴별로 근골격계 질환의 발생가능성이 판단되면, 380과정에 따라 각각의 판단 결과는 사용자 인터페이스(140)를 통해 출력된다.
또한, 340의 과정에서, 사용자로부터 동작 패턴의 분류명령이 입력되지 않은 경우, 동기화 데이터에 기초하여, 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단한다(352).
예를 들어, 모니터링되는 대상체의 동작이 동일한 동작의 반복인 경우, 예를 들어, 작업물을 밀고 당기는 작업만 반복하여 이루어지는 경우, 사용자는 동작 패턴을 분류하기 위한 분류명령을 입력할 필요가 없어진다. 다시 말하면, 소정의 시간 내에, 분류명령이 입력되지 않은 경우, 제어부(120)는 대상체의 동작이 단일 동작인 것으로 인식할 수 있는 것이다.
따라서, 제어부(120)는 동기화 데이터를 분류할 필요 없이, 동기화된 데이터 1를 RULA, REBA, 및 NLE 등과 같은 인간공학 평가방법론에 적용시켜, 근골격계의 위험수준 또는 근골격계 질환의 발생가능성을 판단하게 된다.
그리고, 근골격계 질환의 발생가능성이 판단되면, 380과정에 따라 판단 결과가 출력된다.
이상과 같이 예시된 도면을 참조로 하여, 근골격계 질환의 발생가능성의 판단 장치 및 판단 방법을 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시 될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.
100 : 근골격계 질환의 발생가능성의 판단 장치
110 : 감지부 120 : 제어부
121 : 데이터 동기화부 122 : 판단부
130 : 감지부 140 : 사용자 인터페이스
141 : 입력부 142 : 디스플레이부

Claims (17)

  1. 대상체에 부착되는 관성 센서(IMU: Inertial Measurement Unit) 및 상기 대상체의 외부에서 상기 대상체를 촬영하는 3D(Three Dimensional) 센서를 포함하는 감지부;
    상기 관성 센서로부터 출력되는 관성 데이터 및 상기 3D 센서로부터 출력되는 3D영상 데이터를 동기화하여 동기화된 데이터를 생성하는 데이터 동기화부;
    상기 동기화된 데이터에 기초하여, 상기 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하는 판단부; 및
    상기 판단된 결과를 출력하는 사용자 인터페이스;
    를 포함하는 근골격계 질환의 발생가능성의 판단 장치.
  2. 제 1 항에 있어서,
    상기 3D 센서는,
    이미지 센서, 적외선 센서, 및 초음파 센서 중 적어도 하나를 포함하는 근골격계 질환의 발생가능성의 판단 장치.
  3. 제 1 항에 있어서,
    상기 3D영상 데이터는,
    색상 영상 및 거리 영상을 포함하는 근골격계 질환의 발생가능성 판단 장치.
  4. 제 1 항에 있어서,
    상기 데이터 동기화부는,
    상기 관성 데이터에 기초하여 상기 3D영상 데이터를 보정하는 근골격계 질환의 발생가능성의 판단 장치.
  5. 제 4 항에 있어서,
    상기 데이터 동기화부는,
    상기 관성 데이터 및 상기 보정된 후의 3D영상 데이터에 기초하여 상기 동기화된 데이터를 생성하는 근골격계 질환의 발생가능성의 판단 장치.
  6. 제 1 항에 있어서,
    상기 판단부는,
    RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 이용하여 상기 근골격계 질환의 발생가능성을 판단하는 근골격계 질환의 발생가능성의 판단장치.
  7. 제 1 항에 있어서,
    상기 사용자 인터페이스는,
    상기 대상체의 동작을 복수의 동작 패턴으로 분류하는 사용자 명령을 입력받는 근골격계 질환의 발생가능성의 판단 장치.
  8. 제 1 항에 있어서,
    상기 판단부는,
    상기 대상체의 동작이 복수의 동작 패턴으로 분류되는 경우, 상기 동작 패턴에 대응하여 상기 동기화된 데이터를 분류하는 근골격계 질환의 발생가능성의 판단 장치.
  9. 제 8 항에 있어서,
    상기 판단부는,
    상기 동작 패턴 각각의 동기화된 데이터에 기초하여, 상기 동작 패턴별로 상기 근골격계 질환의 발생가능성을 판단하는 근골격계 질환의 발생가능성 판단 장치.
  10. 제 9 항에 있어서,
    상기 판단부는,
    상기 동작 패턴별로, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용하는 근골격계 질환의 발생가능성의 판단 장치.
  11. 제 8 항에 있어서,
    상기 사용자 인터페이스는,
    상기 동작 패턴 중 적어도 하나의 동작 패턴을 선택하는 사용자 명령을 입력받는 근골격계 질환의 발생가능성의 판단 장치.
  12. 제 8 항에 있어서,
    상기 판단부는,
    상기 동작 패턴 중 적어도 하나의 동작 패턴이 선택되는 경우, 상기 선택된 동작 패턴의 동기화된 데이터에 기초하여, 상기 선택된 동작 패턴에 대한 상기 근골격계 질환의 발생가능성을 판단하는 근골격계 질환의 발생가능성의 판단 장치.
  13. 제 12 항에 있어서,
    상기 판단부는,
    상기 선택된 동작 패턴에 따라, RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용하는 근골격계 질환의 발생가능성의 판단 장치.
  14. 제 1 항에 있어서,
    상기 사용자 인터페이스는,
    상기 대상체를 설정하는 사용자 명령을 입력받는 근골격계 질환의 발생가능성의 판단 장치.
  15. 제 6 항에 있어서,
    상기 판단부는,
    상기 대상체의 부위에 따라, 상기 RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 채택하여 이용하는 근골격계 질환의 발생가능성의 판단 장치.
  16. 대상체에 부착되는 관성 센서(IMU: Inertial Measurement Unit)의 관성 데이터 및 상기 대상체의 외부에서 상기 대상체를 촬영하는 3D(Three Dimensional) 센서의 3D영상 데이터를 획득하고;
    상기 관성 데이터 및 상기 3D영상 데이터를 동기화하여 동기화된 데이터를 생성하고;
    상기 동기화된 데이터에 기초하여, 상기 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하고; 및
    상기 판단된 결과를 출력하는;
    것을 포함하는 근골격계 질환의 발생가능성의 판단 방법.
  17. 제 16 항에 있어서,
    상기 동기화된 데이터에 기초하여, 상기 대상체의 동작에 따른 근골격계 질환의 발생가능성을 판단하는 것은,
    RULA(Rapid Upper Limb Assessment), REBA(Rapid Entire Body Assessment) 및 NLE(NIOSH Lifting Equation) 중 적어도 하나를 이용하여 상기 근골격계 질환의 발생가능성을 판단하는 것을 포함하는 근골격계 질환의 발생가능성의 판단 방법.
KR1020150184195A 2014-12-22 2015-12-22 근골격계 질환의 발생가능성의 판단 장치 및 방법 KR20160076488A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140186454 2014-12-22
KR1020140186454 2014-12-22

Publications (1)

Publication Number Publication Date
KR20160076488A true KR20160076488A (ko) 2016-06-30

Family

ID=56151039

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150184195A KR20160076488A (ko) 2014-12-22 2015-12-22 근골격계 질환의 발생가능성의 판단 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20160076488A (ko)
WO (1) WO2016105102A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237102A1 (en) * 2019-05-21 2020-11-26 Reflexion Health Inc. Scoring metric for physical activity performance and training
KR20210123704A (ko) 2020-04-03 2021-10-14 성균관대학교산학협력단 작업부담평가 장치 및 방법
KR102628121B1 (ko) * 2023-06-19 2024-01-26 주식회사 누지 자세 교정 방법 및 그 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055012B2 (en) 2016-08-08 2018-08-21 International Business Machines Corporation Virtual reality sensory construct
US10114460B2 (en) 2016-08-08 2018-10-30 International Business Machines Corporation Virtual reality sensory construct

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053491B1 (ko) * 2009-04-07 2011-08-08 (주)휴레브 모션 센서를 이용한 보행주기 검출시스템과 방법
KR101306528B1 (ko) * 2010-11-17 2013-09-09 서울대학교산학협력단 작업자의 신체활동량 및 종합스트레스지수 예측 시스템
KR101308973B1 (ko) * 2010-12-28 2013-09-17 한국건설기술연구원 근골격계 신체운동의 모니터링방법
US9072461B2 (en) * 2011-02-25 2015-07-07 Embraer S.A. Posture observer for ergonomic observation, posture analysis and reconstruction
WO2013044157A1 (en) * 2011-09-23 2013-03-28 Orthosensor System and method for vertebral load and location sensing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237102A1 (en) * 2019-05-21 2020-11-26 Reflexion Health Inc. Scoring metric for physical activity performance and training
US11403882B2 (en) 2019-05-21 2022-08-02 Smith & Nephew, Inc. Scoring metric for physical activity performance and tracking
US11759126B2 (en) 2019-05-21 2023-09-19 Smith & Nephew, Inc. Scoring metric for physical activity performance and tracking
KR20210123704A (ko) 2020-04-03 2021-10-14 성균관대학교산학협력단 작업부담평가 장치 및 방법
KR102628121B1 (ko) * 2023-06-19 2024-01-26 주식회사 누지 자세 교정 방법 및 그 장치

Also Published As

Publication number Publication date
WO2016105102A1 (ko) 2016-06-30

Similar Documents

Publication Publication Date Title
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
US9727779B2 (en) Motion information processing apparatus
US9700242B2 (en) Motion information processing apparatus and method
Regazzoni et al. RGB cams vs RGB-D sensors: Low cost motion capture technologies performances and limitations
US9566004B1 (en) Apparatus, method and system for measuring repetitive motion activity
JP6930995B2 (ja) 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
KR20160076488A (ko) 근골격계 질환의 발생가능성의 판단 장치 및 방법
US20160104298A1 (en) Apparatus and method for poomsae recognition and dan promotion test of taekwondo based on skeleton of human body using depth camera
US11547324B2 (en) System and method for human motion detection and tracking
JP7008342B2 (ja) 運動評価システム
CN109219426B (zh) 康复训练辅助控制装置以及计算机能够读取的记录介质
Tarabini et al. Monitoring the human posture in industrial environment: A feasibility study
JP6676321B2 (ja) 適応性評価装置、適応性評価方法
Kuryło et al. Machine vision system measuring the trajectory of upper limb motion applying the matlab software
KR20160035497A (ko) 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템
Lee et al. Reliability and validity of a posture matching method using inertial measurement unit-based motion tracking system for construction jobs
JP6940139B2 (ja) 身体特性分析装置、身体特性分析方法、及びプログラム
CN115153517B (zh) 计时起立行走测试的测试方法、装置、设备及存储介质
Li et al. Automated ergonomic risk assessment based on 3D visualization
Seo Evaluation of Construction Workers Physical Demands Through Computer Vision-Based Kinematic Data Collection and Analysis.
Rahman et al. Predictive health analysis in industry 5.0: A scientometric and systematic review of motion capture in construction
JP2018161529A (ja) リハビリテーション支援装置
Dave et al. Automated System for Balance Error Scoring.
Omidokun et al. Leveraging Digital Perceptual Technologies for Remote Perception and Analysis of Human Biomechanical Processes: A Contactless Approach for Workload and Joint Force Assessment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application