KR20240001224U - 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 - Google Patents
인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 Download PDFInfo
- Publication number
- KR20240001224U KR20240001224U KR2020230000043U KR20230000043U KR20240001224U KR 20240001224 U KR20240001224 U KR 20240001224U KR 2020230000043 U KR2020230000043 U KR 2020230000043U KR 20230000043 U KR20230000043 U KR 20230000043U KR 20240001224 U KR20240001224 U KR 20240001224U
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- emotion
- collection unit
- monitoring system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000036541 health Effects 0.000 title claims abstract description 11
- 238000012544 monitoring process Methods 0.000 title claims description 87
- 238000013473 artificial intelligence Methods 0.000 title claims description 57
- 230000003862 health status Effects 0.000 claims abstract description 25
- 230000008451 emotion Effects 0.000 claims description 110
- 238000004891 communication Methods 0.000 claims description 26
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 17
- 229910052760 oxygen Inorganic materials 0.000 claims description 17
- 239000001301 oxygen Substances 0.000 claims description 17
- 201000010099 disease Diseases 0.000 claims description 13
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 13
- 230000008921 facial expression Effects 0.000 claims description 12
- 230000036760 body temperature Effects 0.000 claims description 11
- 230000005021 gait Effects 0.000 claims description 8
- 230000036772 blood pressure Effects 0.000 claims description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 3
- 239000012780 transparent material Substances 0.000 claims description 3
- 210000000707 wrist Anatomy 0.000 claims description 3
- 230000000149 penetrating effect Effects 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 26
- 238000012545 processing Methods 0.000 description 39
- 230000002996 emotional effect Effects 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 31
- 230000000694 effects Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 239000003795 chemical substances by application Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000010295 mobile communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000035882 stress Effects 0.000 description 6
- 206010037180 Psychiatric symptoms Diseases 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 208000015181 infectious disease Diseases 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000002560 therapeutic procedure Methods 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 3
- 208000035473 Communicable disease Diseases 0.000 description 3
- 230000001914 calming effect Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000003920 cognitive function Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 208000025721 COVID-19 Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003831 deregulation Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003446 memory effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/021—Measuring pressure in heart or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
- A61B5/14542—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue for measuring blood gases
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6824—Arm or wrist
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Hospice & Palliative Care (AREA)
- Vascular Medicine (AREA)
- Pulmonology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
본 고안은 재택 장소 상의 사용자 관련 영상 정보를 획득하는 제 1 수집부; 상기 사용자 관련 음성 정보를 획득하는 제 2 수집부; 상기 사용자와 관련된 생체 정보를 획득하는 제 3 수집부; 연직방향으로 길이를 가지며 하광상협의 트럼펫 형상으로 이루어지는 본체와, 상기 본체의 저면에 회전가능하게 구비되는 롤러유닛과, 상기 본체의 길이방향으로 연장되어 상기 본체에 인출가능하게 삽입되는 지지 프레임과, 상기 본체 내에 상기 지지 프레임의 인출 길이를 조절가능하게 설치되는 높이조절유닛과, 상기 지지 프레임에 틸팅가능하게 연결되는 브라켓과, 상기 제 1,2,3 수집부가 획득한 복수의 정보 중 적어도 일부를 표시하는 디스플레이부를 구비하여 상기 브라켓에 장착되는 사용자 단말을 포함하는 헬스케어용 로봇; 및 상기 제 1 수집부, 상기 제 2 수집부 및 상기 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로, 상기 사용자의 건강상태를 판단하고, 상기 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 디스플레이부의 화면 상에 표시되도록 제어하는 서버를 포함하되, 상기 제 1 정보는, 상기 제 1 정보에 대한 상기 사용자의 피드백 및 상기 판단한 건강상태의 변화를 기초로 실시간으로 변화되어 상기 디스플레이부의 화면 상에 표시될 수 있다.
Description
본 고안은 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템에 관한 것이다.
코로나19사태를 겪으면서 기존 제품을 활용 비 대면 의료시스템을 적용 새로운 의료체계 정밀의료, 예측의료, 예방 의료에 맞추어 지속적인 관리를 통하여 의료진의 효율적인 운영 및 self모니터링, 자가관리를 함으로 비용을 절감하고 국민건강을 증진하게 되며 동시에 사업 확장을 이루게 되었다.
먼저, 고령화, 건강에 대한 관심이 증대하고, ICT 기술의 발전으로 헬스케어 패러다임이 치료/병원 중심에서 예방/소비자 중심으로 변화되고 있다.
특히, 코로나19로 인한 의료진의 과로와 감염위험, 등 일반인의 정서불안 등을 극복하기 위한 비 대면/원격 의료수요가 급증하고 있다.
의료진을 지원하여 초기 의료 수요를 담당하는 지능형 대화 에이전트(chatbot) 연구개발 및 산업화가 활발하게 진행 중이다.
또한, 디지털 헬스케어 기술요소로 빅데이터, 인공지능, 모바일/웨어러블이 80% 차지하고 있다.
또한, 원격의료 성장률은 연평균 14.7% 성장, 글로벌 원격의료 시장은 2027년에는 1551억 달러까지 성장할 것으로 전망되며 의료비 절감과 사망률 감소 등 의료지표 개선 효과가 예상된다.
한편, 고령자와 정서적 안정이 필요한 사람들이 중가하고, 의료공백 지역이 증가하는 사회에서, 환자에 교감하고 모니터링하며 생활 지원할 수 있는 시스템이 필요하다.
또한, 주거형태의 변화(핵가족화)로 인한 노인들이 방치된 상태: 사람과의 교류 부재로 인한 사회적 문제 이외에 질병 이환율이 증가(특히 정신질환인 치매나 우울증)하고 있다.
또한, 요양보호사 지원시스템이 있어 일부 해결하고 있지만, 사람 간의 관계 문제로 오히려 노인 주거 환경이 악화되는 상황이 발생한다.
또한, 인간적이고 지속가능한, 개인맞춤형 감성대화 서비스 에이전트 필요하다.
또한, 전염병이 확산될 수 있는 사회에서 감성서비스가 비 대면 진료를 가능하게 하여 의료진의 과부하 및 감염위험을 줄일 수 있도록 원격진료 및 AI 의료도우미 도입이 필요하다.
또한, 평소에 개인별 건강/심리상태를 축적하고 있다가 필요시 전문 의료기관에 제공하고, 비 대면 진료나 원격진료가 필요한 경우, 감성서비스가 먼저 의료인이 할 것과 유사한 문진을 통해 1차로 검증하여 사람 의료인의 부하를 줄일 수 있는 방법이 요구되고 있는 실정이다.
또한, 자택 내에서 적용될 경우에 외형 자체가 사물보다는 사람에 가까운 로봇 형상으로 이루어져 보다 친근한 이미지로 인생의 동반자로서 노인들과 교감하면서 노인들의 외로움을 줄일 수 있는 동시에, 젊은 세대들이 이용하는 IPTV, OTT 등의 온라인 방송 서비스에 대해 노인들이 접근 및 활용하기 용이하도록 하여 영상 위주의 정보에 의존도가 높은 노인들에게 보다 효과적으로 대응하면서 정보 제공력 및 흥미도의 향상을 기대할 수 있는 생활밀착형 AI 로봇기술의 개발이 요구된다.
따라서, 본 고안은 상기 종래의 문제점을 해소하기 위해, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템을 제안하고자 한다.
구체적으로 본 고안은 재택 장소 상의 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부, 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부, 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부, 디스플레이부를 구비한 사용자 단말을 포함하는 헬스케어용 로봇 및 제 1 수집부 내지 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로 사용자의 건강상태를 판단하는 서버를 포함하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템을 제안하고자 한다.
특히, 본 고안에 따르면, 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 사용자 단말의 디스플레이부 화면 상에 표시되고, 사용자의 피드백 및 판단한 건강상태의 변화를 기초로 실시간으로 변화된 제 1 정보가 디스플레이부 화면 상에 표시될 수 있다.
또한, 본 고안에 따르면, 영상정보(얼굴표정 등), 음성정보(운율 등), 문맥(음성인식을 통한 대화문 등)은 물론, 생체신호(심박, 산소포화도 등) 반영, 환자의 마음을 평온하게 하는 인공지능 정서서비스가 제공될 수 있다.
더불어, 기존 상용화되고 있는 음성인식서비스와 비교하여, 인간다운 감성과 지능적 상황파악을 지닌 대화 에이전트 기술 (주변상황과 마음, 감정, 성향, 경험, 의도 등)을 의료서비스에 도입함으로써, 정서적 안정을 얻어서 의료비를 절감할 수 있다.
나아가, 자택 내에서 적용될 경우에 외형 자체가 사물보다는 사람에 가까운 로봇 형상으로 이루어져 보다 친근한 이미지로 인생의 동반자로서 노인들과 교감하면서 노인들의 외로움을 줄일 수 있는 동시에, 젊은 세대들이 이용하는 IPTV, OTT 등의 온라인 방송 서비스에 대해 노인들이 접근 및 활용하기 용이하도록 하여 영상 위주의 정보에 의존도가 높은 노인들에게 보다 효과적으로 대응하면서 정보 제공력 및 흥미도의 향상을 기대할 수 있고, 이에 따라, 노인들의 정보 만족도 상승과 무료함 해소를 달성할 수 있다.
다만, 본 고안에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 고안이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 실현하기 위한 본 고안의 일예와 관련된 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템은, 재택 장소 상의 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부; 상기 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부; 상기 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부; 연직방향으로 길이를 가지며 하광상협의 트럼펫 형상으로 이루어지는 본체와, 상기 본체의 저면에 회전가능하게 구비되는 롤러유닛과, 상기 본체의 길이방향으로 연장되어 상기 본체에 인출가능하게 삽입되는 지지 프레임과, 상기 본체 내에 상기 지지 프레임의 인출 길이를 조절가능하게 설치되는 높이조절유닛과, 상기 지지 프레임에 틸팅가능하게 연결되는 브라켓과, 상기 제 1,2,3 수집부가 획득한 복수의 정보 중 적어도 일부를 표시하는 디스플레이부를 구비하여 상기 브라켓에 장착되는 사용자 단말을 포함하는 헬스케어용 로봇; 및 상기 제 1 수집부, 상기 제 2 수집부 및 상기 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로, 상기 사용자의 건강상태를 판단하고, 상기 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 사용자 단말의 디스플레이부 화면 상에 표시되도록 제어하는 서버를 포함하되, 상기 제 1 정보는, 상기 제 1 정보에 대한 상기 사용자의 피드백 및 상기 판단한 건강상태의 변화를 기초로 실시간으로 변화되어 상기 디스플레이부의 화면 상에 표시될 수 있다.
또한, 상기 제 1 수집부는, 상기 서버를 통한 원격 제어에 의해 구동하는 팬틸트줌(PTZ - pan tilt zoom) 카메라를 포함하고, 상기 브라켓은, 상단에 상기 사용자 단말의 디스플레이부 화면 후측방향으로 돌출 연장되어, 상기 팬틸트줌 카메라를 안착시키기 위한 안착부를 포함할 수 있다.
또한, 상기 헬스케어용 로봇은, 상기 본체의 하부에 내장되는 셋톱박스(Set-Top Box)를 더 포함할 수 있고, 상기 본체는, 상기 셋톱박스의 위치와 대응하여 관통된 상기 하부의 어느 일측면에 설치되는 투명소재의 패널부를 포함할 수 있으며, 상기 사용자 단말은, 상기 셋톱박스와 함께 상호작용하면서 IPTV(Internet protocol television) 서비스를 제공가능하게 구성될 수 있다.
또한, 상기 서버는, 상기 영상 정보를 기반으로 한 상기 사용자의 제 1 감정을 판단하고, 상기 음성 정보를 기반으로 한 상기 사용자의 제 2 감정을 판단하며, 상기 생체 정보를 기반으로 한 상기 사용자의 제 3 감정을 판단하고, 상기 제 1 감정, 제 2 감정 및 제 3 감정 중 적어도 하나를 기초로, 상기 제 1 정보를 생성할 수 있다.
또한, 상기 서버는, 상기 제 1 정보에 대한 상기 사용자의 피드백을 기반으로 한 상기 사용자의 제 4 감정을 추가적으로 판단하고, 상기 제 4 감정을 기초로, 상기 제 1 정보를 변경할 수 있다.
또한, 상기 서버는, 상기 사용자의 표정을 기초로 상기 제 1 감정을 판단하고, 상기 사용자의 음성 운율을 기초로 상기 제 2 감정을 판단하며, 상기 사용자의 피드백 상의 문맥 정보를 기초로 상기 제 4 감정을 판단할 수 있다.
또한, 상기 서버는, 미리 지정된 복수의 위험 상태 중 상기 판단한 건강상태가 매칭되는 경우, 위험을 알리기 위한 정보가 미리 지정된 객체로 전송되고, 상기 디스플레이부의 화면 상에 표시되도록 제어할 수 있다.
또한, 상기 서버는, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 보호자 화상통화 요구정보를 생성하고, 상기 보호자 화상통화 요구정보가 생성되면, 상기 사용자의 보호자가 소지한 보호자 단말과 상기 사용자 단말 간 화상통화가 자동 연결가능하게 구성될 수 있다.
또한, 상기 사용자 단말은, OTT(Over the Top) 서비스를 제공가능하게 구성될 수 있고, 상기 서버는, 상기 보호자 단말로부터 상기 보호자의 OTT 계정에 관한 인증 데이터를 미리 저장할 수 있으며, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 OTT 재생 요구정보를 생성하고, 상기 OTT 재생 요구정보가 생성되면, 상기 인증 데이터를 로드하여 상기 OTT 재생 요구정보에 대응하는 영상 콘텐츠를 상기 사용자 단말의 디스플레이부 화면 상에 자동 재생가능하게 구성될 수 있다.
또한, 상기 서버는, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 의료진 화상통화 요구정보를 생성하고, 상기 의료진 화상통화 요구정보가 생성되면, 미리 지정된 의료 기관과 상기 사용자 단말 간 화상통화가 자동 연결가능하게 구성될 수 있다.
또한, 상기 서버는, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자 관련 질환을 예측하는 정보를 생성할 수 있다.
또한, 상기 서버는, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보, 상기 사용자의 피드백 정보 및 상기 사용자 관련 질환을 예측하는 정보를 누적하여 저장하고, 상기 의료 기관에 상기 누적된 복수의 정보를 제공하며, 상기 누적된 복수의 정보를 기반으로 미리 설정된 기간 단위로 리포트 정보를 생성하여 상기 보호자 단말로 제공할 수 있다.
또한, 상기 재택 헬스케어 모니터링 시스템은, 비 대면 진료 및 원격 진료 중 적어도 하나에 활용될 수 있다.
또한, 상기 본체는, 상단부가 상기 디스플레이부 화면이 위치한 전면측에서 후면측으로 향할수록 높이가 높아지는 굴곡을 이루며 형성될 수 있고, 상기 헬스케어용 로봇은, 상기 본체의 전면측에 지면과 수평을 이루도록 전개되는 접이식 선반을 더 포함할 수 있다.
또한, 상기 헬스케어용 로봇은, 상기 본체의 전면측 및 후면측에, 좌우 양측으로 돌출되어 상기 본체 상단부의 굴곡에 대응하는 굴곡을 이루면서 파지가능하게 설치되는 손잡이를 더 포함할 수 있다.
또한, 상기 제 1 수집부는, 상기 사용자의 표정을 촬영하기 위한 카메라, 광각 카메라 및 적외선 카메라를 포함할 수 있다.
또한, 상기 제 3 수집부는, 상기 사용자의 손목에 착용가능하게 이루어져 심박수, 혈압, 수면상태, 호흡, 산소포화도, 체온 중 적어도 하나의 생체신호에 대한 변화량을 측정하는 스마트 밴드를 포함할 수 있고, 상기 스마트 밴드는, 상기 사용자 단말과 블루투스 통신가능하게 구성될 수 있다.
또한, 상기 제 3 수집부는, 상기 사용자의 청각 정보를 수집하는 청각 정보 수집부, 상기 사용자의 걸음걸이 정보를 수집하는 걸음걸이 정보 수집부, 상기 사용자의 스트레스 정보를 수집하는 스트레스 정보 수집부, 상기 사용자의 심전도 정보를 수집하는 심전도 정보 수집부, 상기 사용자의 수면 정보를 수집하는 수면 정보 수집부, 상기 사용자의 집중 정보를 수집하는 집중 정보 수집부, 상기 사용자의 EEG(electroencephalogram) 정보를 수집하는 뇌파 정보 수집부 상기 사용자의 산소포화도(oxygen saturation) 정보를 수집하는 산소포화도 수집부 및 상기 사용자의 체온 정보를 수집하는 체온 수집부를 포함할 수 있다.
본 고안은 상기 종래의 문제점을 해소하기 위해, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템을 제공할 수 있다.
구체적으로 본 고안은 재택 장소 상의 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부, 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부, 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부, 디스플레이부를 구비한 사용자 단말을 포함하는 헬스케어용 로봇 및 제 1 수집부 내지 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로 사용자의 건강상태를 판단하는 서버를 포함하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템을 제공할 수 있다.
특히, 본 고안에 따르면, 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 사용자 단말의 디스플레이부 화면 상에 표시되고, 사용자의 피드백 및 판단한 건강상태의 변화를 기초로 실시간으로 변화된 제 1 정보가 디스플레이부 화면 상에 표시될 수 있다.
또한, 본 고안에 따르면, 영상정보(얼굴표정 등), 음성정보(운율 등), 문맥(음성인식을 통한 대화문 등)은 물론, 생체신호(심박, 산소포화도 등) 반영, 환자의 마음을 평온하게 하는 인공지능 정서서비스가 제공될 수 있다.
더불어, 기존 상용화되고 있는 음성인식서비스와 비교하여, 인간다운 감성과 지능적 상황파악을 지닌 대화 에이전트 기술 (주변상황과 마음, 감정, 성향, 경험, 의도 등)을 의료서비스에 도입함으로써, 정서적 안정을 얻어서 의료비를 절감할 수 있다.
나아가, 자택 내에서 적용될 경우에 헬스케어용 로봇의 외형 자체가 사물보다는 사람에 가까운 로봇 형상으로 이루어져 보다 친근한 이미지로 인생의 동반자로서 노인들과 교감하면서 노인들의 외로움을 줄일 수 있는 동시에, 젊은 세대들이 이용하는 IPTV, OTT 등의 온라인 방송 서비스에 대해 노인들이 접근 및 활용하기 용이하도록 하여 영상 위주의 정보에 의존도가 높은 노인들에게 보다 효과적으로 대응하면서 정보 제공력 및 흥미도의 향상을 기대할 수 있고, 이에 따라, 노인들의 정보 만족도 상승과 무료함 해소를 달성할 수 있다.
이외에도 고령자와 정서적 안정이 필요한 사람들이 증가하고, 의료공백 지역이 증가하는 사회에서, 환자에 교감하고 모니터링하며 생활 지원할 수 있는 시스템을 제공할 수 있다.
전염병이 확산될 수 있는 사회에서 감성서비스가 비 대면 진료를 가능하게 하여 의료진의 과부하 및 감염위험을 줄일 수 있도록 원격진료 및 AI 의료도우미 도입을 가능하게 할 수 있다.
평소에 개인별 건강/심리상태를 축적하고 있다가 필요시 전문 의료기관에 제공하고, 비 대면 진료나 원격진료가 필요한 경우, 감성서비스가 먼저 의료인이 할 것과 유사한 문진을 통해 1차로 검증하여 사람 의료인의 부하를 줄일 수 있다.
환자들이 만족할 수준의 ‘인간다운 감성’과 ‘지능적 상황파악’을 지닌 대화에이전트 기술의 완성도를 높여 의료서비스에 도입할 수 있다.
인공지능이 사람을 돕기 위해서는 주변상황과 사용자의 마음(감정, 성향, 경험, 의도 등)을 이해하고 적절히 반응하는 기술이 필요한데, 사람의 마음은 매우 미묘하고 겉으로 잘 드러나지 않으므로, 비침습식 센서(카메라, 마이크, 가속도계 등)로는 정확도를 높이기 어려워 미묘한 차이를 구별할 수 있는 멀티 모달 학습 데이터와 인식 기술을 제공할 수 있다.
현재 국내에서도 헬스케어 모니터링은 더이상 피할 수 없는 물결로써 빠르게 변화하는 외부 환경에 발맞춘 규제 완화를 통해 글로벌 시장에서의 경쟁력을 갖추도록 제도수립 연구 중이고, 해외에서도 기존 face to face 진료는 비용문제로 미주 및 호주 등 선진국에서는 가장 큰 사회문제, 재정문제로 되어 Telehealth를 적용 효율성 및 의료비절감을 적극 추진 중이므로, 본 고안이 갖는 파급효과가 클 것으로 예상된다.
다만, 본 고안에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 고안이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 고안과 관련하여, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 블록구성도 일례를 도시한 것이다.
도 2는 본 고안과 관련하여, 헬스케어용 로봇의 구체적인 형태를 도시한 것이다.
도 3a 내지 도 3c는 상기 도 2에 따른 헬스케어용 로봇의 정면도, 측면도, 후면 사시도를 도시한 것이다.
도 4는 상기 도 2에 따른 헬스케어용 로봇의 높이조절유닛 및 접이식 선반이 동작하는 모습을 도시한 것이다.
도 5는 상기 도 4에 따른 높이조절유닛에 의해 높이가 조절된 브라켓 및 사용자 단말의 모습과, 접이식 선반이 접혀진 모습을 도시한 것이다.
도 6은 상기 도 2에 따른 헬스케어용 로봇의 실제 모델링 제품과, 이와 연동하는 스마트 밴드를 나타낸 이미지이다.
도 7은 본 고안과 관련하여, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 활용 일례 및 상호 작용모습을 도시한 것이다.
도 8은 상기 도 7에 따른 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 서비스 기능 구성을 도시한 것이다.
도 9는 본 고안과 관련하여, 감정을 기초로 한 모니터링 방법의 일례를 도시한 것이다.
도 10은 본 고안과 관련하여, 사용자 단말 및 보호자 단말 간 화상통화 자동 연결 시도에 대한 일례를 도시한 것이다.
도 11은 본 고안의 활용 서비스 모델을 정리하여 도시한 것이다.
도 12는 본 고안에 따른 산업 효과의 일례를 구체적으로 도시한 것이다.
도 2는 본 고안과 관련하여, 헬스케어용 로봇의 구체적인 형태를 도시한 것이다.
도 3a 내지 도 3c는 상기 도 2에 따른 헬스케어용 로봇의 정면도, 측면도, 후면 사시도를 도시한 것이다.
도 4는 상기 도 2에 따른 헬스케어용 로봇의 높이조절유닛 및 접이식 선반이 동작하는 모습을 도시한 것이다.
도 5는 상기 도 4에 따른 높이조절유닛에 의해 높이가 조절된 브라켓 및 사용자 단말의 모습과, 접이식 선반이 접혀진 모습을 도시한 것이다.
도 6은 상기 도 2에 따른 헬스케어용 로봇의 실제 모델링 제품과, 이와 연동하는 스마트 밴드를 나타낸 이미지이다.
도 7은 본 고안과 관련하여, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 활용 일례 및 상호 작용모습을 도시한 것이다.
도 8은 상기 도 7에 따른 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 서비스 기능 구성을 도시한 것이다.
도 9는 본 고안과 관련하여, 감정을 기초로 한 모니터링 방법의 일례를 도시한 것이다.
도 10은 본 고안과 관련하여, 사용자 단말 및 보호자 단말 간 화상통화 자동 연결 시도에 대한 일례를 도시한 것이다.
도 11은 본 고안의 활용 서비스 모델을 정리하여 도시한 것이다.
도 12는 본 고안에 따른 산업 효과의 일례를 구체적으로 도시한 것이다.
이하에서는, 첨부한 도면을 참고로 하여 본 고안의 실시예에 대하여 본 고안이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 고안에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 고안의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 고안의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 고안에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 고안의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 고안에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 고안이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 고안에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템
도 1은 본 고안과 관련하여, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 블록구성도 일례를 도시한 것이다.
도 1을 참조하면, 재택 헬스케어 모니터링 시스템(1)은 헬스케어용 로봇(100), 서버(200) 및 정보수집부(300)를 포함할 수 있다.
먼저, 헬스케어용 로봇(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.
단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 재택 헬스케어 모니터링 시스템(1)이 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 재택 헬스케어 모니터링 시스템(1)과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 헬스케어용 로봇(100)기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), DVB-CBMS, OMA-BCAST, ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 사용자 테이블(100), 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 헬스케어용 로봇(100)에 내장되거나 외장될 수 있다.
상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 등이 이용될 수 있다.
위치 정보 모듈(115)은 헬스케어용 로봇(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다.
카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다.
카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다.
처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다.
마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
다음으로, 사용자 입력부(130)는 사용자가 재택 헬스케어 모니터링 시스템(1)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 재택 헬스케어 모니터링 시스템(1)의 개폐 상태, 재택 헬스케어 모니터링 시스템(1)의 위치, 사용자 접촉 유무, 재택 헬스케어 모니터링 시스템(1)의 방위, 재택 헬스케어 모니터링 시스템(1)의 가속/감속 등과 같이 재택 헬스케어 모니터링 시스템(1)의 현 상태를 감지하여 재택 헬스케어 모니터링 시스템(1)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다.
한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.
디스플레이부(151)는 재택 헬스케어 모니터링 시스템(1)에서 처리되는 정보를 표시(출력)한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 재택 헬스케어 모니터링 시스템(1) 바디의 디스플레이부(151)가 차지하는 영역을 통해 재택 헬스케어 모니터링 시스템(1) 바디의 후방에 위치한 사물을 볼 수 있다.
재택 헬스케어 모니터링 시스템(1)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 재택 헬스케어 모니터링 시스템(1)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 재택 헬스케어 모니터링 시스템(1)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다.
음향 출력 모듈(152)은 재택 헬스케어 모니터링 시스템(1)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 재택 헬스케어 모니터링 시스템(1)의 이벤트 발생을 알리기 위한 신호를 출력한다.
알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다.
상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다.
예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 재택 헬스케어 모니터링 시스템(1)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
프로젝터 모듈(155)은, 재택 헬스케어 모니터링 시스템(1)을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.
구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.
프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.
바람직하게, 프로젝터 모듈(155)은, 재택 헬스케어 모니터링 시스템(1)의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 재택 헬스케어 모니터링 시스템(1)의 어느 위치에라도 구비될 수 있음은 당연하다.
또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.
또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.
가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.
일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.
그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.
이러한 입체감 있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.
이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.
일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.
또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광 만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.
본 고안에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.
예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 원적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.
또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 재택 헬스케어 모니터링 시스템(1)은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 재택 헬스케어 모니터링 시스템(1)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 재택 헬스케어 모니터링 시스템(1) 내부의 각 구성 요소에 전달하거나, 재택 헬스케어 모니터링 시스템(1) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 재택 헬스케어 모니터링 시스템(1)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 재택 헬스케어 모니터링 시스템(1)과 연결될 수 있다.
상기 인터페이스부는 재택 헬스케어 모니터링 시스템(1)이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 재택 헬스케어 모니터링 시스템(1)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 재택 헬스케어 모니터링 시스템(1)의 전반적인 동작을 제어한다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
또한, 서버(200)는 데이터 베이스를 구축하여, 헬스케어용 로봇(100)과 정보를 교환할 수 있다.
이때, 서버(200)와 헬스케어용 로봇(100) 간에는 근거리 통신 또는 원거리 통신이 적용될 수 있다.
여기서 이용될 수 있는 상기 무선 통신 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
또한, 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 등이 이용될 수 있다.
또한, 정보 수집부(300)는 팬틸트줌(PTZ - pan tilt zoom) 카메라(310), 일반 카메라(321), 광각 카메라(322), 적외선 카메라(323), 스마트 밴드(330), 청각정보 수집부(340), 걸음걸이 정보 수집부(350), 심전도 정보 수집부(355), 수면정보 수집부(360), 집중정보 수집부(365), 뇌파정보 수집부(370), 산소포화도 정보 수집부(380), 체온 정보 수집부(390), 음성정보 수집부(395) 등을 포함할 수 있다.
정보 수집부(300)는, 큰 카테고리로 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부, 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부 및 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부로 구분될 수 있다.
여기서 제 1 수집부에는, 상기 서버(200)를 통한 원격 제어에 의해 구동하는 팬틸트줌 카메라(310)가 포함되거나, 일반 카메라(321), 광각 카메라(322), 적외선 카메라(323)가 포함될 수 있다.
또한, 제 2 수집부에는 음성정보 수집부(395)가 포함될 수 있다.
또한, 제 3 수집부에는 사용자의 손목에 착용가능하게 이루어져 심박수, 혈압, 수면상태, 호흡, 산소포화도, 체온 중 적어도 하나의 생체신호에 대한 변화량을 측정하는 스마트 밴드(330)가 포함되거나, 청각정보 수집부(340), 걸음걸이 정보 수집부(350), 심전도 정보 수집부(355), 수면정보 수집부(360), 집중정보 수집부(365), 뇌파정보 수집부(370), 산소포화도 정보 수집부(380), 체온 정보 수집부(390)가 포함될 수 있다.
정보 수집부(300)는, 유선 통신, 근거리 통신 또는 원거리 통신이 적용되어 서버(200)와 헬스케어용 로봇(100)과 정보를 교환할 수 있다.
헬스케어용 로봇(100)에는, 상기 제 1 수집부, 상기 제 2 수집부 및 상기 제 3 수집부가 획득한 복수의 정보 중 적어도 일부가 표시될 수 있다.
또한, 서버(200)는, 상기 제 1 수집부, 상기 제 2 수집부 및 상기 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로, 상기 사용자의 건강상태를 판단할 수 있다.
특히, 서버(200)는, 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 헬스케어용 로봇(100)의 디스플레이부(151) 화면 상에 표시되도록 제어할 수 있다.
이때, 제 1 정보는, 제 1 정보에 대한 상기 사용자의 피드백 및 판단한 건강상태의 변화를 기초로 실시간으로 변화되어 디스플레이부(151) 화면 상에 표시될 수 있다.
헬스케어용 로봇
도 2, 도 3a 내지 도 3c는 본 고안과 관련하여, 헬스케어용 로봇의 구체적인 형태를 도시한 것이다.
도 2, 도 3a 내지 도 3c를 참조하면 헬스케어용 로봇(100)은 본체(10), 롤러유닛(20), 지지 프레임(30), 높이조절유닛(미도시), 브라켓(40) 및 사용자 단말(50)을 포함한다.
본체(10)는 연직방향으로 길이를 가지며 하광상협의 트럼펫 형상으로 이루어지는 것이 바람직하다.
롤러유닛(20)은 상기 본체(10)의 저면에 회전가능하게 구비될 수 있고, 적어도 하나의 휠로 이루어지는 것이 바람직하다.
지지 프레임(30)은 상기 본체(10)의 길이방향으로 연장되어 상기 본체(10)에 인출가능하게 삽입될 수 있다.
높이조절유닛은 도 4 및 도 5에 도시된 바와 같이, 상기 본체(10) 내에 지지 프레임(30)의 인출 길이를 조절가능하게 설치될 수 있다.
이러한 상기 높이조절유닛은 피스톤을 이용한 구동방식 또는 전자식 모터를 이용한 구동방식이 적용될 수 있다.
브라켓(40)은 상기 도 4를 참조하여, 상기 지지 프레임(30)에 틸팅가능하게 연결되는 것이 바람직하다.
사용자 단말(50)은 디스플레이패드(51)를 구비하여 상기 브라켓(40)에 장착될 수 있다.
또한, 상기 사용자 단말(50)은 스마트 밴드(330)와 함께 블루투스 통신가능하게 구성될 수 있고, 상기 브라켓(40)은 상단에 디스플레이패드(51) 화면 후측방향으로 돌출 연장되어, 상기 팬틸트줌 카메라(310)를 안착시키기 위한 안착부(41)를 포함할 수 있다.
디스플레이패드(51)는 의료시설의 메인서버(200)와 네트워크를 통해 각각 연결되며, 메인서버(200)로부터 제공되는 다양한 방송 영상이나, 광고 컨텐츠 및 애플리케이션 등을 사용자에게 제공한다. 여기서, 애플리케이션은 메인서버(200)로부터 제공되는 애플리케이션 뿐만 아니라, 외부의 각종 기관 등에서 제공하는 애플리케이션이 모두 포함될 수 있다.
이때, 메인서버(200)는 의료시설 등에 설치되어 의료시설을 통해 제공하는 각종 서비스를 통합 운영 관리한다. 이를 위해 메인서버(200)는 환자의 진료기록이나 수술기록 이외에도 서비스를 제공하기 위한 애플리케이션 등을 저장하고, 또한 방송 영상 등을 디스플레이패드(51)로 제공한다.
이에 메인서버(200)는 디스플레이패드(51) 중 어느 하나 이상으로부터 해당 광고 컨텐츠(112)에 대한 상세 정보나 방송 영상 등을 요청받으면, 이들을 디스플레이패드(51)로 제공한다. 또한, 메인서버(200)는 애플리케이션이 실행되면, 애플리케이션을 통해 제공되는 각종 서비스를 의료시설용 디스플레이패드(51)로 제공한다.
광고 컨텐츠로는 메인서버(200) 또는 외부에서 제공하는 광고 컨텐츠 등이 포함될 수 있으며, 방송 영상으로는 유선 방송으로 제공되는 방송 영상이 포함될 수 있으며, 애플리케이션으로는 의료용 애플리케이션 뿐만 아니라 통상의 스마트 단말을 통해 제공되는 다양한 애플리케이션이 모두 포함될 수 있다.
한편, 디스플레이패드(51)는 메인서버(200)로부터 전달받은 각종 광고 컨텐츠, 방송 영상, 웹페이지 등을 사용자에게 제공하여 다양한 서비스를 이용할 수 있다.
이러한 디스플레이패드(51)는 통신부, 광고처리 모듈, 방송영상처리모듈, 앱처리 모듈, 영상 처리부, 터치스크린부, 저장부, 키입력부 및 제어모듈을 포함한다.
통신부는 네트워크를 통해 메인서버(200)와 연결되어 메인서버(200)와의 각종 통신인터페이스를 제공한다.
광고처리 모듈은 통신부로부터 입력되는 광고 컨텐츠를 출력한다. 이때, 광고 컨텐츠는 이미지나 동영상, 애니메이션 등 다양한 방식으로 제공될 수 있다.
방송영상처리 모듈은 유선으로 제공되는 각종 방송 영상을 처리하여 출력한다. 여기서, 방송 영상에는 통상의 유선 방송으로 제공되는 다양한 채널과 방송사의 방송 영상이 모두 포함될 수 있다.
앱처리 모듈은 기설치된 애플리케이션의 아이콘을 표시하도록 함과 더불어 제어모듈의 제어신호에 응답하여 해당 애플리케이션을 실행시켜 사용자가 해당 애플리케이션에서 제공하는 다양한 서비스를 이용할 수 있도록 한다.
영상 처리부는 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈로부터 출력되는 방송 영상이나 광고 컨텐츠 또는 아이콘을 화면 분할하여 터치스크린부를 통해 표출한다.
즉, 영상 처리부는 터치스크린부를 통해 방송 영상과 광고 컨텐츠 및 아이콘 등을 PIP(PICTURE IN PICTURE) 방식으로 터치스크린부의 화면상에 표출한다. 이 경우, 영상 처리부는 터치스크린부를 통해 방송 영상과 광고 컨텐츠 및 아이콘이 선택(터치 또는 드래그)되면, 방송 영상이나 광고 컨텐츠 또는 애플리케이션 실행 화면을 터치스크린부의 화면 전체 영역으로 표출하거나 일부 영역만으로 표출할 수 있다.
이외에도 영상 처리부는 방송 영상이나 광고 컨텐츠 또는 애플리케이션 실행 화면을 실행시키는 중에 해당 화면이 터치스크린부를 통해 선택되어 드래그되면 이에 대응하여 화면의 크기를 감소시키거나 증가시킬 수 있으며, 이외에도 출력되는 영역을 이동시킬 수도 있다.
터치스크린부는 화면으로 방송 영상이나 광고 컨텐츠 또는 아이콘을 표출함과 더불어 해당 방송 영상이나 광고 컨텐츠 또는 애플리케이션 실행 화면을 화면 전체 또는 일부 영역으로 표출한다.
더욱이, 터치스크린부는 사용자의 터치나 드래그 명령을 입력받아 제어모듈에 입력한다.
저장부는 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈 중 어느 하나 이상으로부터 입력되는 방송 영상이나 광고 컨텐츠 또는 애플리케이션 실행 중에 제공되는 각종 정보 등을 저장한다.
키입력부는 터치스크린부의 일측에 설치되어 방송 영상이나 광고 컨텐츠, 아이콘 실행 등의 각종 제어명령을 입력한다. 이러한 키입력부는 터치 패드 형식으로 제공될 수 있다. 키입력부를 통해 입력되는 명령으로는 방송 영상, 광고 컨텐츠 및 아이콘 실행 명령 뿐만 아니라, 방송 영상, 광고 컨텐츠 및 아이콘에 대한 메뉴 설정 명령 등이 포함될 수 있다.
제어모듈은 상기한 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈 중 어느 하나 이상으로부터 출력되는 방송 영상이나 광고 컨텐츠 또는 아이콘을 영상 처리부를 통해 화면 분할하여 터치스크린부를 통해 표출하도록 제어한다. 또한 제어모듈은 터치스크린부를 통해 방송 영상이나 광고 컨텐츠 또는 아이콘 등을 제공하는 상태에서 이들 중 어느 하나가 터치되면, 해당 방송 영상이나 광고 컨텐츠의 화면을 증감시키거나 또는 아이콘에 대응되는 애플리케이션을 실행시킨다.
더욱 상세히 설명하면, 제어모듈은 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈로부터 출력되는 방송 영상이나 광고 컨텐츠 또는 아이콘을 터치스크린부를 통해 하나의 화면상에 표출한다.
방송 영상이 터치스크린부를 통해 터치되면, 제어모듈은 해당 방송 영상의 크기를 증가시키거나 감소시킬 수 있으며, 이외에도 채널 변경, 볼륨 조정 등의 메뉴를 제공하여 사용자로 하여금 해당 메뉴를 선택할 수 있도록 한다. 또한 채널 변경이나 볼륨 조정 등의 메뉴는 상기한 바와 같이 화면 전체 영역으로 제공되는 과정에서 수행될 수 있으나, 이외에도 PIP 모드에서도 수행될 수 있다.
광고 컨텐츠가 터치스크린부를 통해 터치되면, 제어모듈은 해당 광고 컨텐츠의 크기를 증감시킬 수 있으며, 이외에도 해당 광고 컨텐츠에 대응되는 상세정보 등을 제공한다. 일 예로, 광고 컨텐츠가 광고일 경우에는 해당 광고 컨텐츠에 대한 상세정보를 제공하여 사용자가 해당 광고를 더욱 상세하게 인지할 수 있도록 한다.
한편, 아이콘이 터치스크린부를 통해 터치되면, 제어모듈은 해당 아이콘에 대응되는 애플리케이션을 실행시킨다. 이 경우 제어모듈은 영상 처리부를 통해 터치스크린부의 전체 영역으로 애플리케이션 실행 화면을 출력하거나 일부 영역만으로 출력할 수도 있다.
아울러, 제어모듈은 터치스크린부를 통해 입력되는 제어명령 또는 키입력부를 통해 입력되는 제어 명령에 따라 각종 메뉴를 실행시키고, 이러한 메뉴를 통해 방송 영상과 광고 컨텐츠 및 아이콘의 배치나 이들 화면의 크기나 실행 여부 등을 설정할 수 있다.
또한, 제어모듈은 터치스크린부 또는 키입력부를 통해 입력되는 제어명령에 따라 저장부에 기 저장되어 있는 각종 방송 영상이나 광고 컨텐츠 등을 터치스크린부를 통해 출력하거나 실행시킨다.
한편, 제어모듈은 터치스크린부를 통해 웹페이지를 터치스크린부의 전체 화면 중 일부에 제공한다. 이러한 웹페이지는 사전에 설정되며, 터치스크린부를 통해 웹페이지가 선택되면, 해당 웹페이지를 활성화시켜 터치스크린부의 전체 화면으로 제공하며, 이때 사용자는 해당 웹페이지를 선택하여 정보 이용이나 검색 등의 서비스를 이용할 수 있다. 이러한 웹페이지는 의료시설에서 제공하는 웹페이지 이외에도 다양한 웹페이지가 모두 포함될 수 있다.
이와 같이, 제어모듈은 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈 중 어느 하나 이상으로부터 출력되는 방송 영상이나 광고 컨텐츠 및 아이콘을 영상 처리부를 통해 화면 분할하여 터치스크린부를 통해 표출하도록 제어하되, 이때 터치스크린부 또는 키입력부를 통해 제어명령이 입력되면, 해당 제어명령에 따라 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈 각각을 제어한다. 이를 통해 사용자는 방송영상처리 모듈, 광고처리 모듈, 및 앱처리 모듈을 통해 제공되는 다양한 서비스를 이용할 수 있다.
이와 같은 본 실시예는 병원 등의 의료시설에 설치되어 각종 의료정보와 유선 영상, 광고 컨텐츠, 애플리케이션 등을 사용자의 제어명령에 따라 출력한다.
또한, 본 실시예는 의료정보 및 기타 서비스를 이용하기 위한 애플리케이션을 화면상에 표시하여 사용자가 이들 애플리케이션 중 어느 하나를 선택할 수 있도록 하고, 선택된 애플리케이션을 통해 제공되는 다양한 서비스를 이용할 수 있도록 한다.
게다가, 본 실시예는 하나의 화면 내에서 병원 로고나 광고, 방송 등을 PIP(Piture-in-Picture) 형태로 제공하여 사용자가 손쉽게 각종 방송 영상이나 정보 등을 제공받을 수 있도록 한다.
한편, 헬스케어용 로봇(100)은 상기 본체(10)의 하부에 내장되는 셋톱박스(Set-Top Box)(미도시)를 더 포함할 수 있고, 여기서, 상기 본체(10)는 셋톱박스의 위치와 대응하여 관통된 상기 하부의 어느 일측면에 설치되는 투명소재의 패널부(11)를 포함할 수 있으며, 상기 사용자 단말(50)은 셋톱박스와 함께 상호작용하면서 IPTV(Internet protocol television) 서비스를 제공가능하게 구성될 수 있다.
또한, 상기 본체(10)는 본 고안에 따르면, 상단부가 상기 디스플레이패드(51) 화면이 위치한 전면측에서 후면측으로 향할수록 높이가 높아지는 굴곡을 이루며 형성되는 것이 바람직하다.
더불어, 상기 헬스케어용 로봇(100)은 접이식 선반(60) 및 손잡이(70)를 더 포함하여 구성될 수 있다.
접이식 선반(60)은 상기 본체(10)의 전면측에 지면과 수평을 이루도록 전개되는 것이 바람직하다.
손잡이(70)는 상기 본체(10)의 전면측 및 후면측에, 좌우 양측으로 돌출되어 상기 본체(10) 상단부의 굴곡에 대응하는 굴곡을 이루면서 파지가능하게 설치되는 것이 바람직하다.
인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 활용
본 고안이 제안하는 영상/음성/생체신호와 인공지능(AI) 기반 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템(1)은 지능형 의료 서비스 시스템(비 대면 원격의료/디지털 정서서비스)으로, 의료진의 비 대면 화상 원격의료와 디지털 정서서비스 (HR, 감정 등 인지기능 향상을 위한 맞춤형 대화 및 케어)를 제고하고, 의료진을 대신하여 다음의 3가지 서비스 제공할 수 있다.
(1) 환자 헬스케어 관리 서비스
(2) AI 의료서비스
- 환자상태 모니터링
- 환자 개인 DB 구축/분석/예측
- 화상 의료상담/원격의료 보조
(3) AI 정서서비스
- 화상대화기반 정서안정
- 인지/기억 모니터링 및 관리
- 디지털치료
“(1) 환자 헬스케어 관리 서비스”는, 입원기간 동안 엔터테인먼트 포함, 질병교육, 환자스케줄, 처방, 치료경과 등 환자 맞춤형 서비스와 간호정보 입력 및 관리 등 효율적인 생활의료관리 서비스이다.
“(2) 의료 서비스”는 다중 카메라와 마이크, 심박 및 산소포화도 센서를 통해 환자의 상태를 가능한 24시간 모니터링하고, 이를 개인 데이터베이스로 구축한 후 분석하고 질환의 예후를 예측한다,
또한, 의료진을 대신하여 화면상의 아바타와 의료상담을 할 수 있는 등 법적으로 허용되는 범위에서 원격의료의 보조수단이 될 수 있다.
“(3) 정서 서비스”는 아바타와의 대화를 통해 환자의 정신적 스트레스나 우울증을 완화시켜 건강한 삶으로의 회복을 도울 수 있다.
즉, 대화 과정에서 지능형 환자관리시스템은 얼굴 표정과 음성 운율, 그리고 음성인식을 통한 자연어처리로 환자의 정서를 파악하고 개인 성향까지 고려하여 정서가 안정되도록 적절한 대화를 이끌어 나갈 수 있다.
또한, 환자 모니터링을 통해 인지기능과 기억의 변화를 모니터링하고, 필요한 경우, 대화를 통한 인지게임을 같이 하면서 관리할 수 있다. 이는, 최근 활발히 연구되고 실용화가 되기 시작하는 디지털 치료 적용의 일례가 될 수 있다.
도 7은 본 고안과 관련하여, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 활용 일례 및 상호 작용모습을 도시한 것이고, 도 8은 상기 도 7에 따른 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 서비스 기능 구성을 도시한 것이다.
또한, 도 9는 본 고안과 관련하여, 감정을 기초로 한 모니터링 방법의 일례를 도시한 것이고, 도 10은 본 고안과 관련하여, 사용자 단말 및 보호자 단말 간 화상통화 자동 연결 시도에 대한 일례를 도시한 것이다.
도 7 및 도 8을 참조하면, 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템(1)의 제 1 수집부는, 사용자 관련 영상 정보를 획득하고, 제 2 수집부는 사용자 관련 음성 정보를 획득하며, 제 3 수집부는 사용자와 관련된 생체 정보를 획득할 수 있다.
또한, 헬스케어용 로봇(100)의 디스플레이부(151)는 제 1 수집부, 제 2 수집부 및 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 표시할 수 있다.
또한, 서버(200)는 제 1 수집부, 제 2 수집부 및 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로, 사용자의 건강상태를 판단할 수 있다.
특히, 서버(200)는, 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 헬스케어용 로봇(100)의 디스플레이부(151) 화면 상에 표시되도록 제어할 수 있다.
이때, 제 1 정보는, 상기 제 1 정보에 대한 상기 사용자의 피드백 및 상기 판단한 건강상태의 변화를 기초로 실시간으로 변화되어 상기 디스플레이부(151) 화면 상에 표시될 수 있다.
또한, 도 9를 참조하면, 본 고안에 따른 서버(200)는, 영상 정보를 기반으로 한 상기 사용자의 제 1 감정을 판단하고, 음성 정보를 기반으로 한 상기 사용자의 제 2 감정을 판단하며, 생체 정보를 기반으로 한 상기 사용자의 제 3 감정을 판단할 수 있다.
이를 기초로, 서버(200)는, 제 1 감정, 제 2 감정 및 제 3 감정 중 적어도 하나를 기초로, 상기 제 1 정보를 생성할 수 있다.
구체적으로, 상기 서버(200)는, 상기 제 1 정보에 대한 상기 사용자의 피드백을 기반으로 한 상기 사용자의 제 4 감정을 추가적으로 판단할 수 있다.
이러한 제 4 감정을 기초로, 상기 제 1 정보를 변경할 수 있다.
서버(200)는, 사용자의 표정을 기초로 상기 제 1 감정을 판단하고, 사용자의 음성 운율을 기초로 상기 제 2 감정을 판단하며, 사용자의 피드백 상의 문맥 정보를 기초로 상기 제 4 감정을 판단할 수 있다.
또한, 상기 서버(200)는, 미리 지정된 복수의 위험 상태 중 상기 판단한 건강상태가 매칭되는 경우, 위험을 알리기 위한 정보가 미리 지정된 객체로 전송되고, 상기 디스플레이부(151)의 화면 상에 표시되도록 제어할 수 있다.
더불어, 상기 서버(200)는, 영상 정보, 음성 정보, 생체 정보, 제 1 감정 정보, 제 2 감정 정보, 제 3 감정 정보, 제 4 감정 정보 및 사용자의 피드백 정보를 기반으로, 상기 사용자의 보호자 화상통화 요구정보를 생성하고, 상기 보호자 화상통화 요구정보가 생성되면, 상기 사용자의 보호자가 소지한 보호자 단말(420)과 상기 사용자 단말(50) 간 화상통화가 자동 연결(도 10 참조)가능하게 구성될 수 있다.
한편, 상기 사용자 단말(50)은 OTT(Over the Top) 서비스를 제공가능하게 구성될 수도 있고, 여기서, 상기 서버(200)는, 상기 보호자 단말(420)로부터 상기 보호자의 OTT 계정에 관한 인증 데이터를 미리 저장할 수 있으며, 영상 정보, 음성 정보, 생체 정보, 제 1 감정 정보, 제 2 감정 정보, 제 3 감정 정보, 제 4 감정 정보 및 사용자의 피드백 정보를 기반으로, 상기 사용자의 OTT 재생 요구정보를 생성하고, 상기 OTT 재생 요구정보가 생성되면, 상기 인증 데이터를 로드하여 상기 OTT 재생 요구정보에 대응하는 영상 콘텐츠를 상기 디스플레이부(151)의 화면 상에 자동 재생가능하게 구성될 수 있다.
나아가, 상기 서버(200)는, 영상 정보, 음성 정보, 생체 정보, 제 1 감정 정보, 제 2 감정 정보, 제 3 감정 정보, 제 4 감정 정보 및 사용자의 피드백 정보를 기반으로, 상기 사용자의 의료진 화상통화 요구정보를 생성하고, 상기 의료진 화상통화 요구정보가 생성되면, 미리 지정된 의료 기관(410)과 상기 사용자 단말(50) 간 화상통화가 자동 연결가능하게 구성될 수 있다.
이외에도 상기 서버(200)는, 영상 정보, 음성 정보, 생체 정보, 제 1 감정 정보, 제 2 감정 정보, 제 3 감정 정보, 제 4 감정 정보 및 사용자의 피드백 정보를 기반으로, 사용자 관련 질환을 예측하는 정보를 생성할 수 있다.
이때, 상기 서버(200)는, 상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보, 상기 사용자의 피드백 정보 및 상기 사용자 관련 질환을 예측하는 정보를 누적하여 저장하고, 상기 의료 기관(410)에 상기 누적된 복수의 정보를 제공하며, 상기 누적된 복수의 정보를 기반으로 미리 설정된 기간 단위로 리포트 정보를 생성하여 상기 보호자 단말(420)로 제공할 수 있다.
이를 통해, 본 고안이 제안하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템(1)은, 비 대면 진료 및 원격 진료 중 적어도 하나에 활용될 수 있다.
전술한 것과 같이, 제 1 수집부는, 팬틸트줌 카메라(310)를 포함하거나, 상기 사용자의 표정을 촬영하기 위한 카메라(321), 광각 카메라(322) 및 적외선 카메라(323)를 포함할 수 있다.
본 고안에 따른 광각 및 적외선 카메라(322, 323)가 상하좌우 구동이 가능한 경우, 광각 카메라(322) 대신에 같은 위치에 적외선 카메라(323)와 같이 구동되는 정면 카메라를 배치하여 활용하는 것도 가능하다.
또한, 광각은 180도로 적용하는 것이 바람직하나 광각을 정면카메라로 대신하시면 적외선과 같은 시야각도 적용 가능하다.
본 고안에 적용되는 마이크의 개수는 많아질수록 정확도를 높일 수 있다.
또한, 본 고안에 따른 적외선 카메라(323)와 광각 카메라(322)는 상하좌우로 구동할 수 있도록 디자인 가능하고, 대표적으로, 상하는 100도 이내, 좌우는 180도 이내로 구동 가능하다.
또한, 적외선 카메라(323) 광각 카메라(322)의 영상 각도는 120도로 적용되는 것이 바람직하다.
또한, 적외선 카메라(323) 시야각은 D=90° H=80° V=60° 으로 적용되고, 광각 카메라(322) 시야각은 D 180° 으로 적용 가능하다.
이때, 영상 정보는, 재택 장소 상의 사용자와 관련된 영상이 될 수 있다.
또한, 제 3 수집부는, 스마트 밴드(330)를 포함하거나, 상기 사용자의 청각 정보를 수집하는 청각정보 수집부(340), 상기 사용자의 걸음걸이 정보를 수집하는 걸음걸이 정보 수집부(350), 상기 사용자의 스트레스 정보를 수집하는 스트레스 정보 수집부(미도시), 상기 사용자의 심전도 정보를 수집하는 심전도 정보 수집부(355), 상기 사용자의 수면 정보를 수집하는 수면정보 수집부(360), 상기 사용자의 집중 정보를 수집하는 집중정보 수집부(365), 상기 사용자의 EEG(electroencephalogram) 정보를 수집하는 뇌파정보 수집부(370), 상기 사용자의 산소포화도(oxygen saturation) 정보를 수집하는 산소포화도 정보 수집부(380) 및 상기 사용자의 체온 정보를 수집하는 체온 정보 수집부(390), 음성을 수집하는 음성정보 수집부(395)를 포함할 수 있다.
전술한 것과 같이, 본 고안의 핵심 기술은 다음과 같이 정리될 수 있다.
(1) 디스플레이와 통신기능을 보유한 일반 개인용 스마트패드
(2) 3종 카메라(얼굴표정 인식용, 주위상황 인식용, 적외선 생체신호 인식용)
(3) 마이크 어레이(음원탐지 및 잡음제거용)
(4) 생체신호센서(심박수, 산소포화도)
또한, 본 고안이 적용될 수 있는 의료서비스는 다음과 같이 정리될 수 있다.
(1) 환자의 의료관련 정보제공 및 환자상태 모니터링을 위한 기본 의료서비스
(2) 병원 행정 및 지불 연계를 위한 보조 의료서비스
(3) 질병교육 및 자가측정 관리 등 생활서비스
또한, 본 고안이 적용될 수 있는 정서서비스는 다음과 같이 정리될 수 있다.
(1) 언제 어디서나 감성을 담은 화상통화로 환자의 마음을 평온하게 하는 인공지능 대화
(2) 에이전트에 의한 비 대면 인공지능 정서서비스(스트레스 감소, 초기 심리상담, 정신 건강, 인지기능 증진훈련 등 디지털치료법(Digital Therapeutics) 도입)
또한, 본 고안에 따른 서비스의 용도 및 적용 분야는 다음과 같이 정리될 수 있다.
(1) 대상: 음압, 중환자, 일반병실, 선별진료소, 재택
(2) 의료진 및 가족 간 화상통화
(3) 비접촉식 환자상태 모니터링 및 호출
(4) 환자 모니터링 및 예측
복수의 기기를 이용한 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템의 활용
도 11은 본 고안의 활용 서비스 모델을 정리하여 도시한 것이다.
도 11에 따르면, 디지털치료 기반 정서서비스를 통해, 다음과 같은 다양한 데이터 확보 및 활용이 가능하다.
- 감성분류: 중립 및 6개 감정(Ekman의 Happy, Sad, Surprise, Angry, Fear, Disgust)에 대한 data 확보,
- 환자사용 data 확보 관련, AI 데이터를 활용해 원하는 성과를 달성하기 위해서는 무엇보다도 고품질의 데이터 확보가 중요 제품설치 된 의료원 위주로 지속적으로 환자사용 data 확보하여 인지/정서 서비스 질 향상
- 화상통화 기능: Hand unit 및 시스템에 설치된 다중 MIC와 카메라 사용 화상통화 구현
- 광각카메라: 얼굴표정 정확도 향상
즉, 본 고안은 다음과 같은 요소를 통해 혁신적 기술적 요소를 구비한다.
1) 의료IoT정합 된 스마트 시스템과 디지털 정서 서비스이다.
2) 국내외 대부분의 원격의료서비스개발은 일반 불특정 다수의 스마트폰에 설치하는 형태의 단일 서비스인데 비하여, 본 기술은 맞춤형 생활의료서비스와 원격의료를 할 수 있는 의료 스마트 시스템을 갖추고 있다.
특히, 원내사용으로 인하여 집중적이고 효율적인 의료 관리, 접근관리가 용이하고, 양질의 자료와 데이터를 확보할 수 있고, 효율적인 의료/방역이 가능하다.
3) 여기에 기존 의료기기에서 결여된 “인간중심”, 특히 인간감성에 기반한 정서서비스로 “단순한 명령-수행이나 질의-응답”이 아닌, 인간의 감성과 상황까지 반영된 인공지능의 자연스런 대화 기술”로 인간과 인공지능이 상호 유기적으로 협력하는 상호작용 형태의 신모델 지능형 환자관리 시스템이 제공될 수 있다.
본 고안에 따른 효과
도 12는 본 고안에 따른 산업 효과의 일례를 구체적으로 도시한 것이다.
도 12를 참조하면, 본 고안은 상기 종래의 문제점을 해소하기 위해, 본 고안은 인공지능 기반의 동반자형 로봇를 활용한 재택 헬스케어 모니터링 시스템을 제공할 수 있다.
구체적으로 본 고안은 재택 장소 상의 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부, 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부, 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부, 디스플레이부를 구비한 사용자 단말을 포함하는 헬스케어용 로봇 및 제 1 수집부 내지 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로 사용자의 건강상태를 판단하는 서버를 포함하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템을 제공할 수 있다.
특히, 본 고안에 따르면, 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 사용자 단말의 디스플레이부 화면 상에 표시되고, 사용자의 피드백 및 판단한 건강상태의 변화를 기초로 실시간으로 변화된 제 1 정보가 디스플레이부 화면 상에 표시될 수 있다.
또한, 본 고안에 따르면, 영상정보(얼굴표정 등), 음성정보(운율 등), 문맥(음성인식을 통한 대화문 등)은 물론, 생체신호(심박, 산소포화도 등) 반영, 환자의 마음을 평온하게 하는 인공지능 정서서비스가 제공될 수 있다.
더불어, 기존 상용화되고 있는 음성인식서비스와 비교하여, 인간다운 감성과 지능적 상황파악을 지닌 대화 에이전트 기술 (주변상황과 마음, 감정, 성향, 경험, 의도 등)을 의료서비스에 도입함으로써, 정서적 안정을 얻어서 의료비를 절감할 수 있다.
나아가, 자택 내에서 적용될 경우에 헬스케어용 로봇의 외형 자체가 사물보다는 사람에 가까운 로봇 형상으로 이루어져 보다 친근한 이미지로 인생의 동반자로서 노인들과 교감하면서 노인들의 외로움을 줄일 수 있는 동시에, 젊은 세대들이 이용하는 IPTV, OTT 등의 온라인 방송 서비스에 대해 노인들이 접근 및 활용하기 용이하도록 하여 영상 위주의 정보에 의존도가 높은 노인들에게 보다 효과적으로 대응하면서 정보 제공력 및 흥미도의 향상을 기대할 수 있고, 이에 따라, 노인들의 정보 만족도 상승과 무료함 해소를 달성할 수 있다.
이외에도 고령자와 정서적 안정이 필요한 사람들이 증가하고, 의료공백 지역이 증가하는 사회에서, 환자에 교감하고 모니터링하며 생활 지원할 수 있는 시스템을 제공할 수 있다.
전염병이 확산될 수 있는 사회에서 감성서비스가 비 대면 진료를 가능하게 하여 의료진의 과부하 및 감염위험을 줄일 수 있도록 원격진료 및 AI 의료도우미 도입을 가능하게 할 수 있다.
평소에 개인별 건강/심리상태를 축적하고 있다가 필요시 전문 의료기관에 제공하고, 비 대면 진료나 원격진료가 필요한 경우, 감성서비스가 먼저 의료인이 할 것과 유사한 문진을 통해 1차로 검증하여 사람 의료인의 부하를 줄일 수 있다.
환자들이 만족할 수준의 ‘인간다운 감성’과 ‘지능적 상황파악’을 지닌 대화에이전트 기술의 완성도를 높여 의료서비스에 도입할 수 있다.
인공지능이 사람을 돕기 위해서는 주변상황과 사용자의 마음(감정, 성향, 경험, 의도 등)을 이해하고 적절히 반응하는 기술이 필요한데, 사람의 마음은 매우 미묘하고 겉으로 잘 드러나지 않으므로, 비침습식 센서(카메라, 마이크, 가속도계 등)로는 정확도를 높이기 어려워 미묘한 차이를 구별할 수 있는 멀티 모달 학습 데이터와 인식 기술을 제공할 수 있다.
현재 국내에서도 헬스케어 모니터링은 더이상 피할 수 없는 물결로써 빠르게 변화하는 외부 환경에 발맞춘 규제 완화를 통해 글로벌 시장에서의 경쟁력을 갖추도록 제도수립 연구 중이고, 해외에서도 기존 face to face 진료는 비용문제로 미주 및 호주 등 선진국에서는 가장 큰 사회문제, 재정문제로 되어 Telehealth를 적용 효율성 및 의료비절감을 적극 추진 중이므로, 본 고안이 갖는 파급효과가 클 것으로 예상된다.
제안된 고안에 따른 기대 효과는 다음과 같이 정리 가능하다.
(1) 과학/기술적 측면
- 영상/음성/생체신호와 인공지능(AI) 기반 모니터링을 통한 개인맞춤형 예측 및 환자 케어 기술
- 감성대화를 통한 개인맞춤형 자연스러운 인지 모니터링 기술 확보
- IOT의 기술력 증진과 범용성 향상
- 음성 및 영상부호화 및 전송 서비스 기술
- 환자 모니터링 및 처리 및 활용 기술
- 서비스 결과 예측 및 관리
- Big data자료 확보: 병동별, 연령, 질환별 사용에 따른 Big data자료 확보 및 활용
- 질환별 특성파악
- 각국 인종별 특성
- 기술, 디자인 특허 확보
(2) 산업적/사회적 측면
- 대화기반 원격진료 인터페이스 활용으로 의료진의 대면부담 해소
- 환자 자가관리, 교육을 통한 비용절감, 국민건강 증진
- 개인의 삶의 질 향상과 사회적 질병부담 감소 기대
- 소셜 서비스와 의료서비스의 긍정적 경제효과
- 정서적 안정으로 인한 의료비를 절감
- Big Data 확보 및 활용
다만, 본 고안에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 고안이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같이 설명된 시스템은 상기 설명된 실시예들의 구성이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
상술한 바와 같이 개시된 본 고안의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 고안을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 고안의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 고안의 영역으로부터 벗어나지 않는 범위 내에서 본 고안을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 고안은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 고안은 본 고안의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 고안의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 고안의 등가적 범위 내에서의 모든 변경은 본 고안의 범위에 포함된다. 본 고안은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
Claims (18)
- 재택 장소 상의 사용자 관련 영상 정보를 획득하기 위한 제 1 수집부;
상기 사용자 관련 음성 정보를 획득하기 위한 제 2 수집부;
상기 사용자와 관련된 생체 정보를 획득하기 위한 제 3 수집부;
연직방향으로 길이를 가지며 하광상협의 트럼펫 형상으로 이루어지는 본체와, 상기 본체의 저면에 회전가능하게 구비되는 롤러유닛과, 상기 본체의 길이방향으로 연장되어 상기 본체에 인출가능하게 삽입되는 지지 프레임과, 상기 본체 내에 상기 지지 프레임의 인출 길이를 조절가능하게 설치되는 높이조절유닛과, 상기 지지 프레임에 틸팅가능하게 연결되는 브라켓과, 상기 제 1,2,3 수집부가 획득한 복수의 정보 중 적어도 일부를 표시하는 디스플레이부를 구비하여 상기 브라켓에 장착되는 사용자 단말을 포함하는 헬스케어용 로봇; 및
상기 제 1 수집부, 상기 제 2 수집부 및 상기 제 3 수집부가 획득한 복수의 정보 중 적어도 일부를 기초로, 상기 사용자의 건강상태를 판단하고, 상기 판단한 건강상태를 기반으로 자동으로 생성된 제 1 정보가 상기 사용자 단말의 디스플레이부 화면 상에 표시되도록 제어하는 서버를 포함하되,
상기 제 1 정보는,
상기 제 1 정보에 대한 상기 사용자의 피드백 및 상기 판단한 건강상태의 변화를 기초로 실시간으로 변화되어 상기 디스플레이부의 화면 상에 표시되는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 제 1 수집부는,
상기 서버를 통한 원격 제어에 의해 구동하는 팬틸트줌(PTZ - pan tilt zoom) 카메라를 포함하고,
상기 브라켓은,
상단에 상기 사용자 단말의 디스플레이부 화면 후측방향으로 돌출 연장되어, 상기 팬틸트줌 카메라를 안착시키기 위한 안착부를 포함하는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 헬스케어용 로봇은,
상기 본체의 하부에 내장되는 셋톱박스(Set-Top Box)를 더 포함하는 것을 특징으로 하고,
상기 본체는,
상기 셋톱박스의 위치와 대응하여 관통된 상기 하부의 어느 일측면에 설치되는 투명소재의 패널부를 포함하는 것을 특징으로 하며,
상기 사용자 단말은,
상기 셋톱박스와 함께 상호작용하면서 IPTV(Internet protocol television) 서비스를 제공가능하게 구성되는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 서버는,
상기 영상 정보를 기반으로 한 상기 사용자의 제 1 감정을 판단하고,
상기 음성 정보를 기반으로 한 상기 사용자의 제 2 감정을 판단하며,
상기 생체 정보를 기반으로 한 상기 사용자의 제 3 감정을 판단하고,
상기 제 1 감정, 제 2 감정 및 제 3 감정 중 적어도 하나를 기초로, 상기 제 1 정보를 생성하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 4 항에 있어서,
상기 서버는,
상기 제 1 정보에 대한 상기 사용자의 피드백을 기반으로 한 상기 사용자의 제 4 감정을 추가적으로 판단하고,
상기 제 4 감정을 기초로, 상기 제 1 정보를 변경하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 5 항에 있어서,
상기 서버는,
상기 사용자의 표정을 기초로 상기 제 1 감정을 판단하고,
상기 사용자의 음성 운율을 기초로 상기 제 2 감정을 판단하며,
상기 사용자의 피드백 상의 문맥 정보를 기초로 상기 제 4 감정을 판단하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 6 항에 있어서,
상기 서버는,
미리 지정된 복수의 위험 상태 중 상기 판단한 건강상태가 매칭되는 경우,
위험을 알리기 위한 정보가 미리 지정된 객체로 전송되고, 상기 디스플레이부의 화면 상에 표시되도록 제어하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 7 항에 있어서,
상기 서버는,
상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 보호자 화상통화 요구정보를 생성하고,
상기 보호자 화상통화 요구정보가 생성되면, 상기 사용자의 보호자가 소지한 보호자 단말과 상기 사용자 단말 간 화상통화가 자동 연결가능하게 구성된 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 8 항에 있어서,
상기 사용자 단말은,
OTT(Over the Top) 서비스를 제공가능하게 구성되는 것을 특징으로 하고,
상기 서버는,
상기 보호자 단말로부터 상기 보호자의 OTT 계정에 관한 인증 데이터를 미리 저장하는 것을 특징으로 하며,
상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 OTT 재생 요구정보를 생성하고,
상기 OTT 재생 요구정보가 생성되면, 상기 인증 데이터를 로드하여 상기 OTT 재생 요구정보에 대응하는 영상 콘텐츠를 상기 사용자 단말의 디스플레이부 화면 상에 자동 재생가능하게 구성된 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 9 항에 있어서,
상기 서버는,
상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자의 의료진 화상통화 요구정보를 생성하고,
상기 의료진 화상통화 요구정보가 생성되면, 미리 지정된 의료 기관과 상기 사용자 단말 간 화상통화가 자동 연결가능하게 구성된 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 10 항에 있어서,
상기 서버는,
상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보 및 상기 사용자의 피드백 정보를 기반으로, 상기 사용자 관련 질환을 예측하는 정보를 생성하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 11 항에 있어서,
상기 서버는,
상기 영상 정보, 상기 음성 정보, 상기 생체 정보, 상기 제 1 감정 정보, 상기 제 2 감정 정보, 상기 제 3 감정 정보, 상기 제 4 감정 정보, 상기 사용자의 피드백 정보 및 상기 사용자 관련 질환을 예측하는 정보를 누적하여 저장하고,
상기 의료 기관에 상기 누적된 복수의 정보를 제공하며,
상기 누적된 복수의 정보를 기반으로 미리 설정된 기간 단위로 리포트 정보를 생성하여 상기 보호자 단말로 제공하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 12 항에 있어서,
상기 재택 헬스케어 모니터링 시스템은,
비 대면 진료 및 원격 진료 중 적어도 하나에 활용되는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 본체는,
상단부가 상기 디스플레이부 화면이 위치한 전면측에서 후면측으로 향할수록 높이가 높아지는 굴곡을 이루며 형성된 것을 특징으로 하고,
상기 헬스케어용 로봇은,
상기 본체의 전면측에 지면과 수평을 이루도록 전개되는 접이식 선반을 더 포함하는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 14 항에 있어서,
상기 헬스케어용 로봇은,
상기 본체의 전면측 및 후면측에, 좌우 양측으로 돌출되어 상기 본체 상단부의 굴곡에 대응하는 굴곡을 이루면서 파지가능하게 설치되는 손잡이를 더 포함하는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 제 1 수집부는,
상기 사용자의 표정을 촬영하기 위한 카메라, 광각 카메라 및 적외선 카메라를 포함하는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서,
상기 제 3 수집부는,
상기 사용자의 손목에 착용가능하게 이루어져 심박수, 혈압, 수면상태, 호흡, 산소포화도, 체온 중 적어도 하나의 생체신호에 대한 변화량을 측정하는 스마트 밴드를 포함하는 것을 특징으로 하고,
상기 스마트 밴드는,
상기 사용자 단말과 블루투스 통신가능하게 구성되는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
- 제 1 항에 있어서
상기 제 3 수집부는,
상기 사용자의 청각 정보를 수집하는 청각 정보 수집부, 상기 사용자의 걸음걸이 정보를 수집하는 걸음걸이 정보 수집부, 상기 사용자의 스트레스 정보를 수집하는 스트레스 정보 수집부, 상기 사용자의 심전도 정보를 수집하는 심전도 정보 수집부, 상기 사용자의 수면 정보를 수집하는 수면 정보 수집부, 상기 사용자의 집중 정보를 수집하는 집중 정보 수집부, 상기 사용자의 EEG(electroencephalogram) 정보를 수집하는 뇌파 정보 수집부 상기 사용자의 산소포화도(oxygen saturation) 정보를 수집하는 산소포화도 수집부 및 상기 사용자의 체온 정보를 수집하는 체온 수집부를 포함하는 것을 특징으로 하는 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR2020230000043U KR20240001224U (ko) | 2023-01-06 | 2023-01-06 | 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR2020230000043U KR20240001224U (ko) | 2023-01-06 | 2023-01-06 | 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240001224U true KR20240001224U (ko) | 2024-07-17 |
Family
ID=92108208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR2020230000043U Pending KR20240001224U (ko) | 2023-01-06 | 2023-01-06 | 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240001224U (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200110134A (ko) | 2019-03-13 | 2020-09-23 | 가부시기가이샤 후지고오키 | 가변용량형 압축기용 제어 밸브 |
-
2023
- 2023-01-06 KR KR2020230000043U patent/KR20240001224U/ko active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200110134A (ko) | 2019-03-13 | 2020-09-23 | 가부시기가이샤 후지고오키 | 가변용량형 압축기용 제어 밸브 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507799B (zh) | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 | |
US10915180B2 (en) | Systems and methods for monitoring a user's eye | |
KR101988110B1 (ko) | 생체신호연동 가상현실 교육 시스템 및 방법 | |
Cognolato et al. | Head-mounted eye gaze tracking devices: An overview of modern devices and recent advances | |
KR20180045278A (ko) | 생체신호연동 가상현실 인지재활 시스템 | |
US10095833B2 (en) | Mobile information gateway for use by medical personnel | |
EP2851831B1 (en) | Mobile Information Gateway for Home Healthcare | |
EP2851830B1 (en) | Mobile information gateway for use in emergency situations or with special equipment | |
CN112181152A (zh) | 基于mr眼镜的广告推送管理方法、设备及应用 | |
US20230043118A1 (en) | Patient care methods and systems through artificial intelligence-based monitoring | |
Chen et al. | A review on ergonomics evaluations of virtual reality | |
US20240153205A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
US20240103615A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
US20240152244A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240104861A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
KR20240001224U (ko) | 인공지능 기반의 동반자형 로봇을 활용한 재택 헬스케어 모니터링 시스템 | |
KR20200087466A (ko) | 식품의약품 이력 관리 및 개인 건강 관리 시스템 | |
KR102267410B1 (ko) | 터치 기반의 인지 기능 훈련 시스템 | |
US12352975B1 (en) | Electronic device with adjustable compensation frequency | |
US20240194049A1 (en) | User suggestions based on engagement | |
US11954249B1 (en) | Head-mounted systems with sensor for eye monitoring | |
US20240370542A1 (en) | Devices, methods, and graphical user interfaces for transitioning between multiple modes of operation | |
US20250209754A1 (en) | Techniques for orienting a visual representation of a remote user based on physical landmarks within local physical surroundings of a user during a shared artificial-reality interaction | |
KR20250101311A (ko) | 엔코더 센서를 이용한 실시간 모터 전류제어 시스템 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
UA0108 | Application for utility model registration |
Comment text: Application for Utility Model Registration Patent event code: UA01011R08D Patent event date: 20230106 |
|
UA0201 | Request for examination | ||
UG1501 | Laying open of application |