[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102495597B1 - 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말 - Google Patents

시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말 Download PDF

Info

Publication number
KR102495597B1
KR102495597B1 KR1020200134615A KR20200134615A KR102495597B1 KR 102495597 B1 KR102495597 B1 KR 102495597B1 KR 1020200134615 A KR1020200134615 A KR 1020200134615A KR 20200134615 A KR20200134615 A KR 20200134615A KR 102495597 B1 KR102495597 B1 KR 102495597B1
Authority
KR
South Korea
Prior art keywords
voice
lecture
time
instructor
output
Prior art date
Application number
KR1020200134615A
Other languages
English (en)
Other versions
KR20220050668A (ko
Inventor
임순범
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020200134615A priority Critical patent/KR102495597B1/ko
Publication of KR20220050668A publication Critical patent/KR20220050668A/ko
Application granted granted Critical
Publication of KR102495597B1 publication Critical patent/KR102495597B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

사용자 단말에서 수행되는, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법이 개시된다. 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.

Description

시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말{METHOD FOR PROVIDING ONLINE LECTURE CONTENT FOR VISUALLY-IMPAIRED PERSON AND USER TERMINAL THEREOF}
본 발명은 시각장애인을 위한 온라인 강의 콘텐츠 제공방업 및 그 사용자 단말에 대한 것으로, 보다 상세하게는 온라인 강의에 대한 시각장애인의 접근성을 향상시키는 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말에 대한 것이다.
코로나의 확산으로 우리의 일상은 빠르게 비대면으로 전환되고 있다. 예를 들어, 기존의 업무 환경이 재택근무나 화상 회의로 대체되고, 대면 강의는 온라인 강의로 빠르게 대체되고 있다.
하지만, 대면 사회의 비대면으로의 전환은 장애인의 고립을 더 심각하게 초래하고 있다.
예를 들어, 비대면 온라인 강의 콘텐츠는 화상정보 전달방식을 기반으로 하므로 시각장애인은 온라인 강의 콘텐츠를 올바르게 활용하기 어렵다.
이에 따라, 시각장애인이 이용 가능한 온라인 정보제공 서비스에 대한 개발이 활발하다.
본 발명의 배경이 되는 기술의 일 예로, 대한민국 등록특허공보 10-1944187호(2019.02.07.)는 음성합성 Open API와 RSS 피드를 이용한 음성서비스를 위한 어플리케이션과 서버를 통해 시각장애인에게 음성서비스를 제공하는 방법을 개시하고 있다.
구체적으로, 시각장애인은 온라인 강의 콘텐츠에서 제공되는 강의 음성을 들을 수 있을 것이나, 화면에 나타나는 강의자료나 강사의 판서 동작 또는 판서 내용을 파악하기는 거의 불가능하다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 온라인 강의 화면에 포함된 시각적 정보를 오디오로 변환하여 시각장애인에게 효과적으로 전달하는 방법을 제공하는 것을 목적으로 한다.
본 발명의 다양한 실시 예에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 사용자 단말은 저장부 및 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하고, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하고, 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 서버는 저장부 및 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하고, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하고, 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 사용자 단말의 프로세서에 의해 실행되는 경우 상기 사용자 단말이 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 온라인 강의 화면에 포함된 시각적 정보가 오디오로 변환되어 시각장애인에게 효과적으로 전달될 수 있다. 이를 통해, 시각장애인은 온라인 강의를 효과적으로 학습할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 시각장애인을 위한 온라인 강의 시스템을 도시한다.
도 2는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 구성요소를 도시한다.
도 5는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 6은 본 발명의 일 실시 예에 따른 강의자료 중 일 슬라이드를 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 강의자료 중 일 슬라이드를 도시한다.
도 8은 본 발명의 다른 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 9는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 블록도이다.
도 10은 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 상세 블록도이다.
도 11은 본 발명의 일 실시 예에 따른 사용자 단말 또는 서버의 세부구성에 대한 블록도이다.
도 12는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 흐름도이다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들7은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공 시스템을 도시한다.
도 1을 참조하면, 시각장애인을 위한 온라인 강의 콘텐츠 제공 시스템(1)은 서버(11) 및 사용자 단말(12)을 포함할 수 있다.
서버(11)는 온라인 강의 콘텐츠를 생성 및 제공할 수 있다.
예를 들어, 서버(11)는 온라인 강의 콘텐츠 제작을 위한 플랫폼을 제공할 수 있다.
이 경우, 온라인 강의 콘텐츠 생성자는 서버(11)에 접속하여 강의자료 제작, 강의 촬영, 강의 편집 등을 수행하여 온라인 강의 콘텐츠를 제작할 수 있다.
한편, 서버(11)는 다량의 온라인 강의 파일을 포함하는 빅데이터를 통해 온라인 강의 파일에 대한 속성을 딥러닝할 수 있다.
이를 통해, 서버(11)는 강의자료에 포함된 슬라이드의 속성, 온라인 강의 파일에 포함된 강사의 음성, 강사의 모션 등을 딥러닝할 수 있다.
또한, 서버(11)는 인공지능(AI)을 통해 온라인 강의 파일에 대한 온라인 강의 콘텐츠를 생성할 수 있다. 여기서, 온라인 강의 콘텐츠는 시각 장애인을 위해 생성된 콘텐츠로 정의될 수 있다.
상술한 온라인 강의 콘텐츠는 비디오 파일 및 오디오 파일을 포함하거나, 오디오 파일만을 포함할 수 있다.
일 예로, 온라인 강의 콘텐츠는 강의자료에 포함된 텍스트에 대한 음성을 포함할 수 있다. 또한, 온라인 강의 콘텐츠는 강사의 음성을 포함할 수 있다. 또한, 온라인 강의 콘텐츠는 강사의 모션 이벤트를 설명하는 음성을 포함할 수 있다.
상술한 강의자료에 포함된 텍스트에 대한 음성, 온라인 강의 콘텐츠에 포함된 강사의 음성 및 모션 이벤트를 설명하는 음성 각각은 기정의된 싱크로 온라인 강의 콘텐츠 내에 배치될 수 있다. 이에 대한 설명은 후술할 도 5 내지 도 8에서 상세하게 설명한다.
서버(11)는 제작된 온라인 강의 콘텐츠를 구조화하여 저장할 수 있다. 이 경우, 서버(11)는 온라인 강의 콘텐츠에 대한 주소를 제공할 수 있다.
또한, 특정 온라인 강의 콘텐츠에 대한 제공 요청이 사용자 단말(12)로부터 수신되는 경우, 서버(11)는 해당 온라인 강의 콘텐츠를 사용자 단말(12)로 전송할 수 있다.
이 경우, 해당 온라인 강의 콘텐츠는 스트리밍으로 제공될 수도 있다.
사용자 단말(12)은 서버(11)로부터 온라인 강의 콘텐츠를 제공받아 시각장애인에게 제공할 수 있다. 여기서, 사용자 단말(12)은 스마트폰, 태블릿 PC, PC, TV, 랩탑 등 다양한 전자기기일 수 있다. 이에 제한되는 것은 아니고, 사용자 단말(12)은 오디오만 재생 가능한 라디오와 같은 음향기기로 구현될 수도 있을 것이다.
예를 들면, 사용자 단말(12)은 기정의된 시간 동안 온라인 강의 콘텐츠에 포함된 텍스트를 음성으로 출력할 수 있다.
또한, 사용자 단말(12)은 기정의된 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력할 수 있다.
또한, 사용자 단말(12)은 모션 이벤트에 대응되는 기정의된 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력할 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 온라인 강의 화면에 포함된 시각적 정보는 오디오로 변환되어 시각장애인에게 효과적으로 전달될 수 있다. 이를 통해, 시각장애인은 온라인 강의를 효과적으로 학습할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 2를 참조하면, 사용자 단말(100)은 저장부(110) 및 프로세서(120)를 포함할 수 있다.
저장부(110)는 프로세서(120)의 제어에 따라 예를 들면, 통신 모듈, 멀티미디어 모듈, 카메라 모듈, 입/출력 모듈, 센서 모듈, 터치 스크린 등의 동작과정에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다.
또한, 저장부(110)는 사용자 단말(100)의 제어를 위한 제어 프로그램 및 어플리케이션 등을 저장할 수 있다.
일 예로, 저장부(110)는 프로세서(120)에 포함될 수 있다.
일 예로, 저장부(110)는 롬, 램, 메모리 카드(예를 들어, SD 카드,메모리 스틱) 등의 임의의 데이터 저장 장치일 수 있다.
또한, 저장부(110)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
본 발명의 다양한 실시 예에 따르면, 저장부(110)는 온라인 강의 콘텐츠를 저장할 수 있다.
일 예로, 저장부(110)는 강의자료에 포함된 텍스트에 대한 음성 데이터, 온라인 강의 콘텐츠에 포함된 강사의 음성 데이터, 강사의 모션 이벤트의 설명에 대한 음성 데이터를 저장할 수 있다.
여기서, 강의자료는 온라인 강의 콘텐츠에 포함되어 영상으로 제공되거나, 별도의 파일로 제공될 수도 있다.
프로세서(120)는 사용자 단말(100)의 동작 및 구성요소를 전반적으로 제어할 수 있다. 여기서, 프로세서(120)는 단수 또는 복수로 구성될 수 있다.
프로세서(120)는 서버(11)로부터 온라인 강의 컨텐츠를 수신할 수 있다. 여기서, 온라인 강의 컨텐츠는 상술한 시각장애인을 위한 온라인 강의 컨텐츠를 포함할 수 있다.
프로세서(120)는 온라인 강의 컨텐츠에 기초하여, 강의자료에 포함된 텍스트를 제1 시간 동안 음성으로 출력할 수 있다.
또한, 프로세서(120)는 온라인 강의 콘텐츠에 포함된 강사의 음성을 제2 시간 동안 출력할 수 있다.
일 예로, 프로세서(120)는 강의자료 중 제1 슬라이드에 포함된 텍스트를 제1 시간 동안 음성으로 출력할 수 있다.
여기서, 프로세서(120)는 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하여 제1 시간이 종료되면, 기설정된 시간 후에 온라인 강의 콘텐츠에 포함된 강사의 음성 출력을 시작하여 제2 시간 동안 상기 강사의 음성을 출력을 수행할 수 있다.
또한 상술한 예에서, 프로세서(120)는 강사의 모션(motion) 이벤트를 출력할 수 있다.
구체적으로, 프로세서(120)는 강사의 모션 이벤트가 발생한 경우, 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력할 수 있다.
여기서, 제3 시간이 모션 이벤트의 발생 시점에 대응한다는 것은, 제3 시간의 시점이 모션 이벤트의 발생 시점에 대응한다고 해석될 수 있다. 예를 들면, 제3 시간은 강사의 모션 이벤트가 발생한 시점에 시작될 수 있다.
상술한 제3 시간은 제2 시간에 포함될 수 있다.
구체적으로, 강사의 모션 이벤트는 강의 중에 발생할 수 있다. 따라서, 강사의 음성이 출력되는 시간인 제2 시간은 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 제3 시간을 포함할 수 있다.
상술한 모션 이벤트는 슬라이드에 포함된 텍스트 중 적어도 일부에 밑줄을 긋는 밑줄 모션, 슬라이드에 포함된 텍스트 중 적어도 일부에 형광펜을 긋는 형광펜 모션, 슬라이드에 포함된 일 영역에 체킹 모션, 슬라이드에 텍스트를 추가하는 텍스트 추가 모션 및 슬라이드에 포함된 텍스트를 삭제하는 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.
한편, 일 예로, 프로세서(120)는 강의 슬라이드 중, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 현재 청취하고 있는 강의의 위치를 인지할 수 있다.
예를 들면, 프로세서(120)는 “슬라이드 1번”이라는 음성을 출력할 수 있다.
또한, 프로세서(120)는 강의 슬라이드에 포함된 텍스트가 애니메이션 효과를 포함하는 경우 애니메이션 효과에 대한 안내를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 애니메이션 효과를 인지할 수 있다.
예를 들면, 프로세서(120)는 “텍스트가 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력할 수 있다.
또는, 프로세서(120)는 상기 텍스트가 '가시리 가시리잇고 나는'인 경우, “'가시리 가시리잇고 나는'이 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력할 수 있다.
또한, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.
예를 들면, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮을 수 있다.
상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써(tone differentiation), 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 시각 장애인은 강의자료에 포함된 텍스트에 대한 정보, 강사가 음성으로 전달하는 정보, 강사가 모션으로 전달하는 정보 각각을 효과적으로 획득할 수 있다.
상술한 도 2에서의 사용자 단말(100)의 동작은 서버에서도 수행될 수 있다. 이 경우, 서버는 상술한 도 2에서의 사용자 단말(100)의 동작이 사용자 단말(100)에서 수행될 수 있도록 관련 데이터를 사용자 단말(100)로 송수신할 수 있다.
이하, 도 3을 참조하여 온라인 강의 콘텐츠 제공방법을 수행하는 서버의 동작을 상세히 설명한다.
도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.
도 3을 참조하면, 서버(200)는 저장부(210) 및 프로세서(220)를 포함할 수 있다.
일 예로, 저장부(210)는 온라인 강의 콘텐츠를 저장할 수 있다.
저장부(210)는 강의자료에 포함된 텍스트에 대한 음성 데이터, 온라인 강의 콘텐츠에 포함된 강사의 음성 데이터, 강사의 모션 이벤트의 설명에 대한 음성 데이터를 저장할 수 있다.
여기서, 강의자료는 온라인 강의 콘텐츠에 포함되어 영상으로 제공되거나, 별도의 파일로 제공될 수도 있다.
프로세서(220)는 서버(200)의 동작 및 구성요소를 전반적으로 제어할 수 있다. 여기서, 프로세서(220)는 단수 또는 복수로 구성될 수 있다.
프로세서(220)는 딥러닝 및 인공지능을 통해 강의 영상 및 강의 오디오로부터 온라인 강의 컨텐츠를 제작할 수 있다.
예를 들어, 프로세서(220)는 온라인 강의 컨텐츠에 기초하여, 강의자료에 포함된 텍스트를 제1 시간 동안 음성으로 출력하도록 사용자 단말(100)을 제어할 수 있다.
또한, 프로세서(220)는 온라인 강의 콘텐츠에 포함된 강사의 음성을 제2 시간 동안 출력하도록 사용자 단말(100)을 제어할 수 있다.
일 예로, 프로세서(220)는 강의자료 중 제1 슬라이드에 포함된 텍스트를 제1 시간 동안 음성으로 출력하도록 사용자 단말(100)을 제어할 수 있다.
여기서, 프로세서(120)는 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하도록 사용자 단말(100)을 제어하여 제1 시간이 종료되면, 기설정된 시간 후에 온라인 강의 콘텐츠에 포함된 강사의 음성 출력을 시작하도록 사용자 단말(100)을 제어할 수 있다.
또한, 프로세서(220)는 이로부터 제2 시간 동안 강사의 음성을 출력하도록 사용자 단말(100)을 제어할 수 있다.
또한 상술한 예에서, 프로세서(220)는 강사의 모션 이벤트를 출력하도록 사용자 단말(200)을 제어할 수 있다.
구체적으로, 프로세서(220)는 강사의 모션 이벤트가 발생한 경우, 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력하도록 사용자 단말(200)을 제어할 수 있다.
여기서, 제3 시간이 모션 이벤트의 발생 시점에 대응한다는 것은 제3 시간의 시점이 모션 이벤트의 발생 시점에 대응한다고 해석될 수 있다. 예를 들면, 제3 시간은 강사의 모션 이벤트가 발생한 시점에 시작될 수 있다.
상술한 제3 시간은 제2 시간에 포함될 수 있다.
구체적으로, 강사의 모션 이벤트는 강의 중에 발생할 수 있다. 따라서, 강사의 음성이 사용자 단말(200)에서 출력되는 시간인 제2 시간은 강사의 모션 이벤트에 대한 설명이 음성으로 사용자 단말(200)에서 출력되는 제3 시간을 포함할 수 있다.
상술한 모션 이벤트는 슬라이드에 포함된 텍스트 중 적어도 일부에 밑줄을 긋는 밑줄 모션, 슬라이드에 포함된 텍스트 중 적어도 일부에 형광펜을 긋는 형광펜 모션, 슬라이드에 포함된 일 영역에 체킹 모션, 슬라이드에 텍스트를 추가하는 텍스트 추가 모션 및 슬라이드에 포함된 텍스트를 삭제하는 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.
한편, 일 예로, 프로세서(220)는 강의 슬라이드 중, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 현재 청취하고 있는 강의의 위치를 인지할 수 있다.
예를 들면, 프로세서(220)는 “슬라이드 1번”이라는 음성을 사용자 단말(200)을 통해 출력할 수 있다.
또한, 프로세서(220)는 강의 슬라이드에 포함된 텍스트가 애니메이션 효과를 포함하는 경우 애니메이션 효과에 대한 안내를 사용자 단말(200)을 통해 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 애니메이션 효과를 인지할 수 있다.
예를 들면, 프로세서(220)는 “텍스트가 좌우로 흔들리는 애니메이션 효과”라는 음성을 사용자 단말(200)을 통해 출력할 수 있다.
또는, 프로세서(220)는 상기 텍스트가 '가시리 가시리잇고 나는'인 경우, “'가시리 가시리잇고 나는'이 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력하도록 사용자 단말(200)을 제어할 수 있다.
또한, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.
예를 들면, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮을 수 있다.
상술한 바와 같이, 모션 이벤트에 대한 설명으로서 사용자 단말(200)에서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써(tone differentiation), 시각 장애인은 강사의 음성이 사용자 단말(200)에서 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 시각 장애인은 강의자료에 포함된 텍스트에 대한 정보, 강사가 음성으로 전달하는 정보, 강사가 모션으로 전달하는 정보 각각을 효과적으로 획득할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 구성요소를 도시한다.
도 4를 참조하여 예를 들면, 온라인 강의 콘텐츠는 강의자료(배경 디스플레이), 강의해설(오디오), 판서(애니메이션 디스플레이)를 포함할 수 있다.
여기서, 강의자료는 시각적 요소이고, 강의해설은 청각적 요소이고, 판서는 시각적 요소이다. 시각 장애인의 경우, 시각적으로 전달되는, 강의자료에 대한 정보 및 판서에 대한 정보를 획득하기 어렵다.
따라서, 강의자료에 대한 정보 및 판서에 대한 정보는 시각 장애인에게 오디오로 제공될 필요가 있다.
강의자료에 대한 오디오, 강의해설(또는 강사의 음성)에 대한 오디오 및 판서 설명에 대한 오디오 모두를 시각 장애인에게 효과적으로 전달하기 위한 방법으로, 본 발명에서는 time slicing 방법과 tone differentiation 방법을 제안한다.
이하에서, 도 5를 참조하여 time slicing 방법과 tone differentiation 방법을 상세히 설명한다.
이하에서, 설명의 편의를 위해 온라인 강의 콘텐츠 제공방법을 사용자 단말(100)에서 수행되는 것으로 설명할 것이나, 서버(200)에서 수행되는 것으로 해석될 수 있음은 물론이다.
도 5는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 5를 참조하면, 온라인 강의 콘텐츠는 강사의 음성(510), 강의자료에 대한 독음(520) 및 강사의 모션에 대한 독음(530)을 포함할 수 있다. 여기서, 온라인 강의 콘텐츠는 효과음 등의 다른 오디오도 포함할 수 있음은 물론이다.
도 5에서는 강의 시작과 함께 첫 번째 슬라이드에 대한 강의가 시작됨을 가정한다.
도 5를 참조하면, 프로세서(120)는 첫 번째 슬라이드에 대한 강의자료의 독음(520)을 제1 시간(521) 동안 출력할 수 있다.
제1 시간(521)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제2 시간(511) 동안 첫 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.
여기서, 제2 시간(511) 중 어느 시점에 강사의 모션 이벤트가 발생한 경우, 제3 시간(531) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다.
일 예로, 제3 시간(531)은 제2 시간(511)에 포함되거나, 제2 시간(511) 중 적어도 일부와 겹칠 수 있다.
한편, 프로세서(120)는 두 번째 슬라이드에 대한 강의자료의 독음(520)을 제4 시간(522) 동안 출력할 수 있다.
제4 시간(522)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제5 시간(512) 동안 두 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.
여기서, 강의자료의 독음(520)이 출력되는 제4 시간(522) 및 강사의 음성(510)이 출력되는 제5 시간(512)은 서로 인터벌을 가지고 출력되는 time slicing 기법이 적용된다(501).
이를 통해, 강의자료의 독음(520) 및 강사의 음성(510)은 명확히 구분되어 시각장애인에게 전달될 수 있다.
제5 시간(512) 중 어느 시점에 강사의 모션 이벤트가 발생한 경우, 제6 시간(532) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다.
일 예로, 제6 시간(532)은 제5 시간(512)에 포함되거나, 제5 시간(512) 중 적어도 일부와 겹칠 수 있다.
여기서, 제5 시간(512) 동안 출력되는 강사의 음성(510)의 톤과 제6 시간(532) 동안 출력되는 강사의 모션에 대한 독음(530)의 톤은 상이하도록 설정되는 tone differentiation 기법이 적용될 수 있다(502).
예를 들면, 제6 시간(532) 동안 출력되는 강사의 모션에 대한 독음(530)의 톤은 제5 시간(512) 동안 출력되는 강사의 음성(510)의 톤보다 낮을 수 있다.
상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써, 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.
또한, 프로세서(120)는 세 번째 슬라이드에 대한 강의자료의 독음(520)을 제7 시간(523) 동안 출력할 수 있다.
제7 시간(523)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제8 시간(513) 동안 첫 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.
여기서, 제8 시간(513) 중 어느 두 시점에 강사의 모션 이벤트가 발생한 경우, 제9 시간(533) 및 제10 시간(534) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다.
일 예로, 제9 시간(533) 및 제10 시간(534)은 제8 시간(513)에 포함되거나, 제8 시간(513) 중 적어도 일부와 겹칠 수 있다.
이하, 도 6 내지 도 8을 참조하여, 실제 강의자료에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공방법을 상세히 설명한다.
도 6에 도시된 강의자료 중 첫 번째 슬라이드(610)는 일명 '귀호곡(歸乎曲)'이라고도 불리는 작자 미상, 연대 미상의 고려가요 '가시리'의 일부인 '가시리 가시리잇고 나는 버리고 가시리잇고 나는'을 포함하고 있다.
도 7은 강의자료 중 첫 번째 슬라이드(610)에 '가시리 가시리잇고 나는 버리고 가시리잇고 나는'의 다음 구절인 '위 증즐가 대평성대'를 더 포함하고 있다.
일 예로, 상기 '위 증즐가 대평성대'는 애니메이션 효과와 함께 일 슬라이드(610)에 나타나도록 설정될 수 있다. 여기서, 애니메이션 효과는 동적 애니메이션 효과, 색채 애니메이션 효과 등 다양한 애니메이션 효과일 수 있다.
다른 예로, 상기 '위 증즐가 대평성대'는 상기 일 슬라이드와는 다른 슬라이드에 포함되도록 설정될 수 있다. 이 경우, 상기 다른 슬라이드는 '가시리'의 일부인 '가시리 가시리잇고 나는 버리고 가시리잇고 나는' 및 '위 증즐가 대평성대'를 함께 포함할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 8을 참조하면, 온라인 강의 콘텐츠는 강사의 음성(810), 강의자료에 대한 독음(820) 및 강사의 모션에 대한 독음(830)을 포함할 수 있다. 여기서, 온라인 강의 콘텐츠는 효과음 등의 다른 오디오도 포함할 수 있음은 물론이다.
도 8에서는 강의 시작과 함께 첫 번째 슬라이드에 대한 강의가 시작됨을 가정한다.
도 8을 참조하면, 프로세서(120)는 첫 번째 슬라이드에 대한 강의자료의 독음(820)을 제1 시간(821) 동안 출력할 수 있다.
일 예로, 프로세서(120)는 첫 번째 슬라이드에 대한 설명인 “7번슬라이드내용”과 함께, 강의자료의 독음(820)인 “가시리 가시리 가시리잇고 나는 버리고 가시리잇고 나는”을 제1 시간(821) 동안 음성으로 출력할 수 있다.
제1 시간(821)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 첫 번째 슬라이드와 관련된 강사의 음성(810)을 제2 시간(811) 동안 출력할 수 있다.
일 예로, 프로세서(120)는 첫 번째 슬라이드와 관련된 강사의 음성(810)인 “여기는 의미없이 노래의 흥을 돋우는 구실을 합니다”를 제2 시간(811) 동안 출력할 수 있다.
여기서, 제2 시간(811) 중 특정 시점에 강사의 모션 이벤트가 발생한 경우, 강사의 모션에 대한 독음(830)이 제3 시간(831) 동안 출력될 수 있다.
일 예로, 제2 시간(811) 중 특정 시점에 '나는'에 밑줄을 긋는 강사의 모션 이벤트가 발생한 경우, 프로세서(120)는 모션 이벤트에 대한 설명인 “밑줄”과 밑줄에 대응되는 부분인 “나는”을 상기 특정 시점에 대응하는 시점부터 제3 시간(831) 동안 출력할 수 있다.
한편, 프로세서(120)는 애니메이션 효과를 가지는 문구에 대한 강의자료의 독음(820)을 제4 시간(822) 동안 출력할 수 있다.
일 예로, 프로세서(120)는 애니메이션 효과를 통해 나타난 '위 증즐가 태평성대'에 대하여, 애니메이션 효과를 가짐을 나타내는 설명인 “애니메이션 내용”과 해당 내용인 “위 증즐가 태평성대”를 제4 시간(822) 동안 출력할 수 있다.
제4 시간(822)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 애니메이션 효과에 대한 설명인 강사의 음성(810)을 제5 시간(812) 동안 출력할 수 있다.
여기서, 강의자료의 독음(820)이 출력되는 제4 시간(822) 및 강사의 음성(810)이 출력되는 제5 시간(812)은 서로 인터벌을 가지고 출력되는 time slicing 기법이 적용된다.
이를 통해, 강의자료의 독음(820) 및 강사의 음성(810)은 명확히 구분되어 시각장애인에게 전달될 수 있다.
제5 시간(812) 중 특정 시점에 강사의 모션 이벤트가 발생한 경우, 강사의 모션에 대한 독음(830)이 제6 시간(832) 동안 출력될 수 있다
일 예로, 제5 시간(812) 중 특정 시점에 강사의 형광펜을 표시하는 모션 이벤트가 발생한 경우, 모션 이벤트에 대한 설명인 “형광펜”과 형광펜이 표시된 영역에 해당하는 텍스트인 “위 증즐가 대평성대”가 제6 시간(832) 동안 출력될 수 있다.
여기서, 제5 시간(812) 동안 출력되는 강사의 음성(810)의 톤과 제6 시간(832) 동안 출력되는 강사의 모션에 대한 독음(830)의 톤은 상이하도록 설정되는 tone differentiation 기법이 적용될 수 있다.
예를 들면, 제6 시간(832) 동안 출력되는 강사의 모션에 대한 독음(830)인 “형광펜 위증즐가 대평성대”의 톤은 제5 시간(812) 동안 출력되는 강사의 음성(810)인 “다음 본문입니다. 이 부분은 후렴구입니다.”의 톤보다 낮을 수 있다.
상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써, 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 블록도이다.
도 9를 참조하면, 프로세서(120)는 온라인 강의(동영상)를 딥러닝하여 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.
예를 들면, 프로세서(120)는 다량의 온라인 강의 파일에 대한 분석을 수행할 수 있다(910). 또한, 프로세서(120)는 분석된 파일에 기초하여 독음에 대한 스케줄링을 학습할 수 있다.
이 경우, 프로세서(120)는 강의자료에 포함된 텍스트에 기초하여 강의자료 독음 파일을 생성할 수 있다(TTS, text-to-speech)(920).
또한, 프로세서(120)는 강의 오디오/비디오를 생성할 수 있다. 또는, 프로세서(120)는 시각장애인 제공을 위한 오디오만을 생성할 수도 있다.
프로세서(120)는 강사의 모션에 대한 독음을 생성할 수 있다.
프로세서(120)는 상수한 강의자료 독음, 강의 오디오/비디오 및 강사 모션 독음을 포함하는 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 상세 블록도이다.
도 10을 참조하면, 프로세서(120)는 온라인 강의(동영상)를 딥러닝하여 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.
예를 들면, 프로세서(120)는 다량의 온라인 강의 파일에 대한 분석을 수행할 수 있다(910). 또한, 프로세서(120)는 분석된 파일에 기초하여 독음에 대한 스케줄링을 학습할 수 있다.
프로세서(120)는 강의자료의 독음을 생성할 수 있다(920).
구체적으로, 프로세서(120)는 딥러닝 기반의 강의자료 해석을 수행할 수 있다(921). 또한, 프로세서(120)는 time slicing 기법을 적용하여 TTS 독음을 생성할 수 있다(922).
또한, 프로세서(120)는 강의 오디오/비디오를 생성할 수 있다. 또는, 프로세서(120)는 시각장애인 제공을 위한 오디오만을 생성할 수도 있다.
또한, 프로세서(120)는 강사의 모션에 대한 독음을 생성할 수 있다(940).
구체적으로, 프로세서(120)는 딥러닝에 기반하여 강사의 모션을 해석할 수 있다(941).
또한, 프로세서(120)는 tone differentiation 기법을 적용하여 강사 모션에 대한 TTS 독음을 생성할 수 있다(942).
상술한 동작에 기반하여, 프로세서(120)는 상술한 강의자료 독음, 강의 오디오/비디오 및 강사 모션 독음을 포함하는 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 사용자 단말 또는 서버의 세부구성에 대한 블록도이다.
도 11를 참조하면, 사용자 단말 또는 서버(1100)는 통신부(1110), 저장부(1120) 및 프로세서(1130)를 포함한다.
통신부(1110)는 통신을 수행한다. 통신부(1110)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 전자기기와 통신을 수행할 수 있다.
저장부(1120)는 사용자 단말 또는 서버(1100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다.
또한, 저장부(1120)는 읽고 쓰기가 가능하다.
프로세서(1130)는 저장부(1120)에 저장된 각종 프로그램을 이용하여 사용자 단말 또는 서버(1100)의 동작을 전반적으로 제어한다.
구체적으로, 프로세서(1130)는 RAM(1131), ROM(1132), 메인 CPU(1133), 그래픽 처리부(1134), 제1 내지 n 인터페이스(1135-1 ~ 1135-n) 및 버스(1136)를 포함한다.
여기서, RAM(1131), ROM(1132), 메인 CPU(133), 그래픽 처리부(1134), 제1 내지 n 인터페이스(1135-1 ~ 1135-n) 등은 버스(1136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(1135-1 내지 1135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
ROM(1132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(1133)는 ROM(1132)에 저장된 명령어에 따라 저장부(1130)에 저장된 O/S를 RAM(1131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다.
부팅이 완료되면, 메인 CPU(1133)는 저장된 각종 어플리케이션 프로그램을 RAM(1131)에 복사하고, RAM(1131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
메인 CPU(1133)는 저장부(1130)에 액세스하여, 저장부(1130)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(1133)는 저장부(1130)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.
그래픽 처리부(1134)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.
도 12는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 흐름도이다.
도 12를 참조하면, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정(1210), 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정(1220) 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정(1230)을 포함할 수 있다.
일 예로, 상술한 제2 시간은 제1 시간이 종료된 후 기정의된 시간 후에 시작될 수 있다.
또한, 일 예로 상술한 제3 시간은 제2 시간에 포함될 수 있다.
상술한 일 예에서, 상기 제3 시간은 강사의 모션 이벤트가 발생한 시점에서 시작되도록 설정될 수 있다.
한편, 상술한 온라인 강의 콘텐츠 제공방법에서, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정은, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력하는 과정을 더 포함할 수 있다.
또한, 상술한 온라인 강의 콘텐츠 제공방법에서, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정은, 텍스트가 애니메이션 효과를 포함하는 경우, 애니메이션 효과에 대한 안내를 음성으로 출력하는 과정을 더 포함할 수 있다.
상술한 예에서, 모션 이벤트는 밑줄 모션, 형광펜 모션, 체킹 모션, 텍스트 추가 모션 및 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.
또한, 상술한 예에서, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.
일 예로, 모션 이벤트에 대한 상기 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮도록 설정될 수 있다.
한편, 상술한 본 발명의 다양한 실시 예에 따른 온라인 강의 콘텐츠 제공방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.
일 예로, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.
온라인 강의 콘텐츠 제공 시스템: 1
서버: 11, 200
사용자 단말: 12, 100
저장부: 110, 210
프로세서: 120, 220

Claims (20)

  1. 사용자 단말에서 수행되는, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법에 있어서,
    제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하는 과정;
    상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하는 과정;
    상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하는 과정;
    상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하는 과정;
    상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하는 과정; 및
    상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 과정;을 포함하고,
    상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
    상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
    상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
    상기 체킹 모션 이벤트는,
    밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 온라인 강의 콘텐츠 제공방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 사용자 단말에 있어서,
    저장부; 및
    제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하고,
    상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하고,
    상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하고,
    상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하고,
    상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하고,
    상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 프로세서;를 포함하고,
    상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
    상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
    상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
    상기 체킹 모션 이벤트는,
    밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 사용자 단말.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 서버에 있어서,
    저장부; 및
    제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하고,
    상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하고,
    상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하고,
    상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하고,
    상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하고,
    상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 프로세서;를 포함하고,
    상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
    상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
    상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
    상기 체킹 모션 이벤트는,
    밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 서버.
  20. 사용자 단말의 프로세서에 의해 실행되는 경우 상기 사용자 단말이 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은,
    제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하는 과정;
    상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하는 과정;
    상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하는 과정;
    상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하는 과정;
    상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하는 과정; 및
    상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 과정;을 포함하고,
    상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
    상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
    상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
    상기 체킹 모션 이벤트는,
    밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
KR1020200134615A 2020-10-16 2020-10-16 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말 KR102495597B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200134615A KR102495597B1 (ko) 2020-10-16 2020-10-16 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200134615A KR102495597B1 (ko) 2020-10-16 2020-10-16 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말

Publications (2)

Publication Number Publication Date
KR20220050668A KR20220050668A (ko) 2022-04-25
KR102495597B1 true KR102495597B1 (ko) 2023-02-06

Family

ID=81451809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200134615A KR102495597B1 (ko) 2020-10-16 2020-10-16 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말

Country Status (1)

Country Link
KR (1) KR102495597B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789057B1 (ko) * 2016-06-17 2017-10-23 한밭대학교 산학협력단 시각 장애인을 위한 자동 오디오 북 시스템 및 그 운영 방법
KR101929875B1 (ko) 2018-05-18 2018-12-18 문경진 실시간 현장 동영상 중계를 이용한 시각장애인 안내 서비스 제공 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061044B1 (ko) * 2013-04-30 2020-01-02 삼성전자 주식회사 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR20160026431A (ko) * 2014-09-01 2016-03-09 삼성전자주식회사 장애인 음성안내 기능을 구비한 전자장치, 그것을 구비한 시스템 및 그 음성안내 방법
KR20160044372A (ko) * 2014-10-15 2016-04-25 영산대학교산학협력단 시각장애인용 화면해설 영상물 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789057B1 (ko) * 2016-06-17 2017-10-23 한밭대학교 산학협력단 시각 장애인을 위한 자동 오디오 북 시스템 및 그 운영 방법
KR101929875B1 (ko) 2018-05-18 2018-12-18 문경진 실시간 현장 동영상 중계를 이용한 시각장애인 안내 서비스 제공 방법

Also Published As

Publication number Publication date
KR20220050668A (ko) 2022-04-25

Similar Documents

Publication Publication Date Title
US10872535B2 (en) Facilitating facial recognition, augmented reality, and virtual reality in online teaching groups
US8719029B2 (en) File format, server, viewer device for digital comic, digital comic generation device
KR101445869B1 (ko) 미디어 인터페이스
US20120276504A1 (en) Talking Teacher Visualization for Language Learning
US11657725B2 (en) E-reader interface system with audio and highlighting synchronization for digital books
US20140349259A1 (en) Device, method, and graphical user interface for a group reading environment
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
JP5502351B2 (ja) 指導システム、指導方法、およびプログラム
KR100856786B1 (ko) 3d 버추얼 에이전트를 사용한 멀티미디어 나레이션 저작시스템 및 그 제공 방법
US20130332859A1 (en) Method and user interface for creating an animated communication
US11902690B2 (en) Machine learning driven teleprompter
US20180211553A1 (en) Systems and methods for providing personalized electronic learning material in an educational infrastructure
US20170017632A1 (en) Methods and Systems of Annotating Local and Remote Display Screens
US20190129683A1 (en) Audio app user interface for playing an audio file of a book that has associated images capable of rendering at appropriate timings in the audio file
KR102338019B1 (ko) 펜모션 인식 멀티디바이스 콘텐츠 구현 시스템 및 방법
US20240114106A1 (en) Machine learning driven teleprompter
KR102495597B1 (ko) 시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말
KR20140115900A (ko) 교육용 교안 콘텐츠 제작 시스템 및 이를 위한 방법
Wald et al. Synote: Collaborative mobile learning for all
KR20170009487A (ko) 청크 기반 언어 학습 방법 및 이를 수행하는 전자 기기
KR20220114953A (ko) 온라인 강의 콘텐츠 제공 방법 및 장치
KR20180006728A (ko) 동영상 자막 표시 제어를 위한 전자 장치
JP2008032788A (ja) 語学教材データ作成用プログラム
KR101553272B1 (ko) 복수의 타이머를 사용하여 멀티미디어 콘텐츠를 저작하는 방법 및 복수의 타이머를 사용하여 멀티미디어 콘텐츠를 저작하는 저작 장치
KR102265102B1 (ko) 키네틱 타이포그래피가 적용된 자막에 대한 편집방법 및 그 전자장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant