KR20240030921A - System for providing user centric multiview and method thereof - Google Patents
System for providing user centric multiview and method thereof Download PDFInfo
- Publication number
- KR20240030921A KR20240030921A KR1020220172803A KR20220172803A KR20240030921A KR 20240030921 A KR20240030921 A KR 20240030921A KR 1020220172803 A KR1020220172803 A KR 1020220172803A KR 20220172803 A KR20220172803 A KR 20220172803A KR 20240030921 A KR20240030921 A KR 20240030921A
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- user terminal
- sub
- information
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000001360 synchronised effect Effects 0.000 claims description 36
- 239000003550 marker Substances 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 26
- 238000009877 rendering Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004091 panning Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 244000240602 cacao Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4782—Web browsing, e.g. WebTV
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은 사용자 중심의 멀티뷰 제공 시스템 및 그 방법을 개시한다. 즉, 본 발명은 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공함으로써, 복수의 방송 영상을 사용자가 자유롭게 직접 선택할 수 있고, 복수의 방송 영상을 동시에 시청할 수 있게 하여 기존보다 많은 정보를 취득할 수 있고, 원하는 부분만 시청할 수 있으며 다각도의 화면 제공이 필요한 콘텐츠의 경우 더욱 현장감 있게 제공할 수 있다.The present invention discloses a user-centered multi-view providing system and method. In other words, the present invention provides a multi-view of one or more sub-screens according to the user's selection in addition to the main screen provided by live streaming, so that the user can freely directly select multiple broadcast images and watch multiple broadcast images simultaneously. By allowing you to obtain more information than before, you can watch only the parts you want, and content that requires a screen from multiple angles can be provided in a more realistic way.
Description
본 발명은 사용자 중심의 멀티뷰 제공 시스템 및 그 방법에 관한 것으로서, 특히 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공하는 사용자 중심의 멀티뷰 제공 시스템 및 그 방법에 관한 것이다.The present invention relates to a user-centered multi-view provision system and method. In particular, a user-centered multi-view provision system that provides one or more sub-screens according to user selection as a multi-view in addition to the main screen provided by live streaming, and a user-centered multi-view provision system and method. It's about how.
라이브 스트리밍(live streaming)은 음악 파일이나 동영상 파일을 스마트폰 따위의 휴대용 단말기나 컴퓨터에 내려받거나 저장하여 재생하지 않고, 인터넷에 연결된 상태에서 실시간으로 재생하는 일 또는 그런 재생 기술이나 기법을 나타낸다.Live streaming refers to playing music or video files in real time while connected to the Internet, without downloading or storing them on a portable terminal such as a smartphone or computer, or such a playback technology or technique.
이러한 라이브 스트리밍에서는 스위처를 통해 복수의 비디오 대상을 선택하고, 선택된 비디오 대상에 따른 영상을 방송 화면으로 실시간으로 스트리밍하고 있다.In this type of live streaming, multiple video targets are selected through a switcher, and videos according to the selected video targets are streamed in real time to the broadcast screen.
이에 따라 사용자는 방송 편집자가 편집한 방송 화면만을 제공받게 되어, 사용자가 원하는 영상을 제때 제공받지 못하고 있다.Accordingly, users are only provided with broadcast screens edited by broadcast editors, and users are not provided with the video they want on time.
본 발명의 목적은 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공하는 사용자 중심의 멀티뷰 제공 시스템 및 그 방법을 제공하는 데 있다.The purpose of the present invention is to provide a user-centered multi-view provision system and method that provides one or more sub-screens according to user selection as a multi-view in addition to the main screen provided by live streaming.
본 발명의 다른 목적은 라이브 스트리밍을 위해 촬영된 복수의 영상 정보 중에서 편집자 제어에 따른 메인 화면과 해당 복수의 영상 정보를 하나의 화면으로 구성하여 서버를 통해 사용자에게 제공하는 사용자 중심의 멀티뷰 제공 시스템 및 그 방법을 제공하는 데 있다.Another object of the present invention is to provide a user-centered multi-view providing system that configures a main screen under editor control and the plurality of video information into a single screen among a plurality of video information captured for live streaming and provides it to the user through a server. and providing a method thereof.
본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 시스템은 복수의 공연 정보별 방송 콘텐츠를 저장하는 서버; 및 웹 브라우저를 통해 접속한 웹 사이트에서 제공하는 하나 이상의 공연 정보 중에서 특정 공연 정보가 선택될 때, 상기 웹 사이트를 관리하는 상기 서버와 연동하여, 상기 서버로부터 전송되는 상기 특정 공연 정보에 대응하는 기본 화면, 기본 화면에 대한 좌표 정보 및 메인 화면에 동기화된 음성 정보를 포함하는 방송 콘텐츠를 수신하고, 상기 웹 브라우저와 연동하는 스크립트 언어를 이용해서, 상기 수신된 방송 콘텐츠 내의 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보를 분리하고, 상기 분리된 메인 화면 및 상기 수신된 메인 화면에 동기화된 음성 정보를 렌더링하여 출력하는 사용자 단말을 포함할 수 있다.A user-centered multi-view providing system according to an embodiment of the present invention includes a server that stores broadcast content for a plurality of performance information; And when specific performance information is selected from one or more performance information provided by a website accessed through a web browser, the basic information corresponding to the specific performance information transmitted from the server is linked with the server that manages the website. Receive broadcast content including a screen, coordinate information for the basic screen, and audio information synchronized to the main screen, and use a script language that works with the web browser to receive coordinate information for the basic screen in the received broadcast content. As a basis, it may include a user terminal that separates a main screen and a plurality of resolution setting sub-video information from the basic screen, and renders and outputs audio information synchronized to the separated main screen and the received main screen.
본 발명과 관련된 일 예로서 상기 기본 화면은, 복수의 메인 카메라에 의해 획득된 복수의 영상 정보 중에서 선택된 영상 정보에 대응하는 메인 화면과, 복수의 서브 카메라에 의해 획득된 복수의 서브 영상 정보에 대해 해상도를 설정한 복수의 해상도 설정 서브 영상 정보로 구성될 수 있다.As an example related to the present invention, the basic screen includes a main screen corresponding to image information selected from among a plurality of image information acquired by a plurality of main cameras, and a plurality of sub image information acquired by a plurality of sub cameras. It may be composed of a plurality of resolution setting sub-video information with a set resolution.
본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 방법은 사용자 단말에서 웹 브라우저를 통해 접속한 웹 사이트에서 제공하는 하나 이상의 공연 정보 중에서 특정 공연 정보가 선택될 때, 상기 사용자 단말에 의해, 상기 웹 사이트를 관리하는 서버와 연동하여, 상기 서버로부터 전송되는 상기 특정 공연 정보에 대응하는 기본 화면, 기본 화면에 대한 좌표 정보 및 메인 화면에 동기화된 음성 정보를 포함하는 방송 콘텐츠를 수신하는 단계; 상기 사용자 단말에 의해, 상기 웹 브라우저와 연동하는 스크립트 언어를 이용해서, 상기 수신된 방송 콘텐츠 내의 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보를 분리하는 단계; 및 상기 사용자 단말에 의해, 상기 분리된 메인 화면 및 상기 수신된 메인 화면에 동기화된 음성 정보를 렌더링하여 출력하는 단계를 포함할 수 있다.The user-centered multi-view provision method according to an embodiment of the present invention is when specific performance information is selected from one or more performance information provided by a website accessed through a web browser on a user terminal, by the user terminal, the web In conjunction with a server that manages the site, receiving broadcast content including a basic screen corresponding to the specific performance information transmitted from the server, coordinate information for the basic screen, and voice information synchronized to the main screen; By the user terminal, a main screen and a plurality of resolution setting sub-video information are separated from the basic screen based on coordinate information about the basic screen in the received broadcast content using a script language that interoperates with the web browser. step; and rendering and outputting, by the user terminal, voice information synchronized to the separated main screen and the received main screen.
본 발명과 관련된 일 예로서 상기 방송 콘텐츠를 수신하는 단계는, 상기 하나 이상의 공연 정보 중에서 특정 공연 정보가 선택될 때, 상기 사용자 단말에 의해, 상기 선택된 특정 공연 정보 및 사용자 단말의 식별 정보를 상기 서버에 전송하는 과정; 상기 서버에 의해, 상기 서버에 미리 저장된 복수의 공연 정보별 방송 콘텐츠 중에서 상기 특정 공연 정보에 대응하는 방송 콘텐츠를 확인하는 과정; 상기 서버에 의해, 상기 확인된 방송 콘텐츠와 관련한 기본 화면, 기본 화면에 대한 좌표 정보 및 메인 화면에 동기화된 음성 정보를 포함하는 상기 방송 콘텐츠를 상기 사용자 단말에 전송하는 과정; 및 상기 사용자 단말에 의해, 상기 서버로부터 전송되는 상기 방송 콘텐츠를 수신하는 과정을 포함할 수 있다.As an example related to the present invention, the step of receiving the broadcast content includes, when specific performance information is selected among the one or more performance information, the user terminal sends the selected specific performance information and the identification information of the user terminal to the server. The process of transferring to; Confirming, by the server, broadcast content corresponding to the specific performance information among a plurality of broadcast content for each performance information pre-stored in the server; transmitting, by the server, the broadcast content including a basic screen related to the confirmed broadcast content, coordinate information for the basic screen, and voice information synchronized to the main screen to the user terminal; and receiving the broadcast content transmitted from the server by the user terminal.
본 발명과 관련된 일 예로서 상기 사용자 단말 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 다른 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when a preset marker displayed on one side of the main screen in the user terminal is selected, the size of the main screen is adjusted by the user terminal to a preset area in the screen of the user terminal. The method may further include displaying the plurality of separated resolution-set sub-video information in the form of thumbnails in another preset area of the screen of the user terminal.
본 발명과 관련된 일 예로서 상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보가 선택될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정하여 서브 화면으로 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when one resolution setting sub-image information is selected among a plurality of resolution setting sub-image information in the form of a thumbnail displayed on one side of the screen in the user terminal, by the user terminal, the user terminal The size of the main screen is adjusted and displayed in a preset area 2-1 of the screen of the user terminal, and the screen size of the selected resolution setting sub-video information is adjusted and displayed in a preset area 2-2 of the screen of the user terminal. The method may further include displaying on a screen, and displaying the plurality of separated resolution setting sub-video information in the form of thumbnails in preset areas 2-3 of the screen of the user terminal.
본 발명과 관련된 일 예로서 상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보에 대한 상기 사용자 단말의 사용자에 의한 터치 제스처가 감지될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정하여 서브 화면으로 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함하며, 상기 사용자 단말의 사용자에 의한 터치 제스처는, 탭(tap), 터치&홀드(touch & hold), 더블 탭(double tap), 드래그(drag), 플릭(flick) 및 스와이프(swipe) 중 어느 하나를 포함할 수 있다.As an example related to the present invention, a touch gesture by the user of the user terminal for any one resolution setting sub-image information among a plurality of resolution setting sub-image information in the form of a thumbnail displayed on one side of the screen in the user terminal is detected. At this time, the size of the main screen is adjusted and displayed by the user terminal in a preset 2-1 area of the screen of the user terminal, and the selected resolution is displayed in a preset 2-2 area of the screen of the user terminal. It further includes the step of adjusting the screen size of the setting sub-video information to display it as a sub-screen, and displaying the plurality of separated resolution setting sub-video information in the form of thumbnails in preset second and third areas of the screen of the user terminal. In addition, touch gestures by the user of the user terminal include tap, touch & hold, double tap, drag, flick, and swipe. It can include either one.
본 발명과 관련된 일 예로서 상기 사용자 단말 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 터치 제스처가 감지될 때, 상기 사용자 단말에 의해, 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제한 후, 화면을 재구성하여 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, when a touch gesture by a user of the user terminal is detected for any one sub-screen among one or more sub-screens displayed on one side of the screen in the user terminal, the screen is displayed by the user terminal. The method may further include deleting the sub-screen corresponding to the other touch gesture and then reconstructing and displaying the screen.
본 발명과 관련된 일 예로서 상기 사용자 단말에 의해, 상기 사용자 단말에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선에 대한 터치 앤 드래그에 의해, 화면 내에서의 분할된 화면 크기를 조정하는 단계; 상기 사용자 단말에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 핀치가 발생할 때, 상기 사용자 단말에 의해, 화면에서 상기 메인 화면 또는 상기 서브 화면의 크기를 조정하는 단계; 및 상기 사용자 단말에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 드래그 앤 드롭이 발생할 때, 상기 사용자 단말에 의해, 화면 내에서의 상기 메인 화면 또는 상기 서브 화면의 위치를 조정하는 단계 중 어느 하나의 단계를 더 포함할 수 있다.As an example related to the present invention, by the user terminal, among the main screen and one or more sub screens displayed on the user terminal, by touching and dragging the outline of the main screen or the sub screen, within the screen adjusting the divided screen size; Among the main screen and the one or more sub-screens displayed on the user terminal, when a pinch by the user of the user terminal occurs on the main screen or the sub-screen, the main screen or the sub-screen is displayed by the user terminal on the screen. adjusting the size of the sub screen; And among the main screen and one or more sub-screens displayed on the user terminal, when a drag and drop by a user of the user terminal on the main screen or the sub-screen occurs, by the user terminal, within the screen. It may further include adjusting the position of the main screen or the sub screen.
본 발명과 관련된 일 예로서 상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭 기능에 의해서, 상기 다른 특정 해상도 설정 서브 영상 정보가 선택된 후 드래그되어 상기 메인 화면 위치로 드롭될 때, 상기 사용자 단말에 의해, 상기 메인 화면과 상기 선택된 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시하는 단계를 더 포함할 수 있다.As an example related to the present invention, among a plurality of resolution setting sub-image information in the form of thumbnails displayed on one side of the screen in the user terminal, another specific resolution setting sub-image information is dragged and dropped by the other specific resolution setting sub-image information. When video information is selected and then dragged and dropped to the main screen location, the method may further include exchanging and displaying the main screen and the selected other specific resolution setting sub-video information by the user terminal.
본 발명은 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공함으로써, 복수의 방송 영상을 사용자가 자유롭게 직접 선택할 수 있고, 복수의 방송 영상을 동시에 시청할 수 있게 하여 기존보다 많은 정보를 취득할 수 있고, 원하는 부분만 시청할 수 있으며 다각도의 화면 제공이 필요한 콘텐츠의 경우 더욱 현장감 있게 제공할 수 있는 효과가 있다.The present invention provides a multi-view of one or more sub-screens according to the user's selection in addition to the main screen provided by live streaming, so that the user can freely directly select multiple broadcast images and watch multiple broadcast images at the same time. As a result, you can obtain more information than before, watch only the parts you want, and in the case of content that requires a screen from multiple angles, you can provide it with a more realistic feel.
또한, 본 발명은 라이브 스트리밍을 위해 촬영된 복수의 영상 정보 중에서 편집자 제어에 따른 메인 화면과 해당 복수의 영상 정보를 하나의 화면으로 구성하여 서버를 통해 사용자에게 제공함으로써, 실시간 방송에 있어서 복수의 카메라를 통해 촬영된 복수의 영상 정보와 하나 이상의 마이크를 통해 수집된 음성 정보 간의 싱크 어긋남 현상을 해소할 수 있는 효과가 있다.In addition, the present invention configures the main screen according to editor control and the plurality of video information into one screen among the plurality of video information captured for live streaming and provides it to the user through the server, so that multiple cameras can be used in real-time broadcasting. It has the effect of resolving the phenomenon of synchronization between multiple video information captured through and audio information collected through one or more microphones.
도 1은 본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 시스템의 구성을 나타낸 블록도이다.
도 2 내지 도 3은 본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 기본 화면의 예를 나타낸 도이다.
도 5 내지 도 14는 본 발명의 실시예에 따른 사용자 단말의 화면의 예를 나타낸 도이다.Figure 1 is a block diagram showing the configuration of a user-centered multi-view providing system according to an embodiment of the present invention.
Figures 2 and 3 are flowcharts showing a user-centered multi-view providing method according to an embodiment of the present invention.
Figure 4 is a diagram showing an example of a basic screen according to an embodiment of the present invention.
5 to 14 are diagrams showing examples of screens of a user terminal according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention, unless specifically defined in a different sense in the present invention, should be interpreted as meanings generally understood by those skilled in the art in the technical field to which the present invention pertains, and are not overly comprehensive. It should not be interpreted in a literal or excessively reduced sense. Additionally, if the technical terms used in the present invention are incorrect technical terms that do not accurately express the idea of the present invention, they should be replaced with technical terms that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted according to the definition in the dictionary or according to the context, and should not be interpreted in an excessively reduced sense.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Additionally, as used in the present invention, singular expressions include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the invention, and some of the components or steps may not be included. It may be possible, or it should be interpreted as being able to further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Additionally, terms containing ordinal numbers, such as first, second, etc., used in the present invention may be used to describe constituent elements, but the constituent elements should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first component may be named a second component without departing from the scope of the present invention, and similarly, the second component may also be named a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of the reference numerals, and duplicate descriptions thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Additionally, when describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the attached drawings are only intended to facilitate easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the attached drawings.
도 1은 본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 시스템(10)의 구성을 나타낸 블록도이다.Figure 1 is a block diagram showing the configuration of a user-centered
도 1에 도시한 바와 같이, 사용자 중심의 멀티뷰 제공 시스템(10)은 복수의 메인 카메라(100), 복수의 마이크(200), 복수의 서브 카메라(300), 스위처(400), 현장 단말(500), 서버(600) 및 사용자 단말(700)로 구성된다. 도 1에 도시된 사용자 중심의 멀티뷰 제공 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 사용자 중심의 멀티뷰 제공 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 사용자 중심의 멀티뷰 제공 시스템(10)이 구현될 수도 있다.As shown in FIG. 1, the user-centered multi-view providing
상기 현장 단말(500) 및 상기 사용자 단말(700)은 스마트폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal), 디지털 사이니지 장치, 키오스크(KIOSK) 등과 같은 다양한 단말기에 적용될 수 있다.The
상기 서버(600)는 웹 서버, 데이터베이스 서버, 프록시 서버 등의 형태로 구현될 수 있다. 또한, 상기 서버(600)에는 네트워크 부하 분산 메커니즘, 내지 해당 서버(600)가 인터넷 또는 다른 네트워크상에서 동작할 수 있도록 하는 다양한 소프트웨어 중 하나 이상이 설치될 수 있으며, 이를 통해 컴퓨터화된 시스템으로 구현될 수 있다. 또한, 네트워크는 http 네트워크일 수 있으며, 전용 회선(private line), 인트라넷 또는 임의의 다른 네트워크일 수 있다. 나아가, 복수의 메인 카메라(100), 복수의 마이크(200), 복수의 서브 카메라(300), 스위처(400), 현장 단말(500), 서버(600) 및 사용자 단말(700) 간의 연결은 데이터가 임의의 해커 또는 다른 제3자에 의한 공격을 받지 않도록 보안 네트워크로 연결될 수 있다. 또한, 상기 서버(600)는 복수의 데이터베이스 서버를 포함할 수 있으며, 이러한 데이터베이스 서버가 분산 데이터베이스 서버 아키텍처를 비롯한 임의의 유형의 네트워크 연결을 통해 상기 서버(600)와 별도로 연결되는 방식으로 구현될 수 있다.The
상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600) 및 상기 사용자 단말(700) 각각은 다른 단말들과의 통신 기능을 수행하기 위한 통신부(미도시), 다양한 정보 및 프로그램(또는 애플리케이션)을 저장하기 위한 저장부(미도시), 다양한 정보 및 프로그램 실행 결과를 표시하기 위한 표시부(미도시), 상기 다양한 정보 및 프로그램 실행 결과에 대응하는 음성 정보를 출력하기 위한 음성 출력부(미도시), 각 단말의 다양한 구성 요소 및 기능을 제어하기 위한 제어부(미도시) 등을 포함할 수 있다.The plurality of
상기 복수의 메인 카메라(100)는 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등과 통신한다. 여기서, 상기 복수의 메인 카메라(100)는 현장(또는 공연장)에서 전문가의 제어에 의해, 해당 현장과 관련한 영상 정보를 획득하는 주요 장치일 수 있다.The plurality of
또한, 상기 메인 카메라(100)는 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 상기 처리된 화상 프레임은 해당 메인 카메라(100)의 일측에 구성된 표시부/디스플레이부(미도시)에 표시될 수 있다. 일 예로, 상기 메인 카메라(100)는 객체(또는 피사체)(사용자 영상 또는 화상 회의자)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.Additionally, the
또한, 상기 메인 카메라(100)에서 처리된 화상 프레임은 해당 메인 카메라(100)에 구성된(또는 장착된) 메모리(미도시)에 저장되거나 통신부(미도시)를 통해 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등으로 전송될 수 있다.In addition, the image frame processed by the
또한, 상기 복수의 메인 카메라(100)는 현장(또는 공연장)과 관련한 복수의 영상 정보를 각각 획득(또는 촬영)한다.Additionally, the plurality of
즉, 현장의 미리 설정된 복수의 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 메인 카메라(100)는 해당 메인 카메라(100)를 각각 제어하는 촬영자의 제어에 의해 복수의 영상 정보를 각각 획득(또는 촬영/수집)한다. 여기서, 상기 메인 카메라(100)는 미리 설정된 해상도로 상기 영상 정보를 획득할 수 있다. 이때, 상기 미리 설정된 해상도(또는 포맷)는 HD(High Definition, 1280×720), FHD(Full High Definition, 1920×1080), QHD(Quad High Definition, 2560×1440), UHD(Ultra High Definition, 3840×2160), SUHD(Super Ultra High Definition, 7680×4320) 등을 포함한다.That is, the plurality of
또한, 상기 복수의 메인 카메라(100)는 상기 획득된(또는 촬영된) 복수의 영상 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 메인 카메라(100)의 식별 정보 등을 스위처(400)에 전송(또는 제공)한다. 여기서, 상기 메인 카메라(100)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
이와 같이, 상기 복수의 메인 카메라(100)는 현장에서 실시간으로 획득되는(또는 촬영되는) 영상 정보를 상기 스위처(400)에 전송할 수 있다.In this way, the plurality of
상기 복수의 마이크(200)는 상기 복수의 메인 카메라(100), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등과 통신한다. 여기서, 상기 복수의 마이크(200)는 상기 현장(또는 공연장)에서 전문가의 제어에 의해, 해당 현장과 관련한 음성 정보(또는 음향/음성 신호/정보)를 획득(또는 수집)하는 주요 장치일 수 있다.The plurality of
또한, 상기 마이크(200)는 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 해당 마이크(200)의 일측에 구성된 스피커(미도시)를 통해 출력하거나 또는 통신부(미도시)를 통하여 외부 단말로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크(200)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.In addition, the
또한, 복수의 마이크(200)는 상기 현장(또는 공연장)과 관련한 복수의 음성 정보(또는 음향 정보)를 각각 수집(또는 획득)한다.Additionally, the plurality of
즉, 상기 현장의 미리 설정된 복수의 다른 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 마이크(200)는 해당 현장과 관련한 복수의 음성 정보를 각각 수집(또는 획득)한다.That is, the plurality of
또한, 상기 복수의 마이크(200)는 상기 수집된(또는 획득된) 복수의 음성 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 마이크(200)의 식별 정보 등을 상기 스위처(400)에 전송(또는 제공)한다. 여기서, 상기 마이크(200)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
이와 같이, 상기 복수의 마이크(200)는 현장에서 실시간으로 획득되는(또는 수집되는) 음성 정보를 상기 스위처(400)에 전송할 수 있다.In this way, the plurality of
상기 복수의(또는 하나 이상의) 서브 카메라(300)는 상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등과 통신한다. 여기서, 상기 서브 카메라(300)는 독립된 형태로 구성될 수도 있고 또는, 상기 현장에 위치한 임의의 사용자가 소지한 단말(미도시)의 일측에 임베디드 형태로 구성된 상태일 수도 있다. 이때, 상기 단말은 스마트폰, 휴대 단말기, 이동 단말기, 폴더블 단말기, 개인 정보 단말기, PMP 단말기, 텔레매틱스 단말기, 내비게이션 단말기, 개인용 컴퓨터, 노트북 컴퓨터, 슬레이트 PC, 태블릿 PC, 울트라북, 웨어러블 디바이스 등과 같은 다양한 단말기에 적용될 수 있다.The plurality (or one or more)
또한, 상기 서브 카메라(300)는 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 상기 처리된 화상 프레임은 해당 서브 카메라(300)의 일측에 구성된 표시부/디스플레이부(미도시)에 표시될 수 있다. 일 예로, 상기 서브 카메라(300)는 객체(또는 피사체)(사용자 영상 또는 화상 회의자)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.Additionally, the
또한, 상기 서브 카메라(300)에서 처리된 화상 프레임은 해당 서브 카메라(300)에 구성된(또는 장착된) 메모리(미도시)에 저장되거나 통신부(미도시)를 통해 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등으로 전송될 수 있다.In addition, the image frame processed by the sub-camera 300 is stored in a memory (not shown) configured (or installed) in the
또한, 복수의(또는 하나 이상의) 서브 카메라(300)는 상기 현장(또는 공연장)과 관련한 복수의(또는 하나 이상의) 서브 영상 정보를 각각 획득(또는 촬영)한다. 여기서, 상기 서브 카메라(300)는 미리 설정된 해상도로 상기 영상 정보를 획득할 수 있다. 이때, 상기 미리 설정된 해상도(또는 포맷)는 HD, FHD, QHD, UHD, SUHD 등을 포함한다.Additionally, the plurality (or one or more)
즉, 상기 현장의 미리 설정된 복수의 또 다른 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 서브 카메라(300)는 해당 서브 카메라(300)를 각각 제어하는 다른 촬영자의 제어에 의해 복수의(또는 하나 이상의) 서브 영상 정보를 각각 획득(또는 촬영/수집)한다. 이때, 상기 현장에서 공연 중인 특정 출연진(또는 특정 장소/영역)에 일대일로 대응하는 상기 서브 카메라(300)는 해당 서브 카메라(300)에 할당된(또는 설정된/대응된) 특정 출연진(또는 특정 장소/영역)과 관련한 서브 영상 정보만을 획득(또는 촬영)할 수 있다.That is, the plurality of
또한, 상기 복수의 서브 카메라(300)는 상기 획득된(또는 촬영된) 복수의 서브 영상 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 서브 카메라(300)의 식별 정보 등을 현장 단말(500)에 전송(또는 제공)한다. 여기서, 상기 서브 카메라(300)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
이와 같이, 상기 복수의 서브 카메라(300)는 현장에서 실시간으로 획득되는(또는 촬영되는) 특정인과 관련한 영상 정보를 상기 현장 단말(500)에 전송할 수 있다.In this way, the plurality of
상기 스위처(switcher)(400)는 상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 현장 단말(500), 상기 서버(600), 상기 사용자 단말(700) 등과 통신한다.The
또한, 상기 스위처(400)는 영상 믹서로서, 복수의 영상 정보를 선택하는데 사용되며, 영상을 합성하고 특수 효과를 넣을 수도 있으며, 음성 정보(또는 오디오 정보/신호)를 영상 정보와 함께 처리한다.In addition, the
또한, 상기 스위처(400)는 상기 복수의 메인 카메라(100) 및 상기 복수의 마이크(200)로부터 전송되는(또는 제공되는) 복수의 영상 정보, 시각 정보, 해당 메인 카메라(100)의 식별 정보, 복수의 음성 정보, 시각 정보, 해당 마이크(200)의 식별 정보 등을 수신한다.In addition, the
또한, 상기 스위처(400)는 해당 스위처(400)의 편집자 선택(또는 사용자/편집자 입력/터치/제어)에 따라 상기 수신된 복수의 영상 정보 중 어느 하나의 특정 영상 정보 및 상기 수신된 복수의 음성 정보 중 하나 이상의 음성 정보를 편집(또는 스위칭)하여 상기 현장 단말(500)에 전송한다. 이때, 상기 스위처(400)에 의해 상기 현장 단말(500)로 전송되는 특정 영상 정보는 앤드 유저인 사용자 단말(700)에 표시되는 메인 화면이 되고, 상기 스위처(400)에 의해 상기 현장 단말(500)로 전송되는 하나 이상의 음성 정보는 상기 사용자 단말(700)에서 출력되는 메인 음성 정보가 될 수 있다.In addition, the
즉, 상기 스위처(400)는 해당 편집자 제어에 따라, 상기 복수의 영상 정보 중에서 어느 하나의 특정 영상 정보를 바이패스(bypass)하여 상기 현장 단말(500)에 전송하고, 상기 복수의 음성 정보 중에서 하나 이상의 음성 정보를 바이패스하여 상기 현장 단말(500)에 전송한다. 이때, 상기 스위처(400)는 상기 특정 영상 정보 및 상기 하나 이상의 음성 정보뿐만 아니라, 해당 특정 영상 정보와 관련한 시각 정보, 해당 하나 이상의 음성 정보와 관련한 시각 정보 등을 함께 바이패스하여 상기 현장 단말(500)에 전송한다.That is, the
상기 현장 단말(500)은 상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 서버(600), 상기 사용자 단말(700) 등과 통신한다. 여기서, 상기 현장 단말(500)은 해당 현장(또는 공연장)에서 수집되는 복수의 영상 정보, 복수의 음성 정보, 복수의 서브 영상 정보 등을 통합적으로 관리하는 단말(또는 장치/디바이스)일 수 있다.The
또한, 상기 현장 단말(500)은 상기 복수의 서브 카메라(300)로부터 각각 전송되는 복수의 서브 영상 정보, 시각 정보, 해당 서브 카메라(300)의 식별 정보 등을 수신한다.In addition, the
또한, 상기 현장 단말(500)은 상기 스위처(400)로부터 전송되는 특정 영상 정보, 상기 스위처(400)로부터 전송되는 하나 이상의 음성 정보, 시각 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 관리자 입력(또는 관리자/사용자 선택/터치/제어)에 따라 상기 수신된 특정 영상 정보를 근거로 메인 화면을 구성(또는 생성)한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 수신된 하나 이상의 음성 정보를 메인 음성 정보로 구성한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 구성된 메인 화면과 상기 수신된 하나 이상의 음성 정보를 동기화하여, 상기 메인 화면에 동기화된 음성 정보를 구성(또는 생성)한다. 이때, 상기 현장 단말(500)은 상기 구성된 메인 화면에 대응하는 특정 영상 정보와 관련한 시각 정보 및 상기 하나 이상의 음성 정보와 관련한 시각 정보를 근거로 해당 메인 화면과 해당 하나 이상의 음성 정보를 동기화한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 구성된 메인 화면과 상기 수신된 복수의 서브 영상 정보를 근거로 1개의 기본 화면을 구성(또는 생성)한다.Additionally, the
즉, 상기 현장 단말(500)은 상기 구성된 메인 화면의 해상도의 일정 비율로 상기 수신된 복수의 서브 영상 정보의 개수에 따라 해당 복수의 서브 영상 정보 각각의 해상도를 설정(또는 결정)하여, 복수의 해상도 설정 서브 영상 정보를 생성(또는 구성/형성)한다.That is, the
또한, 상기 현장 단말(500)은 상기 구성된 메인 화면 및 상기 해상도가 설정된 복수의 해상도 설정 서브 영상 정보를 조합하여 1개의 기본 화면을 구성(또는 생성)한다.In addition, the
본 발명의 실시예에서는, 상기 현장 단말(500)에서 상기 메인 화면 및 상기 수신된 복수의 서브 영상 정보를 모두 이용해서 상기 기본 화면을 구성하는 것을 주로 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 현장 단말(500)은 관리자 제어에 따라, 상기 복수의 서브 영상 정보 중에서 적어도 하나의 서브 영상 정보를 선택하고, 상기 메인 화면 및 상기 선택된 적어도 하나의 서브 영상 정보를 근거로 1개의 기본 화면을 구성할 수도 있다.In the embodiment of the present invention, the
예를 들어, 4개의 서브 영상 정보를 수신한 상태에서, 상기 현장 단말(500)은 관리자 선택에 따라 4개의 서브 영상 정보 중에서 2개의 서브 영상 정보를 선택하고, 상기 선택된 2개의 서브 영상 정보와 상기 구성된 메인 화면을 근거로 1개의 기본 화면을 구성한다.For example, in a state of receiving four sub-video information, the
이와 같이, 실질적으로는 4개의 서브 영상 정보가 제공되고 있고, 2개의 서브 영상 정보가 상기 기본 화면에 포함되어 상기 사용자 단말(700)에 제공되는 상태에서, 상기 현장 단말(500)은 상기 서버(600) 및 상기 사용자 단말(700)과 연동하여, 해당 사용자 단말(700)에서 상기 기본 화면에 포함된 2개의 서브 영상 정보 이외의 나머지 2개의 서브 영상 정보 중에서 어느 하나의 서브 영상 정보를 요청하는 경우, 해당 사용자 단말(700)에서 요청한 어느 하나의 서브 영상 정보를 상기 사용자 단말(700)에 제공할 수도 있다.In this way, in a state where four sub-video information is actually provided and two sub-video information are included in the basic screen and provided to the
또한, 상기 현장 단말(500)은 상기 구성된(또는 생성된) 기본 화면(또는 1개의 기본 화면), 상기 구성된 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 상기 서버(600)에 전송한다. 여기서, 상기 기본 화면에 대한 좌표 정보는 기본 화면상에서 해당 메인 화면에 대한 좌표 정보, 복수의 해상도 설정 서브 영상 정보별 좌표 정보 등을 포함하며, 사각형 형태에서의 왼쪽 상단 꼭짓점을 기준으로 (x, y, 폭, 높이) 형태로 표시한다. 이때, 상기 x와 y는 해당 왼쪽 상단 꼭짓점의 x, y 좌표를 나타내고, 상기 폭(width)은 사각형의 가로 길이 정보를 나타내고, 상기 높이(height)는 사각형의 세로 길이 정보를 나타낸다.In addition, the
상기 서버(600)는 상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 현장 단말(500), 상기 사용자 단말(700) 등과 통신한다. 여기서, 상기 서버(600)는 상기 사용자 단말(700)에 실시간으로 방송 콘텐츠를 제공하는 서버일 수 있으며, 아마존의 아마존 웹 서비스(Amazon Web Services: AWS), 네이버의 실시간 방송 서버, 유튜브, 방송국 서버 등을 포함한다.The
또한, 상기 서버(600)는 상기 사용자 단말(700) 등의 사용자에 대한 회원 가입 절차 등을 수행한다.Additionally, the
또한, 상기 서버(600)는 상기 사용자 단말(700) 등의 사용자와 관련한 개인 정보를 등록한다. 이때, 상기 서버(600)는 해당 개인 정보 등을 DB 서버(미도시)에 등록(또는 관리)하며, 해당 사용자 단말(700)의 사용자 등으로부터 사전에 전자 문서 형태의 개인 정보 이용 동의서를 제공받은 상태일 수 있다.Additionally, the
또한, 상기 서버(600)는 상기 사용자 단말(700) 등의 사용자에 대한 회원 관리 기능을 수행한다.Additionally, the
또한, 상기 서버(600)는 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 제공하는 전용 앱 및/또는 웹 사이트를 상기 사용자 단말(700) 등에 한다.In addition, the
또한, 상기 서버(600)는 공지사항, 이벤트 등을 위한 게시판 기능을 제공한다.Additionally, the
또한, 상기 서버(600)는 상기 현장 단말(500)로부터 전송되는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 수신한다.Additionally, the
또한, 상기 서버(600)는 상기 수신된 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 해당 현장(또는 공연장)과 관련한 공연 정보와 매핑하여 해당 서버(600)(또는 데이터베이스(미도시))에 저장(또는 등록)한다. 여기서, 상기 공연 정보는 공연명, 공연일시, 공연장소, 러닝타임, 소개 정보, 출연진 정보, 기획사 정보 등을 포함한다.In addition, the
또한, 상기 사용자 단말(700)에 표시되는 하나 이상의 공연 정보 중에서 해당 사용자 단말(700)의 사용자 선택(또는 사용자 입력/터치/제어)에 따라 특정 공연 정보가 선택되는 경우, 상기 서버(600)는 상기 사용자 단말(700)로부터 전송되는 특정 공연 정보, 사용자 단말(700)의 식별 정보 등을 수신한다.In addition, when specific performance information is selected among one or more performance information displayed on the
또한, 상기 서버(600)는 해당 서버(600)에 미리 저장된(또는 등록된) 복수의 공연 정보별 방송 콘텐츠 중에서 상기 수신된 특정 공연 정보에 대응하는 방송 콘텐츠를 확인(또는 검색)한다.Additionally, the
또한, 상기 서버(600)는 상기 확인된(또는 검색된) 방송 콘텐츠와 관련한 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 상기 방송 콘텐츠를 미리 설정된 전송 프로토콜을 이용해서 상기 사용자 단말(700)에 전송한다. 이때, 상기 서버(600)는 상기 사용자 단말(700)의 ABR(Adaptive Bitrate Streaming)을 고려하여 최적의 상태로 상기 확인된(또는 검색된) 방송 콘텐츠와 관련한 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 상기 사용자 단말(700)에 전송할 수도 있다. 또한, 상기 전송 프로토콜은 리얼 타임 메시징 프로토콜(Real-Time Messaging Protocol: RTMP), HLS(Https Live Streaming), WebRTC(Web Real-Time Communication) 등을 포함한다.In addition, the
상기 사용자 단말(700)은 상기 복수의 메인 카메라(100), 상기 복수의 마이크(200), 상기 복수의 서브 카메라(300), 상기 스위처(400), 상기 현장 단말(500), 상기 서버(600) 등과 통신한다. 여기서, 상기 사용자 단말(700)은 현장(또는 공연장)에서 실시간으로 제공되는 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 제공받는 사용자가 소지한 단말일 수 있다.The
또한, 상기 사용자 단말(700)은 상기 서버(600)와의 연동에 의해, 상기 서버(600)에서 제공하는 전용 앱 및/또는 웹 사이트를 통해 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 제공받기 위한 사용자로 회원 가입하며, 개인 정보 등을 상기 서버(600)에 등록한다. 이때, 상기 개인 정보는 아이디, 이메일 주소, 패스워드(또는 비밀번호), 이름, 성별, 생년월일, 연락처, 주소지(또는 주소정보) 등을 포함한다.In addition, the
또한, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 사용자가 가입한 SNS 계정 정보 또는 타사이트 계정 정보를 이용하여 상기 서버(600)에 사용자로 회원 가입할 수도 있다. 여기서, 상기 SNS 계정은 페이스북, 트위터, 인스타그램, 카카오 스토리, 네이버 블로그 등과 관련한 정보일 수 있다. 또한, 상기 타사이트 계정은 유튜브, 카카오, 네이버 등과 관련한 정보일 수 있다.Additionally, the
또한, 회원 가입 절차 수행 시, 상기 사용자 단말(700)은 본인 인증 수단(예를 들어 이동 전화, 신용카드, 아이핀 등 포함)을 통한 인증 기능을 완료해야 상기 서버(600)에 대한 회원 가입 절차를 정상적으로 완료할 수 있다.In addition, when performing the membership registration process, the
또한, 회원 가입이 완료된 후, 상기 사용자 단말(700)은 상기 서버(600)에서 제공하는 서비스를 이용하기 위해서, 상기 서버(600)로부터 제공되는 전용 앱(또는 애플리케이션/응용 프로그램/특정 앱)을 해당 사용자 단말(700)에 설치한다. 이때, 상기 전용 앱은 네이티브 앱(Native App), 모바일 웹앱(Mobile WebApp), 반응형 웹앱(Mobile WebApp Design: RWD), 적응형 웹앱(Adaptive Web Design: AWD), 하이브리드 앱(Hybrid App) 등을 포함하며, 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 수행하기 위한 앱일 수 있다.In addition, after membership registration is completed, the
또한, 회원 가입이 완료된 후, 상기 사용자 단말(700)은 상기 서버(600)에서 제공되는 할인 쿠폰을 해당 전용 앱을 통해 표시할 수 있다. 이때, 상기 할인 쿠폰은 해당 서버(600)에서 제공하는 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 이용시 일정 비율의 할인 정보를 포함하는 할인 쿠폰일 수 있다.Additionally, after membership registration is completed, the
또한, 상기 사용자 단말(700)은 웹 브라우저를 통해 해당 서버(600)에서 제공하는 웹 사이트(또는 URL 링크)에 접속(또는 연결)한다.Additionally, the
또한, 상기 사용자 단말(700)은 상기 접속된 웹 사이트에서 제공하는 하나 이상의 공연 정보를 수신하고, 상기 수신된 하나 이상의 공연 정보를 표시(또는 출력)한다. 여기서, 상기 공연 정보는 공연명, 공연일시, 공연장소, 러닝타임, 소개 정보, 출연진 정보, 기획사 정보 등을 포함한다.Additionally, the
또한, 상기 사용자 단말(700)에 표시되는 하나 이상의 공연 정보 중에서 해당 사용자 단말(700)의 사용자 선택(또는 사용자 입력/터치/제어)에 따라 특정 공연 정보가 선택되는 경우, 상기 사용자 단말(700)은 해당 웹 사이트를 관리하는 상기 서버(600)와 연동하여, 상기 서버(600)로부터 전송되는 해당 특정 공연 정보에 대응하는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 수신한다.In addition, when specific performance information is selected among one or more performance information displayed on the
즉, 상기 사용자 단말(700)에 표시되는 하나 이상의 공연 정보 중에서 해당 사용자 단말(700)의 사용자 선택(또는 사용자 입력/터치/제어)에 따라 특정 공연 정보가 선택되는 경우, 상기 사용자 단말(700)은 상기 선택된 특정 공연 정보, 사용자 단말(700)의 식별 정보 등을 상기 서버(600)에 전송한다. 여기서, 상기 사용자 단말(700)의 식별 정보는 MDN(Mobile Directory Number), 모바일 IP, 모바일 MAC, Sim(subscriber identity module: 가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.That is, when specific performance information is selected among one or more performance information displayed on the
또한, 상기 사용자 단말(700)은 상기 서버(600)로부터 전송되는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 상기 방송 콘텐츠를 수신한다. 여기서, 상기 방송 콘텐츠를 실시간 방송 콘텐츠(또는 실시간 방송 스트림)일 수 있다.Additionally, the
또한, 상기 사용자 단말(700)은 해당 웹 브라우저와 연동하는 스크립트 언어(예를 들어 자바 스크립트 등 포함)를 이용해서, 상기 수신된 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보(또는 상기 해상도가 재설정된 복수의 서브 영상 정보)를 분리(또는 구분/구성)한다.In addition, the
또한, 상기 사용자 단말(700)은 상기 분리된(또는 구분된/구성된) 메인 화면 및 상기 수신된 해당 메인 화면에 동기화된 음성 정보를 렌더링하여 출력한다. 이때, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 전체 화면 또는 상기 전체 화면의 일부 영역에 상기 메인 화면을 표시한다. 또한, 상기 사용자 단말(700)은 상기 메인 화면이 표시되는 화면(또는 전체 화면/일부 화면)의 일측에 마커를 표시하고, 상기 메인 화면이 표시되는 화면(또는 전체 화면/일부 화면)의 다른 일측에 다른 마커를 표시한다. 여기서, 상기 마커(또는 서브 영상용 마커)는 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 추가로 표시하기 위한 용도이고, 상기 다른 마커(또는 채팅 마커)는 상기 서버(600)의 제어에 의해 해당 사용자 단말(700)과 하나 이상의 다른 사용자 단말(미도시) 간의 채팅 기능을 수행하기 위한 용도일 수 있다.Additionally, the
이와 같이, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 사용자에 의해 선택된 특정 공연 정보에 대응하는 방송 콘텐츠에 대해서 상기 서버(600)와 연동하여, 실시간으로 해당 방송 콘텐츠에 대한 실시간 스트링밍을 제공할 수 있다.In this way, the
또한, 상기 사용자 단말(700) 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 영역(또는 제 1-1 영역)에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 조정(또는 조절)하여 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 다른 영역(또는 제 1-2 영역/나머지 영역)에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시한다. 이때, 상기 해상도 설정 서브 영상 정보(예를 들어 해상도 360×540)는 해상도가 재설정(예를 들어 180×270)되어 썸네일 형태로 표시될 수 있다.In addition, when a preset marker displayed on one side of the main screen in the
또한, 상기 사용자 단말(700) 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택되는 경우, 상기 사용자 단말(700)은 하위 레이어와 상위 레이어로 구분된 화면에서, 하위 레이어인 상기 메인 화면이 표시되고 있는 화면상의 일측(예를 들어 우측 영역 등 포함)에 상위 레이어인 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시할 수도 있다.In addition, when a preset marker displayed on one side of the main screen in the
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보가 선택되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 이때, 상기 제 2-3 영역과 앞선 다른 영역(또는 제 1-2 영역/나머지 영역)은 동일한 크기일 수 있다. 또한, 상기 서브 화면은 상기 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 선택된 어느 하나의 해상도 설정 서브 영상 정보에 대응하는 화면(또는 크기 재조정 영상 정보)일 수 있다.In addition, when any one resolution setting sub-video information is selected among a plurality of resolution setting sub-video information in the form of thumbnails displayed on one side of the screen in the
이와 같이, 상기 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 하나 이상의 해상도 설정 서브 영상 정보가 순차로 선택되는 경우, 상기 사용자 단말(700)은 상기 선택된 해상도 설정 서브 영상 정보의 개수에 따라, 상기 사용자 단말(700)의 화면을 분할하여, 상기 메인 화면 및 상기 선택된 해상도 설정 서브 영상 정보의 개수에 따른 하나 이상의 서브 화면(또는 상기 선택된 하나 이상의 해상도 설정 서브 영상 정보에 대응하는 하나 이상의 서브 화면)을 멀티뷰로 표시할 수 있다.In this way, when one or more resolution setting sub-image information is sequentially selected from among the plurality of resolution setting sub-image information in the thumbnail form, the
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보에 대한 해당 사용자 단말(700)의 사용자에 의한 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 터치 제스처는 탭(tap), 터치&홀드(touch & hold), 더블 탭(double tap), 드래그(drag), 플릭(flick), 스와이프(swipe) 등을 포함한다.In addition, a touch gesture by the user of the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 특정 해상도 설정 서브 영상 정보에 대해서 탭, 터치&홀드, 더블 탭, 드래그, 플릭 및 스와이프 중 어느 하나의 이벤트가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 특정 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다.That is, tap, touch & hold, double tap, drag, flick, and When one of the swiping events occurs (or is detected/confirmed), the
"탭(tap)"은 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면을 터치한 후 움직이지 않은 채 화면에서 즉시 들어올리는 동작을 나타낸다.“Tap” refers to an action in which a user touches the screen using a finger or a touch tool (eg, an electronic pen) and then immediately lifts the screen without moving it.
"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면을 터치한 후, 임계 시간(예컨대, 2초) 이상 터치 입력을 유지하는 동작을 나타낸다. 즉, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간(예컨대, 2초) 이상인 경우를 의미한다. 터치 입력이 탭인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적 또는 촉각적으로 피드백 신호를 제공할 수도 있다. 상기 임계 시간은 구현 예에 따라서 변경될 수 있다.“Touch & hold” refers to an operation in which a user touches the screen using a finger or a touch tool (eg, an electronic pen) and then maintains the touch input for more than a threshold time (eg, 2 seconds). That is, this means that the time difference between the touch-in time and the touch-out time is more than a threshold time (eg, 2 seconds). In order to allow the user to recognize whether the touch input is a tap or a touch & hold, a feedback signal may be provided visually, audibly, or tactilely when the touch input is maintained for more than a threshold time. The critical time may change depending on implementation examples.
"더블 탭(double tap)"은 사용자가 손가락이나 터치 도구(stylus)를 이용하여 화면을 두 번 터치하는 동작을 나타낸다.“Double tap” refers to the action of a user touching the screen twice using a finger or a touch tool (stylus).
"드래그(drag)"는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. 드래그 동작으로 인하여 오브젝트가 이동되거나 후술할 패닝 동작이 수행된다.“Drag” refers to an action in which a user touches a finger or touch tool on the screen and then moves the finger or touch tool to another location on the screen while maintaining the touch. Due to the drag operation, the object is moved or a panning operation, which will be described later, is performed.
"패닝(panning)"은 사용자가 오브젝트를 선택하지 않고 드래그 동작을 수행하는 경우를 나타낸다. 패닝은 특정 오브젝트를 선택하지 않기 때문에 오브젝트가 페이지 내에서 이동되는 것이 아니라 페이지 자체가 화면 내에서 이동하거나, 오브젝트의 그룹이 페이지 내에서 이동한다.“Panning” refers to a case where a user performs a drag operation without selecting an object. Because panning does not select a specific object, the object does not move within the page, but the page itself moves within the screen, or a group of objects moves within the page.
"플릭(flick)"은 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 드래그하는 동작을 나타낸다. 손가락이나 터치 도구의 이동 속도가 임계 속도(예컨대, 100 pixel/s) 이상인지에 기초하여 드래그(또는 패닝)와 플릭을 구별할 수 있다.“Flick” refers to a user's dragging motion using a finger or a touch tool at a threshold speed (eg, 100 pixel/s) or higher. Dragging (or panning) and flicking can be distinguished based on whether the movement speed of the finger or touch tool is above a threshold speed (eg, 100 pixel/s).
"드래그 앤드 드롭(drag & drop)"은 사용자가 손가락이나 터치 도구를 이용해 오브젝트를 화면 내 소정 위치에 드래그한 후 놓는 동작을 의미한다.“Drag & drop” refers to the action of a user dragging an object to a certain location on the screen using a finger or a touch tool and then dropping it.
"핀치(pinch)"는 사용자가 두 손가락을 화면 위에 터치한 상태에서 서로 다른 방향으로 움직이는 동작을 나타낸다. 오브젝트 또는 페이지의 확대(Pinch Open) 또는 축소(Pinch Close)를 위한 제스처이며, 두 손가락의 거리에 따라 확대값이나 축소값이 결정된다.“Pinch” refers to the action of a user moving two fingers in different directions while touching the screen. This is a gesture to enlarge (Pinch Open) or reduce (Pinch Close) an object or page, and the enlargement or reduction value is determined depending on the distance between the two fingers.
"스와이프(swipe)"는 손가락이나 터치 도구로 화면 위의 오브젝트를 터치한 상태에서 수평 또는 수직 방향으로 일정 거리를 움직이는 동작이다. 사선 방향의 움직임은 스와이프 이벤트로 인식되지 않을 수 있다.“Swipe” is an action of touching an object on the screen with a finger or a touch tool and moving it a certain distance in the horizontal or vertical direction. Movement in a diagonal direction may not be recognized as a swipe event.
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제한 후, 화면을 재구성하여 표시한다.In addition, when another touch gesture by the user of the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 표시 중인 상기 메인 화면의 크기를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 표시 중인 하나 이상의 서브 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면이 제외(또는 삭제)된 나머지 서브 화면을 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 다른 터치 제스처는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 스와이프 등을 포함한다.That is, when another touch gesture by the user of the
이와 같이, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 특정 서브 화면에 대해서 탭, 터치&홀드, 더블 탭, 드래그, 플릭 및 스와이프 중 어느 하나의 다른 이벤트가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 이전의 화면에서 해당 특정 서브 화면을 제외한 상태로 화면을 재구성하여 표시할 수 있다.In this way, any one of the following events among tap, touch & hold, double tap, drag, flick, and swipe is applied to any one specific sub screen among one or more sub screens displayed on one side of the screen in the
또한, 상기 사용자 단말(700)은 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선에 대한 터치 앤 드래그에 의해, 화면 내에서의 분할된 화면 크기를 조정한다.In addition, the
즉, 상기 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선이 선택된 상태에서 터치 앤 드래그에 의해 외곽선을 늘리거나 줄이는 이벤트가 발생하는 경우, 상기 사용자 단말(700)은 상기 터치 앤 드래그에 의한 외곽선의 늘림 또는 줄임에 대응하여 상기 선택된 메인 화면 또는 서브 화면의 크기를 조정(예를 들어 확대, 축소 등 포함)하고, 상기 크기(또는 해상도)가 조정되는 메인 화면 또는 서브 화면의 크기에 비례하여 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 크기를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 화면 크기를 조정함에 따라, 나머지 영상 정보들의 화면 크기도 자동으로 조정할 수 있다.That is, when an event occurs that increases or decreases the outline by touch and drag while the outline of the main screen or the sub screen is selected among the main screen and the one or more sub screens displayed on the
또한, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 핀치가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면에서 상기 메인 화면 또는 상기 서브 화면의 크기를 조정한다.In addition, among the main screen and the one or more sub-screens displayed on the
즉, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 미리 설정된 핀치가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면(또는 전체 화면)에서 상기 핀치에 대응하는 상기 메인 화면 또는 상기 서브 화면의 크기를 미리 설정된 해상도로 확대(또는 축소)하고, 상기 크기가 조정되는 메인 화면 또는 서브 화면의 크기에 비례하여 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 크기를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 화면 크기를 조정함에 따라, 나머지 영상 정보들의 화면 크기도 자동으로 조정할 수 있다.That is, when a preset pinch occurs (or is detected/confirmed) for the main screen or the sub screen among the main screen and the one or more sub screens displayed on the
또한, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 드래그 앤 드롭이 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면 내에서의 상기 메인 화면 또는 상기 서브 화면의 위치를 조정한다.In addition, among the main screen and the one or more sub-screens displayed on the
즉, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 특정 서브 화면이 선택된 상태에서 드래그 앤 드롭에 의해 화면 내에서의 위치가 변경되는 경우, 상기 사용자 단말(700)은 상기 드래그 앤 드롭에 대응하는 메인 화면 또는 특정 서브 화면의 위치를 드롭된 위치로 변경하고, 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 위치를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 위치가 변경됨에 따라, 나머지 영상 정보들의 위치도 자동으로 조정할 수 있다.That is, among the main screen and the one or more sub-screens displayed on the
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭 기능에 의해서, 상기 다른 특정 해상도 설정 서브 영상 정보가 선택된 후 드래그되어 상기 메인 화면 위치로 드롭되는 경우, 상기 사용자 단말(700)은 상기 메인 화면과 상기 선택된 다른 특정 해상도 설정 서브 영상 정보를 서로 교환(또는 치환/대체/교체)하여 표시한다. 이때, 상기 사용자 단말(700)은 썸네일 영역에 표시되는 메인 화면에 대해서는, 해당 화면이 메인 화면임을 구분할 수 있도록 해당 썸네일 영역 내의 메인 화면의 일측에 또 다른 마커를 표시하거나 또는, 해당 썸네일 영역 내의 메일 화면의 테두리를 미리 설정된 색상 및/또는 두께로 설정하여 표시할 수도 있다.In addition, among the plurality of resolution setting sub-video information in the form of thumbnails displayed on one side of the screen in the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭이 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면 내에서의 상기 메인 화면 및 상기 드래그 앤 드롭에 대응하는 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시한다. 이때, 상기 사용자 단말(700)은 상기 드래그 앤 드롭에 대응하는 다른 특정 해상도 설정 서브 영상 정보의 크기(또는 해상도)를 상기 메인 화면의 크기에 일치하도록 조정하고, 상기 메인 화면의 크기를 해당 썸네일 상에서의 다른 특정 해상도 설정 서브 영상 정보의 크기에 일치하도록 조정한다. 이때, 상기 다른 특정 해상도 설정 서브 영상 정보에 대한 드래그 앤 드롭 이외에도, 상기 다른 특정 해상도 설정 서브 영상 정보에 대해서 해당 사용자 단말(700)의 사용자에 의한 또 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 메인 화면과 상기 또 다른 터치 제스처에 대응하는 상기 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시할 수도 있다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 또 다른 터치 제스처는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 스와이프 등을 포함한다.That is, when a drag and drop occurs (or is detected/confirmed) for another specific resolution setting sub-image information among a plurality of resolution setting sub-image information in the form of a thumbnail displayed on one side of the screen in the
이와 같이, 상기 사용자 단말(700)은 아이돌 또는 밴드 공연과 관련한 스트리밍 서비스에 대해서, 각 멤버별로 원하는 화면만 제공(또는 표시)할 수 있으며, 솔로 아티스트의 경우 얼굴, 전신, 악기 등으로 나누어서 원하는 화면만을 제공할 수 있다.In this way, the
이에 따라, 본 발명의 실시예에 의한 멀티뷰 제공 시스템(10)은 고가의 하드웨어가 필요치 않으며, 소프트웨어 개발로만 이루어졌으며 적용이 용이하고, 현재의 온라인 라이브 콘텐츠들이 갖고 있는 문제점인 '현장감 부재'를 해결해주는 실감형 콘텐츠를 제공할 수 있다.Accordingly, the
본 발명의 실시예에서는 상기 사용자 단말(700)에서 웹 사이트 형태로 방송 스트리밍 서비스 기능, 방송 콘텐츠 제공 기능 등을 수행하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 웹 사이트 이외에도 상기 서버(600)에 제공하는 전용 앱 등을 통해 상기 방송 스트리밍 서비스 기능, 상기 방송 콘텐츠 제공 기능 등을 수행할 수도 있다.In the embodiment of the present invention, it is explained that the
또한, 본 발명의 실시예에서는 스크립트 언어에 포함된 클라이언트용 스크립트 언어인 자바 스크립트 위주로 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 자바 스크립트 이외에도, 상기 클라이언트용 스크립트 언어에 포함된 VB 스크립트(Visual Basic Script) 또는, 서버용 스크립트 언어에 포함된 ASP(Active Server Page), JSP(Java Server Page), PHP(Professional Hypertext Preprocessor), 파이썬(Python) 등을 통해서도, 본 발명의 기술적 특징을 구성(또는 구현)할 수 있다.In addition, in the embodiment of the present invention, the description is focused on JavaScript, which is a client script language included in the script language, but is not limited thereto. In addition to the JavaScript, VB Script (Visual Basic Script) included in the client script language ) Or, the technical features of the present invention can be configured (or implemented) through ASP (Active Server Page), JSP (Java Server Page), PHP (Professional Hypertext Preprocessor), Python, etc. included in the server script language. You can.
또한, 본 발명의 실시예에서는, 상기 사용자 단말(700)에서 상기 클라이언트용 스크립트 언어를 이용해서 상기 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면으로부터 메인 화면과 복수의 해상도 설정 서브 영상 정보를 분리하여, 해당 사용자 단말(700)에 표시될 화면을 구성하는 것을 주로 설명하고 있으나, 이에 한정되는 것은 아니며, 사용자 단말(700)의 요청에 따라 상기 사용자 단말(700)에서 수행하는 화면 구성에 대한 기능을 상기 서버(600)에 수행한 후, 상기 서버(600)에서 수행한 결과물인 화면을 상기 사용자 단말(700)에 전송하고, 상기 사용자 단말(700)에서는 상기 서버(600)로부터 전송되는 화면을 수신 및 표시하도록 구성할 수도 있다.In addition, in an embodiment of the present invention, the
즉, 상기 사용자 단말(700) 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택되는 경우, 상기 사용자 단말(700)은 상기 선택된 마커에 대한 정보, 상기 사용자 단말(700)의 식별 정보 등을 상기 서버(600)에 전송한다.That is, when a preset marker displayed on one side of the main screen in the
또한, 상기 서버(600)는 상기 사용자 단말(700)로부터 전송되는 마커에 대한 정보, 상기 사용자 단말(700)의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 서버(600)는 서버용 스크립트 언어를 이용해서, 앞서 해당 사용자 단말(700)에 전송된 방송 콘텐츠, 상기 수신된 마커에 대한 정보 등을 근거로 해당 방송 콘텐츠에 포함된 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보(또는 상기 해상도가 재설정된 복수의 서브 영상 정보)를 분리(또는 구분/구성)한다.In addition, the
또한, 상기 서버(600)는 해당 사용자 단말(700)에서 지원하는 해상도(또는 화면 크기)에 따라, 미리 설정된 영역(또는 제 1-1 영역)에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 조정(또는 조절)하여 표시하고, 미리 설정된 다른 영역(또는 제 1-2 영역/나머지 영역)에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하도록 화면을 구성(또는 생성)한다. 이때, 상기 서버(600)는 상기 구성되는 화면에 대응하는 하나 이상의 음성 정보를 동기화하여, 상기 메인 화면에 동기화된 음성 정보를 구성(또는 생성)한다.In addition, the
또한, 상기 서버(600)는 상기 생성된 화면, 상기 메인 화면에 동기화된 음성 정보 등을 상기 사용자 단말(700)에 전송한다.Additionally, the
또한, 상기 사용자 단말(700)은 앞서 전송된 마커에 대한 정보 등에 응답하여 상기 서버(600)로부터 전송되는 화면, 상기 메인 화면에 동기화된 음성 정보 등을 수신하고, 상기 수신된 화면, 상기 메인 화면에 동기화된 음성 정보 등을 출력한다.In addition, the
이와 같이, 상기 사용자 단말(700)에서 표시되는 화면은 해당 사용자 단말(700)에서 자체적으로 처리하여 표시하거나 또는, 상기 서버(600)와 연동하여 해당 서버(600)에서 처리된 화면을 제공받아 표시할 수 있다.In this way, the screen displayed on the
또한, 이와 같이, 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공할 수 있다.Additionally, in this way, in addition to the main screen provided by live streaming, one or more sub-screens according to the user's selection can be provided as a multi-view.
또한, 이와 같이, 라이브 스트리밍을 위해 촬영된 복수의 영상 정보 중에서 편집자 제어에 따른 메인 화면과 해당 복수의 영상 정보를 하나의 화면으로 구성하여 서버를 통해 사용자에게 제공할 수 있다.In addition, among the plurality of video information captured for live streaming, the main screen under editor control and the plurality of video information can be configured into one screen and provided to the user through the server.
이하에서는, 본 발명에 따른 사용자 중심의 멀티뷰 제공 방법을 도 1 내지 도 14를 참조하여 상세히 설명한다.Hereinafter, the user-centered multi-view providing method according to the present invention will be described in detail with reference to FIGS. 1 to 14.
도 2 내지 도 3은 본 발명의 실시예에 따른 사용자 중심의 멀티뷰 제공 방법을 나타낸 흐름도이다.Figures 2 and 3 are flowcharts showing a user-centered multi-view providing method according to an embodiment of the present invention.
먼저, 복수의 메인 카메라(100)는 현장(또는 공연장)과 관련한 복수의 영상 정보를 각각 획득(또는 촬영)한다.First, the plurality of
즉, 현장의 미리 설정된 복수의 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 메인 카메라(100)는 해당 메인 카메라(100)를 각각 제어하는 촬영자의 제어에 의해 복수의 영상 정보를 각각 획득(또는 촬영/수집)한다. 여기서, 상기 메인 카메라(100)는 미리 설정된 해상도로 상기 영상 정보를 획득할 수 있다. 이때, 상기 미리 설정된 해상도(또는 포맷)는 HD(High Definition, 1280×720), FHD(Full High Definition, 1920×1080), QHD(Quad High Definition, 2560×1440), UHD(Ultra High Definition, 3840×2160), SUHD(Super Ultra High Definition, 7680×4320) 등을 포함한다.That is, the plurality of
또한, 상기 복수의 메인 카메라(100)는 상기 획득된(또는 촬영된) 복수의 영상 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 메인 카메라(100)의 식별 정보 등을 스위처(400)에 전송(또는 제공)한다. 여기서, 상기 메인 카메라(100)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
또한, 복수의 마이크(200)는 상기 현장(또는 공연장)과 관련한 복수의 음성 정보(또는 음향 정보)를 각각 수집(또는 획득)한다.Additionally, the plurality of
즉, 상기 현장의 미리 설정된 복수의 다른 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 마이크(200)는 해당 현장과 관련한 복수의 음성 정보를 각각 수집(또는 획득)한다.That is, the plurality of
또한, 상기 복수의 마이크(200)는 상기 수집된(또는 획득된) 복수의 음성 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 마이크(200)의 식별 정보 등을 상기 스위처(400)에 전송(또는 제공)한다. 여기서, 상기 마이크(200)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
또한, 복수의(또는 하나 이상의) 서브 카메라(300)는 상기 현장(또는 공연장)과 관련한 복수의(또는 하나 이상의) 서브 영상 정보를 각각 획득(또는 촬영)한다. 여기서, 상기 서브 카메라(300)는 미리 설정된 해상도로 상기 영상 정보를 획득할 수 있다. 이때, 상기 미리 설정된 해상도(또는 포맷)는 HD, FHD, QHD, UHD, SUHD 등을 포함한다.Additionally, the plurality (or one or more)
즉, 상기 현장의 미리 설정된 복수의 또 다른 위치에 각각 설치된 또는 이동 가능하도록 구성된 상기 복수의 서브 카메라(300)는 해당 서브 카메라(300)를 각각 제어하는 다른 촬영자의 제어에 의해 복수의(또는 하나 이상의) 서브 영상 정보를 각각 획득(또는 촬영/수집)한다. 이때, 상기 현장에서 공연 중인 특정 출연진(또는 특정 장소/영역)에 일대일로 대응하는 상기 서브 카메라(300)는 해당 서브 카메라(300)에 할당된(또는 설정된/대응된) 특정 출연진(또는 특정 장소/영역)과 관련한 서브 영상 정보만을 획득(또는 촬영)할 수 있다.That is, the plurality of
또한, 상기 복수의 서브 카메라(300)는 상기 획득된(또는 촬영된) 복수의 서브 영상 정보, 시각 정보(또는 동기용/싱크용 신호 정보), 해당 서브 카메라(300)의 식별 정보 등을 현장 단말(500)에 전송(또는 제공)한다. 여기서, 상기 서브 카메라(300)의 식별 정보는 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the plurality of
일 예로, 복수의 가수에 대한 합동 공연 현장에 각각 설치된 제 1 메인 카메라(100) 내지 제 6 메인 카메라(100)는 미리 설정된 제 1 해상도(예를 들어 1920×1080)로 해당 합동 공연 현장과 관련한 제 1 영상 정보 내지 제 6 영상 정보를 각각 획득하고, 상기 획득된 제 1 영상 정보 내지 제 6 영상 정보, 상기 제 1 메인 카메라의 식별 정보 내지 상기 제 6 메인 카메라의 식별 정보, 시각 정보 등을 상기 스위처(400)에 각각 전송한다.As an example, the first to sixth
또한, 상기 합동 공연 현장에 각각 설치된 제 1 마이크(200) 내지 제 7 마이크(200)는 해당 합동 공연 현장과 관련한 제 1 음성 정보 내지 제 7 음성 정보를 각각 획득하고, 상기 획득된 제 1 음성 정보 내지 제 7 음성 정보, 상기 제 1 마이크의 식별 정보 내지 상기 제 7 마이크의 식별 정보, 시각 정보 등을 상기 스위처(400)에 각각 전송한다.In addition, the first to
또한, 상기 합동 공연 현장에서 공연 중인 A 가수팀과 관련해서 해당 A 가수팀 내의 제 1 가수에 대응하는 제 1 서브 카메라는 미리 설정된 제 2 해상도(예를 들어 1080×920)로 상기 제 1 가수와 관련한 제 1 서브 영상 정보를 획득하고, 상기 획득된 제 1 서브 영상 정보, 시각 정보, 상기 제 1 서브 카메라의 식별 정보 등을 상기 현장 단말(500)에 전송한다.In addition, with respect to the singer team A performing at the joint performance site, the first sub camera corresponding to the first singer in the singer team A is configured to capture images with the first singer at a preset second resolution (for example, 1080×920). Related first sub-image information is acquired, and the acquired first sub-image information, visual information, identification information of the first sub-camera, etc. are transmitted to the
또한, 상기 합동 공연 현장에서 공연 중인 A 가수팀과 관련해서 해당 A 가수팀 내의 제 2 가수에 대응하는 제 2 서브 카메라는 상기 제 2 해상도로 상기 제 2 가수와 관련한 제 2 서브 영상 정보를 획득하고, 상기 획득된 제 2 서브 영상 정보, 시각 정보, 상기 제 2 서브 카메라의 식별 정보 등을 상기 현장 단말(500)에 전송한다.In addition, with respect to the singer team A performing at the joint performance site, the second sub camera corresponding to the second singer in the singer team A acquires second sub video information related to the second singer at the second resolution, , the acquired second sub-image information, visual information, identification information of the second sub-camera, etc. are transmitted to the
또한, 상기 합동 공연 현장에서 공연 중인 A 가수팀과 관련해서 해당 A 가수팀 내의 제 3 가수에 대응하는 제 3 서브 카메라는 상기 제 2 해상도로 상기 제 3 가수와 관련한 제 3 서브 영상 정보를 획득하고, 상기 획득된 제 3 서브 영상 정보, 시각 정보, 상기 제 3 서브 카메라의 식별 정보 등을 상기 현장 단말(500)에 전송한다.In addition, with respect to the singer team A performing at the joint performance site, the third sub camera corresponding to the third singer in the singer team A acquires third sub video information related to the third singer at the second resolution, , the acquired third sub-image information, visual information, identification information of the third sub-camera, etc. are transmitted to the
또한, 상기 합동 공연 현장에서 공연 중인 A 가수팀과 관련해서 해당 A 가수팀 내의 제 4 가수에 대응하는 제 4 서브 카메라는 상기 제 2 해상도로 상기 제 4 가수와 관련한 제 4 서브 영상 정보를 획득하고, 상기 획득된 제 4 서브 영상 정보, 시각 정보, 상기 제 4 서브 카메라의 식별 정보 등을 상기 현장 단말(500)에 전송한다(S210).In addition, with respect to the singer team A performing at the joint performance site, the fourth sub camera corresponding to the fourth singer in the singer team A acquires the fourth sub video information related to the fourth singer at the second resolution, , the acquired fourth sub-image information, visual information, identification information of the fourth sub-camera, etc. are transmitted to the field terminal 500 (S210).
이후, 상기 스위처(400)는 상기 복수의 메인 카메라(100) 및 상기 복수의 마이크(200)로부터 전송되는(또는 제공되는) 복수의 영상 정보, 시각 정보, 해당 메인 카메라(100)의 식별 정보, 복수의 음성 정보, 시각 정보, 해당 마이크(200)의 식별 정보 등을 수신한다.Thereafter, the
또한, 상기 스위처(400)는 해당 스위처(400)의 편집자 선택(또는 사용자/편집자 입력/터치/제어)에 따라 상기 수신된 복수의 영상 정보 중 어느 하나의 특정 영상 정보 및 상기 수신된 복수의 음성 정보 중 하나 이상의 음성 정보를 편집(또는 스위칭)하여 상기 현장 단말(500)에 전송한다.In addition, the
즉, 상기 스위처(400)는 해당 편집자 제어에 따라, 상기 복수의 영상 정보 중에서 어느 하나의 특정 영상 정보를 바이패스(bypass)하여 상기 현장 단말(500)에 전송하고, 상기 복수의 음성 정보 중에서 하나 이상의 음성 정보를 바이패스하여 상기 현장 단말(500)에 전송한다. 이때, 상기 스위처(400)는 상기 특정 영상 정보 및 상기 하나 이상의 음성 정보뿐만 아니라, 해당 특정 영상 정보와 관련한 시각 정보, 해당 하나 이상의 음성 정보와 관련한 시각 정보 등을 함께 바이패스하여 상기 현장 단말(500)에 전송한다.That is, the
일 예로, 상기 스위처(400)는 상기 제 1 메인 카메라 내지 상기 제 6 메인 카메라로부터 각각 전송되는 제 1 영상 정보 내지 제 6 영상 정보, 상기 제 1 메인 카메라의 식별 정보 내지 상기 제 6 메인 카메라의 식별 정보, 시각 정보 등을 수신하고, 편집자 선택에 따라 상기 제 3 영상 정보, 시각 정보 등을 상기 현장 단말(500)로 바이패스한다.As an example, the
또한, 상기 스위처(400)는 상기 제 1 마이크 내지 상기 제 7 마이크로부터 각각 전송되는 제 1 음성 정보 내지 제 7 음성 정보, 상기 제 1 마이크의 식별 정보 내지 상기 제 7 마이크의 식별 정보, 시각 정보 등을 수신하고, 편집자 선택에 따라 제 1 음성 정보 내지 제 5 음성 정보, 시각 정보 등을 상기 현장 단말(500)로 바이패스한다(S220).In addition, the
이후, 상기 현장 단말(500)은 상기 복수의 서브 카메라(300)로부터 각각 전송되는 복수의 서브 영상 정보, 시각 정보, 해당 서브 카메라(300)의 식별 정보 등을 수신한다.Thereafter, the
또한, 상기 현장 단말(500)은 상기 스위처(400)로부터 전송되는 특정 영상 정보, 상기 스위처(400)로부터 전송되는 하나 이상의 음성 정보, 시각 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 관리자 입력(또는 관리자/사용자 선택/터치/제어)에 따라 상기 수신된 특정 영상 정보를 근거로 메인 화면을 구성(또는 생성)한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 수신된 하나 이상의 음성 정보를 메인 음성 정보로 구성한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 구성된 메인 화면과 상기 수신된 하나 이상의 음성 정보를 동기화하여, 상기 메인 화면에 동기화된 음성 정보를 구성(또는 생성)한다. 이때, 상기 현장 단말(500)은 상기 구성된 메인 화면에 대응하는 특정 영상 정보와 관련한 시각 정보 및 상기 하나 이상의 음성 정보와 관련한 시각 정보를 근거로 해당 메인 화면과 해당 하나 이상의 음성 정보를 동기화한다.Additionally, the
일 예로, 상기 현장 단말(500)은 상기 제 1 서브 카메라로부터 전송되는 상기 제 1 서브 영상 정보, 시각 정보, 상기 제 1 서브 카메라의 식별 정보 등을 수신한다.As an example, the
또한, 상기 현장 단말(500)은 상기 제 2 서브 카메라로부터 전송되는 상기 제 2 서브 영상 정보, 시각 정보, 상기 제 2 서브 카메라의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 제 3 서브 카메라로부터 전송되는 상기 제 3 서브 영상 정보, 시각 정보, 상기 제 3 서브 카메라의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 제 4 서브 카메라로부터 전송되는 상기 제 4 서브 영상 정보, 시각 정보, 상기 제 4 서브 카메라의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 스위처(400)로부터 전송되는 상기 제 3 영상 정보, 시각 정보, 제 1 음성 정보 내지 제 5 음성 정보, 시각 정보 등을 수신한다.Additionally, the
또한, 상기 현장 단말(500)은 상기 관리자 제어에 따라, 상기 수신된 제 3 영상 정보를 미리 설정된 1920×1080 해상도의 상기 메인 화면으로 구성하고, 상기 수신된 제 1 음성 정보 내지 상기 제 5 음성 정보를 상기 메인 음성 정보로 구성한다.In addition, according to the administrator control, the
또한, 상기 현장 단말(500)은 상기 제 3 영상 정보와 관련한 시각 정보 및 상기 제 1 음성 정보 내지 상기 제 5 음성 정보와 관련한 각각의 시각 정보를 근거로 상기 구성된 메인 화면과 상기 메인 음성 정보를 동기화한다(S230).In addition, the
이후, 상기 현장 단말(500)은 상기 구성된 메인 화면과 상기 수신된 복수의 서브 영상 정보를 근거로 1개의 기본 화면을 구성(또는 생성)한다.Thereafter, the
즉, 상기 현장 단말(500)은 상기 구성된 메인 화면의 해상도의 일정 비율로 상기 수신된 복수의 서브 영상 정보의 개수에 따라 해당 복수의 서브 영상 정보 각각의 해상도를 설정(또는 결정)하여, 복수의 해상도 설정 서브 영상 정보를 생성(또는 구성/형성)한다.That is, the
또한, 상기 현장 단말(500)은 상기 구성된 메인 화면 및 상기 해상도가 설정된 복수의 해상도 설정 서브 영상 정보를 조합하여 1개의 기본 화면을 구성(또는 생성)한다.In addition, the
또한, 상기 현장 단말(500)은 상기 구성된(또는 생성된) 기본 화면(또는 1개의 기본 화면), 상기 구성된 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 서버(600)에 전송한다. 여기서, 상기 기본 화면에 대한 좌표 정보는 기본 화면상에서 해당 메인 화면에 대한 좌표 정보, 복수의 해상도 설정 서브 영상 정보별 좌표 정보 등을 포함하며, 사각형 형태에서의 왼쪽 상단 꼭짓점을 기준으로 (x, y, 폭, 높이) 형태로 표시한다. 이때, 상기 x와 y는 해당 왼쪽 상단 꼭짓점의 x, y 좌표를 나타내고, 상기 폭(width)은 사각형의 가로 길이 정보를 나타내고, 상기 높이(height)는 사각형의 세로 길이 정보를 나타낸다.In addition, the
일 예로, 상기 현장 단말(500)은 상기 구성된 메인 화면의 해상도(예를 들어 1920×1080)의 일정 비율(예를 들어 약 1/3)로 상기 수신된 제 1 서브 영상 정보 내지 제 4 서브 영상 정보의 해상도(예를 들어 360×540)를 각각 설정하여, 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 생성한다.As an example, the
또한, 도 4에 도시된 바와 같이, 상기 현장 단말(500)은 상기 구성된 메인 화면(예를 들어 제 3 영상 정보로 해상도 1920×1080)(411) 및 상기 해상도가 재설정된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보(예를 들어 해상도 360×540)(412)를 근거로 1개의 기본 화면(예를 들어 해상도/프레임 크기 2640×1080)(410)을 구성한다. 이때, 상기 현장 단말(500)은 상기 1개의 기본 화면(410) 상에서 상기 메인 화면(411)과 4개의 해상도 설정 서브 영상 정보(412)에 대한 각각의 좌표 정보(예를 들어 상기 메인 화면과 관련한 좌표 정보인 (0, 0, 1920, 1080), 상기 제 1 해상도 설정 서브 영상 정보와 관련한 좌표 정보인 (1921, 0, 360, 540), 상기 제 2 해상도 설정 서브 영상 정보와 관련한 좌표 정보인 (2281, 0, 360, 540), 상기 제 3 해상도 설정 서브 영상 정보와 관련한 좌표 정보인 (1921, 541, 360, 540), 상기 제 4 해상도 설정 서브 영상 정보와 관련한 좌표 정보인 (2281, 541, 360, 540) 등 포함)를 생성한다.In addition, as shown in FIG. 4, the
또한, 상기 현장 단말(500)은 상기 구성된 기본 화면, 상기 구성된 기본 화면에 대한 좌표 정보, 상기 메인 화면에 동기화된 음성 정보(예를 들어 상기 제 1 음성 정보 내지 상기 제 5 음성 정보 등 포함) 등을 포함하는 제 1 방송 콘텐츠를 상기 서버(600)에 전송한다(S240).In addition, the
이후, 상기 서버(600)는 상기 현장 단말(500)로부터 전송되는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 수신한다.Thereafter, the
또한, 상기 서버(600)는 상기 수신된 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 해당 현장(또는 공연장)과 관련한 공연 정보와 매핑하여 해당 서버(600)(또는 데이터베이스(미도시))에 저장(또는 등록)한다. 여기서, 상기 공연 정보는 공연명, 공연일시, 공연장소, 러닝타임, 소개 정보, 출연진 정보, 기획사 정보 등을 포함한다.In addition, the
일 예로, 상기 서버(600)는 상기 현장 단말(500)로부터 전송되는 기본 화면, 상기 기본 화면에 대한 좌표 정보, 상기 메인 화면에 동기화된 음성 정보(예를 들어 상기 제 1 음성 정보 내지 상기 제 5 음성 정보 등 포함) 등을 포함하는 상기 제 1 방송 콘텐츠를 수신한다.As an example, the
또한, 상기 서버(600)는 상기 수신된 기본 화면, 상기 기본 화면에 대한 좌표 정보, 상기 메인 화면에 동기화된 음성 정보(예를 들어 상기 제 1 음성 정보 내지 상기 제 5 음성 정보 등 포함) 등을 포함하는 제 1 방송 콘텐츠를 상기 복수의 가수에 대한 합동 공연 현장과 관련한 제 1 공연 정보와 매핑하여 상기 서버(600)에 저장한다(S250).In addition, the
이후, 사용자 단말(700)은 웹 브라우저를 통해 해당 서버(600)에서 제공하는 웹 사이트(또는 URL 링크)에 접속(또는 연결)한다.Afterwards, the
또한, 상기 사용자 단말(700)은 상기 접속된 웹 사이트에서 제공하는 하나 이상의 공연 정보를 수신하고, 상기 수신된 하나 이상의 공연 정보를 표시(또는 출력)한다. 여기서, 상기 공연 정보는 공연명, 공연일시, 공연장소, 러닝타임, 소개 정보, 출연진 정보, 기획사 정보 등을 포함한다.Additionally, the
일 예로, 제 7 사용자 단말(700)은 해당 제 7 사용자 단말에 미리 설치된 웹 브라우저를 통해 상기 서버(600)에서 제공하는 제 1 웹 사이트에 접속한다.As an example, the
또한, 도 5에 도시된 바와 같이, 상기 제 7 사용자 단말은 상기 접속된 제 1 웹 사이트에서 제공하는 제 1 공연 정보 내지 제 3 공연 정보(510)를 표시한다(S260).Additionally, as shown in FIG. 5, the seventh user terminal displays first to
이후, 상기 사용자 단말(700)에 표시되는 하나 이상의 공연 정보 중에서 해당 사용자 단말(700)의 사용자 선택(또는 사용자 입력/터치/제어)에 따라 특정 공연 정보가 선택되는 경우, 상기 사용자 단말(700)은 해당 웹 사이트를 관리하는 상기 서버(600)와 연동하여, 상기 서버(600)로부터 전송되는 해당 특정 공연 정보에 대응하는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 방송 콘텐츠를 수신한다.Thereafter, when specific performance information is selected among one or more performance information displayed on the
즉, 상기 사용자 단말(700)에 표시되는 하나 이상의 공연 정보 중에서 해당 사용자 단말(700)의 사용자 선택(또는 사용자 입력/터치/제어)에 따라 특정 공연 정보가 선택되는 경우, 상기 사용자 단말(700)은 상기 선택된 특정 공연 정보, 사용자 단말(700)의 식별 정보 등을 상기 서버(600)에 전송한다. 여기서, 상기 사용자 단말(700)의 식별 정보는 MDN, 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.That is, when specific performance information is selected among one or more performance information displayed on the
또한, 상기 서버(600)는 상기 사용자 단말(700)로부터 전송되는 특정 공연 정보, 사용자 단말(700)의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 서버(600)는 해당 서버(600)에 미리 저장된(또는 등록된) 복수의 공연 정보별 방송 콘텐츠 중에서 상기 수신된 특정 공연 정보에 대응하는 방송 콘텐츠를 확인(또는 검색)한다.Additionally, the
또한, 상기 서버(600)는 상기 확인된(또는 검색된) 방송 콘텐츠와 관련한 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 상기 방송 콘텐츠를 상기 사용자 단말(700)에 전송한다.In addition, the
또한, 상기 사용자 단말(700)은 상기 서버(600)로부터 전송되는 기본 화면, 기본 화면에 대한 좌표 정보, 메인 화면에 동기화된 음성 정보 등을 포함하는 상기 방송 콘텐츠를 수신한다.Additionally, the
일 예로, 상기 제 7 사용자 단말에 표시되는 제 1 공연 정보 내지 제 3 공연 정보(510) 중에서 제 1 공연 정보(511)가 선택될 때, 상기 제 7 사용자 단말은 상기 선택된 제 1 공연 정보, 상기 제 7 사용자 단말의 식별 정보 등을 상기 서버(600)에 전송한다.As an example, when the first performance information 511 is selected from the first to
또한, 상기 서버(600)는 상기 제 7 사용자 단말로부터 전송되는 제 1 공연 정보, 상기 제 7 사용자 단말의 식별 정보 등을 수신한다.Additionally, the
또한, 상기 서버(600)는 해당 서버(600)에 미리 저장된 복수의 공연 정보별 방송 콘텐츠 중에서 상기 수신된 제 1 공연 정보에 대응하는 제 1 방송 콘텐츠를 확인한다.Additionally, the
또한, 상기 서버(600)는 상기 확인된 제 1 방송 콘텐츠(예를 들어 상기 기본 화면, 상기 기본 화면에 대한 좌표 정보, 상기 메인 화면에 동기화된 음성 정보 등 포함)를 상기 제 7 사용자 단말에 전송한다.In addition, the
또한, 상기 제 7 사용자 단말은 앞서 전송된 제 1 공연 정보 등에 응답하여 상기 서버(600)로부터 전송되는 제 1 방송 콘텐츠를 수신한다(S270).Additionally, the seventh user terminal receives the first broadcast content transmitted from the
이후, 상기 사용자 단말(700)은 해당 웹 브라우저와 연동하는 스크립트 언어(예를 들어 자바 스크립트 등 포함)를 이용해서, 상기 수신된 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보(또는 상기 해상도가 재설정된 복수의 서브 영상 정보)를 분리(또는 구분/구성)한다.Thereafter, the
또한, 상기 사용자 단말(700)은 상기 분리된(또는 구분된/구성된) 메인 화면 및 상기 수신된 해당 메인 화면에 동기화된 음성 정보를 렌더링하여 출력한다. 이때, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 전체 화면 또는 상기 전체 화면의 일부 영역에 상기 메인 화면을 표시한다. 또한, 상기 사용자 단말(700)은 상기 메인 화면이 표시되는 화면(또는 전체 화면/일부 화면)의 일측에 마커를 표시하고, 상기 메인 화면이 표시되는 화면(또는 전체 화면/일부 화면)의 다른 일측에 다른 마커를 표시한다. 여기서, 상기 마커(또는 서브 영상용 마커)는 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 추가로 표시하기 위한 용도이고, 상기 다른 마커(또는 채팅 마커)는 상기 서버(600)의 제어에 의해 해당 사용자 단말(700)과 하나 이상의 다른 사용자 단말(미도시) 간의 채팅 기능을 수행하기 위한 용도일 수 있다.Additionally, the
이와 같이, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 사용자에 의해 선택된 특정 공연 정보에 대응하는 방송 콘텐츠에 대해서 상기 서버(600)와 연동하여, 실시간으로 해당 방송 콘텐츠에 대한 실시간 스트링밍을 제공할 수 있다.In this way, the
일 예로, 상기 제 7 사용자 단말은 해당 제 7 사용자 단말에 설치된 웹 브라우저와 연동하는 자바 스크립트를 이용해서, 상기 수신된 제 1 방송 콘텐츠에 포함된 기본 화면에 대한 좌표 정보를 근거로 상기 수신된 제 1 방송 콘텐츠에 포함된 상기 기본 화면을 상기 메인 화면에 대응하는 제 3 영상 정보와, 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보로 분리한다.As an example, the seventh user terminal uses JavaScript that interoperates with a web browser installed on the seventh user terminal to display the received first broadcast content based on coordinate information about the basic screen included in the received first broadcast content. 1 The basic screen included in the broadcast content is separated into third video information corresponding to the main screen and first resolution setting sub-video information to fourth resolution setting sub-video information.
또한, 도 6에 도시된 바와 같이, 상기 제 7 사용자 단말은 상기 분리된 제 3 영상 정보에 해당하는 메인 화면(610)을 표시하고, 상기 메인 화면에 동기화된 음성 정보(예를 들어 상기 제 1 음성 정보 내지 상기 제 5 음성 정보 등 포함)를 출력한다. 이때, 상기 도 6에 도시된 바와 같이, 상기 제 7 사용자 단말은 상기 메인 화면(610)이 표시되고 있는 화면의 일측에 썸네일 형태의 서브 영상 정보를 표시하기 위한 제 1 마커(611)와 채팅 기능을 수행하기 위한 제 2 마커(612)를 각각 표시한다(S280).In addition, as shown in FIG. 6, the seventh user terminal displays the
이후, 상기 사용자 단말(700) 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 영역(또는 제 1-1 영역)에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 조정(또는 조절)하여 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 다른 영역(또는 제 1-2 영역/나머지 영역)에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시한다. 이때, 상기 해상도 설정 서브 영상 정보(예를 들어 해상도 360×540)는 해상도가 재설정(예를 들어 180×270)되어 썸네일 형태로 표시될 수 있다.Thereafter, when a preset marker displayed on one side of the main screen in the
또한, 상기 사용자 단말(700) 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택되는 경우, 상기 사용자 단말(700)은 하위 레이어와 상위 레이어로 구분된 화면에서, 하위 레이어인 상기 메인 화면이 표시되고 있는 화면상의 일측(예를 들어 우측 영역 등 포함)에 상위 레이어인 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시할 수도 있다.In addition, when a preset marker displayed on one side of the main screen in the
일 예로, 상기 제 7 사용자 단말 내의 메인 화면(610)의 일측에 표시되는 상기 제 1 마커(611)가 선택될 때, 도 7에 도시된 바와 같이, 상기 제 7 사용자 단말은 화면(710) 중에서 미리 설정된 제 1-1 영역(711)에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 화면(710) 중에서 나머지 영역인 제 1-2 영역(712)에 상기 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 썸네일 형태로 표시한다(S290).For example, when the
이후, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보가 선택되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 이때, 상기 제 2-3 영역과 앞선 다른 영역(또는 제 1-2 영역/나머지 영역)은 동일한 크기일 수 있다. 또한, 상기 서브 화면은 상기 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 선택된 어느 하나의 해상도 설정 서브 영상 정보에 대응하는 화면(또는 크기 재조정 영상 정보)일 수 있다.Thereafter, when any one resolution setting sub-video information is selected among a plurality of resolution setting sub-video information in the form of thumbnails displayed on one side of the screen in the
이와 같이, 상기 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 하나 이상의 해상도 설정 서브 영상 정보가 순차로 선택되는 경우, 상기 사용자 단말(700)은 상기 선택된 해상도 설정 서브 영상 정보의 개수에 따라, 상기 사용자 단말(700)의 화면을 분할하여, 상기 메인 화면 및 상기 선택된 해상도 설정 서브 영상 정보의 개수에 따른 하나 이상의 서브 화면(또는 상기 선택된 하나 이상의 해상도 설정 서브 영상 정보에 대응하는 하나 이상의 서브 화면)을 멀티뷰로 표시할 수 있다.In this way, when one or more resolution setting sub-image information is sequentially selected from among the plurality of resolution setting sub-image information in the thumbnail form, the
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보에 대한 해당 사용자 단말(700)의 사용자에 의한 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 터치 제스처는 탭(tap), 터치&홀드(touch & hold), 더블 탭(double tap), 드래그(drag), 플릭(flick), 스와이프(swipe) 등을 포함한다.In addition, a touch gesture by the user of the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 특정 해상도 설정 서브 영상 정보에 대해서 탭, 터치&홀드, 더블 탭, 드래그, 플릭 및 스와이프 중 어느 하나의 이벤트가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기(또는 상기 메인 화면의 해상도)를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 특정 해상도 설정 서브 영상 정보의 화면 크기를 조정(또는 조절)하여 서브 화면으로 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다.That is, tap, touch & hold, double tap, drag, flick, and When one of the swiping events occurs (or is detected/confirmed), the
일 예로, 상기 화면(710)에서 상기 제 1-2 영역(712) 내의 제 1 해상도 설정 서브 영상 정보(712-1)가 선택될 때, 도 8에 도시된 바와 같이, 상기 제 7 사용자 단말은 앞선 제 1-1 영역(711)에 표시되던 메인 화면의 크기를 조정하여 제 2-1 영역(810)에 표시하고, 상기 선택된 제 1 해상도 설정 서브 영상 정보(712-1)에 대응하는 제 1 서브 영상 정보를 서브 화면(또는 제 1 서브 화면)으로 제 2-2 영역(820)에 표시하고, 앞선 썸네일 형태의 상기 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 제 2-3 영역(830)에 표시하여, 화면(800)을 멀티뷰로 구성하여 표시한다.For example, when the first resolution setting sub-image information 712-1 in the 1-2
다른 일 예로, 상기 화면(710)에서 상기 제 1-2 영역(712) 내의 제 2 해상도 설정 서브 영상 정보(712-2)에 대한 더블 탭이 발생할 때, 도 9에 도시된 바와 같이, 상기 제 7 사용자 단말은 앞선 제 1-1 영역(711)에 표시되던 메인 화면의 크기를 조정하여 제 2-1 영역(910)에 표시하고, 상기 더블 탭과 관련한 제 2 해상도 설정 서브 영상 정보(712-2)에 대응하는 제 2 서브 영상 정보를 서브 화면(또는 제 1 서브 화면)으로 제 2-2 영역(920)에 표시하고, 앞선 썸네일 형태의 상기 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 제 2-3 영역(930)에 표시하여, 화면(900)을 멀티뷰로 구성하여 표시한다(S300).As another example, when a double tap occurs on the second resolution setting sub-image information 712-2 in the 1-2
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제한 후, 화면을 재구성하여 표시한다.In addition, when another touch gesture by the user of the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-1 영역에 표시 중인 상기 메인 화면의 크기를 다시 조정(또는 조절)하여 표시하고, 해당 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-2 영역에 상기 표시 중인 하나 이상의 서브 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면이 제외(또는 삭제)된 나머지 서브 화면을 표시하고, 상기 사용자 단말(700)의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된(또는 구분된/구성된) 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하여, 상기 사용자 단말(700)의 화면을 멀티뷰로 구성한다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 다른 터치 제스처는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 스와이프 등을 포함한다.That is, when another touch gesture by the user of the
이와 같이, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 특정 서브 화면에 대해서 탭, 터치&홀드, 더블 탭, 드래그, 플릭 및 스와이프 중 어느 하나의 다른 이벤트가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 이전의 화면에서 해당 특정 서브 화면을 제외한 상태로 화면을 재구성하여 표시할 수 있다.In this way, any one of the following events among tap, touch & hold, double tap, drag, flick, and swipe is applied to any one specific sub screen among one or more sub screens displayed on one side of the screen in the
일 예로, 상기 제 7 사용자 단말에 표시되는 화면(800)에서 상기 제 2-2 영역에 표시되는 제 1 서브 화면(또는 제 1 서브 영상 정보)(820)에 대해서 미리 설정된 임계 시간(예를 들어 2초) 이상으로 터치&홀드가 발생할 때, 상기 제 7 사용자 단말은 상기 화면(800)에서 상기 터치&홀드가 발생한 제 1 서브 화면(820)을 삭제하여 화면을 재구성한 후, 앞선 도 7에 도시된 화면(710)을 표시한다.As an example, in the
다른 일 예로, 도 10에 도시된 바와 같이, 상기 제 7 사용자 단말에 표시되는 화면(1000)에서 상기 제 2-2 영역에 표시되는 제 2 서브 화면(또는 제 2 서브 영상 정보(1010)에 대해서 스와이프가 발생할 때, 상기 제 7 사용자 단말은 상기 화면(1000)에서 상기 스와이프가 발생한 제 2 서브 화면(1010)을 삭제하여 화면을 재구성한 후, 앞선 도 8에 도시된 화면(800)을 표시한다(S310).As another example, as shown in FIG. 10, with respect to the second sub screen (or second sub image information 1010) displayed in the 2-2 area on the
또한, 상기 사용자 단말(700)은 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선에 대한 터치 앤 드래그에 의해, 화면 내에서의 분할된 화면 크기를 조정한다.In addition, the
즉, 상기 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선이 선택된 상태에서 터치 앤 드래그에 의해 외곽선을 늘리거나 줄이는 이벤트가 발생하는 경우, 상기 사용자 단말(700)은 상기 터치 앤 드래그에 의한 외곽선의 늘림 또는 줄임에 대응하여 상기 선택된 메인 화면 또는 서브 화면의 크기를 조정(예를 들어 확대, 축소 등 포함)하고, 상기 크기(또는 해상도)가 조정되는 메인 화면 또는 서브 화면의 크기에 비례하여 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 크기를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 화면 크기를 조정함에 따라, 나머지 영상 정보들의 화면 크기도 자동으로 조정할 수 있다.That is, when an event occurs that increases or decreases the outline by touch and drag while the outline of the main screen or the sub screen is selected among the main screen and the one or more sub screens displayed on the
또한, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 핀치가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면에서 상기 메인 화면 또는 상기 서브 화면의 크기를 조정한다.In addition, among the main screen and the one or more sub-screens displayed on the
즉, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 미리 설정된 핀치가 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면(또는 전체 화면)에서 상기 핀치에 대응하는 상기 메인 화면 또는 상기 서브 화면의 크기를 미리 설정된 해상도로 확대(또는 축소)하고, 상기 크기가 조정되는 메인 화면 또는 서브 화면의 크기에 비례하여 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 크기를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 화면 크기를 조정함에 따라, 나머지 영상 정보들의 화면 크기도 자동으로 조정할 수 있다.That is, when a preset pinch occurs (or is detected/confirmed) for the main screen or the sub screen among the main screen and the one or more sub screens displayed on the
일 예로, 상기 제 7 사용자 단말에 표시되는 전체 화면(800)에서 상기 제 2-2 영역에 표시되는 제 1 서브 화면(820)의 좌측 외곽선(821)에 대해 터치 앤 드래그에 의해 좌측으로 이동될 때, 도 11에 도시된 바와 같이, 상기 제 7 사용자 단말은 앞선 제 2-1 영역(810)에 표시되던 메인 화면의 크기를 축소하여 제 2-1 영역(1110)에 표시하고, 상기 터치 앤 드래그에 대응하는 제 1 서브 영상 정보(820)를 이동된 거리(또는 픽셀)만큼 확대하여 제 2-2 영역(1120)에 표시하고, 앞선 썸네일 형태의 상기 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 제 2-3 영역(1130)에 표시하여, 전체 화면(1100)을 멀티뷰로 구성하여 표시한다.As an example, the
다른 일 예로, 상기 제 7 사용자 단말에 표시되는 전체 화면(800)에서 상기 제 2-1 영역에 표시되는 메인 화면(810)에 대해 핀치가 발생할 때, 도 12에 도시된 바와 같이, 상기 제 7 사용자 단말은 상기 핀치에 대응하는 메인 화면의 크기를 미리 설정된 비율(예를 들어 5%)만큼 확대하여 제 2-1 영역(1210)에 표시하고, 앞선 제 2-2 영역(820)에 표시되는 제 1 서브 화면의 크기를 축소하여 제 2-2 영역(1220)에 표시하고, 앞선 썸네일 형태의 상기 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 제 2-3 영역(1230)에 표시하여, 전체 화면(1200)을 멀티뷰로 구성하여 표시한다(S320).As another example, when a pinch occurs on the
또한, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 해당 사용자 단말(700)의 사용자에 의한 드래그 앤 드롭이 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면 내에서의 상기 메인 화면 또는 상기 서브 화면의 위치를 조정한다.In addition, among the main screen and the one or more sub-screens displayed on the
즉, 해당 사용자 단말(700)에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 특정 서브 화면이 선택된 상태에서 드래그 앤 드롭에 의해 화면 내에서의 위치가 변경되는 경우, 상기 사용자 단말(700)은 상기 드래그 앤 드롭에 대응하는 메인 화면 또는 특정 서브 화면의 위치를 드롭된 위치로 변경하고, 나머지 영상 정보(예를 들어 메인 화면, 하나 이상의 서브 화면, 썸네일 형태의 화면 등 포함)의 위치를 조정하여, 화면을 재구성하고, 상기 재구성된 화면을 표시한다. 이처럼, 상기 사용자 단말(700)은 전체 화면에서 상기 메인 화면 또는 상기 서브 화면의 위치가 변경됨에 따라, 나머지 영상 정보들의 위치도 자동으로 조정할 수 있다.That is, among the main screen and the one or more sub-screens displayed on the
일 예로, 상기 제 7 사용자 단말에 표시되는 전체 화면(800)에서 상기 제 2-1 영역에 표시되는 메인 화면(810)에 대해 드래그 앤 드롭(또는 터치 앤 드래그)에 의해 화면 내의 위쪽으로 이동될 때, 도 13에 도시된 바와 같이, 상기 제 7 사용자 단말은 앞선 제 2-1 영역(810)에 표시되던 메인 화면의 위치를 위쪽으로 이동시켜 제 2-1 영역(1310)에 표시하고, 제 2-2 영역(1320) 및 제 2-3 영역(1330)에 각각 위치하는 제 1 서브 화면과, 상기 썸네일 형태의 해당 분리된 제 1 해상도 설정 서브 영상 정보 내지 제 4 해상도 설정 서브 영상 정보를 전체 화면(1300)으로 구성하여 표시한다(S330).As an example, the
또한, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭 기능에 의해서, 상기 다른 특정 해상도 설정 서브 영상 정보가 선택된 후 드래그되어 상기 메인 화면 위치로 드롭되는 경우, 상기 사용자 단말(700)은 상기 메인 화면과 상기 선택된 다른 특정 해상도 설정 서브 영상 정보를 서로 교환(또는 치환)하여 표시한다. 이때, 상기 사용자 단말(700)은 썸네일 영역에 표시되는 메인 화면에 대해서는, 해당 화면이 메인 화면임을 구분할 수 있도록 해당 썸네일 영역 내의 메인 화면의 일측에 또 다른 마커를 표시하거나 또는, 해당 썸네일 영역 내의 메일 화면의 테두리를 미리 설정된 색상 및/또는 두께로 설정하여 표시할 수도 있다.In addition, among the plurality of resolution setting sub-video information in the form of thumbnails displayed on one side of the screen in the
즉, 상기 사용자 단말(700) 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭이 발생(또는 감지/확인)하는 경우, 상기 사용자 단말(700)은 화면 내에서의 상기 메인 화면 및 상기 드래그 앤 드롭에 대응하는 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시한다. 이때, 상기 사용자 단말(700)은 상기 드래그 앤 드롭에 대응하는 다른 특정 해상도 설정 서브 영상 정보의 크기(또는 해상도)를 상기 메인 화면의 크기에 일치하도록 조정하고, 상기 메인 화면의 크기를 해당 썸네일 상에서의 다른 특정 해상도 설정 서브 영상 정보의 크기에 일치하도록 조정한다. 이때, 상기 다른 특정 해상도 설정 서브 영상 정보에 대한 드래그 앤 드롭 이외에도, 상기 다른 특정 해상도 설정 서브 영상 정보에 대해서 해당 사용자 단말(700)의 사용자에 의한 또 다른 터치 제스처가 감지되는 경우, 상기 사용자 단말(700)은 화면에서 상기 메인 화면과 상기 또 다른 터치 제스처에 대응하는 상기 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시할 수도 있다. 여기서, 상기 사용자 단말(700)의 사용자에 의한 또 다른 터치 제스처는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 스와이프 등을 포함한다.That is, when a drag and drop occurs (or is detected/confirmed) for another specific resolution setting sub-image information among a plurality of resolution setting sub-image information in the form of a thumbnail displayed on one side of the screen in the
일 예로, 상기 화면(710)에서 상기 제 1-2 영역(712) 내의 제 3 서브 영상 정보(712-3)에 대해 드래그 앤 드롭 기능에 의해서 상기 제 1-1 영역으로 이동될 때, 도 14에 도시된 바와 같이, 상기 제 7 사용자 단말은 화면(1400) 중에서 미리 설정된 제 1-1 영역(1410)에 상기 드래그 앤 드롭 기능에 대응하는 제 3 서브 영상 정보를 화면 크기를 조정하여 표시하고, 상기 화면(1400) 중에서 나머지 영역인 제 1-2 영역(1420)에 상기 분리된 제 1 해상도 설정 서브 영상 정보, 제 2 해상도 설정 서브 영상 정보, 제 4 해상도 설정 서브 영상 정보 및, 크기가 조정된 메인 화면을 썸네일 형태로 표시한다. 이때, 상기 썸네일 형태로 표시되는 메인 화면의 일측에는 해당 화면이 메인 화면임을 구분할 수 있도록 마커(1430)를 표시한다(S340).For example, when the third sub-image information 712-3 in the 1-2
본 발명의 실시예는 앞서 설명된 바와 같이, 라이브 스트리밍에 의해 제공되는 메인 화면에 추가하여 사용자 선택에 따른 하나 이상의 서브 화면을 멀티뷰로 제공하여, 복수의 방송 영상을 사용자가 자유롭게 직접 선택할 수 있고, 복수의 방송 영상을 동시에 시청할 수 있게 하여 기존보다 많은 정보를 취득할 수 있고, 원하는 부분만 시청할 수 있으며 다각도의 화면 제공이 필요한 콘텐츠의 경우 더욱 현장감 있게 제공할 수 있다.As described above, an embodiment of the present invention provides a multi-view of one or more sub-screens according to the user's selection in addition to the main screen provided by live streaming, so that the user can freely directly select a plurality of broadcast images, By allowing you to watch multiple broadcast videos at the same time, you can obtain more information than before, watch only the part you want, and in the case of content that requires a screen from multiple angles, it can be provided with a more realistic feel.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 라이브 스트리밍을 위해 촬영된 복수의 영상 정보 중에서 편집자 제어에 따른 메인 화면과 해당 복수의 영상 정보를 하나의 화면으로 구성하여 서버를 통해 사용자에게 제공하여, 실시간 방송에 있어서 복수의 카메라를 통해 촬영된 복수의 영상 정보와 하나 이상의 마이크를 통해 수집된 음성 정보 간의 싱크 어긋남 현상을 해소할 수 있다.In addition, as described above, an embodiment of the present invention configures the main screen according to editor control and the plurality of video information into a single screen among the plurality of video information captured for live streaming and provides it to the user through the server. Thus, in real-time broadcasting, it is possible to eliminate the phenomenon of synchronization between a plurality of image information captured through a plurality of cameras and audio information collected through one or more microphones.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above-described content can be modified and modified by anyone skilled in the art without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
10: 사용자 중심의 멀티뷰 제공 시스템
100: 복수의 메인 카메라
200: 복수의 마이크
300: 복수의 서브 카메라
400: 스위처
500: 현장 단말
600: 서버
700: 사용자 단말10: User-centered multi-view provision system 100: Multiple main cameras
200: Multiple microphones 300: Multiple sub cameras
400: Switcher 500: Field terminal
600: Server 700: User terminal
Claims (10)
웹 브라우저를 통해 접속한 웹 사이트에서 제공하는 하나 이상의 공연 정보 중에서 특정 공연 정보가 선택될 때, 상기 웹 사이트를 관리하는 상기 서버와 연동하여, 상기 서버로부터 전송되는 상기 특정 공연 정보에 대응하는 기본 화면, 기본 화면에 대한 좌표 정보 및 메인 화면에 동기화된 음성 정보를 포함하는 방송 콘텐츠를 수신하고, 상기 웹 브라우저와 연동하는 스크립트 언어를 이용해서, 상기 수신된 방송 콘텐츠 내의 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보를 분리하고, 상기 분리된 메인 화면 및 상기 수신된 메인 화면에 동기화된 음성 정보를 렌더링하여 출력하는 사용자 단말을 포함하는 사용자 중심의 멀티뷰 제공 시스템.A server that stores broadcast content for a plurality of performance information; and
When specific performance information is selected from one or more performance information provided by a website accessed through a web browser, a basic screen corresponding to the specific performance information transmitted from the server is linked with the server that manages the website. , receiving broadcast content including coordinate information for the basic screen and audio information synchronized to the main screen, and using a script language that works with the web browser, based on coordinate information for the basic screen in the received broadcast content A user-centered multi-view comprising a user terminal that separates a main screen and a plurality of resolution setting sub-video information from the basic screen, and renders and outputs audio information synchronized to the separated main screen and the received main screen. Delivery system.
상기 기본 화면은,
복수의 메인 카메라에 의해 획득된 복수의 영상 정보 중에서 선택된 영상 정보에 대응하는 메인 화면과, 복수의 서브 카메라에 의해 획득된 복수의 서브 영상 정보에 대해 해상도를 설정한 복수의 해상도 설정 서브 영상 정보로 구성되는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 시스템.According to claim 1,
The basic screen is,
A main screen corresponding to image information selected from among a plurality of image information acquired by a plurality of main cameras, and a plurality of resolution setting sub-image information that sets the resolution for the plurality of sub-image information acquired by a plurality of sub cameras. A user-centered multi-view provision system characterized by being configured.
상기 사용자 단말에 의해, 상기 웹 브라우저와 연동하는 스크립트 언어를 이용해서, 상기 수신된 방송 콘텐츠 내의 기본 화면에 대한 좌표 정보를 근거로 상기 기본 화면에서 메인 화면과 복수의 해상도 설정 서브 영상 정보를 분리하는 단계; 및
상기 사용자 단말에 의해, 상기 분리된 메인 화면 및 상기 수신된 메인 화면에 동기화된 음성 정보를 렌더링하여 출력하는 단계를 포함하는 사용자 중심의 멀티뷰 제공 방법.When specific performance information is selected from one or more performance information provided by a website accessed through a web browser on the user terminal, the user terminal transmits the information from the server in conjunction with the server that manages the website. Receiving broadcast content including a basic screen corresponding to specific performance information, coordinate information for the basic screen, and voice information synchronized to the main screen;
By the user terminal, a main screen and a plurality of resolution setting sub-video information are separated from the basic screen based on coordinate information about the basic screen in the received broadcast content using a script language that interoperates with the web browser. step; and
A user-centered multi-view providing method comprising rendering and outputting audio information synchronized to the separated main screen and the received main screen by the user terminal.
상기 방송 콘텐츠를 수신하는 단계는,
상기 하나 이상의 공연 정보 중에서 특정 공연 정보가 선택될 때, 상기 사용자 단말에 의해, 상기 선택된 특정 공연 정보 및 사용자 단말의 식별 정보를 상기 서버에 전송하는 과정;
상기 서버에 의해, 상기 서버에 미리 저장된 복수의 공연 정보별 방송 콘텐츠 중에서 상기 특정 공연 정보에 대응하는 방송 콘텐츠를 확인하는 과정;
상기 서버에 의해, 상기 확인된 방송 콘텐츠와 관련한 기본 화면, 기본 화면에 대한 좌표 정보 및 메인 화면에 동기화된 음성 정보를 포함하는 상기 방송 콘텐츠를 상기 사용자 단말에 전송하는 과정; 및
상기 사용자 단말에 의해, 상기 서버로부터 전송되는 상기 방송 콘텐츠를 수신하는 과정을 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 3,
The step of receiving the broadcast content is,
When specific performance information is selected from the one or more performance information, transmitting, by the user terminal, the selected specific performance information and identification information of the user terminal to the server;
Confirming, by the server, broadcast content corresponding to the specific performance information among a plurality of broadcast content for each performance information pre-stored in the server;
transmitting, by the server, the broadcast content including a basic screen related to the confirmed broadcast content, coordinate information for the basic screen, and voice information synchronized to the main screen to the user terminal; and
A user-centered multi-view providing method comprising receiving the broadcast content transmitted from the server by the user terminal.
상기 사용자 단말 내의 메인 화면의 일측에 표시되는 미리 설정된 마커가 선택될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 다른 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 3,
When a preset marker displayed on one side of the main screen in the user terminal is selected, the size of the main screen is adjusted and displayed in a preset area of the screen of the user terminal by the user terminal, and the user terminal A user-centered multi-view providing method, further comprising displaying the plurality of separated resolution-set sub-video information in the form of thumbnails in another preset area of the screen.
상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보가 선택될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정하여 서브 화면으로 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 5,
When any one resolution setting sub-video information is selected among a plurality of resolution setting sub-image information in the form of thumbnails displayed on one side of the screen in the user terminal, a second pre-set image is displayed by the user terminal among the screens of the user terminal. The size of the main screen is adjusted and displayed in area -1, and the screen size of the selected resolution setting sub-video information is adjusted and displayed as a sub-screen in a preset area 2-2 of the screen of the user terminal, and the user terminal is displayed by adjusting the size of the main screen. A user-centered multi-view providing method further comprising displaying the plurality of separated resolution-set sub-image information in the form of thumbnails in preset areas 2-3 on the screen of the terminal.
상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 어느 하나의 해상도 설정 서브 영상 정보에 대한 상기 사용자 단말의 사용자에 의한 터치 제스처가 감지될 때, 상기 사용자 단말에 의해, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-1 영역에 상기 메인 화면의 크기를 조정하여 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-2 영역에 상기 선택된 해상도 설정 서브 영상 정보의 화면 크기를 조정하여 서브 화면으로 표시하고, 상기 사용자 단말의 화면 중에서 미리 설정된 제 2-3 영역에 상기 분리된 복수의 해상도 설정 서브 영상 정보를 썸네일 형태로 표시하는 단계를 더 포함하며,
상기 사용자 단말의 사용자에 의한 터치 제스처는,
탭(tap), 터치&홀드(touch & hold), 더블 탭(double tap), 드래그(drag), 플릭(flick) 및 스와이프(swipe) 중 어느 하나를 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 5,
When a touch gesture by the user of the user terminal is detected for any one resolution setting sub-image information among a plurality of resolution setting sub-image information in the form of a thumbnail displayed on one side of the screen in the user terminal, by the user terminal , adjusting the size of the main screen and displaying it in a preset 2-1 area on the screen of the user terminal, and adjusting the screen size of the selected resolution setting sub-video information in a preset 2-2 area on the screen of the user terminal. further comprising adjusting and displaying a sub-screen, and displaying the plurality of separated resolution setting sub-image information in the form of a thumbnail in a preset second-third area of the screen of the user terminal,
The touch gesture by the user of the user terminal is,
User-centered multiplayer, characterized by including any one of tap, touch & hold, double tap, drag, flick, and swipe. How to provide a view.
상기 사용자 단말 내의 화면의 일측에 표시되는 하나 이상의 서브 화면 중에서 어느 하나의 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 터치 제스처가 감지될 때, 상기 사용자 단말에 의해, 화면에서 상기 다른 터치 제스처에 대응하는 서브 화면을 삭제한 후, 화면을 재구성하여 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 5,
When a touch gesture by a user of the user terminal is detected on any one sub-screen among one or more sub-screens displayed on one side of the screen in the user terminal, the user terminal responds to the other touch gesture on the screen. A user-centered multi-view providing method further comprising the step of deleting the sub-screen and then reconstructing and displaying the screen.
상기 사용자 단말에 의해, 상기 사용자 단말에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면의 외곽선에 대한 터치 앤 드래그에 의해, 화면 내에서의 분할된 화면 크기를 조정하는 단계;
상기 사용자 단말에 표시되는 상기 메인 화면 및 상기 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 핀치가 발생할 때, 상기 사용자 단말에 의해, 화면에서 상기 메인 화면 또는 상기 서브 화면의 크기를 조정하는 단계; 및
상기 사용자 단말에 표시되는 상기 메인 화면 및 하나 이상의 서브 화면 중에서, 상기 메인 화면 또는 상기 서브 화면에 대한 상기 사용자 단말의 사용자에 의한 드래그 앤 드롭이 발생할 때, 상기 사용자 단말에 의해, 화면 내에서의 상기 메인 화면 또는 상기 서브 화면의 위치를 조정하는 단계 중 어느 하나의 단계를 더 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 5,
Adjusting the size of the divided screens within the screen by the user terminal by touching and dragging the outline of the main screen or the sub screen among the main screen and one or more sub screens displayed on the user terminal. step;
Among the main screen and the one or more sub-screens displayed on the user terminal, when a pinch by the user of the user terminal occurs on the main screen or the sub-screen, the main screen or the sub-screen is displayed by the user terminal on the screen. adjusting the size of the sub screen; and
Among the main screen and one or more sub-screens displayed on the user terminal, when a drag and drop by a user of the user terminal on the main screen or the sub-screen occurs, by the user terminal, the A user-centered multi-view providing method further comprising adjusting the position of the main screen or the sub screen.
상기 사용자 단말 내의 화면의 일측에 표시되는 썸네일 형태의 복수의 해상도 설정 서브 영상 정보 중에서 다른 특정 해상도 설정 서브 영상 정보에 대해 드래그 앤 드롭 기능에 의해서, 상기 다른 특정 해상도 설정 서브 영상 정보가 선택된 후 드래그되어 상기 메인 화면 위치로 드롭될 때, 상기 사용자 단말에 의해, 상기 메인 화면과 상기 선택된 다른 특정 해상도 설정 서브 영상 정보를 서로 교환하여 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 중심의 멀티뷰 제공 방법.According to claim 5,
Among the plurality of resolution setting sub-video information in the form of thumbnails displayed on one side of the screen in the user terminal, the other specific resolution setting sub-video information is selected and dragged using a drag and drop function. A user-centered multi-view providing method further comprising the step of exchanging and displaying the main screen and the selected other specific resolution setting sub-video information by the user terminal when being dropped to the main screen position. .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220108796 | 2022-08-30 | ||
KR20220108796 | 2022-08-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240030921A true KR20240030921A (en) | 2024-03-07 |
Family
ID=90271718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220172803A KR20240030921A (en) | 2022-08-30 | 2022-12-12 | System for providing user centric multiview and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240030921A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200022640A (en) | 2018-08-23 | 2020-03-04 | 버스킹티비 주식회사 | System for selecting segmentation video using high definition camera and the method thereof |
-
2022
- 2022-12-12 KR KR1020220172803A patent/KR20240030921A/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200022640A (en) | 2018-08-23 | 2020-03-04 | 버스킹티비 주식회사 | System for selecting segmentation video using high definition camera and the method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11792241B2 (en) | Method, system, and non-transitory computer-readable record medium for displaying reaction during VoIP-based call | |
CN105190511B (en) | Image processing method, image processing apparatus and image processing program | |
US9852764B2 (en) | System and method for providing and interacting with coordinated presentations | |
US20200186887A1 (en) | Real-time broadcast editing system and method | |
US10083618B2 (en) | System and method for crowd sourced multi-media lecture capture, sharing and playback | |
US11223662B2 (en) | Method, system, and non-transitory computer readable record medium for enhancing video quality of video call | |
US12212883B2 (en) | Information processing devices, methods, and computer-readable medium for performing information processing to output video content using video from mutiple video sources | |
KR102029604B1 (en) | Editing system and editing method for real-time broadcasting | |
WO2019092590A1 (en) | User interaction in a communication system with the aid of multiple live streaming of augmented reality data | |
US20140325396A1 (en) | Methods and systems for simultaneous display of multimedia during a video communication | |
JP2015225400A (en) | Communication system, transfer control device, communication method, and program | |
US9666231B2 (en) | System and method for providing and interacting with coordinated presentations | |
KR20240030921A (en) | System for providing user centric multiview and method thereof | |
JP5818326B2 (en) | Video viewing history analysis method, video viewing history analysis apparatus, and video viewing history analysis program | |
CN113891135B (en) | Multimedia data playing method and device, electronic equipment and storage medium | |
JP7566502B2 (en) | Imaging device, image capture processing method, program, and storage medium | |
KR101067952B1 (en) | Traffic reduction video communication operation system and method | |
KR101816446B1 (en) | Image processing system for processing 3d contents displyed on the flat display and applied telepresence, and method of the same | |
CN118678228B (en) | Panoramic conference control method, device, and computer equipment | |
JP3139531U (en) | Proxy shooting and recording system | |
NZ795958B2 (en) | Information processing device, information processing program, and recording medium | |
WO2016019146A1 (en) | System and method for providing and interacting with coordinated presentations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20221212 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240422 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20241220 |