[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100530920B1 - Image and voice transmitting apparatus and receiving apparatus - Google Patents

Image and voice transmitting apparatus and receiving apparatus Download PDF

Info

Publication number
KR100530920B1
KR100530920B1 KR10-2005-7003547A KR20057003547A KR100530920B1 KR 100530920 B1 KR100530920 B1 KR 100530920B1 KR 20057003547 A KR20057003547 A KR 20057003547A KR 100530920 B1 KR100530920 B1 KR 100530920B1
Authority
KR
South Korea
Prior art keywords
information
data
priority
image
transmission
Prior art date
Application number
KR10-2005-7003547A
Other languages
Korean (ko)
Other versions
KR20050052482A (en
Inventor
다카오 야마구치
미노루 에토
히로시 아라카와
Original Assignee
마츠시타 덴끼 산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마츠시타 덴끼 산교 가부시키가이샤 filed Critical 마츠시타 덴끼 산교 가부시키가이샤
Priority to KR10-2005-7003547A priority Critical patent/KR100530920B1/en
Publication of KR20050052482A publication Critical patent/KR20050052482A/en
Application granted granted Critical
Publication of KR100530920B1 publication Critical patent/KR100530920B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

기억장치나 통신로로부터 데이터와 그 전송 포맷정보를 포함하는 정보를 수신하는 수신관리부(11)와, 수신정보를 해석하여 분리하는 분리부(12)와, 기억장치나 통신로로 정보를 송신하는 전송부(13)와, 화상을 신장하는 화상신장부(14)와, 화상신장 관리부(15)는 적어도 하나 이상의 화상을 신장하는 상기 화상신장부(14)의 처리상태를 관리하고, 신장된 정보를 기초로 화상 합성을 행하는 화상합성부(16)와, 합성결과를 출력하는 출력부(17)와, 이들 각 수단을 제어, 관리하는 단말제어부(18)로 구성되는 화상 합성장치에 의해 동시에 복수의 화상의 합성이 행해지고, 또 전송 포맷정보의 동적인 변화에 대응할 수 있다.A reception management unit 11 for receiving information including data and transmission format information thereof from a storage device or a communication path, a separation unit 12 for analyzing and separating the reception information, and transmitting information to the storage device or a communication path. The transmission unit 13, the image extension unit 14 which extends the image, and the image extension management unit 15 manage processing conditions of the image extension unit 14 which extends at least one or more images, and the expanded information. A plurality of image synthesizing apparatuses composed of an image synthesizing unit 16 for synthesizing the images on the basis of the? Can be combined with each other to cope with dynamic changes in the transmission format information.

Description

화상 · 음성 송신장치 및 수신장치{IMAGE AND VOICE TRANSMITTING APPARATUS AND RECEIVING APPARATUS}Image and voice transmitter and receiver {IMAGE AND VOICE TRANSMITTING APPARATUS AND RECEIVING APPARATUS}

본 발명은 화상 · 음성 송신장치 및 화상 · 음성 수신장치에 관한 것이다.The present invention relates to an image and audio transmission apparatus and an image and audio reception apparatus.

종래부터 자신이 있는 공간의 풍경의 화상 중으로부터, 예를 들면 인물화상을 추출하여 그 화상과 상대측에서 보내온 인물화상과 미리 기억되어 있는 상대측과 공통적으로 표시하는 가상적인 공간의 화상과 중첩하여 표시함으로써, 상대가 자신의 앞에 있다는 실재감을 충족하고, 현장감이 있는 영상 통신을 목표로 한 것이 있다(일본국 특공평 4-24914호 공보).For example, by extracting a person's image from a landscape image of a space in which one's own space exists, and superimposing the image and the person's image sent from the other side and the virtual space displayed in common with the other party stored in advance. In other words, there is a thing that aims for a visual communication with a sense of reality that meets the realism that the other person is in front of him (Japanese Patent Publication No. 4-24914).

특히 종래의 기술에서는 화상을 합성하기 위한 고속화, 메모리를 저감하는 방법에 관한 발명이 행해지고 있다(예를 들면 일본국 특공평 5-46592호 공보 : 화상 합성장치).In particular, in the related art, inventions relating to a method for speeding up images and reducing a memory have been made (for example, Japanese Patent Application Laid-Open No. 5-46592: Image Synthesis Apparatus).

이와 같은 종래의 기술에서는 2차원의 정지화상이나 3차원의 CG 데이터를 합성하는 화상합성을 이용한 통신 시스템이 제안되어 있었으나, 복수의 동화상이나 음성을 동시에 합성하여 표시시키는 시스템의 실현방법에 대하여 하기의 관점에서의 구체적인 의논이 행해지고 있지 않았다.In the related art, a communication system using image synthesis for synthesizing two-dimensional still images or three-dimensional CG data has been proposed. However, a method of realizing a system for simultaneously synthesizing and displaying a plurality of moving images and / or audio is described below. No concrete discussions were made from the viewpoint.

즉 (A1) 1개 혹은 2개 이상의 현실의 전송로 상에서 소프트웨어적으로 구축되는 복수의 논리적인 전송로를 이용하여 데이터와 제어정보(데이터와는 다른 패킷으로 전송되는, 단말측의 처리를 제어하기 위한 정보)가 독립되어 전송되는 환경 하에서의 화상이나 음성의 전송(통신과 방송) 및 그 제어방법, (A2) 전송해야 할 화상이나 음성의 데이터에 부가되는 헤더정보(본 발명의 데이터 관리정보에 대응)의 동적인 변경방법, (A3) 송신을 위해 부가하는 헤더정보(본 발명의 전송 관리정보에 대응)의 동적인 변경방법, (A4) 복수의 논리적인 전송로를 동적으로 다중화, 분리하여 정보를 전송하는 방법, (A5) 프로그램이나 데이터의 판독, 상승시간을 고려한 화상이나 음성의 전송방법 및 (A6) 소거(zapping)를 고려한 화상이나 음성의 전송방법 등의 관점에서의 구체적인 의논이 행해지지 않았다는 문제점이 있었다.That is, (A1) controlling data and control information (transmitted in a different packet from data) using a plurality of logical transmission paths constructed in software on one or two or more real transmission paths. (Information and communication) and control method thereof, (A2) header information added to the image or audio data to be transmitted (corresponding to the data management information of the present invention). Dynamic change method of (A3) dynamic change of header information (corresponding to transmission management information of the present invention) added for transmission, and (A4) dynamic multiplexing and separating a plurality of logical transmission paths. (A5) specific methods in terms of a method of transmitting a video or audio including (A5) reading a program or data, a method of transmitting an image or audio in consideration of a rise time, and (A6) a method of transmitting an image or audio in consideration of a zapping. There was a problem that no argument was made.

한편 종래부터 네트워크로의 전송량을 동적으로 조정하는 방법으로서는 인코드 방식을 변경하는 방식이나 영상의 프레임 타입에 따라 프레임 단위로 데이터를 폐기하는 방법이 제안되어 있다(진천사 호사(秦泉寺 浩史), 전고 철남(田尻 哲男), 분산적응형 VOD 시스템의 - 검토, D-81, 전자정보 통신학회 시스템 협회(1995)).On the other hand, conventionally, as a method of dynamically adjusting the amount of transmission to the network, a method of changing the encoding method or discarding data in units of frames according to the frame type of the video has been proposed (Jincheon Temple Hosa Temple). , Cheol-Nam Koh, A Review of Distributed Adaptive VOD Systems, D-81, Institute of Electronics and Telecommunications Systems (1995).

인코더측에서 처리량을 조정하는 방식으로서는 처리시간 구속 하에서 화질이 높은 영상을 제공할 수 있는 동적 연산량 스케일러블 알고리즘이 제안되어 있다(대박 사전(大迫 史典), 시도 유행(矢島 由幸), 소사 박(小寺 博), 도변 유(渡邊 裕), 도촌 화전(島村 和典) : 동적 연산량 스케일러블 알고리즘에 의한 소프트웨어 화상부호화, 전자정보 통신학회 논문지 D-2, Vol.80-D-2, No.2, pp.444-458(1997).).As a method of adjusting the throughput on the encoder side, a dynamic throughput scalable algorithm has been proposed that can provide a high-quality image under the constraint of processing time. (Attack Dictionary, Attempt Trend, and Sosa Park) , Do-Byeon Yu, Tochon Hwajeon: Software Image Coding by Dynamic Amount Scalable Algorithm, Journal of Electronics and Information Communication Society D-2, Vol. 80-D-2, No.2, pp .444-458 (1997).

또 동화상과 음성의 동기 재생을 실현한 예로서는 MPEG1/MPEG2의 시스템이 있다.An example of realizing synchronous reproduction of a moving picture and an audio is a system of MPEG1 / MPEG2.

이와 같은 종래의 기술에서, (B1) 종래 방식의 영상의 프레임 타입에 따라 영상을 폐기하는 방법에서는 취급할 수 있는 정보의 그레이딩(grading)이 단일 스트림 내이므로 복수의 비디오 스트림이나 복수의 오디오 스트림의 취급이나 편집자의 의도를 반영시켜 중요한 장면 컷(scene cut)을 중점적으로 오디오와 함께 동기 재생시키는 것은 곤란하다는 문제점이 있었다. (B2) 또 MPEG1/MPEG2에서는 하드웨어에서의 실현이 전제되므로 디코더는 주어진 비트스트림을 모두 디코드할 수 있는 것이 전제가 된다. 따라서 디코더의 처리능력을 초과한 경우의 대응방법이 정해지지 않게 되는 문제점이 있다.In this conventional technique, (B1) in the method of discarding an image according to the frame type of the conventional image, the grading of information that can be handled is within a single stream, so that a plurality of video streams or a plurality of audio streams are used. There is a problem that it is difficult to synchronously reproduce important scene cuts with audio in consideration of handling and editor intention. (B2) In addition, since MPEG1 / MPEG2 is premised on the hardware implementation, it is assumed that the decoder can decode all the given bitstreams. Therefore, there is a problem that the corresponding method when the processing capacity of the decoder is exceeded is not determined.

또 한편 종래 동화상의 전송에서는 H. 261(ITU-T Recommendation H. 261-Video codec for audiovisual services at px64) 등의 방식을 이용한 것이 있고, 지금까지 하드웨어에 의해 실장되어 있었다. 이 때문에 하드웨어 설계시에 필요한 성능의 상한을 고려하고 있기 때문에 지정시간 이내에 복호화 처리를 완료할 수 없다는 경우는 발생되지 않았다.On the other hand, some conventional methods of transmitting moving images use H. 261 (ITU-T Recommendation H. 261-Video codec for audiovisual services at px64) and the like, and have been implemented by hardware. For this reason, since the upper limit of the performance required in hardware design is taken into consideration, the case where the decoding process cannot be completed within a specified time does not occur.

또 여기에서 지정시간이란 1장의 화상을 부호화한 비트스트림의 전송에 소요되는 시간이다. 이 시간 내에 복호화되지 않으면 초과된 시간이 지연으로 되고, 이것이 축적되어 커지면 송신측으로부터 수신측까지의 지연이 커져서 텔레비전 전화로서의 사용에 부적합하게 된다. 이와 같은 상황은 피해야만 한다.In this case, the designated time is a time required for transmission of a bitstream in which one picture is encoded. If it is not decoded within this time, the excess time becomes a delay, and when this accumulates and becomes large, the delay from the transmitting side to the receiving side becomes large, making it unsuitable for use as a television telephone. This situation should be avoided.

또 통신 상대가 규격 외의 비트스트림을 생성하고 있기 때문에 복호화 처리를 지정시간 내에 완료할 수 없는 경우에는 동화상이 전송되지 않는다는 문제점이 있었다.In addition, there is a problem that moving pictures are not transmitted when the decoding process cannot be completed within a specified time because the communication partner generates an out-of-standard bitstream.

상기 문제점은 동화상뿐만 아니라 음성 데이터에서도 발생되는 문제점이다.This problem is a problem that occurs not only in moving pictures but also in voice data.

그런데 최근 인터넷이나 ISDN의 보급이라는 형태로 퍼스널 컴퓨터(PC)에서의 네트워크 환경이 정비된 결과, 전송속도가 빨라져서 PC와 네트워크를 이용한 동화상의 전송이 가능하게 되었다. 사용자로부터의 동화상 전송에 대한 요구도 갑자기 높아지고 있다. 또 CPU 성능의 향상에 의해 소프트웨어에 의한 동화상의 부호화가 충분히 가능하게 되고 있다.In recent years, however, the network environment has been improved in personal computers (PCs) in the form of the Internet and the spread of ISDN. As a result, the transfer speed has been increased, enabling the transmission of moving images using a PC and a network. The demand for moving picture transmission from the user is suddenly increasing. In addition, due to the improvement in CPU performance, encoding of moving images by software is sufficiently possible.

그러나 퍼스널 컴퓨터에서는 같은 소프트웨어를 CPU, 버스폭, 가속기의 유무 등, 장치 구성이 다른 컴퓨터에서 실행 가능하기 때문에 필요한 성능의 상한을 미리 고려하기가 곤란하여 지정 시간 내에 화상을 복호화할 수 없는 경우가 생긴다.However, in personal computers, since the same software can be executed on computers with different device configurations such as CPU, bus width, and the presence of accelerators, it is difficult to consider the upper limit of the required performance in advance, and it is sometimes impossible to decode the image within a specified time. .

또 수신장치의 처리능력을 넘는 길이의 동화상의 부호화 데이터가 전송된 경우에는 지정 시간 내의 부호화가 불가능하게 된다.In addition, when encoded data of a moving picture having a length exceeding the processing capacity of the receiving device is transmitted, encoding within a predetermined time becomes impossible.

과제(C1) : 지정 시간 내에 화상을 복호화하고, 지연을 작게 억제한다.Problem (C1): Decodes the image within a predetermined time, and suppresses the delay small.

또 이 과제 1의 해결수단으로서, 예를 들면 본 발명의 청구항 1 기재의 파형 데이터로서 동화상을 입력하는 경우 또는 본 발명의 청구항 7 기재의 파형 데이터로서 동화상을 출력하는 경우라면, 전송된 비트스트림 중 일부를 사용하지 않기 때문에 전송로의 실질적인 사용효율이 나쁘다는 문제점이 남는 경우도 있다. 또 부호화 방식에 따라서는 전회의 복호화상을 기초로 금회의 복호화상을 생성하는 것이 있는데(P픽처 등), 상기와 같은 과제 1의 해결수단에서는 전회의 복호화상을 완전히 복원하지 않는 경우가 있기 때문에 화질의 열화가 시간과 함께 파급적으로 커진다는 문제점도 있다.Also, as a solution for this problem 1, for example, when a moving image is input as waveform data of claim 1 of the present invention or a moving image is output as waveform data of claim 7 of the present invention, the transmitted bitstream In some cases, there is a problem that the actual use efficiency of the transmission path is bad because some parts are not used. In addition, some encoding methods generate the current decoded image based on the previous decoded image (P picture, etc.). However, in the above-described solution of problem 1, the previous decoded image may not be completely restored. There is also a problem that the deterioration of image quality increases rapidly with time.

과제(C2) : 과제 1 해결수단에서는 전송로의 실질적인 사용 효율이 나쁘다. 또 화질열화가 파급된다.Task (C2): The task 1 solution means that the practical use efficiency of the transmission path is poor. Moreover, image quality deterioration is spreading.

또 소프트웨어에 의한 실장에서는 1회의 부호화 처리에 소요되는 시간으로 화상의 프레임 레이트가 결정되므로, 사용자가 지정한 프레임 레이트가 계산기의 처리한계를 넘은 경우에는 지정에 응할 수 없었다.In software implementation, the frame rate of an image is determined by the time required for one encoding process. Therefore, when the frame rate specified by the user exceeds the processing limit of the calculator, it cannot be specified.

과제(C3) : 사용자가 지시한 프레임 레이트가 계산기의 처리한계를 넘으면 지정에 응할 수 없다.Task (C3): If the frame rate indicated by the user exceeds the processing limit of the calculator, the specification cannot be accepted.

본 발명은 상기 제 1 종래 기술의 (A1)∼(A6)의 과제를 고려하여, 그들 과제중 적어도 어느 하나를 해결하는 화상·음성 송신장치 및 화상·음성 수신장치를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION An object of the present invention is to provide an image / audio transmission device and an image / audio receiver that solve at least any one of those problems in consideration of the problems of (A1) to (A6) of the first prior art.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본원의 제 1 발명은, 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용, 또는 그 내용을 나타내는 식별자를 전송 포맷정보로서 수신장치에 송신하는 송신수단을 갖는 송신장치에 있어서, 상기 전송 포맷정보는, (1) 상기 수신장치에서 시간적으로 후의 단계에서 처리를 위해 사용되게 되는 프로그램 또는 데이터를 식별하는 식별자와, (2) 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보를 포함하며, 상기 수신장치가, 상기 식별자 및 상기 정보를 판단하여, 상기 식별된 프로그램 또는 데이터를, 상기 정보에 따라서 상기 식별된 프로그램 또는 데이터를 처리하기 위한 사용에 앞서 셋업 하기위해 사용되는 것을 특징으로 하는 송신장치이다.In the first invention of the present application, there is provided a transmitting apparatus for transmitting a content relating to a transmission method and / or a structure of data to be transmitted or an identifier indicating the content to a receiving apparatus as transmission format information, wherein the transmission apparatus comprises: The format information includes (1) an identifier identifying a program or data to be used for processing in a later step in the receiving apparatus, (2) information at the time when the program or data is to be used for processing, or Information for knowing an expiration date of use for processing the program or data, wherein the receiving device judges the identifier and the information to determine the identified program or data according to the information; Or used to set up prior to use to process data. A.

본원의 제 2 발명은, 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보는, 플래그, 카운터, 또는 타이머 중 적어도 하나인 것을 특징으로 하는 송신장치이다.In the second invention of the present application, the information at the time when the program or data is to be used for processing, or the information for knowing the expiration date of the use for processing the program or data, is at least one of a flag, a counter, or a timer. It is a transmission apparatus characterized by the above-mentioned.

본원의 제 3 발명은, 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용, 또는 그 내용을 나타내는 식별자를 전송 포맷정보로서 수신하는 수신수단과, 상기 전송 포맷정보를 판단하여 데이터를 처리하는 제어수단을 갖는 수신장치에 있어서, 상기 전송 포맷정보는, (1) 상기 수신장치에서 시간적으로 후의 단계에서 처리를 위해 사용되게 되는 프로그램 또는 데이터를 식별하는 식별자와, (2) 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보를 포함하며, 상기 제어수단은, 상기 식별자 및 상기 정보를 판단하여, 상기 식별된 프로그램 또는 데이터를, 상기 정보에 따라서 상기 식별된 프로그램 또는 데이터를 처리하기 위한 사용에 앞서 셋업 하는 것을 특징으로 하는 수신장치이다.According to a third aspect of the present invention, there is provided a receiving means for receiving, as transmission format information, an identifier relating to a transmission method and / or a structure of data to be transmitted, or an identifier indicating the content, and processing the data by determining the transmission format information. A receiving apparatus having a control means, wherein the transmission format information includes (1) an identifier for identifying a program or data to be used for processing in a later step in the receiving apparatus, and (2) the program or data Includes information at the time point at which it is to be used for processing, or information for knowing the expiration date of the program or use for processing the data, wherein the control means determines the identifier and the information to determine the identified program. Or prior to use of data to process said identified program or data in accordance with said information. A receiving apparatus which comprises up.

본원의 제 4 발명은, 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보는, 플래그, 카운터, 또는 타이머 중 적어도 하나인 것을 특징으로 하는 수신장치이다.In the fourth invention of the present application, the information at the time when the program or data is to be used for processing, or the information for knowing the expiration date of the use for processing the program or data is at least one of a flag, a counter, or a timer. It is a receiving device characterized in that.

(실시예)(Example)

이하 본 발명의 실시예에 대하여 도면을 참조하여 설명하기로 한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

또 여기에서 설명하는 실시예는 주로 상술한 과제 (A1)∼(A6) 중 어느 것을 해결하는 것이다. Moreover, the Example demonstrated here mainly solves any of the above-mentioned subjects (A1)-(A6).

본 발명에서 사용하는 「화상」으로서는 정지화상과 동화상의 양쪽을 포함한다. 또 대상으로 하는 화상은 컴퓨터 그래픽스(CG)와 같은 2차원 화상과 와이어 프레임 모델로 구성되는 3차원 화상 데이터라도 된다.The "image" used in the present invention includes both a still image and a moving image. The target image may be three-dimensional image data composed of a two-dimensional image such as computer graphics (CG) and a wire frame model.

도 1은 본 발명의 실시예에서의 화상음성 송수신장치의 개략 구성도이다.1 is a schematic structural diagram of a video audio transmitting and receiving device in an embodiment of the present invention.

도 1에서 정보를 수신하는 수신관리부(11)와 정보를 송신하는 전송부(13)는 동축 케이블, CATV, LAN, 모뎀 등의 정보를 전송하는 수단이다. 통신환경으로서는 인터넷과 같이 다중화수단을 의식하지 않고 복수의 논리적인 전송로를 이용할 수 있는 통신환경이라도 되고, 아날로그 전화나 위성방송과 같이 다중화수단을 의식해야하는 통신환경이라도 된다.In FIG. 1, the reception management unit 11 for receiving information and the transmission unit 13 for transmitting information are means for transmitting information such as a coaxial cable, a CATV, a LAN, and a modem. The communication environment may be a communication environment in which a plurality of logical transmission paths may be used without consciousness of multiplexing means, such as the Internet, or a communication environment in which multiplexing means, such as an analog telephone or satellite broadcast, should be conscious.

또 단말의 접속형태로서는 TV 전화나 TV 회의 시스템과 같이 단말간에서 쌍방향으로 영상이나 음성을 송수신하는 형태나, 위성방송이나 CATV, 인터넷 상에서의 방송형 영상이나 음성방송의 형태를 들 수 있다. 본 발명에서는 이러한 단말의 접속형태에 대하여 고려하고 있다. Examples of the connection type of the terminal include a form of transmitting and receiving video and audio bi-directionally between terminals, such as a TV telephone and a TV conference system, or a form of satellite or CATV, broadcast type video or audio broadcasting on the Internet. In the present invention, the connection form of such a terminal is considered.

도 1에 도시된 분리부(12)는 수신정보를 해석하여 데이터와 제어정보를 분리하는 수단이다. 구체적으로는 송신을 위해 데이터에 부가된 송신용 헤더정보와 데이터를 분해하거나, 데이터 자신에게 부가된 데이터 제어용 헤더와 데이터의 내용을 분해하기 위한 수단이다. 화상신장부(14)는 수신한 화상을 신장하는 수단이다. 예를 들면 H. 261, H. 263, MPEG1/2, JPEG라는 표준화된 동화상이나 정지화상의 압축화상이라도 되고, 그렇지 않아도 된다.The separator 12 shown in FIG. 1 is a means for interpreting the received information to separate data and control information. Specifically, it is means for decomposing transmission header information and data added to the data for transmission, or for decomposing the data control header and data added to the data itself. The image extension part 14 is a means for extending the received image. For example, it may be a standardized moving picture or a still picture compressed picture such as H. 261, H. 263, MPEG 1/2, or JPEG.

도 1에 도시된 화상신장 관리부(15)는 화상의 신장 상태를 감시하는 수단이다. 예를 들면 화상의 신장상태를 감시함으로써 수신 버퍼가 오버플로우를 일으킬 듯이 된 경우에 화상의 신장을 행하지 않고 수신버퍼를 공백 판독하여 화상을 신장할 수 있는 상태가 된 시점으로부터 화상의 신장을 재개시킬 수 있다. The image extension management unit 15 shown in Fig. 1 is a means for monitoring an image's extended state. For example, if the receiving buffer overflows by monitoring the image's decompression status, the decompression of the image can be resumed from the point where the image can be decompressed by reading the receiving buffer blank without extending the image. Can be.

또 도 1에서 화상합성부(16)는 신장된 화상을 합성하는 수단이다. 합성방법에 관해서는 JAVA, VRML, MHEG라는 스크립트 언어로, 화상과 화상의 구조정보(표시위치와 표시시간(표시기간을 포함해도 됨)), 화상끼리의 그룹핑 방법, 화상 표시의 레이어(깊이), 그리고, 오브젝트 ID(후술하는 SSRC)와 이들 속성의 관계를 기술함으로써 화상의 합성방법을 정의할 수 있다. 합성방법을 기술한 스크립트는 네트워크나 로컬의 기억장치로부터 입출력된다. In Fig. 1, the image synthesizing unit 16 is a means for synthesizing the extended image. As to the composition method, in the script languages JAVA, VRML, and MHEG, images and their structural information (display position and display time (which may include display period)), grouping methods between images, and layer of image display (depth) Then, the method of composing images can be defined by describing the relationship between the object ID (SSRC described later) and these attributes. The script describing the synthesis method is input and output from the network or local storage.

또 출력부(17)는 화상의 합성결과를 출력하는 디스플레이나 프린터 등이다. 단말제어부(18)는 이들 각부를 제어하는 수단이다. 또 화상 대신에 음성을 신장하는 구성이라도(화상신장부를 음성신장부로, 화상신장 관리부를 음성신장 관리부로, 화상합성부를 음성합성부로 변경함으로써 대응됨), 화상과 음성의 양쪽을 신장하여 시간적으로 동기를 유지하면서 합성, 표시하는 구성이라도 된다.The output unit 17 is a display, a printer, or the like for outputting a result of synthesizing an image. The terminal control unit 18 is a means for controlling these units. In addition, even in a configuration in which an audio is extended instead of an image (corresponding to changing the image extension into an audio extension, the image extension managing unit into an audio extension management unit, and the image synthesis unit into an audio synthesis unit), both image and audio are extended and synchronized in time. The composition may be synthesized and displayed while maintaining.

또한 화상을 압축하는 화상압축부, 화상압축부를 관리하는 화상압축 관리부, 음성을 압축하는 음성압축부, 음성압축부를 관리하는 음성압축 관리부를 구비함으로써 화상이나 음성의 전송도 가능하게 된다. In addition, an image compression unit which compresses an image, an image compression management unit which manages the image compression unit, an audio compression unit which compresses the voice, and a voice compression management unit which manages the voice compression unit can be used to transfer images and audio.

도 2는 수신관리부와 분리부를 도시한 도면이다. 2 is a diagram illustrating a reception management unit and a separation unit.

도 1에 도시된 수신관리부(11)에 데이터를 수신하는 데이터 수신부(101)와 데이터를 제어하기 위한 제어정보를 수신하는 제어정보 수신부(102)와, 분리부(12)에 전송내용을 해석하기 위한 전송구조(상세한 내용은 후술)에 대하여 기억하는 전송포맷 기억부(103)와, 전송포맷 기억부(103)에 기억된 전송구조에 기초하여 전송내용을 해석하는 전송정보 해석부(104)로 각부를 구성함으로써 데이터와 제어정보를 독립하여 수신하는 것이 가능하게 되므로, 예를 들면 수신하면서 수신화상이나 음성의 삭제, 이동이 용이하게 된다. Analyzing the transmission contents in the data receiving unit 101 for receiving data in the reception management unit 11 shown in FIG. 1, the control information receiving unit 102 for receiving control information for controlling the data, and the separating unit 12. A transmission format storage section 103 for storing a transmission structure (details will be described later), and a transmission information analysis section 104 for analyzing transmission contents based on the transmission structure stored in the transmission format storage section 103. By configuring each unit, it is possible to independently receive data and control information. For example, it is easy to delete or move a received image or sound while receiving.

상술한 바와 같이 수신관리부(11)가 대상으로 하는 통신환경으로서는, 인터넷과 같이 다중화 수단을 의식하지 않고 복수의 논리적인 전송로를 이용할 수 있는 통신환경(인터넷·프로파일)이라도 되고, 아날로그 전화나 위성방송과 같이 다중화 수단을 의식해야 하는 통신환경(Raw 프로파일)이라도 된다. 그러나 이용자측에서 보면 논리적인 전송로(논리 채널)가 복수개 준비되어 있는 통신환경을 전제로 하고 있다(예를 들면 TCP/IP가 사용되는 통신환경에서는「통신 포트」라 불리우는 표현이 일반적으로 사용됨). As described above, the communication environment targeted by the reception management unit 11 may be a communication environment (Internet profile) capable of using a plurality of logical transmission paths without consciousness of multiplexing means such as the Internet, or an analog telephone or satellite. It may be a communication environment (raw profile) in which multiplexing means must be aware of, such as broadcasting. However, from the user's point of view, it assumes a communication environment in which a plurality of logical channels (logical channels) are prepared (for example, in a communication environment in which TCP / IP is used, an expression called a communication port is generally used). .

또 도 2에 도시된 바와 같이 수신관리부(11)가 수신하는 정보로서는 1종류 이상의 데이터용 전송로와, 전송하는 데이터를 제어하기 위한 제어용의 논리적인 전송로를 1종류 이상 상정하고 있다. 데이터 전송용 전송로를 복수 준비하고, 데이터 제어용 전송로를 1개만 준비해도 된다. 또한 H. 323에서도 이용되고 있는 RTP/RTCP와 같이 데이터 전송마다 데이터 제어용 전송로를 준비해도 된다. 또한 UDP를 사용한 방송을 고려한 경우, 단일 통신 포트(멀티캐스트 어드레스)를 사용한 통신형태라도 된다. As shown in Fig. 2, as the information received by the reception management unit 11, one or more types of data transmission paths and one or more types of logical transmission paths for control for controlling the data to be transmitted are assumed. A plurality of transmission paths for data transmission may be prepared, and only one transmission path for data control may be prepared. In addition, like the RTP / RTCP used in H.323, a data control transmission path may be prepared for each data transmission. In addition, when a broadcast using UDP is considered, a communication mode using a single communication port (multicast address) may be used.

도 3은 복수의 논리적인 전송로를 이용하여 화상이나 음성을 전송, 제어하는 방법에 대하여 설명한 도면이다. 전송하는 데이터 자신을 ES(엘리먼터리 스트림)라 하고, ES로서는 화상이라면 1프레임분의 화상정보나 1프레임보다 작은 GOB 단위나 매크로 블록 단위의 화상정보라도 된다. 3 is a diagram for explaining a method of transmitting and controlling an image or an audio using a plurality of logical transmission paths. The data to be transmitted itself is called an ES (elementary stream), and the ES may be image information for one frame, image information in a GOB unit or macroblock unit smaller than one frame.

음성이라면 이용자가 정한 고정길이의 길이라도 된다. 또 전송하는 데이터에 부가하는 데이터 제어용 헤더정보를 AL(어댑테이션 레이어 정보)이라 한다. AL 정보로서는 데이터의 처리 가능한 개시 위치인지의 여부를 나타내는 정보, 데이터의 재생시각을 나타내는 정보, 데이터의 처리 우선도를 나타내는 정보 등을 들 수 있다. 본 발명의 데이터 관리정보는 AL 정보에 대응한다. 또 본 발명에서 이용되는 ES와 AL은 MPEG1/2에서 정의되어 있는 내용과 반드시 합치하지 않아도 된다.If it is voice, it may be a fixed length determined by the user. The header for data control added to the data to be transmitted is called AL (Adaptation Layer Information). As AL information, the information which shows whether it is a start position which can process data, the information which shows the reproduction time of data, the information which shows the processing priority of data, etc. are mentioned. The data management information of the present invention corresponds to AL information. The ES and AL used in the present invention do not necessarily have to match the contents defined in MPEG1 / 2.

데이터 처리 가능한 개시 위치인지의 여부를 나타내는 정보는 구체적으로는 2종류의 정보를 들 수 있다. 하나는 랜덤 액세스를 위한 플래그이며, 예를 들어 화상이라면 인트라 프레임(I픽처)이라는 것과 같이 전후의 데이터에 관계없이 단독으로 판독하여 재생되는 것을 나타내기 위한 정보이다. 두 번째로서는 단순히 단독으로 판독이 가능한 것을 나타내기 위한 플래그로서, 액세스 플래그를 정의할 수 있다. 예를 들어 화상이라면 GOB 단위나 매크로블록 단위의 화상의 선두인 것을 나타내는 정보이다. 따라서 액세스 플래그가 없으면 데이터의 도중이다. 반드시 데이터 처리 가능한 개시 위치인지의 여부를 나타내는 정보로서 랜덤 액세스의 플래그와 액세스 플래그가 모두 필요하지는 않다. Two types of information can be mentioned specifically, the information which shows whether it is a start position which can process data. One is a flag for random access, for example, information for indicating that the image is read and reproduced independently regardless of the data before and after, such as an intra frame (I picture). Secondly, an access flag can be defined as a flag simply indicating that it can be read alone. For example, the image is information indicating that the image is at the head of a GOB unit or macroblock unit. Therefore, if there is no access flag, the data is in the middle. It is not necessarily necessary to use both the flag and the access flag for random access as information indicating whether or not the start position is data processing.

TV 회의 시스템과 같은 리얼타임 통신에서는 양쪽의 플래그를 부가하지 않아도 문제가 발생되지 않는 경우도 있고, 편집을 간단히 할 수 있도록 하기 위해서는 랜덤 액세스 플래그는 필요하다. 플래그가 필요하지만, 필요한 경우라도 어떤 플래그가 필요한지를 통신로를 통해 데이터 전송 전에 결정해두어도 된다. In real-time communication such as a TV conferencing system, problems may not occur even if both flags are not added. In order to simplify editing, a random access flag is required. A flag is required, but if necessary, it may be determined before transferring data through the communication channel which flag is required.

데이터의 재생시각을 나타내는 정보는 화상과 음성이 재생될 때의 시간동기 정보를 나타내며, MEPG1/2에서는 PTS(프레젠테이션·타임 스탬프)라 불리운다. TV 회의 시스템과 같은 리얼타임 통신에서는 통상, 시간동기에 관해서는 고려되어 있지 않기 때문에 반드시 재생시각을 의미하는 정보는 필요없다. 필요한 정보로서는 인코드된 프레임의 시간간격이 될지도 모른다.The information representing the reproduction time of the data indicates time synchronization information when the image and audio are reproduced, and is called PTS (presentation time stamp) in MEPG1 / 2. In real-time communication such as a TV conferencing system, since time synchronization is not usually considered, information representing a reproduction time is not necessarily required. The necessary information may be the time interval of the encoded frame.

시간 간격을 수신측에서 조정시킴으로써 프레임 간격의 큰 변동은 막을 수 있지만, 재생간격을 조정시킴으로써 지연이 될 가능성도 있다. 따라서 인코드의 프레임 간격을 나타내는 시간정보도 필요없다고 판단되는 경우도 있다. Although large fluctuations in the frame interval can be prevented by adjusting the time interval on the receiving side, there is a possibility that there is a delay by adjusting the reproduction interval. Therefore, it may be determined that time information indicating the frame interval of encoding is not necessary.

데이터의 재생시각을 나타내는 정보는 PTS를 의미하는 것인가, 프레임 간격을 의미하는 것인가를, 데이터의 재생시각을 데이터 자신에게는 부가하지 않는다는 것을 통신로를 통해 데이터 전송 전에 결정하여 수신단말에 통지하고, 결정된 데이터 관리정보와 함께 데이터를 전송해도 된다.The information indicating the reproduction time of the data means whether the PTS or the frame interval means that the reproduction time of the data is not added to the data itself and notified to the receiving terminal through the communication path before data transmission. Data may be transmitted together with the data management information.

데이터 처리의 우선도를 나타내는 정보는 수신단말의 부하나 네트워크의 부하에 따라서 처리 또는 전송할 수 없는 경우에 데이터의 처리를 중지시키거나 전송을 취소함으로써 수신단말의 부하나 네트워크의 부하를 저감시킬 수 있다. When the information indicating the priority of data processing cannot be processed or transmitted depending on the load of the receiving terminal or the load of the network, the load of the receiving terminal or the load of the network can be reduced by stopping the data processing or canceling the transmission. .

수신단말에서는 화상신장 관리부(15)에서 네트워크에서는 중계의 단말이나 라우터 등에서 처리할 수 있다. 우선도의 표현방법으로서는 수치에 의한 표현이나 플래그라도 된다. 또 데이터의 처리 우선도를 나타내는 정보의 오프셋값을 제어정보, 혹은 데이터와 함께 데이터 관리정보(AL의 정보)로 하여 전송함으로써 수신단말의 부하나 네트워크 부하의 급격한 변동에 대하여 미리 화상이나 음성에 할당되어 있는 우선도에 오프셋값을 가함으로써 시스템의 동작상황에 따른 동적인 우선도의 설정이 가능하게 된다. In the receiving terminal, the image extension management unit 15 can process the relay terminal or router in the network. The expression method of priority may be a numerical expression or a flag. In addition, by transmitting the offset value of the information indicating the processing priority of the data together with the control information or the data as the data management information (information of AL), a sudden change in the load of the receiving terminal or the network load is allocated to the image or audio in advance. By adding an offset value to the priority that has been set, it is possible to set the dynamic priority according to the operation status of the system.

또한 스크램블의 유무, 저작권의 유무, 오리지널인지 복사본인지를 식별하기 위한 정보를 데이터와는 별도로, 데이터의 식별자(SSRC)와 함께 제어정보로서 송신함으로써 중계 노드에서의 스크램블의 해제 등이 용이하게 된다. In addition, information for identifying whether scramble is present or not, copyright or original or copy is transmitted as control information together with the data identifier (SSRC) separately from the data, thereby releasing scramble at the relay node.

또 데이터의 처리 우선도를 나타내는 정보는 복수의 비디오나 오디오의 프레임 집합으로 구성되는 스트림 단위로 부가해도 되고, 비디오나 오디오의 프레임 단위로 부가해도 된다. The information indicating the processing priority of data may be added in units of streams composed of a plurality of video or audio frame sets, or may be added in units of video or audio frames.

H. 263이나 G. 723 등의 부호화방법으로, 부호화된 정보의 과부하시의 처리 우선도를 미리 정해진 기준으로 결정하고, 부호화된 정보와 결정된 우선도를 대응짓는 우선도 부가수단을 송신 단말장치에 구비한다(도 46 참조). In a coding method such as H. 263 or G. 723, a priority addition means for determining the processing priority at the time of overloading the encoded information on a predetermined basis, and for associating the encoded information with the determined priority, to the transmitting terminal apparatus. (See FIG. 46).

도 46은 영상과 음성에 우선도를 부가하는 우선도 부가수단(5201)에 대하여 설명하는 도면이다. 46 is a diagram for explaining priority adding means 5201 to add priority to video and audio.

즉 도 46에 도시된 바와 같이, 부호화된 영상과 음성의 각 데이터(각각 영상 부호화수단(5202)과 음성 부호화수단(5203)이 처리함)에 대하여 미리 정해진 규칙에 기초하여 우선도를 부가한다. 우선도를 부가하는 규칙은 우선도 부가규칙(5204)에 규칙이 저장되어 있다. 규칙이란 I프레임(프레임내 부호화된 영상 프레임)은 P프레임(프레임간 부호화된 영상 프레임)보다 높은 우선도를 부가한다는 규칙이나, 영상은 음성보다 낮은 우선도를 부가한다는 규칙이다. 또 이 규칙은 이용자의 지시에 따라 동적으로 변경해도 된다. That is, as shown in Fig. 46, priority is added to each of the encoded video and audio data (processed by the video encoding means 5202 and the audio encoding means 5203, respectively) based on a predetermined rule. The rules for adding the priority are stored in the priority adding rule 5204. The rule is a rule that an I frame (in-frame coded video frame) adds a higher priority than a P frame (inter-frame coded video frame), but a video is a rule that adds a lower priority than audio. This rule may be changed dynamically according to the user's instructions.

우선도를 부가하는 대상이 되는 것은, 예를 들어 화상이라면 화면 교체, 편집자나 이용자가 지시한 화상 프레임이나 스트림, 음성이라면 유성음 구간과 무성음 구간이다.Objects to which the priority is added are, for example, screen replacement, image frames or streams instructed by the editor or user, and voiced and unvoiced sections.

과부하시의 처리 우선도를 정의하는 화상이나 음성프레임 단위의 우선도의 부가방법은 통신 헤더로 부가하는 방법과 부호화시에 비디오나 오디오의 부호화된 비트스트림의 헤더에 매립하는 방법이 고려된다. 전자는 복호하지 않고 우선도에 관한 정보를 얻을 수 있으며, 후자는 시스템에 의존하지 않고 비트스트림 단체(單體)로 독립적으로 취급할 수 있다. As a method of adding the priority of each image or audio frame to define the processing priority at the time of overload, a method of adding by a communication header and embedding in a header of an encoded bitstream of video or audio at the time of encoding are considered. The former can obtain information about priority without decoding, and the latter can be treated independently as a bitstream entity without system dependence.

통신 헤더에 우선도 정보를 부가하는 경우, 하나의 화상프레임(예를 들면 프레임내 부호화된 I프레임, 프레임간 부호화된 P, B 프레임)이 복수개의 송신 패킷으로 분할되는 경우, 화상이라면 단독의 정보로서 액세스 가능한 화상프레임의 선두부분을 전송하는 통신 헤더에만 우선도를 부가한다(동일한 화상프레임 내에서 우선도가 같은 경우, 다음 액세스 가능한 화상프레임의 선두가 나타날 때까지 우선도는 변하지 않는 것으로 하면 됨). When priority information is added to the communication header, when one picture frame (e.g., intra-frame coded I frame, inter-frame coded P, B frame) is divided into a plurality of transmission packets. Priority is added only to the communication header that transmits the head of an accessible picture frame. (If the priority is the same within the same picture frame, the priority does not change until the head of the next accessible picture frame appears. ).

또 용도에 맞추어 우선도를 표현할 수 있는 값의 범위(예를 들면 시간정보를 16비트로 표현하거나, 32비트로 표현함)를 가변으로 하여 제어정보로 구성할 수 있도록 해도 된다.The control information may be configured by varying a range of values (for example, time information in 16 bits or 32 bits) in which priority can be expressed according to the purpose.

또한 복호화장치에서는 수신된 각종 부호화된 정보의 과부하시의 우선도에 따라 처리방법을 결정하는 우선도 결정수단을 수신 단말장치에 구비한다(도 47 참조). The decoding apparatus further includes priority determining means for determining the processing method in accordance with the priority of overload of the received various encoded information in the receiving terminal apparatus (see Fig. 47).

도 47은 영상과 음성에 부가된 우선도를 해석하고, 복호처리의 가부를 결정하는 우선도 결정수단(5301)에 대하여 설명하는 도면이다. Fig. 47 is a view for explaining priority determining means 5301 for analyzing the priority added to video and audio and for determining whether to decode or not.

즉 도 47에 도시된 바와 같이 우선도는 영상, 음성마다의 스트림별로 부가되는 우선도, 영상 또는 음성의 프레임별로 부가되는 우선도이다. 이들 우선도는 각각 독립적으로 이용해도 되고, 프레임 우선도와 스트림 우선도를 대응지어 이용해도 된다. 우선도 결정수단(5301)은 이들 우선도에 따라 복호해야 할 스트림이나 프레임을 결정한다.That is, as shown in FIG. 47, priority is priority added for each stream of video and audio and priority added for each frame of video or audio. These priorities may be used independently, or frame priority and stream priority may be used. Priority determining means 5301 determines the stream or frame to be decoded according to these priorities.

단말에서의 과부하시의 처리 우선도를 결정하는 2종류의 우선도를 이용하여 디코드 처리를 행한다. Decode processing is performed using two types of priorities that determine the processing priority upon overload in the terminal.

즉 영상, 음성이라는 비트스트림간의 상대적 우선도를 정의하는 스트림 우선도(Stream Priority ; 시계열간 우선도)와, 동일 스트림 내의 영상 프레임이라는 복호처리 단위간의 상대적 우선도를 정의하는 프레임 우선도(Frame Priority ; 시계열내 우선도)를 정의한다(도 24). In other words, Stream Priority (Definite Priority) is used to define the relative priority between bitstreams such as video and audio, and Frame Priority (Definition Priority) is defined between decoding processing units called video frames within the same stream. ; Priority in time series) (FIG. 24).

전자의 스트림 우선도에 의해 복수의 비디오나 오디오의 취급이 가능하게 된다. 후자의 프레임 우선도에 의해 영상의 화면 교체나 편집자의 의도에 따라 동일한 프레임내 부호화된 영상프레임(I프레임)이라도 다른 우선도의 부가가 가능하게 된다. The former stream priority enables handling of multiple videos and audios. The latter frame priority makes it possible to add another priority even if the video frame (I frame) coded in the same frame is changed according to the screen replacement of the video or the intention of the editor.

또 스트림 우선도를 화상이나 음성의 부호화 혹은 복호화 처리의 오퍼레이팅 시스템(OS)에서의 할당시간 혹은 처리의 우선도에 대응지어 관리함으로써, 0S 레벨에서의 처리시간의 관리가 가능해진다. 예를 들면 마이크로소프트사의 윈도우즈 95/NT에서는 5단계의 OS 레벨에서의 우선도를 정의할 수 있다. 부호화, 복호화의 수단을 소프트웨어에서 스레드의 단위로 실현한 경우, 처리대상이 되는 스트림의 스트림 우선도로부터 각 스레드에 할당하는 OS 레벨에서의 우선도를 결정할 수 있다. In addition, by managing the stream priority in association with the allocation time in the operating system (OS) of the encoding or decoding processing of an image or audio or the priority of the processing, the processing time at the 0S level can be managed. Microsoft's Windows 95 / NT, for example, allows you to define five levels of OS priority. When the means for encoding and decoding are realized in units of threads in software, the priority at the OS level assigned to each thread can be determined from the stream priority of the stream to be processed.

여기에서 설명한 프레임 우선도와 스트림 우선도는 전송매체나 기록매체로 적용할 수 있다. 예를 들면 전송하는 패킷의 우선도를 액세스 유니트 우선도(Access Unit Priority)라 정의하면, The frame priority and stream priority described herein may be applied to a transmission medium or a recording medium. For example, if the priority of a packet to be transmitted is defined as an access unit priority,

액세스 유니트 우선도 = 스트림 우선도 - 프레임 우선도Access unit priority = stream priority-frame priority

라는 프레임 우선도와 스트림 우선도의 관계식으로부터 패킷의 전송에 관한 우선도 혹은 단말에 의한 과부하시의 처리 우선도를 결정할 수 있다. The priority of the packet transmission or the processing priority in case of overload by the terminal can be determined from the relationship between the frame priority and stream priority.

또 데이터 기록매체로서 플로피 디스크, 광디스크 등을 이용하여 행할 수 있다. 또 기록매체는 이것에 한정되지 않고 IC 카드, ROM 카세트 등, 프로그램을 기록할 수 있는 것이면 마찬가지로 실시할 수 있다. 또한 데이터를 중계하는 라우터나 게이트웨이라는 화상이나 음성의 중계장치를 대상으로 해도 된다. Also, a floppy disk, an optical disk, or the like can be used as a data recording medium. In addition, the recording medium is not limited to this, and may be implemented as long as it can record a program such as an IC card, a ROM cassette, and the like. Further, an image or audio relay device such as a router or a gateway for relaying data may be used.

구체적인 우선도에 관한 이용방법으로서는 수신단말이 과부하인 경우에 처리해야 할 부호화된 정보의 우선도의 임계값을 결정하는 우선도 결정수단을 화상신장 관리부나 음성신장 관리부에 구비하고, 표시되어야 할 시각(PTS)과 현재까지의 처리개시로부터의 경과시각 혹은 복호되어야 할 시각(DTS)과 현재까지의 처리개시로부터의 경과시각을 비교하여, 비교결과에 의해 처리해야 할 부호화된 정보의 우선도의 임계값을 변화시킨다(임계값을 변화시키기 위한 정보로서는 I프레임의 삽입간격, 우선도의 그레이딩을 참고로 해도 됨). As a usage method related to the specific priority, the image extension management unit or the audio extension management unit includes priority determination means for determining a threshold value of the priority of the encoded information to be processed when the receiving terminal is overloaded. PTS) and the elapsed time from the start of processing up to now or the time to be decoded (DTS) and the elapsed time from the start of processing up to the present, and the threshold value of the priority of the encoded information to be processed according to the comparison result. (Information for changing the threshold value may be referred to grading of I frame insertion interval and priority).

도 20a에 도시된 예에서는 인코드시에는 도입된 QCIF, CIF 사이즈의 화상을 인코더(H. 263)에 의해 인코드하고, 인코드된 정보와 함께 복호하는 시각(DTS), 화상을 표시하는 시각을 나타내는 타임 스탬프(PTS), 과부하시의 처리 순서를 나타내는 우선도 정보(CGD, Computational Graceful Degradation), 프레임 타입(SN), 시퀀스번호를 출력한다. In the example shown in FIG. 20A, the encoder encodes the QCIF and CIF sized images introduced by the encoder (H.263) at the time of encoding, decodes them together with the encoded information (DTS), and displays the time. A time stamp (PTS) indicating the information, priority information (CGD) indicating the processing sequence in case of overload, a frame type (SN), and a sequence number are output.

또한 도 20b에 도시된 예에서는, 음성도 또한 마이크를 통해 녹음되고 인코더(G. 721)에 의해 인코드되며, 인코드된 정보와 함께 복호하는 시각(DTS), 음성을 재생하는 시각을 나타내는 타임 스탬프(PTS), 우선도 정보(CGD), 시퀀스 번호(SN)를 출력한다. Also in the example shown in Fig. 20B, the voice is also recorded through a microphone and encoded by the encoder (G. 721), and the time indicating the time of decoding (DTS), the time of reproducing the voice with the encoded information. The stamp PTS, priority information CGD, and sequence number SN are output.

디코드시에는 도 20c에 도시된 바와 같이 화상과 음성은 각각 별개의 버퍼로 건네지고, 화상과 음성은 각각의 DTS(복호시각)와 현재의 처리개시로부터의 경과시각을 비교하여, DTS 쪽이 지연되어 있지 않으면 화상과 음성은 각각의 디코더(H. 263, G. 721)로 건네진다. At the time of decoding, as shown in Fig. 20C, the image and the audio are passed to separate buffers, and the image and the audio are compared with the respective DTS (decoding time) and the elapsed time from the current processing start, so that the DTS is delayed. If not, the image and audio are passed to the respective decoders (H.263, G.721).

도 21의 예에서는 인코더에서의 과부하시의 우선도 부가방법에 대하여 기록하고 있다. 화상은 I프레임(프레임내 부호화된 화상프레임)은 우선도가 「O」과 「1」로, 높은 우선도를 할당하고 있다(숫자가 작을수록 우선도가 낮다). P프레임은 우선도가「2」로, I프레임보다도 낮은 우선도를 할당하고 있다. I프레임은 2단계의 우선도를 할당하고 있기 때문에 디코드하는 단말의 부하가 높은 경우, 우선도가 「0」인 I프레임만을 재생한다고 할 수 있다. 또 우선도의 부가방법에 따라 I프레임의 삽입간격을 조정할 필요가 있다. In the example of FIG. 21, the method of adding the priority at the time of overload in an encoder is recorded. As for the image, I frames (in-frame coded image frames) have high priority "O" and "1", and are assigned high priority (the smaller the number, the lower the priority). P frames have a priority of "2" and are assigned a priority lower than that of I frames. Since I frames are assigned two levels of priority, it can be said that only I frames having a priority of "0" are played when the load of the terminal to be decoded is high. In addition, it is necessary to adjust the insertion interval of the I frame in accordance with the priority addition method.

도 22의 예는 과부하시의 수신단말에서의 우선도의 결정방법에 대하여 기록한 도면이다. 폐기하는 프레임의 우선도를 컷 오프 우선도(cut Off Priority)보다 크다고 설정한다. 즉, 모든 화상프레임을 처리의 대상으로 한다. 화상프레임에 부가되는 우선도의 최대값은 단말접속시에 송신측으로부터 수신측으로 통지함으로써 미리 알 수 있다(단계 101).The example of FIG. 22 is a figure recorded about the determination method of the priority in the receiving terminal at the time of overload. The priority of the discarded frame is set to be larger than the cut off priority. In other words, all image frames are subjected to processing. The maximum value of the priority added to the image frame can be known in advance by notifying the transmitting side to the receiving side at the time of terminal connection (step 101).

DTS와 현재의 처리 개시로부터의 경과시간을 비교하여 경과시간쪽이 큰 경우(복호처리가 충분하지 않은 경우), 처리대상으로 해야 할 화상, 음성의 우선도의 임계값을 내려 처리를 정선하고(단계 102), 반대로 처리 개시로부터의 경과시간쪽이 작은 경우(복호처리가 충분한 경우)는 처리되는 대상의 화상이나 음성을 늘리기 위해 우선도의 임계값을 올린다(단계 103).When the elapsed time is large (when the decoding process is not sufficient) by comparing the elapsed time from the start of the current processing of the DTS, the threshold of the priority of the image and audio to be processed is lowered and the process is selected ( In step 102, on the contrary, when the elapsed time from the start of processing is small (decoding process is sufficient), the priority threshold is raised to increase the image or sound of the object to be processed (step 103).

1개 앞의 화상프레임이 P프레임으로 스킵되어 있으면 처리는 행하지 않는다. 그렇지 않으면 화상프레임(혹은 음성 프레임)의 우선도에 우선도의 오프셋값을 부가하여 우선도의 임계값과 비교하여, 임계값을 넘지 않았으면 디코더에 복호해야 할 데이터를 건네준다(단계 104). If one previous picture frame is skipped to a P frame, the processing is not performed. Otherwise, a priority offset value is added to the priority of the image frame (or audio frame), compared with the threshold of priority, and the data to be decoded is passed to the decoder if the threshold is not exceeded (step 104).

또 우선도의 오프셋은 머신의 성능을 미리 조사하여 수신단말로 오프셋을 통지해 두는 사용방법(이용자가 수신단말로 지시해도 됨), 복수의 비디오와 사운드스트림의 스트림 단위의 우선도를 변경하는 사용방법(예를 들면 가장 뒤의 배경은 오프셋값을 올려 처리를 정선하도록 함)이 가능하다. In addition, the priority offset is a method in which the performance of the machine is investigated in advance and the receiving terminal is notified of the offset (the user may instruct the receiving terminal), and the usage method of changing the priority of the stream units of a plurality of video and sound streams ( For example, the last background can be selected to raise the offset value.

멀티스트림을 대상으로 하는 경우, 스트림마다 우선도를 부가하고 화상이나 음성 디코드의 스킵을 판정해도 된다. 덧붙여서 리얼타임 통신에서도 H. 263의 TR(임시 리퍼런스)을 DTS와 마찬가지로 취급 이용함으로써 단말에서의 디코드 처리가 진행되고 있는지 지연되고 있는지를 판정할 수 있고, 상기 설명한 스킵처리를 실현할 수 있다. In the case of targeting a multi-stream, priority may be added for each stream and skipping of image or audio decoding may be determined. In addition, in real-time communication, the TR (temporary reference) of H.263 can be handled and used in the same manner as in the DTS to determine whether the decoding processing in the terminal is in progress or delayed, and the skip processing described above can be realized.

도 23은 앞에서의 알고리즘을 실장하여, 우선도의 시간변화를 조사한 것이다. 23 implements the above algorithm and examines the time change of priority.

도 23에서는 영상프레임에 부가되는 우선도의 변화를 도시한다. 이 우선도는 단말이 과부하일때 복호의 가부를 결정하기 위한 우선도이고, 각 프레임마다 부가된다. 우선도는 값이 작을수록 우선도가 높다. 도 23의 예에서는 0이 가장 우선도가 높다. 우선도의 임계값이 3일때, 3보다 큰 값이 부가되어 있는 우선도의 프레임은 복호되지 않고 폐기되며, 3 이하의 값이 부가되어 있는 우선도가 부가되어 있는 프레임은 복호된다. 우선도에 의한 선택적인 프레임을 폐기함으로써 단말의 부하를 억제할 수 있다. 이 우선도의 임계값은 현재의 처리시각과 각 프레임에 부가되는 복호처리시간(DTS)의 관계로부터 동적으로 결정해도 된다. 이 방법은 영상프레임뿐만 아니라 음성에 대해서도 같은 요령으로 적용할 수 있다. 23 shows a change in priority added to the video frame. This priority is a priority for determining whether to decode when the terminal is overloaded, and is added for each frame. The smaller the value, the higher the priority. In the example of FIG. 23, 0 has the highest priority. When the threshold of priority is 3, the frame of priority to which a value larger than 3 is added is discarded without decoding, and the frame to which the priority to which a value of 3 or less is added is added. By discarding the selective frame by priority, the load on the terminal can be suppressed. The threshold of this priority may be dynamically determined from the relationship between the current processing time and the decoding processing time (DTS) added to each frame. This method can be applied to the same method not only for video frames but also for audio.

인터넷과 같은 전송로를 고려한 경우, 전송 도중에 분실한 부호화된 정보의 재송이 필요한 경우, 재송해야 할 부호화된 정보의 우선도의 임계값을 결정하는 재송요구 우선도 결정부를 수신관리부에 구비하고, 우선도 결정부가 관리하는 우선도나, 재송횟수, 정보의 손실률, 프레임내 부호화된 프레임의 삽입간격, 우선도의 그레이딩(예를 들면 5단계의 우선도 등)의 정보를 바탕으로 재송 요구해야 할 부호화된 정보에 부가된 우선도의 임계값을 결정함으로써, 수신단말에서 필요로 하는 화상이나 음성만을 재송 요구할 수 있다. 재송횟수나 정보의 손실률이 크면 재송해야 할 대상으로 하는 정보의 우선도를 올려 재송이나 손실률을 저하시킬 필요가 있다. 또한 우선도 결정부에서 사용되고 있는 우선도를 인지함으로써 처리대상 외의 정보의 전송을 없앨 수 있다. When considering a transmission path such as the Internet, if retransmission of coded information lost during transmission is necessary, a retransmission request priority determining unit for determining a threshold value of priority of the coded information to be retransmitted is provided with a reception management unit. Coded to be retransmitted based on the information managed by the determining unit, the number of retransmissions, the loss rate of information, the insertion interval of encoded frames within the frame, and the grading of priorities (for example, the five-level priority). By determining the threshold value of the priority added to the information, it is possible to request retransmission of only an image or audio required by the receiving terminal. If the number of retransmissions or information loss is large, it is necessary to raise the priority of the information to be resent and lower the retransmission or loss rate. In addition, by recognizing the priority used in the priority determination unit, it is possible to eliminate transmission of information other than the processing target.

송신측 단말에 관해서는 송신단말 정보의 목표 전송레이트보다 실제의 전송레이트가 초과되는 경우나, 송신버퍼로의 부호화된 정보의 기입이 현재까지의 전송처리 개시로부터의 경과시각과 부호화된 정보에 부가되어 있는 복호 혹은 표시되는 시각을 비교하여 송신 버퍼로의 정보 기입이 지연되고 있는 경우, 부호화된 정보에 부가되고 수신단말의 우선도 결정부에서 이용되는 단말이 과부하시의 우선도를 이용하여 정보 송신을 정선함으로써 목표레이트에 맞는 화상이나 음성의 전송이 가능해진다. 또한 송신측 단말에서도 수신측단말에서 행하고 있는 것 같은 과부하시의 처리 스킵기능을 도입함으로써 송신측 단말의 과부하에 의한 파탄을 억제할 수 있다. With regard to the transmitting terminal, the actual transmission rate exceeds the target transmission rate of the transmission terminal information, or the writing of the encoded information to the transmission buffer is added to the elapsed time and the encoded information from the start of the transmission process so far. When the decoded or displayed time is compared and the writing of information to the transmission buffer is delayed, the information added to the encoded information and used in the priority determining unit of the receiving terminal transmits the information by using the priority when overloading. By selecting, the transmission of the image and the audio in accordance with the target rate is possible. In addition, the overload processing skip function, which is performed by the receiving terminal, can also be suppressed in the transmitting terminal by overloading the transmitting terminal.

상기에서 설명한 AL의 정보를 필요에 따라 필요한 정보만을 전송할 수 있도록 함으로써 아날로그 전화회선과 같은 좁은 지역의 통신로에는 전송 정보량을 조절할 수 있으므로 유효하다. 실현방법으로서는 송신측 단말에서 데이터 자신에게 부가하는 데이터 관리정보를 미리 데이터 송신 전에 결정하여 수신단말에 사용하는 데이터 관리정보를 제어정보(예를 들면, 랜덤 액세스 플래그만을 사용한다거나)로서 통지하는 것과 함께, 수신측 단말에서는 얻어진 제어정보를 바탕으로 상기 전송포맷 기억부(103)에서 기억하는 전송 구조에 관한 정보(어떤 AL의 정보를 사용하는지 나타내고 있음)를 다시 기입함으로써 송신측에서 사용하는 AL의 정보(데이터 관리정보)의 재조합이 가능하게 된다(도 16 참조). Since the information of the above-described AL can be transmitted only as necessary, it is effective because the amount of information to be transmitted can be controlled in a narrow area communication channel such as an analog telephone line. In the realization method, data management information added to the data itself by the transmitting terminal is determined in advance before data transmission, and the data management information used for the receiving terminal is notified as control information (for example, using only a random access flag). On the receiving terminal, the information on the AL used by the transmitting side is rewritten by rewriting information (showing what AL information is used) on the transmission structure stored in the transmission format storage section 103 based on the obtained control information. (Data management information) can be recombined (see FIG. 16).

도 4는 송신해야 할 화상이나 음성 데이터에 부가하는 헤더정보의 동적인 변경방법에 대하여 설명하는 도면이다. 도면의 예에서는 전송해야 할 데이터(ES)를 데이터 조각으로 분해하여, 얻어진 데이터 조각에 데이터의 순서관계를 나타내기 위한 식별정보(시퀀스 번호)와, 데이터 조각을 처리할 수 있는 개시 위치인지의 여부를 나타내는 정보(마커 비트)와, 데이터 조각의 전송에 관한 시간정보(타임 스탬프)를 본 발명의 전송 관리정보에 대응하는 것으로 하여 통신 헤더의 형태로 데이터조각에 부가하고 있다. 4 is a diagram for explaining a dynamic change method of header information added to image or audio data to be transmitted. In the example of the figure, the data ES to be transmitted is decomposed into data pieces, and the identification information (sequence number) for indicating the order of data in the obtained data pieces and whether the data pieces are a starting position can be processed. Information (marker bits) and time information (time stamp) relating to the transmission of the data pieces are added to the data pieces in the form of communication headers as corresponding to the transmission management information of the present invention.

구체적인 예로서는 RTP(Realtime Transfer Protocol, RFC1889)에서는 상기의 시퀀스 번호, 마커 비트, 타임 스탬프, 오브젝트 ID(SSRC라 함), 버전 번호 등의 정보를 통신 헤더로서 사용하고 있다. 헤더 정보 항목의 확장은 가능하지만 상기 항목은 고정 항목으로서 반드시 부가된다. 그러나 복수의 다른 부호화 화상이나 음성을 복수, 동시에 전송하는 통신환경에서, TV 전화와 같이 리얼타임 통신과 비디오 온 디맨드와 같이 축적 미디어의 전송이 혼재하는 경우, 통신 헤더가 갖는 이유가 달라 식별하는 수단이 필요하다. As a specific example, RTP (Realtime Transfer Protocol, RFC1889) uses information such as the sequence number, marker bit, time stamp, object ID (SSRC), version number, and the like as the communication header. Extension of the header information item is possible, but the item is necessarily added as a fixed item. However, in a communication environment in which a plurality of different coded images and / or voices are transmitted simultaneously and simultaneously, when transmission of storage media such as real-time communication and video on demand, such as a TV telephone, is mixed, a means for identifying the communication header is different. This is necessary.

예를 들면 타임 스탬프의 정보는 MPEG1/2의 경우는 상술한 바와 같이 재생시각인 PTS를 나타내지만 H. 261이나 H. 263에서는 인코드된 시간 간격을 나타낸다. 그러나 H. 263을 음성과 동기를 취하여 처리하고 싶은 경우, 타임 스탬프가 PTS의 정보인 것을 나타낼 필요가 있다. 왜냐하면 H. 263의 경우, 타임 스탬프의 정보는 인코드된 프레임간의 시간 간격을 나타내는 것으로서, 1장째의 프레임의 타임 스탬프는 랜덤하다고 RTP로 정의되어 있기 때문이다. For example, the time stamp information indicates the PTS which is the playback time as described above in the case of MPEG 1/2, but the encoded time interval in H. 261 or H. 263. However, if the H. 263 is to be synchronized with audio and processed, it is necessary to indicate that the time stamp is information of the PTS. This is because, in H.263, the time stamp information represents the time interval between encoded frames, and the time stamp of the first frame is defined as RTP.

따라서 (a) 타임 스탬프가 PTS 인지의 여부를 나타내는 플래그를 통신 헤더정보(통신 헤더의 확장이 필요하게 됨) 혹은 (b) H. 263나 H. 261의 페이로드의 헤더정보(요컨대, AL 정보)로서 부가할 필요가 있다(이 경우, 페이로드 정보의 확장이 필요하게 됨). Therefore, either (a) the flag indicating whether or not the time stamp is PTS is set to the communication header information (necessary extension of the communication header) or (b) the header information of the payload of H.263 or H.261 (ie, AL information). ) (In this case, expansion of payload information is necessary).

RTP의 헤더정보로서, 데이터 조각을 처리할 수 있는 개시 위치인지의 여부를 나타내는 정보인 마커 비트가 부가되어 있지만, AL 정보로서도 상술한 바와 같이 데이터에 대하여 액세스할 수 있는 개시 시점인 것을 나타내는 액세스 플래그, 랜덤하게 데이터에 대하여 액세스할 수 있는 것을 나타내는 랜덤 액세스 플래그를 갖게 하고 싶은 경우가 있다. 중복하여, 통신 헤더에 갖게 하는 것은 비효율적이므로 AL의 플래그를 통신 헤더로 준비하고 있는 플래그로 대용시키는 방법도 고려된다.As the header information of the RTP, a marker bit, which is information indicating whether or not the data fragment can be processed, is added, but an access flag indicating that the AL information is a start time at which data can be accessed as described above. In some cases, it may be desirable to have a random access flag indicating that data can be randomly accessed. Since it is inefficient to have a duplicate in the communication header, a method of substituting an AL flag with a flag prepared in the communication header is also considered.

(c) AL에 플래그를 부가하지 않고 통신 헤더에 부가하고 있는 헤더로 AL의 플래그를 대용시키는 것을 나타내는 플래그를 통신 헤더에 새로 설치하거나, 통신 헤더의 마커 비트는 AL의 것과 같다고 정의함으로써 문제는 해결된다(AL에 갖게 하는 것보다 해석이 빨리 되는 것을 기대할 수 있다). 요컨대 마커 비트가 AL의 플래그와 같은 의미를 갖는지의 여부를 나타내는 플래그이다. 이 경우, 통신 헤더의 개량 혹은 확장영역에 기술하는 것이 고려된다. (c) The problem is solved by newly installing a flag in the communication header indicating that the AL flag is substituted with the header added to the communication header without adding the flag to the AL, or by defining that the marker bit of the communication header is the same as that of the AL. (You can expect faster interpretation than letting AL). In other words, it is a flag indicating whether or not the marker bit has the same meaning as the flag of AL. In this case, it is considered to describe the improvement or extension area of the communication header.

반대로, (d) 통신 헤더의 마커 비트의 의미를 AL에 적어도 랜덤 액세스 플래그 혹은 액세스 플래그 중 어느 것이 존재하는지를 의미하도록 해석하도록 해도 된다. 이 경우 종래와는 해석의 의미가 변한 것을 알려면 통신 헤더의 버전 번호로 대응할 수 있다. 이 이외에 단순한 방법으로서는 통신 헤더 혹은 AL의 헤더에만 액세스 플래그나 랜덤 액세스 플래그를 설치하면 처리는 간단하다(전자의 경우, 플래그를 양쪽 모두 설치하는 경우도 고려할 수 있지만, 통신 헤더의 새로운 확장이 필요하게 된다). Conversely, (d) the meaning of the marker bit in the communication header may be interpreted to mean that at least one of a random access flag or an access flag exists in AL. In this case, in order to know that the meaning of the analysis has changed from the conventional one, it can correspond to the version number of the communication header. In addition, if the access flag or the random access flag is provided only in the communication header or the AL header, the processing is simple. (In the former case, it is possible to install both flags, but the new extension of the communication header is necessary. do).

데이터 처리의 우선도를 나타내는 정보를 AL의 정보로서 부가하는 것은 설명하였지만, 통신 헤더에 데이터의 처리 우선도를 부가함으로써 데이터 처리의 우선도 처리의 판정이 네트워크 상에 있어도 데이터의 내용을 해석하지 않고 행하는 것이 가능해진다. 또 IPv6의 경우, RTP의 레벨보다 하위의 레이어로 부가하는 것이 가능하다. Although adding information indicating the priority of data processing as information of AL has been described, adding the processing priority of the data to the communication header does not interpret the contents of the data even when the determination of the priority processing of the data is on the network. Can be done. In the case of IPv6, it is possible to add to a layer lower than the level of RTP.

RTP의 통신 헤더에 데이터 처리의 유효기간을 나타내기 위한 타이머 혹은 카운터를 부가함으로써, 전송되는 패킷의 어느 상태 변화가 어떻게 변화하고 있는지를 판단할 수 있다. 예를 들면 필요하게 되는 디코더 소프트웨어가 액세스 속도가 느린 기억장치에 기억되어 있는 경우, 디코더가 필요하게 된다는 정보와, 타이머나 카운터에 의해 어느 시점에서 필요하게 되는지 판단하는 것이 가능하게 된다. 이 경우, 용도에 따라서는 AL 정보에 타이머나 카운터, 데이터 처리의 우선도의 정보는 불필요하다. By adding a timer or counter for indicating the valid period of data processing to the communication header of the RTP, it is possible to determine how any state change of the transmitted packet is changing. For example, when the necessary decoder software is stored in a storage device having a slow access speed, it is possible to determine at what point the information is needed by the decoder and a timer or counter. In this case, depending on the application, timer, counter, and data processing priority information are not necessary in AL information.

도 5a∼도 5b, 도 6a∼도 6d는 AL 정보의 부가방법에 대하여 설명하는 도면이다. 5A to 5B and Figs. 6A to 6D are diagrams for explaining a method of adding AL information.

도 5a에 도시된 바와 같이 AL을 전송해야 할 데이터의 선두에만 부가할 것인지 혹은 도 5b에 도시된 바와 같이 전송해야 할 데이터(ES)를 1개 이상의 데이터 조각으로 분해한 후 데이터 조각의 각각에 부가할 것인지를 통지하는 제어정보를 수신단말로 송부함으로써, 전송정보의 취급 그레이딩을 선택할 수 있도록 하는 것이 가능하게 된다. AL을 세분화된 데이터에 대하여 붙임으로써 액세스 지연이 문제가 되는 경우에는 유효하다. As shown in FIG. 5A, AL is added only to the head of data to be transmitted, or as shown in FIG. 5B, data ES to be transmitted is decomposed into one or more pieces of data, and then added to each of the pieces of data. By sending control information notifying whether or not to transmit to the receiving terminal, it becomes possible to select a handling grade of the transmission information. Attaching AL to granular data is useful when access delays are a problem.

상술한 바와 같이 수신측에서의 데이터 관리정보의 재편성이나 데이터 관리정보를 데이터로 배치하는 방법이 변경되는 것을 미리 수신측 단말에 통지하기 위해 플래그, 카운터, 타이머와 같은 표현방법을 이용하여 AL 정보로서 준비하거나, 통신 헤더로서 준비하여 수신단말에 통지함으로써 수신단말이 원활하게 대응된다. As described above, in order to notify the receiving terminal in advance of the reorganization of the data management information on the receiving side or the method of arranging the data management information with the data, it is prepared as AL information by using an expression method such as a flag, a counter, a timer, or the like. The reception terminal responds smoothly by preparing it as a communication header and notifying the reception terminal.

지금까지의 예에서는 RTP의 헤더(또는 통신 헤더)와 AL 정보의 중복을 피하는 방법이나, RTP의 통신 헤더나 AL 정보를 확장하는 방법에 대하여 설명하였다. 그러나 본 발명은 반드시 RTP일 필요는 없다. 예를 들면 UDP나 TCP를 사용하여 독자적인 통신 헤더나 AL 정보를 새롭게 정의해도 된다. 인터넷 프로파일에서는 RTP를 사용하는 일은 있지만, Raw 프로파일에서는 RTP와 같은 다기능 헤더는 정의되어 있지 않다. AL 정보와 통신 헤더에 관한 관점으로는 다음 4가지가 있다.(도 6a∼도 6d 참조). In the above examples, a method of avoiding duplication of the RTP header (or communication header) and AL information, and a method of extending the RTP communication header or AL information has been described. However, the present invention does not necessarily need to be RTP. For example, unique communication headers or AL information may be newly defined using UDP or TCP. The Internet profile uses RTP, but the raw profile does not define a multifunctional header like RTP. There are four aspects of the AL information and the communication header (see Figs. 6A to 6D).

(1) RTP와 AL에서, 이미 할당되어 있는 헤더정보가 중복되지 않도록 RTP의 헤더정보 혹은 AL 정보를 수정, 확장한다(특히 타임 스탬프의 정보가 중복, 타이머나 카운터, 데이터의 처리 우선도 정보가 확장정보가 된다). 혹은 RTP의 헤더도 확장하지 않고, AL 정보도 RTP의 것과 중복되어 있어도 고려하지 않는 방법이라도 된다. 이들에 관해서는 지금까지 나타낸 내용에 상당한다. RTP는 이미 일부의 H. 323에서 실용화되고 있으므로 호환성을 유지한 RTP의 확장은 유효하다(도 6a 참조).(1) In RTP and AL, RTP header information or AL information is corrected and extended so that the already allocated header information is not duplicated. (In particular, time stamp information is duplicated, timers, counters and data processing priority information are Extended information). Alternatively, even if the header of the RTP is not extended and the AL information overlaps with that of the RTP, the method may not be considered. These correspond to the contents shown so far. Since RTP has already been put to practical use in some H. 323, the extension of RTP that maintains compatibility is valid (see Fig. 6A).

(2) RTP에 구애받지 않고 통신 헤더를 간략하게 하고(예를 들면, 시퀀스 번호만으로 한다거나), 나머지를 AL 정보에 다기능 제어정보로서 갖게 한다. 또한 AL 정보로 사용하는 항목을 통신 전에 가변으로 설정할 수 있도록 함으로써 유연한 전송 포맷이 규정된다.(도 6b 참조)(2) The communication header is simplified (for example, only a sequence number) irrespective of RTP, and the rest of the AL information is provided as multifunctional control information. In addition, a flexible transmission format is defined by allowing the item used as AL information to be set variable before communication (see Fig. 6B).

(3) RTP에 구애받지 않고 AL 정보를 간략하게 하여(극단적인 예로는, AL에는 정보를 부가하지 않음) 통신 헤더에 모든 제어정보를 갖게 한다. 통신 헤더로서 빈번히 자주 참조될 수 있는 시퀀스 번호, 타임 스탬프, 마커 비트, 페이로드 타입, 오브젝트 ID에 관해서는 고정의 헤더 정보로서 두고, 데이터 처리의 우선도 정보, 타이머 정보에 관해서는 확장정보로서 확장정보가 존재하는지의 여부를 나타내는 식별자를 설치해 두고, 확장정보가 정의되어 있으면 참조하도록 해도 된다. (도 6c 참조)(3) The AL information is simplified regardless of RTP (in the extreme example, no information is added to the AL) so that all control information is included in the communication header. Sequence numbers, time stamps, marker bits, payload types, and object IDs, which can be frequently referred to frequently as communication headers, are set as fixed header information and extended as extension information for data processing priority information and timer information. An identifier indicating whether or not information is provided may be provided, and reference may be made if extended information is defined. (See Figure 6c)

(4) RTP에 구애받지 않고 통신 헤더, AL 정보를 간략하게 하여 이들 통신 헤더나 AL 정보와는 다른 패킷으로서 포맷을 정의하여 전송한다. 예를 들면 AL 정보는 마커 비트, 타임 스탬프, 오브젝트 ID만 정의하고, 통신 헤더도 시퀀스 번호만을 정의하여 이들의 정보와는 다른 전송 패킷(제 2 패킷)으로서 페이로드 정보, 데이터 처리의 우선도 정보, 타이머 정보 등을 정의하여 전송하는 방법도 고려된다(도 6d 참조).(4) Irrespective of the RTP, the communication header and the AL information are simplified and the format is defined and transmitted as a packet different from the communication header and the AL information. For example, the AL information defines only marker bits, time stamps, and object IDs, and communication headers also define only sequence numbers, which are payload information and priority information for data processing as transfer packets (second packets) different from their information. Also, a method of defining and transmitting timer information and the like is also considered (see FIG. 6D).

상기 나타낸 바와 같이, 용도나 이미 화상이나 음성에 부가되어 있는 헤더 정보를 고려하면 용도에 맞추어 통신 헤더, AL 정보, 데이터와는 별도로 전송하는 패킷(제 2 패킷)을 자유롭게 정의할 수 있도록(커스터마이즈되도록) 하는 것이 바람직하다. As shown above, considering the purpose or the header information already added to the image or audio, the communication header, the AL information, and the packet (second packet) to be transmitted separately from the data can be freely defined (customized) according to the use. Is preferred.

도 7은 복수의 논리적인 전송로를 동적으로 다중화, 분리하여 정보를 전송하는 방법에 대하여 설명하는 도면이다. 논리적인 전송로의 수를 절약하기 위해 이용자의 지시 혹은 논리적인 전송로의 수에 따라 복수의 데이터 혹은 제어정보를 전송하기 위한 논리적인 전송로의 정보 다중화를 개시하거나, 종료시키는 것이 가능한 정보 다중부를 전송부에, 다중화된 정보를 분리하는 정보 분리부를 수신관리부에 설치함으로써 실현된다. FIG. 7 illustrates a method of transmitting information by dynamically multiplexing and separating a plurality of logical transmission paths. In order to save the number of logical transmission paths, an information multiplexing unit capable of initiating or terminating information multiplexing on logical transmission paths for transmitting a plurality of data or control information according to a user's instruction or the number of logical transmission paths is provided. It is realized by providing an information separating section for separating the multiplexed information in the transmitting section.

또 도 7에서는 정보 다중부를 “그룹 MUX”라 부르고 있고, 구체적으로는 H. 223과 같은 다중화방식을 이용하면 된다. 이 그룹 MUX는 송수신 단말에 설치해도 되고, 중계의 라우터나 단말에 설치함으로써 좁은 지역으로의 통신로에 대한 대응이나 그룹 MUX를 H. 223으로 실현하면 H. 324와 상호 접속된다. In FIG. 7, the information multiplex is called a "group MUX". Specifically, a multiplexing method such as H.223 can be used. This group MUX may be installed in a transmitting / receiving terminal. The group MUX may be installed in a router or terminal of a relay to interconnect a communication path to a small area, and if the group MUX is realized in H.223, the group MUX is interconnected with H.324.

정보 다중부에 관한 제어정보(다중화 제어정보)를 민첩하게 인출하기 위해 정보 다중부의 제어정보를 정보 다중부에서 데이터와 다중화하여 송신하는 것은 아니고, 다중화하지 않고 다른 논리적인 전송로로 전송함으로써 다중화에 의한 지연을 저감할 수 있다. 이에 따라 정보 다중부에 관한 제어정보를 데이터와 다중화하여 전송할 것인지, 데이터와 다중화하여 송신하는 것은 아니고 다중화하지 않고 다른 논리적인 전송로로 전송할 것인지를 통지하여 전송함으로써 종래의 다중화와 정합성을 유지시키거나, 다중화에 의한 지연을 저감시킬 것인지를 이용자가 선택할 수 있게 된다. 여기에서 정보다중부에 관한 다중화 제어정보란, 예를 들면 정보다중부가 각 데이터에 대하여 어떠한 다중화를 행하고 있는가라는 다중화의 내용을 나타내는 정보이다. In order to withdraw the control information (multiplexing control information) about the information multiplex with agility, the control information of the information multiplex is not transmitted by multiplexing with the data in the information multiplexing unit, but instead of being multiplexed. Delay due to this can be reduced. Accordingly, the control information regarding the information multiplexing unit is transmitted by notifying the data multiplexed with the data or not by multiplexing the data and transmitting the data through another logical transmission path instead of multiplexing with the data to maintain the conventional multiplexing and consistency. Therefore, the user can select whether to reduce the delay caused by the multiplexing. Here, the multiplexing control information relating to the information multiplexing section is information indicating the content of multiplexing, for example, what multiplexing is performed on each piece of data.

상술한 바와 같이, 적어도 다중화의 개시와 종료를 통지하는 정보, 다중화해야 할 논리적인 전송로의 조합을 통지하기 위한 정보, 다중화에 관한 제어정보(다중화 제어정보)의 전송방법의 통지를 플래그, 카운터, 타이머와 같은 표현방법으로, 제어정보로서 전송 혹은 데이터 관리정보로서 데이터와 함께 수신측 단말에 전송함으로써 수신측에서의 셋업시간을 단축할 수 있다. 또 상술한 바와 같이 플래그, 카운터, 타이머를 표현하는 항목은 RTP의 송신 헤더에 설치해도 된다. As described above, at least the information for notifying the start and end of the multiplexing, the information for notifying the combination of logical transmission paths to be multiplexed, the flag for notifying the method of transmitting the control information (multiplexing control information) relating to the multiplexing, the counter By using an expression method such as a timer, the setup time can be shortened at the receiving side by transmitting as control information or transmitting data as data management information to the receiving terminal. As described above, items representing flags, counters, and timers may be provided in the transmission header of the RTP.

복수개의 정보 다중부나 정보 분리부가 존재하는 경우, 정보 다중부나 정보 분리부를 식별하기 위한 식별자와 함께 제어정보(다중화 제어정보)를 전송하면 어떤 정보다중부에 관한 제어정보(다중화 제어정보)인지를 식별할 수 있다. 제어정보(다중화 제어정보)로서는 다중화의 패턴 등을 들 수 있다. 또한 정보다중부나 정보분리부의 식별자를 난수를 이용하여 단말간에서 결정함으로써 정보다중부의 식별자를 생성할 수 있다. 예를 들면 송수신 단말간에서 정해진 범위에서의 난수를 발생시키고 큰 쪽의 값을 정보다중부의 식별자(식별번호)로 하면 된다.In the case where a plurality of information multiplexing units or information separating units exist, transmission of control information (multiplexing control information) together with an identifier for identifying the information multiplexing unit or information separating unit identifies which control information (multiplexing control information) regarding the information multiplexing unit. can do. Examples of the control information (multiplexing control information) include a multiplexing pattern and the like. In addition, the identifier of the information multiplexing unit or the information separating unit can be generated by determining the identifier between the terminals using random numbers. For example, it is sufficient to generate a random number in a predetermined range between the transmitting and receiving terminals and to use the larger value as the identifier (identification number) of the information multiple part.

정보다중부에서 다중화된 데이터는 종래 RTP에서 정의되어 있는 미디어 타입과는 다르기 때문에, RTP의 페이로드 타입에 정보다중부에서 다중화된 정보인 것을 나타내는 정보(새로운 미디어 타입, H. 223을 정의)를 정의하면 된다.Since the data multiplexed in the information multiplex is different from the media types defined in the conventional RTP, the information indicating the multiplexed information in the information multiplex (new media type, H. 223) is defined in the payload type of the RTP. Just define it.

다중화된 데이터에 대한 액세스 속도를 향상시키는 방법으로서, 정보다중부에서 전송 또는 기록하는 정보를 제어정보, 데이터 정보의 순으로 배치함으로써 다중화된 정보가 빨리 해석되는 것을 기대할 수 있다. 또한 제어정보에 부가하는 데이터 관리정보로 기술하는 항목은 고정으로 하고, 데이터와는 다른 식별자(유니크한 패턴)를 부가하여 다중화함으로써 헤더정보를 빠르게 해석할 수 있다. As a method of improving the access speed to the multiplexed data, it is expected that the multiplexed information can be interpreted quickly by arranging information transmitted or recorded from the information multiplexes in the order of control information and data information. In addition, the item described by the data management information added to the control information is fixed, and header information can be quickly interpreted by adding and multiplexing an identifier (unique pattern) different from the data.

도 8은 방송 프로그램의 전송순서에 대하여 설명하기 위한 도면이다. 논리적인 전송로의 식별자와 방송 프로그램 식별자의 대응관계를 방송 프로그램의 정보로서 제어정보를 전송하는지, 방송 프로그램의 식별자를 데이터 관리정보(AL 정보)로서 데이터에 부가하여 전송함으로써 복수의 전송로에서 전송되는 데이터가 어떤 프로그램을 위해 방송되고 있는지를 식별할 수 있게 된다. 또한 데이터의 식별자(RTP에서는 SSRC)와 논리적인 전송로의 식별자(예를 들면 LAN의 포트 번호)와의 관계를 제어정보로서 수신측단말에 전송하고, 수신측 단말에서는 수신 가능한 것을 확인한 후(확인/거부), 대응하는 데이터를 전송함으로써 제어정보와 데이터를 독립된 전송로로 전송하더라도 데이터간의 대응관계가 유지된다.8 is a diagram for explaining a transmission procedure of a broadcast program. The control information is transmitted as the information of the broadcast program by the correspondence between the logical transmission path identifier and the broadcast program identifier, or the broadcast program identifier is transmitted in addition to the data as data management information (AL information) and transmitted in the plurality of transmission paths. It is possible to identify which program is being broadcasted for. In addition, the relationship between the data identifier (SSRC in RTP) and the logical transmission line identifier (for example, LAN port number) is transmitted as control information to the receiving terminal, and the receiving terminal confirms that it can be received (confirmation / Rejection), even if the control information and the data is transmitted to an independent transmission path by transmitting the corresponding data, the correspondence between the data is maintained.

방송 프로그램이나 데이터에 대하여 전송의 순서 관계를 나타내는 식별자와, 방송 프로그램이나 데이터가 정보로서 이용되는 유효기한을 나타내기 위한 카운터 혹은 타이머의 정보를 조합시켜 방송 프로그램이나 데이터에 부가하여 전송함으로써 복귀채널 없이 방송이 실현된다(유효기한이 경과할 듯이 되면 부족한 정보가 있어도 방송 프로그램 정보나 데이터의 재생을 개시함). 단일 통신 포트의 어드레스(멀티캐스트 어드레스)를 사용하여 제어정보와 데이터로 분리하지 않고 방송하는 방법도 고려된다.By combining the identifier indicating the order of transmission of the broadcast program or data with the information of the counter or timer indicating the expiration date when the broadcast program or data is used as the information, it is transmitted in addition to the broadcast program or the data and without a return channel. Broadcasting is realized (if the expiration date has passed, even if there is insufficient information, broadcasting program information and data reproduction are started). Also considered is a method of broadcasting without separating into control information and data using an address (multicast address) of a single communication port.

또 백 채널을 갖지 않는 통신의 경우, 데이터의 구조정보를 수신단말을 알 수 있도록 제어정보는 데이터보다도 충분히 미리 전송해 둘 필요가 있다. 또한 제어정보는 일반적으로는 패킷 손실이 없는 신뢰성이 높은 전송 채널로 전송해야 하지만, 신뢰성이 낮은 전송 채널을 이용하는 경우는 주기적으로 같은 전송 시퀀스 번호를 가진 제어정보를 반복 전송할 필요가 있다. 이것은 셋업시간에 관한 제어정보를 보내는 경우에 한정된 이야기는 아니다.In the case of the communication without the back channel, the control information must be transmitted sufficiently in advance of the data so that the receiving terminal can know the structure information of the data. In addition, control information should generally be transmitted in a reliable transmission channel without packet loss. However, in the case of using a low reliability transmission channel, it is necessary to periodically transmit control information having the same transmission sequence number. This is not limited to sending control information about setup time.

또 데이터 관리정보로서 부가 가능한 항목(예를 들면, 액세스 플래그, 랜덤 액세스 플래그, 데이터의 재생시각(PTS), 데이터 처리의 우선도 정보 등)을 선택하여, 제어정보로서 데이터의 식별자(SSRC)와 함께 데이터와는 다른 논리적인 전송로로 전송할 것인지, 데이터와 함께 데이터 관리정보(AL 정보)로서 전송할 것인지를 데이터 송신전에 송신측에서 결정하여 수신측에 제어정보로서 통지하여 전송함으로써 유연한 데이터 관리와 전송이 가능해진다. Also, an item (for example, an access flag, a random access flag, a data reproduction time (PTS), data processing priority information, etc.) that can be added as data management information is selected, and the data identifier (SSRC) and the control information are used as control information. Flexible data management and transmission by determining whether the data is transmitted in a logical transmission path different from the data together or as data management information (AL information) together with the data before sending the data by notifying the receiving side as control information. This becomes possible.

이에 따라 AL에는 정보를 부가하지 않고 데이터 정보를 전송할 수 있으므로, RTP를 이용하여 화상이나 음성 데이터를 전송할 때 종래부터 정의되어 있는 페이로드의 정의를 확장할 필요가 없어진다. As a result, since data information can be transmitted to the AL without adding information, there is no need to extend the definition of a conventionally defined payload when transmitting image or audio data using RTP.

도 9a∼도 9b는 프로그램이나 데이터의 판독, 상승시간을 고려한 화상이나 음성의 전송방법을 도시한 도면이다. 특히 위성방송이나 휴대단말과 같이 복귀채널이 없이 한방향으로, 단말의 자원이 한정되어 있는 경우에 프로그램이나 데이터가 수신측 단말에 존재하여 이용하는 경우, 필요하게 되는 프로그램(예를 들면 H. 263, MPEG1/2, 음성 디코더의 소프트웨어 등)이나 데이터(예를 들면, 화상 데이터나 음성 데이터)가 판독에 시간이 걸리는 기억장치(예를 들면, DVD, 하드디스크, 네트워크 상의 파일 서버 등)에 존재하는 경우에 미리 필요하게 되는 프로그램이나 데이터를 식별하는 식별자와, 전송되는 스트림의 식별자(예를 들면 SSRC나, Logica1 Channel Number), 수신단말에서 필요하게 되는 시점을 추정하기 위한 플래그, 카운터(카운트 업, 다운), 타이머와 같은 표현방법으로 제어정보로서 수신, 혹은 데이터 관리정보로서 데이터와 함께 수신함으로써 필요하게 되는 프로그램이나 데이터의 셋업시간을 단축할 수 있게 된다(도 18). 9A to 9B are diagrams showing a method of transmitting an image or an audio in consideration of a read time and a rise time of a program or data. In particular, when a program or data exists and is used in a receiving terminal when the resource of a terminal is limited in one direction without a return channel such as satellite broadcasting or a mobile terminal, a program (for example, H. 263, MPEG1) is used. / 2, software of an audio decoder, etc.) or data (e.g., image data or audio data) exist in a storage device (e.g., DVD, hard disk, file server on a network, etc.) that takes time to read. An identifier for identifying a program or data required in advance, an identifier of a stream to be transmitted (e.g., SSRC or Logica1 Channel Number), a flag for estimating the time required by the receiving terminal, and a counter (count up and down). , Which is required by receiving as control information or with data as data management information in an expression method such as a timer. It is possible to shorten the set-up time of the RAM and the data (Fig. 18).

한편 프로그램이나 데이터가 송신되는 경우, 프로그램이나 데이터의 수신단말에서의 기억장소(예를 들면, 하드디스크, 메모리), 기동이나 판독에 걸리는 시간, 단말의 종류나 기억장소와 기동이나 판독에 걸리는 시간의 대응관계(예를 들면, CPU 파워, 기억 디바이스와 평균적인 응답시간의 관계), 이용순서를 나타내는 정보와 함께 프로그램이나 데이터를 송신측으로부터 전송함으로써 수신측 단말에서 필요하게 되는 프로그램이나 데이터를 실제로 필요로 하게 되는 경우, 프로그램이나 데이터의 기억장소나 판독시간에 관하여 스케쥴링이 가능해진다. On the other hand, when a program or data is transmitted, the storage location (e.g., hard disk, memory) at the receiving terminal of the program or data, the time taken for starting or reading, the type of terminal or the storage place and the time taken for starting or reading Program or data required by the receiving terminal by transmitting the program or data from the transmitting side together with information indicating the corresponding relationship (e.g., CPU power, storage device and average response time) and usage order. If necessary, scheduling can be performed regarding the storage location or reading time of a program or data.

도 1Oa∼제 10b는 소거(TV의 채널 전환)에 대한 대응방법에 대하여 설명하는 도면이다. 10A to 10B are diagrams for explaining a corresponding method for erasing (channel switching of TV).

종래부터 있는 영상을 수신할 뿐인 위성방송과 달리 프로그램을 수신단말에서 실행해야 할 때 프로그램의 판독이나 상승까지의 셋업시간이 큰 문제점이 된다. 이것은 휴대단말과 같이 이용 자원이 한정되는 경우라도 같다고 할 수 있다. Unlike satellite broadcasting, which only receives images in the related art, when a program must be executed at a receiving terminal, a setup time until reading or rising of the program becomes a big problem. This can be said to be the same even when the resource used is limited, such as a mobile terminal.

해결책의 하나로서 a 이용자가 시청하기 위한 주시청부와, 이용자가 시청하고 있는 이외의 프로그램에서, 필요하게 되는 프로그램이나 데이터가 판독에 시간이 걸리는 기억장치에 존재하는 경우에, 이용자가 시청하고 있는 프로그램 이외의 프로그램을 수신단말이 주기적으로 시청하는 부시청부를 구비하여 미리 필요하게 되는 프로그램이나 데이터를 식별하는 식별자와, 수신단말에서 필요하게 되는 시점을 추정하기 위한 플래그, 카운터, 타이머라는 정보와, 프로그램과의 대응관계를 제어정보(데이터와는 다른 패킷으로 전송되는, 단말처리를 제어하기 위한 정보)로서 수신 혹은 데이터 관리정보(AL 정보)로서 데이터와 함께 수신하여 프로그램이나 데이터의 판독을 준비해 둠으로써 수신측 단말에서의 셋업시간이 단축되는 것을 기대할 수 있다. As a solution, a watching program for the user to watch, and a program that the user is watching when the program or data required by the program other than the user is watching exist in a storage device that takes time to read. A bushing unit which periodically checks for other programs by the receiving terminal, an identifier for identifying a program or data that is necessary in advance, information such as flags, counters, and timers for estimating the time required for the receiving terminal, Receive the correspondence between the data as control information (information for controlling the terminal processing, which is transmitted in a packet different from the data), or as data management information (AL information) and preparing the program or data to be read. The setup time at the side terminal can be expected to be shortened.

두 번째 해결책으로서는, 복수개의 채널로 방송되는 화상의 표제 화상만을 방송하는 방송 채널을 설치하고, 시청자가 시청 프로그램을 전환함으로써 필요하게 되는 프로그램이나 데이터가 판독에 시간이 걸리는 기억장치에 존재한 경우, 일단 시청하고 싶은 프로그램의 표제 화상을 선택하여 시청자에게 제시하거나, 판독중인 것을 제시하는 것과 함께, 기억장치로부터 필요하게 되는 프로그램이나 데이터를 판독하여, 판독 종료후 시청자가 시청하고 싶은 프로그램을 재개함으로써 셋업시에 발생하는 화면의 정지를 방지할 수 있다. 여기에서 말하는 표제 화상은 주기적으로 복수개의 채널로 방송되는 프로그램을 샘플링한 방송화상을 가리킨다. As a second solution, in the case where a broadcasting channel for broadcasting only a title image of an image broadcast in a plurality of channels is provided, and a program or data required by a viewer to switch viewing programs exists in a storage device that takes time to read, Select the title image of the program that you want to watch once and present it to the viewer, or present what is being read, and set up by reading the program or data required from the storage device and restarting the program that the viewer wants to watch after the reading ends. It is possible to prevent the freezing of the screen occurring at the time. The title image referred to here refers to a broadcast image obtained by sampling a program broadcast on a plurality of channels periodically.

또한 타이머는 시간표현으로, 예를 들면 송신측으로부터 보내오는 데이터 스트림을 디코드하는 데 필요한 프로그램은 현재로부터 어느 시점에서 필요하게 되는지를 나타낸다. 카운터는 송신단말간에서 정한 기본 시간단위로, 몇회째인지를 나타내는 정보면 된다. 플래그는 셋업에 필요한 시간 전에 송출하는 데이터 혹은 제어정보(데이터와는 다른 패킷으로 전송되는, 단말처리를 제어하는 정보)와 함께 전송하여 통지한다. 타이머, 카운터 모두 데이터 내에 매립하여 전송해도 되고 제어정보로서 전송해도 된다.In addition, the timer is a time expression, for example, indicating at what point in time the program required to decode the data stream sent from the transmitting side is needed. The counter is a basic time unit determined between transmitting terminals, and may be information indicating how many times. The flag is transmitted and notified with the data or control information (information for controlling the terminal processing transmitted in a packet different from the data) transmitted before the time required for setup. Both the timer and the counter may be embedded in the data and transmitted, or may be transmitted as control information.

또한 셋업시간의 결정방법으로서는, 예를 들면 클록 베이스로 동작하고 있는 ISDN과 같은 전송로를 이용한 경우, 송신측 단말로부터 수신단말에서 프로그램이나 데이터가 필요하게 되는 시점을 통지하기 위해 전송 관리정보로서 전송의 순서관계를 식별하기 위한 송신 시리얼 번호를 이용하여 데이터 관리정보로서 데이터와 함께 혹은 제어정보로서 수신단말에 통지함으로써 셋업이 행해지는 시각을 예측할 수 있게 된다. 또한 인터넷과 같이 지터나 지연에 의해 전송시간이 변동하는 경우는 RTCP(인터넷의 미디어 전송 프로토콜)에서 이미 실현되고 있는 수단으로, 지터(jitter)나 지연시간으로부터 전송의 전파(傳播) 지연을 가미하여 셋업시간에 부가해 두면 된다. As a method of determining the setup time, for example, when a transmission path such as an ISDN operating on a clock base is used, the transmission is transmitted as transmission management information in order to notify the receiving terminal when a program or data is needed at the receiving terminal. By using the transmission serial number for identifying the order relationship of the data, the time when the setup is performed can be predicted by notifying the receiving terminal together with the data as the data management information or as the control information. In addition, when the transmission time fluctuates due to jitter or delay, such as the Internet, RTCP (medium transmission protocol of the Internet) is a means already realized, and it adds a propagation delay of transmission from jitter or delay time. This is in addition to the setup time.

도 11a부터 도 19b는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.11A to 19B are diagrams illustrating specific examples of protocols that are actually transmitted and received between terminals.

전송 포맷이나 전송수속은 ASN.1로 기술하였다. 또 본 전송 포맷은 ITU의 H. 245를 베이스로 확장하였다. 도 11a에도 도시되어 있는 바와 같이 화상이나 음성의 오브젝트는 계층구조를 이루고 있어도 되고, 여기의 예에서는 각 오브젝트 ID는 방송프로그램의 식별자(Program ID)와 오브젝트 ID(S SRC)의 속성을 갖고, 화상간의 구조정보, 합성방법은 Java, VRML이라는 스크립트 언어로 기술한다. The transmission format and the transmission procedure are described in ASN.1. In addition, this transmission format is extended based on H.245 of the ITU. As shown in Fig. 11A, the image and audio objects may have a hierarchical structure. In this example, each object ID has attributes of a program identifier (Program ID) and an object ID (S SRC). Structural information and composition method are described in script languages such as Java and VRML.

도 11a는 오브젝트간의 관계에 대한 예를 도시한 도면이다. 11A is a diagram illustrating an example of a relationship between objects.

도 11a에서 오브젝트는 영상, 음성, CG, 텍스트 등의 미디어이다. 도 11a의 예에서는 오브젝트는 계층구조를 이루고 있다. 각 오브젝트는 프로그램 번호(TV의 채널에 상당, “Program ID”)와 오브젝트를 식별하는 오브젝트 식별자“Object ID”를 갖는다. RTP(인터넷에서 이용되는 미디어 전송의 프로토콜, Realtime Transfer Protocol)로 각 오브젝트를 전송하는 경우는 오브젝트 식별자는 SSRC(동기 소스 식별자)에 대응시킴으로써 용이하게 오브젝트를 식별할 수 있다. 또 오브젝트간의 구조기술은 JAVA, VRML이라는 기술언어로 기술하는 것이 가능하다. In FIG. 11A, an object is media such as an image, an audio, a CG, and a text. In the example of FIG. 11A, the objects have a hierarchical structure. Each object has a program number (e.g., "Program ID" corresponding to the channel of the TV) and an object identifier "Object ID" for identifying the object. In case of transferring each object by RTP (Realtime Transfer Protocol), the object identifier can easily identify the object by corresponding to SSRC (synchronous source identifier). In addition, the structure description between objects can be described in the description languages JAVA and VRML.

이들 오브젝트의 전송방법은 2가지가 고려된다. 하나는 방송형으로, 송신측 단말로부터 일방적으로 전송하는 형태이다. 다른 하나는 송수신 단말간(단말 A, 단말 B)에서 오브젝트를 전송하는 형태(통신형)도 고려된다.Two methods of transmitting these objects are considered. One is a broadcast type, which is unidirectionally transmitted from a transmitting terminal. The other is also considered a form of transmitting an object (communication type) between the transmitting and receiving terminals (terminal A, terminal B).

예를 들면 전송방법으로서는 인터넷의 경우는 RTP을 이용할 수 있다. 제어정보는 TV 전화의 규격에는 LCNO라 불리우는 전송 채널을 이용하여 전송한다. 도 11a의 예에서는 전송에 복수의 전송 채널을 이용하고 있지만, 이들 채널은 동일한 프로그램 채널(Program ID)이 할당되어 있다. For example, as the transmission method, RTP can be used in the case of the Internet. Control information is transmitted using a transmission channel called LCNO in the standard of the telephone. In the example of Fig. 11A, a plurality of transmission channels are used for transmission, but these channels are assigned the same program channel (Program ID).

도 11b는 본 발명에서 설명한 기능을 실현하기 위한 프로토콜의 실현방법에 대하여 설명한 도면이다. 여기에서는 TV 전화의 규격(H. 324, H. 323)에서 이용되는 전송 프로토콜(H. 245)을 이용하여 설명하기로 한다. H. 245를 확장함으로써 본 발명에서 설명한 기능을 실현한다. 11B is a view for explaining a method for realizing a protocol for realizing the function described in the present invention. Here, the description will be made using the transmission protocol (H. 245) used in the standards of TV telephones (H. 324, H. 323). By extending H.245, the functions described in the present invention are realized.

도 11b의 예에서 나타낸 기술 방법은 ASN.1이라고 불리우는 프로토콜 기술방식이다. “Terminal Capability Set”는 단말의 성능을 표현한다. 도 11b의 예에서는 “mpeg4 Capability”라고 기재한 기능을 종래부터 있는 H. 245에 대하여 확장하고 있다. The description method shown in the example of FIG. 11B is a protocol description method called ASN.1. “Terminal Capability Set” expresses the capability of the terminal. In the example of FIG. 11B, the function described as "mpeg4 Capability" is extended with respect to the conventional H.245.

도 12에서는 “mpeg4 Capability”는 단말에서 동시에 처리할 수 있는 최대 영상의 수(“Max Number Of Video”), 최대 음성의 수(Max Number Of Sounds”), 단말에서 실현할 수 있는 최대 다중화 기능의 수(“Max Number Of Mux”)를 기록하고 있다. In FIG. 12, "mpeg4 Capability" means the maximum number of videos ("Max Number Of Video") that can be processed simultaneously by the terminal, the maximum number of sounds (Max Number Of Sounds), and the maximum number of multiplexing functions that can be realized by the terminal. (“Max Number Of Mux”) is recorded.

도 12에서는 이들을 정리하여, 처리할 수 있는 최대의 오브젝트수(“Number Of Process Object”)로서 표현하고 있다. 또한 통신 헤더(도 12에서는 AL이라 표현)의 변경이 가능한지를 기록하는 플래그가 기록되어 있다. 이 값이 참(True)일 때 통신 헤더의 변경이 가능하다. “MPEG4 Capability”를 이용하여 단말간에서 처리할 수 있는 오브젝트수를 서로 통지하는 경우에, 통지받은 쪽이 수리(처리) 가능하다면 “MEPG4 Capability Ack”를, 그렇지 않다면 “MEPG4 Capability Reject”를, “MEPG4 Capability”를 송신한 단말로 되돌린다. In Fig. 12, these are collectively expressed as the maximum number of objects ("Number Of Process Objects") that can be processed. In addition, a flag is recorded to record whether the communication header (represented by AL in FIG. 12) can be changed. When this value is true, the communication header can be changed. In case of notifying each other of the number of objects that can be processed between terminals using "MPEG4 Capability," "MEPG4 Capability Ack" if the notified party is repairable, otherwise "MEPG4 Capability Reject". Return to the terminal that sent MEPG4 Capability ”.

도 13a에서는 하나의 전송 채널(이 예에서는 LAN의 전송 채널)을 복수의 논리적인 채널에서 공유하여 사용하기 위해 복수의 논리적인 채널을 하나의 전송 채널에 다중화하는 상술한 그룹 MUX를 사용하기 위한 프로토콜의 기술방법에 대하여 도시하고 있다. 도 13a의 예에서는 LAN(Local Area Network ; 근거리 통신망)의 전송채널(“LAN Port Number”)에 다중화 수단(Group MUX)을 대응짓고 있다. “Group Mux ID”는 다중화수단을 식별하기 위한 식별자이다. “Create Group Mux”를 이용하여 단말간에서 다중화 수단을 사용하는 경우에 서로 통지하는 경우, 통지받은 쪽이 수리(사용) 가능하다면 “Create Group Mux Ack”를, 그렇지 않으면 “Create Group Mux Reject”를, “Create Group Mux”를 송신한 단말로 되돌린다. 다중화 수단의 반대 동작을 행하는 수단인 분리수단은 같은 방법으로 실현할 수 있다. In FIG. 13A, a protocol for using the aforementioned group MUX in which a plurality of logical channels are multiplexed onto a single transport channel for sharing one transport channel (in this example, a transport channel of a LAN) in a plurality of logical channels is used. The method of describing is illustrated. In the example of FIG. 13A, multiplexing means (Group MUX) is associated with a transmission channel ("LAN Port Number") of a local area network (LAN). "Group Mux ID" is an identifier for identifying multiplexing means. When using the "Create Group Mux" to notify each other when using multiplexing means between terminals, select "Create Group Mux Ack" if the notified party can repair (use), otherwise "Create Group Mux Reject". Return to the terminal that sent the "Create Group Mux". The separating means, which is a means for performing the opposite operation of the multiplexing means, can be realized in the same way.

도 13b에서는 이미 생성한 다중화 수단을 소거하는 경우에 대하여 기술하고 있다.In Fig. 13B, the case of erasing the multiplexing means already generated is described.

도 13c에서는 LAN의 전송 채널과 복수의 논리적인 채널의 관계에 대하여 기술하고 있다. In Fig. 13C, a relationship between a transmission channel of a LAN and a plurality of logical channels is described.

LAN의 전송채널은 “LAN Port Number”로, 복수의 논리적인 채널은 “Logical Port Number”로 기술한다. The transmission channel of LAN is described as “LAN Port Number” and the plurality of logical channels is described as “Logical Port Number”.

도 13c의 예에서는 하나의 LAN의 전송 채널에 대하여 최대 15개의 논리적인 채널을 대응짓는 것이 가능하다. In the example of FIG. 13C, it is possible to match up to 15 logical channels with respect to a transmission channel of one LAN.

또 도 13c에서 사용할 수 있는 MUX의 수가 하나뿐인 경우는 Group Mux ID는 불필요하다. 또 Mux를 복수 사용하는 경우는 H. 223의 각 커맨드에 대하여 Group Mux ID가 필요하다. 또 다중화와 분리수단 사이에서 이용되는 포트의 대응관계를 통지하기 위한 플래그를 설치해도 된다. 또 제어정보도 다중화할 것인지, 다른 논리적인 전송로를 통해 전송할 것인지를 선택할 수 있도록 하기 위한 커맨드를 설치해도 된다. If only one MUX can be used in Fig. 13C, the Group Mux ID is unnecessary. If multiple Muxes are used, Group Mux IDs are required for each H.223 command. Further, a flag may be provided for notifying the correspondence of the ports used between the multiplexing and separating means. In addition, a command may be provided for selecting whether to multiplex control information or transmit it through another logical transmission path.

도 13a∼도 13c의 설명에서는 전송 채널은 LAN이지만, H. 223, MPEG2와 같이 인터넷 프로토콜을 사용하지 않는 방식이라도 된다.In the description of Figs. 13A to 13C, the transmission channel is a LAN, but a system such as H.223 and MPEG2 may not be used.

도 14에서는 “Open Logical Channel”은 전송 채널의 속성을 정의하기 위한 프로토콜 기술을 도시한다. 도 14의 예에서는 H. 245의 프로토콜에 대하여 “MPEG4 Logical Channel Parameters”를 확장 정의하고 있다. In FIG. 14, "Open Logical Channel" shows a protocol technique for defining an attribute of a transport channel. In the example of FIG. 14, "MPEG4 Logical Channel Parameters" is extended and defined for the protocol of H.245.

도 15에서는 LAN의 전송 채널에 대하여 프로그램 번호(TV의 채널에 상당)와, 프로그램의 이름을 대응짓고 있는(“MPEG4 Logical Channel Parameters”) 것을 도시한다. In Fig. 15, a program number (corresponding to a TV channel) and a name of a program are associated with a transmission channel of a LAN ("MPEG4 Logical Channel Parameters").

또 도 15에서“Broadcast Channel Program”은 LAN의 전송 채널과 프로그램 번호의 대응지음을 방송형으로 송신하는 경우의 기술방법이다. 도 15의 예에서는 최대 1023개의 전송 채널과 프로그램 번호의 대응관계를 송부할 수 있다. 방송의 경우는 송신측으로부터 수신측으로 일방적으로 송신할 뿐이므로 이들 정보를 전송중의 손실을 고려하여 주기적으로 전송할 필요가 있다. In addition, in Fig. 15, "Broadcast Channel Program" is a description method for transmitting a correspondence between a transmission channel of a LAN and a program number in a broadcast type. In the example of FIG. 15, a correspondence relationship between a maximum of 1023 transport channels and a program number may be transmitted. In the case of a broadcast, since only one-sided transmission is performed from a transmitting side to a receiving side, it is necessary to periodically transmit these information in consideration of the loss during transmission.

도 16a에서는 프로그램으로서 전송되는 오브젝트(예를 들면, 영상, 음성 등)의 속성에 대하여 기술하고 있다(“MPEG4 Object Classdefinition”). 프로그램의 식별자(“Program ID”)에 대하여 오브젝트 정보(“Object Structure Element”)를 대응짓고 있다. 최대 1023개의 오브젝트를 대응지을 수 있다. 오브젝트 정보로서는 LAN의 전송 채널(“LAN Port Number”), 스크램블이 사용되고 있는지의 여부의 플래그(“Scramble Flag”), 단말이 과부하인 경우의 처리 우선도를 변경하기 위한 오프셋값을 정의하는 필드(“CGD Offset”), 그리고 전송하는 미디어(영상, 음성 등)의 타입을 식별하기 위한 식별자(Media Type)를 기술한다. In FIG. 16A, attributes of an object (e.g., video, audio, etc.) transmitted as a program are described ("MPEG4 Object Class definition"). Object information (“Object Structure Element”) is associated with an identifier of a program (“Program ID”). A maximum of 1023 objects can be associated. As the object information, a field defining a transmission channel of LAN ("LAN Port Number"), a flag indicating whether scramble is used ("Scramble Flag"), and an offset value for changing the processing priority when the terminal is overloaded ( "CGD Offset") and an identifier (Media Type) for identifying the type of media (video, audio, etc.) to be transmitted.

도 16b의 예에서는 ES(여기에서는 1프레임분의 영상에 상당하는 데이터열이라 정의함)의 복호처리를 관리하기 위해 AL(여기에서는 1프레임분의 영상을 복호하기 위해 필요한 부가정보라 정의함)이 부가되어 있다. AL의 정보로서는, In the example of FIG. 16B, in order to manage the decoding processing of the ES (here, defined as a data string corresponding to one frame of video), AL (here, defined as additional information required to decode one frame of video) Is added. As information of AL,

(1) Random Access Flag (단독으로 재생가능한지의 여부를 나타내는 플래그, 프레임내 부호화된 영상 프레임이면 참이다), (1) Random Access Flag (flag indicating whether or not it can be reproduced alone, true if the frame is an encoded video frame),

(2) Presentation Time Stamp(프레임의 표시시각),(2) Presentation Time Stamp,

(3) CGD Priority(단말이 과부하시에 처리 우선도를 결정하기 위한 우선도의 값)가 정의되어 있다. 이들 1프레임분의 데이터열을 RTP(인터넷으로 연속미디어를 전송하기 위한 프로토콜, Realtime Transfer Protocol)를 이용하여 전송하는 경우의 예를 나타내고 있다. “AL Reconfiguration”은 상기 AL로 표현할 수 있는 최대값을 변경하기 위한 전송 표현이다. (3) CGD Priority (the priority value for determining the processing priority when the terminal is overloaded) is defined. An example of a case where the data sequence for one frame is transmitted using RTP (Real Time Transfer Protocol, a protocol for transferring continuous media to the Internet) is shown. "AL Reconfiguration" is a transmission expression for changing the maximum value that can be represented by the AL.

도 16b의 예에서는 “Random Access Flag Max Bit”로서, 최대 2비트의 표현이 가능하다. 예를 들어 0이면 Random Access Flag는 사용하지 않는다. 2이면 최대값은 3이다. In the example of FIG. 16B, as “Random Access Flag Max Bit”, up to 2 bits can be represented. For example, if 0, the Random Access Flag is not used. 2 is the maximum value of 3.

또 실수부와 가수부에 의한 표현을 행해도 된다(예를 들면 3^6). 또 비설정시는 디폴트로 정해진 상태에서 동작하는 것으로 해도 된다.Moreover, you may express by the real part and mantissa part (for example, 3x6). In addition, when it is not set, you may operate | move in the state determined by default.

도 17에서는,“Setup Request”는 셋업시간을 송신하기 위한 전송 표현을 도시한다. 프로그램을 송신하기 전에“Setup Request”는 송신되고, 전송되는 전송 채널번호(“Logical Channel Number”)와, 실행하는 프로그램 ID(“excute Program Number”), 사용하는 데이터 ID(“data Number”), 실행하는 커맨드의 ID(“execute Command Number”)를 대응지어 수신단말로 송부한다. 또한 다른 표현방법으로서, 전송채널 번호와 대응지어 실행 허가 플래그(“flag”), 이후 몇번 Setup Request를 수신하면 실행하는지를 기록한 카운터(“counter”), 이후 어느 정도의 시간에서 실행하는지를 나타내는 타이머값(“timer”)이라도 된다. In Fig. 17, "Setup Request" shows a transmission expression for transmitting a setup time. Before sending the program, the "Setup Request" is sent, the transmission channel number ("Logical Channel Number") to be transmitted, the program ID to be executed ("excute program number"), the data ID ("data number") to be used, The ID of the command to be executed ("execute command number") is sent to the receiving terminal in association. As another expression method, an execution permission flag ("flag") corresponding to the transmission channel number, a counter ("counter") that records how many times a setup request is received afterwards, and a timer value indicating how long to execute thereafter ( "Timer").

또 요구 예정의 리퀘스트의 예로서는 AL 정보의 고쳐쓰기, 그룹 Mux의 상승 시간의 확보 등을 들 수 있다. In addition, examples of the request scheduled request include rewriting AL information and securing a rise time of the group Mux.

도 18은 도 16b에서 설명한 AL의 사용 유무를 송신단말로부터 수신단말로 통지하기 위한 전송 표현에 대하여 설명하는 도면이다(“Control AL definition”). FIG. 18 is a diagram for explaining a transmission expression for notifying the use of the AL described in FIG. 16B from the transmitting terminal to the receiving terminal ("Control AL definition").

도 18에서 “Random Access Flag Use”가 참이면 Random Access Flag는 사용된다. 그렇지 않으면 사용하지 않는다. 이 AL의 변경 통지는 제어정보로서 데이터와는 다른 전송 채널로 전송해도 되고, 데이터와 함께 동일한 전송 채널로 전송해도 된다. In FIG. 18, if "Random Access Flag Use" is true, the Random Access Flag is used. Otherwise do not use. This AL change notification may be transmitted as a control information on a transmission channel different from the data, or may be transmitted on the same transmission channel with the data.

또 실행하는 프로그램으로서는 디코더 프로그램 등을 들 수 있다. 또 셋업의 리퀘스트는 방송, 통신 모두에 이용할 수 있다. 또 제어정보로서의 항목을 AL 정보로서의 어느 항목을 사용할 것인지를 상기 리퀘스트로 수신단말에 지시한다. 또 마찬가지로 통신 헤더에 어떤 항목을, AL 정보로서 어떤 항목을, 제어정보로서 이 항목을 사용할 것인지를 수신단말에 지시할 수 있다. Moreover, a decoder program etc. are mentioned as a program to run. In addition, setup requests can be used for both broadcast and communication. In addition, the request terminal instructs the receiving terminal which item as the control information to use as the AL information. Similarly, it is possible to instruct the receiving terminal which item in the communication header, which item as AL information, and this item as control information.

도 19a에서는 정보구조 식별자(“header ID”)를 이용하여 전송하는 헤더정보(데이터 관리정보, 전송 관리정보, 제어정보)의 구조를 송수신 단말간에서 용도에 따라 변경하기 위한 전송표현의 예를 도시한다. FIG. 19A shows an example of a transmission expression for changing the structure of header information (data management information, transmission management information, control information) transmitted using an information structure identifier (“header ID”) according to a purpose between transmission and reception terminals. do.

도 19a에서“class ES header”는 데이터와 같은 전송 채널로 전송되는 데이터 관리정보나, 전송 관리정보가 전송되는 정보의 구조를 정보 구조 식별자에 의해 송수신 단말간에서 구별하고 있다. In FIG. 19A, "class ES header" distinguishes a structure of data management information transmitted through a transmission channel such as data and information transmitted through transmission management information between transmission and reception terminals by an information structure identifier.

예를 들면 “header ID”의 값이 O이면, buffer Size ES의 항목만 이용하고, “header ID”의 값이 1이면 “reserved”의 항목을 덧붙여 이용한다. For example, if the value of "header ID" is 0, only the item of buffer size ES is used. If the value of "header ID" is 1, the item of "reserved" is added.

또 디폴트 식별자(“use Header Extension”)를 이용함으로써 디폴트 형식의 정보 구조를 이용할 것인지의 여부를 판정한다. “use Header Extension”이 참이면 if문의 내부 항목이 이용된다. 이들 구조정보에 관해서는 미리 송수신 단말간에서 정해져 있는 것으로 한다. 또 정보 구조 식별자와 디폴트 식별자는 어느 한쪽을 사용하는 구성이어도 된다. Further, by using a default identifier (“use Header Extension”), it is determined whether or not to use an information structure of a default format. If "use Header Extension" is true, the inner item of the if statement is used. It is assumed that these structural information is determined between the transmitting and receiving terminals in advance. In addition, the structure which uses either an information structure identifier and a default identifier may be sufficient.

도 19b에서는 “AL configuration”은 데이터와는 다른 전송 채널로 전송되는 제어정보의 구조를 송수신 단말간에서 용도에 따라 변경하는 경우의 예를 도시한다. 정보구조 식별자와 디폴트 식별자의 사용방법은 도 19a의 경우와 같다. In FIG. 19B, “AL configuration” shows an example of changing a structure of control information transmitted through a transmission channel different from data according to a use between transmission and reception terminals. The method of using the information structure identifier and the default identifier is the same as that of FIG. 19A.

본 발명에서는 복수의 동화상이나 음성을 동시에 합성하여 표시시키는 시스템의 실현방법에 대하여 하기의 관점에서 구체적으로 서술하였다. In the present invention, a method of realizing a system for simultaneously synthesizing and displaying a plurality of moving images and / or voices has been described in detail from the following viewpoints.

(1) 복수의 논리적인 전송로를 이용하여 화상이나 음성의 전송(통신과 방송) 및 그들을 제어하는 방법. 특히 제어정보와 데이터를 각각 전송하는 논리적인 전송로를 독립시켜 전송하는 방법에 대하여 설명하였다. (1) Transmission (communication and broadcasting) and control of images and audio using a plurality of logical transmission paths. In particular, a method of transmitting a control channel and a logical transmission path for transmitting data independently has been described.

(2) 송신해야 할 화상이나 음성 데이터에 부가하는 헤더정보(AL 정보)의 동적인 변경방법. (2) A dynamic change method of header information (AL information) added to image or audio data to be transmitted.

(3) 송신을 위해 부가하는 통신용 헤더정보의 동적인 변경방법. (3) A dynamic change method of communication header information added for transmission.

구체적으로는 (2)와 (3)에 관해서는 AL 정보와 통신용 헤더에서 중복하고 있는 정보에 대하여 통합하여 관리하는 방법이나, AL 정보를 제어정보로서 전송하는 방법에 대하여 서술하였다. Specifically, in (2) and (3), a method of integrating and managing AL information and overlapping information in the communication header, or a method of transmitting AL information as control information, has been described.

(4) 복수의 논리적인 전송로를 동적으로 다중화, 분리하여 정보를 전송하는 방법. (4) A method of dynamically multiplexing and separating multiple logical transmission paths to transmit information.

전송로의 채널수를 절약하는 방법, 효율적인 다중화를 실현하는 방법에 대하여 설명하였다. A method of saving the number of channels in a transmission path and a method of realizing efficient multiplexing have been described.

(5) 프로그램이나 데이터의 판독, 상승시간을 고려한 화상이나 음성의 전송방법. 여러 가지 기능, 용도로 외관 상의 셋업시간의 단축방법에 대하여 설명하였다. (5) A method of transmitting an image or an audio in consideration of reading time and rise time of a program or data. The various methods and methods for shortening the appearance setup time have been described.

(6) 소거에 대한 화상이나 음성의 전송방법. (6) Transmission method of image or sound for erasure.

또 본 발명은 2차원의 화상합성만으로 한정되지 않는다. 2차원 화상과 3차원 화상을 조합시킨 표현형식이라도 되고, 광시야 화상(파노라마 화상)과 같이 복수의 화상을 인접하도록 화상 합성하는 화상 합성방법을 포함해도 된다.The present invention is not limited to only two-dimensional image synthesis. The expression form which combined a two-dimensional image and a three-dimensional image may be sufficient, and the image synthesis method which combines an image so that a plurality of images may adjoin like a wide-field image (panorama image) may be included.

또 본 발명에서 대상으로 하고 있는 통신형태는 유선의 쌍방향 CATV나 B-ISDN뿐만은 아니다. 예를 들면, 센터측 단말로부터 가정측 단말로의 영상이나 음성의 전송은 전파(예를 들면 VHF대, UHF대), 위성방송이고, 가정측 단말로부터 센터측 단말로의 정보 발신은 아날로그 전화회선이나 N-ISDN이라도 된다(영상, 음성, 데이터도 반드시 다중화되어 있을 필요는 없다). In addition, not only the wired bidirectional CATV and B-ISDN are the communication modes targeted in the present invention. For example, transmission of video or audio from the center terminal to the home terminal is radio wave (for example, VHF band, UHF band) and satellite broadcasting, and information transmission from the home terminal to the center terminal is analog telephone line. Or N-ISDN (video, audio, and data are not necessarily multiplexed).

또 IrDA, PHS(퍼스널 핸디 폰)나 무선 LAN과 같은 무선을 이용한 통신형태라도 된다. 또 대상으로 하는 단말은 휴대정보단말과 같이 휴대형 단말이라도 되며, 셋 톱 박스, 퍼스널 컴퓨터와 같이 탁상형 단말이라도 된다. 또 응용분야로서는 TV 전화, 다지점의 감시 시스템, 멀티미디어의 데이터베이스 검색 시스템, 게임 등을 들 수 있고, 본 발명은 수신단말뿐만 아니라 수신단말에 접속되는 서버나 중계 기기 등도 포함된다. In addition, a communication mode using wireless such as IrDA, PHS (Personal Handy Phone) or wireless LAN may be used. The target terminal may be a portable terminal like a portable information terminal, or may be a desktop terminal like a set top box or a personal computer. Application fields include a TV telephone, a multi-point monitoring system, a multimedia database search system, a game, and the like. The present invention includes not only a receiving terminal but also a server or a relay device connected to the receiving terminal.

또한 지금까지의 예에서는 RTP의 (통신) 헤더와 AL 정보의 중복을 피하는 방법이나, RTP의 통신 헤더나 AL 정보를 확장하는 방법에 대하여 서술하였다. 그러나 본 발명은 반드시 RTP일 필요는 없다. 예를 들면 UDP나 TCP를 사용하여 독자적인 통신 헤더나 AL 정보를 새롭게 정의해도 된다. 인터넷 프로파일에서는 RTP를 을 사용하는 일은 있지만, Raw 프로파일에서는 RTP와 같은 다기능 헤더는 정의되어 있지 않다. AL 정보와 통신 헤더에 관한 관점에는 상술한 바와 같이 4가지 관점이 가능하다. The previous examples have described a method of avoiding duplication of the (communication) header and the AL information of the RTP, and a method of extending the communication header and the AL information of the RTP. However, the present invention does not necessarily need to be RTP. For example, unique communication headers or AL information may be newly defined using UDP or TCP. In the Internet profile, RTP is used, but the raw profile does not define a multifunctional header like RTP. As described above, four aspects are possible in terms of the AL information and the communication header.

이와 같이 송신단말과 수신단말에서 사용하는 데이터 관리정보, 전송 관리정보, 제어정보의 각 정보의 구조(예를 들면, 첫 번째는 랜덤 액세스의 플래그로 1비트의 플래그 정보로서 할당하고, 두 번째는 시퀀스 번호로 16비트 할당한다는, 부가하는 정보의 순서와 비트수를 수반한 정보의 구조)를 동적으로 결정함으로써, 상황에 따른 정보의 구조 변경이 가능하게 되어 용도나 전송로에 따라 변경할 수 있다.In this way, the structure of each piece of data management information, transmission management information, and control information used by the transmitting terminal and the receiving terminal (for example, the first is a random access flag and is assigned as 1-bit flag information, and the second is By dynamically determining the order of the added information and the structure of the information with the number of bits) of 16-bit allocation by the sequence number, the structure of the information can be changed depending on the situation, and can be changed according to the use or the transmission path.

또 각 정보의 구조로서는 도 6a∼도 6d에서 이미 도시된 것이라도 되고, RTP이면 데이터 관리정보(AL)는 미디어마다의 헤더정보(예를 들면 H. 263이면 H. 263 고유의 비디오 헤더정보나 페이로드의 헤더 정보), 전송 관리정보는 RTP의 헤더정보이며, 제어정보는 RTCP와 같은 RTP을 제어하는 정보라도 된다.The structure of each information may be the one already shown in Figs. 6A to 6D. If RTP, the data management information AL indicates header information for each media (e.g., H.263-specific video header information or H.263). Payload header information) and delivery management information are header information of RTP, and control information may be information for controlling RTP such as RTCP.

또 송수신 단말간에서 미리 설정되어 있는 공지의 정보 구조로, 정보를 송수신하여 처리할 것인지의 여부를 나타내기 위한 디폴트 식별자를 데이터 관리정보, 전송 관리정보, 제어정보(데이터와는 다른 패킷으로 전송되는, 단말처리를 제어하는 정보)에 각각 설치함으로써 정보 구조의 변경이 행해지고 있는지의 여부를 알 수 있고, 변경이 행해지고 있을 때만 디폴트 식별자를 세트하고, 상술한 도 16에 도시된 바와 같은 방법으로 변경내용(예를 들면 타임 스탬프 정보를 32비트로부터 16비트로 변경함)을 통지함으로써 정보의 구조 정보를 변경하지 않는 경우라도 불필요하게 구성 정보를 송신하지 않아도 된다. In addition, it is a well-known information structure set in advance between transmission and reception terminals, and includes a default identifier for indicating whether information is to be transmitted or received and processed by data management information, transmission management information, and control information (which is transmitted in a different packet from the data). Information on controlling the terminal processing) to determine whether or not the information structure is being changed, and set the default identifier only when the change is being made, and the change contents in the manner as shown in FIG. By notifying (for example, changing the time stamp information from 32 bits to 16 bits), it is not necessary to send configuration information unnecessarily even if the structural information of the information is not changed.

예를 들면 데이터 관리정보의 정보 구조를 변경하고 싶을 때에는 다음 2가지 방법이 고려된다. 우선 데이터 자신에게 데이터 관리정보의 정보 구조의 변경방법을 기술하는 경우, 데이터 관리정보의 정보 구조에 관해서 기술된 데이터 내에 존재하는 정보의 디폴트 식별자(고정 영역, 위치에 기입할 필요가 있음)를 세트하고, 그 후에 정보 구조의 변경 내용에 관해서 기술한다. For example, when it is desired to change the information structure of data management information, the following two methods are considered. First, in the case of describing to the data itself how to change the information structure of the data management information, it sets a default identifier (it needs to be written in the fixed area and the position) of the information existing in the data described with respect to the information structure of the data management information. After that, changes to the information structure will be described.

다른 한가지 방법으로서 제어정보(정보구조 제어정보)에 데이터의 정보구조의 변경방법을 기술하여 데이터 관리정보에서의 정보 구조를 변경하는 경우, 제어정보에 설치된 디폴트 식별자를 세트하고, 변경하는 데이터 관리정보의 정보구조의 내용을 기술하고, ACK/Reject로 수신단말에 데이터 관리정보의 정보 구조가 변경된 것을 통지, 확인하고 나서 정보구조가 변경된 데이터를 전송한다. 전송 관리정보, 제어정보 자신의 정보 구조를 변경하는 경우도 마찬가지로 상기 2가지 방법으로 실현할 수 있다(도 19). As another method, when changing the information structure in the data management information by describing a method of changing the information structure of the data in the control information (information structure control information), the data management information for setting and changing the default identifier installed in the control information The contents of the information structure are described, and the ACK / Reject notifies and confirms that the information structure of the data management information has been changed to the receiving terminal, and then transmits the data whose information structure has been changed. In the case of changing the information structure of the transmission management information and the control information itself, the above two methods can be realized (Fig. 19).

보다 구체적인 예로서는, 예를 들면 MPEG2의 헤더 정보는 고정이지만, MPEG2-TS(트랜스포트 스트림)의 비디오 스트림, 오디오 스트림을 관계짓는 프로그램·맵 테이블(PSI로 정의됨)에 디폴트 식별자를 설치하고, 비디오 스트림, 오디오 스트림의 정보구조의 변경방법을 기술한 구성 스트림을 정의해 둠으로써 디폴트 식별자가 세트되어 있으면, 우선 구성 스트림을 해석하고 나서 구성 스트림의 내용에 따라 비디오와 오디오 스트림의 헤더를 해석할 수 있다. 구성 스트림은 도 19에서 도시한 내용이면 된다. As a more specific example, although the header information of MPEG2 is fixed, for example, a default identifier is provided in a program map table (defined in PSI) that associates a video stream and an audio stream of MPEG2-TS (transport stream) with the video. If a default identifier is set by defining a configuration stream that describes how to change the information structure of the stream or audio stream, the component stream can be parsed first and then the headers of the video and audio streams can be interpreted according to the contents of the configuration stream. have. The configuration stream may be the content shown in FIG.

또 본 발명의 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용(전송 포맷정보)는 상기 실시예에서는, 예를 들면 정보구조에 대응하고 있다. The contents (transmission format information) relating to the transmission method of the present invention and / or the structure of the data to be transmitted correspond to, for example, the information structure in the above embodiment.

또 상기 실시예에서는 변경하고자 하는 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용을 전송하는 경우를 중심으로 설명하였지만, 이것에 한정되는 것은 아니고, 예를 들어 그 내용의 식별자만을 전송하는 구성이라도 물론 좋다. 이 경우 송신장치로서는 예를 들면 도 44에 도시된 바와 같이, (1) 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용 또는 그 내용을 나타내는 식별자를 전송 포맷정보로서, 상기 전송하는 데이터의 전송로와 동일한 전송로 또는 상기 전송로와는 다른 전송로를 이용하여 전송하는 전송수단(5001)과, (2) 상기 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용과, 그 식별자를 복수종류 저장하는 저장수단(5002)을 구비하고, 상기 식별자가 데이터 관리정보, 전송 관리정보 또는 단말측의 처리를 제어하기 위한 정보 중 적어도 하나의 정보 내에 포함되어 있는 화상·음성 송신장치라도 된다. 또 수신장치로서는, 예를 들면 도 45에 도시된 바와 같이, 상기 화상·음성 송신장치로부터 송신되는 상기 전송 포맷정보를 수신하는 수신수단(5101)과, 상기 수신한 전송 포맷정보를 해석하는 전송정보 해석수단(5102)을 구비한 화상·음성 수신장치라도 된다. 더구나 이 화상·음성 수신장치는 상기 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용과, 그 식별자를 복수종류 저장하는 저장수단(5103)을 구비하며, 상기 전송 포맷정보로서 상기 식별자를 수신한 경우에는 상기 식별자의 내용을 해석할 때 상기 저장수단에 저장되어 있는 내용을 이용하는 구성이라도 된다.In the above embodiment, the description has been focused on the case of transmitting contents related to a transmission method to be changed and / or a structure of data to be transmitted. However, the present invention is not limited thereto, and for example, only an identifier of the contents is transmitted. Of course, a configuration may be sufficient. In this case, as the transmission apparatus, for example, as shown in FIG. 44, (1) the contents relating to the transmission method and / or the structure of the data to be transmitted or an identifier indicating the contents are used as transmission format information, and the data to be transmitted. Transmission means 5001 for transmitting using the same transmission path as the transmission path of the transmission path, or a transmission path different from the transmission path, (2) the contents related to the transmission method and / or the structure of the data to be transmitted, and An image / audio transmission device having a storage means 5002 for storing a plurality of identifiers, wherein the identifier is contained in at least one of data management information, transmission management information, and information for controlling the processing on the terminal side. do. As the reception apparatus, for example, as shown in Fig. 45, reception means 5101 for receiving the transmission format information transmitted from the image / audio transmission apparatus, and transmission information for analyzing the received transmission format information. An image and audio receiver provided with an analyzing means 5102 may be used. Furthermore, the image and sound receiving apparatus includes contents relating to the transmission method and / or structure of the data to be transmitted, and storage means 5103 for storing a plurality of the identifiers, and the identifier as the transmission format information. In the case of the reception, the content stored in the storage means may be used when analyzing the content of the identifier.

또한 구체적으로는, 미리 정보 구조를 복수, 송수신 단말에서 정하여 준비해 두고, 그들 복수 종류의 정보구조의 식별과 복수 종류의 데이터 관리정보, 전송관리정보, 제어정보(정보구조 제어정보)를 식별하기 위한 정보구조 식별자를 데이터와 함께 혹은 제어정보로서 전송함으로써 복수 종류의 데이터 관리정보, 전송 관리정보, 제어정보의 각 정보를 식별하는 것이 가능해지고, 전송해야 할 미디어 형식이나 전송로의 굵기에 따라 각 정보의 정보구조를 자유롭게 선택할 수 있다. 또 본 발명의 식별자는 상기 정보구조 식별자에 대응한다. Specifically, a plurality of information structures are determined and prepared in advance by the transmitting and receiving terminals, and for identifying the plurality of types of information structures, the plurality of types of data management information, transmission management information, and control information (information structure control information). By transmitting the information structure identifier together with the data or as the control information, it becomes possible to identify each type of data management information, transmission management information, and control information, and each information according to the media format or transmission path thickness to be transmitted. You can freely choose your information structure. The identifier of the present invention corresponds to the information structure identifier.

이들 정보 구조 식별자, 디폴트 식별자는 전송되는 정보의 미리 정해진 고정길이의 영역 혹은 위치에 부가함으로써 수신측 단말에서 정보구조가 변경되어 있어도 판독, 해석할 수 있다. These information structure identifiers and default identifiers can be read and interpreted even if the information structure is changed in the receiving terminal by adding them to a predetermined fixed length area or position of the information to be transmitted.

또 상술한 실시예에서 설명한 구성 이외에 복수개의 채널로 방송되는 화상의 표제 화상만을 방송하는 방송 채널을 설치하여 시청자가 시청 프로그램을 전환함으로써 필요하게 되는 프로그램이나 데이터의 셋업에 시간이 걸리는 경우, 일단 시청하고 싶은 프로그램의 표제 화상을 선택하여 시청자에게 제시하는 구성으로 해도 된다. In addition to the configuration described in the above-described embodiment, if a broadcasting channel that broadcasts only the title image of an image broadcast in a plurality of channels is provided and the viewer takes time to set up a program or data required by switching the viewing program, the viewing is performed once. It is good also as a structure which selects the title image of the program to be presented, and presents it to a viewer.

이상과 같이 본 발명에 의하면 송신단말과 수신단말에서 사용하는 데이터 관리정보, 전송 관리정보, 제어정보의 각 정보 구조를 동적으로 결정함으로써 상황에 따른 정보구조의 변경이 가능하게 되어 용도나 전송로에 따른 변경을 할 수 있다. As described above, according to the present invention, it is possible to change the information structure according to the situation by dynamically determining each information structure of data management information, transmission management information, and control information used in the transmitting terminal and the receiving terminal. Can be changed accordingly.

또한 송수신 단말간에서 미리 설정되어 있는 공지의 정보 구조로 정보를 송수신하여 처리할 것인지의 여부를 나타내기 위한 디폴트 식별자를 데이터 관리정보, 전송 관리정보, 제어정보에 각각 설치함으로써 정보 구조의 변경이 행해지고 있는지의 여부를 알 수 있고, 변경이 행해지고 있을 때만 디폴트 식별자를 세트하여 변경내용을 통지함으로써 정보의 구조 정보를 변경하지 않는 경우라도 불필요하게 구성 정보를 송신하지 않아도 된다. In addition, the information structure is changed by installing a default identifier in the data management information, the transmission management information, and the control information, respectively, to indicate whether or not to process the information by transmitting and receiving the information in a known information structure set in advance between the transmitting and receiving terminals. It is possible to know whether or not there is a change, and it is not necessary to send configuration information unnecessarily even if the structural information of the information is not changed by setting a default identifier and notifying the change only when the change is being made.

또 미리 정보 구조를 복수, 송수신 단말에서 정하여 준비해 두고, 복수 종류의 데이터 관리정보, 전송 관리정보, 제어정보를 식별하기 위한 정보 구조 식별자를 데이터와 함께 혹은 제어정보로서 전송함으로써 복수 종류의 데이터 관리정보, 전송 관리정보, 제어정보의 각 정보를 식별하는 것이 가능하게 되어, 전송해야 할 미디어형식이나 전송로의 굵기에 따라 각 정보의 정보구조를 자유롭게 선택할 수 있다. In addition, a plurality of types of data management information are determined in advance by preparing a plurality of information structures at a transmitting and receiving terminal, and transmitting information structure identifiers for identifying a plurality of types of data management information, transmission management information, and control information together with the data or as control information. It is possible to identify each piece of information of transmission management information and control information, and the information structure of each piece of information can be freely selected according to the media format to be transmitted or the thickness of the transmission path.

이들 정보구조 식별자, 디폴트 식별자는 전송되는 정보의 미리 정해진 고정길이의 영역 혹은 위치에 부가함으로써 수신측 단말에서 정보 구조가 변경되어 있어도 판독, 해석할 수 있다. These information structure identifiers and default identifiers can be read and interpreted even if the information structure is changed in the receiving terminal by adding them to a predetermined fixed length area or position of the transmitted information.

이하 본 발명의 실시예에 대하여 도면을 참조하여 설명하기로 한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

또 여기에서는 주로 상술한 과제 (B1)∼(B3) 중 어느 하나를 해결하는 것이다. In this case, one of the above-described problems (B1) to (B3) is mainly solved.

본 발명에서 사용하는 「화상」의 의미는 정지화상과 동화상의 양쪽을 포함한다. 또한 대상으로 하는 화상은 컴퓨터 그래픽스(CG)와 같은 2차원 화상과 와이어 프레임 모델로 구성되는 3차원 화상 데이터이라도 된다.The meaning of "image" used in the present invention includes both a still image and a moving image. The target image may be three-dimensional image data composed of a two-dimensional image such as computer graphics (CG) and a wire frame model.

도 25는 본 발명의 실시예에서의 화상 부호화, 화상 복호화장치의 개략 구성도이다. 25 is a schematic structural diagram of a picture coding and a picture decoding apparatus according to an embodiment of the present invention.

부호화된 각종 정보를 송신 혹은 기록하는 송신관리부(4011)는 동축 케이블, CATV, LAN, 모뎀 등의 정보를 전송하는 수단이다. 화상 부호화장치(4101)는 H. 263, MPEG1/2, JPEC 혹은 허프만 부호화라는 화상정보를 부호화하는 화상부호부(4012)와, 상기 송신관리부(4011)를 구비하는 구성이다. 또 화상 복호화장치(4102)는 부호화된 각종 정보를 수신하는 수신관리부(4013)와, 그 수신된 각종 화상정보를 복호하는 화상복호부(4014)와, 복호된 하나 이상의 화상을 합성하는 화상합성부(4015)와, 화상을 출력하는 디스플레이나 프린터 등으로 구성되는 출력부(4016)를 구비한 구성이다. Transmission management unit 4011 for transmitting or recording the encoded various pieces of information is a means for transmitting information such as a coaxial cable, CATV, LAN, modem, or the like. The picture coding apparatus 4101 includes a picture coding unit 4012 for encoding picture information such as H.263, MPEG1 / 2, JPEC or Huffman coding, and the transmission management unit 4011. The image decoding apparatus 4102 further includes a reception management unit 4013 for receiving various pieces of encoded information, an image decoding unit 4014 for decoding the received various pieces of image information, and an image synthesizer for combining one or more decoded images. 4015 and the output part 4016 comprised with the display, printer, etc. which output an image.

도 26은 본 발명의 실시예에서의 음성부호화, 음성 복호화장치의 개략 구성도이다. 26 is a schematic structural diagram of a speech encoding and speech decoding apparatus according to an embodiment of the present invention.

음성 부호화장치(4201)는 부호화된 각종 정보를 송신 또는 기록하는 송신관리부(4021)와 G. 721, MPEG1 오디오라는 음성정보를 부호화하는 음성부호부(4022)를 구비하는 구성이다. 또 음성 복호화장치(4202)는 부호화된 각종 정보를 수신하는 수신관리부(4023), 상기 각종 음성정보를 복호하는 음성복호부(4024), 복호된 1개 이상의 음성을 합성하는 음성합성부(4025), 음성을 출력하는 출력수단(4026)을 구비한 구성이다. The speech encoding apparatus 4201 is configured to include a transmission management unit 4021 for transmitting or recording various pieces of encoded information, and a speech coder 4022 for encoding voice information such as G.721 and MPEG1 audio. The voice decoding apparatus 4202 further includes a reception management unit 4023 for receiving various pieces of encoded information, a voice decoding unit 4024 for decoding the various pieces of voice information, and a voice synthesis unit 4025 for synthesizing one or more decoded voices. And output means 4026 for outputting voice.

음성이나 동화상의 시계열 데이터에는 상기 각 장치에서 부호화 또는 복호화된다. Time series data of an audio or moving image is encoded or decoded by the above devices.

도 25, 도 26 모두 통신환경으로서는 인터넷과 같이 다중화 수단을 의식하지 않고 복수의 논리적인 전송로를 이용할 수 있는 통신환경이라도 되고, 아날로그 전화나 위성방송과 같이 다중화수단을 의식해야 하는 통신환경이라도 된다. 또 단말의 접속형태로서는 TV 전화나 TV 회의 시스템과 같이 단말간에서 쌍방향으로 영상이나 음성을 송수신하는 형태나, 위성방송이나 CATV, 인터넷 상에서의 방송형 영상이나 음성방송의 형태를 들 수 있다. 25 and 26, the communication environment may be a communication environment in which a plurality of logical transmission paths may be used without consciousness of multiplexing means such as the Internet, or a communication environment in which multiplexing means, such as analog telephone or satellite broadcasting, should be conscious. . Examples of the connection type of the terminal include a form of transmitting and receiving video and audio bi-directionally between terminals, such as a TV telephone and a TV conference system, or a form of satellite or CATV, broadcast type video or audio broadcasting on the Internet.

마찬가지로 화상이나 음성의 합성방법에 관해서는 JAVA, VRML, MHEG라는 스크립트 언어로 화상·음성과 화상·음성의 구조정보(표시위치나 표시시간), 화상·음성끼리의 그룹핑방법, 화상의 표시 레이어(깊이), 그리고 오브젝트 ID(화상, 음성이라는 개개의 오브젝트를 식별하기 위한 ID)와, 이들의 속성 관계를 기술함으로써 화상이나 음성의 합성방법을 정의할 수 있다. 합성방법을 기술한 스크립트는 네트워크나 로컬의 기억장치로부터 얻어진다. Similarly, the method of synthesizing an image or an audio is described in JAVA, VRML, and MHEG script languages such as structure information (display position and display time) of image and audio, grouping method of images and voices, and image display layer ( Depth) and object ID (ID for identifying individual objects such as image and sound) and their attribute relations can be described to define a method of synthesizing an image or sound. Scripts describing the synthesis method are obtained from network or local storage.

또 화상 부호화장치, 화상 복호화장치, 음성 부호화장치, 음성 복호화장치를 각각 임의의 개수로, 임의의 조합으로 송수신 단말을 구성해도 된다. Further, the image encoding apparatus, the image decoding apparatus, the speech encoding apparatus, and the speech decoding apparatus may be configured in any number and in any combination, respectively.

도 27a는 과부하시의 처리 우선도를 관리하는 우선도 부가부, 우선도 결정부에 대하여 설명하는 도면이다. H. 263이나 G. 723 등의 부호화방법으로, 부호화된 정보의 과부하시의 처리 우선도를 미리 정해진 기준으로 결정하여 부호화된 정보와 결정된 우선도를 대응짓는 우선도 부가부(31)를 화상 부호화장치(4101)나 음성 부호화장치(4201)에 구비한다. It is a figure explaining the priority addition part and priority determination part which manage the process priority at the time of overload. Image coding is performed by encoding methods such as H. 263 or G. 723, by determining the priority of the processing at the time of overloading the encoded information based on a predetermined criterion and associating the encoded information with the determined priority. It is provided in the apparatus 4101 or the speech coding apparatus 4201.

우선도의 부가 기준은, 예를 들어 화상이라면 장면 교체, 편집자나 이용자가 지시한 화상 프레임이나 스트림, 음성이라면 유성음 구간과 무성음 구간이다. The priority criteria is, for example, scene replacement, image frames or streams instructed by the editor or user, and voiced and unvoiced sections.

과부하시의 처리 우선도를 정의하는 우선도의 부가방법은 통신 헤더로 부가하는 방법과 부호화시에 비디오나 오디오가 부호화되는 비트스트림의 헤더에 매립하는 방법이 고려된다. 전자는 복호하지 않고 우선도에 관한 정보를 얻는 것이 가능하며, 후자는 시스템에 의존하지 않고 비트스트림 단체로 독립적으로 취급하는 것이 가능하다. Priority addition methods for defining the processing priority during overload include a method of adding to a communication header and embedding in a header of a bitstream in which video or audio is encoded at the time of encoding. The former is capable of obtaining information on priority without decoding, and the latter can be treated independently as a bitstream entity without system dependence.

도 27b도에 도시된 바와 같이 통신 헤더에 우선도 정보를 부가하는 경우, 1개의 화상 프레임(예를 들면 프레임내 부호화된 I프레임, 프레임간 부호화된 P, B 프레임)이 복수개의 송신 패킷으로 분할되는 경우, 화상이라면 단독 정보로서 액세스 가능한 화상 프레임의 선두부분을 전송하는 통신 헤더에만 우선도를 부가한다(동일한 화상 프레임 내에서 우선도가 같은 경우, 다음 액세스 가능한 화상 프레임의 선두가 나타날 때까지 우선도는 변하지 않는 것으로 하면 됨). As shown in Fig. 27B, when adding priority information to a communication header, one picture frame (e.g., intra-frame coded I frame, inter-frame coded P, B frame) is divided into a plurality of transmission packets. If the image is a picture, priority is given only to the communication header which transmits the head of the accessible picture frame as single information (when the priority is the same within the same picture frame, priority is given until the head of the next accessible picture frame appears. Degrees do not change).

또한 복호화장치에서는 수신된 각종 부호화된 정보의 과부하시의 우선도에 따라 처리 방법을 결정하는 우선도 결정부(32)를 화상 복호화장치(4102)나 음성 복호화장치(4202)에 구비한다. In the decoding apparatus, the picture decoding apparatus 4102 or the audio decoding apparatus 4202 includes a priority determining unit 32 that determines a processing method according to the priority of overloading the received various encoded information.

도 28a∼도 28c는 우선도를 부가하는 그레이딩에 대하여 설명한 도면이다. 단말에서의 과부하시의 처리 우선도를 결정하는 2종류의 우선도를 이용하여 디코드 처리를 행한다.28A to 28C are diagrams for describing grading with added priority. Decode processing is performed using two types of priorities that determine the processing priority upon overload in the terminal.

즉 영상, 음성이라는 비트스트림 단위에서의 과부하시의 처리 우선도를 정의하는 스트림 우선도(Stream Priority ; 시계열 데이터간 우선도)와 동일 스트림 내의 영상 프레임이라는 프레임 단위에서의 과부하시의 처리 우선도를 정의하는 프레임 우선도(Frame Priority ; 시계열 데이터내 우선도)를 정의한다(도 28a 참조). Namely, Stream Priority (Definition of Processing Priority when Overload in Bitstream Units such as Video and Audio) and Processing Priority in Overload Unit in Frame Units (Video Frames) in the Same Stream are defined. Defines the frame priority (Priority in time series data) to define (see Fig. 28a).

전자의 스트림 우선도에 의해 복수의 비디오나 오디오의 취급이 가능하게 된다. 후자의 프레임 우선도에 의해 영상의 화면 교체나 편집자의 의도에 따라 동일한 프레임내의 부호화된 영상 프레임(I프레임)이라도 다른 우선도의 부가가 가능하게 된다. The former stream priority enables handling of multiple videos and audios. The latter frame priority makes it possible to add another priority even if a video frame (I frame) coded in the same frame is changed according to the screen replacement of the video or the intention of the editor.

스트림 우선도가 표현하는 값의 의미로서는 상대적인 값으로서 취급하는 경우와 절대적인 값으로서 취급하는 경우를 고려할 수 있다(도 28b, 도 28c 참조). As the meaning of the value expressed by the stream priority, the case of treating as a relative value and the case of treating as an absolute value can be considered (see Figs. 28B and 28C).

스트림 우선도와 프레임 우선도가 취급되는 것은 네트워크 상이라면 라우터나 게이트웨이라는 중계단말, 단말이라면 송신단말과 수신단말을 들 수 있다.Stream priority and frame priority are dealt with in a network, such as a router or a gateway terminal, and in the case of a terminal, a transmitting terminal and a receiving terminal.

절대적인 값과 상대적인 값의 표현방법은 2가지를 고려할 수 있다. 하나는 도 28b에서 도시한 방법이고, 다른 하나는 도 28c에서 도시한 방법이다.There are two ways to express absolute and relative values. One is the method shown in FIG. 28B, and the other is the method shown in FIG. 28C.

도 28b에서는 절대적인 값의 우선도란 편집자나 기계적으로 부가된 화상 스트림이나 음성 스트림이 과부하시에 처리되는 (또는 처리되어야 할) 순서를 나타내는 값이다(실제의 네트워크나 단말의 부하변동을 고려한 값은 아님). 상대적인 값의 우선도는 단말이나 네트워크의 부하에 따라 절대적인 우선도의 값을 변경하기 위한 값이다. In FIG. 28B, the absolute value priority is a value indicating an order in which editors or mechanically added image streams or audio streams are processed (or must be processed) in the event of overload (not considering load fluctuations of actual networks or terminals). ). The relative priority is a value for changing the absolute priority value according to the load of the terminal or the network.

우선도를 상대적인 값과 절대적인 값으로 분리하여 관리함으로써 네트워크의 부하 변동 등에 따라, 송신측이나 중계장치로 상대적인 값만을 변경함으로써 원래의 화상이나 음성 스트림에 부가되어 있던 절대적인 우선도를 남긴 채로 하드디스크나 VTR로 기록할 수 있게 된다. 이와 같이 절대적인 우선도의 값이 기록되어 있으면 네트워크의 부하 변동 등의 영향을 받지 않은 형태로 영상이나 음성의 재생이 가능하게 된다. 또 상대적인 우선도나 절대적인 우선도는 데이터와는 독립적으로 제어채널을 통해 전송해도 된다. By managing the priority separately from the relative value and the absolute value, only the relative value is changed by the sender or the relay device according to the load change of the network, so that the hard disk and the absolute priority added to the original video or audio stream remain. It is possible to record in VTR. If the absolute priority value is recorded in this way, video and audio can be reproduced in a form that is not affected by network load variation. Relative or absolute priority may be transmitted over the control channel independently of the data.

마찬가지로 도 28b에서는 스트림 우선도보다 그레이딩을 세밀하게 하여 과부하시의 프레임의 처리 우선도를 정의하는 프레임 우선도를 상대적인 우선도의 값으로서 취급하거나 절대적인 우선도의 값으로서 취급하는 것도 가능하다. 예를 들면 절대적인 프레임 우선도를 부호화된 화상의 정보 내에 기술하여 네트워크나 단말의 부하로 변동을 반영시키기 위해, 앞에서의 영상 프레임에 부가된 절대적인 우선도에 대한 상대적인 프레임 우선도를 부호화된 정보를 전송하기 위한 통신 패킷의 통신 헤더에 기술함으로써 프레임 레벨이라도 종래의 우선도를 남기면서도 네트워크나 단말 부하에 따른 우선도의 부가가 가능하다. Similarly, in FIG. 28B, the frame priority, which defines the processing priority of the frame under overload with finer grading than the stream priority, can be treated as a relative priority value or as an absolute priority value. For example, in order to reflect the change in the load of the network or the terminal by describing the absolute frame priority in the information of the coded image, the coded information is transmitted in the relative frame priority relative to the absolute priority added to the preceding video frame. By describing in the communication header of the communication packet, it is possible to add the priority according to the network or the terminal load while maintaining the conventional priority even at the frame level.

또 상대적인 우선도는 통신 헤더는 아니고 데이터와는 독립하여 제어 채널로 프레임과의 대응관계를 기술하여 전송해도 된다. 이에 따라 원래의 화상이나 음성 스트림에 부가되어 있던 절대적인 우선도를 남긴 채로 하드디스크나 VTR로의 기록이 가능해진다. The relative priority may be transmitted by describing the correspondence with the frame in the control channel independently of the data rather than the communication header. This makes it possible to record to the hard disk or the VTR while leaving the absolute priority added to the original image or audio stream.

한편 도 28b에서 수신단말로 기록을 행하지 않고 네트워크를 통해 전송하면서 수신단말로 재생을 행하는 경우, 수신단말로 절대적인 값과 상대적인 값을 분리하여 관리할 필요가 없기 때문에, 송신측에서 미리 프레임, 스트림의 양쪽 레벨의 경우에서도 절대적인 우선도의 값과 상대적인 우선도의 값을 송신 전에 계산하여 절대값만을 보내도 된다. On the other hand, in FIG. 28B, when reproducing to a receiving terminal while transmitting through a network instead of recording to a receiving terminal, since the absolute value and the relative value do not need to be managed separately from the receiving terminal, the transmitting side has to perform both levels of frames and streams in advance. In this case, only the absolute value may be calculated by calculating the absolute priority value and the relative priority value before transmission.

도 28c에서 절대적인 값의 우선도란 스트림 우선도와, 프레임 우선도의 관계로부터 구해지는 프레임간에서 일의적으로 결정되는 값이다. 상대적인 값의 우선도는 편집자나 기계적으로 부가된 화상 스트림이나 음성 스트림이 과부하시에 처리되는 (또는 처리되어야 할) 순서를 나타내는 값이다. 도 28c의 예에서는 영상, 음성의 각 스트림의 프레임 우선도(relative ; 상대값)와 스트림마다 스트림 우선도가 부가되어 있다. The absolute value priority in FIG. 28C is a value uniquely determined between frames obtained from the relationship between the stream priority and the frame priority. The priority of relative values is a value indicating the order in which editors or mechanically added picture streams or audio streams are processed (or to be processed) upon overload. In the example of FIG. 28C, the frame priority of each stream of video and audio and the stream priority of each stream are added.

절대적인 프레임 우선도(absolute ; 절대값)는 상대적인 프레임 우선도와, 스트림 우선도의 합으로부터 구해진다(즉 절대적인 프레임 우선도 = 상대적인 프레임 우선도 + 스트림 우선도). 또 이 산출방법은 감산하거나, 정수를 곱셈하는 방법이라도 된다. An absolute frame priority (absolute) is obtained from the sum of relative frame priority and stream priority (ie absolute frame priority = relative frame priority + stream priority). This calculation method may be a method of subtracting or multiplying integers.

절대적인 프레임 우선도는 주로 네트워크에서 이용된다. 이것은 라우터나 게이트웨이라는 중계장치로, 스트림 우선도와 프레임 우선도를 가미하여 프레임마다의 우선도를 결정하는 필요가 절대값에 의한 표현에서는 불필요하게 되기 때문이다. 이 절대적인 프레임 우선도를 이용함으로써 중계장치에서의 프레임 폐기 등의 처리가 용이하게 된다. Absolute frame priority is mainly used in networks. This is because, in a relay device such as a router or a gateway, the necessity of determining the priority of each frame in addition to the stream priority and the frame priority becomes unnecessary in the expression by the absolute value. By using this absolute frame priority, processing such as frame discard in the relay device is facilitated.

한편 상대적인 프레임 우선도는 주로 기록, 편집을 행하는 축적계로의 응용이 기대된다. 편집작업에서는 복수의 영상, 음성 스트림을 동시에 취급하는 일이 있다. 그와 같은 경우에, 단말이나 네트워크의 부하에 의해 재생할 수 있는 영상스트림이나 프레임 수에는 한계가 생길 가능성이 있다. On the other hand, relative frame priority is expected to be applied to an accumulation system mainly for recording and editing. In editing, multiple video and audio streams may be handled simultaneously. In such a case, there is a possibility that a limit is placed on the number of video streams or frames that can be reproduced by the load of the terminal or the network.

그와 같은 경우에 스트림 우선도와, 프레임 우선도를 분리하여 관리해 두는 것 만으로, 예를 들면 편집자가 우선적으로 표시시키고 싶은, 혹은 사용자가 보고 싶은 스트림의 스트림 우선도를 변경하는 것 만으로 절대값을 표현하고 있을 때와는 달리, 프레임 우선도를 전부 다시 계산할 필요가 없다. 이와 같이 용도에 따라 절대적인 표현, 상대적인 표현을 적절히 사용할 필요가 있다. In such a case, the stream priority and the frame priority are managed separately so that the absolute value can be expressed simply by changing the stream priority of the stream that the editor wants to display first or the user wants to see. Unlike when you do, you don't have to recalculate all of the frame priorities. Thus, it is necessary to use absolute expressions and relative expressions appropriately depending on the use.

또한 스트림 우선도의 값을 상대적인 값으로서 이용할 것인지, 절대적인 값으로서 이용할 것인지를 기술함으로써, 전송시에도 유효하며 축적하는 경우에도 유효한 우선도의 표현이 가능해진다. By describing whether the value of the stream priority is to be used as a relative value or an absolute value, it is effective at the time of transmission and expresses the effective priority even when accumulating.

도 28b의 예에서는 스트림 우선도에 부수하여 스트림 우선도가 표현하는 값이 절대값인지, 상대값인지를 표현하는 플래그나 식별자를 설치하여 구별한다. 프레임 우선도의 경우는 통신 헤더에 상대적인 값이 기술되어 부호화된 프레임 내에 절대적인 값이 기술되기 때문에 플래그나 식별자는 불필요하다. In the example of FIG. 28B, a flag or identifier indicating whether the value expressed in the stream priority is an absolute value or a relative value in addition to the stream priority is provided and distinguished. In the case of frame priority, a flag or identifier is unnecessary because a relative value is described in the communication header and an absolute value is described in the encoded frame.

도 28c의 예에서는 프레임 우선도가 절대값인지 상대값인지를 식별하기 위한 플래그 혹은 식별자를 설치하고 있다. 절대값이라면 스트림 우선도와 상대적인 프레임 우선도로부터 산출되어 있는 우선도이므로 산출 처리를 중계장치나 단말에서 행하지 않는다. 또한 수신단말에서는 산출식이 단말간에서 이미 알고 있는 경우, 절대적인 프레임 우선도와 스트림 우선도로부터 상대적인 프레임 우선도를 역산하는 것이 가능하다. 예를 들면 전송하는 패킷의 절대적인 우선도(Access Unit Priority)를, In the example of FIG. 28C, a flag or identifier for identifying whether the frame priority is an absolute value or a relative value is provided. If the value is absolute, the priority is calculated from the stream priority and the relative frame priority, so that the calculation process is not performed by the relay apparatus or the terminal. In addition, in the receiving terminal, if the calculation equation is already known between the terminals, it is possible to invert the relative frame priority from the absolute frame priority and the stream priority. For example, the access unit priority of transmitted packets

전송 패킷의 절대적 우선도 = 스트림 우선도 - 프레임 우선도, Absolute priority of transport packet = stream priority-frame priority,

라는 관계식으로부터 구해도 된다. 여기에서 프레임 우선도는 스트림 우선도를 감산하기 때문에 열후(degradation) 우선도라고 표현해도 된다. You can obtain from the relational expression Since the frame priority is subtracted from the stream priority, the frame priority may be expressed as a degradation priority.

또 1개 이상의 스트림 우선도를 TCP/IP의 논리채널(LAN의 포트번호)을 통과하는 데이터의 처리 우선도에 대응지어 데이터의 처리를 관리해도 된다. Further, the processing of data may be managed by associating one or more stream priorities with the processing priority of data passing through a TCP / IP logical channel (LAN port number).

덧붙여 화상이나 음성은 문자 또는 제어정보보다 낮은 스트림 우선도나 프레임 우선도를 할당함으로써 재송처리의 필요가 저감되는 것을 기대할 수 있다. 이것은 화상이나 음성은 일부분이 손실되어도 문제가 발생하지 않는 경우도 많기 때문이다. In addition, it is possible to reduce the need for retransmission by assigning a stream priority or a frame priority lower than that of text or control information. This is because there are many cases in which the problem does not occur even if a part of the image or sound is lost.

도 29는 다중 해상도의 화상 데이터로 우선도를 할당하는 방법에 대하여 설명하는 도면이다. It is a figure explaining the method of assigning priority to the image data of multiple resolution.

1개의 스트림이 2개 이상의 복수의 서브스트림으로 구성되는 경우, 서브스트림에 스트림 우선도를 부가하고, 축적시 혹은 전송시에 논리합 혹은 논리곱을 기술함으로써 서브스트림의 처리방법을 정의하는 것이 가능하다. When one stream is composed of two or more substreams, it is possible to define the processing method of the substream by adding the stream priority to the substream and describing the logical sum or logical product at the time of accumulation or transmission.

웨이브릿(wavelet)의 경우, 1개의 영상 프레임을 복수의 다른 해상도의 영상 프레임으로 분해하는 것이 가능하다. 또한 DCT 베이스의 부호화방식으로도 고주파 성분과 저주파 성분으로 분할하여 부호화함으로써 다른 해상도의 영상 프레임으로의 분해는 가능하다. In the case of a wavelet, it is possible to decompose one image frame into a plurality of different resolution image frames. In addition, even in a DCT-based encoding method, by dividing and encoding into high frequency components and low frequency components, decomposition into image frames having different resolutions is possible.

분해된 일련의 영상 프레임으로 구성되는 복수개의 영상 스트림에 부가되는 스트림 우선도 외에 영상 스트림간의 관계를 기술하기 위해 AND(논리곱)와 OR(논리합)로 관계를 정의한다. 구체적인 사용방법은 스트림 A의 스트림 우선도가 5이고, 스트림 B의 스트림 우선도가 10인 경우(숫자가 적은 쪽이 우선도가 높음), 우선도에 의해 스트림 데이터의 폐기라면 스트림 B쪽은 폐기되지만 스트림간의 관계기술을 행함으로써, AND의 경우에는 스트림 B의 우선도가 임계값의 우선도보다 낮아도 폐기하지 않고 전송, 처리하도록 정의해 둔다. In addition to the stream priority added to the plurality of video streams composed of the decomposed series of video frames, the relationship is defined by AND (logical product) and OR (logical sum) to describe the relationship between the video streams. A concrete usage is that if the stream priority of stream A is 5 and the stream priority of stream B is 10 (the smaller the number is, the higher the priority), if the stream data is discarded by priority, the stream B side is discarded. However, by describing the relationship between streams, in the case of AND, even if the priority of the stream B is lower than the priority of the threshold, it is defined to transmit and process without discarding.

이에 따라 관련이 있는 스트림은 폐기되지 않고 처리할 수 있게 된다. OR의 경우에는 반대로 폐기 가능하다고 정의한다. 지금까지와 마찬가지로 폐기처리는 송수신단말에서 행해도 되며, 중계단말에서 행해도 된다. This allows related streams to be processed without being discarded. In the case of OR, it is defined as discardable. As in the past, the disposal may be performed at the transmitting and receiving terminal or at the relay terminal.

또 관계 기술을 위한 연산자로서, 같은 비디오 클립을 24Kbps와 48Kbps의 별개의 스트림으로 부호화한 경우, 어느쪽인지를 재생하면 좋다는 경우가 있다(관계 기술로서 배타적 논리합 EX-OR). In addition, as an operator for a relation description, when the same video clip is encoded into separate streams of 24 Kbps and 48 Kbps, it may be necessary to play either (exclusive logical OR EX-OR as a relation description).

전자의 우선도를 10, 후자를 5로 하고 있는 경우, 사용자는 우선도에 기초하여 후자를 재생해도 되고, 우선도에 따르지 않고 사용자는 후자를 선택해도 된다.When the former has a priority of 10 and the latter has a value of 5, the user may reproduce the latter based on the priority, or the user may select the latter without depending on the priority.

도 30은 통신 페이로드의 구성방법에 대하여 설명하는 도면이다. 30 is a diagram illustrating a method of configuring a communication payload.

복수의 서브스트림으로 구성되는 경우, 서브스트림에 부가된 스트림 우선도에 따라, 예를 들면 우선도가 높은 순서로 송신패킷을 구성함으로써 송신 패킷 레벨에서의 폐기가 용이하게 된다. 또한 그레이딩을 세밀하게 하여 프레임 우선도가 높은 오브젝트끼리의 정보를 하나로 정리하여 통신 패킷을 구성해도 통신 패킷 레벨에서의 폐기가 용이하게 된다. In the case of a plurality of substreams, the transmission packets are made easier by, for example, configuring the transmission packets in order of high priority according to the stream priority added to the substreams. In addition, even when the communication packet is configured by gathering the information of the objects having high frame priority by combining the grading in detail, the discarding at the communication packet level can be easily performed.

또 화상의 슬라이스 구조를 통신 패킷에 대응지음으로써 패킷이 누락되었을 때의 복귀가 용이하다. 요컨대, 동화상의 슬라이스 구조를 패킷의 구조에 대응지음으로써 재동기를 위한 리싱크 마커(re-sync marker)가 불필요하게 된다. 슬라이스 구조와 통신 패킷의 구조가 일치되어 있지 않으면 패킷 누락 등으로 정보가 손실된 경우, 재동기할 수 있도록 리싱크 마커(복귀하는 위치를 알리기 위한 표시)를 부가할 필요가 있다. In addition, since the slice structure of the image is associated with the communication packet, it is easy to return when the packet is missing. In short, the re-sync marker for resynchronization is unnecessary by matching the slice structure of the moving picture to the structure of the packet. If the structure of the slice and the structure of the communication packet do not match, it is necessary to add a resync marker (an indication for indicating the return position) so as to be resynchronized when information is lost due to a missing packet or the like.

이것에 맞추어 우선도가 높은 통신 패킷에는 높은 에러 프로텍션을 거는 것이 고려된다. 또 화상의 슬라이스 구조란 GOB나 MB라는 종합된 화상정보의 단위를 가리킨다.In accordance with this, high error protection is considered for high priority communication packets. The slice structure of an image refers to a unit of combined image information such as GOB or MB.

도 31은 데이터를 통신 페이로드로 대응짓는 방법에 대하여 설명하는 도면이다. 스트림이나 오브젝트를 통신 패킷으로 대응짓는 방법을 제어정보 혹은 데이터와 함께 전송함으로써 통신상황이나 용도에 따라 임의의 데이터 포맷이 생성된다. 예를 들면 RTP(Real time Transfer Protoco1)에서는 취급하는 부호화마다 RTP 의 페이로드가 정의되어 있다. 현행의 RTP 형식은 고정이다. H. 263의 경우, 도 31에 도시된 바와 같이, 모드 A로부터 모드 C의 3개의 데이터 형식이 정의되어 있다. H. 263에서는 다중해상도의 영상 포맷을 대상으로 한 통신 페이로드는 정의되어 있지 않다. It is a figure explaining the method of associating data with a communication payload. By transmitting a stream or an object with a communication packet along with control information or data, an arbitrary data format is generated according to the communication situation or purpose. For example, in RTP (Real time Transfer Protocol), the payload of the RTP is defined for each encoding to be handled. The current RTP format is fixed. For H. 263, as shown in Fig. 31, three data formats from mode A to mode C are defined. In H.263, communication payloads for multi-resolution video formats are not defined.

도 31의 예에서는 레이어 No.와 상술한 관계기술(AND, OR)을 모드 A의 데이터 포맷에 추가하여 정의하고 있다. In the example of FIG. 31, the layer No. and the above-described relation description (AND, OR) are added to the data format of mode A and defined.

도 32는 프레임 우선도, 스트림 우선도와 통신 패킷 우선도와의 대응에 대하여 설명한 도면이다. 32 is a diagram illustrating correspondence between frame priority, stream priority, and communication packet priority.

또 도 32는 전송로에서 통신 패킷에 부가되는 우선도를 통신 패킷 우선도로 하여 스트림 우선도나 프레임 우선도를 통신 패킷 우선도에 대응시키는 예이다.32 shows an example in which the priority added to the communication packet in the transmission path is the communication packet priority, and the stream priority and the frame priority correspond to the communication packet priority.

통상 IP를 이용한 통신에서는 화상이나 음성 데이터에 부가된 프레임 우선도나 스트림 우선도를 하위의 IP 패킷의 우선도 패킷에 대응지어 데이터를 전송할 필요가 있다. 화상이나 음성 데이터는 분할되어 IP의 패킷으로 전송되기 때문에 우선도를 서로 대응지을 필요가 있다. 도면의 예에서는 스트림 우선도는 0부터 3까지의 값을 취하고, 프레임 우선도는 0부터 5까지의 값을 취하기 때문에 상위의 데이터에서는 0부터 15까지의 우선도를 취할 수 있다. In normal communication using IP, it is necessary to transfer data in association with the priority packet of lower IP packets and the frame priority and stream priority added to the image and audio data. Since image and audio data are divided and transmitted in IP packets, it is necessary to correlate the priorities with each other. In the example of the figure, since the stream priority takes a value from 0 to 3 and the frame priority takes a value from 0 to 5, the upper data can take a priority from 0 to 15.

IPv6에서는 우선도(4비트) 중 0부터 7까지는 폭주 제어된(congestion- contro11ed) 트래픽을 위해 예약되어 있는, 우선도 중 8부터 15까지는 실시간 통신 트래픽 또는 폭주 제어되지 않은 트래픽을 위해 예약되어 있다. 우선도 15는 가장 우선도가 높고, 우선도 8이 가장 우선도가 낮다. 이것은 IP의 패킷 레벨에서의 우선도가 된다. In IPv6, 0 through 7 of priorities (4 bits) are reserved for congestion-contro11ed traffic, and 8 through 15 of priorities are reserved for real-time communication traffic or uncontrolled congestion traffic. Priority 15 has the highest priority and priority 8 has the lowest priority. This is the priority at the packet level of IP.

IP를 사용한 데이터의 전송에서는 상위의 0부터 15까지의 우선도를 하위의 IP의 우선도인 8부터 15까지의 우선도에 대응지을 필요가 있다. 대응지음은 상위 우선도의 일부를 클리핑하는 방식이라도 되고, 평가함수를 붙여 대응지어도 된다. 상위 데이터와 하위 IP의 우선도의 대응지음은 중계노드(라우터나 게이트웨이 등), 송수신 단말에서 관리를 행한다.In the transmission of data using IP, it is necessary to correspond the priority of upper 0 to 15 to the priority of 8 to 15 which is the priority of lower IP. Correspondence may be a method of clipping a part of higher priority, or may be associated with an evaluation function. The correspondence between the priority of the upper data and the lower IP is managed by the relay node (router, gateway, etc.) and the transmission / reception terminal.

또 전송수단은 IP만으로 한정되는 것은 아니고, ATM이나 MPEG2의 TS(트랜스포트 스트림)과 같이 폐기가능한지 그렇지 않은지의 플래그를 가진 전송 패킷을 대상으로 해도 된다. The transmission means is not limited to IP alone, but may be a transmission packet having a flag of whether it can be discarded or not, such as TS (transport stream) of ATM or MPEG2.

지금까지 설명한 프레임 우선도와 스트림 우선도는 전송 매체나 데이터 기록매체로 적용이 가능하다. 데이터 기록매체로서 플로피 디스크, 광디스크 등을 이용하여 행할 수 있다. The frame priority and stream priority described so far can be applied to a transmission medium or a data recording medium. It can be performed using a floppy disk, an optical disk, or the like as a data recording medium.

또 기록매체는 이것에 한정되지 않고, IC 카드, ROM 카세트 등, 프로그램을 기록할 수 있는 것이면 마찬가지로 실시할 수 있다. 또 데이터를 중계하는 라우터나 게이트웨이라는 화상 음성 중계장치를 대상으로 해도 된다. The recording medium is not limited to this, and the recording medium can be similarly implemented as long as it can record a program such as an IC card or a ROM cassette. In addition, a video and audio relay apparatus such as a router or a gateway for relaying data may be used.

덧붙여서 스트림 우선도(시계열 데이터간 우선도)나, 프레임 우선도(시계열 데이터내 우선도)의 정보에 기초하여 재송해야 할 시계열 데이터를 결정함으로써 우선적인 재송처리가 가능해진다. 예를 들면 우선도 정보에 기초하여 수신단말에서 디코드를 행하고 있는 경우, 처리의 대상외인 스트림이나 프레임의 재송을 방지할 수 있다. In addition, priority retransmission processing can be performed by determining time series data to be retransmitted based on information of stream priority (priority between time series data) and frame priority (priority in time series data). For example, when decoding is performed at the receiving terminal based on the priority information, it is possible to prevent retransmission of streams or frames which are not subject to processing.

또한 현재의 처리대상으로 되어 있는 우선도와는 별도로 재송횟수와 송신 성공횟수의 관계로부터 재송해야 할 우선도의 스트림이나 프레임을 결정해도 된다.The priority stream or frame to be retransmitted may also be determined from the relationship between the number of retransmissions and the number of successes of transmission separately from the priority currently being processed.

한편 송신측 단말에서도 스트림 우선도(시계열 데이터간 우선도)나 프레임 우선도(시계열 데이터내 우선도)의 정보에 기초하여 송신해야 할 시계열 데이터를 결정함으로써 우선적인 송신처리가 가능해진다. 예를 들면, 평균 전송률이나, 재송횟수에 기초하여 송신해야 할 스트림이나 프레임 우선도를 결정함으로써 네트워크가 과부하일 때에도 적응적인 영상이나 음성의 전송이 가능하게 된다. On the other hand, the transmitting terminal also enables priority transmission processing by determining time series data to be transmitted based on information of stream priority (priority between time series data) or frame priority (priority in time series data). For example, by determining the stream or frame priority to be transmitted based on the average data rate or the number of retransmissions, adaptive video or audio transmission is possible even when the network is overloaded.

또 상기 실시예는 2차원의 화상합성만으로 한정된 것은 아니다. 2차원 화상과 3차원 화상을 조합시킨 표현형식이라도 되고, 광시야화상(파노라마 화상)과 같이 복수의 화상을 인접하도록 화상 합성하는 화상 합성방법을 포함해도 된다. 또 본 발명에서 대상으로 하고 있는 통신형태는 유선의 쌍방향 CATV나 B-ISDN뿐만은 아니다. 예를 들면 센터측 단말로부터 가정측 단말로의 영상이나 음성의 전송은 전파(예를 들면, VHF대, UHF대), 위성방송이고, 가정측 단말로부터 센터측 단말로의 정보 발신은 아날로그 전화회선이나 N-ISDN이라도 된다(영상, 음성, 데이터도 반드시 다중화되어 있을 필요는 없다). 또한 IrDA, PHS(personal handy phone)나 무선 LAN과 같은 무선을 이용한 통신형태라도 된다. The above embodiment is not limited to only two-dimensional image synthesis. The expression form which combined a two-dimensional image and a three-dimensional image may be sufficient, and the image synthesis method which combines an image so that a plurality of images may adjoin like a wide field image (panorama image) may be included. In addition, not only the wired bidirectional CATV and B-ISDN are the communication modes targeted in the present invention. For example, transmission of video and audio from the center terminal to the home terminal is radio wave (for example, VHF band, UHF band) and satellite broadcasting, and information transmission from the home terminal to the center terminal is analog telephone line. Or N-ISDN (video, audio, and data are not necessarily multiplexed). It may also be a wireless communication type such as IrDA, PHS (personal handy phone) or wireless LAN.

또한 대상으로 하는 단말은 휴대정보단말과 같이 휴대형 단말이라도 되고, 셋 톱 박스, 퍼스널 컴퓨터와 같이 탁상형 단말이라도 된다.The target terminal may be a portable terminal like a portable information terminal, or may be a desktop terminal like a set top box or a personal computer.

이상과 같이 본 발명에 의하면, 복수의 비디오 스트림이나 복수의 오디오 스트림의 취급이나, 편집자의 의도를 반영시켜 중요한 장면을 중점적으로 오디오와 함께 동기 재생시키는 것이 용이하게 된다. As described above, according to the present invention, it becomes easy to synchronously reproduce important scenes with audio, focusing on handling a plurality of video streams or a plurality of audio streams and reflecting the intention of the editor.

이하에 본 발명의 실시예를 도면을 참조하여 설명하기로 한다. Embodiments of the present invention will be described below with reference to the drawings.

또 여기에서 설명하는 실시예는 주로 상술한 과제 (C1)∼(C3) 중 어느 것을 해결하는 것이다. Moreover, the Example demonstrated here mainly solves any of the above-mentioned subjects (C1)-(C3).

도 33은 제 1 실시예인 송신장치의 구성을 도시한 것이다. Fig. 33 shows the construction of the transmitter as the first embodiment.

2101은 화상 입력단자로서, 1장의 화상 사이즈는 예를 들면 세로 144화소, 가로 176화소이다. 2102는 동화상 부호화장치로서 4개의 구성요소(1021, 1022, 1023, 1024)로 이루어진다(Recommendation H. 261 참조). 2101 denotes an image input terminal, and the size of one image is, for example, 144 pixels long and 176 pixels wide. 2102 is a video encoding apparatus, which is composed of four components 1021, 1022, 1023, and 1024 (see Recommendation H. 261).

1021은 입력된 화상을 매크로 블록(세로 16 화소, 가로 16 화소의 정방형 영역)으로 분할하여, 이 블록의 부호화를 인트라/인터 어느쪽으로 부호화할 것인지를 결정하는 전환기, 1022는 전회의 부호화 결과로부터 계산할 수 있는 로컬 디코드 화상을 기초로 모션 보상화상을 작성하고, 이것과 입력화상의 차분을 계산하여 결과를 매크로 블록단위로 출력하는 모션 보상수단으로서, 모션 보상에는 처리시간이 긴 하프 픽셀 모션 보상과 처리시간이 짧은 풀 픽셀 모션 보상이 있다. 1023은 각각의 매크로 블록에 대하여 DCT 변환을 실시하는 직교 변환수단, 1024는 이 DCT 변환결과 및 다른 부호화 정보에 대하여 엔트로피 부호화를 실시하기 위한 가변길이 부호화수단이다. 1021 is a switching unit for dividing an input image into macroblocks (a square region of 16 pixels in length and 16 pixels in width), and determining whether to encode an encoding of this block into intra / inter, 1022 to calculate from the last encoding result. A motion compensation means for creating a motion compensation image based on a local decoded image that can be generated, calculating a difference between the input image, and outputting the result in units of macroblocks. There is a short time full pixel motion compensation. 1023 denotes orthogonal transform means for performing DCT transform on each macro block, and 1024 denotes variable length encoding means for performing entropy encoding on the DCT transform result and other encoded information.

2103은 계수수단으로서, 동화상 부호화장치(2102)의 4개의 구성요소의 실행횟수를 계수하고, 입력화상마다 결과를 변환수단으로 출력한다. 이 때 모션 보상수단(1022)으로부터는 하프 픽셀과 풀 픽셀의 2가지에 대하여 각각의 실행횟수를 계수한다. 2103 is a counting means, which counts the number of executions of four components of the moving picture coding apparatus 2102, and outputs the result to the converting means for each input image. At this time, the motion compensation means 1022 counts the number of executions for each of the two half pixels and the full pixels.

2104는 변환수단으로서, 도 34에 도시된 바와 같은 데이터열을 출력한다. 2105는 송신수단으로서 동화상 부호화장치(2102)로부터의 가변길이 부호와, 변환수단(2104)으로부터의 데이터열을 다중화하여 1개의 데이터열로 하고, 데이터 출력단자(2109)에 출력하는 것이다. 2104 is a converting means, and outputs a data string as shown in FIG. The variable length code from the moving picture coding apparatus 2102 and the data string from the converting means 2104 are multiplexed as one data string as a transmission means, and output to the data output terminal 2109.

이상의 구성에 의해 수신장치에 필수처리(전환기(1021), 직교 변환수단(1023), 가변길이 부호화수단(1024))와 비필수처리(모션 보상수단(1022))의 각 실행횟수를 전달할 수 있다. With the above configuration, the number of executions of essential processing (switching unit 1021, orthogonal transforming unit 1023, variable length encoding unit 1024) and non-essential processing (motion compensating unit 1022) can be transmitted to the receiving apparatus. .

다음으로 도 40은 제 2 실시예인 송신방법의 흐름도이다. 40 is a flowchart of a transmission method according to the second embodiment.

본 실시예에서의 동작이 제 1 실시예와 비슷하므로 대응하는 요소를 부기해 둔다. 801에서 화상을 입력하고 (화상 입력단자(2101), 802에서 화상을 매크로 블록으로 분할한다. 이후 807의 조건분기에 의해 모든 매크로 블록에 대한 처리를 완료할 때까지 803부터 806까지의 처리를 반복한다. 또 803부터 806까지의 처리 횟수를 특정한 변수에 기록할 수 있도록 각각의 처리를 실행한 경우에는 대응하는 변수를 1만큼 증분한다. Since the operation in this embodiment is similar to that of the first embodiment, corresponding elements are added. The image is input at 801 (the image input terminal 2101, and the image is divided into macro blocks at 802. Then, the processes from 803 to 806 are repeated until the processing for all macro blocks is completed by the conditional branch of 807). If each process is executed so that the number of processes from 803 to 806 can be recorded in a specific variable, the corresponding variable is incremented by one.

우선 803에서 처리대상의 매크로 블록을 인트라/인터 어느쪽으로 부호화할 것인지를 판정한다(전환기(1021)). 인터의 경우는 804에서 모션 보상을 행한다 (모션 보상수단(1022)). 그 후 805, 806에서 DCT 변환, 가변길이 부호화를 행한다(직교 변환수단(1023), 가변길이 부호화수단(1024)). 모든 매크로 블록에 대한 처리를 완료하면(807에서 예(Yes)일 때), 808에서 각각의 처리에 대응하는 실행횟수를 나타내는 변수를 판독하여 도 2에 도시된 바와 같은 데이터열을 생성하고 이 데이터열과 부호를 다중화하여 출력한다. 이상의 801부터 808까지의 처리를 입력화상이 계속되는 한 반복 실행한다. First, in 803, it is determined whether intra / inter encoding of a macroblock to be processed is performed (switch 1021). In the case of an inter, motion compensation is performed at 804 (motion compensation means 1022). Thereafter, DCT transform and variable length encoding are performed at 805 and 806 (orthogonal transform means 1023 and variable length encoding means 1024). Upon completion of processing for all macro blocks (Yes at 807), a variable representing the number of executions corresponding to each processing is read at 808 to generate a data string as shown in FIG. Output multiplexed strings and signs. The above processes 801 to 808 are repeatedly executed as long as the input image continues.

이상의 구성에 의해 각 처리의 실행횟수를 송신할 수 있다. With the above configuration, the number of executions of each process can be transmitted.

다음으로 도 35는 제 3 실시예인 수신장치의 구성을 도시한 것이다. Next, Fig. 35 shows the configuration of the receiving apparatus as the third embodiment.

도 35에서 307은 제 1 실시예의 송신장치의 출력을 입력하기 위한 입력단자, 301은 제 1 실시예의 송신장치의 출력을 기초로 가변길이부호와 데이터열을 역다중화에 의해 인출하여 출력하는 수신수단으로서, 이 때 1장분의 데이터를 수신하는 데 소요되는 시간을 계측해 두고, 이것도 출력하는 것으로 한다. 35 to 307 are input terminals for inputting the output of the transmission apparatus of the first embodiment, and 301 is reception means for drawing out and outputting the variable length code and the data string by demultiplexing based on the output of the transmission apparatus of the first embodiment. In this case, the time required for receiving one piece of data at this time is measured and this is also output.

303은 가변길이부호를 입력으로 하는 동화상의 복호화장치로서, 5개의 구성요소로 이루어진다. 3031은 가변길이부호로부터 DCT 계수 및 다른 부호화정보를 인출하기 위한 가변길이 복호화수단, 3032는 DCT 계수에 대하여 역DCT 변환처리를 실시하는 역직교 변환수단, 3033은 전환기로서 매크로 블록마다 인트라/인터 어느쪽으로 부호화되어 있는지의 부호화정보에 기초하여, 출력을 상하로 분류하는 동작을 한다. 3034는 모션 보상수단으로서 전회의 복호화상과 모션의 부호화정보를 이용하여 모션 보상화상을 작성하고, 이 화상에 역직교 변환수단(3032)의 출력을 가산하여 출력한다. 3035는 실행시간 계측수단으로서, 복호화장치(303)에 가변길이부호가 입력되고 나서 화상의 복호화 및 출력을 완료할 때까지의 실행시간을 계측하여 이것을 출력한다. 303 is a video decoding apparatus that receives a variable length code as an input, and is composed of five components. 3031 is variable length decoding means for extracting DCT coefficients and other encoded information from variable length codes, 3032 is inverse orthogonal transform means for performing inverse DCT transform processing on DCT coefficients, and 3033 is a switch for intra / inter each macroblock. The output is classified into up and down on the basis of the encoding information of whether or not it is encoded to the side. 3034 creates a motion compensation image using the last decoded image and the encoding information of the motion as a motion compensation means, and adds and outputs the output of the inverse orthogonal conversion means 3032 to this image. 3035 is an execution time measuring means, which measures the execution time from when the variable length code is input to the decoding apparatus 303 until the decoding and output of the image is completed and outputs it.

302는 수신수단(301)으로부터의 데이터열로부터 각 요소(가변길이 복호화수단(3031), 역직교 변환수단(3032), 전환기(3033), 모션 보상수단(3034))의 실행횟수와, 실행시간 계측수단(3035)으로부터 실행시간을 수취하여 각 요소의 실행시간을 추정하는 추정수단이다. 302 denotes the number of times of execution of each element (variable length decoding means 3031, inverse orthogonal transformation means 3032, converter 3033, motion compensation means 3034) from the data string from the receiving means 301, and execution time. It is estimation means for receiving the execution time from the measurement means 3035 and estimating the execution time of each element.

추정방법은, 예를 들면 선형회귀를 이용하면 추정 실행시간을 목적변수 y, 각 요소의 실행횟수를 설명변수 x_i로 하면 된다. 이 경우, 회귀 파라미터 a_i는 각 요소의 실행시간으로 간주될 것이다. 또 선형회귀의 경우, 과거의 데이터를 충분히 많이 축적해 둘 필요가 있어 메모리를 많이 소비하게 되지만, 이것을 싫어하는 경우에는 칼만 필터에 의한 내부상태 변수의 추정을 이용해도 된다. 이 경우, 관측값이 실행시간, 각 요소의 실행시간을 내부상태 변수로 하고, 관측행렬 C가 각 요소의 실행횟수로 단계별로 변화하는 경우라고 생각하면 된다. 304는 풀 픽셀 모션 보상의 실행횟수를 줄이고, 상당수만 하프 픽셀 모션 보상의 실행횟수를 늘리도록 각 요소의 실행횟수를 변경하는 횟수 삭감수단이다. 이 상당수의 계산방법은 다음과 같다. In the estimation method, for example, when linear regression is used, the estimation execution time may be the target variable y and the execution frequency of each element is the explanatory variable x_i. In this case, the regression parameter a_i will be regarded as the runtime of each element. In the case of linear regression, it is necessary to accumulate a large amount of historical data, which consumes a lot of memory. However, if the user does not like this, the estimation of the internal state variable by the Kalman filter may be used. In this case, it is assumed that the observed value is the execution time and the execution time of each element as an internal state variable, and the observation matrix C changes in stages by the number of executions of each element. 304 is a number reducing means for changing the number of times of execution of each element so as to reduce the number of times of full pixel motion compensation and to increase the number of times of half pixel motion compensation. Many of these calculations are as follows.

우선 추정수단(302)으로부터 각 요소의 실행횟수와 추정 실행시간을 수취하여 실행시간을 예상한다. 이 시간이 수신수단(301)으로부터의 데이터를 수신하는 데 소요된 시간을 초과하는 경우에, 초과되지 않게 될 때까지 풀 픽셀 모션 보상의 실행횟수를 늘리고, 하프 픽셀 모션 보상의 실행횟수를 줄인다. 306은 복호화 화상의 출력단자이다. First, the execution time and the estimated execution time of each element are received from the estimation means 302, and the execution time is estimated. If this time exceeds the time taken to receive the data from the receiving means 301, the number of times of full pixel motion compensation is increased until it is not exceeded, and the number of times of half pixel motion compensation is reduced. 306 denotes an output terminal of the decoded image.

또 모션 보상수단(3034)은 부호화정보로부터 하프 픽셀 모션 보상을 행하도록 지시되어 있는 경우지만, 하프 픽셀 모션 보상의 소정 실행횟수를 초과한 경우에는 하프 픽셀의 모션을 라운딩하여 풀 픽셀의 모션으로서 풀 픽셀의 모션 보상을 실행한다. When the motion compensation means 3034 is instructed to perform half pixel motion compensation from the encoded information, but when the predetermined number of executions of the half pixel motion compensation is exceeded, the motion compensation means 3034 rounds the half pixel motion to full motion as a full pixel motion. Perform pixel motion compensation.

이상에서 설명한 제 1 실시예, 제 3 실시예에 의하면, 추정된 각 요소의 실행시간으로부터 복호화처리의 실행시간을 예측하여 이것이 1장분의 데이터를 수신하는 데 소요되는 시간(지정시간)을 초과한다면 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제(C1)를 해결할 수 있다. According to the first and third embodiments described above, if the execution time of the decoding process is predicted from the estimated execution time of each element, and this exceeds the time (designated time) required to receive one piece of data, The motion compensation of the long-running half pixel is replaced with the motion compensation of full pixel. As a result, it is possible to prevent the execution time from exceeding the specified time, thereby solving the problem (C1).

또 수신장치에서의 IDCT 계산에 있어서 고주파 성분을 사용하지 않도록 함으로써 IDCT 계산의 처리시간을 줄일 수 있다. 요컨대, IDCT 계산 중 저주파성분의 계산을 필수처리, 고주파성분의 계산을 비필수처리로 간주하고, IDCT 계산의 고주파성분의 계산횟수를 삭감하도록 해도 된다.Moreover, the processing time of IDCT calculation can be shortened by not using a high frequency component in IDCT calculation in a receiver. In other words, the calculation of the low frequency component during the IDCT calculation may be regarded as an essential process and the calculation of the high frequency component is a non-essential process, and the calculation frequency of the high frequency component of the IDCT calculation may be reduced.

다음으로 도 41은 제 4 실시예인 수신방법의 흐름도이다. 41 is a flowchart of a receiving method according to a fourth embodiment.

본 실시예에서의 동작이 제 3 실시예와 비슷하므로 대응하는 요소를 부기해 둔다. 단계 901에서 각 요소의 실행시간을 표현하는 변수 a_i를 초기화한다(추정수단(302)). 902에서 다중화 데이터의 입력과, 이것에 소요되는 시간을 계측한다 (수신수단(301)). 903에서 이 다중화 데이터를 가변길이부호와 데이터열로 분리하여 출력한다(수신수단(301)). 904에서 데이터열(도 2)로부터 각 실행횟수를 인출하고, 이들을 x_i에 설정한다. 905에서 각 요소의 실행시간 a_i와 각 실행횟수 x_i로부터 실제의 실행횟수를 산출한다(횟수 삭감수단(304)). 906에서 복호화처리의 실행시간의 계측을 개시하고, 907에서 후술하는 복호화처리 루틴을 기동하고, 그 후 908에서 복호화처리의 실행시간의 계측을 종료한다(동화상의 복호화장치(303), 실행시간 계측수단(3035)). 908에서는 908에서의 복호화처리의 실행시간과 905에서의 각 요소의 실제의 실행횟수로부터 각 요소의 실행시간을 추정하여 a_i를 갱신한다(추정수단(302)). 이상의 처리를 입력되는 다중화 데이터마다 실행한다. Since the operation in this embodiment is similar to that in the third embodiment, corresponding elements are added. In step 901, the variable a_i representing the execution time of each element is initialized (estimating means 302). In 902, the input of the multiplexed data and the time required for this are measured (receiving means 301). In 903, the multiplexed data is output by separating the variable length code and the data string (receiving means 301). At 904, the number of executions is extracted from the data string (FIG. 2), and these are set in x_i. In 905, the actual number of executions is calculated from the execution time a_i of each element and each execution number x_i (number reduction means 304). Measurement of the execution time of the decoding process is started at 906, and the decoding processing routine described later is started at 907, and measurement of the execution time of the decoding process is then terminated at 908 (video decoding apparatus 303, execution time measurement). Means 3035). In 908, a_i is updated by estimating the execution time of each element from the execution time of the decoding process in 908 and the actual number of executions of each element in 905 (estimating means 302). The above processing is executed for each input multiplexed data.

또한 복호화처리 루틴(907)에서는 910에서 가변길이 복호화를 행하고(가변길이 복호화수단(3031)), 911에서 역직교변환을 행하고(역직교 변환수단(3032)), 912에서 910에서의 처리로 인출된 인트라/인터의 정보로 분기한다(전환기(3033)). 인터의 경우는 913에서 모션 보상을 실시한다(모션 보상수단(3034)). 이 913에서 하프 픽셀 모션 보상의 실행횟수를 계수해 두고, 이것이 905에서 구한 실제의 실행횟수를 초과한 경우에는 하프 픽셀 모션 보상을 풀 픽셀 모션 보상으로 치환하여 실행한다. 이상의 처리를 모든 매크로 블록에 대하여 완료한 후(단계 914), 이 루틴을 종료한다. Further, the decoding processing routine 907 performs variable length decoding at 910 (variable length decoding means 3031), performs inverse orthogonal transformation at 911 (inverse orthogonal transformation means 3032), and fetches the processing at 912 at 910. Branches to information of the received intra / inter (converter 3033). In the case of the inter, motion compensation is performed at 913 (motion compensation means 3034). In 913, the number of executions of the half pixel motion compensation is counted. If this exceeds the actual number of executions obtained in 905, the half pixel motion compensation is replaced with the full pixel motion compensation. After the above processing is completed for all the macroblocks (step 914), this routine ends.

이상에서 설명한 제 2 실시예, 제 4 실시예에 의하면, 추정된 각 요소의 실행시간으로부터 복호화처리의 실행시간을 예측하고, 이것이 1장분의 데이터를 수신하는 데 소요되는 시간(지정시간)을 초과할 것 같으면 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제 (C1)을 해결할 수 있다. According to the second and fourth embodiments described above, the execution time of the decoding process is estimated from the estimated execution time of each element, and this exceeds the time (designated time) required to receive one piece of data. If possible, the motion compensation of the long-running half pixel is replaced with the motion compensation of full pixel. As a result, it is possible to prevent the execution time from exceeding the specified time, thereby solving the problem (C1).

다음으로 도 36은 제 5 실시예인 수신장치의 구성을 도시한 것이다. Next, Fig. 36 shows the configuration of the receiving apparatus as the fifth embodiment.

본 실시예의 구성요소는 대부분 제 2 실시예에서 설명한 것과 동일하며, 2개의 구성요소의 추가와, 1개의 구성요소의 수정뿐이므로 그 점을 설명하기로 한다. Most of the components of the present embodiment are the same as those described in the second embodiment, and only the addition of two components and the modification of one component will be described.

402는 제 2 실시예에서 설명한 추정수단(302)에 추정의 결과 얻은 각 요소의 실행시간을 횟수 제한수단(304)으로 출력과는 별도로 출력하도록 수정한 것이다. 408은 송신수단으로서, 각 요소의 실행시간으로부터 도 37에 도시된 바와 같은 데이터열을 생성하여 이것을 출력하는 것이다. 실행시간은 마이크로초를 단위로 하여 16비트로 표현하면 최대 약 65밀리초를 표현할 수 있으므로 충분할 것이다. 409는 이 데이터열을 송신수단에 보내기 위한 출력단자이다. 402 is modified to output the execution time of each element obtained as a result of the estimation to the number limiting means 304 separately from the output to the estimation means 302 described in the second embodiment. 408 is a transmission means, which generates a data string as shown in Fig. 37 from the execution time of each element and outputs it. The execution time will be sufficient because a maximum of about 65 milliseconds can be expressed in 16 bits in microseconds. 409 is an output terminal for sending this data string to the transmission means.

또한 이 제 5 실시예에 대응하는 수신방법은 도 37에 도시된 바와 같은 데이터열을 생성하는 단계를 도 40의 808 직후에 추가한 것이면 된다. The reception method corresponding to the fifth embodiment may be a step in which the step of generating a data string as shown in FIG. 37 is added immediately after 808 in FIG.

다음으로 도 38은 제 6 실시예인 송신장치의 구성을 도시한 것이다. Next, Fig. 38 shows the configuration of the transmitter according to the sixth embodiment.

본 실시예의 구성요소는 대부분 제 1 실시예에서 설명한 것과 동일하며, 2개의 구성요소를 추가했을 뿐이므로 그 점을 설명하기로 한다. 606은 제 3 실시예의 수신장치가 출력하는 데이터열을 수신하기 위한 입력단자, 607은 이 데이터열을 수신하여 각 요소의 실행시간을 출력하는 수신수단이다. 608은 각 요소의 실행횟수를 구하는 결정수단으로서 그 순서는 다음과 같다. 우선 화상 중의 모든 매크로 블록에 대하여 전환기(1021)에서의 처리를 행하고, 이 시점에서의 전환기(1021)의 실행횟수를 구한다. 또한 이 후의 모션 보상수단(1022), 직교 변환수단(1023), 가변길이 부호화수단(1024)에서의 실행횟수는 이 시점까지의 처리결과에 따라 일의적으로 결정할 수 있다. 따라서 이들 실행횟수와, 수신수단(607)으로부터의 실행시간을 이용하여 수신장치측에서의 복호화에 소요되는 실행시간을 예측한다. 이 예측 복호화 시간은 각 요소의 실행시간과 실행횟수의 곱의, 요소마다의 총합으로서 구해진다. 그리고 예측 복호와 시간이 미분 제어기 등이 지정한 금회의 화상에서 발생해야 할 부호량(예를 들면 16kbits)의 전송에 소요되는 시간(예를 들면, 전송속도가 64kbit/sec라면 25Omsec) 이상이면 복호화시간이 전송에 소요되는 시간을 초과하지 않도록 풀 픽셀 모션 보상의 실행횟수를 늘리고, 하프 픽셀 모션 보상의 실행횟수를 줄인다(풀 픽셀 모션 보상 쪽이 실행시간이 짧으므로 이 횟수를 줄임으로써 실행시간을 작게 할 수 있음). Most of the components of this embodiment are the same as those described in the first embodiment, and since only two components are added, the point will be described. 606 is an input terminal for receiving a data string output by the receiving apparatus of the third embodiment, and 607 is a receiving means for receiving the data string and outputting execution time of each element. 608 is a means for determining the number of executions of each element, the order being as follows. First, processing in the switcher 1021 is performed for all the macroblocks in the image, and the number of executions of the switcher 1021 at this point is obtained. The number of executions of the motion compensation means 1022, the orthogonal transform means 1023, and the variable length encoding means 1024 thereafter can be uniquely determined according to the processing result up to this point in time. Therefore, by using these execution times and the execution time from the receiving means 607, the execution time required for decoding on the receiving apparatus side is estimated. This predictive decoding time is obtained as the total of each element of the product of the execution time of each element and the number of execution times. If the predictive decoding and the time are longer than the time required for transmission of the code amount (e.g. 16kbits) to be generated in the current picture specified by the differential controller or the like (e.g., 25Omsec if the transmission rate is 64kbit / sec), the decoding time. Increase the number of executions of full pixel motion compensation to avoid exceeding the time required for this transmission, and reduce the number of executions of half pixel motion compensation (the execution time is shorter because full pixel motion compensation is shorter). You can).

또 동화상의 부호화장치(2102)는 결정수단(608)이 지정한 실행횟수에 기초하여 각 처리를 행한다. 예를 들면 모션 보상기(1022)는 지정된 하프 픽셀의 모션 보상 실행횟수만큼 하프 픽셀 모션 보상을 실행 완료되면, 그 후는 풀 픽셀의 모션 보상만을 실행하게 된다. The moving picture encoding apparatus 2102 performs each processing based on the number of executions specified by the determining means 608. For example, when the motion compensator 1022 completes the half pixel motion compensation by the specified number of half times of motion compensation, only the full pixel motion compensation is performed thereafter.

또한 하프 픽셀의 모션 보상이, 화상 중에 일정하게 흩어지도록 선택방법을 연구해도 된다. 예를 들면 우선 하프 픽셀의 모션 보상을 필요로 하는 매크로블록을 전부 구하여 이 수(예를 들면 12)를 하프 픽셀의 모션 보상 실행횟수(예를 들면 4)로 나눈 몫(3)을 구하고, 하프 픽셀의 모션 보상을 필요로 하는 매크로블록의 처음부터의 순서가 이 몫으로 나누어 떨어지는 것(0, 3, 6, 9)만으로 하프 픽셀의 모션 보상을 실시하는 방법이라도 된다.Further, the selection method may be studied so that half pixel motion compensation is uniformly scattered in the image. For example, first obtain all the macroblocks that require half-pixel motion compensation, and obtain the quotient (3) by dividing this number (eg, 12) by the number of half-pixel motion compensation executions (eg, 4). The method of performing half pixel motion compensation may be performed only by dividing the order from the beginning of the macroblock requiring pixel motion compensation by this quotient (0, 3, 6, 9).

이상에서 설명한 제 5 실시예, 제 6 실시예에 의하면 추정된 각 요소의 실행시간을 송신측에 전송하고, 송신측에서 복호화처리의 실행시간을 예측하여 이것이 1장분의 데이터를 수신하는 데 소요될 듯한 시간(지정시간)을 초과하지 않도록 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 보내진 부호화 정보 중 하프 픽셀 모션 보상의 정보가 버려지는 일 없이, 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제(C2)를 해결할 수 있다. According to the fifth and sixth embodiments described above, the estimated execution time of each element is transmitted to the transmitting side, and the transmitting side predicts the execution time of the decoding process, and this is likely to take one piece of data. In order not to exceed the time (specified time), the motion compensation of the long-running half pixel is replaced with the motion compensation of the full pixel. As a result, the execution time does not exceed the designated time without discarding half pixel motion compensation information among the sent encoding information, thereby solving the problem (C2).

또 비필수처리에서 인터 매크로블록 부호화를 보통의 모션 보상, 8 ㅧ 8모션 보상, 오버랩 모션 보상의 3가지로 분할해도 된다. In non-essential processing, inter macroblock coding may be divided into three types: normal motion compensation, 8 ㅧ 8 motion compensation, and overlap motion compensation.

다음으로 도 42는 제 7 실시예인 송신방법의 흐름도이다.42 is a flowchart of a transmission method according to the seventh embodiment.

본 실시예에서의 동작이 제 6 실시예와 비슷하므로 대응하는 요소를 부기해 둔다. 1001에서 각 처리의 실행시간의 초기값을 설정한다. 801에서 화상을 입력하고(입력단자(2101)), 화상을 매크로블록으로 분할한다. 1002에서 모든 매크로블록에 대하여 인트라/인터 어느쪽으로 부호화할 것인지를 판정한다(전환기(1021)). 이 결과, 1005부터 806까지의 각 처리의 실행횟수를 알 수 있으므로, 1003에서는 이 실행횟수와 각 처리의 실행시간으로부터 실제의 실행횟수를 산출한다(결정수단(608)). Since the operation in this embodiment is similar to the sixth embodiment, corresponding elements are added. In 1001, the initial value of the execution time of each processing is set. An image is input at 801 (input terminal 2101), and the image is divided into macroblocks. At 1002, it is determined whether to encode intra / inter for all macroblocks (switch 1021). As a result, since the number of executions of each process from 1005 to 806 can be known, the actual execution number is calculated from the number of executions and the execution time of each process in 1003 (determination means 608).

이후 807의 조건분기에 의해 모든 매크로블록에 대한 처리를 완료할 때까지 1005부터 806까지의 처리를 반복한다. Thereafter, the processing from 1005 to 806 is repeated until the processing for all macroblocks is completed by the conditional branch of 807.

또 1005부터 806까지의 처리횟수를 특정한 변수로 기록할 수 있도록 각각의 처리를 실행한 경우에는 대응하는 변수를 1만큼 증분한다. 우선 1005에서, 1002에서의 판정결과에 기초하여 분기한다(전환기(1021). 인터의 경우는 804에서 모션 보상을 행한다(모션 보상수단(1022)). 여기에서 하프 픽셀 모션 보상의 횟수를 계수해 두고, 이것이 1003에서 구한 실제의 실행횟수를 초과한 경우에는 하프 픽셀 모션 보상을 실행하지 않고 대신에 풀 픽셀 모션 보상을 실행한다. 그 후 805, 806에서 DCT 변환, 가변길이 부호화를 행한다(직교 변환수단(1023), 가변길이 부호화수단(1024). 모든 매크로블록에 대한 처리를 완료하면(807에서 예일 때), 808에서 각각의 처리에 대응하는 실행횟수를 나타내는 변수를 판독하여 도 2에 도시된 바와 같은 데이터열을 생성하고, 이 데이터열과 부호를 다중화하여 출력한다. 1004에서는 데이터열을 수신하고, 앞으로의 각 처리의 실행시간을 인출하여 설정한다. In addition, when each processing is executed so that the number of processing from 1005 to 806 can be recorded as a specific variable, the corresponding variable is incremented by one. First, at 1005, branching is made based on the determination result at 1002 (switch 1021. In the case of an inter, motion compensation is performed at 804 (motion compensation means 1022). Here, the number of half pixel motion compensation is counted. If this exceeds the actual number of executions obtained in 1003, half pixel motion compensation is not performed, but full pixel motion compensation is performed instead, followed by DCT transform and variable length encoding at 805 and 806 (orthogonal transform). Means 1023, variable length encoding means 1024. Upon completion of the processing for all macroblocks (YES at 807), a variable representing the number of executions corresponding to each processing is read out at 808 and shown in FIG. A data string as described above is generated, and the data string and the code are multiplexed and output, and in 1004, the data string is received, and the execution time of each subsequent processing is retrieved and set.

이상 801부터 1004까지의 처리를 입력화상이 계속되는 한 반복 실행한다. The above processes from 801 to 1004 are repeatedly executed as long as the input image continues.

이상에서 설명한 제 5 실시예의 설명부분의 마지막의 「또한」으로 시작되는 패러그래프와, 제 7 실시예에 의하면, 추정된 각 요소의 실행시간을 송신측으로 전송하고, 송신측에서 복호화처리의 실행시간을 예측하여 이것이 1매분의 데이터를 수신하는 데 소요될 것 같은 시간(지정시간)을 초과하지 않도록 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 보내진 부호화정보 중 하프 픽셀 모션 보상의 정보가 버려지는 일 없이 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제 (C2)를 해결할 수 있다. According to the seventh embodiment, the paragraph starting at the end of the description of the fifth embodiment described above and the seventh embodiment transmit the estimated execution time of each element to the transmission side, and the execution time of the decoding process at the transmission side. By predicting this, the motion compensation of the long-running half-pixel is replaced with the motion compensation of the full pixel so that it does not exceed the time (designated time) that is likely to be spent receiving one minute of data. As a result, the execution time does not exceed the specified time without discarding half pixel motion compensation information among the transmitted encoded information, thereby solving the problem (C2).

다음으로 도 39는 제 8 실시예인 송신장치의 구성을 도시한 것이다. Next, Fig. 39 shows the configuration of the transmitter according to the eighth embodiment.

본 실시예의 구성요소는 대부분 제 1 실시예에서 설명한 것과 동일하며, 4개의 구성요소를 추가했을 뿐이므로 그 점을 설명하기로 한다. Most of the components of this embodiment are the same as those described in the first embodiment, and since only four components are added, the point will be described.

7010은 실행시간 계측수단으로서, 부호화장치(2102)에 화상이 입력되고 나서 화상의 부호화 및 부호의 출력을 완료하기까지의 실행시간을 계측하여 이것을 출력한다. 706은 계수수단(2103)으로부터의 데이터열로부터의 각 요소(전환기(1021), 모션 보상수단(1022), 직교 변환수단(1023), 가변길이 복호화수단(1024))의 실행횟수와, 실행시간 계측수단(7010)으로부터의 실행시간을 수취하여 각 요소의 실행시간을 추정하는 추정수단이다. 추정방법은 제 2 실시예의 추정수단(302)에서 설명한 것과 같으면 된다. 707은 사용자로부터의 프레임 레이트값을 입력하기 위한 입력단자, 708은 각 요소의 실행횟수를 구하는 결정수단으로서, 그 순서는 다음과 같다. As an execution time measuring means, 7010 measures an execution time from when an image is input to the encoding apparatus 2102 to complete encoding and encoding of the image and outputs it. 706 denotes the number of times of execution of each element (transformer 1021, motion compensation means 1022, orthogonal transformation means 1023, variable length decoding means 1024) from the data sequence from the counting means 2103, and execution time It is estimation means for receiving the execution time from the measurement means 7010 and estimating the execution time of each element. The estimation method may be the same as that described in the estimation means 302 of the second embodiment. 707 is an input terminal for inputting a frame rate value from the user, 708 is a determining means for obtaining the number of times of execution of each element, and the order thereof is as follows.

우선 화상 중의 모든 매크로블록에 대하여 전환기(1021)에서의 처리를 행하고, 이 시점에서의 전환기(1021)의 실행횟수를 구한다. 또한 이 후의 모션 보상수단(1022), 직교 변환수단(1023), 가변길이 부호화수단(1024)에서의 실행횟수는 이 시점까지의 처리결과에 따라 일의적으로 결정할 수 있다. 다음으로 이 실행횟수와 추정수단(706)으로부터의 각 요소의 추정 실행시간과의 곱의, 요소마다의 총합을 구하여 예측부호화 시간을 산출한다. 그리고 예측부호화 시간이 707로부터의 프레임 레이트의 역수로부터 구해지는 1장의 화상의 부호화에 사용가능한 시간 이상이라면 풀 픽셀 모션 보상의 실행횟수를 늘리고, 하프 픽셀 모션 보상의 실행횟수를 줄인다. First, all the macroblocks in the image are processed by the switcher 1021, and the number of executions of the switcher 1021 at this point is obtained. The number of executions of the motion compensation means 1022, the orthogonal transform means 1023, and the variable length encoding means 1024 thereafter can be uniquely determined according to the processing result up to this point in time. Next, the sum of each element of the product of the number of executions and the estimated execution time of each element from the estimating means 706 is calculated to calculate the predictive encoding time. If the predictive encoding time is longer than the time available for encoding one picture obtained from the inverse of the frame rate from 707, the number of full pixel motion compensation executions is increased and the number of half pixel motion compensation executions is reduced.

이 증감처리와 예측부호화 시간의 산출을 예측부호화 시간이 사용가능한 시간 이하가 될 때까지 반복함으로써 각각의 실행횟수를 결정한다. The number of executions is determined by repeating the increase / decrease processing and the calculation of the predictive encoding time until the predictive encoding time becomes less than the usable time.

또 동화상의 부호화장치(2102)는 결정수단(608)이 지정한 실행횟수에 기초하여 각 처리를 행한다. 예를 들면 모션 보상기(1022)는 지정된 하프 픽셀의 모션 보상 실행횟수분만 실행하고, 하프 픽셀 모션 보상을 실행완료하면 그 후에는 풀 픽셀의 모션 보상만을 실행하게 된다. The moving picture encoding apparatus 2102 performs each processing based on the number of executions specified by the determining means 608. For example, the motion compensator 1022 executes only the number of motion compensation executions for the specified half pixel, and when the half pixel motion compensation is completed, only the motion compensation of the full pixel is executed thereafter.

또한 하프 픽셀의 모션 보상이 화상 중에 일정하게 흩어지도록 선택방법을 연구해도 된다. 예를 들면 우선 하프 픽셀의 모션 보상을 필요로 하는 매크로블록을 전부 구하여, 이 수(예를 들면 12)를 하프 픽셀의 모션 보상 실행횟수(예를 들면 4)로 나눈 몫(3)을 구하고, 하프 픽셀의 모션 보상을 필요로 하는 매크로블록의 처음부터의 순서가 이 몫으로 나누어 떨어지는 것(0, 3, 6, 9)만으로 하프 픽셀의 모션 보상을 실시하는 방법이라도 된다.Further, the selection method may be studied so that the half pixel motion compensation is uniformly scattered in the image. For example, first, all macroblocks requiring motion compensation of half pixels are obtained, and the quotient (3) obtained by dividing this number (for example, 12) by the number of executions of motion compensation of half pixels (for example, 4) is obtained. The method of performing half pixel motion compensation may be performed only by dividing the order from the beginning of the macroblock requiring half pixel motion compensation by this quotient (0, 3, 6, 9).

이상 나타낸 제 8 실시예에 의하면, 각 처리의 실행시간을 추정하여 이 추정 실행시간에 기초하여 부호화에 소요되는 실행시간을 미리 예측하고, 이 예측부호화 시간이 프레임 레이트로부터 결정되는 화상의 부호화에 사용가능한 시간 이하가 되도록 실행횟수를 결정함으로써 과제 (C3)을 해결할 수 있다. According to the eighth embodiment shown above, the execution time of each process is estimated, and the execution time required for encoding is predicted in advance based on the estimated execution time, and this prediction encoding time is used for encoding an image whose frame rate is determined from the frame rate. The problem (C3) can be solved by determining the number of executions to be less than the possible time.

또 모션 보상수단(1022)에서는 모션 벡터를 검출하기 위해 좌우상하 15화소 범위의 벡터 중 가장 SAD (화소별 차의 절대값의 합)를 작게 하는 것을 검출하는 풀 서치 모션 벡터 검출방법이 존재하지만, 이외에 3단계 모션 벡터 검출방법이라는 것도 있다(H. 261의 annex.에 기술되어 있다). 이것은 상기 탐색범위에서 균등한 배치관계의 9점을 선택하고 이것의 SAD 최소의 점을 선택한다. 다음으로 이 점 근방의 좁힌 범위에서 다시 9점을 선택하고 SAD 최소의 점을 선택한다. 이러한 처리를 또 한번 실행하는 것이 3단계 모션 벡터 검출방법이다. In the motion compensation means 1022, there is a full search motion vector detection method that detects that the smallest SAD (sum of absolute values of pixel-to-pixel differences) among the vectors in the left, right, up, down, and 15 pixel ranges is detected to detect the motion vector. There is also a three-step motion vector detection method (described in annex. H. 261). This selects 9 points of evenly placed relationship in the search range and selects its SAD minimum point. Next, select 9 points again in the narrow range near this point and select the SAD minimum point. Performing this process once again is a three-step motion vector detection method.

이들 2가지 방법을 비필수 처리방법으로 간주하고, 실행시간을 각각 추정하고, 추정 실행시간에 기초하여 부호화에 소요되는 실행시간을 예측하고, 이 예측 실행 시간이 사용자 지정시간 이하가 되도록 적절히 풀 서치 모션 벡터 검출방법의 실행횟수를 줄이고, 대신에 3단계 모션벡터 검출방법의 실행횟수를 늘리도록 해도 된다. Consider these two methods as non-essential processing methods, estimate the execution time separately, estimate the execution time required for encoding based on the estimated execution time, and perform a full search appropriately so that the prediction execution time is less than or equal to the user specified time. The number of executions of the motion vector detection method may be reduced, and instead, the number of executions of the three-step motion vector detection method may be increased.

또 3단계 모션 벡터 검출방법 이외에 더욱 처리를 간략화한 고정탐색 횟수에 의한 모션 벡터 검출방법이나, (0. 0) 모션 벡터만을 결과로서 되돌리는 모션 벡터 검출방법을 병용해도 된다. In addition to the three-step motion vector detection method, a motion vector detection method based on a fixed number of times, which further simplifies processing, or a motion vector detection method that returns only (0.0) motion vectors as a result may be used in combination.

다음으로 도 43은 제 9 실시예인 송신방법의 흐름도이다. 43 is a flowchart of a transmission method according to the ninth embodiment.

본 실시예에서의 동작이 제 8 실시예와 비슷하므로 대응하는 요소를 부기해 둔다. 각 흐름도에서의 상세한 동작은 대응하는 요소의 설명을 참조할 것. 또 제 2 실시예와 거의 동일하므로 다른 점만을 설명한다. Since the operation in this embodiment is similar to the eighth embodiment, corresponding elements are added. For detailed operation of each flowchart, please refer to the description of the corresponding element. In addition, since it is substantially the same as the second embodiment, only the differences will be described.

1101에서 각 처리의 실행시간의 초기값을 변수 a_i에 설정한다. 또한 1102에서 프레임 레이트를 입력한다(입력단자(707)). 1103은 1102에서의 프레임 레이트, 각 처리의 실행시간 a_i, 1002에서의 인트라/인터 판정결과로부터 구해지는 각 처리의 실행횟수로부터 실제의 실행횟수를 결정한다(결정수단(708)). 1105, 1106은 부호화처리의 실행시간을 계측하기 위한 것이다. 1104는 1106에서의 실행시간과 각 처리의 실제 실행횟수로부터 각 처리의 실행시간을 추정하여 변수 a_i를 갱신한다(추정수단(706)). In 1101, the initial value of the execution time of each process is set in the variable a_i. Also, at 1102, a frame rate is input (input terminal 707). 1103 determines the actual number of executions from the frame rate at 1102, the execution time a_i of each process, and the number of executions of each process obtained from the intra / inter determination result at 1002 (determination means 708). 1105 and 1106 are for measuring the execution time of the encoding process. 1104 updates the variable a_i by estimating the execution time of each process from the execution time at 1106 and the actual number of executions of each process (estimating means 706).

이상 나타낸 제 9 실시예에 의하면, 각 처리의 실행시간을 추정하고, 이 추정실행 시간에 기초하여 부호화에 소요되는 실행시간을 미리 예측하고, 이 예측부호화 시간이 프레임 레이트로부터 결정되는 화상의 부호화에 사용 가능한 시간 이하가 되도록 실행횟수를 결정함으로써 과제 (C3)을 해결할 수 있다. According to the ninth embodiment shown above, the execution time of each process is estimated, the execution time required for encoding is predicted in advance based on the estimated execution time, and the prediction encoding time is used for encoding the image determined from the frame rate. The problem (C3) can be solved by determining the number of executions to be less than the available time.

또 제 2 실시예에서 808에서의 데이터열 생성시에 도 2에 도시된 스타트 코드의 직후에 2바이트의 영역을 추가하고, 여기에 부호의 길이의 2진표현을 추가해도 된다.In the second embodiment, when generating the data string at 808, a 2-byte area may be added immediately after the start code shown in Fig. 2, and a binary representation of the length of the code may be added thereto.

또 제 4 실시예에서 902에서의 다중화 데이터의 입력시에 이 2바이트의 영역으로부터 부호의 길이를 추출하고, 이 부호길이와 부호의 전송속도로부터 구해지는 부호의 전송시간을 905에서의 실행횟수 계산에 이용하도록 해도 된다(부호의 전송 시간을 넘지 않도록 하프 픽셀 모션 보상의 실행횟수를 줄임). In the fourth embodiment, the code length is extracted from this two-byte area at the time of inputting the multiplexed data at 902, and the transfer time of the code obtained from the code length and the transfer rate of the code is calculated at 905. May be used (reduce the number of times of half pixel motion compensation so as not to exceed the transmission time of the code).

또 제 1 실시예에서 2104에서의 데이터열 생성시에 도 2에 도시된 스타트 코드의 직후에 2바이트의 영역을 추가하고, 여기에 부호 길이의 2진표현을 추가해도 된다. In the first embodiment, when generating the data string in 2104, a 2-byte area may be added immediately after the start code shown in Fig. 2, and a binary representation of code length may be added thereto.

또 제 3 실시예에서 301에서의 다중화 데이터의 입력시에 이 2바이트의 영역으로부터 부호의 길이를 추출하고, 이 부호길이와 부호의 전송속도로부터 구해지는 부호의 전송 시간을 304에서의 실행횟수 계산에 이용하도록 해도 된다(부호의 전송 시간을 초과하지 않도록 하프 픽셀 모션 보상의 실행횟수를 줄임).In the third embodiment, the code length is extracted from this two-byte area at the time of inputting the multiplexed data in 301, and the number of executions at 304 is calculated from the code length and the transfer time of the code obtained from the code rate. May be used (reduce the number of times of half pixel motion compensation so as not to exceed the transmission time of the code).

또 제 4 실시예에서 909 직후에 하프 픽셀 모션 보상의 실제 실행횟수를 기록하여 이것의 최대값을 산출한다. 그리고 이 최대값이 충분히 작은 값(예를 들면, 2나 3) 이하인 경우에는 하프 픽셀 모션 보상을 사용하지 않는 것을 나타내는 데이터열(특정한 비트 패턴으로 이루어지는 데이터열)을 생성하여 이것을 송신해도 된다. 또한 제 2 실시예에서 808 직후에서 이 데이터열의 수신유무를 확인하고, 하프 픽셀 모션 보상을 사용하지 않는 것을 나타내는 데이터열을 수신한 경우에는 808에서 모션 보상의 처리를 항상 풀 픽셀 모션 보상으로 하도록 해도 된다.In the fourth embodiment, immediately after 909, the actual number of executions of the half pixel motion compensation is recorded to calculate the maximum value thereof. If the maximum value is less than a sufficiently small value (e.g., 2 or 3), a data string (data string composed of a specific bit pattern) indicating that half pixel motion compensation is not used may be generated and transmitted. Also, in the second embodiment, immediately after 808, the presence or absence of the data string is checked, and when a data string indicating that half pixel motion compensation is not received is received, the processing of the motion compensation may be always full pixel motion compensation at 808. do.

또한 모션 보상 이외에도 이 생각을 적용할 수 있다. 예를 들면 DCT 계산에서 고주파성분을 사용하지 않도록 함으로써 DCT 계산의 처리시간을 줄일 수 있다. 요컨대, 수신방법에서 IDCT 계산의 실행시간의 전체 실행시간에 차지하는 비율이 일정값을 초과하는 경우에는 그 취지를 나타내는 데이터열을 송신측으로 전송한다. 송신측에서는 이 데이터열을 수신한 경우에는 DCT 계산에서 저주파 성분만을 계산하고, 고주파성분은 전부 0으로 해도 된다. This idea can also be applied in addition to motion compensation. For example, the processing time of DCT calculation can be shortened by not using a high frequency component in DCT calculation. In short, in the reception method, when the ratio of the execution time of the IDCT calculation to the total execution time exceeds a predetermined value, a data string indicating the effect is transmitted to the transmitting side. When the transmitting side receives this data string, only the low frequency component may be calculated in the DCT calculation, and all of the high frequency components may be zero.

또한 여기에서는 화상을 이용하여 실시예를 설명하였지만, 화상 이외의 음성 등에 상기의 각 방법을 적용해도 된다. In addition, although an Example was demonstrated using an image here, you may apply said each method to audio | voice other than an image.

또한 제 3 실시예에서, 3034에서 하프 픽셀 모션 보상의 실제 실행횟수를 기록하고, 이것의 최대값을 산출한다. 그리고 이 최대값이 충분히 작은 값(예를 들면, 2나 3) 이하인 경우에는 하프 픽셀 모션 보상을 사용하지 않은 것을 나타내는 데이터열(특정의 비트 패턴으로 이루어지는 데이터열)을 생성하여 이것을 송신해도 된다. 또한 제 1 실시예에서 하프 픽셀 모션 보상을 사용하지 않는 것을 나타내는 데이터열을 수신한 경우에는 1022에서의 모션 보상의 처리를 항상 풀 픽셀 모션 보상으로 하도록 해도 된다. Also in the third embodiment, the actual number of executions of the half pixel motion compensation is recorded at 3034, and its maximum value is calculated. If the maximum value is less than or equal to a sufficiently small value (e.g., 2 or 3), a data string (data string consisting of a specific bit pattern) indicating that half pixel motion compensation is not used may be generated and transmitted. In the case where a data string indicating that half pixel motion compensation is not used in the first embodiment is received, the processing of motion compensation in 1022 may always be made full pixel motion compensation.

또한 모션 보상 이외에도 이 생각을 적용할 수 있다. 예를 들면 DCT 계산에서 고주파성분을 사용하지 않도록 함으로써 DCT 계산의 처리시간을 줄일 수 있다. 요컨대 수신방법으로써 IDCT 계산의 실행시간의 전체 실행시간에 차지하는 비율이 일정값을 초과하는 경우에는 그 취지를 나타내는 데이터열을 송신측으로 전송한다. This idea can also be applied in addition to motion compensation. For example, the processing time of DCT calculation can be shortened by not using a high frequency component in DCT calculation. In short, as a receiving method, when the ratio of the execution time of the IDCT calculation to the total execution time exceeds a predetermined value, a data string indicating the effect is transmitted to the transmitting side.

송신측에서는 이 데이터열을 수신한 경우에는 DCT 계산에서 저주파 성분만을 계산하고, 고주파성분은 전부 0으로 해도 된다. When the transmitting side receives this data string, only the low frequency component may be calculated in the DCT calculation, and all of the high frequency components may be zero.

또한 여기에서는 화상을 이용하여 실시예를 설명하였지만, 화상 이외의 음성 등에 상기 방법을 적용해도 된다. In addition, although an Example was demonstrated using an image here, you may apply the said method etc. to audio | voice other than an image.

이상 설명한 것에서 명백한 바와 같이, 예를 들면 제 1 실시예, 제 3 실시예에 의하면 추정된 각 요소의 실행시간으로부터 복호화처리의 실행시간을 예측하고, 이것이 1장분의 데이터를 수신하는 데 소요된 시간(지정시간)을 초과할 것 같으면 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제 (C1)을 해결할 수 있다. As is apparent from the above description, for example, according to the first and third embodiments, the execution time of the decoding process is estimated from the estimated execution time of each element, and this is the time required for receiving one piece of data. If it is likely to exceed the (specified time), the motion compensation of the long pixel with long execution time is replaced with the motion compensation of the full pixel. As a result, it is possible to prevent the execution time from exceeding the specified time, thereby solving the problem (C1).

또한 예를 들면 제 5 실시예, 제 7 실시예에 의하면, 추정된 각 요소의 실행시간을 송신측으로 전송하고, 송신측에서 복호화처리의 실행시간을 예측하여 이것이 1장분의 데이터를 수신하는 데 소요될 것 같은 시간(지정시간)을 초과하지 않도록 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환한다. 이에 따라 보내진 부호화 정보 중 하프 픽셀 모션 보상의 정보가 버려지는 일이 없고, 실행시간이 지정시간을 초과하지 않도록 할 수 있어 과제 (C2)를 해결할 수 있다. For example, according to the fifth embodiment and the seventh embodiment, the estimated execution time of each element is transmitted to the transmitting side, and the transmitting side predicts the execution time of the decoding process, which is required to receive one piece of data. The motion compensation of the long-running half pixel is replaced with the motion compensation of the full pixel so as not to exceed the probable time (designated time). As a result, half pixel motion compensation information is not discarded among the sent encoding information, and the execution time can be prevented from exceeding the specified time, thereby solving the problem (C2).

또한 예를 들면 제 9 실시예에 의하면, 각 처리의 실행시간을 추정하고, 이 추정 실행시간에 기초하여 부호화에 소요되는 실행시간을 미리 예측하여 이 예측부호화 시간이 프레임 레이트로부터 결정되는 화상의 부호화에 사용 가능한 시간 이하가 되도록 실행횟수를 결정함으로써 과제 (C3)을 해결할 수 있다. For example, according to the ninth embodiment, the execution time of each process is estimated, and based on this estimated execution time, the execution time required for encoding is predicted in advance, and the encoding of the image whose prediction encoding time is determined from the frame rate is performed. The problem (C3) can be solved by determining the number of executions to be less than or equal to the available time.

이와 같이 본 발명에 의해 계산부하가 증대해도 유연하게 품질을 떨어뜨리는 기능(CGD : Computational Graceful Degradation)을 실현할 수 있어 실시에 따르는 이익은 대단히 크다. As described above, even if the computational load increases, a function (CGD: Computational Graceful Degradation) that flexibly degrades the quality can be realized.

또 이상 설명한 실시예의 어느 하나에 기재된 각 단계(또는 각 수단)의 전부 또는 일부의 단계(또는 각 수단의 동작)를 컴퓨터에 실행시키기 위한 프로그램을 기록한 자기기록 매체나, 광기록 매체 등의 기록 매체를 작성하여 그 기록 매체를 이용하여 컴퓨터에 의해 상기와 같은 동작을 행해도 된다. In addition, a recording medium such as a magnetic recording medium or an optical recording medium having recorded thereon a program for causing a computer to execute all or part of the steps (or the operation of each means) described in any one of the embodiments described above. The above operation may be performed by a computer using the recording medium.

이상 설명한 바와 같이, 본 발명에 의하면 예를 들어 송신단말과 수신단말에서 사용하는 데이터 관리정보, 전송 관리정보, 제어정보의 각 정보의 구조를 동적으로 결정함으로써 상황에 따른 정보 구조의 변경이 가능하게 되어, 용도나 전송로에 따른 변경을 할 수 있다. 또 복수의 비디오 스트림이나 복수의 오디오 스트림의 취급이나, 편집자의 의도를 반영시켜 중요한 장면 컷을 중점적으로 오디오와 함께 동기 재생시키는 것이 용이하게 된다. 또 추정된 각 요소의 실행시간으로부터 복호화처리의 실행시간을 예측하고, 이것이 1장분의 데이터를 수신하는 데 소요된 시간(지정시간)을 초과할 것 같으면 실행시간이 긴 하프 픽셀의 모션 보상을 풀 픽셀의 모션 보상으로 치환함으로써 실행시간이 지정시간을 초과하지 않도록 할 수 있다. As described above, according to the present invention, for example, by dynamically determining the structures of data management information, transmission management information, and control information used by the transmitting terminal and the receiving terminal, it is possible to change the information structure according to the situation. Thus, changes can be made depending on the purpose or transmission path. In addition, it becomes easy to synchronously reproduce important scene cuts with audio by handling a plurality of video streams or a plurality of audio streams and reflecting the intention of the editor. In addition, the execution time of the decoding process is estimated from the estimated execution time of each element, and if it is likely to exceed the time (designated time) required to receive one piece of data, the motion compensation of the long execution time is solved. By substituting for the motion compensation of the pixel, the execution time does not exceed the specified time.

도 1은 본 발명의 실시예에서의 화상음성 송수신장치의 개략 구성도이다.1 is a schematic structural diagram of a video audio transmitting and receiving device in an embodiment of the present invention.

도 2는 수신관리부와 분리부를 도시한 도면이다.2 is a diagram illustrating a reception management unit and a separation unit.

도 3은 복수의 논리적인 전송로를 이용하여 화상이나 음성의 전송, 제어하는 방법을 도시한 도면이다.3 is a diagram illustrating a method of transmitting and controlling an image or an audio using a plurality of logical transmission paths.

도 4는 송신할 화상이나 음성의 데이터에 부가하는 헤더정보의 동적인 변경방법을 도시한 도면이다.4 is a diagram showing a dynamic change method of header information added to data of an image or audio to be transmitted.

도 5a∼도 5b는 AL 정보의 부가방법을 도시한 도면이다.5A to 5B are diagrams showing a method of adding AL information.

도 6a∼도 6d는 AL 정보의 부가방법의 예를 도시한 도면이다.6A to 6D are diagrams showing an example of a method of adding AL information.

도 7은 복수의 논리적인 전송로를 동적으로 다중화, 분리하여 정보를 전송하는 방법을 도시한 도면이다.7 is a diagram illustrating a method of transmitting information by dynamically multiplexing and separating a plurality of logical transmission paths.

도 8은 방송 프로그램의 전송순서를 도시한 도면이다.8 is a diagram illustrating a transmission procedure of a broadcast program.

도 9a는 프로그램, 데이터가 수신 단말에 있는 경우의 프로그램이나 데이터의 판독, 상승시간을 고려한 화상이나 음성의 전송방법을 도시한 도면이다.Fig. 9A is a diagram showing a method of transmitting an image or audio in consideration of reading time and rise time of a program or data when a program and data are present in a receiving terminal.

도 9b는 프로그램, 데이터가 송신되는 경우의 프로그램이나 데이터의 판독, 상승시간을 고려한 화상이나 음성의 전송방법을 도시한 도면이다.FIG. 9B is a diagram showing a method of transmitting an image or audio in consideration of a read time and a rise time of a program or data when a program or data is transmitted.

도 10a는 소거에 대한 대응방법을 도시한 도면이다.10A is a diagram illustrating a corresponding method for erasing.

도 10b는 소거에 대한 대응방법을 도시한 도면이다.10B is a diagram illustrating a corresponding method for erasing.

도 11a는 실제로 단말간에서 송신되는 프로토콜의 구체예를 도시한 도면이다.11A illustrates a specific example of a protocol actually transmitted between terminals.

도 11b는 실제로 단말간에서 송신되는 프로토콜의 구체예를 도시한 도면이다.11B is a diagram illustrating a specific example of a protocol actually transmitted between terminals.

도 12는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.12 illustrates a specific example of a protocol actually transmitted and received between terminals.

도 13a는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.13A illustrates a specific example of a protocol actually transmitted and received between terminals.

도 13b는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.13B is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 13c는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.13C is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 14는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.14 is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 15는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.15 is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 16a는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.16A is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 16b는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.16B is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 17은 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.17 is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 18은 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.18 is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 19a는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.19A is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 19b는 실제로 단말간에서 송수신되는 프로토콜의 구체예를 도시한 도면이다.19B is a diagram illustrating a specific example of a protocol actually transmitted and received between terminals.

도 20a∼도 20c는 본 발명의 CGD의 데모 시스템 구성도이다.20A to 20C are schematic diagrams of the demo system of the CGD of the present invention.

도 21은 인코더에서의 과부하시의 우선도 부가방법을 도시한 도면이다.21 is a diagram illustrating a method of adding priority when overloaded by an encoder.

도 22는 과부하시의 수신단말에서의 우선도 결정방법에 대하여 기록한 도면이다.Fig. 22 is a diagram showing a method for determining priority at the receiving terminal during overload.

도 23은 우선도의 시간변화를 도시한 도면이다.23 is a diagram illustrating a time change of priority.

도 24는 스트림 우선도와 오브젝트 우선도를 도시한 도면이다.24 is a diagram illustrating stream priority and object priority.

도 25는 본 발명의 실시예에서의 화상 부호화, 화상 복호화 장치의 개략 구성도이다.25 is a schematic structural diagram of a picture coding and a picture decoding device in an embodiment of the present invention.

도 26은 본 발명의 실시예에서의 음성 부호화, 음성 복호화 장치의 개략 구성도이다.26 is a schematic structural diagram of a speech encoding and speech decoding apparatus according to an embodiment of the present invention.

도 27a∼도 27b는 과부하시의 처리 우선도를 관리하는 우선도 부가부, 우선도 결정부를 도시한 도면이다.27A to 27B are diagrams showing a priority adding unit and a priority determining unit for managing the processing priority during overload.

도 28a∼도 28c는 우선도를 부가하는 그레이딩을 도시한 도면이다.28A-28C show grading with added priority.

도 29는 다중 해상도의 화상 데이터로의 우선도 할당방법을 도시한 도면이다.29 is a diagram showing a method of assigning priority to image data having multiple resolutions.

도 30은 통신 페이로드의 구성방법을 도시한 도면이다.30 is a diagram illustrating a method of configuring a communication payload.

도 31은 데이터를 통신 페이로드로 대응짓는 방법을 도시한 도면이다.FIG. 31 illustrates a method of associating data with a communication payload. FIG.

도 32는 오브젝트 우선도, 스트림 우선도와 통신 패킷 우선도의 대응을 도시한 도면이다.32 is a diagram showing correspondence between object priority, stream priority, and communication packet priority.

도 33은 본 발명의 제 1 실시예인 송신장치의 구성도이다.Fig. 33 is a block diagram of the transmitter according to the first embodiment of the present invention.

도 34는 제 1 실시예의 설명도이다.34 is an explanatory diagram of the first embodiment.

도 35는 본 발명의 제 3 실시예인 수신장치의 구성도이다.35 is a configuration diagram of a receiving apparatus as a third embodiment of the present invention.

도 36은 본 발명의 제 5 실시예인 수신장치의 구성도이다.36 is a configuration diagram of a receiving apparatus as a fifth embodiment of the present invention.

도 37은 제 5 실시예의 설명도이다.37 is an explanatory diagram of a fifth embodiment.

도 38은 본 발명의 제 6 실시예인 송신장치의 구성도이다.Fig. 38 is a block diagram of a transmitter according to the sixth embodiment of the present invention.

도 39는 본 발명의 제 8 실시예인 송신장치의 구성도이다.Fig. 39 is a block diagram of the transmitter according to the eighth embodiment of the present invention.

도 40은 본 발명의 제 2 실시예인 송신방법의 흐름도이다.40 is a flowchart of a transmission method as a second embodiment of the present invention.

도 41은 본 발명의 제 4 실시예인 수신방법의 흐름도이다.41 is a flowchart of a receiving method as a fourth embodiment of the present invention.

도 42는 본 발명의 제 7 실시예인 송신방법의 흐름도이다.42 is a flowchart of a transmission method as a seventh embodiment of the present invention.

도 43은 본 발명의 제 9 실시예인 송신방법의 흐름도이다.43 is a flowchart of a transmission method as a ninth embodiment of the present invention.

도 44는 본 발명의 화상·음성 송신장치의 일례를 도시한 구성도이다.Fig. 44 is a configuration diagram showing an example of the image / audio transmission device of the present invention.

도 45는 본 발명의 화상·음성 수신장치의 일례를 도시한 구성도이다.45 is a configuration diagram showing an example of the image and sound receiving apparatus of the present invention.

도 46은 본 발명의 화상·음성 송신장치의 영상과 음성에 우선도를 부가하는 우선도 부가수단에 대하여 설명한 도면이다.46 is a view for explaining priority adding means for adding priority to video and audio of the video and audio transmitting apparatus of the present invention.

도 47은 본 발명의 화상·음성 수신장치의 영상과 음성에 부가된 우선도를 해석하여 복호처리의 가부를 결정하는 우선도 결정수단에 대하여 설명한 도면이다.Fig. 47 is a view for explaining priority determination means for determining whether to perform decoding processing by analyzing the priority added to the video and audio of the video and audio receiving apparatus of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

11 : 수신관리부 12 : 분리부11: reception management unit 12: separation unit

13 : 전송부 14 : 화상신장부13 transfer unit 14 image extension unit

15 : 화상신장 관리부 16 : 화상합성부15: image height management unit 16: image synthesis unit

17 : 출력부 18 : 단말제어부17 output unit 18 terminal control unit

4011 : 송신관리부 4012 : 화상부호부4011: Transmission management unit 4012: Image coding unit

4013 : 수신관리부 4014 : 화상복호부4013: reception management unit 4014: image decoding unit

4015 : 화상합성부 4016 : 출력부4015: Image synthesis unit 4016: Output unit

4101 : 화상 부호화장치 4102 : 화상 복호화장치4101: picture coding apparatus 4102: picture decoding apparatus

301 : 수신수단 302 : 추정수단301: receiving means 302: estimating means

303 : 동화상의 복호화장치 304 : 횟수 삭감수단303: Decoding device for moving pictures 304: Number reducing means

306 : 출력단자 307 : 입력단자306: output terminal 307: input terminal

3031 : 가변길이 부호화수단 3032 : 역직교 변환수단3031 variable length encoding means 3032 inverse orthogonal transformation means

3033 : 전환기 3034 : 모션 보상수단3033: switchover 3034: motion compensation means

3035 : 실행시간 계측수단3035: execution time measurement means

Claims (9)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용, 또는 그 내용을 나타내는 식별자를 전송 포맷정보로서 수신장치에 송신하는 송신수단을 갖는 송신장치에 있어서,A transmitting apparatus having a transmitting means for transmitting a content relating to a transmission method and / or a structure of a data to be transmitted or an identifier indicating the contents as transmission format information to a receiving apparatus, 상기 전송 포맷정보는, (1) 상기 수신장치에서 시간적으로 후의 단계에서 처리를 위해 사용되게 되는 프로그램 또는 데이터를 식별하는 식별자와, (2) 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보를 포함하며,The transmission format information includes (1) an identifier for identifying a program or data to be used for processing in a later step in the receiving apparatus, and (2) information at the time when the program or data is to be used for processing. Or information for knowing the expiration date of the use for processing the program or data, 상기 수신장치가, 상기 식별자 및 상기 정보를 판단하여, 상기 식별된 프로그램 또는 데이터를, 상기 정보에 따라서 상기 식별된 프로그램 또는 데이터를 처리하기 위한 사용에 앞서 셋업 하기위해 사용되는 것을 특징으로 하는 송신장치.And the receiving device is used to determine the identifier and the information and to set up the identified program or data prior to use for processing the identified program or data according to the information. . 제 6 항에 있어서,The method of claim 6, 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보는, 플래그, 카운터, 또는 타이머 중 적어도 하나인 것을 특징으로 하는 송신장치.The information at the time when the program or data is to be used for processing, or the information for knowing the valid period of use for processing the program or data, is at least one of a flag, a counter, or a timer. 전송방법에 관한 및/또는 전송하는 데이터의 구조에 관한 내용, 또는 그 내용을 나타내는 식별자를 전송 포맷정보로서 수신하는 수신수단과, 상기 전송 포맷정보를 판단하여 데이터를 처리하는 제어수단을 갖는 수신장치에 있어서,Receiving apparatus having receiving means for receiving as contents of transmission method and / or about structure of data to be transmitted or identifier indicating the contents as transmission format information, and control means for processing the data by determining the transmission format information. To 상기 전송 포맷정보는, (1) 상기 수신장치에서 시간적으로 후의 단계에서 처리를 위해 사용되게 되는 프로그램 또는 데이터를 식별하는 식별자와, (2) 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보를 포함하며,The transmission format information includes (1) an identifier for identifying a program or data to be used for processing in a later step in the receiving apparatus, and (2) information at the time when the program or data is to be used for processing. Or information for knowing the expiration date of the use for processing the program or data, 상기 제어수단은, 상기 식별자 및 상기 정보를 판단하여, 상기 식별된 프로그램 또는 데이터를, 상기 정보에 따라서 상기 식별된 프로그램 또는 데이터를 처리하기 위한 사용에 앞서 셋업 하는 것을 특징으로 하는 수신장치.And said control means determines said identifier and said information and sets up said identified program or data prior to use for processing said identified program or data in accordance with said information. 제 8 항에 있어서,The method of claim 8, 상기 프로그램 또는 데이터가 처리를 위해 사용되게 되는 시점의 정보, 또는 상기 프로그램 또는 데이터를 처리하기 위한 사용의 유효기간을 알기 위한 정보는, 플래그, 카운터, 또는 타이머 중 적어도 하나인 것을 특징으로 하는 수신장치.Information at the time when the program or data is to be used for processing, or information for knowing the valid period of use for processing the program or data is at least one of a flag, a counter, or a timer. .
KR10-2005-7003547A 2005-02-28 1998-03-13 Image and voice transmitting apparatus and receiving apparatus KR100530920B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2005-7003547A KR100530920B1 (en) 2005-02-28 1998-03-13 Image and voice transmitting apparatus and receiving apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2005-7003547A KR100530920B1 (en) 2005-02-28 1998-03-13 Image and voice transmitting apparatus and receiving apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1019980709277A Division KR100530919B1 (en) 1997-03-17 1998-03-13 Data processing method and data processing apparatus

Publications (2)

Publication Number Publication Date
KR20050052482A KR20050052482A (en) 2005-06-02
KR100530920B1 true KR100530920B1 (en) 2005-11-23

Family

ID=37248435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2005-7003547A KR100530920B1 (en) 2005-02-28 1998-03-13 Image and voice transmitting apparatus and receiving apparatus

Country Status (1)

Country Link
KR (1) KR100530920B1 (en)

Also Published As

Publication number Publication date
KR20050052482A (en) 2005-06-02

Similar Documents

Publication Publication Date Title
KR100557103B1 (en) Data processing method and data processing apparatus
JP3516585B2 (en) Data processing device and data processing method
JP3709721B2 (en) Encoded stream splicing device, encoded stream splicing method, encoded stream generating device, encoded stream generating method, and information processing device and method
KR100711635B1 (en) Picture coding method
US7010032B1 (en) Moving image coding apparatus and decoding apparatus
US8238438B2 (en) Image data transmitting apparatus and method and image data reproducing apparatus and method
CN102598688A (en) Streaming encoded video data
EP1230802B1 (en) Mpeg-4 video specific control packet for providing a customized set of coding tools
KR100530919B1 (en) Data processing method and data processing apparatus
JP4102223B2 (en) Data processing apparatus and data processing method
KR20040065170A (en) Video information decoding apparatus and method
JP3448047B2 (en) Transmitting device and receiving device
KR100530920B1 (en) Image and voice transmitting apparatus and receiving apparatus
JP2007221826A (en) Receiving terminal and reception method
JP3519722B2 (en) Data processing method and data processing device
JP2006304309A (en) Transmitter, receiver, and communication system
CN100473158C (en) Method and apparatus for processing, transmitting and receiving dynamic image data
JP2004048657A (en) Image/audio receiving apparatus
US9219930B1 (en) Method and system for timing media stream modifications
Murugan Multiplexing H. 264/AVC Video with MPEG-AAC Audio
Angelides et al. Capabilities and Limitations of PC’s in the Networked Multimedia Environment

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20121019

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20141022

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20161020

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 13

EXPY Expiration of term