KR20030036160A - 정보 처리 장치, 그래픽 처리 유닛, 그래픽 처리 방법,저장 매체 및 컴퓨터 프로그램 - Google Patents
정보 처리 장치, 그래픽 처리 유닛, 그래픽 처리 방법,저장 매체 및 컴퓨터 프로그램 Download PDFInfo
- Publication number
- KR20030036160A KR20030036160A KR1020027013599A KR20027013599A KR20030036160A KR 20030036160 A KR20030036160 A KR 20030036160A KR 1020027013599 A KR1020027013599 A KR 1020027013599A KR 20027013599 A KR20027013599 A KR 20027013599A KR 20030036160 A KR20030036160 A KR 20030036160A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- information
- channel
- display
- display unit
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 27
- 238000012545 processing Methods 0.000 title claims description 30
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 15
- 230000008859 change Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 102100029968 Calreticulin Human genes 0.000 abstract description 9
- 101100326671 Homo sapiens CALR gene Proteins 0.000 abstract description 8
- MJEMIOXXNCZZFK-UHFFFAOYSA-N ethylone Chemical compound CCNC(C)C(=O)C1=CC=C2OCOC2=C1 MJEMIOXXNCZZFK-UHFFFAOYSA-N 0.000 description 23
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 6
- 238000012546 transfer Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/44504—Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N11/00—Colour television systems
- H04N11/24—High-definition television systems
- H04N11/26—High-definition television systems involving two-channel transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42653—Internal components of the client ; Characteristics thereof for processing graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/631—Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
정보 처리 장치는 제 1 영상 및 제 1 채널(channel)을 통해 제 1 영상의 표 시 시간 정보와, 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득한다. 정보 처리 장치는 제 1 영상의 내용에 따라 획득된 제 2 영상을 처리하는 메인 CPU, 획득된 제 1 영상, 처리된 제 2 영상 및 표시 시간 정보를 소정의 표시 유닛에 출력하여, 표시 유닛(display unit) 상의 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 CRTC를 포함한다.
Description
방송은 지상파, 인공 위성 및 케이블(cable)을 통해 수행되고, 가장 손쉽게 이용 가능한 정보원으로 사용된다. 최근에, 종래의 아날로그 방송과 더불어 디지털 방송이 실용화 되고 있다. 디지털 방송의 실용화로, 아날로그 방송용으로 설정된 종래의 텔레비젼과 더불어 디지털 방송-호환 텔레비젼이 보급되고 있다.
수신 설비들은 디지털 방송에 의해 공급된 정보를 수신하고 수신된 정보를 디코드하는, STB(Set Top Box)를 포함한다. STB는 하드웨어 또는 소프트웨어를 사용하여 수신된 정보를 디코드하는 디코더(decoder)를 실행한다. 하드웨어의 경우, 특별히 디코딩용으로 설계된 IC가 사용된다. 소프트웨어의 경우, 멀티미디어 명령(multimedia command) 등과 같은 기능을 강화하는 범용 CPU(Central Processing Unit) 또는 프로그래밍(programming)용으로 특별히 설계된 DSP(DigitalSignal Processor)가 사용된다. DSP 또는 CPU는 소프트웨어 처리를 이용하여 디코딩 기능(decoding function)을 실행하기 위해 프로그램을 읽는다.
소프트웨어를 이용하여 디코딩 기능을 실행하는, DSP 또는 CPU는 일반적으로 범용이며 다른 프로그램이 로드(load)될 때 디코딩 기능과 동시에 디코딩 기능과는 다른 기능들을 실행 가능하게 한다. 그러나, 본 조건 하에서는, 고정된 필터 처리(filter processing)와는 다른 효율적인 기능들을 실행하는 실시예들은 거의 없다.
STB 자체에는 하드 디스크, 다중 채널 디바이스(multichannel device) 등과 같은 매체를 포함하고, 그 결과로 복수의 방송들에 의해 공급된 정보가 수신 및 저장이 가능하다. 그러나, STB의 효율적인 사용은 수신된 정보 또는 개량된 소프트웨어를 독립적으로 이용하는 것 외에는 이루어지지 않았다.
본 발명은 표준 방송 영상에 새로운 값을 부가하는 그래픽 처리 기법에 관한 것이며 더욱 구체적으로 그러한 그래픽 처리를 이행하는 정보 처리 기법에 관한 것이다.
본 발명의 이러한 목적들, 다른 목적들 및 이점들이 다음의 상세한 설명과 첨부된 도면들을 읽음으로써 더욱 명확해질 것이다:
도 1은 정보 실현 시스템을 보여 주는 설명도이다;
도 2a 및 2b는 CPU에 의해 수행되는 영상 결합을 설명하는 설명도이고, 도 2a는 플로우차트이며, 도 2b는 주요 부품의 회로도이다;
도 3a 및 3b는 GPU에 의해 수행되는 영상 결합을 설명하는 설명도들이고, 도 3a는 플로우차트이며, 도 3b는 주요 부품의 회로도이다;
도 4a 및 4b는 고해상도의 영상을 설명하는 설명도들이고, 도 4a는 고해상도의 영상으로부터 영상 정보를 생성하는 과정을 보여주며, 도 4b는 수신된 영상으로부터 고해상도의 영상을 생성하는 과정을 보여준다;
도 5는 입체 영상을 설명하는 설명도이다; 그리고
도 6a 및 6b는 방송 영상 위에 게임 영상을 첨가하여 획득된 영상을 설명하는 설명도들이고, 도 6a는 방송 영상과 게임 영상이 서로 상대가 없는 경우를 도시하는 설명도이며, 도 6b는 방송 영상과 게임 영상이 서로 상대가 있는 경우를 도시하는 설명도이다.
따라서, 결합된 영상을 사용자에게 제공할 수 있도록 수신 설비들의 STB와 같은 소스(source)를 효율적으로 이용하여 복수개의 경로들 또는 채널들로부터 입력된 영상들이 효율적으로 결합되는 구체적인 구성을 제공하고, 특히, 종래의 방법에 의해 공급된 영상에 새로운 값이 부가된 영상을 발생시키는 그래픽 처리 기법의 실행을 제공하는 것이 본 발명의 목적이다.
본 발명의 제 1 양상에 따르면, 제 1 채널을 통해 제 1 영상과 제 1 영상의 표시 시간 정보를, 그리고 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 수단; 제 1 영상의 컨텐츠에 따라 획득된 제 2 영상을 처리하는 제 1 수단; 및획득된 제 1 영상, 제 1 수단에 의해 처리된 제 2 영상 및 표시 시간 정보를 표시 유닛에 출력하여 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 소정의 표시 유닛 상에 표시하는 제 2 수단;을 포함하는 정보 처리 장치를 제공한다.
본 발명의 다른 양상에 따르면, 제 1 채널을 통해 제 1 영상 및 제 1 영상의 표시 시간 정보를, 그리고 제 1 영상과 다른 제 2 채널을 통해 제 2 영상을 획득하는 정보 획득 구조; 제 1 영상의 컨텐츠에 따라 획득된 제 2 영상을 처리하는 제 1 프로세서; 및 획득된 제 1 영상, 제 1 프로세서에 의해 처리된 제 2 영상 및 표시 시간 정보를 소정의 표시 유닛에 출력하여 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시 장치에 표시하는 제 2 프로세서; 를 포함하는 정보 처리 장치를 제공한다.
제 1 영상은 제 1 채널에 대응하는 고해상도 동영상의 해상도를 감소시켜 획득된 동영상이고, 제 2 영상은 고해상도 동영상 및 제 1 영상 사이의 차별적인 정보이며, 고해상도 동영상의 것과 같은 동일한 해상도를 갖는 결합 영상이 표시 유닛에 표시되어 제 1 프로세서가 제 2 영상을 처리하도록 정렬될 수도 있다.
제 1 채널은 방송 스테이션에서의 무선 방송 채널이고, 제 2 채널은 방송 스테이션에서 시작되는 케이블 통신 채널이 되도록 정렬될 수 있다.
제 1 영상은 입체 영상을 형성하기 위해 발생되는 우측 눈 또는 좌측 눈에 대한 영상들 중의 하나이고, 제 2 영상은 그 영상들의 다른 하나이며, 제 1 프로세서는 입체 영상이 표시 유닛 상에 표시될 수 있게 제 2 영상을 처리하도록 정렬될 수도 있다.
제 1 영상 및 제 2 영상은 동일한 영상을 두 개로 분할하여 획득된 영상들이고, 제 1 프로세서는 제 1 채널 및 제 2 채널 중의 하나를 통과하는 영상을 다른 하나의 채널을 통과하는 영상을 고려하여 하나 내지 수개의 픽셀만큼 이동시키도록 정렬될 수도 있다.
제 1 영상은 외부 유닛에 의해 주사된 동영상이고, 제 2 영상은 움직임의 표현이 가능한 객체를 포함하는 CG 영상이며, 제 1 프로세서는 표시 시간 정보에 근거하여 객체의 움직임 및 그 표현 형식을 제 1 영상의 움직임에 따라 동기시키고, 소정의 그래픽 처리 프로그램의 실행 절차에 따라 객체의 움직임 및 표현 형식을 변경하도록 정렬될 수도 있다.
정보 획득 구조는 표시 시간 정보에 동기하여 조건 또는 주사면(shooting site)의 상태를 나타내는 부가 정보를 획득하고, 제 1 프로세서는 부가 정보가 반영된 컨텐츠에 대해 객체의 움직임 및 표현 형식을 변경하도록 정렬될 수도 있다.
부가 정보는 동영상 위에 나타나는 문자 또는 객체가 존재하는 위치의 상대 위치 정보를 포함하고, 제 1 프로세서는 상대 위치 정보에 따라 객체의 방향 및 표시 위치를 변경하도록 정렬될 수도 있다.
부가 정보는 위치의 기상 조건 정보를 더 포함하고, 제 1 프로세서는 기상 조건 정보에 따라 객체의 움직임 및 표현 형식을 변경하도록 정렬될 수도 있다.
장치는 오퍼레이터에 의해 오퍼레이션된 소정의 제어기의 오퍼레이션 내용을 나타내는 오퍼레이션 정보의 입력을 수신하는 입력 구조를 더 포함하고, 제 1 프로세서가 수신된 오퍼레이션 정보에 따라 객체의 움직임 및 표현 형식을 변경하도록정렬될 수도 있다.
본 발명의 또 다른 양상에 따르면, 제 1 채널을 통해 제 1 영상 및 제 1 영상의 표시 시간 정보를 획득하는 정보 획득 구조, 제 1 채널과 다른 제 2 채널을 통해 제 2 영상 및 소정의 표시 유닛 상의 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 프로세서를 포함하는 정보 처리 장치용의 그래픽 처리 장치가 제공되고, 그래픽 처리 장치들은 제 1 영상의 컨텐츠에 따라 정보 획득 구조에 의해 획득된 제 2 영상을 처리하고, 그리고 처리된 제 2 영상은 결합된 영상의 일부를 형성하는 영상으로서 프로세서로 송출된다.
본 발명의 또 다른 양상에 따르면, 소정의 표시 유닛 상의 복수개의 채널을 통해 획득된 영상들을 표시하는 기능을 갖는 컴퓨터의 그래픽 처리 방법이 제공되고, 그래픽 처리 방법은 방송을 통해 제 1 영상 및 제 1 영상의 표시 시간 정보를, 그리고 방송과는 무관한 채널을 통해 제 1 영상에 관계없이 그래픽 처리에 의해 획득된 제 2 영상을 획득하는 단계; 제 1 영상의 컨텐츠에 따라 획득된 제 1 영상을 처리하는 단계; 및 획득된 표시 시간 정보에 근거하여 표시 유닛 상에, 제 1 영상 및 처리된 제 2 영상이 서로 동기된 결합 영상을 표시하는 단계;를 포함한다.
본 발명의 또 다른 양상에 따르면, 프로그램을 저장하는 컴퓨터 판독가능 저장 매체가 제공되고, 상기 프로그램은 컴퓨터가 소정의 표시 유닛 상의 복수개의 채널들을 통해 획득된 영상들을 표시하며, 제 1 채널을 통해 제 1 영상 및 제 1 영상의 표시 시간 정보를, 그리고 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 과정; 제 1 영상의 컨텐츠에 따라 획득된 제 2 영상을 처리하는 과정; 및획득된 제 1 영상, 처리된 제 2 영상 및 표시 시간 정보를 표시 유닛에 출력하여 소정의 표시 유닛 상에 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 과정; 을 실행한다.
본 발명의 또 다른 양상에 따르면, 컴퓨터가 소정의 표시 유닛 상의 복수개의 채널들을 통해 획득된 영상들을 표시하게 하는 컴퓨터 프로그램이 제공되고, 프로그램은 제 1 채널을 통해 제 1 영상 및 제 1 영상의 표시 시간 정보를 획득하는 단계; 제 1 영상의 컨텐츠에 따라 획득된 제 2 영상을 처리하는 과정; 및 획득된 제 1 영상, 처리된 제 2 영상 및 표시 시간 정보를 표시 유닛에 출력하여 소정의 표시 유닛 상에 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 과정;을 실행한다.
본 발명의 실시예들은 함께 첨부된 도면들을 참조하여 구체적으로 설명된다.
도 1은 본 발명을 실행하는 전체 구성을 보여 준다. 본 발명의 정보 처리 장치(1) 및 서버 스테이션(2; server station)이 네트워크(4a)에 접속되고, 그 결과 그 사이에서 상호 통신이 수행 가능하다. 서버 스테이션(2) 및 방송 스테이션(3)이 네트워크(4b)에 접속되고, 그 결과 그 사이에서 상호 통신이 수행 가능하다.
서버 스테이션(2)은 네트워크(4a)를 통해 정보 처리 장치(1)로부터 정보를 송/수신하거나 또는 복수개의 정보 처리 장치(1)로 동시에 정보를 송신한다.
방송 스테이션(3)은 방송을 통해 정보 처리 장치(1)로 정보를 공급하는 일반적인 방송 설비들을 갖는다. 케이블 방송, 지상파 방송 또는 위성 방송과 같은 여느 종류의 방송이라도 복수개의 정보 처리 장치(1)에 동시에 정보를 제공 가능한 한 사용될 수 있다. 서버 스테이션(2) 및 방송 스테이션(3)은 그 사이에 상호 통신이 가능하도록 하기 위해 네트워크(4b)를 통해 접속되고, 그 결과 스테이션들(2및 3)은 정보 처리 장치(1)로 협력적으로 정보를 공급할 수 있다.
이 실시형태에서 설명될 정보 처리 장치(1)는 두 개의 버스(bus)들, 즉, 메인 버스(B1) 및 서브-버스(B2)를 갖는 엔터테인먼트 장치이다. 이 버스들(B1 및 B2)은 버스 인터페이스(INT)를 통해 서로 접속되거나 또는 서로 접속되지 않는다.
메인 CPU(10), RAM으로 이루어진 메인 메모리(11; main memory), 메인 DMAC(12; Direct Memory Access Controller), MPEG(Moving Picture Experts Group) 디코더(13; MDEC), 및 그 안에 합체된 프레임 메모리(15; frame memory)를 갖는 그래픽 처리 장치(14; 이하 "GPU"라 한다)가 메인 버스(B1)에 접속된다. 비디오 출력 신호를 발생시키는 제어기인 CRTC(16; CRT 제어기)는 GPU(14)에 접속된다. 영상은 비디오 출력 신호를 이용하여, 케이블 등에 의해 정보 처리 장치(1)에 접속되는, 주어진 표시 유닛 상에 표시된다.
정보 처리 장치(1)를 시작하는 시점에서, 메인 CPU(10)는 버스 인터페이스(INT)를 통해 서브-버스(B2) 상에서 ROM(23)으로부터 부트 프로그램(boot program)을 판독하고, 부트 프로그램을 실행하여 오퍼레이팅 시스템(operating system)을 구동한다. 메인 CPU(10)는 또한 매체 드라이브(27; medium drive)를 제어하고, 매체 드라이브(27)에 로드된 매체(28)로부터 응용 프로그램 및 데이터를 판독하여, 메인 메모리(11)에 그것들을 저장한다. 더욱이, 메인 CPU(10)는 예를 들어, 매체(28)로부터 판독된 복수개의 다각형들의, 다양한 데이터로 구성된 3차원 객체 데이터(예를 들면, 다각형들의 꼭지점들(대표점들)의 좌표값)의 기하 처리를 수행한다. 기하 처리의 결과, 메인 CPU(10)는 그것의 컨텐츠로서 다각형 정의 정보를 포함하는 표시 항목을 생성한다. 덧붙여, 메인 CPU(10)는 MPEG(Moving Picture Experts Group) 또는 JPEG(Joint Photograph Experts Group)로 압축된 데이터를 신장시킨다. 즉, 메인 CPU(10)는 소프트웨어를 이용하여 정보를 디코드하는 정보 디코딩 기능을 갖는다.
다각형 정의 정보는 드로잉 영역(drawing area) 설정 정보 및 다각형 정보로 구성된다. 드로잉 영역 설정 정보는 드로잉 영역의 프레임 버퍼 어드레스(frame buffer address)의 옵셋 좌표들(offset coordinates) 및 다각형 좌표들이 드로잉 영역 외부에 위치할 경우 드로잉을 취소하는 드로잉 클리핑 영역(drawing clipping area)의 좌표들로 구성된다. 다각형 정보는 다각형 속성 정보 및 정점 정보로 구성된다. 다각형 속성 정보는 음영 모드(shading mode), α블렌딩 모드(αblending mode), 텍스쳐 매핑 모드(texture mapping mode) 등을 구체화하는 정보이다. 정점 정보는 정점 내부-드로잉 영역 좌표들, 정점 내부-텍스쳐 영역 좌표들, 정점 색깔 등에 대한 정보이다.
GPU(14)는 드로잉 배경들을 유지한다. GPU(14)는 메인 CPU(10)로부터 송출된 표시 항목에 포함된 영상 배경의 식별 정보에 근거하여 대응되는 드로잉 배경을 판독하고 판독된 드로잉 배경을 이용하여 렌더링 처리(rendering processing)를 수행하며, 프레임 메모리(15) 내에 다각형을 드로잉한다. 또한 프레임 메모리(15)는 텍스쳐 메모리로서 사용 가능하므로, 프레임 메모리(15) 상의 픽셀 영상은 텍스쳐로서 드로잉 다각형에 부착 가능하다.
메인 DMAC(12)는 메인 버스(B1)에 접속된 회로들에 대해 DMA 전송 제어를 수행한다. 메인 DMAC(12)는 또한 버스 인터페이스(INT)의 상태에 따라 서브-버스(B2)에 접속된 회로들에 대해 DMA 전송 제어를 수행한다.
MDEC(13)는 메인 CPU(10)에 병렬로 오퍼레이션하며 MPEG 또는 JPEG에 의해 압축된 데이터를 신장한다. 즉, MDEC(13)는 튜너(30; tuner), ATM(26) 또는 매체 드라이브(27)에 의해 획득된 정보를 수신하는 정보 디코더이며 그것을 디코드한다. MDEC(13)는 디코딩용으로 특수하게 설계된 IC 또는 프로그래밍용으로 특수하게 설계된 DSP를 이용하여 소프트웨어에 의해 수행 가능하다. MDEC(13)는 소프트웨어 처리에 의해 메인 CPU(10) 또는 서브-CPU(20)에서 수행될 수도 있다.
서브-버스(B2)는 마이크로프로세서(microprocessor) 등으로 구성된 CPU(20), RAM으로 구성된 서브-메모리(21), 서브-DMAC(22), 오퍼레이팅 시스템 등과 같은 프로그램들을 저장하는 ROM(23), 음향 메모리(25)에 저장된 음향 데이터를 판독하고 그것을 오디오 출력으로서 출력하는 음향 처리 유닛(24; SPU), 네트워크(4a)를 통해 서버 스테이션(2) 등과 같은 외부 유닛으로 정보를 송/수신하는 통신 제어부(25; ATM), 매체(28)를 로드하는 매체 드라이브(27), 큰 용량의 정보를 저장하는 보조 저장 장치(29), 튜너(30) 및 입력부(31)를 접속시킨다. 매체(28)는 그래픽 처리용 프로그램을 저장하는 CD-ROM 또는 DVD-ROM과 같은 저장 매체이다. 정보 처리 장치(1)는 그래픽 처리용 프로그램을 판독하고 그것을 실행하며, 이에 따라 소정의 엔터테인먼트 처리를 실행한다.
서브-CPU(20)는 ROM(23)에 저장된 프로그램에 따라 다양한 종류의 오퍼레이션(operation)들을 수행한다. 서브-DMAC(22)는 버스 인터페이스(INT)가서브-버스(B2)에서 메인 버스(B1)를 분리하는 경우에만 서브-버스(B2)에 접속된 회로들에 대해 DMA 전송 제어를 수행한다.
튜너(30)는 방송 스테이션(3)에서 송출된 정보 및 안테나(ATN)를 통해 수신된 정보로부터 오퍼레이터에 의해 선택된 채널의 정보를 추출해낸다. 입력부(31)는 오퍼레이션 유닛(33)으로부터 입력된 입력 신호를 통과시키는 접속 단자(32)를 갖는다. 보조 저장 장치(29)는 서버 스테이션(2)으로부터 송출된 정보와 ATM(26)에 의해 수신된 정보, 및 방송 스테이션(3)에서 송출된 정보와 튜너(30)에 의해 수신된 정보를 임시로 저장하는 표준 하드 디스크이다.
이 실시형태에 따른 정보 처리 장치에 튜너(30)가 제공되었지만, 범용 컴퓨터 등과 같은 정보 처리 장치 내에 표준적으로 튜너가 제공되지 않는다. 따라서, 튜너는 정보 처리 장치(1)에 외부적으로 부가될 수도 있고, 따라서 튜너에 의해 수신된 정보는 정보 처리 장치(1)로 송출된다. 이 경우, 정보 처리 장치(1)는 튜너로부터의 정보가 그를 통하여 입력부(31)로 입력되는 입력 단자를 가질 수도 있다.
전술한 정보 처리 장치(1)에서, 세 개의 정보 입력 채널들, 즉, ATM(26)에 의해 네트워크(4a)를 통하여 서버 스테이션(2)으로부터 정보를 수신하는 채널, 튜너(30)에 의해 안테나(ATN)를 통해 방송 스테이션(3)으로부터 방송을 수신하는 채널 및 매체 드라이브(27)에 의해 매체(28)로부터 재생된 정보를 획득하는 채널이 유용하다. 이 입력 채널들은 서로 독립되어 있고, 그 결과 방송이 수신되는 동안 서버 스테이션(2)으로부터 정보를 수신하고, 나아가 매체(28)로부터 재생된 정보를 판독하는 것이 가능하다. ATM(26), 튜너(30), 및 매체(28) 각각은 정보 획득 구조의 한 실시예이다.
앞의 입력 채널들에 의해 정보 처리 장치(1)에 포획된 정보는 SPU(24)에 의해 생성된 오디오 출력으로서의 역할을 하는 음성 정보와 더불어 CRTC(16)에 의해 생성된 비디오 출력으로서의 역할을 하는 영상 정보를 포함한다. 영상 정보는 동영상을 형성하기 위해 연속적으로 재생되는 동영상 정보와, 동영상을 형성하는 각각의 프레임 영상들의 프레임 개수를 나타내는 프레임 개수 정보를 포함한다. 프레임 개수 정보는 표시 시간 정보의 한 실시예이다. 이 외에도, 수직 동기 신호, 수평 동기 신호 등이 표시 시간 정보로서 사용될 수 있다.
본 발명의 특징들 중의 하나인, 영상 결합 처리에 대해 설명될 것이다. 이 처리는 메인 CPU(10) 및 GPU(14)에 의해 수행된다. 도 2a, 2b, 3a 및 3b는 영상 결합을 설명하는 설명도들이다.
도 2a 및 2b는 메인 CPU(10)에 의해 수행된 영상 결합을 설명하는 설명도들이며, 도 2a는 플로우차트이고 도 2b는 주요 부품의 회로도이다.
영상 결합이 메인 CPU(10)에 의해 수행될 때, 영상 정보를 포함하는 정보는 세 개의 채널들, 즉, 정보 획득 구조의 역할을 하는 ATM(26), 튜너(30) 및 매체 드라이브(27) 중의 어느 두 개에 의해 획득된다(단계 S101). 획득된 정보는 메인 영상을 포함하는 정보(이하, "메인 영상 정보"라 한다) 및 부가 정보를 포함하는 정보(이하, "부가 영상 정보"라 한다)를 포함한다. 메인 영상 정보는 MDEC(13)에 의해 디코드된다. 디코딩 결과, 메인 영상이 생성된다. MDEC(13)는 메인 영상을 생성시킬 뿐만 아니라 메인 영상의 진행을 나타내는 프레임 개수 정보를 판독한다.MDEC(13)에 의해 생성된 메인 영상 및 그것에 의해 판독된 프레임 개수 정보는 메인 CPU(10)로 송출된다. 부가 영상 정보는 메인 CPU(10)에서 소프트웨어 처리에 의해 디코드되어 부가 영상을 형성한다(단계 S102). 이 시점에서, 부가 영상은 메인 영상의 컨텐츠에 따라 처리된다.
메인 CPU(10)는 두 개의 영상을 결합하기 위해 프레임 개수 정보에 근거하여 MDEC(13)에서 송출된 메인 영상 및 메인 CPU(10)에 의해 디코드된 부가 영상을 중첩시켜, 결합된 영상에 근거하여 표시 항목을 생성한다(단계 S103). 표시 항목이 프레임 메모리(15) 상에 드로잉됨으로써 생성된 표시 항목이 GPU(14)로 송출된다(단계 S104). 영상이 비디오 출력 신호로 변환되고 비디오 출력 신호로 출력됨으로써 프레임 메모리(15) 상에 드로잉된 영상은 GPU(14)를 통해 CRTC(16)로 송출된다(단계 S105). 결합된 영상은 비디오 출력 신호에 의해 소정의 표시 유닛 상에 표시된다.
도 3a 및 3b는 GPU(14)에 의해 수행된 영상을 결합을 설명하는 설명도들이고, 도 3a는 플로우차트이며, 도 3b는 주요 부품의 회로도이다.
영상 결합이 GPU(14)에 의해 수행될 때, 영상 정보를 포함하는 정보는 세 개의 채널들, 즉, 정보 획득 구조의 역할을 하는 ATM(26), 튜너(30) 및 매체 드라이브(27) 중의 어느 두 개에 의해 획득된다(단계 S201). 획득된 정보는 메인 영상 정보 및 부가 영상 정보를 포함한다. 메인 영상 정보는 MDEC(13)에 의해 디코드된다. 디코드한 결과, 메인 영상이 생성된다. MDEC(13)는 메인 영상을 생성시킬 뿐만 아니라 메인 영상의 진행을 나타내는 프레임 개수 정보를 판독한다. MDEC(13)에 의해 생성된 메인 영상 및 그것에 의해 판독된 프레임 개수 정보는 메인 CPU(10)로 송출된다.
부가 영상 정보는 메인 CPU(10)에서 소프트웨어 처리에 의해 디코드되어 부가 영상을 형성한다(단계 S202). 이 시점에서, 부가 영상은 메인 영상의 컨텐츠에 따라 처리된다. 메인 CPU(10)는 MDEC(13)로부터 송출된 메인 영상에 근거한 메인 영상 표시 항목 및 메인 CPU(10)에 의해 디코드된 부가 영상에 근거한 부가 영상 표시 항목을 생성하고 프레임 개수 정보에 따라 GPU(14)로 그들을 송출한다(단계 S203).
GPU(14)는 메인 영상 표시 항목 및 부가 영상 표시 항목을 결합하고 프레임 메모리(15) 상에 표시 항목들을 드로잉한다(단계 S204).
GPU(14)를 이용하여 영상 결합을 수행하는 두 가지 방법이 있다. 하나는 프레임 메모리(15) 상에 표시 항목들을 드로잉하는 시점에서 수행되는 결합이다. 또 다른 하나는 프레임 메모리(15) 상에 표시 항목들을 드로잉한 후 수행되는 결합이다.
전자에서, 메인 영상 표시 항목 및 부가 영상 표시 항목은 프레임 개수 정보에 근거하여 서로 중첩되고 프레임 메모리(15)의 동일한 영역에 드로잉된다. 후자에서, 메인 영상 표시 항목 및 부가 영상 표시 항목은 프레임 메모리(15)의 다른 영역에 드로잉된다. 그 후, GPU(14)는 프레임 개수 정보에 근거하여 동시에 프레임 메모리(15)로부터 두 개의 드로잉된 영상을 판독하고, 그들을 결합시킨다.
영상이 비디오 출력 신호로 변환되고 비디오 출력 신호로 출력됨으로써 그에따라 결합된 드로잉된 영상은 CRTC(16)로 송출된다(단계 S205). 결합된 영상은 비디오 출력 신호에 의해 소정의 표시 유닛 상에 표시된다.
동일한 입력 채널로부터 영상 정보를 획득 가능하게 하기 위해, 영상 결합이 두 개의 유닛들, 즉, 메인 CPU(10) 및 GPU(14) 중 하나에 의해 수행될 때, 결합되는 두 개의 영상들 중의 어느 하나는 보조 저장 장치(29)에 임시로 저장된다. 다시 말해, 앞서 획득된 영상 정보는 보조 저장 장치(29)에 임시로 저장되고, 그리고나서, 동일한 입력 채널로부터 다른 영상 정보가 획득된다. 보조 저장 장치(29)는 앞서 획득된 영상 정보를 직접 저장할 수도 있고, 또는 디코드한 후에 저장할 수도 있다. 보조 저장 장치(29)에 저장된 영상 정보는 필요에 따라 판독될 수 있다.
(실시예들)
앞서 말한 영상 결합 처리를 수행하는 정보 처리 장치는 다음의 영상들을 생성시킬 수 있다.
실시예 1:
첫째, 고해상도의 동영상을 제공할 수 있도록 두 개의 입력 채널들에 의해 수신된 정보 및 수신된 정보로부터 생성된 영상들을 서로 중첩시키는 경우의 한 실시예가 주어진다. 도 4a는 고해상도를 갖는 영상(동영상의 부분인 프레임 영상)으로부터 영상 정보를 생성하는 과정을 도시하고 도 4b는 수신된 영상 정보로부터 고해상도를 갖는 영상을 생성하는 과정을 도시한다. 이 영상은 "/"로 표시한다.
다음은 표준 방송에 의해 송출된 해상도를 갖는 영상과 해상도를 증가시키기 위한 영상이 서로 중첩되는 한 실시예가 설명된다. 표준 방송에 근거한 해상도를갖는 영상의 역할을 하는 정보는 메인 영상 정보이고, 해상도를 증가시키기 위한 영상의 역할을 하는 정보는 부가 영상 정보라고 가정한다. 메인 영상 정보는 영상의 역할을 하는 동영상 정보, 및 동영상을 형성하는 프레임 영상들 각각에 대한 프레임 개수 정보를 포함한다. 메인 영상은 방송 스테이션(3)에서의 무선 방송에 대한 어느 것에 고선명도로 주사된 영상 등과 같은 고해상도를 갖는 동영상의 해상도를 감소시켜 획득된 동영상이다. 부가 영상 정보는 메인 영상 정보에 근거하여 영상의 해상도를 증가시키는 영상 정보이다. 즉, 부가 영상 정보는 도 4a에 도시된 영상 C의 역할을 하는 영상 정보에 대응된다. 영상 C는 고해상도의 주사에 의해 획득된 영상 A 및 표준 방송에 대한 해상도로 영상 A의 해상도를 감소시켜 획득시킨 영상 B 사이의 차이에 대응되는 영상이다. 도 4a의 영상 B는 도 4b에 도시된 표준 방송을 근거로 한 해상도를 갖는 영상에 대응된다. 도 4a의 영상 C는 도 4b에 도시된 해상도를 증가시키는 영상에 대응된다.
이 실시예에서, 메인 영상 정보는 방송 스테이션(3)으로부터 방송되고 부가 영상 정보가 서버 스테이션(2)으로부터 전송된다고 가정한다. 또한 영상 결합은 메인 CPU(10)에 의해 수행된다고 가정한다.
메인 영상 정보는 방송 스테이션(3)으로부터 방송되고 안테나(ANT)를 통해 튜너(30)로 입력된다. 튜너(30)는 선택된 채널의 정보만을 추출하여 MDEC(13)에 그것을 송출한다. MDEC(13)는 수신된 정보를 디코딩하여 메인 영상을 생성하고 그것을 메인 CPU(10)로 송출한다. MDEC(13)는 또한 튜너(30)에서 송출된 메인 영상 정보로부터 프레임 개수 정보를 추출한다. 추출된 프레임 개수 정보는 또한 메인CPU(10)로 송출된다.
부가 영상 정보는 영상 A 및 영상 B 사이의 차이를 나타낸다. 따라서, 부가 영상 정보는 방송 스테이션(3)에 의해 표준적으로 생성되고 서버 스테이션(2)으로 송출된다. 그후, 부가 영상 정보는 네트워크(4a)를 통해 서버 스테이션(2)으로부터 ATM(26)으로 입력된다. 입력된 부가 영상 정보는 메인 CPU(10)에 의해 디코드된다. 메인 CPU(10)는 부가 영상을 생성한다.
메인 CPU(10)는 MDEC(13)로부터 송출된 메인 영상 및 메인 CPU(10)에 의해 디코드된 부가 영상을 결합하고, 표시 항목을 생성한다. 결합은 완전히 다른 스크린 페이지들(screen pages)이 결합되지 않도록 프레임 개수 정보와 동기되어 수행된다.
메인 CPU(10)에 의해 생성된 표시 항목은 GPU(14)로 송출되고, 프레임 메모리(15) 상에 드로잉된다. 그후, 드로잉된 영상은 CRTC(16)로 송출되고, 비디오 출력 신호로 변환된다. 소정의 표시 유닛 상에 이 비디오 출력 신호를 표시함에 의해, 고해상도를 갖는 영상이 획득된다.
이 방법에서의 영상의 생성은 종래의 방송에 근거한 해상도를 갖는 영상을 고해상도를 갖는 영상으로 표시 가능하게 한다. 따라서, 고화질의 방송이 종래의 방송 설비를 이용하여 실행 가능하게 된다.
실시예 2:
다음으로, 입체 영상이 시각적으로 3차원 영상으로 제공될 수 있도록 두 개의 입력 채널들로부터 수신된 정보 및 수신된 정보에 근거하여 생성된 영상이 서로중첩되는 경우의 한 실시예가 설명된다. 도 5는 이렇게 생성된 입체 영상을 도시하는 한 실시예이다. 영상은 직각 평행육면체로 표현된다.
이 그림은 우측 눈에 대한 영상 및 좌측 눈에 대한 영상이 서로 중첩된 한 실시예를 보여 준다. 좌측 눈에 대한 영상의 역할을 하는 정보가 메인 영상 정보이고 우측 눈에 대한 영상의 역할을 하는 정보가 부가 영상 정보라고 가정한다. 메인 영상 정보는 좌측 눈에 대한 영상의 역할을 하는 동영상 정보 및 동영상을 형성하는 각각의 프레임 영상들에 대한 프레임 개수 정보를 갖는다. 좌측 눈에 대해 하나와 우측 눈에 대해 다른 하나의 두 개의 카메라들이 주어진 거리로 동일한 객체를 주사할 때 좌우측 눈에 대한 영상들이 생성된다.
이 실시예에서, 메인 영상 정보가 서버 스테이션(2)으로부터 전송되고 부가 영상 정보가 매체(28)로부터 판독된다고 가정한다. 또한 영상 결합이 GPU(14)에 의해 수행된다고 가정한다.
메인 영상 정보는 네트워크(4a)를 통해 서버 스테이션(2)에서 ATM(26)으로 입력된다. 입력된 메인 영상 정보는 MDEC(13)에 의해 디코드되어 메인 영상의 역할을 한다. MDEC(13)는 또한 메인 영상 정보로부터 프레임 개수 정보를 추출한다. 메인 영상은 메인 CPU(10)로 송출되어 메인 영상 표시 항목의 역할을 한다. 프레임 개수 정보는 메인 CPU(10)를 통해 GPU(14)로 송출된다.
부가 영상 정보는 매체 드라이브(27)에 의해 매체(28)로부터 판독된다. 판독된 정보는 메인 CPU(10)에 의해 디코딩되어 부가 영상 표시 항목의 역할을 한다. 메인 영상 표시 항목 및 부가 영상 표시 항목은 GPU(14)로 송출된다.
GPU(14)로 송출된 메인 영상 표시 항목 및 부가 영상 표시 항목은 프레임 메모리(15)의 동일한 영역에 드로잉되고 프레임 개수 정보와 동기되어 서로 중첩된다. 따라서, 이 영상 표시 항목들은 동일한 영역에 드로잉 되어 서로 중첩되고, 그 결과 메인 영상으로서의 좌측 눈에 대한 영상 및 부가 영상으로서의 우측 눈에 대한 영상이 결합된다.
그후로, 프레임 메모리(15) 상에 드로잉된 영상이 CRTC(16)로 송출되고 비디오 출력 신호로 변환된다. 이 비디오 출력 신호는 소정의 표시 유닛 상에 표시되고, 그 결과 입체 영상이 획득된다.
이 방법에서의 영상의 생성은 종래의 평면 영상을 입체 영상으로 표시 가능하게 한다.
이와 더불어, 입체 영상은 동일한 영상을 두 개로, 즉, 메인 영상 및 부가 영상으로 분할하여 수행될 수 있다. 더욱 구체적으로, 만약 하나의 영상이 다른 영상을 고려하여 하나 내지 수 개의 픽셀들 만큼 이동되는 그러한 방식으로 메인 CPU(10)가 표시 항목을 생성한다면, 입체 영상은 양쪽 영상들이 결합될 때 형성된다.
실시예 3:
다음은, 움직임의 표현이 가능한 객체를 포함하는 CG 영상(게임 영상 등)이 방송 영상에 중첩 가능한 영상을 제공하도록 두 개의 입력 채널들로부터 수신된 정보 및 수신된 정보에 근거하여 생성된 영상들을 서로 중첩하는 경우의 실시예가 설명된다. 도 6a 및 6b는 이렇게 생성된 영상들의 실시예들이다.
이 경우에, 중첩되는 게임 영상은 방송 영상에 관련시킬 필요가 없다. 도 6a는 방송 영상에 방송 영상과 무관한 게임 영상을 중첩시켜, 즉, 방송 영상에 레어링 게임(rearing game)의 영상을 중첩시켜 표시된 영상을 도시한다. 도 6b는 방송 영상에 방송 영상과 관계있는 게임 영상을 중첩시켜, 즉, 방송 영상에 골프 게임의 영상을 중첩시켜 표시된 영상을 도시한다. 방송 영상의 역할을 하는 정보는 메인 영상 정보이고 게임 영상의 역할을 하는 정보는 부가 영상 정보라고 가정한다.
메인 영상 정보는 영상의 역할을 하는 동영상 정보 및 동영상을 형성하는 각각의 프레임 영상들에 대한 프레임 개수 정보를 갖는다. 메인 영상 정보는 또한 메인 영상에 의해 표시된 위치의 조건 또는 상태를 나타내는 부가 정보를 포함한다. 예를 들면, 부가 정보는 메인 영상에 나타나는 문자 및 객체가 존재하는 위치에 대한 상대 위치 정보(도 6a의 경우에서 산, 집, 자동차의 위치와 크기에 대한 정보 및 도 6b의 경우에서 골프 코스의 명칭 및 홀 개수에 대한 정보)와 메인 영상에 의해 표시된 위치에서의 기상 조건 정보(도 6b의 경우에서 날씨, 바람의 방향 등에 대한 정보)를 포함한다.
이 실시예에서, 메인 영상 정보가 방송 스테이션(3)으로부터 방송되고 부가 정보가 매체(28)로부터 판독된다고 가정한다. 또한 영상 결합이 GPU(14)에 의해 수행된다고 가정한다.
메인 영상 정보는 방송 스테이션(3)으로부터 방송되고 안테나(ANT)를 통해 튜너(30)로 입력된다. 튜너(30)는 선택된 채널의 정보만을 추출하여 MDEC(13)에그것을 송출한다. MDEC(13)는 수신된 정보를 디코드하여 메인 영상을 생성하고 그것을 메인 CPU(10)로 송출한다. 메인 CPU(10)로 송출된 메인 영상은 메인 영상 표시 항목이 된다. MDEC(13)는 또한 튜너(30)에서 송출된 메인 영상 정보로부터 프레임 개수 정보를 추출한다. 추출된 프레임 개수 정보는 또한 메인 CPU(10)로 송출된다. 더욱이, 부가 정보가 추출되어 메인 CPU(10)로 송출된다.
부가 영상 정보는 매체 드라이브(27)에 의해 매체(28)로부터 판독된다. 판독된 정보는 메인 CPU(10)에 의해 디코딩되고 부가 영상 표시 항목을 형성한다. 메인 영상 표시 항목 및 부가 영상 표시 항목은 GPU(14)로 송출된다. 메인 CPU(10)는 MDEC(13)로부터 송출된 프레임 개수 정보에 근거하여 객체의 움직임 및 그 표현 형식을 메인 영상의 움직임에 동기시키고, 게임 프로그램 실행 명령에 따라 그들을 변경한다.
부가 영상 표시 항목이 게임 영상을 보여주는 표시 항목이므로, 오퍼레이션 유닛(33)으로부터 입력된 신호가 그것에 반영된다. 더욱 구체적으로, 오퍼레이션 유닛(33)으로부터의 입력 신호는 입력부(31)를 통해 메인 CPU(10)에 입력된다. 메인 CPU(10)는 입력 신호를 분석하고 분석된 결과를 3차원 객체에 반영하여 기하 처리를 수행하고, 이에 따라 객체의 움직임 및 그 표현 형식을 변경시키는 부가 영상 표시 항목을 생성하게 된다.
메인 CPU(10)는 부가 정보로부터 스크린 상에 무엇이 존재하는지와 스크린 상에 어디에 위치하는지에 대한 상대 위치 정보를 획득한다. 그후, 메인 CPU(10)는 획득된 상대 위치 정보에 근거하여 객체의 움직임(도 6a의 레어링 펫(rearingpet) 및 도 6b의 볼(ball))에 영향이 미치도록 처리를 수행한다.
예를 들면, 도 6a의 영상에서, 자동차가 움직인다고 상상한다. 펫은 자동차의 위치를 나타내는 부가 정보에 근거하여 자동차의 좌표들을 확정하고 그 좌표들을 추적한다. 결과적으로, 스크린 상에서, 펫이 자동차를 추적하는 영상을 획득할 수 있다. 펫은 자동차를 추적하는 정보를 갖고, 자동차에 흥미를 갖도록 한다. 그러한 정보는 펫의 레어링을 향상시키도록 하는 펫의 정보로서 생성된다.
도 6b에서, 획득된 메인 영상에서의 골프 코스의 명칭 및 그것의 홀 개수에 대한 정보가 부가 정보로부터 확정될 수 있다. 대응되는 영상의 역할을 하는 게임 영상이 그러한 정보에 근거하여 생성된다.
이는 오퍼레이터에 대해 오퍼레이션 유닛(33)을 이용하여 생성된 게임 영상에서 게임을 즐기는 것이 가능하게 한다. 오퍼레이션 유닛(33)을 이용하여 객체의 움직임 및 그 표현 형식을 변경하는 시점에서, 부가 정보로부터 획득한 기상 조건 정보를 고려하여 객체의 움직임 및 그 표현 형식의 제공이 가능하다. 예를 들면, 만약 메인 영상에서 비가 내리고 있다면, 게임 영상의 객체는 비에 젖은 것처럼 표시될 수도 있다. 이는 마치 영상에서 실제 골프 선수와 같은 조건 하에서 골프를 하는 오퍼레이터와 같이 오퍼레이터가 가상 현실의 체험이 가능하게 한다. 이런 방식으로, 부가 정보 및 오퍼레이션 유닛(33)에 의해 수행된 오퍼레이션은 부가 영상에 반영된다.
GPU(14)로 송출된 메인 영상 표시 항목 및 부가 영상 표시 항목은 프레임 메모리(15)의 다른 영역에 드로잉된다. 그후, GPU(14)는 프레임 개수 정보에 근거하여 프레임 메모리(15)로부터 두 개의 영상들을 동시에 판독하고 그들을 결합한다. 결합된 영상은 비디오 출력 신호가 변환되고 출력되는 CRTC(16)로 송출된다.
따라서, 결합된 영상은 오퍼레이션 유닛(33)으로부터 부가 정보 및 입력 신호에 주어진 조건을 고려하여 생성된다. 이는 메인 영상을 근거로 하여, 레어링 게임에 익숙해지도록 펫에 영향을 미치게 한다. 이는 또한 마치 오퍼레이터가 동시에 동일한 조건 하의 동일한 코스에서 실제 골프 선수로 골프를 하는 것과 같은 느낌을 얻는 것이 가능하다.
따라서, 전술된 실시형태들에서, 중첩되는 영상들로 사용되기 위한 정보는 세 개의 채널들 중 어느 두 개로부터 획득될 수도 있다. 덧붙여, 보조 저장 장치(29)는 동일한 채널로부터 정보가 획득되도록 앞서 얻어진 정보가 보조 저장 장치(29)에 저장되고 그후에 획득된 정보와 동기되어 판독되도록 제공될 수도 있다.
전술된 실시형태들에서, 본 발명은 위에서 설명된 구조를 갖는 엔터테인먼트 장치에 적용된다. 그러나, 본 발명은 그것에 국한되지 않는다. 예를 들면, 주어진 표시 유닛 상의 복수개의 채널들로부터 획득한 영상들을 표시하는 기능을 갖기 위해 오퍼레이팅 시스템을 로드하는 범용 컴퓨터는 그래픽 처리를 수행하도록 CD-ROM 또는 DVD-ROM 등과 같은 저장 매체에 기록된 그래픽 처리에 대한 컴퓨터 프로그램을 실행하는데 사용될 수도 있다.
Claims (15)
- 제 1 채널(channel)을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보를, 그리고 상기 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 수단;상기 제 1 영상의 컨텐츠에 따라 상기 획득된 제 2 영상을 처리하는 제 1 수단; 및소정의 표시 유닛(display unit)으로 상기 획득된 제 1 영상, 상기 제 1 수단에 의해 처리된 상기 제 2 영상 및 상기 표시 시간 정보를 출력하여 상기 표시 유닛 상에 상기 제 1 영상과 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 제 2 수단;을 포함하는 것을 특징으로 하는 정보 처리 장치.
- 제 1 채널을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보를, 그리고 상기 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 정보 획득 구조;상기 제 1 영상의 컨텐츠에 따라 상기 획득된 제 2 영상을 처리하는 제 1 프로세서(processor); 및소정의 표시 유닛으로 상기 획득된 제 1 영상, 상기 제 1 프로세서에 의해 처리된 상기 제 2 영상 및 상기 표시 시간 정보를 출력하여 상기 표시 유닛 상에 상기 제 1 영상과 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 제 2 프로세서;를 포함하는 것을 특징으로 하는 정보 처리 장치.
- 제 2 항에 있어서, 상기 제 1 영상은 상기 제 1 채널에 대응하는 고해상도의 동영상의 해상도를 감소시켜 획득된 동영상이고, 상기 제 2 영상은 상기 고해상도 동영상 및 상기 제 1 영상 사이를 구분하는 정보이며, 그리고 상기 제 1 프로세서는 상기 고해상도 동영상의 것과 같은 동일한 해상도를 갖는 결합된 영상이 상기 표시 유닛에 표시되도록 상기 제 2 영상을 처리하는 것을 특징으로 하는 장치.
- 제 2 항에 있어서, 상기 제 1 채널은 방송 스테이션으로부터의 무선 방송 채널이고, 상기 제 2 채널은 상기 방송 스테이션으로부터 시작되는 케이블 통신 채널(cable communication channel)인 것을 특징으로 하는 장치.
- 제 2 항에 있어서, 상기 제 1 영상은 입체 영상을 형성하기 위해 발생하는 우측 눈 및 좌측 눈에 대한 영상들 중의 하나이고, 상기 제 2 영상은 상기 영상들 중 다른 하나이며, 상기 제 1 프로세서는 상기 입체 영상이 상기 표시 유닛에 표시되도록 상기 제 2 영상을 처리하는 것을 특징으로 하는 장치.
- 제 5 항에 있어서, 상기 제 1 영상 및 상기 제 2 영상은 동일한 영상을 두개로 분할하여 획득된 영상들이고, 상기 제 1 프로세서는 상기 제 1 채널 및 상기 제 2 채널 중 하나를 통과하는 영상을 다른 하나의 채널을 통과하는 영상을 고려하여하나 내지 수 개의 픽셀(pixel)들 만큼 이동시키는 것을 특징으로 하는 장치.
- 제 2 항에 있어서, 상기 제 1 영상은 외부 유닛에 의해 주사(走査)된 동영상이고, 상기 제 2 영상은 움직임의 표현이 가능한 객체를 포함하는 CG 영상이며, 상기 제 1 프로세서는 상기 표시 시간 정보에 근거하여 상기 객체의 움직임 및 그 표현 형식을 상기 제 1 영상의 움직임에 동기시키고, 소정의 그래픽 처리 프로그램의 실행 절차에 따라 상기 객체의 움직임 및 표현 형식을 변경하는 것을 특징으로 하는 장치.
- 제 7 항에 있어서, 상기 정보 획득 구조는 상기 표시 시간 정보에 동기하는 조건 또는 주사면의 상태를 지시하는 부가 정보를 획득하고, 상기 제 1 프로세서는 상기 객체의 움직임 및 표현 형식을 상기 부가 정보가 반영된 컨텐츠로 변경하는 것을 특징으로 하는 장치.
- 제 8 항에 있어서, 상기 부가 정보는 상기 동영상 위에 나타나는 문자 또는 객체가 존재하는 위치의 상대 위치 정보를 포함하고, 상기 제 1 프로세서는 상기 상대 위치 정보에 따라 상기 객체의 방향 및 표시 위치를 변경하는 것을 특징으로 하는 장치.
- 제 8 항에 있어서, 상기 부가 정보는 상기 위치의 기상 조건 정보를 더 포함하고, 상기 제 1 프로세서는 상기 기상 조건 정보에 따라 상기 객체의 움직임 및 표현 형식을 변경하는 것을 특징으로 하는 장치.
- 제 8 항에 있어서, 오퍼레이터(operator)에 의해 오퍼레이션되는 소정의 제어기의 오퍼레이션 내용을 나타내는 오퍼레이션 정보의 입력을 수신하는 입력 구조를 더 포함하고, 상기 제 1 프로세서는 상기 수신된 오퍼레이션 정보에 따라 상기 객체의 움직임 및 표현 형식을 변경하는 것을 특징으로 하는 장치.
- 제 1 채널을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보와 상기 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 정보 획득 구조, 및 소정의 표시 유닛 상에 상기 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 프로세서를 포함하고, 상기 그래픽 처리 장치들이 상기 제 1 영상의 내용에 따른 상기 정보 획득 구조에 의해 획득된 상기 제 2 영상을 처리하고, 처리된 상기 제 2 영상이 상기 결합된 영상의 일부를 형성하는 영상으로서 상기 프로세서로 송출되는 것을 특징으로 하는 정보 처리 장치에 사용되는 그래픽 처리 장치.
- 소정의 표시 유닛 상에 복수의 채널들을 통해 획득된 영상들을 표시하는 기능을 갖는 컴퓨터의 그래픽 처리 방법에 있어서, 상기 그래픽 처리 방법은방송을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보를, 그리고 상기 방송과는 무관한 채널을 통해 상기 제 1 영상에 상관없이 그래픽 처리에 의해 획득된 제 2 영상을 획득하는 단계;상기 제 1 영상의 컨텐츠에 따라 상기 획득된 제 2 영상을 처리하는 단계; 및상기 획득된 표시 시간 정보에 근거하여 상기 표시 유닛 상에, 상기 제 1 영상 및 상기 처리된 제 2 영상이 서로 동기되어 결합된 영상을 표시하는 단계;를 포함하는 것을 특징으로 하는 그래픽 처리 방법.
- 프로그램을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 컴퓨터가 소정의 표시 유닛 상에 복수개의 채널들을 통해 획득된 영상들을 표시하게 하는 상기 프로그램은제 1 채널을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보를, 그리고 상기 제 1 채널과 다른 제 2 채널을 통해 제 2 영상을 획득하는 과정;상기 제 1 영상의 컨텐츠에 따라 상기 획득된 제 2 영상을 처리하는 과정; 및상기 획득된 제 1 영상, 상기 처리된 제 2 영상 및 상기 표시 시간 정보를 상기 표시 유닛으로 출력하고, 상기 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 상기 표시 유닛 상에 표시하는 과정;을 실행하는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
- 컴퓨터가 소정의 표시 유닛 상에 복수개의 채널들을 통해 획득된 영상들을표시하게 하는 컴퓨터 프로그램에 있어서, 상기 컴퓨터 프로그램은제 1 채널을 통해 제 1 영상 및 상기 제 1 영상의 표시 시간 정보를, 그리고 제 1 채널과는 다른 제 2 채널을 통해 제 2 영상을 획득하는 과정;상기 제 1 영상의 컨텐츠에 따라 상기 획득된 제 2 영상을 처리하는 과정; 및상기 획득된 제 1 영상, 상기 처리된 제 2 영상 및 상기 표시 시간 정보를 출력하여 상기 표시 유닛 상에 상기 제 1 영상 및 제 2 영상을 결합하여 획득된 결합 영상을 표시하는 과정;을 실행하는 것을 특징으로 하는 컴퓨터 프로그램.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000150591 | 2000-05-22 | ||
JPJP-P-2000-00150591 | 2000-05-22 | ||
JP2001133147 | 2001-04-27 | ||
JPJP-P-2001-00133147 | 2001-04-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20030036160A true KR20030036160A (ko) | 2003-05-09 |
Family
ID=26592357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020027013599A KR20030036160A (ko) | 2000-05-22 | 2001-05-21 | 정보 처리 장치, 그래픽 처리 유닛, 그래픽 처리 방법,저장 매체 및 컴퓨터 프로그램 |
Country Status (7)
Country | Link |
---|---|
US (1) | US6924846B2 (ko) |
EP (1) | EP1287687B1 (ko) |
KR (1) | KR20030036160A (ko) |
AU (1) | AU2001258788A1 (ko) |
DE (1) | DE60114811D1 (ko) |
TW (1) | TW529303B (ko) |
WO (1) | WO2001091459A2 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100652702B1 (ko) * | 2004-12-07 | 2006-12-01 | 엘지전자 주식회사 | Dmb기능을 구비한 휴대단말기의 3d방송 표시방법 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6026311A (en) * | 1993-05-28 | 2000-02-15 | Superconductor Technologies, Inc. | High temperature superconducting structures and methods for high Q, reduced intermodulation resonators and filters |
JP2005516620A (ja) * | 2001-07-24 | 2005-06-09 | ユニバーシティ オブ ピッツバーグ | ポリウレタンコーティング内のジイソプロピルフルオロホスファターゼの不可逆的固定化 |
KR100824380B1 (ko) * | 2002-08-08 | 2008-04-22 | 삼성전자주식회사 | 영상 기록/재생 장치 및 그 메뉴안내 표시방법 |
US20040150748A1 (en) * | 2003-01-31 | 2004-08-05 | Qwest Communications International Inc. | Systems and methods for providing and displaying picture-in-picture signals |
US8713617B2 (en) | 2003-01-31 | 2014-04-29 | Qwest Communications International Inc. | Systems and methods for providing television signals using a network interface device |
US20040150749A1 (en) * | 2003-01-31 | 2004-08-05 | Qwest Communications International Inc. | Systems and methods for displaying data over video |
US8490129B2 (en) | 2003-01-31 | 2013-07-16 | Qwest Communications International Inc. | Methods, systems and apparatus for selectively distributing urgent public information |
US10142023B2 (en) | 2003-01-31 | 2018-11-27 | Centurylink Intellectual Property Llc | Antenna system and methods for wireless optical network termination |
US7921443B2 (en) | 2003-01-31 | 2011-04-05 | Qwest Communications International, Inc. | Systems and methods for providing video and data services to a customer premises |
KR100897465B1 (ko) * | 2003-06-30 | 2009-05-14 | 파나소닉 주식회사 | 기록매체, 재생장치, 기록방법, 재생방법 |
US8112449B2 (en) | 2003-08-01 | 2012-02-07 | Qwest Communications International Inc. | Systems and methods for implementing a content object access point |
JP4408845B2 (ja) * | 2005-07-27 | 2010-02-03 | シャープ株式会社 | 映像合成装置及びプログラム |
US20070035665A1 (en) * | 2005-08-12 | 2007-02-15 | Broadcom Corporation | Method and system for communicating lighting effects with additional layering in a video stream |
US8249153B2 (en) * | 2007-06-12 | 2012-08-21 | In Extenso Holdings Inc. | Distributed synchronized video viewing and editing |
US20090002368A1 (en) * | 2007-06-26 | 2009-01-01 | Nokia Corporation | Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display |
JP4471000B2 (ja) * | 2008-01-15 | 2010-06-02 | ソニー株式会社 | 電子機器、及び電子機器の制御方法 |
WO2009099446A1 (en) * | 2008-02-08 | 2009-08-13 | Hewlett-Packard Development Company, L.P. | Printing method using multiple processors |
KR100866385B1 (ko) * | 2008-03-13 | 2008-11-03 | (주) 알디텍 | 스크린 골프에서 볼 정보를 제공하기 위한 방법과 이를위한 시스템 |
US7430018B1 (en) * | 2008-03-24 | 2008-09-30 | International Business Machines Corporation | Timesharing of a display screen |
JP5321011B2 (ja) * | 2008-11-25 | 2013-10-23 | ソニー株式会社 | 画像信号処理装置、画像信号処理方法および画像投射装置 |
US20100178029A1 (en) * | 2009-01-15 | 2010-07-15 | Kabushiki Kaisha Toshiba | Recording/play back apparatus, play back control apparatus and method, and recording/play back program |
JP5224137B2 (ja) * | 2009-07-27 | 2013-07-03 | 株式会社メガチップス | 表示システムおよび画像再生装置 |
WO2011018888A1 (ja) * | 2009-08-10 | 2011-02-17 | パナソニック株式会社 | 表示制御装置及び表示制御方法 |
JP5615075B2 (ja) * | 2009-11-13 | 2014-10-29 | キヤノン株式会社 | 放送受信装置及びその制御方法、並びに表示装置及びその制御方法 |
EP2590395A4 (en) * | 2010-06-30 | 2014-02-19 | Fujifilm Corp | IMAGE PROCESSING AND DEVICE |
JP5412404B2 (ja) * | 2010-11-15 | 2014-02-12 | シャープ株式会社 | 情報統合装置、情報表示装置、情報記録装置 |
JP5145444B2 (ja) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
WO2013088879A1 (ja) * | 2011-12-12 | 2013-06-20 | 株式会社ニコン | 電子機器 |
US9274743B2 (en) | 2013-08-01 | 2016-03-01 | Nvidia Corporation | Dedicated voice/audio processing through a graphics processing unit (GPU) of a data processing device |
CN104113704A (zh) * | 2014-07-01 | 2014-10-22 | 深圳市欢创科技有限公司 | 一种游戏图像处理方法及装置 |
CN106375682B (zh) * | 2016-08-31 | 2020-02-18 | 深圳市大疆灵眸科技有限公司 | 影像处理方法、装置与可移动设备、无人机遥控器及系统 |
WO2018105515A1 (ja) * | 2016-12-09 | 2018-06-14 | 株式会社アクセル | 画像データ処理方法 |
TWI658429B (zh) * | 2017-09-07 | 2019-05-01 | 宏碁股份有限公司 | 影像結合方法與影像結合系統 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8804720D0 (en) * | 1988-02-29 | 1988-03-30 | Rca Licensing Corp | Compatible widescreen tv |
KR950006457B1 (ko) | 1988-03-31 | 1995-06-15 | 주식회사Lg | 입체 텔레비젼 수상기 |
US5594507A (en) * | 1990-09-28 | 1997-01-14 | Ictv, Inc. | Compressed digital overlay controller and method for MPEG type video signal |
US5416510A (en) * | 1991-08-28 | 1995-05-16 | Stereographics Corporation | Camera controller for stereoscopic video system |
KR960010469B1 (ko) * | 1992-10-07 | 1996-08-01 | 대우전자 주식회사 | Pip 기능을 갖는 디지탈방식 고선명 텔레비젼 |
US5361098A (en) * | 1992-11-30 | 1994-11-01 | Scientific Atlanta, Inc. | Methods and apparatus for generating a picture-in-picture digital television frame by inserting a mean-only frame into a full-size frame |
US5614952A (en) * | 1994-10-11 | 1997-03-25 | Hitachi America, Ltd. | Digital video decoder for decoding digital high definition and/or digital standard definition television signals |
US6741617B2 (en) * | 1995-04-14 | 2004-05-25 | Koninklijke Philips Electronics N.V. | Arrangement for decoding digital video signals |
BR9608944A (pt) * | 1995-06-16 | 2000-10-24 | Princeton Video Image Inc | Sistema e processo de inserções em tempo real em vìdeo utilizando oclusão adaptativa com uma imagem de referência sintética |
US5969767A (en) * | 1995-09-08 | 1999-10-19 | Matsushita Electric Industrial Co., Ltd. | Multipicture video signal display apparatus with modified picture indication |
EP0765082A3 (en) * | 1995-09-25 | 1999-04-07 | Sony Corporation | Subtitle signal encoding/decoding |
US6052648A (en) * | 1996-04-12 | 2000-04-18 | Earthwatch Communications, Inc. | Method and system for display of weather-related information |
WO1997042757A2 (en) * | 1996-05-06 | 1997-11-13 | Philips Electronics N.V. | Simultaneously displaying a graphic image and a video image |
US6721952B1 (en) * | 1996-08-06 | 2004-04-13 | Roxio, Inc. | Method and system for encoding movies, panoramas and large images for on-line interactive viewing and gazing |
US6088064A (en) * | 1996-12-19 | 2000-07-11 | Thomson Licensing S.A. | Method and apparatus for positioning auxiliary information proximate an auxiliary image in a multi-image display |
ES2183229T3 (es) | 1996-12-20 | 2003-03-16 | Princeton Video Image Inc | Dispositivo descodificador para la insercion electronica modulada de indicaciones en videos. |
US6256785B1 (en) * | 1996-12-23 | 2001-07-03 | Corporate Media Patners | Method and system for providing interactive look-and-feel in a digital broadcast via an X-Y protocol |
US6637032B1 (en) * | 1997-01-06 | 2003-10-21 | Microsoft Corporation | System and method for synchronizing enhancing content with a video program using closed captioning |
US5995146A (en) * | 1997-01-24 | 1999-11-30 | Pathway, Inc. | Multiple video screen display system |
US6226047B1 (en) * | 1997-05-30 | 2001-05-01 | Daewoo Electronics Co., Ltd. | Method and apparatus for providing an improved user interface in a settop box |
KR100270815B1 (ko) * | 1997-11-05 | 2000-11-01 | 윤종용 | 부화상 표시방법 및 장치 |
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US6201538B1 (en) * | 1998-01-05 | 2001-03-13 | Amiga Development Llc | Controlling the layout of graphics in a television environment |
US6320624B1 (en) * | 1998-01-16 | 2001-11-20 | ECOLE POLYTECHNIQUE FéDéRALE | Method and system for combining video sequences with spatio-temporal alignment |
JP3509060B2 (ja) * | 1998-05-28 | 2004-03-22 | 松下電器産業株式会社 | 表示制御装置および方法 |
WO2000007364A1 (fr) * | 1998-07-30 | 2000-02-10 | Matsushita Electric Industrial Co., Ltd. | Synthetiseur d'images mobiles |
US6151362A (en) * | 1998-10-30 | 2000-11-21 | Motorola, Inc. | Joint rate control for stereoscopic video coding |
US6320623B1 (en) * | 1998-11-13 | 2001-11-20 | Philips Electronics North America Corporation | Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event |
US20030056215A1 (en) * | 1998-11-30 | 2003-03-20 | Rajesh Kanungo | Tv pip using java api classes and java implementation classes |
JP4126126B2 (ja) * | 1998-12-11 | 2008-07-30 | 株式会社日立製作所 | 送信システム、送信方法 |
EP1014712A1 (en) * | 1998-12-21 | 2000-06-28 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for providing OSD data for OSD display in a video signal having an encoded format |
US6766528B1 (en) * | 1999-01-27 | 2004-07-20 | Lg Electronics Inc. | Apparatus and method for displaying additional information |
KR100313901B1 (ko) * | 1999-02-08 | 2001-11-17 | 구자홍 | 텔레비젼 수신기에서의 부화면 처리 장치 |
FI106421B (fi) * | 1999-03-11 | 2001-01-31 | Nokia Multimedia Network Termi | Menetelmä ja järjestely videokuvien yhdistämiseksi |
US6707505B2 (en) * | 1999-03-26 | 2004-03-16 | Tvia, Inc. | Method and apparatus for combining video and graphics |
US6853355B1 (en) * | 1999-04-07 | 2005-02-08 | Ati International Srl | Switchable video overlay apparatus and method |
GB9908811D0 (en) * | 1999-04-16 | 1999-06-09 | Sony Uk Ltd | Signal processor |
JP3409734B2 (ja) * | 1999-04-20 | 2003-05-26 | 日本電気株式会社 | 画像合成システム及び方法 |
US6292225B1 (en) * | 1999-05-07 | 2001-09-18 | Sony Corporation | Precision horizontal positioning system |
US6762798B1 (en) * | 1999-07-13 | 2004-07-13 | Sun Microsystems, Inc. | Methods and apparatus for providing video control for television applications |
US6784945B2 (en) * | 1999-10-01 | 2004-08-31 | Microtune (Texas), L.P. | System and method for providing fast acquire time tuning of multiple signals to present multiple simultaneous images |
EP1258138A2 (en) * | 1999-12-09 | 2002-11-20 | Liberate Technologies | Enhanced display of world wide web pages on television |
US6697124B2 (en) * | 2001-03-30 | 2004-02-24 | Koninklijke Philips Electronics N.V. | Smart picture-in-picture |
US6697123B2 (en) * | 2001-03-30 | 2004-02-24 | Koninklijke Philips Electronics N.V. | Adaptive picture-in-picture |
-
2001
- 2001-05-21 KR KR1020027013599A patent/KR20030036160A/ko not_active Application Discontinuation
- 2001-05-21 AU AU2001258788A patent/AU2001258788A1/en not_active Abandoned
- 2001-05-21 EP EP01932167A patent/EP1287687B1/en not_active Expired - Lifetime
- 2001-05-21 WO PCT/JP2001/004228 patent/WO2001091459A2/en active IP Right Grant
- 2001-05-21 DE DE60114811T patent/DE60114811D1/de not_active Expired - Lifetime
- 2001-05-21 US US09/861,916 patent/US6924846B2/en not_active Expired - Lifetime
- 2001-05-22 TW TW090112243A patent/TW529303B/zh not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100652702B1 (ko) * | 2004-12-07 | 2006-12-01 | 엘지전자 주식회사 | Dmb기능을 구비한 휴대단말기의 3d방송 표시방법 |
Also Published As
Publication number | Publication date |
---|---|
US20020059648A1 (en) | 2002-05-16 |
DE60114811D1 (de) | 2005-12-15 |
WO2001091459A2 (en) | 2001-11-29 |
EP1287687B1 (en) | 2005-11-09 |
WO2001091459A3 (en) | 2002-06-13 |
EP1287687A2 (en) | 2003-03-05 |
TW529303B (en) | 2003-04-21 |
AU2001258788A1 (en) | 2001-12-03 |
US6924846B2 (en) | 2005-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20030036160A (ko) | 정보 처리 장치, 그래픽 처리 유닛, 그래픽 처리 방법,저장 매체 및 컴퓨터 프로그램 | |
CA2140643C (en) | Image processing device and method | |
JP3133299B2 (ja) | ゲーム装置、動画像表示方法及び記録媒体 | |
KR100411534B1 (ko) | 영상데이터생성방법,생성장치및생성회로,및게임재생장치 | |
EP1094664A1 (en) | Content programmer control of video and data display using associated data | |
KR100190250B1 (ko) | 디지탈 텔레비전 수신기 | |
EP1195721A2 (en) | Image processing device, image processing method, and information recording medium | |
CN113206992A (zh) | 一种转换全景视频投影格式的方法及显示设备 | |
EP0821339A1 (en) | Address generator, image display, address generation method and image display method | |
KR101030204B1 (ko) | 화상 처리 장치, 화상 처리 장치의 제어 방법 및 정보 기억매체 | |
KR100972771B1 (ko) | 게임 장치, 게임 장치의 제어 방법 및 정보 기억 매체 | |
CN112672131A (zh) | 一种全景视频图像显示方法及显示设备 | |
JP3366894B2 (ja) | 3次元画像合成装置及び方法、情報記憶媒体、プログラム配信装置及び方法 | |
JP4031509B1 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JPH11122555A (ja) | チャンネルナビゲーション装置および方法 | |
EP1326204A1 (en) | Data processing system and method, computer program, and recorded medium | |
JPH11146299A (ja) | データテレビ放送表示装置及び方法 | |
US20020065090A1 (en) | Data providing system, method and computer program | |
JP3819253B2 (ja) | 情報処理装置、画像処理デバイス、画像処理方法、記録媒体及びコンピュータプログラム | |
JP3325253B2 (ja) | 画像処理装置、画像処理方法、記録媒体及びプログラム | |
CN113840170B (zh) | 连麦直播的方法及装置 | |
US7447349B2 (en) | Method and a system for processing digital images | |
JPH1093928A (ja) | ディジタル放送デコーダ | |
JP3252580B2 (ja) | 実写とcgの合成画面を有するビデオゲーム装置 | |
JP3706545B2 (ja) | 画像の生成方法及びそれに用いるプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |