TWI535282B - 用於產生多視點視訊的方法和電子裝置 - Google Patents
用於產生多視點視訊的方法和電子裝置 Download PDFInfo
- Publication number
- TWI535282B TWI535282B TW103123659A TW103123659A TWI535282B TW I535282 B TWI535282 B TW I535282B TW 103123659 A TW103123659 A TW 103123659A TW 103123659 A TW103123659 A TW 103123659A TW I535282 B TWI535282 B TW I535282B
- Authority
- TW
- Taiwan
- Prior art keywords
- media content
- electronic device
- media
- same event
- content
- Prior art date
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本揭露涉及用於產生多視點(multiple point of view,MPOV)視訊的方法和電子裝置。
具有各種功能可讓例如智慧型電話、平板電腦等電子裝置變得更具移動性和多功能性。透過使用電子裝置的圖像擷取功能,使用者將能夠透過擷取其日常生活的事件並以不同媒體格式(例如,相片、視訊、音頻等)將事件儲存為媒體內容來記錄事件。使用者常擁有在不同視點與同一事件相關的多個媒體內容,且這些使用者之後可還想要透過電子郵件、社交網路或其他通信手段來分享其具有不同視點的媒體內容。
然而,如此,使用者可能必須遍覽媒體內容以便手動地識別與感興趣的事件相關的媒體內容,且這些動作可極耗時間。此外,相關媒體內容可能未必及時地分類或同步,以致於使用者將必須手動地選擇並重新調整相關媒體內容,以便將所述媒體內
容編錄為視訊合輯或相冊。
因此,可需要自動地識別同一事件的相關媒體內容,且挑選並組合這些相關媒體內容以從多個視點呈現。
本揭露提出用於產生多視點(MPOV)視訊的方法和電子裝置。
根據示範性實施例中的一者,所述產生MPOV視訊的方法可包含至少(但不限於)以下步驟:獲得多個媒體內容;基於對應於所述媒體內容中的每一者的每一元資料而從所述多個媒體內容識別第一媒體內容和第二媒體內容,作為與同一事件相關的相關媒體內容,其中所述元資料至少包括時間資訊或位置資訊;以及根據所述相關媒體內容而產生所述MPOV視訊。
根據示範性實施例中的一者,本揭露提出一種電子裝置,其將包含至少(但不限於)處理器,所述處理器經配置以:獲得多個媒體內容;基於對應於所述媒體內容中的每一者的每一元資料而從所述多個媒體內容識別第一媒體內容和第二媒體內容,作為與同一事件相關的相關媒體內容,其中所述元資料至少包括時間資訊或位置資訊;以及根據所述相關媒體內容而產生所述MPOV視訊。
然而,應理解,此概述可能不含有本揭露的所有方面和實施例,且因此並不意味以任何方式為限制性的。而且,本揭露
將包含對於所屬領域的技術人員來說明顯的改進和修改。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
10‧‧‧第一電子裝置
11‧‧‧第一視點
12‧‧‧第一媒體內容
20‧‧‧第二電子裝置
21‧‧‧第二視點
22‧‧‧第二媒體內容
30‧‧‧第三電子裝置
31‧‧‧第三視點
32‧‧‧第三媒體內容
40‧‧‧打擊手
50‧‧‧投手
100‧‧‧電子裝置
110‧‧‧處理器
130‧‧‧顯示螢幕
150‧‧‧儲存媒體
170‧‧‧圖像擷取元件
190‧‧‧收發器
410‧‧‧音頻波形
420‧‧‧可區別特徵
421‧‧‧時戳
422‧‧‧值
430‧‧‧可區別特徵
440‧‧‧可區別特徵
510‧‧‧AP1
520‧‧‧AP2
530‧‧‧AP3
540‧‧‧AP4
550‧‧‧AP5
560‧‧‧第一列表
570‧‧‧第二列表
610‧‧‧第一媒體內容
620‧‧‧第二媒體內容
640‧‧‧重疊部分
650‧‧‧重點期間
710‧‧‧第一媒體內容
720‧‧‧第二媒體內容
721‧‧‧幀
740‧‧‧重疊部分
750‧‧‧重點期間
810‧‧‧第一媒體內容
820‧‧‧第二媒體內容
850‧‧‧重點期間
910‧‧‧第一媒體內容
920‧‧‧第二媒體內容
930‧‧‧第三媒體內容
940‧‧‧重疊部分
950‧‧‧重點期間
S1010、S1011、S1012、S1013、S1014、S1020、S1030、S1110、S1120、S1130、S1140、S1150‧‧‧步驟
T1‧‧‧第一時間
T2‧‧‧第二時間
T3‧‧‧第三時間
T4‧‧‧第四時間
T5‧‧‧第五時間
圖1說明根據本揭露的示範性實施例從不同視點進行事件的合作擷取以產生MPOV視訊的概念圖。
圖2A到圖2D為說明根據本揭露的實施例中的一者基於由第一電子裝置10擷取的第一媒體內容、由第二電子裝置20擷取的第二媒體內容和由第三電子裝置30擷取的第三媒體內容而產生MPOV視訊的概念圖。
圖3為根據本揭露的示範性實施例中的一者的以功能框說明電子裝置的硬體的框圖。
圖4為說明根據本揭露的示範性實施例中的一者的媒體內容的音頻波形的圖式。
圖5A和圖5B為說明根據本揭露的實施例中的一者的附近裝置的信號強度的排序的概念的圖式。
圖6為說明根據本揭露的示範性實施例中的一者的時間軸上的第一媒體內容和第二媒體內容的同步的圖式。
圖7為說明根據本揭露的示範性實施例中的一者的在第一媒體內容為靜止圖像時的第一媒體內容和第二媒體內容的同步的圖
式。
圖8為說明根據本揭露的示範性實施例中的一者的第一媒體內容、第二媒體內容和第三媒體內容的同步的圖式。
圖9為說明根據本揭露的實施例中的一者的產生MPOV視訊的方法的流程圖。
圖10A和圖10B為說明根據本揭露的實施例中的一者的基於相關媒體內容而產生MPOV視訊的方法的流程圖。
圖11為說明根據本揭露的實施例中的一者的基於重點期間內的媒體內容而產生MPOV視訊的方法的流程圖。
現將詳細參考本揭露的當前實施例,其實施例在附圖中得以說明。只要有可能,相同元件符號在圖式及描述中用來表示相同或相似部分。
透過使用例如智慧型電話、平板電腦、穿戴式裝置等電子裝置的圖像擷取(capture)功能性,人們可透過擷取日常生活事件並將其儲存為媒體內容(例如,相片、視訊、音頻等)而記錄這些事件。舉例來說,人們可使用智慧型電話、平板電腦、穿戴式裝置、相機等而在棒球比賽中對兒童進行記錄。因此,與同一棒球比賽相關的媒體內容可由不同的使用者從不同的觀點擷取。本揭露提供一種產生多視點(MPOV)視訊的方法,其識別媒體內容的相關性,例如,媒體內容如何在時間和位置上與事件相
關。同一事件的相關媒體內容將接著用於產生MPOV視訊。在MPOV視訊中,從不同視點擷取的相關媒體內容將在時間上同步,以使得在幾乎同一時刻從不同視點擷取的事件可在MPOV視訊的每一幀中同時呈現。相關媒體內容可進一步被分析以識別事件的重點期間(highlight period),以使得MPOV視訊將基於重點期間內的相關媒體內容而產生。
圖1說明根據本揭露的示範性實施例從不同視點進行事件的合作擷取以產生MPOV視訊的概念圖。參看圖1,可由不同電子裝置擷取事件(例如,圖1所示的擊球事件)的多個媒體內容。媒體內容將包含由第一電子裝置10從視點11擷取的第一媒體內容、由第二電子裝置20從視點21擷取的第二媒體內容和由第三電子裝置30從視點31擷取的第三媒體內容。
圖2A到圖2D為說明根據本揭露的實施例中的一者基於由第一電子裝置10擷取的第一媒體內容、由第二電子裝置20擷取的第二媒體內容和由第三電子裝置30擷取的第三媒體內容而產生MPOV視訊的概念圖。參看圖1和圖2A,由第一電子裝置10從第一視點11擷取擊球事件,其中從第一視點11擷取的第一媒體內容12將從打擊手40的側面將擊球事件作為重點。參看圖1和圖2B,由第二電子裝置20從第二視點21擷取擊球事件,其中從第二視點21擷取的第二媒體內容22將從打擊手40的背面將擊球事件作為重點。參看圖1和圖2C,由第三電子裝置30從第三視點31擷取擊球事件,其中從第三視點31擷取的第三媒體內容
32會將針對擊球事件投出球的投手50作為重點。
基於圖2A到圖2C所說明的第一媒體內容12、第二媒體內容22和第三媒體內容32,本揭露將識別由不同電子裝置從不同視點擷取的第一媒體內容12、第二媒體內容22和第三媒體內容32是否將在時間和位置上與同一事件相關。假設第一媒體內容12、第二媒體內容22和第三媒體內容32與同一事件相關,那麼將包含第一媒體內容12、第二媒體內容22和第三媒體內容32以產生同時從不同視點展示擊球事件的MPOV視訊,如圖2D所說明。參看圖2D,說明MPOV視訊同時從第一視點11、第二視點21和第三視點31展示擊球事件,且MPOV將透過在MPOV視訊的幀(frame)中組合/混合(combining/stitching)第一媒體內容12、第二媒體內容22和第三媒體內容32而以拼貼畫式樣(collage style)顯示事件。以拼貼畫式樣顯示同一事件的組合的媒體內容稍後還將稱為事件的拼貼畫視圖(collage view)。MPOV視訊的幀含有至少兩個部分,且每一部分可用於顯示媒體內容中的一者。
在本揭露的實施例中的一者中,MPOV視訊的幀可(但不限於)分割為三個部分,即,左側部分、右上部分和右下部分,且每一部分可用於顯示由不同電子裝置擷取的媒體內容。舉例來說,在圖2D所說明的示範性實施例中,從第一視點11擷取的第一媒體內容12拼貼到MPOV視訊的幀的左側部分,從第二視點21擷取的第二媒體內容22拼貼到MPOV視訊的幀的右上部分,且從第三視點31擷取的第三媒體內容32拼貼到MPOV視訊的幀
的右下部分。應注意,媒體內容可為視訊或相片,且由不同電子裝置擷取的第一媒體內容、第二媒體內容和第三媒體內容將在時間上同步,以使得事件可幾乎同一時刻播放。
示範性實施例用於說明目的,且不希望限制MPOV視訊的拼貼畫視圖的位置或式樣。在另一示範性實施例中,可在MPOV視訊的幀或任何其他分區中平等地顯示不同視點的媒體內容。不同視點的媒體內容中的每一者的顯示位置可在事件的拼貼畫視圖中任意定位。
圖3為根據本揭露的示範性實施例中的一者的以功能框說明電子裝置的硬體的框圖。示範性電子裝置100可為智慧型電話、移動電話、數碼相機、平板電腦、穿戴式裝置等。示範性電子裝置100可包含至少(但不限於)處理器110、顯示螢幕130、儲存媒體150、圖像擷取元件170和收發器190。下文詳細解釋示範性電子裝置100的每一元件。
處理器110可為(但不限於)用於一般用途或特殊用途的中央處理單元(central processing unit,CPU)、或可編程微處理器、數位信號處理器(digital signal processor,DSP)、可編程控制器、專用積體電路(application specific integrated circuit,ASIC)、可編程邏輯裝置(programmable logic device,PLD)或其他類似裝置或其組合。在本實施例中,處理器110可分別電耦接到顯示螢幕130、儲存媒體150、圖像擷取元件170和收發器190,其中處理器110將控制示範性電子裝置100的所有操作。
顯示螢幕130可為在電子裝置100的顯示區域內提供顯示功能的顯示裝置。顯示裝置可為(但不限於)液晶顯示器(liquid crystal display,LCD)、發光二極體(light-emitting diode,LED)、場發射顯示器(field emission display,FED)等。
儲存媒體150可為易失性或非易失性記憶體,用於儲存經緩衝的資料或永久資料,例如,透過圖像擷取元件170擷取的媒體內容或用於執行示範性移動電子裝置100的功能的指令。
圖像擷取元件170可為(但不限於)相機、攝像機等,其透過光學元件和攝像元件來擷取場景作為媒體內容(例如,相片、視訊等)。在本揭露中,表示相關事件的場景的媒體內容可由圖像擷取元件170擷取且儲存在儲存媒體150中。
收發器190可為支援全球移動通信系統(global system for mobile communication,GSM)、使用者掌上型電話系統(personal handy-phone system,PHS)、碼分多址(code division multiple access,CDMA)系統、寬頻碼分多址(wideband code division multiple access,WCDMA)系統、長期演進(long term evolution,LTE)系統、微波接入全球互通(worldwide interoperability for microwave access,WiMAX)系統、無線保真(wireless fidelity,Wi-Fi)系統或藍牙的信號傳輸的元件,例如,協定單元。收發器190還可為其支援的組件。收發器190將為電子裝置100提供無線傳輸,包含多個元件,但不限於發射器電路、接收器電路、類比/數位(A/D)轉換器、數位/類比(D/A)轉換器、低噪音放大器(low noise
amplifier,LNA)、混頻器、濾波器、匹配網路、傳輸線、功率放大器(power amplifier,PA)和一個或一個以上天線單元。發射器和接收器以無線方式發射下行鏈路信號和接收上行鏈路信號。接收器可包含執行例如低噪音放大、阻抗匹配、混頻、上變頻、濾波、功率放大等操作的功能元件。類比/數位(A/D)或數位/類比(D/A)轉換器經配置以在上行鏈路信號處理期間從類比信號格式轉換為數位信號形式且在下行鏈路信號處理期間從數位信號格式轉換為類比信號格式。在本揭露的示範性實施例中,收發器190可用于向不同電子裝置傳輸媒體內容或從不同電子裝置接收媒體內容。
在下文中,將關於圖3所說明的示範性電子裝置100來詳細解釋根據圖1和圖2A到圖2D所說明的相關媒體內容而產生MPOV視訊。
參看圖3,事件的場景可透過示範性電子裝置100的圖像擷取元件170來擷取,且接著處理器110將事件的場景作為多個媒體內容(例如,圖像、連續圖像、音頻記錄(audio recording)等)儲存在示範性電子裝置100的儲存媒體150中。應注意,連續圖像可指視訊中的多個圖像幀或連拍模式中擷取的多個圖像。
示範性電子裝置100可使用處理器110以識別媒體內容的相關性,且接著基於與事件相關的媒體內容而產生MPOV視訊。在本揭露的示範性實施例中的一者中,媒體內容中的第一媒體內容和第二媒體內容用作實例以作說明。電子裝置100的處理器110將基於時間資訊和/或位置資訊而將第一媒體內容和第二媒
體內容識別為與同一事件相關。詳細地說,處理器110將從分別嵌入在第一媒體內容和第二媒體內容中或分別與第一媒體內容和第二媒體內容相關聯的元資料(metadata)提取時間資訊和/或位置資訊,以確定第一媒體內容是否在時間和/或位置上與第二媒體內容相關。應注意,本揭露的本實施例不限制媒體內容的來源。也就是說,媒體內容可包含由示範性電子裝置100擷取的媒體內容或由附近的其他電子裝置(例如,圖1所說明的電子裝置10、20、30中的任一者)擷取且傳輸的媒體內容。
此外,在本揭露的示範性實施例中的一者中,第一媒體內容和第二媒體內容的音頻資訊可用於識別第一媒體內容和第二媒體內容是否在時間和/或位置上與同一事件相關。
在示範性實施例中的一者中,可獲得時間資訊(例如,時戳(timestamp))、音頻資訊和位置資訊(具有地理標籤和周圍信號資訊),這些資訊在媒體內容的擷取後對應於媒體內容中的每一者。在下文中,將詳細描述時間資訊、音頻資訊和位置資訊。
媒體內容的時間資訊可包含(但不限於)記錄擷取媒體內容中的每一者的時刻的日期和時間的時戳。時戳可獲自電子裝置100的系統時鐘,其中系統時鐘可由全球定位系統(Global Positioning System,GPS)、Wi-Fi存取點(access point)、無線電進接網路(radio access network)、伺服器等自動地同步。然而,示範性實施例不希望限制本揭露,時戳還可由用戶配置或透過任何其他方式來配置。
音頻資訊可包含(但不限於)關於媒體內容的音頻波形的資訊,例如,波形形狀、在特定時間具有值的可區別特徵(distinguishable feature)等。圖4為說明根據本揭露的示範性實施例中的一者的媒體內容的音頻波形410的圖式。參看圖4,可區別特徵420、430、440可獲自音頻波形410。在示範性實施例中的一者中,值422和對應於值422的時戳421可獲自可區別特徵420,且隨後在對應於音頻資訊的媒體內容中的每一者的擷取後儲存在所述媒體內容的元資料中。然而,嵌入在元資料中的音頻資訊的類型並不限於上述示範性實施例所示,與媒體內容的音頻波形相關的其他資訊亦可被利用。在示範性實施例中的一者中,背景噪音的形狀(shape)亦可被利用。此外,本揭露並不限於所述的示範性實施例。在示範性實施例中的一者中,可從媒體內容提取音頻資訊,且音頻資訊同時識別媒體內容的相關性。也就是說,代替將音頻資訊嵌入到媒體內容的元資料中,處理器110可即時地分析媒體內容,以提取媒體內容的音頻資訊,以便識別媒體內容是否與同一事件相關。
位置資訊可包含(但不限於)地理標籤和周圍信號資訊。地理標籤可包含(但不限於)GPS位置、精度資料等。GPS位置和精度資料可在媒體內容的擷取後獲自擷取媒體內容的電子裝置的GPS晶片(未圖示)。媒體內容的GPS位置可記錄(但不限於)表示擷取媒體內容的位置的經度座標和緯度座標。精度資料將記錄獲取對應GPS位置時的經度座標和緯度座標的精度。
位置資訊的周圍信號資訊可包含(但不限於)關於附近裝置(例如,其他移動電子裝置(例如,熱點模式中的智慧型電話)、接入點(AP,例如,Wi-Fi路由器)、無線電網路接入塔等)的信號強度的資訊。換句話說,電子裝置100與附近裝置之間的無線信號(例如,Wi-Fi、藍牙或無線電信號)可用於確定擷取媒體內容中的每一者的位置之間的相對距離。在示範性實施例中的一者中,在擷取媒體內容的電子裝置100周圍有多個無線裝置,且可分析關於電子裝置100的附近裝置中的每一者的信號強度並對信號強度進行排序以形成對附近裝置的信號強度進行排序的列表。舉例來說,當擷取媒體內容中的每一者時,對附近裝置的信號強度進行排序的列表可嵌入到媒體內容中的每一者的元資料中。
圖5A和圖5B為說明根據本揭露的實施例中的一者的建立基於信號強度而排序的附近裝置的列表的概念的圖式。參看圖5A和圖5B,假設接入點(AP)1510、AP2 520、AP3 530、AP4 540和AP5 550為附近的第一電子裝置10和第二電子裝置20。在所述實施例中,第一電子裝置10和第二電子裝置20將在媒體內容的擷取後基於信號強度來對附近裝置進行排序。舉例來說,可產生第一列表560,其以AP1 510、AP3 530、AP2 520、AP5 550等的序列關於第一電子裝置10而對附近裝置中的每一者的信號強度進行排序,且第一列表560可嵌入在由第一電子裝置10擷取的媒體內容的元資料中。還可產生第二列表570,其以AP1 510、AP5 550、
AP3 530、AP4 540等的序列關於第二電子裝置20而對附近裝置中的每一者的信號強度進行排序,且第二列表570可嵌入在由第二電子裝置20擷取的媒體內容的元資料中。在本實施例中,AP中的每一者的基本服務集識別(BSSID)用於在含有附近裝置的所排序的信號強度的列表中識別AP。然而,本揭露不限於此,這是因為AP可透過其他方式來識別。
此外,在本揭露的替代實施例中,第一電子裝置10與第二電子裝置20之間的信號強度也可用於確定由第一電子裝置10擷取的第一媒體內容12是否在位置上與由第二電子裝置20擷取的第二媒體內容22相關。
在下文中,詳細描述根據時間資訊、音頻資訊和位置資訊來識別第一媒體內容和第二媒體內容的相關性。
在本實施例中,處理器110將根據嵌入在元資料中的時間碼而識別第一媒體內容和第二媒體內容是否在時間上與同一事件相關。詳細地說,處理器110將從元資料獲得分別指示擷取第一媒體內容和第二媒體內容的時刻的時戳的時間碼,且確定第一媒體內容和第二媒體內容是否與同一事件相關。在本揭露的示範性實施例中的一者中,處理器110可計算第一媒體內容與第二媒體內容的時間碼之間的時差,且確定第一媒體內容與第二媒體內容之間的時差是否在預定範圍內。舉例來說,預定範圍可為2小時。如果第一媒體內容與第二媒體內容之間的時差在2小時內,那麼處理器110將認為第一媒體內容和第二媒體內容在時間上與
同一事件相關。
然而,本揭露不限於此。在本揭露的示範性實施例中的一者中,當第一媒體內容和第二媒體內容的時間碼在指示事件的發生的預定時段內時,第一媒體內容和第二媒體內容將被識別為在時間上相互相關。舉例來說,棒球事件可在5月1日下午4:00到下午9:00之間發生,且預定時段可例如配置為下午4:00到下午9:00。如果時間碼指示第一媒體內容和第二媒體內容是在下午4:00到下午9:00之間擷取,那麼第一媒體內容和第二媒體內容將被識別為在時間上與棒球事件相關。應注意,預定時段可由媒體內容自動地確定或由使用者配置。舉例來說,可存在未在棒球事件之前和棒球事件之後擷取媒體內容的時段。處理器110將自動地將未擷取媒體內容的這些時段之間的時間間隔檢測為預定時段,且將在預定時段期間擷取的媒體內容分組為媒體合輯。應注意,預定時段將方便地充當用於識別任何媒體內容是否在時間上與事件相關的一組相關性準則的參數中的一者。
在本揭露中,處理器110還將根據音頻波形410、地理標籤或周圍信號資訊而識別第一媒體內容和第二媒體內容是否在位置上與同一事件相關。下文描述識別媒體內容的位置相關性的詳細描述。
為了確定媒體內容是否在位置上與事件相關,處理器110可利用第一媒體內容和第二媒體內容的音頻波形410的可區別特徵420、430、440,其說明於圖4中。舉例來說,在擊球事件中,
區別特徵410可為當棒球接觸球棒時產生的噪音(即,擊球噪音),且區別特徵420、430可為由人群產生的歡呼噪音。處理器110將認為具有擊球噪音和歡呼噪音的第一媒體內容和第二媒體內容在位置上與同一事件相關。
在本揭露的示範性實施例中的一者中,第一媒體內容和第二媒體內容可根據地理標籤而被識別為在位置上與同一事件相關。處理器110可從第一媒體內容和第二媒體內容的元資料獲得地理標籤,例如,GPS位置和精度資料。處理器110將透過利用第一媒體內容和第二媒體內容的GPS位置而將第一媒體內容和第二媒體內容識別為在位置上與同一事件相關。舉例來說,處理器110將確定擷取第一媒體內容和第二媒體內容的GPS位置之間的差是否在預定距離內。如果所述差在預定距離內,那麼認為第一媒體內容和第二媒體內容在位置上與同一事件相關。預定距離可根據實際應用來配置;本揭露不希望限制預定距離的範圍,其中所述範圍可針對棒球場而配置為500米內的任何數值或針對賽道而配置為5千米內的任何數值。
在本揭露的示範性實施例中的一者中,處理器110可根據第一媒體內容和第二媒體內容的GPS位置以及相關事件的預定地理座標而識別第一媒體內容和第二媒體內容與同一事件相關。預定地理座標可為表示已發生事件之處的GPS座標,其可自動地獲自已被識別為與事件相關的媒體內容的GPS位置。本揭露不希望限制相關事件的預定地理座標的獲取,表示已發生事件之處的
GPS座標還可由使用者手動地配置。舉例來說,使用者可手動地輸入特定位置(例如,棒球場)的GPS座標,作為預定地理座標。在示範性實施例中,處理器110將關於相關事件的預定地理座標來確定第一媒體內容和第二媒體內容的GPS位置是否在預定距離內。在所述實施例中,預定地理座標可為所述一組相關性準則的參數中的一者。
此外,處理器110將分析地理標籤的精度資料以確定GPS位置的精度是否在預定範圍內。換句話說,處理器110將確定在擷取第一媒體內容和第二媒體內容時獲得的GPS位置是否值得信賴。在本示範性實施例中,預定範圍可配置為(但不限於)100米內的任何數值範圍。即,當地理標籤的精度資料在預定範圍內時,處理器110將GPS位置用於識別第一媒體內容和第二媒體內容是否在位置上與同一事件相關。另一方面,如果精度資料指示GPS位置不處於預定範圍內,那麼處理器110將不考慮地理標籤的GPS位置來識別第一媒體內容和第二媒體內容是否與事件相關。
在示範性實施例中的一者中,處理器110將根據周圍信號資訊來識別第一媒體內容和第二媒體內容是否與同一事件相關。詳細地說,處理器110將從第一媒體內容和第二媒體內容的元資料獲得基於信號強度來對附近裝置進行排序的列表560、570。在圖5A和圖5B所說明的實施例中,列表560、570將包含根據附近裝置到電子裝置的信號強度而從高到低排序的附近裝
置。示範性實施例包含從不同視點擷取感興趣的事件作為多個媒體內容的第一電子裝置10和第二電子裝置20。
舉例來說,第一電子裝置10將擷取第一媒體內容,且第二電子裝置20將擷取第二媒體內容。在附近,存在AP1 510、AP2 520、AP3 530、AP4 540和AP5 550。處理器110可根據列表560和570中所列出的AP的排序而確定第一媒體內容和第二媒體內容是否在位置上與同一事件相關。列表560將基於AP與第一電子裝置10之間的信號強度而在第一媒體內容的擷取後對第一電子裝置10周圍的AP進行排序,且列表570將基於AP與第二電子裝置20之間的信號強度而在第二媒體內容的擷取後對第二電子裝置20周圍的AP進行排序。在示範性實施例中,處理器110將比較列表560與570之間的AP1 510、AP2 520、AP3 530、AP4 540和AP5 550的排序。
舉例來說,在示範性實施例中的一者中,列表560和570中所列出的AP中的至少三者必須為相同的,且所述至少三個AP中的至少兩個AP必須在列表中排在前三,以讓處理器110根據附近裝置的信號強度而認為第一媒體內容和第二媒體內容在位置上與同一事件相關。然而,本揭露不限制用於基於周圍信號資訊來識別第一媒體內容和第二媒體內容的相關性的要求,所述要求可根據實際應用來設計。舉例來說,在其他示範性實施例中,用於識別第一媒體內容和第二媒體內容與同一事件相關的要求可為列表中的兩個匹配的AP且兩個匹配的AP中的任一者在列表中排在
前三。
在本揭露的示範性實施例中的一者中,還可在附近不存在AP的情況下根據Wi-Fi直連(Wi-Fi Direct)信號來識別媒體內容的相關性。舉例來說,示範性電子裝置100可具有在熱點(hotspot)模式中透過Wi-Fi直連與附近的其他電子裝置通信的能力。示範性電子裝置100和附近的其他電子裝置之間的Wi-Fi直連信號強度可得以檢測且儲存在媒體內容中的每一者的元資料中。接著,當識別第一媒體內容和第二媒體內容在位置上與同一事件相關時,示範性電子裝置100的處理器110可利用附近的其他電子裝置的Wi-Fi直連信號強度以確定由不同電子裝置擷取的媒體內容是否相互相關。
基於上述內容,本揭露將根據時間碼、附近裝置的音頻波形、地理標籤和信號強度而識別第一媒體內容和第二媒體內容在時間和位置上與同一事件相關,且每一步驟的細節描述于上文中。在本揭露的實施例中的一者中,處理器110可首先根據時間碼來識別第一媒體內容和第二媒體內容是否與同一事件相關。如果第一媒體內容和第二媒體內容在時間上不相關,那麼處理器110將認為第一媒體內容和第二媒體內容在位置上也不與同一事件相關。如果確定第一媒體內容和第二媒體內容在時間上相關,那麼處理器110將接著以附近裝置的音頻波形、地理標籤和信號強度的序列來確定第一媒體內容和第二媒體內容是否在位置上與同一事件相關。然而,本揭露不限於此。識別第一媒體內容和第二媒
體內容是否在時間和位置上與同一事件相關的序列可加以修改以滿足實際應用的設計要求。
一旦第一媒體內容和第二媒體內容被識別為與同一事件相關,那麼處理器110將接著提供第一媒體內容和第二媒體內容,作為用於產生MPOV視訊的候選媒體內容。
在識別第一媒體內容和第二媒體內容的相關性之後,示範性電子裝置100將進一步根據時間碼和音頻資訊來同步第一媒體內容和第二媒體內容。詳細地說,處理器110將根據第一媒體內容的時戳和第二媒體內容的時戳來調整第一媒體內容和第二媒體內容。舉例來說,可根據第一媒體內容和第二媒體內容中的每一者的開始時間和結束時間來調整第一媒體內容和第二媒體內容。
此外,處理器110還可根據音頻波形來調整第一媒體內容和第二媒體內容。如上所述,可從媒體內容提取關於媒體內容的音頻波形的資訊,例如,音頻波形的可區別特徵的值和對應於所述值的時戳。在上述擊球事件的實例中,可基於在球棒接觸球時產生的擊球噪音來調整第一媒體內容和第二媒體內容。舉例來說,處理器110將識別表示第一媒體內容和第二媒體內容中的擊球噪音的值(例如,圖4所說明的值422),且接著基於對應於所述值的時戳(例如,圖4所說明的時戳421)在統一時間軸上對準第一媒體內容和第二媒體內容。然而,本揭露不限於此。可根據音頻波形的其他特性(例如,可區別特徵的形狀)來對準第一媒
體內容和第二媒體內容。
一旦第一媒體內容和第二媒體內容在時間上同步,那麼處理器110將識別第一媒體內容和第二媒體內容在時間上重疊的重疊部分。在示範性實施例中的一者中,可根據第一媒體內容和第二媒體內容的開始時間和結束時間來識別重疊部分。
此後,處理器110將進一步根據第一媒體內容或第二媒體內容的內容特徵來識別與重疊部分相關聯的重點期間。內容特徵可指媒體內容的媒體類型和鏡頭類型,其中媒體內容的媒體類型可為靜止圖像或連續圖像,且媒體內容的鏡頭類型可為特寫鏡頭(closed-up shot)、中景鏡頭(medium shot)、近鏡頭(zoom-in shot)或遠鏡頭(zoom-out shot)。媒體內容的媒體類型和鏡頭類型可用於自動地確定事件的重點。
在示範性實施例中的一者中,可實施面部檢測以確定由物件佔據的幀的部分與未由物件佔據的幀的其他部分之間的比率。如果物件佔據幀的比率超過預定比率,那麼處理器110會將第二媒體內容的幀的鏡頭類型識別為特寫鏡頭。舉例來說,預定比率可為任何數值,例如,60%或60%以上。當物件佔據幀的至少60%時,處理器110會將具有佔據幀的至少60%的物件的幀識別為特寫鏡頭。此外,處理器110還將針對具有佔據小於至少60%的區域的物件的幀來識別中景鏡頭(例如,空鏡頭)。在連續圖像的狀況下,上述技術可用於透過分析物件在視訊的每一幀中佔據的區域來確定視訊的鏡頭類型是近鏡頭還是遠鏡頭。
在示範性實施例中的一者中,媒體內容的媒體類型用於識別與重疊部分相關聯的重點期間。舉例來說,作為與重疊部分相關聯的靜止圖像擷取的事件的場景將被視為事件的重點。在本揭露的實施例中的一者中,媒體內容的鏡頭類型可用於識別與重疊部分相關聯的重點期間。可根據以特寫鏡頭或近鏡頭的類型擷取的媒體內容來識別重點期間,這是因為使用者可趨向於針對被視為事件的重點的時刻拍攝特寫鏡頭或近鏡頭。
在下文中,圖6到圖8為用於闡述識別第一媒體內容和第二媒體內容的重疊部分內的重點期間的細節的特定示範性實施例。
圖6為說明根據本揭露的示範性實施例中的一者的統一時間軸上的第一媒體內容和第二媒體內容的同步的圖式。當第一媒體內容610和第二媒體內容620在時間上同步時,處理器110將進一步識別重疊部分640,其中第一媒體內容610和第二媒體內容620在第一時戳T1與第二時戳T2之間在時間上重疊。換句話說,第一媒體內容610與第二媒體內容620之間的重疊部分將表示在幾乎同一時間從不同的觀點擷取的同一現實生活事件。在本實施例中,可根據第二媒體內容620的開始時間和第一媒體內容610的結束時間來識別第一媒體內容610和第二媒體內容620的重疊部分。
參看圖6,第一媒體內容610和第二媒體內容620為在第一時間T1與第二時間T2之間具有重疊部分640的連續圖像。連
續圖像將包含多個幀。處理器110將分析重疊部分640內的第一媒體內容610和第二媒體內容620以確定媒體類型和鏡頭類型,來識別與重疊部分640相關聯的重點期間。詳細地說,處理器110將確定第一媒體內容610和第二媒體內容620為連續圖像。此外,處理器110將識別第二媒體內容620為物件的特寫鏡頭,這是因為由第二媒體內容620擷取的物件(例如,打擊手)佔據的區域大於與重疊部分640相關聯的第二媒體內容640的幀的預定比率(例如,60%)。由物件佔據的區域遍及與重疊部分640相關聯的第二媒體內容620的每一幀而類似,因此,第二媒體內容620的鏡頭類型被確定為特寫鏡頭。
在圖6所說明的示範性實施例中,處理器110將識別重疊部分640內的重點期間650,這是因為第二媒體內容620的媒體類型被識別為特寫鏡頭。也就是說,由物件在與重疊部分相關聯的第二媒體內容620的幀內佔據的區域大於預定比率。應注意,重疊部分640可具有較大長度(例如,5分鐘)的事件的連續鏡頭。處理器110可透過預定持續時間(例如,小於5分鐘的任何時長)來界定重點期間650。在本示範性實施例中,重點期間650可界定於第三時間T3與第四時間T4之間。由第三時間T3和第四時間T4界定的重點期間650可在重疊部分640內任意選擇,且可具有預定持續時間。本揭露不希望限制具有特寫鏡頭類型的媒體內容的重疊部分640內的重點期間650的持續時間和選擇。
圖7為說明根據本揭露的示範性實施例中的一者的統一
時間軸上的第一媒體內容710和第二媒體內容720的同步的圖式。在示範性實施例中,第二媒體內容720為以近鏡頭類型和遠鏡頭類型擷取的連續圖像,其中由物件在第二內容720的幀中佔據的區域增大且減小。如上所述,使用者可趨向於在被視為事件的重點的時刻在對象處拉近。因此,處理器110將分析第二媒體內容720且將重疊部分740內的第二媒體內容720的幀721識別為重點。接著,處理器110會將具有由第三時間T3和第四時間T4界定且居中於第二媒體內容的幀721的時戳的預定持續時間的時段識別為重點期間750,這是因為由物件在第二媒體內容720的幀721中佔據的區域超過預定比率(例如,60%)。因此,處理器110將選擇重點期間750內的第一媒體內容710和第二媒體內容720,作為用於產生MPOV視訊的候選來源。
圖8為說明根據本揭露的示範性實施例中的一者的在第一媒體內容810為靜止圖像時的第一媒體內容810和第二媒體內容820的同步的圖式。在示範性實施例中,第一媒體內容810為靜止圖像,且第二媒體內容820為連續圖像(例如,視訊或連拍圖像)。處理器110將識別重疊部分,其中第一媒體內容810在由第一媒體內容810的時戳界定的第五時間T5與第二媒體內容820重疊。處理器110將識別在第三時間T3與第四時間T4之間居中於第一媒體內容810的時戳的重點期間850,這是因為第一媒體內容810的媒體類型為靜止圖像。換句話說,處理器110可選擇在第五時間T5之前和之後具有預定持續時間的時間間隔作為重點
期間850。然而,本揭露不限於此,重點期間850可透過其他方式來選擇。因此,處理器110將選擇重點期間850內的第一媒體內容810和第二媒體內容820,作為用於產生MPOV視訊的候選來源。
圖9為說明根據本揭露的示範性實施例中的一者的第一媒體內容910、第二媒體內容920和第三媒體內容930的同步的圖式。在示範性實施例中,作為連續圖像的第二媒體內容920和作為靜止圖像的第三媒體內容930是由同一電子裝置在同一事件時期擷取的。可在第二媒體內容920的擷取的同時獲得第三媒體內容930。處理器110將識別重疊部分940,其中第一媒體內容910在第一時間T1與第二時間T2之間與第二媒體內容920和第三媒體內容930重疊。接著,處理器110將識別界定於第三時間T3與第四時間T4之間且居中於第三媒體內容930的時戳的重點期間950。重點期間950的時間間隔的確定類似於圖8所說明的示範性實施例,且因此此處被省略。因此,處理器110將選擇重點期間950內的第一媒體內容910、第二媒體內容920和第三媒體內容930,作為用於產生MPOV視訊的候選來源。
圖10A和圖10B為說明根據本揭露的實施例中的一者的產生MPOV視訊的方法的流程圖。參看圖10A,在步驟1010中,示範性電子裝置100將獲得多個媒體內容。在步驟S1020中,示範性電子裝置100將基於對應於媒體內容中的每一者的每一元資料而從多個媒體內容識別第一媒體內容和第二媒體內容,作為與
同一事件相關的相關媒體內容,其中元資料至少包括時間資訊或位置資訊。在步驟S030中,示範性電子裝置100將根據相關媒體內容而產生多視點(MPOV)視訊。
關於圖10A中的步驟S1020的第一媒體內容和第二媒體內容的識別的細節將如下描述於圖10B中。參看圖10B,在步驟S1011中,示範性電子裝置100將透過比較第一媒體內容的時間碼和第二媒體內容的時間碼而將第一媒體內容和第二媒體內容識別為在時間上與同一事件相關的相關媒體內容。在步驟S1012中,示範性電子裝置100可透過比較第一媒體內容和第二媒體內容的音頻資訊而將第一媒體內容和第二媒體內容識別為在位置上與同一事件相關的相關媒體內容。在步驟S1013中,示範性電子裝置100可確定精度資料是否在預定精度範圍內,且接著在精度資料在預定精度範圍內時,透過確定第一媒體內容的GPS位置與第二媒體內容的GPS位置之間的差是否在預定距離內,而將第一媒體內容和第二媒體內容識別為在位置上與同一事件相關的相關媒體內容。在步驟S1014中,示範性電子裝置100可透過比較第一媒體內容的列表與第二媒體內容的列表之間的附近裝置的次序而將第一媒體內容和第二媒體內容識別為在位置上與同一事件相關的相關媒體內容。
圖11為說明根據本揭露的實施例中的一者的基於重點期間內的媒體內容而產生MPOV視訊的方法的流程圖。在圖11所說明的示範性實施例中,步驟S1110和S1120將類似於圖10所說明
的步驟S1010和S1020,且因此,步驟S1110和S1120的描述得以省略。
參看圖11,在步驟S1130中,示範性電子裝置100將識別第一媒體內容和第二媒體內容在時間上重疊的重疊部分。在步驟S1140中,示範性電子裝置100將透過分析與重疊部分相關聯的第一媒體內容和第二媒體內容的內容特徵來識別重點期間。在步驟S1150中,示範性電子裝置100將從重點期間內的第一媒體內容和第二媒體內容產生MPOV視訊。
在下文中,將參考圖10A到圖10B和圖11所說明的方法以特定示範性實施例來進一步闡述示範性電子裝置100。本揭露的本實施例將根據圖10A和圖10B所說明的步驟來確定媒體內容中的每一者是否在時間和位置上與事件相關,且被識別為在時間和位置上與同一事件相關的媒體內容將被識別為相關媒體內容。接著,示範性電子裝置100將提供被識別為與同一事件相關的媒體內容,作為用於產生MPOV視訊的候選媒體內容。此外,根據圖11所說明的步驟,示範性電子裝置100將同步相關媒體內容以識別相關媒體內容在時間上重疊的重疊部分。接著,將在重疊部分內識別重點期間以便產生具有事件的重點的MPOV視訊。
在本揭露的示範性實施例中的一者中,圖3所說明的示範性電子裝置100可為圖1所說明的電子裝置10、20、30中的任一者。換句話說,表示事件的場景的媒體內容可由電子裝置10、20、30中的每一者的圖像擷取元件170從事件的不同視點擷取,
且儲存在電子裝置10、20、30中的每一者的儲存媒體150中。
參看圖1,第一電子裝置10可為起始產生MPOV視訊的過程且請求媒體內容的內容請求者,且第二電子裝置20和/或第三電子裝置30可為將媒體內容提供到電子裝置10以產生事件的MPOV視訊的內容提供者。在示範性實施例中,第一電子裝置10可回應於嵌入在媒體內容的元資料中或與媒體內容的元資料相關聯的時間碼、音頻資訊和位置資訊(包含地理標籤和周圍信號資訊)而在多個媒體內容中識別相關媒體內容。在本揭露的示範性實施例中的一者中,第一電子裝置10可將相關媒體內容分組為媒體合輯。應注意,將媒體內容分組為媒體合輯(例如,媒體集)可在媒體內容的擷取後根據元資料來自動地執行或由用戶例如將媒體內容插入到合輯中或移除媒體內容來手動地執行,本揭露不限於此。
接著,第一電子裝置10可將相關媒體內容的元資料作為一組相關性準則傳輸到第二電子裝置20和/或第三電子裝置30以請求相關媒體內容(即,元資料交換)。在本實施例中,所述一組相關性準則可包含時間資訊、音頻資訊和位置資訊。第二電子裝置20將根據從第一電子裝置10傳輸的相關媒體內容的元資料而在由第二電子裝置20擷取的多個媒體內容中識別相關媒體內容。換句話說,第二電子裝置20將回應于對應於由第一電子裝置10擷取的相關媒體內容的時間資訊、視訊資訊、位置資訊而在由第二電子裝置20擷取的媒體內容中識別相關媒體媒體。此外,第三
電子裝置30將執行與電子裝置20類似的程式,因此,關於第三電子裝置的描述將得以省略。
應注意,本揭露不限於上述元資料交換。在示範性實施例中的一者中,第一電子裝置10可根據媒體合輯內的媒體內容而獲得一組相關性準則。在另一示範性實施例中,所述一組相關性準則可由用戶配置以指示用戶的興趣。舉例來說,可建立媒體合輯以收集針對棒球比賽在5月1日下午5:00到下午9:00之間在棒球場擷取的媒體內容。因此,可根據媒體合輯內的媒體內容來確定預定時段(例如,5月1日下午5:00到下午9:00)和感興趣的特定位置(例如,棒球場)的特定地理座標。可透過在MPOV視訊的產生的起始後分析相關媒體內容來獲得所述一組相關性準則的音頻資訊。舉例來說,可在MPOV視訊的產生的起始後提取媒體合輯內的媒體內容的音頻資訊作為所述一組相關性準則的參數中的一者。此外,特定位置處的周圍信號資訊可獲自媒體合輯內的媒體內容的元資料或由用戶手動地配置。第一電子裝置10將接著從第二電子裝置20或第三電子裝置30接收對應於所述一組相關性準則的相關媒體內容,作為MPOV視訊的候選(相關)媒體內容。
此外,第一電子裝置10將同步相關媒體內容以識別由第一電子裝置10、第二電子裝置20和第三電子裝置30擷取的相關媒體內容在時間上重疊的重疊部分,且接著基於重疊部分內的媒體內容的內容特徵而識別重點期間。處理器110將接著透過組合/
混合重點期間內的相關媒體內容而產生MPOV視訊。
總的來說,本揭露的示範性電子裝置將根據嵌入在媒體內容中的每一者的元資料中或與媒體內容中的每一者的元資料相關聯的時間資訊、音頻資訊和位置資訊(包含地理標籤和周圍信號資訊)而識別在時間和位置上與同一事件相關的第一媒體內容和第二媒體內容。接著,將提供第一媒體內容和第二媒體內容,作為用於產生事件的MPOV視訊的相關媒體內容。本揭露將進一步同步相關媒體內容以識別相關媒體內容在時間上重疊的重疊部分。從重疊部分,可根據相關媒體內容的內容特徵來識別事件的重點期間。因此,可根據重點期間內的相關媒體內容而產生MPOV視訊。
用於本申請案的所揭露實施例的詳細描述中的元件、動作或指令不應解釋為對本揭露來說為絕對關鍵或必要的,除非明確地如此描述。而且,如本文中所使用,用詞“一”可包含一個以上項目。如果打算指僅一個項目,那麼將使用術語“單一”或類似語言。此外,如本文中所使用,在多個項目和/或多個項目種類的列表之前的術語“中的任一者”希望包含所述項目和/或項目種類個別地或結合其他項目和/或其他項目種類“中的任一者”、“中的任何組合”、“中的任何多個”和/或“中的多個的任何組合”。另外,如本文中所使用,術語“集合”希望包含任何數量個項目,包含零個。另外,如本文中所使用,術語“數量”希望包含任何數量,包含零。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S1010~S1030‧‧‧步驟
Claims (20)
- 一種適用於電子裝置的產生多視點(MPOV)視訊的方法,所述方法包括:獲得多個媒體內容;基於對應於所述媒體內容中的每一者的每一元資料而從所述多個媒體內容識別第一媒體內容和第二媒體內容,作為與同一事件相關的相關媒體內容,其中所述元資料至少包括時間資訊或位置資訊,其中所述第一媒體內容為根據一第一視點所擷取,所述第二媒體內容為根據一第二視點所擷取,其中所述第一視點不同於所述第二視點;根據所述相關媒體內容而產生所述多視點視訊;以及根據所述多視點視訊,藉由一顯示螢幕同步顯示與所述同一事件相關的所述第一媒體內容以及所述第二媒體內容。
- 如申請專利範圍第1項所述的方法,更包括:透過比較所述第一媒體內容和所述第二媒體內容之間的音頻資訊而將所述第一媒體內容和所述第二媒體內容識別為所述相關媒體內容。
- 如申請專利範圍第2項所述的方法,其中所述音頻資訊包括音頻波形的可區別特徵的值和時戳。
- 如申請專利範圍第1項所述的方法,其中確定所述相關媒體內容更包括:透過比較所述第一媒體內容的時間碼和所述第二媒體內容的 時間碼而將所述第一媒體內容和所述第二媒體內容識別為在時間上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第1項所述的方法,其中所述位置資訊包括地理標籤,而所述地理標籤包括全球定位系統位置和精度資料,且從所述媒體內容將所述第一媒體內容和所述第二媒體內容確定為與同一事件相關的相關媒體內容更包括:確定所述精度資料是否在預定精度範圍內,且在所述精度資料在所述預定精度範圍內時,透過確定所述第一媒體內容的所述全球定位系統位置與所述第二媒體內容的所述全球定位系統位置之間的差是否在預定距離內,而將所述第一媒體內容和所述第二媒體內容識別為在位置上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第1項所述的方法,其中所述位置資訊包括周圍信號資訊,而所述周圍信號資訊包括對附近裝置的信號強度進行排序的列表,且從所述媒體內容確定所述相關媒體內容更包括:透過比較所述第一媒體內容的所述列表中所列出的所述附近裝置和所述第二媒體內容的所述列表中所列出的所述附近裝置而將所述第一媒體內容和所述第二媒體內容識別為在位置上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第6項所述的方法,其中所述附近裝置包括接入點或其他電子裝置。
- 如申請專利範圍第1項所述的方法,更包括: 將一組相關性準則傳輸到另一電子裝置,所述一組相關性準則用於將由所述另一電子裝置擷取的第三媒體內容識別為相關於與所述第一媒體內容和所述第二媒體內容相同的事件的所述相關媒體內容中的一者;以及從所述另一電子裝置接收所述第三媒體內容以產生所述多視點視訊。
- 如申請專利範圍第8項所述的方法,其中所述一組相關性準則是基於所述第一媒體內容和所述第二媒體內容的所述時間資訊、音頻資訊和所述位置資訊來確定的。
- 如申請專利範圍第1項所述的方法,其中所述第一媒體內容和所述第二媒體內容包括靜止圖像、連續圖像和音頻記錄。
- 一種視訊處理裝置,包括:處理器,經配置以:獲得多個媒體內容;基於對應於所述媒體內容中的每一者的每一元資料而從所述多個媒體內容識別第一媒體內容和第二媒體內容,作為與同一事件相關的相關媒體內容,其中所述元資料至少包括時間資訊或位置資訊,其中所述第一媒體內容為根據一第一視點所擷取,所述第二媒體內容為根據一第二視點所擷取,其中所述第一視點不同於所述第二視點;根據所述相關媒體內容而產生所述多視點視訊;以及根據所述多視點視訊,藉由一顯示螢幕同步顯示與所述同一 事件相關的所述第一媒體內容以及所述第二媒體內容。
- 如申請專利範圍第11項所述的視訊處理裝置,其中所述處理器經進一步配置以透過比較所述第一媒體內容和所述第二媒體內容之間的音頻資訊而將所述第一媒體內容和所述第二媒體內容識別為所述相關媒體內容。
- 如申請專利範圍第12項所述的視訊處理裝置,其中所述音頻資訊包括音頻波形的可區別特徵的值和時戳。
- 如申請專利範圍第11項所述的視訊處理裝置,其中所述處理器經進一步配置以透過比較所述第一媒體內容的時間碼和所述第二媒體內容的時間碼而將所述第一媒體內容和所述第二媒體內容識別為在時間上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第11項所述的視訊處理裝置,其中所述位置資訊包括地理標籤,而所述地理標籤包括GPS位置和精度資料,且所述處理器經進一步配置以確定所述精度資料是否在預定精度範圍內,且在所述精度資料在所述預定精度範圍內時,透過確定所述第一媒體內容的所述GPS位置與所述第二媒體內容的所述GPS位置之間的差是否在預定距離範圍內,而將所述第一媒體內容和所述第二媒體內容識別為在位置上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第11項所述的視訊處理裝置,其中所述位置資訊包括周圍信號資訊,而所述周圍信號資訊包括對附近裝置的信號強度進行排序的列表,且所述處理器經進一步配置以透 過比較所述第一媒體內容的所述列表中所列出的所述附近裝置和所述第二媒體內容的所述列表中所列出的所述附近裝置而將所述第一媒體內容和所述第二媒體內容識別為在位置上與同一事件相關的所述相關媒體內容。
- 如申請專利範圍第16項所述的視訊處理裝置,其中所述附近裝置包括接入點和其他電子裝置。
- 如申請專利範圍第11項所述的視訊處理裝置,更包括:收發器,經配置以:將一組相關性準則傳輸到另一電子裝置,所述一組相關性準則用於將由所述另一電子裝置擷取的第三媒體內容識別為相關於與所述第一媒體內容和所述第二媒體內容相同的事件的所述相關媒體內容中的一者;以及從所述另一電子裝置接收所述第三媒體內容以產生所述多視點視訊。
- 如申請專利範圍第18項所述的視訊處理裝置,其中所述一組相關性準則是基於所述第一媒體內容和所述第二媒體內容的所述時間資訊、音頻資訊和所述位置資訊來確定的。
- 如申請專利範圍第11項所述的視訊處理裝置,其中所述第一媒體內容和所述第二媒體內容包括靜止圖像、連續圖像和音頻記錄。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361844439P | 2013-07-10 | 2013-07-10 | |
US14/308,720 US10141022B2 (en) | 2013-07-10 | 2014-06-19 | Method and electronic device for generating multiple point of view video |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201503676A TW201503676A (zh) | 2015-01-16 |
TWI535282B true TWI535282B (zh) | 2016-05-21 |
Family
ID=52258588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW103123659A TWI535282B (zh) | 2013-07-10 | 2014-07-09 | 用於產生多視點視訊的方法和電子裝置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN104284173B (zh) |
TW (1) | TWI535282B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE541208C2 (en) * | 2016-07-04 | 2019-04-30 | Znipe Esports AB | Methods and nodes for synchronized streaming of a first and a second data stream |
US11120273B2 (en) * | 2019-06-21 | 2021-09-14 | Gfycat, Inc. | Adaptive content classification of a video content item |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080019661A1 (en) * | 2006-07-18 | 2008-01-24 | Pere Obrador | Producing output video from multiple media sources including multiple video sources |
US8271506B2 (en) * | 2008-03-31 | 2012-09-18 | Yahoo! Inc. | System and method for modeling relationships between entities |
RU2492585C2 (ru) * | 2008-07-16 | 2013-09-10 | Нокиа Корпорейшн | Способ и устройство для группирования треков и подмножеств треков |
US9240214B2 (en) * | 2008-12-04 | 2016-01-19 | Nokia Technologies Oy | Multiplexed data sharing |
EP2234024B1 (en) * | 2009-03-24 | 2012-10-03 | Sony Corporation | Context based video finder |
US8862987B2 (en) * | 2009-03-31 | 2014-10-14 | Intel Corporation | Capture and display of digital images based on related metadata |
JP5387905B2 (ja) * | 2009-12-25 | 2014-01-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
TWI459796B (zh) * | 2009-12-29 | 2014-11-01 | Ind Tech Res Inst | 產生多視角三維立體影像的方法及其裝置 |
WO2012013486A1 (en) * | 2010-07-27 | 2012-02-02 | Siemens Aktiengesellschaft | A method and a system for calibrating a multi-view three dimensional camera |
-
2014
- 2014-07-09 TW TW103123659A patent/TWI535282B/zh active
- 2014-07-10 CN CN201410327074.6A patent/CN104284173B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104284173A (zh) | 2015-01-14 |
CN104284173B (zh) | 2018-07-03 |
TW201503676A (zh) | 2015-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10720183B2 (en) | Method and electronic device for generating multiple point of view video | |
US10468066B2 (en) | Video content selection | |
US9239849B2 (en) | Mobile device access of location specific images from a remote database | |
KR101680714B1 (ko) | 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체 | |
US10887673B2 (en) | Method and system for associating recorded videos with highlight and event tags to facilitate replay services | |
EP3384495B1 (en) | Processing of multiple media streams | |
JP2018503148A (ja) | ビデオ再生のための方法および装置 | |
KR20150011943A (ko) | 방송 제공 장치, 방송 제공 시스템 및 이들의 방송 제공 방법 | |
CN106303198A (zh) | 拍摄信息获取方法及装置 | |
WO2015154383A1 (zh) | 拍照方法及拍照终端 | |
US10681335B2 (en) | Video recording method and apparatus | |
TWI535282B (zh) | 用於產生多視點視訊的方法和電子裝置 | |
US20180232384A1 (en) | Methods and apparatus for information capture and presentation | |
CN105992192A (zh) | 通信装置及控制方法 | |
KR102302327B1 (ko) | 단말 장치, 정보 표시 시스템 및 단말 장치의 제어 방법 | |
JP2005191892A (ja) | 情報取得装置及びこれを用いたマルチメディア情報作成システム | |
CN108141705B (zh) | 用于创建事件的个性化记录的方法和装置 | |
CN115225944B (zh) | 视频处理方法、装置、电子设备和计算机可读存储介质 | |
KR20200017466A (ko) | 비디오 항목의 제공을 위한 장치 및 관련된 방법 | |
JP2005354248A (ja) | 映像撮影装置及び画像管理方法 | |
KR20170064200A (ko) | 스마트 단말에서 생태관광 컨텐츠 표시 방법 |