[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN113508604B - 从广播视频生成可跟踪视频帧的系统及方法 - Google Patents

从广播视频生成可跟踪视频帧的系统及方法 Download PDF

Info

Publication number
CN113508604B
CN113508604B CN202080017542.3A CN202080017542A CN113508604B CN 113508604 B CN113508604 B CN 113508604B CN 202080017542 A CN202080017542 A CN 202080017542A CN 113508604 B CN113508604 B CN 113508604B
Authority
CN
China
Prior art keywords
frames
trackable
frame
cluster
computing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080017542.3A
Other languages
English (en)
Other versions
CN113508604A (zh
Inventor
沙龙
S·甘古利
魏新宇
帕特里克·约瑟夫·卢西
阿迪亚·切鲁库穆迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Statos
Original Assignee
Statos
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Statos filed Critical Statos
Priority to CN202311306878.3A priority Critical patent/CN117880607A/zh
Publication of CN113508604A publication Critical patent/CN113508604A/zh
Application granted granted Critical
Publication of CN113508604B publication Critical patent/CN113508604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26603Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种从广播视频馈送生成可跟踪帧的系统及方法。计算系统检索体育赛事的广播视频馈送。广播视频馈送包括多个视频帧。计算系统使用主成分分析模型生成用于分类的帧集。该帧集是多个视频帧的子集。计算系统将帧集中的每个帧划分成多个集群。计算系统将多个帧中的每一帧分类为可跟踪或不可跟踪。可跟踪帧捕捉体育赛事的统一视图。计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧。计算系统将包括至少阈值数目的可跟踪帧的每个集群分类为可跟踪。

Description

从广播视频生成可跟踪视频帧的系统及方法
优先权文件
本申请要求申请日为2019年02月28日、申请号为US 62/811,889的美国临时申请的优先权,其全部内容全文引用归并本文。
技术领域
本公开总体上涉及从广播视频生成可跟踪视频帧的系统及方法。
背景技术
多年来,运动员跟踪数据已在许多体育项目中用于团队和运动员分析。然而,常规的运动员跟踪系统需要体育分析公司在团队比赛的每个场地安装固定相机。这种约束限制了运动员跟踪系统的可扩展性,对当前竞赛的数据收集有限。另外,这类约束会因在必要场安装硬件以及维护此类硬件的相关成本而为体育分析公司招致巨大支出。
发明内容
在一些实施例中,本文公开了一种从广播视频馈送生成可跟踪帧的方法。计算系统检索体育赛事的广播视频馈送。广播视频馈送包括多个视频帧。计算系统使用主成分分析模型生成用于分类的帧集。该帧集是多个视频帧的子集。计算系统将帧集中的每个帧划分成多个集群。计算系统将多个帧中的每一帧分类为可跟踪或不可跟踪。可跟踪帧捕捉体育赛事的统一视图。计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧。计算系统将包括至少阈值数目的可跟踪帧的每个集群分类为可跟踪。
在一些实施例中,本文公开了一种从广播视频馈送生成可跟踪帧的系统。该系统包括处理器和存储器。该存储器上存储有编程指令,它们当被处理器执行时执行一个或多个操作。一个或多个操作包括检索体育赛事的广播视频馈送。广播视频馈送包括多个视频帧。一个或多个操作还包括使用主成分分析模型来生成用于分类的帧集。该帧集是多个视频帧的子集。一个或多个操作还包括将帧集中的每一帧划分成多个集群。一个或多个操作还包括将多个帧中的每一帧分类为可跟踪或不可跟踪。可跟踪帧捕捉体育赛事的统一视图。一个或多个操作还包括将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧。一个或多个操作还包括将包括至少阈值数目的可跟踪帧的每个集群分类为可跟踪。
在一些实施例中,本文公开了一种非暂时性计算机可读介质。该非暂时性计算机可读介质包括一个或多个指令序列,它们当被一个或多个处理器执行时执行一个或多个操作。一个或多个操作包括检索体育赛事的广播视频馈送。广播视频馈送包括多个视频帧。一个或多个操作还包括使用主成分分析模型来生成用于分类的帧集。该帧集是多个视频帧的子集。一个或多个操作还包括将帧集中的每一帧划分成多个集群。一个或多个操作还包括将多个帧中的每一帧分类为可跟踪或不可跟踪。可跟踪帧捕捉体育赛事的统一视图。一个或多个操作还包括将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧。一个或多个操作还包括将包括至少阈值数目的可跟踪帧的每个集群分类为可跟踪。
附图说明
为了详细地了解本公开的上述特征,可以通过参考实施例来对以上简要概述的本公开进行更具体的描述,附图中示出其中一些实施例。但应当指出,附图仅示出本公开的典型实施例,故不应视为限制本公开的范围,本公开可容许其他等同实施例。
图1是示出根据示例实施例的计算环境的框图。
图2是示出根据示例实施例的计算环境的框图。
图3是示出上下文根据示例实施例结合图2和图4至图10论述的操作方面的框图。
图4是示出根据示例实施例生成运动员踪迹的方法的流程图。
图5是示出根据示例实施例生成可跟踪帧的方法的流程图。
图6是示出根据示例实施例如上结合图5论述的操作方面的框图。
图7是示出根据示例实施例针对每个可跟踪帧校准相机的方法的流程图。
图8是示出根据示例实施例如上结合图7论述的操作方面的框图。
图9是示出根据示例实施例跟踪运动员的方法的流程图。
图10是示出根据示例实施例跟踪运动员的方法的流程图。
图11是示出根据示例实施例如上结合图10论述的操作方面的框图。
图12是示出根据示例实施例再识别代理的架构的框图。
图13A是示出根据示例实施例的计算设备的框图。
图13B是示出根据示例实施例的计算设备的框图。
为了便于理解,酌情使用相同的附图标记指代附图中共有的相同元素。可以设想一个实施例中公开的元素可适宜地用于其他实施例而无需具体叙述。
具体实施方式
运动员跟踪数据一直是联盟和团队的宝贵资源,不仅可评估团队本身,还可评估团队中的运动员。收集或生成运动员跟踪数据的常规方法有限,而依赖于在将要举办体育赛事的场地安装固定相机。换言之,团队收集或生成运动员跟踪数据的常规方法要求团队为每个场地配备固定相机系统。本领域技术人员认识到,这种约束严重会限制运动员跟踪系统的可扩展性。此外,这种约束还会将运动员跟踪数据限制到安装固定相机系统后进行的比赛,因为根本无法获得历史运动员跟踪数据。
因为不再需要固定相机系统,本公开描述的一种或多种技术提供了对常规系统的显著改进。确切而言,本公开描述的一种或多种技术旨在利用体育赛事的广播视频馈送来生成运动员跟踪数据。通过利用体育赛事的广播视频馈送,不仅无需在每个场馆中使用专用的固定相机系统,而且现在可以从历史体育赛事中生成历史运动员跟踪数据。
然而,利用体育赛事的广播视频馈送却非易事。例如,包含在广播视频馈送中的可以是各种不同的相机角度、运动员特写、人群特写、教练特写、评论员视频、广告、中场表演等。有鉴于此,为了解决上述问题,本公开描述的一种或多种技术涉及将广播视频馈送剪辑或划分成其组成部分,例如,电影中的不同场景或篮球比赛中的广告。通过将广播视频馈送剪辑或划分成其组成部分,整个系统可以更好地理解呈现给它的信息,从而系统能够更高效地从底层广播视频馈送中提取数据。
图1是示出根据示例实施例的计算环境100的框图。计算环境100可以包括经由网络105通信的相机系统102、组织计算系统104和一个或多个客户端设备108。
网络105可以采取任何合适的类型,包括经由互联网、诸如蜂窝或Wi-Fi网络的个别连接。在一些实施例中,网络105可以使用诸如射频识别(RFID)、近场通信(NFC)、蓝牙TM、低功耗蓝牙TM(BLE)、Wi-FiTM、ZigBeeTM、环境反向散射通信(ABC)协议、USB、WAN或LAN等直接连接来连接终端、服务和移动设备。由于传输的信息可能是个人化或机密性,安全问题可能要求对这些类型的连接中的一种或多种进行加密或以其他方式进行安保。但在一些实施例中,传输的信息可能不太个人化,因此网络连接可以针对便捷性而非安全性来选择。
网络105可以包括任何类型用于交换数据或信息的计算机网络布置。例如,网络105可以是因特网、专用数据网络、使用公共网络和/或其他合适连接的虚拟专用网络,使得计算环境100中的组件能够在环境100的组件之间发送和接收信息。
相机系统102可以定位于场地106中。例如,场地106可以配置为举办包括一个或多个球员112的体育赛事。相机系统102可以配置为捕捉赛场(playing surface)上所有球员(即,运动员)的运动以及一个或多个其他相关对象(例如,球、裁判等)。在一些实施例中,相机系统102可以是例如使用多个固定相机的基于光学的系统。例如,可以使用由六个静止校准相机组成的系统,这些相机将运动员和球的三维位置投影到球场的二维俯视图上。在另一例中,静止相机和非静止相机混合可用于捕捉赛场上全部球员的运动以及一个或多个相关对象。本领域技术人员可认识到,使用这种相机系统(例如,相机系统102)可以产生许多不同的球场相机视图(例如,高边线视图、罚球线视图、围聚视图、争球视图、球门区视图等)。一般而言,相机系统102可用于给定竞赛的广播馈送。广播馈送中的每一帧可以存储在比赛文件110中。
相机系统102可以配置为经由网络105与组织计算系统104进行通信。组织计算系统104可以配置为管理和分析相机系统102捕获的广播馈送。组织计算系统104可以至少包括Web客户端应用服务器114、数据存储118、自动剪辑代理120、数据集生成器122、相机校准器124、运动员跟踪代理126和界面代理128。自动剪辑代理120、数据集生成器122、相机校准器124、运动员跟踪代理126和界面代理128中的每一个均可以由一个或多个软件模块组成。一个或多个软件模块可以是存储在介质(例如,组织计算系统104的存储器)上的代码或指令的集合,它们表示实施一个或多个算法步骤的一系列机器指令(例如,程序代码)。这样的机器指令可以是组织计算系统104的处理器解译实施指令的实际计算机代码,也可以是解译获得实际计算机代码的指令的高级编码。一个或多个软件模块还可以包括一个或多个硬件组件。示例算法的一个或多个方面可以由硬件组件(例如,电路)本身执行,而不是作为指令的结果。
数据存储118可以配置为存储一个或多个比赛文件124。每个比赛文件124可以包括给定竞赛的广播数据。例如,广播数据可以是相机系统102捕获的多个视频帧。
自动剪辑代理120可以配置为解析给定竞赛的广播馈送以识别竞赛的统一视图。换言之,自动剪辑代理120可以配置为解析广播馈送以识别从同一视图捕获的全部信息帧。在一示例中,例如在篮球运动中,统一视图可以是高边线视图。自动剪辑代理120可以将广播馈送(例如,视频)剪辑或分割成其组成部分(例如,电影中的不同场景、竞赛中的广告等)。为了生成统一视图,自动剪辑代理120可以识别捕捉同一视图(例如,高边线视图)的那些部分。据此,自动剪辑代理120可以移除广播馈送的全部(或部分)不可跟踪部分(例如,运动员特写、广告、中场表演等)。统一视图可以作为可跟踪帧集存储在数据库中。
数据集生成器122可以配置为根据可跟踪帧生成多个数据集。在一些实施例中,数据集生成器122可以配置为识别身体姿势信息。例如,数据集生成器122可以利用身体姿势信息来检测可跟踪帧中的运动员。在一些实施例中,数据集生成器122可以配置为进一步跟踪可跟踪帧中球或冰球的移动。在一些实施例中,数据集生成器122可以配置为对正发生事件的赛场进行分割以识别赛场的一个或多个标记。例如,数据集生成器122可以配置为识别球场(例如,篮球、网球等)标记、运动场(例如,棒球、美式橄榄球、足球、英式橄榄球等)标记、冰场(例如,曲棍球)标记等。由数据集生成器122生成的多个数据集可以随后供相机校准器124用来校准每个相机系统102的相机。
相机校准器124可以配置为校准相机系统102的相机。例如,相机校准器124可以配置为将在可跟踪帧中检测到的运动员投影到现实世界坐标以供进一步分析。相机系统102中的相机不断移动以聚焦于球或关键动作,因此这样的相机无法被预先校准。相机校准器124可以配置为使用单应矩阵改进或优化运动员投影参数。
运动员跟踪代理126可以配置为针对赛场上的每个运动员生成踪迹(track)。例如,运动员跟踪代理126可以利用运动员姿势检测、相机校准和广播帧来生成这样的踪迹。在一些实施例中,运动员跟踪代理126还可以配置为针对每个运动员生成踪迹,即使是例如运动员当前处于可跟踪帧之外。例如,运动员跟踪代理126可以利用身体姿势信息来链接已经离开视图帧的运动员。
界面代理128可以配置为生成与由运动员跟踪代理126生成的每个运动员的踪迹相对应的一个或多个图形表示。例如,界面代理128可以配置为生成一个或多个图形用户界面(GUI),其包括跟踪由运动员跟踪代理126生成的每个预测的运动员的图形表示。
客户端设备108可以经由网络105与组织计算系统104进行通信。客户端设备108可由用户操作。例如,客户端设备108可以是移动设备、平板型计算机、桌面型计算机或任何具有本文所述能力的计算系统。用户可以包括但不限于个人,诸如订户、客户、潜在客户或与组织计算系统104相关联的实体顾客,例如已获得、将获得或可获得来自与组织计算系统104相关联的实体的产品、服务或咨询的个人。
客户端设备108可以至少包括应用132。应用132可以代表允许访问网站或独立应用的Web浏览器。客户端设备108可以访问应用132以访问组织计算系统104的一项或多项功能。客户端设备108可以通过网络105通信以请求网页,例如来自组织计算系统104的Web客户端应用服务器114的网页。例如,客户端设备108可以配置为执行应用132以访问由Web客户端应用服务器114管理的内容。显示给客户端设备108的内容可以从Web客户端应用服务器114传输到客户端设备108,并随后由应用132处理以通过客户端设备108的图形用户界面(GUI)进行显示。
图2是示出根据示例实施例的计算环境200的框图。如图所示,计算环境200包括经由网络205进行通信的自动剪辑代理120、数据集生成器122、相机校准器124和运动员跟踪代理126。
网络205可以采取任何合适的类型,包括经由互联网、诸如蜂窝或Wi-Fi网络的个别连接。在一些实施例中,网络205可以使用诸如射频识别(RFID)、近场通信(NFC)、蓝牙TM、低功耗蓝牙TM(BLE)、Wi-FiTM、ZigBeeTM、环境反向散射通信(ABC)协议、USB、WAN或LAN等直接连接来连接终端、服务和移动设备。由于传输的信息可能是个人化或机密性,安全问题可能要求对这些类型的连接中的一种或多种进行加密或以其他方式进行安保。但在一些实施例中,传输的信息可能不太个人化,因此网络连接可以针对便捷性而非安全性来选择。
网络205可以包括任何类型用于交换数据或信息的计算机网络布置。例如,网络205可以是因特网、专用数据网络、使用公共网络和/或其他合适连接的虚拟专用网络,使得计算环境200中的组件能够在环境200的组件之间发送和接收信息。
自动剪辑代理120可以包括主成分分析(PCA)代理202、聚类模型204和神经网络206。如上所述,当试图从广播馈送中理解和提取数据时,自动剪辑代理120可用于将视频剪辑或分割成其组成部分。在一些实施例中,自动剪辑代理120可以专注于将预定义的统一视图(例如,高边线视图)与广播流的所有其他部分分开。
PCA代理202可以配置为利用PCA分析来执行每次从广播馈送中提取帧特征。例如,鉴于预先录制的视频,PCA代理202可以每X秒(例如,每10秒)提取一帧来构建视频的PCA模型。在一些实施例中,PCA代理202可以使用增量PCA来生成PCA模型,PCA代理202由此可以选择前一个分量子集(例如,前120个分量)来生成PCA模型。PCA代理202还可以配置为每X秒(例如,每一秒)从广播流中提取一帧并使用PCA模型来压缩这些帧。在一些实施例中,PCA代理202可以利用PCA模型将帧压缩成120维形式。例如,PCA代理202可以按每视频的方式求解主分量并保存每帧前100个分量以确保准确剪辑。
聚类模型204可以配置为将前一个分量子集聚类成集群。例如,聚类模型204可以配置为将前120个分量居中、归一化和聚类成多个集群。在一些实施例中,对于压缩帧的聚类,聚类模型204可以实施K均值(K-Means)聚类。在一些实施例中,聚类模型204可以设置k=9个集群。K均值聚类尝试获取一些数据x={x1,x2,...,xn}并将其分成k个子集,S={S1,S2,...Sk},如下优化:
其中μj为集Sj中数据的均值。换言之,聚类模型204尝试使用K均值聚类技术找到具有最小群间方差的集群。聚类模型204可以用其各自的集群号(例如,集群1、集群2、...、集群k)标注每一帧。
神经网络206可以配置为将每一帧分类为可跟踪或不可跟踪。可跟踪帧可以代表包括捕获统一视图(例如,高边线视图)的帧。不可跟踪帧可以代表未捕获统一视图的帧。为了训练神经网络206,可以使用包括通过PCA模型运行的预先标注为可跟踪或不可跟踪的数千帧的输入数据集。每个压缩帧和标签对(即,集群号和可跟踪/不可跟踪)可以被提供给神经网络206以供训练。
在一些实施例中,神经网络206可以包括四层。这四层可以包括一个输入层、两个隐藏层和一个输出层。在一些实施例中,输入层可以包括120个单元。在一些实施例中,每个隐藏层可以包括240个单元。在一些实施例中,输出层可以包括2个单元。输入层和每个隐藏层可以使用sigmoid激活函数。输出层可以使用SoftMax激活函数。为了训练神经网络206,自动剪辑代理120可以如下减少(例如,最小化)样本的预测标签与真正标签yj之间的二元交叉熵损失:
据此,一旦经训练,神经网络206可以配置为将每一帧分类为不可跟踪或可跟踪。如此,每一帧可以具有两个标签:集群号和可跟踪/不可跟踪分类。自动剪辑代理120可以利用这两个标签来确定给定集群视为可跟踪还是不可跟踪。例如,如果自动剪辑代理120确定集群中阈值数目的帧视为可跟踪(例如,80%),则自动剪辑代理120可以断定该集群中所有帧皆为可跟踪。另外,如果自动剪辑代理120确定集群中少于阈值数目的帧视为不可跟踪(例如,30%以下),则自动剪辑代理120可以断定该集群中所有帧皆为不可跟踪。更进一步,如果自动剪辑代理120确定集群中特定数目的帧视为可跟踪(例如,30%至80%),则自动剪辑代理120可以请求管理员进一步分析该集群。一旦每一帧均被分类,自动剪辑代理120便可以剪辑或分割可跟踪帧。自动剪辑代理120可以将可跟踪帧的片段存储在与之相关联的数据库205中。
数据集生成器122可以配置为从自动剪辑代理120生成多个数据集。如图所示,数据集生成器122可以包括姿势检测器212、球检测器214和赛场分割器216。姿势检测器212可以配置为检测广播馈送内的运动员。数据集生成器122可以向姿势检测器212提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。在一些实施例中,姿势检测器212可以实施开放姿势(Open Pose)以生成身体姿势数据来检测广播馈送和可跟踪帧中的运动员。在一些实施例中,姿势检测器212可以实施定位于运动员身上的传感器以捕捉身体姿势信息。一般而言,姿势检测器212可以使用任何手段从广播视频馈送和可跟踪帧中获得身体姿势信息。来自姿势检测器212的输出可以是存储在与数据集生成器122相关联的数据库215中的姿势数据。
球检测器214可以配置为检测和跟踪广播馈送内的球(或冰球)。数据集生成器122可以向球检测器214提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。在一些实施例中,球检测器214可以利用快速区域卷积神经网络(Faster R-CNN)来检测和跟踪可跟踪帧中和广播视频馈送的球。Faster R-CNN是一种区域提议网络。Faster R-CNN使用卷积神经网络提议感兴趣区域,然后将每个感兴趣区域中的对象分类。因为它是单个统一网络,感兴趣区域和分类步骤可以互为改进,从而允许分类处理各种大小的对象。来自球检测器214的输出可以是存储在与数据集生成器122相关联的数据库215中的球检测数据。
赛场分割器216可以配置为识别广播馈送中的赛场标记。数据集生成器122可以向赛场分割器216提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。在一些实施例中,赛场分割器216可以配置为利用神经网络来识别赛场标记。赛场分割器216的输出可以是存储在与数据集生成器122相关联的数据库215中的赛场标记。
相机校准器124可以配置为解决体育运动中移动相机校准的问题。相机校准器124可以包括空间传输网络224和光流模块226。相机校准器124可以接收由赛场分割器216生成的分割赛场信息、可跟踪剪辑信息和姿势信息作为输入。鉴于这样的输入,相机校准器124可以配置为将图像帧中的坐标投影到现实世界坐标以供跟踪分析。
关键帧匹配模块224可以接收来自赛场分割器216的输出和模板集作为输入。对于每一帧,关键帧匹配模块224可以将来自赛场分割器216的输出与模板进行匹配。那些能够匹配给定模板的帧视为关键帧。在一些实施例中,关键帧匹配模块224可以实施神经网络以匹配一个或多个帧。在一些实施例中,关键帧匹配模块224可以实施互相关(cross-correlation)以匹配一个或多个帧。
空间变换网络(STN)224可以配置为从关键帧匹配模块224接收所识别的关键帧作为输入。STN 224可以实施神经网络以将赛场模型拟合到赛场分割信息。通过将赛场模型拟合到这样的输出,STN 224可以针对每个关键帧生成单应矩阵。
光流模块226可以配置为识别对象从一个可跟踪帧到另一帧的运动模式。在一些实施例中,光流模块226可以接收每个可跟踪帧中运动员的可跟踪帧信息和身体姿势信息作为输入。光流模块226可以使用身体姿势信息来从可跟踪帧信息中移除运动员。一旦被移除,光流模块226可以确定帧间运动以识别连续帧之间的相机运动。换言之,光流模块226可以识别从一帧到下一帧的流场。
光流模块226和STN 224可以协同工作以生成单应矩阵。例如,光流模块226和STN224可以针对每个可跟踪帧生成单应矩阵,从而可以针对每一帧校准相机。单应矩阵可用于将运动员的踪迹或位置投影到现实世界坐标中。例如,单应矩阵可以指示二维到二维变换,其可以用于将运动员的位置从图像坐标投影到赛场上的现实世界坐标。
运动员跟踪代理126可以配置为针对竞赛中的每个运动员生成踪迹。运动员跟踪代理126可以包括神经网络232和再识别代理232。运动员跟踪代理126可以接收可跟踪帧、姿势数据、校准数据和广播视频帧作为输入。在第一阶段,运动员跟踪代理126可以基于外表和距离来匹配可从姿势信息导出的运动员补丁对。例如,令为第j个运动员在时间t的运动员补丁,令为第j个运动员在时间t的图像坐标宽度和高度借此,运动员跟踪代理126可以使用外表互相关如下关联任何检测对:
其中I是边界框位置(x,y)、宽度w和高度h;C是图像补丁(image patch)之间的互相关(例如,使用边界框的图像剪切),并测定两个图像补丁之间的相似度;且L是两个边界框I之间差异(例如,距离)的度量。
针对每一对执行此操作可以生成大型短踪片集。然后,可以基于运动一致性和颜色直方图相似度将这些踪片(tracklet)的端点相互关联。
例如,令vi为第i个踪片结束时的外推速度,令vj为第j个踪片开始时的外推速度。则cij=vi·vj可以表示运动一致性分值。另外,令p(h)i表示颜色似然率,h存在于图像补丁i中。运动员跟踪代理126可以使用巴氏距离(Bhattacharyya Distance)测定颜色直方图相似度:
DB(pi,pj)=-ln(BC(pi,pj)),其中
重申一下,跟踪代理120如下找到匹配的踪片对:
求解每对中断的踪片可以产生净踪片集,同时留下一些具有大差距(即许多帧)的踪片。为了连接大差距,运动员跟踪代理可以扩增近邻度量以包括运动场估计,这可顾及许多帧中发生的运动员方向变化。
运动场可以是向量场,其将速度幅度和方向表示为赛场上每个位置上的向量。鉴于赛场上众多运动员的已知速度,可以使用三次样条插值来生成完整的运动场。例如,令为运动员i在每个时间t的球场位置。则可能存在一对具有位移的点,若λ<T。据此,运动场则可如下:
其中G(x,5)可以是标准偏差约等于五英尺的高斯核(Gaussian Kernel)。换言之,运动场可以是全部位移的高斯模糊(Gaussian Blur)。
神经网络232可用于鉴于真实运动员轨迹而预测运动员轨迹。鉴于真实运动员轨迹集,Xi,可以计算每个运动员在每一帧的速度,这可以为神经网络232提供地面真实运动场以供学习。例如,鉴于真实运动员轨迹集Xi,运动员跟踪代理126可以配置为生成集合其中可以是预测的运动场。例如,可以训练神经网络232以使最小化。运动员轨迹代理则可以如下针对任何跟踪差距大小λ生成近邻分值:
Kij=V(x,λ)·dij
其中是差距大小为λ的全部中断踪迹之间的位移向量。
再识别代理234可以配置为链接已经离开视图帧的运动员。再识别代理234可以包括踪迹生成器236、条件自编码器240和Siamese网络242。
踪迹生成器236可以配置为生成踪迹图库。踪迹生成器236可以接收来自数据库205的多个踪迹。针对每个踪迹X,可以包括运动员身份标签y,并且针对每个运动员补丁I,可以由姿势检测阶段提供姿势信息p。鉴于运动员踪迹集,踪迹生成器236可以针对每个踪迹建立图库,其中运动员的队服号码(或一些其他静态特征)始终可见。由数据集生成器122生成的身体姿势信息允许踪迹生成器236确定运动员的方位。例如,踪迹生成器236可以利用启发法,其中可以如下使用标准化肩宽来确定方位:
其中l可以表示一个身体部位的位置。肩宽可以通过躯干长度来进行归一化,从而可消除缩放效果。当运动员面向相机或背向相机时两边肩膀应为分开,因此踪迹生成器236可以使用那些Sorient大于阈值的补丁来建立图库。在此阶段之后,每个踪迹Xn可以包括如下图库:
条件自编码器240可以配置为识别每个踪迹中的一个或多个特征。例如,与再识别问题的常规方法不同的是,团队运动中的运动员可以具有非常相似的外表特征,诸如服装款式、服装颜色和肤色。更直观的区别之一可能是可显示在每件队服正面和/或背面的队服号码。为了捕捉这些具体特征,可以训练条件自编码器240来识别这样的特征。
在一些实施例中,条件自编码器240可以是三层卷积自编码器(convolutionalautoencoder),其中全部三层的内核大小可以是3x3,其中分别有64个、128个、128个通道。可以调谐这些超参数以确保可从重建的图像中辨识出队服号码,从而可以在自编码器中学习预期的特征。在一些实施例中,f(Ii)可用于表示从图像i中学习的特征。
使用条件自编码器240可出于各种原因而改进常规过程。首先,通常没有足够的训练数据供每个运动员使用,因为有些运动员在每场比赛中仅上场很短的时间。其次,不同的团队可能有相同的队服颜色和队服号码,因此可能难以对这些运动员进行分类。
Siamese网络242可用于测定两个图像补丁之间的相似度。例如,可以训练Siamese网络242以基于它们的特征表示f(I)来测定两个图像补丁之间的相似度。鉴于两个图像补丁,它们的特征表示f(Ii)和f(Ij)可以被展平、连接并输入到感知网络中。在一些实施例中,L2范数可用于连接两个子网络f(Ii)和f(Ij)。在一些实施例中,感知网络可以包括三层,可以分别包括1024个、512个和216个隐藏单元。这样的网络可用于测定无时间重叠的两个踪迹的每对图像补丁之间的相似度s(Ii,Ij)。为了增强预测的鲁棒性,两个踪迹的最终相似度分值可以是它们各自图库中全部成对分值的平均值:
可以针对无时间重叠的每两个踪迹计算该相似度分值。如果分值高于某个阈值,则这两个踪迹可相关联。
图3是示出上下文根据示例实施例结合图2和图4至图10论述的操作方面的框图300。框图300可以说明组织计算系统104在生成运动员跟踪信息时的整体工作流程。框图300可以包括多组操作302至308。一组操作302可以涉及生成可跟踪帧(例如,图5中的方法500)。一组操作304可以涉及从可跟踪帧生成一个或多个数据集(例如,由数据集生成器122执行的操作)。一组操作306可以涉及相机校准操作(例如,图7中的方法700)。一组操作308可以针对生成和预测运动员踪迹(例如,图9中的方法900和图10中的方法1000)。
图4是示出根据示例实施例生成运动员踪迹的方法400的流程图。方法400可以始于步骤402。
在步骤402,组织计算系统104可以接收(或检索)赛事的广播馈送。在一些实施例中,广播馈送可以是从相机系统102实时(或接近实时)接收的实况馈送。在一些实施例中,广播馈送可以是已经结束的比赛的广播馈送。一般而言,广播馈送可以包括多帧视频数据。每一帧可以捕捉不同的相机视角。
在步骤404,组织计算系统104可以将广播馈送分割成统一视图。例如,自动剪辑代理120可以配置为解析广播馈送中的多个数据帧以从不可跟踪帧中分割出可跟踪帧。一般而言,可跟踪帧可以包括指向统一视图的那些帧。例如,统一视图可以视为是高边线视图。在其他示例中,统一视图可以是球门区视图。在其他示例中,统一视图可以是顶相机视图。
在步骤406,组织计算系统104可以从可跟踪帧(即,统一视图)生成多个数据集。例如,数据集生成器122可以配置为基于从自动剪辑代理120接收到的可跟踪剪辑来生成多个数据集。在一些实施例中,姿势检测器212可以配置为检测广播馈送内的运动员。数据集生成器122可以向姿势检测器212提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。来自姿势检测器212的输出可以是存储在与数据集生成器122相关联的数据库215中的姿势数据。
球检测器214可以配置为检测和跟踪广播馈送内的球(或冰球)。数据集生成器122可以向球检测器214提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。在一些实施例中,球检测器214可以利用Faster R-CNN来检测和跟踪可跟踪帧中和广播视频馈送的球。来自球检测器214的输出可以是存储在与数据集生成器122相关联的数据库215中的球检测数据。
赛场分割器216可以配置为识别广播馈送中的赛场标记。数据集生成器122可以向赛场分割器216提供存储在数据库205中的可跟踪帧以及广播视频馈送作为输入。在一些实施例中,赛场分割器216可以配置为利用神经网络来识别赛场标记。赛场分割器216的输出可以是存储在与数据集生成器122相关联的数据库215中的赛场标记。
据此,数据集生成器120可以生成针对全部可跟踪帧中的运动员位置、球位置和球场部分的信息以供进一步分析。
在步骤408,组织计算系统104可以基于在步骤406中所生成的数据集而每个可跟踪帧中校准相机。例如,相机校准器124可以配置为通过使用可跟踪帧和身体姿势信息生成单应矩阵而在每个可跟踪帧中校准相机。单应矩阵允许相机校准器124获取给定帧中每个运动员的那些轨迹,并将这些轨迹投影到现实世界坐标中。通过针对每帧将运动员位置和轨迹投影到现实世界坐标中,相机校准器124可以确保相机针对每帧得以校准。
在步骤410,组织计算系统104可以配置为生成或预测每个运动员的踪迹。例如,运动员跟踪代理126可以配置为生成或预测竞赛中每个运动员的踪迹。运动员跟踪代理126可以接收可跟踪帧、姿势数据、校准数据和广播视频帧作为输入。使用这样的输入,运动员跟踪代理126可以配置为构建整个给定竞赛中的运动员运动。另外,运动员跟踪代理126可以配置为鉴于每个运动员的先前运动而预测运动员轨迹。
图5是示出根据示例实施例生成可跟踪帧的方法500的流程图。方法500可以对应于上文结合图4论述的操作404。方法500可以始于步骤502。
在步骤502,组织计算系统104可以接收(或检索)赛事的广播馈送。在一些实施例中,广播馈送可以是从相机系统102实时(或接近实时)接收的实况馈送。在一些实施例中,广播馈送可以是已经结束的比赛的广播馈送。一般而言,广播馈送可以包括多帧视频数据。每一帧可以捕捉不同的相机视角。
在步骤504,组织计算系统104可以生成用于图像分类的帧集。例如,自动剪辑代理120可以利用PCA分析来执行从广播馈送中提取逐帧特征。例如鉴于预先录制的视频,自动剪辑代理120可以每X秒(例如,每10秒)提取一帧来构建视频的PCA模型。在一些实施例中,自动剪辑代理120可以使用增量PCA来生成PCA模型,自动剪辑代理120由此可以选择前一个分量子集(例如,前120个分量)来生成PCA模型。自动剪辑代理120还可以配置为每X秒(例如,每一秒)从广播流中提取一帧并使用PCA模型来压缩这些帧。在一些实施例中,自动剪辑代理120可以利用PCA模型将帧压缩成120维形式。例如,自动剪辑代理120可以按每视频的方式求解主分量并保存每帧前100个分量以确保准确剪辑。这样的压缩帧子集可以视为用于图像分类的帧集。换言之,PCA模型可以用于将每一帧压缩成小向量,从而能够更有效地对帧进行聚类。可以通过从PCA模型中选择前N个分量来表示帧而进行压缩。在一些示例中,N可以是100。
在步骤506,组织计算系统104可以将帧集中的每一帧分配到给定集群。例如,自动剪辑代理120可以配置为将前120个分量居中、归一化和聚类成多个集群。在一些实施例中,对于压缩帧的聚类,自动剪辑代理120可以实施K均值聚类。在一些实施例中,自动剪辑代理120可以设置k=9个集群。K均值聚类尝试获取一些数据x={x1,x2,...,xn}并将其分成k个子集,S={S1,S2,...Sk},如下优化:
其中μj为集Sj中数据的均值。换言之,聚类模型204尝试使用K均值聚类技术找到具有最小群间方差的集群。聚类模型204可以用其各自的集群号(例如,集群1、集群2、...、集群k)标注每一帧。
在步骤508,组织计算系统104可以将每一帧分类为可跟踪或不可跟踪。例如,自动剪辑代理120可以利用神经网络将每一帧分类为可跟踪或不可跟踪。可跟踪帧可以代表包括捕获统一视图(例如,高边线视图)的帧。不可跟踪帧可以代表未捕获统一视图的帧。为了训练神经网络(例如,神经网络206),可以使用包括通过PCA模型运行的预先标注为可跟踪或不可跟踪的数千帧的输入数据集。每个压缩帧和标签对(即,集群号和可跟踪/不可跟踪)可以被提供给神经网络以供训练。据此,一经训练,自动剪辑代理120便可以将每一帧分类为不可跟踪或可跟踪。如此,每一帧可以具有两个标签:集群号和可跟踪/不可跟踪分类。
在步骤510,组织计算系统104可以将每个集群与阈值相比较。例如,自动剪辑代理120可以利用这两个标签来确定给定集群视为可跟踪还是不可跟踪。在一些实施例中,如果自动剪辑代理120确定集群中阈值数目的帧视为可跟踪(例如,80%),则自动剪辑代理120可以断定该集群中所有帧皆为可跟踪。另外,如果自动剪辑代理120确定集群中少于阈值数目的帧视为不可跟踪(例如,30%以下),则自动剪辑代理120可以断定该集群中所有帧皆为不可跟踪。更进一步,如果自动剪辑代理120确定集群中特定数目的帧视为可跟踪(例如,30%至80%),则自动剪辑代理120可以请求管理员进一步分析该集群。
如果在步骤510中组织计算系统104确定集群中大于阈值数目的帧为可跟踪,则在步骤512中自动剪辑代理120可以将该集群分类为可跟踪。
然而,如果在步骤510中组织计算系统104确定集群中小于阈值数目的帧为可跟踪,则在步骤514中自动剪辑代理120可以将该集群分类为不可跟踪。
图6是示出根据示例实施例如上结合方法500论述的操作方面的框图600。如图所示,框图600可以包括多组操作602至608。
在一组操作602,可以向自动剪辑代理120提供视频数据(例如,广播视频)。自动剪辑代理120可以从视频中提取帧。在一些实施例中,自动剪辑代理120可以以低帧率从视频中提取帧。自动剪辑代理可以使用增量PCA算法来从由自动剪辑代理120提取的帧集中选择前120个分量(例如,帧)。这样的操作可以生成视频特定的PCA模型。
在一组操作604,可以向自动剪辑代理120提供视频数据(例如,广播视频)。自动剪辑代理120可以从视频中提取帧。在一些实施例中,自动剪辑代理120可以以中帧率从视频中提取帧。自动剪辑代理120可以使用视频特定PCA模型来压缩由自动剪辑代理120提取的帧。
在一组操作606,可以将压缩帧和预选数目的期望集群提供给自动剪辑代理120。自动剪辑代理120可以利用K均值聚类技术将帧分组成一个或多个集群,如预选数目的期望集群所述。自动剪辑代理120可以为每个压缩帧分配集群标签。自动剪辑代理120还可以配置为将每一帧分类为可跟踪或不可跟踪。自动剪辑代理120可以如此标注每个相应帧。
在一组操作608,自动剪辑代理120可以分析每个集群以确定该集群是否包括至少阈值数目的可跟踪帧。例如,如图所示,如果集群中80%帧被分类为可跟踪,则自动剪辑代理120可以将整个集群视为可跟踪。然而,如果集群中少于80%帧被分类为可跟踪,则自动剪辑代理可以确定集群中是否至少第二阈值数目的帧为可跟踪。例如,如果集群中70%帧被分类为不可跟踪,则自动剪辑代理120可以将整个集群视为可跟踪。然而,如果集群中少于70%帧被分类为不可跟踪,即30%至70%可跟踪,则可以请求人工注释。
图7是示出根据示例实施例针对每个可跟踪帧校准相机的方法700的流程图。方法700可以对应于上文结合图4论述的操作408。方法700可以始于步骤702。
在步骤702,组织计算系统104可以检索视频数据和姿势数据以供分析。例如,相机校准器124可以从数据库205中检索给定竞赛的可跟踪帧和每个可跟踪帧中运动员的姿势数据。继步骤702之后,相机校准器124可以执行两个并行过程来针对每一帧生成单应矩阵。据此,以下操作并非旨在论述为顺序执行,而是可以并行或顺序执行。
在步骤704,组织计算系统104可以从每个可跟踪帧中移除运动员。例如,相机校准器124可以解析从数据库205中检索到的每个可跟踪帧以识别其中所含的一个或多个运动员。相机校准器124可以使用从数据库205中检索到的姿势数据而从每个可跟踪帧中移除运动员。例如,相机校准器124可以识别与姿势数据相对应的那些像素,并从给定的可跟踪帧中移除所识别的像素。
在步骤706,组织计算系统104可以识别对象(例如,表面、边缘等)在连续可跟踪帧之间的运动。例如,相机校准器124可以分析连续可跟踪帧,从中移除运动员,以确定对象从一帧到下一帧的运动。换言之,光流模块226可以识别连续可跟踪帧之间的流场。
在步骤708,组织计算系统104可以将来自赛场分割器216的输出与模板集相匹配。例如,相机校准器124可以将赛场图像清晰的一个或多个帧与一个或多个模板相匹配。相机校准器124可以解析该组可跟踪剪辑以识别提供清晰赛场图片和其中标记的那些剪辑。基于所选剪辑,相机校准器124可以将这样的图像与赛场模板相比较。每个模板可以表示赛场的不同相机视角。那些能够匹配给定模板的帧视为关键帧。在一些实施例中,相机校准器124可以实施神经网络以匹配一个或多个帧。在一些实施例中,相机校准器124可以实施互相关以匹配一个或多个帧。
在步骤710,组织计算系统104可以将赛场模型拟合到每个关键帧。例如,相机校准器124可以配置为接收所识别的关键帧作为输入。相机校准器124可以实施神经网络以将赛场模型拟合到赛场分割信息。通过将赛场模型拟合到这样的输出,相机校准器124可以针对每个关键帧生成单应矩阵。
在步骤712,组织计算系统104可以针对每个可跟踪帧生成单应矩阵。例如,相机校准器124可以利用在步骤706中所识别的流场和每个关键帧的单应矩阵来生成每一帧的单应矩阵。单应矩阵可用于将运动员的踪迹或位置投影到现实世界坐标中。例如,鉴于由单应矩阵表示的几何变换,相机校准器124可以使用其变换来将图像上运动员的位置投影到赛场上的现实世界坐标。
在步骤714,组织计算系统104可以基于单应矩阵来校准每个相机。
图8是示出根据示例实施例如上结合方法700论述的操作方面的框图800。如图所示,框图800可以包括输入802、第一组操作804和第二组操作806。第一组操作804和第二组操作806可以并行执行。
输入802可以包括视频剪辑808和姿势检测810。在一些实施例中,视频剪辑808可以对应于由自动剪辑代理120生成的可跟踪帧。在一些实施例中,姿势检测810可以对应于由姿势检测器212生成的姿势数据。如图所示,可以仅提供视频剪辑808作为第一组操作804的输入;视频剪辑804和后期检测810皆可作为输入提供给第二组操作806。
第一组操作804可以包括语义分割812、关键帧匹配814和STN拟合816。在语义分割812,赛场分割器216可以配置为识别广播馈送中的赛场标记。在一些实施例中,赛场分割器216可以配置为利用神经网络来识别赛场标记。这样的分割信息可以预先执行并从数据库215提供给相机校准124。在关键帧匹配814,关键帧匹配模块224可以配置为将赛场图像清晰的一个或多个帧与一个或多个模板相匹配。在STN拟合816,STN 226可以实施神经网络以将赛场模型拟合到赛场分割信息。通过将赛场模型拟合到这样的输出,STN 224可以针对每个关键帧生成单应矩阵。
第二组操作806可以包括相机运动估计818。在相机流估计818,光流模块226可以配置为识别对象从一个可跟踪帧到另一帧的运动模式。例如,光流模块226可以使用身体姿势信息来从可跟踪帧信息中移除运动员。一旦被移除,光流模块226可以确定帧间运动以识别连续帧之间的相机运动。
第一组操作804和第二组操作806可导致单应性插值816。光流模块226和STN 224可以协同工作以针对每个可跟踪帧生成单应矩阵,从而可以针对每一帧校准相机。单应矩阵可用于将运动员的踪迹或位置投影到现实世界坐标中。
图9是示出根据示例实施例跟踪运动员的方法900的流程图。方法900可以对应于上文结合图4论述的操作410。方法900可以始于步骤902。
在步骤902,组织计算系统104可以检索多个可跟踪帧以供匹配。多个可跟踪帧中的每一个可以包括与之相关联的一个或多个元数据集。这样的元数据可以例如包括身体姿势信息和相机校准数据。在一些实施例中,运动员跟踪代理126还可以检索广播视频数据。
在步骤904,组织计算系统104可以生成短踪片集。例如,运动员跟踪代理126可以基于外表和距离来匹配可从姿势信息导出的运动员补丁对,以生成短踪片集。例如,令为第j个运动员在时间t的运动员补丁,令为第j个运动员在时间t的图像坐标宽度和高度借此,运动员跟踪代理126可以使用外表互相关如下关联任何检测对:
针对每一对执行此操作可以生成短踪片集。然后,可以基于运动一致性和颜色直方图相似度将这些踪片的端点相互关联。
例如,令vi为第i个踪片结束时的外推速度,令vj为第j个踪片开始时的外推速度。则cij=vi·vj可以表示运动一致性分值。另外,令p(h)i表示颜色似然率,h存在于图像补丁i中。运动员跟踪代理126可以使用巴氏距离测定颜色直方图相似度:
DB(pi,pj)=-ln(BC(pi,pj)),其中
在步骤906,组织计算系统104可以连接每个短踪片集之间的差距。例如重申一下,跟踪代理120如下找到匹配的踪片对:
求解每对中断的踪片可以产生净踪片集,同时留下一些具有大差距(即许多帧)的踪片。为了连接大差距,运动员跟踪代理126可以扩增近邻度量以包括运动场估计,这可顾及许多帧中发生的运动员方向变化。
运动场可以是一种测定运动员经过一段时间λ后在赛场x上某个点会处何方向的向量场。例如,令为运动员i在每个时间t的球场位置。则可能存在一对具有位移的点,若λ<T。据此,运动场则可如下:
其中G(x,5)可以是标准偏差约等于五英尺的高斯核。换言之,运动场可以是全部位移的高斯模糊。
在步骤908,组织计算系统104可以基于运动场来预测球员的运动。例如,运动员跟踪系统126可以使用神经网络(例如,神经网络232)鉴于地面真实运动员轨迹来预测运动员轨迹。鉴于真实运动员轨迹集Xi,运动员跟踪代理126可以配置为生成集合其中可以是预测的运动场。运动员跟踪代理126可以训练神经网络232以减少(例如,最小化)运动员跟踪代理126则可以如下针对任何跟踪差距大小λ生成近邻分值:
Kij=V(x,λ)·dij
其中是差距大小为λ的全部中断踪迹之间的位移向量。据此,运动员跟踪代理126可以求解上述匹配对。例如,鉴于近邻分值,运动员跟踪代理126可以使用匈牙利算法(Hungarian Algorithm)分配每对中断的踪片。匈牙利算法(例如,Kuhn-Munkres)可以在各对都要匹配的约束下优化最佳匹配集。
在步骤910,组织计算系统104可以输出预测的图形表示。例如,界面代理128可以配置为生成与由运动员跟踪代理126生成的每个运动员的踪迹相对应的一个或多个图形表示。例如,界面代理128可以配置为生成一个或多个图形用户界面(GUI),其包括跟踪由运动员跟踪代理126生成的每个预测的运动员的图形表示。
在某些情况下,在竞赛过程中,运动员或球员倾向于在相机视野之外徘徊。此类问题可能会在受伤、运动员乏力、快速失误、快速攻防转换等期间出现。据此,第一可跟踪帧中的运动员可能不再处于相继的第二或第三可跟踪帧中。运动员跟踪代理126可以经由再识别代理234来解决这一问题。
图10是示出根据示例实施例跟踪运动员的方法1000的流程图。方法1000可以对应于上文结合图4论述的操作410。方法1000可以始于步骤1002。
在步骤1002,组织计算系统104可以检索多个可跟踪帧以供匹配。多个可跟踪帧中的每一个可以包括与之相关联的一个或多个元数据集。这样的元数据可以例如包括身体姿势信息和相机校准数据。在一些实施例中,运动员跟踪代理126还可以检索广播视频数据。
在步骤1004,组织计算系统104可以识别运动员已经离开相机视线的短踪迹子集。每个踪迹可以包括与至少一个运动员相关联的多个图像补丁。图像补丁可以是指多个可跟踪帧的对应帧子集。在一些实施例中,每个踪迹X可以包括运动员身份标签y。在一些实施例中,给定踪迹X中的每个运动员补丁I可以包括由数据集生成器122生成的姿势信息。例如,鉴于输入视频、姿势检测和可跟踪帧,再识别代理234可以生成包括运动员的若干短中断踪迹的踪迹集合。
在步骤1006,组织计算系统104可以针对每个踪迹生成图库。例如,鉴于那些小踪迹,再识别代理234可以针对每个踪迹建立图库。再识别代理234可以针对每个踪迹建立图库,其中运动员的队服号码(或一些其他静态特征)始终可见。由数据集生成器122生成的身体姿势信息允许再识别代理234确定每个运动员的方位。例如,再识别代理234可以利用启发法,该启发法可以如下使用标准化肩宽来确定方位:
其中l可以表示一个身体部位的位置。肩宽可以通过躯干长度来进行归一化,从而可消除缩放效果。当运动员面向相机或背向相机时两边肩膀应为分开,因此再识别代理234可以使用那些Sorient大于阈值的补丁来建立图库。据此,每个踪迹Xn可以包括如下图库:
在步骤1008,组织计算系统104可以使用卷积自编码器来匹配踪迹。例如,再识别代理234可以使用条件自编码器(例如,条件自编码器240)来识别每个踪迹中的一个或多个特征。例如,与再识别问题的常规方法不同的是,团队运动中的运动员可以具有非常相似的外表特征,诸如服装款式、服装颜色和肤色。更直观的区别之一可能是可显示在每件队服正面和/或背面的队服号码。为了捕捉这些具体特征,再识别代理234可以训练条件自编码器来识别这样的特征。
在一些实施例中,条件自编码器可以是三层卷积自编码器,其中全部三层的内核大小可以是3x3,其中分别有64个、128个、128个通道。可以调谐这些超参数以确保可从重建的图像中辨识出队服号码,从而可以在自编码器中学习预期的特征。在一些实施例中,f(Ii)可用于表示从图像i中学习的特征。
使用特定示例,再识别代理234可以识别对应于第一运动员的第一踪迹。使用条件自编码器240,再识别代理234可以例如基于包括第一踪迹或与之相关联的第一图像补丁集来学习与第一踪迹相关联的第一队服特征集。再识别代理234还可以识别可最初对应于第二运动员的第二踪迹。使用条件自编码器240,再识别代理234可以例如基于包括第二踪迹或与之相关联的第二图像补丁集来学习与第二踪迹相关联的第二队服特征集。
在步骤1010,组织计算系统104可以使用Siamese网络来测定匹配踪迹之间的相似度。例如,再识别代理234可以训练Siamese网络(例如,Siamese网络242)以基于两个图像补丁的特征表示f(I)来测定它们之间的相似度。鉴于两个图像补丁,它们的特征表示f(Ii)和f(Ij)可以被展平、连接并馈入到感知网络中。在一些实施例中,L2范数可用于连接两个子网络f(Ii)和f(Ij)。在一些实施例中,感知网络可以包括三层,分别包括1024个、512个和216个隐藏单元。这样的网络可用于测定无时间重叠的两个踪迹的每对图像补丁之间的相似度s(Ii,Ij)。为了增强预测的鲁棒性,两个踪迹的最终相似度分值可以是它们各自图库中全部成对分值的平均值:
继续上述示例,再识别代理234可以利用Siamese网络242来计算第一学习的队服特征集和第二学习的队服特征集之间的相似度分值。
在步骤1012,如果踪迹的相似度分值高于预定阈值,则组织计算系统104可以将这些踪迹相关联。例如,再识别代理234可以针对每两个无时间重叠的踪迹计算相似度分值。如果分值高于某个阈值,则再识别代理234可以将这两个踪迹相关联。
继续上述示例,如果例如由Siamese网络242生成的相似度分值至少高于阈值,则再识别代理234可以将第一踪迹与第二踪迹相关联。假设相似度分值高于阈值,再识别代理234可以确定第一踪迹中的第一运动员和第二踪迹中的第二运动员确实为同一人。
图11是示出根据示例实施例如上结合方法1000论述的操作方面的框图1100。
如图所示,框图1100可以包括输入视频1102、姿势检测1104、运动员跟踪1106、踪迹集合1108、图库建立与配对1110以及踪迹连接1112。框图1100示出上文提供的方法1000的一般流水线。
鉴于输入视频1102、(例如,由姿势检测器212生成的)姿势检测信息1104和(例如,由运动员跟踪代理126、自动剪辑代理120和相机校准器124中的一个或多个生成的)运动员跟踪信息1106,再识别代理234可以生成踪迹集合1108。每个踪迹集合1108可以包括运动员的多个短中断踪迹(例如,踪迹1114)。每个踪迹1114可以包括其中所含的一个或多个图像补丁1116。鉴于踪迹1114,再识别代理234可以针对每个踪迹生成图库1110。例如,图库1110可以包括给定踪迹中的那些图像补丁1118,这些图像补丁1118包括运动员的方位满足阈值的运动员的图像。换言之,再识别代理234可以针对包括每个运动员的图像补丁1118的每个踪迹1114生成图库1110,使得该运动员的号码可以在每一帧中可见。图像补丁1118可以是图像补丁1116的子集。再识别代理234可以再配对每一帧以经由Siamese网络计算相似度分值。例如,如图所示,再识别代理234可以将来自踪迹II的第一帧与来自踪迹I的第二帧相匹配并将这些帧馈送到Siamese网络。
再识别代理234可以再基于相似度分值来连接踪迹1112。例如,如果两个帧的相似度分值超过某个阈值,则再识别代理234可以连接或关联那些踪迹。
图12是示出根据示例实施例的重识别代理234的Siamese网络242的架构1200的框图。如图所示,Siamese网络242可以包括两个子网络1202、1204和一个感知网络1205。
两个子网络1202、1204中的每一个可以类似地配置。例如,子网络1202可以包括第一卷积层1206、第二卷积层1208和第三卷积层1210。第一子网络1202可以接收运动员补丁I1作为输入并输出从运动员补丁I1中学习的特征集(表示为f(I1))。子网络1204可以包括第一卷积层1216、第二卷积层1218和第三卷积层1220。第二子网络1204可以接收运动员补丁I2作为输入并可以输出从运动员补丁I2中学习的特征集(表示为f(I2))。来自子网络1202和子网络1204的输出可以是相应运动员补丁I1、I2的编码表示。在一些实施例中,来自子网络1202和子网络1204的输出可以后跟扁平化运算,其可以分别生成各自的特征向量f(I1)和f(I2)。在一些实施例中,每个特征向量f(I1)和f(I2)可以包括10240个单元。在一些实施例中,L2范数为f(I1)和f(I2),可以被计算并用作感知网络1205的输入。
感知网络1205可以包括三层1222至1226。在一些实施例中,层1222可以包括1024个隐藏单元。在一些实施例中,层1224可以包括512个隐藏单元。在一些实施例中,层1226可以包括256个隐藏单元。感知网络1205可以输出图像补丁I1和I2之间的相似度分值。
图13A示出根据示例实施例的计算系统架构1300的系统总线。系统1300可以代表组织计算系统104的至少一部分。系统1300的一个或多个组件可以使用总线1305彼此电通信。系统1300可以包括处理单元(CPU或处理器)1310和系统总线1305,其将包括系统存储器1315(诸如只读存储器(ROM)1320和随机存取存储器(RAM)1325)的各种系统组件耦合到处理器1310。系统1300可以包括直连、紧邻处理器1310或集成为处理器1310一部分的高速存储器的高速缓存。系统1300可以将数据从存储器1315和/或存储设备1330复制到高速缓存1312以供处理器1310快速访问。以此方式,高速缓存1312可以提供避免处理器1310在等待数据时发生延迟的性能提升。这些和其他模块可以控制或配置为控制处理器1310执行各种动作。也可使用其他系统存储器1315。存储器1315可以包括具有不同性能特性的多种不同类型的存储器。处理器1310可以包括任何通用处理器和硬件模块或软件模块,诸如存储在存储设备1330中的服务I 1332、服务II 1334和服务III 1336(配置为控制处理器1310)以及专用处理器,其中软件指令归并到实际的处理器设计中。处理器1310本质上可以是完全独立的计算系统,包含多个核或处理器、总线、存储器控制器、高速缓存等。多核处理器可以为对称或非对称。
为了使用户能够与计算设备1300相交互,输入设备1345可以表示任何数目的输入机制,诸如用于语音的麦克风、用于手势或图形输入的触敏屏幕、键盘、鼠标、运动输入、语音等。输出设备1335也可以是本领域技术人员已知的多种输出机制中的一种或多种。在一些情况下,多模式系统可以使用户能够提供多种类型的输入以与计算设备1300进行通信。通信接口1340通常可以支配和管理用户输入和系统输出。对于任何特定硬件布置上的操作不作任何限制,因而本公开的基本特征可易于替换为尚在开发中的改进硬件或固件布置。
存储设备1330可以是非易失性存储器,也可以是硬盘或其他类型的计算机可读介质,其可以存储可供计算机访问的数据,诸如磁带、闪存卡、固态存储设备、数字多功能磁盘、盒式磁带、随机存取存储器(RAM)1325、只读存储器(ROM)1320及其混合。
存储设备1330可以包括用于控制处理器1310的服务1332、1334和1336。其他硬件或软件模块也可考虑在内。存储设备1330可以连接到系统总线1305。一方面,执行特定功能的硬件模块可以包括存储在计算机可读介质中的软件组件,其与执行功能的必要硬件组件相关,诸如处理器1310、总线1305、显示器1335等。
图13B示出具有可表示组织计算系统104的至少一部分的芯片组架构的计算机系统1350。计算机系统1350可以是可用于实施本公开技术的计算机硬件、软件和固件的示例。系统1350可以包括处理器1355,其代表任何数目的物理和/或逻辑上不同的资源,这些资源能够执行配置为执行所识别的计算的软件、固件和硬件。处理器1355可以与芯片组1360进行通信,该芯片组1360可以控制处理器1355的输入和输出。在本示例中,芯片组1360将信息输出到输出端1365,诸如显示器,并可以读取和写入信息到存储设备1370,该存储设备1370可以例如包括磁性介质和固态介质。芯片组1360也可以从RAM 1375读取数据以及向RAM1375写入数据。可以提供用于与各种用户接口组件1385对接的桥接器1380以便与芯片组1360对接。这样的用户接口组件1385可以包括键盘、麦克风、触摸检测处理电路、诸如鼠标的定点设备等。一般而言,系统1350的输入可以来自机器生成和/或人工生成的多种来源中的任一种。
芯片组1360也可以与一个或多个具有不同物理接口的通信接口1390对接。这样的通信接口可以包括用于有线和无线局域网、宽带无线网络以及个人局域网的接口。一些用于生成、显示和使用本文公开GUI的方法的应用可以包括通过物理接口接收有序数据集或者由机器本身通过处理器1355分析存储在存储器1370或1375中的数据而生成。另外,机器可以通过用户接口组件1385接收来自用户的输入并通过使用处理器1355解译这些输入来执行适当的功能,诸如浏览功能。
可以领会,示例系统1300和1350可以具有多于一个处理器1310或者是联网在一起的计算设备群组或集群的一部分以提供更高的处理能力。
尽管上述内容是针对本公开描述的实施例,但在不脱离本公开基本范围的情况下,可以设计其他和更多的实施例。例如,本公开各方面可以硬件或软件或者硬件和软件的组合来实现。本公开描述的一个实施例可以实现为与计算机系统配用的程序产品。程序产品的程序定义了实施例的功能(包括本公开描述的方法)并可以包含于各种计算机可读存储介质上。说明性计算机可读存储介质包括但不限于:(i)上面永久性存储信息的不可写存储介质(例如,计算机内的只读存储器(ROM)设备,诸如可由CD-ROM驱动器读取的CD-ROM磁盘、闪存、ROM芯片或任何类型的固态非易失性存储器);(ii)上面存储可更改信息的可写存储介质(例如,软盘驱动器或硬盘驱动器内的软盘或任何类型的固态随机存取存储器)。这种计算机可读存储介质当承载指导本公开实施例的功能的计算机可读指令时成为本公开实施例。
本领域技术人员应当领会,上述示例仅为示例性而非限制性。本领域技术人员在阅读本说明书并研究附图后,可以明了所有置换、增强、等同和改进方案皆旨在涵属于本公开的真实精神和保护范围内。因而,所附权利要求旨在包括所有落入本公开教导的真实精神和保护范围内的此类修改、置换和等同方案。

Claims (20)

1.一种从广播视频馈送生成可跟踪帧的方法,包括:
由计算系统检索体育赛事的广播视频馈送,所述广播视频馈送包括多个帧;
由所述计算系统使用主成分分析模型来生成用于分类的帧集,其中,所述帧集是上述多个帧的子集;
由所述计算系统将所述帧集分组成多个集群;
由所述计算系统将所述多个帧中的每一帧分类为可跟踪或不可跟踪,其中,每个可跟踪帧从相同的相机视角捕捉所述体育赛事;
由所述计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧;以及
由所述计算系统将包括至少所述阈值数目的可跟踪帧的每个集群分类为可跟踪。
2.根据权利要求1所述的方法,其中,由所述计算系统使用主成分分析模型来生成用于分类的帧集,包括:
从所述多个帧中,每隔选定的时间间隔提取一帧,以生成所述广播视频馈送的所述主成分分析模型;
经由所述主成分分析模型从所提取的帧中识别帧子集;以及
使用所述帧子集作为所述用于分类的帧集。
3.根据权利要求2所述的方法,其中,由所述计算系统将所述帧集分组成多个集群,包括:
用相应的集群号标注所述帧子集中的每一帧。
4.根据权利要求3所述的方法,其中,由所述计算系统将所述多个帧中的每一帧分类为可跟踪或不可跟踪,包括:
使用包括多个帧和与每个帧相关联的标签的训练集来训练神经网络以将帧分类为可跟踪或不可跟踪,其中,所述标签为可跟踪或不可跟踪。
5.根据权利要求4所述的方法,其中,所述多个帧中的每一帧包括可跟踪/不可跟踪分类以及相关联的集群号。
6.根据权利要求5所述的方法,其中,由所述计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧,包括:
识别与给定集群标签相对应的每个帧;以及
确定与所述给定集群标签相对应的包含可跟踪分类的帧数。
7.根据权利要求1所述的方法,进一步包括:
将包括至少阈值数目的可跟踪帧的每个集群存储在数据存储中。
8.一种再识别广播视频馈送中运动员的系统,包括:
处理器;以及
存储器,其上存储有编程指令,所述编程指令当被所述处理器执行时执行一个或多个操作,包括:
检索体育赛事的广播视频馈送,所述广播视频馈送包括多个帧;
使用主成分分析模型来生成用于分类的帧集,其中,所述帧集是上述多个帧的子集;
将帧集分组成多个集群;
将所述多个帧中的每一帧分类为可跟踪或不可跟踪,其中,每个可跟踪帧从相同的相机视角捕捉所述体育赛事;
将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧;以及
将包括至少所述阈值数目的可跟踪帧的每个集群分类为可跟踪。
9.根据权利要求8所述的系统,其中,使用主成分分析模型来生成用于分类的帧集,包括:
从所述多个帧中,每隔选定的时间间隔提取一帧,以生成所述广播视频馈送的所述主成分分析模型;
经由所述主成分分析模型从所提取的帧中识别帧子集;以及
使用所述帧子集作为所述用于分类的帧集。
10.根据权利要求9所述的系统,其中,将帧集分组成多个集群,包括:
用相应的集群号标注所述帧子集中的每一帧。
11.根据权利要求10所述的系统,其中,将所述多个帧中的每一帧分类为可跟踪或不可跟踪,包括:
使用包括多个帧和与每个帧相关联的标签的训练集来训练神经网络以将帧分类为可跟踪或不可跟踪,其中,所述标签为可跟踪或不可跟踪。
12.根据权利要求11所述的系统,其中,所述多个帧中的每一帧包括可跟踪/不可跟踪分类以及相关联的集群号。
13.根据权利要求12所述的系统,其中,将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧,包括:
识别与给定集群标签相对应的每个帧;以及
确定与所述给定集群标签相对应的包含可跟踪分类的帧数。
14.根据权利要求13所述的系统,进一步包括:
将包括至少阈值数目的可跟踪帧的每个集群存储在数据存储中。
15.一种非暂时性计算机可读介质,包括一个或多个指令序列,所述指令序列当被一个或多个处理器执行时执行以下一个或多个操作:
由计算系统检索体育赛事的广播视频馈送,所述广播视频馈送包括多个帧;
由所述计算系统使用主成分分析模型来生成用于分类的帧集,其中,所述帧集是上述多个帧的子集;
由所述计算系统将所述帧集分组成多个集群;
由所述计算系统将所述多个帧中的每一帧分类为可跟踪或不可跟踪,其中,每个可跟踪帧从相同的相机视角捕捉所述体育赛事;
由所述计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧;以及
由所述计算系统将包括至少所述阈值数目的可跟踪帧的每个集群分类为可跟踪。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,由所述计算系统使用主成分分析模型来生成用于分类的帧集,包括:
从所述多个帧中,每隔选定的时间间隔提取一帧,以生成所述广播视频馈送的所述主成分分析模型;
经由所述主成分分析模型从所提取的帧中识别帧子集;以及
使用所述帧子集作为所述用于分类的帧集。
17.根据权利要求16所述的非暂时性计算机可读介质,其中,由所述计算系统将所述帧集分组成多个集群,包括:
用相应的集群号标注所述帧子集中的每一帧。
18.根据权利要求17所述的非暂时性计算机可读介质,其中,由所述计算系统将所述多个帧分类为可跟踪或不可跟踪,包括:
使用包括多个帧和与每个帧相关联的标签的训练集来训练神经网络以将帧分类为可跟踪或不可跟踪,其中,所述标签为可跟踪或不可跟踪。
19.根据权利要求18所述的非暂时性计算机可读介质,其中,所述多个帧中的每一帧包括可跟踪/不可跟踪分类以及相关联的集群号。
20.根据权利要求19所述的非暂时性计算机可读介质,其中,由所述计算系统将每个集群与预定阈值进行比较以确定每个集群是否包括至少阈值数目的可跟踪帧,包括:
识别与给定集群标签相对应的每个帧;以及
确定与所述给定集群标签相对应的包含可跟踪分类的帧数。
CN202080017542.3A 2019-02-28 2020-02-28 从广播视频生成可跟踪视频帧的系统及方法 Active CN113508604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311306878.3A CN117880607A (zh) 2019-02-28 2020-02-28 可跟踪视频帧的生成方法、识别系统和介质

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962811889P 2019-02-28 2019-02-28
US62/811,889 2019-02-28
PCT/US2020/020444 WO2020176873A1 (en) 2019-02-28 2020-02-28 System and method for generating trackable video frames from broadcast video

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311306878.3A Division CN117880607A (zh) 2019-02-28 2020-02-28 可跟踪视频帧的生成方法、识别系统和介质

Publications (2)

Publication Number Publication Date
CN113508604A CN113508604A (zh) 2021-10-15
CN113508604B true CN113508604B (zh) 2023-10-31

Family

ID=72235973

Family Applications (5)

Application Number Title Priority Date Filing Date
CN202080017542.3A Active CN113508604B (zh) 2019-02-28 2020-02-28 从广播视频生成可跟踪视频帧的系统及方法
CN202311306878.3A Pending CN117880607A (zh) 2019-02-28 2020-02-28 可跟踪视频帧的生成方法、识别系统和介质
CN202080017540.4A Active CN113544698B (zh) 2019-02-28 2020-02-28 广播视频中运动员再识别的系统及方法
CN202080017536.8A Active CN113508419B (zh) 2019-02-28 2020-02-28 从广播视频生成运动员跟踪数据的系统及方法
CN202080017553.1A Active CN113574866B (zh) 2019-02-28 2020-02-28 校准捕捉广播视频的移动相机的系统及方法

Family Applications After (4)

Application Number Title Priority Date Filing Date
CN202311306878.3A Pending CN117880607A (zh) 2019-02-28 2020-02-28 可跟踪视频帧的生成方法、识别系统和介质
CN202080017540.4A Active CN113544698B (zh) 2019-02-28 2020-02-28 广播视频中运动员再识别的系统及方法
CN202080017536.8A Active CN113508419B (zh) 2019-02-28 2020-02-28 从广播视频生成运动员跟踪数据的系统及方法
CN202080017553.1A Active CN113574866B (zh) 2019-02-28 2020-02-28 校准捕捉广播视频的移动相机的系统及方法

Country Status (4)

Country Link
US (13) US11182642B2 (zh)
EP (4) EP3935832A4 (zh)
CN (5) CN113508604B (zh)
WO (4) WO2020176872A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11305194B2 (en) * 2019-01-21 2022-04-19 Tempus Ex Machina, Inc. Systems and methods for providing a real-time representation of positional information of subjects
CN113508604B (zh) 2019-02-28 2023-10-31 斯塔特斯公司 从广播视频生成可跟踪视频帧的系统及方法
US11475590B2 (en) * 2019-09-12 2022-10-18 Nec Corporation Keypoint based pose-tracking using entailment
CN115210770A (zh) * 2020-04-10 2022-10-18 斯塔特斯公司 用于广播视频的端到端相机校准
US11804042B1 (en) * 2020-09-04 2023-10-31 Scale AI, Inc. Prelabeling of bounding boxes in video frames
CN114511596A (zh) * 2020-10-23 2022-05-17 华为技术有限公司 一种数据处理方法及相关设备
CN112464814A (zh) * 2020-11-27 2021-03-09 北京百度网讯科技有限公司 视频处理方法、装置、电子设备及存储介质
US11532099B2 (en) 2021-02-03 2022-12-20 BetMIX, LLC Method and system for compiling performance metrics for racing competitors
CN113158891B (zh) * 2021-04-20 2022-08-19 杭州像素元科技有限公司 一种基于全局特征匹配的跨摄像头行人重识别方法
CN113537032B (zh) * 2021-07-12 2023-11-28 南京邮电大学 一种基于图片分块丢弃的分集多支路行人重识别方法
CN117836808A (zh) * 2021-09-09 2024-04-05 斯塔特斯公司 估计广播视频馈送中缺少的球员位置
US11704892B2 (en) * 2021-09-22 2023-07-18 Proposal Pickleball Inc. Apparatus and method for image classification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105653700A (zh) * 2015-03-13 2016-06-08 Tcl集团股份有限公司 视频检索方法及系统
CN108399435A (zh) * 2018-03-21 2018-08-14 南京邮电大学 一种基于动静特征的视频分类方法

Family Cites Families (152)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010047297A1 (en) * 2000-02-16 2001-11-29 Albert Wen Advertisement brokering with remote ad generation system and method in a distributed computer network
US6950123B2 (en) 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
AU2003265318A1 (en) * 2002-08-02 2004-02-23 University Of Rochester Automatic soccer video analysis and summarization
US20040143434A1 (en) * 2003-01-17 2004-07-22 Ajay Divakaran Audio-Assisted segmentation and browsing of news videos
US6859547B2 (en) * 2003-01-25 2005-02-22 The Mostert Group Methods and computer-readable medium for tracking motion
JP4394920B2 (ja) 2003-10-06 2010-01-06 日本電信電話株式会社 映像分類表示方法及びそのシステム並びにプログラム
ATE404950T1 (de) 2004-06-11 2008-08-15 Saab Ab Computermodellierung physikalischer szenen
US7512261B2 (en) * 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
ES2790885T3 (es) * 2005-03-29 2020-10-29 Sportvu Ltd Seguimiento de objetos en tiempo real y captura de movimiento en eventos deportivos
US8199199B1 (en) 2007-08-15 2012-06-12 Yuriy Shlyak Method and system for real time judging boundary lines on tennis court
GB2452512B (en) 2007-09-05 2012-02-29 Sony Corp Apparatus and method of object tracking
US8339456B2 (en) 2008-05-15 2012-12-25 Sri International Apparatus for intelligent and autonomous video content generation and streaming
US8406534B2 (en) * 2008-06-30 2013-03-26 Intel Corporation System and method for video based scene analysis
US8538074B2 (en) 2008-09-08 2013-09-17 Sony Corporation Image processing apparatus and method, image capturing apparatus, and program
JP4670923B2 (ja) * 2008-09-22 2011-04-13 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP4905474B2 (ja) * 2009-02-04 2012-03-28 ソニー株式会社 映像処理装置、映像処理方法及びプログラム
KR101644789B1 (ko) 2009-04-10 2016-08-04 삼성전자주식회사 방송 프로그램 연관 정보 제공 장치 및 방법
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US8755569B2 (en) * 2009-05-29 2014-06-17 University Of Central Florida Research Foundation, Inc. Methods for recognizing pose and action of articulated objects with collection of planes in motion
ES2692289T3 (es) * 2009-07-20 2018-12-03 Mediaproducción, S.L. Procedimiento para calibrar una cámara basado en una imagen en la que un círculo y al menos una línea son visibles
US8345990B2 (en) 2009-08-03 2013-01-01 Indian Institute Of Technology Bombay System for creating a capsule representation of an instructional video
US8553982B2 (en) * 2009-12-23 2013-10-08 Intel Corporation Model-based play field registration
ES2714362T3 (es) * 2010-01-05 2019-05-28 Isolynx Llc Sistema para mostrar información de eventos atléticos en un marcador
GB2477333B (en) 2010-01-29 2014-12-03 Sony Corp A method and apparatus for creating a stereoscopic image
US20120180084A1 (en) * 2011-01-12 2012-07-12 Futurewei Technologies, Inc. Method and Apparatus for Video Insertion
US20140037213A1 (en) 2011-04-11 2014-02-06 Liberovision Ag Image processing
WO2012153290A1 (en) * 2011-05-10 2012-11-15 Nds Limited Adaptive presentation of content
US20120316843A1 (en) * 2011-06-08 2012-12-13 Cobra Golf Incorporated Systems and methods for communicating sports-related information
US9883163B2 (en) 2012-01-09 2018-01-30 Disney Enterprises, Inc. Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks
US20130263166A1 (en) 2012-03-27 2013-10-03 Bluefin Labs, Inc. Social Networking System Targeted Message Synchronization
US20150125032A1 (en) 2012-06-13 2015-05-07 Panasonic Intellectual Property Management Co., Ltd. Object detection device
US9058757B2 (en) * 2012-08-13 2015-06-16 Xerox Corporation Systems and methods for image or video personalization with selectable effects
WO2014045843A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9237340B2 (en) * 2012-10-10 2016-01-12 Texas Instruments Incorporated Camera pose estimation
US10291725B2 (en) 2012-11-21 2019-05-14 H4 Engineering, Inc. Automatic cameraman, automatic recording system and automatic recording network
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
US20140219634A1 (en) * 2013-02-05 2014-08-07 Redux, Inc. Video preview creation based on environment
DE102013004073A1 (de) 2013-03-11 2014-09-11 Martin Vorbach Videostromauswertung
US9064189B2 (en) 2013-03-15 2015-06-23 Arris Technology, Inc. Playfield detection and shot classification in sports video
US9098923B2 (en) * 2013-03-15 2015-08-04 General Instrument Corporation Detection of long shots in sports video
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
US10347100B2 (en) * 2013-04-26 2019-07-09 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US9471849B2 (en) * 2013-05-05 2016-10-18 Qognify Ltd. System and method for suspect search
US9665777B2 (en) * 2013-05-10 2017-05-30 Robert Bosch Gmbh System and method for object and event identification using multiple cameras
KR101480348B1 (ko) 2013-05-31 2015-01-09 삼성에스디에스 주식회사 사람 검출 장치 및 방법과 사람 계수 장치 및 방법
US9875550B2 (en) 2013-08-28 2018-01-23 Disney Enterprises, Inc. Method and device for tracking sports players with context-conditioned motion models
US20150125042A1 (en) 2013-10-08 2015-05-07 Smartlanes Technologies, Llc Method and system for data collection using processed image data
US10096114B1 (en) 2013-11-27 2018-10-09 Google Llc Determining multiple camera positions from multiple videos
ES2836791T3 (es) * 2013-12-30 2021-06-28 Telecom Italia Spa Procedimiento y sistema para seleccionar automáticamente partes de un contenido multimedia de vídeo y/o audio basado en información obtenida de las redes sociales
US11120271B2 (en) * 2014-02-28 2021-09-14 Second Spectrum, Inc. Data processing systems and methods for enhanced augmentation of interactive video content
US20220327830A1 (en) * 2014-02-28 2022-10-13 Genius Sports Ss, Llc Methods and systems of combining video content with one or more augmentations to produce augmented video
US10521671B2 (en) 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US10832057B2 (en) * 2014-02-28 2020-11-10 Second Spectrum, Inc. Methods, systems, and user interface navigation of video content based spatiotemporal pattern recognition
US9684056B2 (en) 2014-05-29 2017-06-20 Abdullah I. Khanfor Automatic object tracking camera
KR20150144179A (ko) 2014-06-16 2015-12-24 삼성전자주식회사 영상에서 대상체 부위의 위치를 추정하기 위한 방법 및 장치
US9600723B1 (en) * 2014-07-03 2017-03-21 Google Inc. Systems and methods for attention localization using a first-person point-of-view device
JP6027070B2 (ja) * 2014-09-24 2016-11-16 富士フイルム株式会社 領域検出装置、領域検出方法、画像処理装置、画像処理方法、プログラムおよび記録媒体
AU2015330646A1 (en) * 2014-10-10 2017-06-01 Livebarn Inc. System and method for optical player tracking in sports venues
JP6430914B2 (ja) 2014-12-22 2018-11-28 キヤノンイメージングシステムズ株式会社 画像処理装置および画像処理方法
US20180301169A1 (en) * 2015-02-24 2018-10-18 Plaay, Llc System and method for generating a highlight reel of a sporting event
EP3262643A4 (en) * 2015-02-24 2019-02-20 Plaay, LLC SYSTEM AND METHOD FOR CREATING A VIDEO OF SPORTS
JP2016163311A (ja) 2015-03-05 2016-09-05 ソニー株式会社 ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法
US10074015B1 (en) * 2015-04-13 2018-09-11 Google Llc Methods, systems, and media for generating a summarized video with video thumbnails
CN107924572B (zh) * 2015-04-17 2021-06-15 快图有限公司 使用阵列相机执行高速视频捕获和深度估计的系统和方法
CN107534789B (zh) * 2015-06-25 2021-04-27 松下知识产权经营株式会社 影像同步装置及影像同步方法
JP6697743B2 (ja) * 2015-09-29 2020-05-27 パナソニックIpマネジメント株式会社 情報端末の制御方法及びプログラム
US10372989B2 (en) 2015-10-30 2019-08-06 Canon Kabushiki Kaisha Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
US9799373B2 (en) * 2015-11-05 2017-10-24 Yahoo Holdings, Inc. Computerized system and method for automatically extracting GIFs from videos
JP6534609B2 (ja) 2015-12-04 2019-06-26 クラリオン株式会社 追跡装置
WO2017103674A1 (en) 2015-12-17 2017-06-22 Infinity Cube Ltd. System and method for mobile feedback generation using video processing and object tracking
US11132787B2 (en) 2018-07-09 2021-09-28 Instrumental, Inc. Method for monitoring manufacture of assembly units
US10726358B2 (en) * 2016-02-01 2020-07-28 SweatWorks, LLC Identification of individuals and/or times using image analysis
EP3411755A4 (en) * 2016-02-03 2019-10-09 Sportlogiq Inc. SYSTEMS AND METHODS FOR AUTOMATED CALIBRATION OF PHOTOGRAPHIC APPARATUS
JP6284086B2 (ja) * 2016-02-05 2018-02-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US9852513B2 (en) 2016-03-01 2017-12-26 Intel Corporation Tracking regions of interest across video frames with corresponding depth maps
US9911223B2 (en) * 2016-05-13 2018-03-06 Yahoo Holdings, Inc. Automatic video segment selection method and apparatus
US10956723B2 (en) * 2016-06-03 2021-03-23 Pillar Vision, Inc. Systems and methods for determining reduced player performance in sporting events
US9886624B1 (en) 2016-06-03 2018-02-06 Pillar Vision, Inc. Systems and methods for tracking dribbling in sporting environments
CN109691124B (zh) * 2016-06-20 2021-07-27 皮克索洛特公司 用于自动生成视频亮点的方法和系统
JP6776719B2 (ja) * 2016-08-17 2020-10-28 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
JP6918455B2 (ja) 2016-09-01 2021-08-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10642893B2 (en) * 2016-09-05 2020-05-05 Google Llc Generating theme-based videos
US10372970B2 (en) 2016-09-15 2019-08-06 Qualcomm Incorporated Automatic scene calibration method for video analytics
EP3513566A4 (en) 2016-09-16 2019-09-11 Second Spectrum, Inc. METHODS AND SYSTEMS FOR SPATIOTEMPOREL PATTERN RECOGNITION FOR VIDEO CONTENT DEVELOPMENT
US10009586B2 (en) 2016-11-11 2018-06-26 Christie Digital Systems Usa, Inc. System and method for projecting images on a marked surface
US10818018B2 (en) * 2016-11-24 2020-10-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
TWI607387B (zh) 2016-11-25 2017-12-01 財團法人工業技術研究院 字符辨識系統及其字符辨識方法
EP3549063A4 (en) 2016-12-05 2020-06-24 Avigilon Corporation APPEARANCE SEARCH SYSTEM AND METHOD
JP6873678B2 (ja) * 2016-12-09 2021-05-19 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
CN106682598B (zh) * 2016-12-14 2021-02-19 华南理工大学 一种基于级联回归的多姿态的人脸特征点检测方法
US20180181569A1 (en) 2016-12-22 2018-06-28 A9.Com, Inc. Visual category representation with diverse ranking
US10503775B1 (en) 2016-12-28 2019-12-10 Shutterstock, Inc. Composition aware image querying
US11042586B2 (en) 2016-12-29 2021-06-22 Shutterstock, Inc. Clustering search results based on image composition
US10628675B2 (en) * 2017-02-07 2020-04-21 Fyusion, Inc. Skeleton detection and tracking via client-server communication
WO2018177134A1 (zh) 2017-03-29 2018-10-04 腾讯科技(深圳)有限公司 用户生成内容处理方法、存储介质和终端
US11164006B2 (en) * 2017-03-30 2021-11-02 Nec Corporation Information processing apparatus, control method, and program
JP6779365B2 (ja) 2017-03-30 2020-11-04 三菱電機株式会社 物体検出装置及び車両
US10521691B2 (en) 2017-03-31 2019-12-31 Ebay Inc. Saliency-based object counting and localization
CA3061767A1 (en) 2017-05-09 2018-11-15 Neurala, Inc. Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges
US10089556B1 (en) 2017-06-12 2018-10-02 Konica Minolta Laboratory U.S.A., Inc. Self-attention deep neural network for action recognition in surveillance videos
US10162844B1 (en) * 2017-06-22 2018-12-25 NewVoiceMedia Ltd. System and methods for using conversational similarity for dimension reduction in deep analytics
US10402687B2 (en) 2017-07-05 2019-09-03 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
JP6898165B2 (ja) * 2017-07-18 2021-07-07 パナソニック株式会社 人流分析方法、人流分析装置及び人流分析システム
US10431000B2 (en) * 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
KR20190009103A (ko) 2017-07-18 2019-01-28 삼성전자주식회사 외부 객체와의 거리에 기반하여 이동 되는 전자 장치 및 그 제어 방법
JP6867056B2 (ja) * 2017-07-28 2021-04-28 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US11232294B1 (en) 2017-09-27 2022-01-25 Amazon Technologies, Inc. Generating tracklets from digital imagery
JP6543313B2 (ja) 2017-10-02 2019-07-10 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム
US20190108631A1 (en) 2017-10-06 2019-04-11 AgriSight, Inc. System and method for field pattern analysis
US10740620B2 (en) * 2017-10-12 2020-08-11 Google Llc Generating a video segment of an action from a video
AU2017254859A1 (en) 2017-10-31 2019-05-16 Canon Kabushiki Kaisha Method, system and apparatus for stabilising frames of a captured video sequence
CN107871120B (zh) * 2017-11-02 2022-04-19 汕头市同行网络科技有限公司 基于机器学习的体育赛事理解系统及方法
JP6615847B2 (ja) * 2017-11-08 2019-12-04 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
AU2017272325A1 (en) 2017-12-08 2019-06-27 Canon Kabushiki Kaisha System and method of generating a composite frame
CN107944431B (zh) * 2017-12-19 2019-04-26 天津天远天合科技有限公司 一种基于运动变化的智能识别方法
US10529077B2 (en) 2017-12-19 2020-01-07 Canon Kabushiki Kaisha System and method for detecting interaction
US11019283B2 (en) * 2018-01-18 2021-05-25 GumGum, Inc. Augmenting detected regions in image or video data
US20190251204A1 (en) 2018-02-14 2019-08-15 Commvault Systems, Inc. Targeted search of backup data using calendar event data
US10719712B2 (en) 2018-02-26 2020-07-21 Canon Kabushiki Kaisha Classify actions in video segments using play state information
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
CN108509896B (zh) * 2018-03-28 2020-10-13 腾讯科技(深圳)有限公司 一种轨迹跟踪方法、装置和存储介质
EP3553740A1 (en) 2018-04-13 2019-10-16 Koninklijke Philips N.V. Automatic slice selection in medical imaging
US11055902B2 (en) 2018-04-23 2021-07-06 Intel Corporation Smart point cloud reconstruction of objects in visual scenes in computing environments
US20190335192A1 (en) 2018-04-27 2019-10-31 Neulion, Inc. Systems and Methods for Learning Video Encoders
EP3579196A1 (en) * 2018-06-05 2019-12-11 Cristian Sminchisescu Human clothing transfer method, system and device
WO2019244153A1 (en) * 2018-06-21 2019-12-26 Baseline Vision Ltd. Device, system, and method of computer vision, object tracking, image analysis, and trajectory estimation
CN108875667B (zh) * 2018-06-27 2021-03-02 北京字节跳动网络技术有限公司 目标识别方法、装置、终端设备和存储介质
JP7002050B2 (ja) 2018-07-11 2022-02-10 パナソニックIpマネジメント株式会社 撮像装置
US11348252B1 (en) * 2018-07-12 2022-05-31 Nevermind Capital Llc Method and apparatus for supporting augmented and/or virtual reality playback using tracked objects
JP7179515B2 (ja) * 2018-07-13 2022-11-29 キヤノン株式会社 装置、制御方法、及びプログラム
US11070729B2 (en) 2018-07-27 2021-07-20 Canon Kabushiki Kaisha Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus
US10867390B2 (en) * 2018-09-10 2020-12-15 Arm Limited Computer vision processing
WO2020062053A1 (en) * 2018-09-28 2020-04-02 Intel Corporation Methods and apparatus to generate photo-realistic three-dimensional models of photographed environment
JP7132501B2 (ja) * 2018-11-01 2022-09-07 ミツミ電機株式会社 測距カメラ
JP2020086659A (ja) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US11107099B2 (en) 2018-12-21 2021-08-31 Google Llc Brand penetration determination system using image semantic content
WO2020148892A1 (ja) 2019-01-18 2020-07-23 日本電気株式会社 情報処理装置
US11875567B2 (en) * 2019-01-22 2024-01-16 Plaay, Llc System and method for generating probabilistic play analyses
JP2020119284A (ja) * 2019-01-24 2020-08-06 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
CN113508604B (zh) 2019-02-28 2023-10-31 斯塔特斯公司 从广播视频生成可跟踪视频帧的系统及方法
US12046038B2 (en) * 2019-03-22 2024-07-23 The Regents Of The University Of California System and method for generating visual analytics and player statistics
KR20200113743A (ko) 2019-03-26 2020-10-07 한국전자통신연구원 인체 자세 추정 및 보정을 하는 방법 및 장치
US20200311392A1 (en) 2019-03-27 2020-10-01 Agt Global Media Gmbh Determination of audience attention
US10949960B2 (en) 2019-06-20 2021-03-16 Intel Corporation Pose synthesis in unseen human poses
US11030478B1 (en) * 2019-11-27 2021-06-08 Compound Eye, Inc. System and method for correspondence map determination
CA3180473A1 (en) * 2020-05-27 2021-12-02 William G. Near Intelligent sports video and data generation from ai recognition events
US11361468B2 (en) * 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout
US11521411B2 (en) * 2020-10-22 2022-12-06 Disney Enterprises, Inc. System and method for providing multi-camera 3D body part labeling and performance metrics
US20210118182A1 (en) * 2020-12-22 2021-04-22 Intel Corporation Methods and apparatus to perform multiple-camera calibration
KR20230154420A (ko) * 2021-03-05 2023-11-08 트랙맨 에이/에스 플레이어의 식별을 위한 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105653700A (zh) * 2015-03-13 2016-06-08 Tcl集团股份有限公司 视频检索方法及系统
CN108399435A (zh) * 2018-03-21 2018-08-14 南京邮电大学 一种基于动静特征的视频分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Extracting Story Units in Sports Video Based on Unsupervised Video Scene Clustering;CHUNXI LIU;《IEEE》;20060709;摘要,2-4部分 *
Unsupervised Clustering of Dominant Scenes in Sports Video;LU H;《ELSEVIER》;20031101;1-4部分 *

Also Published As

Publication number Publication date
CN113574866B (zh) 2024-08-02
US11379683B2 (en) 2022-07-05
US11935247B2 (en) 2024-03-19
US20240095931A1 (en) 2024-03-21
US20220343110A1 (en) 2022-10-27
US11830202B2 (en) 2023-11-28
EP3912362A1 (en) 2021-11-24
WO2020176875A1 (en) 2020-09-03
CN113508419B (zh) 2024-09-13
EP3935832A1 (en) 2022-01-12
US20230206465A1 (en) 2023-06-29
US20230206464A1 (en) 2023-06-29
US11593581B2 (en) 2023-02-28
WO2020176869A1 (en) 2020-09-03
US20220092344A1 (en) 2022-03-24
WO2020176872A1 (en) 2020-09-03
US11586840B2 (en) 2023-02-21
CN113574866A (zh) 2021-10-29
EP3935832A4 (en) 2023-06-07
US20200279115A1 (en) 2020-09-03
US11861848B2 (en) 2024-01-02
US20200279131A1 (en) 2020-09-03
CN113544698A (zh) 2021-10-22
EP3912089A4 (en) 2022-12-07
EP3912089A1 (en) 2021-11-24
US11176411B2 (en) 2021-11-16
US11861850B2 (en) 2024-01-02
US20240046483A1 (en) 2024-02-08
EP3912132A4 (en) 2022-12-07
EP3912132A1 (en) 2021-11-24
US20240169554A1 (en) 2024-05-23
US11182642B2 (en) 2021-11-23
US20220076054A1 (en) 2022-03-10
US20200279114A1 (en) 2020-09-03
CN113544698B (zh) 2024-11-08
CN117880607A (zh) 2024-04-12
CN113508604A (zh) 2021-10-15
CN113508419A (zh) 2021-10-15
US20240087138A1 (en) 2024-03-14
US20200279398A1 (en) 2020-09-03
WO2020176873A1 (en) 2020-09-03
EP3912362A4 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
CN113508604B (zh) 从广播视频生成可跟踪视频帧的系统及方法
Nguyen et al. STAP: Spatial-temporal attention-aware pooling for action recognition
Liu et al. Deep learning based basketball video analysis for intelligent arena application
Turchini et al. Understanding sport activities from correspondences of clustered trajectories
CN118941640A (zh) 校准捕捉广播视频的移动相机的系统及方法
Pontes et al. Application of machine learning in soccer broadcast: A systematic review
US20230047821A1 (en) Active Learning Event Models
Wilson et al. Event-based sports videos classification using HMM framework
Rughwani Shot Classification and Semantic Query Processing on Broadcast Cricket Videos
Archana et al. Review of Research Issues in Broadcast Sports Video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant