[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6385543B1 - サーバ装置、配信システム、配信方法及びプログラム - Google Patents

サーバ装置、配信システム、配信方法及びプログラム Download PDF

Info

Publication number
JP6385543B1
JP6385543B1 JP2017190511A JP2017190511A JP6385543B1 JP 6385543 B1 JP6385543 B1 JP 6385543B1 JP 2017190511 A JP2017190511 A JP 2017190511A JP 2017190511 A JP2017190511 A JP 2017190511A JP 6385543 B1 JP6385543 B1 JP 6385543B1
Authority
JP
Japan
Prior art keywords
viewer
shooting
distributor
terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017190511A
Other languages
English (en)
Other versions
JP2019068203A (ja
Inventor
量生 川上
量生 川上
寛明 齊藤
寛明 齊藤
尚 小嶋
尚 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2017190511A priority Critical patent/JP6385543B1/ja
Application granted granted Critical
Publication of JP6385543B1 publication Critical patent/JP6385543B1/ja
Priority to US16/140,872 priority patent/US10645274B2/en
Priority to CN201811138081.6A priority patent/CN109587391B/zh
Publication of JP2019068203A publication Critical patent/JP2019068203A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】配信者が視聴者から撮影画像を収集することを円滑化するサーバ装置等を提供する。【解決手段】サーバ装置100は、ライブコンテンツの配信者が使用する配信者端末と、ライブコンテンツの視聴者が使用する視聴者端末と通信する。サーバ装置100は、撮影条件取得部142と、撮影指示信号送信部143と、撮影画像取得部144とを備える。撮影条件取得部142は、配信者によって設定された撮影条件を配信者端末から取得する。撮影指示信号送信部143は、視聴者が撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する。撮影画像取得部144は、撮影動作によって得られた撮影画像を視聴者端末から取得する。【選択図】図2

Description

本開示は、サーバ装置、配信システム、配信方法及びプログラムに関する。
近年、ライブコンテンツを、ネットワークを介して配信するサービスが普及している。このようなライブコンテンツは、インターネット生放送とも称される。
ライブコンテンツを配信する配信者は、視聴者数を増やすために、生放送中に視聴者とコミュニケーションを取ることがある。例えば、配信者が視聴者の撮影画像を収集して、それを配信に利用することが考えられる。
しかし、配信者が視聴者に対し、撮影と撮影した画像データの送信を要求しても、拒否されやすい。これは、視聴者に判断する間が与えられるからである。一方、配信者がエンタメ性のあるキッカケによって視聴者を誘導すれば、視聴者は撮影行為に同意しやすい。そのため、エンタメ性のあるキッカケを導入して、視聴者からの撮影画像の収集を円滑化することが望ましい。
ところで、特許文献1には、ゲームセンタで使用される写真プリント提供装置が開示されている。この装置は、選択された撮影コースに応じて、音声とアニメーションによりガイダンスを行い、10ショット、6ショット等の繰り返し撮影を行う。
特許文献2には、所定の音声又はポーズをトリガーとしてオート撮影を行う装置が開示されている。また、特許文献2には、コントロール部が撮像部とBluetooth(登録商標)に基づく近距離無線通信を行い、遠隔でオート撮影することが開示されている。
特開2006−58798号公報 特開2016−72673号公報
特許文献1に開示されている装置は、音声とアニメーションによるガイダンスによって被写体を誘導する。しかし、この誘導は、所望の撮影を行うための誘導であり、被写体を撮影行為に同意しやすくするための誘導ではない。特許文献2に開示されている装置は、所定の音声又はポーズを撮影条件としている。しかし、この撮影条件も、被写体を撮影行為に同意しやすくするための誘導ではない。
また、特許文献1は、撮影実行者が撮影場所にいることを前提としている。一方、特許文献2は、遠隔でオート撮影することについても開示している。しかし、近距離無線通信であるため、撮影実行者は撮影場所の付近(例えば撮影場所から20m以内)にいなければならない。そのため、特許文献1、2が開示する技術は、被写体となる視聴者から遠く離れた配信者が撮影実行者として視聴者から撮影画像の収集を行うことには適用できない。
このように、特許文献1、2は、配信者が視聴者から撮影画像を収集することを円滑化することについて開示していない。
そこで、本開示はこのような事情に鑑み、配信者が視聴者から撮影画像を収集することを円滑化するサーバ装置等を提供することを目的とする。
上記目的を達成するため、本開示の第1の観点に係るサーバ装置は、ライブコンテンツの配信者が使用する配信者端末と、ライブコンテンツの視聴者が使用する視聴者端末と通信するサーバ装置であって、配信者によって設定された撮影条件を配信者端末から取得する撮影条件取得部と、視聴者が撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する撮影指示信号送信部と、撮影動作によって得られた撮影画像を視聴者端末から取得する撮影画像取得部と、を備えることを特徴とする。
また、上記目的を達成するため、本開示の第2の観点に係る配信システムは、ライブコンテンツの配信者によって使用される配信者端末と、ライブコンテンツの視聴者によって使用される視聴者端末と、配信者端末及び視聴者端末と通信するサーバ装置と、を備える配信システムであって、配信者端末は、配信者によって設定された撮影条件をサーバ装置に送信し、サーバ装置は、視聴者が撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信し、視聴者端末は、撮影動作によって得られた撮影画像をサーバ装置に送信する、ことを特徴とする。
また、上記目的を達成するため、本開示の第3の観点に係る配信方法は、配信者によって設定された撮影条件を配信者端末から取得する撮影条件取得ステップと、視聴者が撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する撮影指示信号送信ステップと、撮影動作によって得られた撮影画像を視聴者端末から取得する撮影画像取得ステップと、を含むことを特徴とする。
また、上記目的を達成するため、本開示の第4の観点に係るプログラムは、コンピュータを、配信者によって設定された撮影条件を配信者端末から取得する撮影条件取得手段、視聴者が撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する撮影指示信号送信手段、撮影動作によって得られた撮影画像を視聴者端末から取得する撮影画像取得手段、として機能させる。
本開示によれば、配信者が視聴者から撮影画像を収集することを円滑化することができる。
第1実施形態に係る配信システムの構成例を示す図である。 第1実施形態に係るサーバ装置の構成例を示すブロック図である。 第1実施形態に係る配信者端末の構成例を示すブロック図である。 第1実施形態に係る視聴者端末の構成例を示すブロック図である。 視聴者端末に表示される画面の一例(その1)を示す図である。 視聴者端末に表示される画面の一例(その2)を示す図である。 視聴者端末に表示される画面の一例(その3)を示す図である。 第1実施形態に係るサーバ装置が実行する制御処理の一例を示すフローチャートである。 第1実施形態に係るサーバ装置が配信する写真集の一例を示す図である。 第2実施形態に係る配信システムの構成例を示す図である。 第2実施形態に係るサーバ装置の構成例を示すブロック図である。 第2実施形態に係る配信者端末の構成例を示すブロック図である。 第2実施形態に係るサーバ装置が実行する制御処理の一例を示すフローチャートである。 第2実施形態に係るサーバ装置が配信する集合写真を示す画像の一例を示す図である。
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
(第1実施形態)
図1に示すように、本実施形態に係る配信システム1は、サーバ装置100と、配信者端末200と、一台以上の視聴者端末300とを備える。サーバ装置100と、配信者端末200と、視聴者端末300とは、それぞれネットワークNWを介して通信可能に接続される。ネットワークNWは、例えばWAN(World Area Network)である。
サーバ装置100は、ネットワークNWを介して配信サービスを提供する。サーバ装置100は、配信者端末200からの受信データに基づいて、ライブコンテンツを視聴者端末300に配信する。
配信者端末200は、パーソナルコンピュータ、タブレット端末、スマートフォン等の通信機能を有する装置である。配信者端末200は、ライブコンテンツを配信する配信者によって使用される。
視聴者端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等の通信機能を有する装置である。視聴者端末300は、ライブコンテンツを視聴する視聴者によって使用される。
<サーバ装置の構成>
以下、サーバ装置100の構成を詳細に説明する。図2に示すように、サーバ装置100は、他の装置と通信を行う通信部110と、各種データを記憶する記憶部120と、時刻を計時する計時部130と、装置全体の制御を行う制御部140とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部110は、有線通信又は無線通信を行うためのNIC(Network Interface Card controller)を備える通信インターフェースである。通信部110は、ネットワークNWを介して、配信者端末200及び視聴者端末300と通信を行う。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。記憶部120は、各種制御処理を実行するためのプログラム、各種データ等を記憶する。
計時部130は、クロック信号を生成するための発振回路及び可変PLL(Phase Locked Loop)、クロック信号のパルス数をカウントするカウンタ回路等から構成される。計時部130はカウントされるパルス数に基づいて時刻を計時する。
制御部140は、CPU(Central Processing Unit)等から構成される。制御部140は、記憶部120に記憶されているプログラムを実行することにより、サーバ装置100の全体の動作を制御する。制御部140は、計時部130がカウントするパルス数に基づいたタイミングで各種制御を実行する。また、制御部140は、計時部130が計時する時刻に基づいて、コンテンツの開始時点からの経過時間をカウントしたり、予め定められた時間を経過したか否かを判別したりする。
以下、制御部140の機能的な構成を説明する。制御部140は、配信部141、撮影条件取得部142、撮影指示信号送信部143、撮影画像取得部144として機能する。
配信部141は、通信部110を介して配信者端末200から、ライブコンテンツを構成する撮影データ、音声データ等を受信する。配信部141は、受信した配信データに基づいてライブコンテンツを生成し、生成したライブコンテンツを、通信部110を介して視聴者端末300へ配信する。
また、配信部141は、配信者端末200又は視聴者端末300からの受信データに基づいて各種画像データ、音声データ等を生成し、それらを配信者端末200及び視聴者端末300に配信する。各種画像データは、例えば、視聴者端末300から受信した撮影画像、その撮影画像を加工した画像、視聴者端末300から受信した複数の撮影画像に基づいて生成した写真集等である。音声データは、例えば、視聴者端末300から受信した音声データに基づいて生成した、写真集とともに配信される音声データである。
撮影条件取得部142は、通信部110を介して配信者端末200から、撮影条件を受信する。これにより、撮影条件取得部142は、撮影条件を取得する。撮影条件は、配信者によって設定された被写体条件又は音声入力条件である。被写体条件と音声入力条件の詳細については後述する。なお、撮影条件は、複数の視聴者端末300のそれぞれによって異なっていてもよいし、同一であってもよい。
撮影指示信号送信部143は、通信部110を介して、撮影指示信号を視聴者端末300に送信する。撮影指示信号は、視聴者が撮影条件を満たした場合に、視聴者端末300に撮影動作を実行させる制御信号である。撮影指示信号送信部143は、複数の視聴者端末300のいくつかに撮影指示信号を配信してもよい。撮影指示信号送信部143は、一つの視聴者端末300のみに撮影指示信号を送信してもよい。
撮影画像取得部144は、通信部110を介して、視聴者端末300の撮影動作によって得られた撮影画像を視聴者端末300から受信する。これにより、撮影画像取得部144は、撮影画像を取得する。
<配信者端末の構成>
以下、配信者端末200の構成を詳細に説明する。図3に示すように、配信者端末200は、他の装置と通信を行う通信部210と、ユーザの操作を受け付ける操作部220と、各種データを記憶する記憶部230と、各種画像を表示する表示部240と、音声入力を受け付ける音声入力部250と、撮像を行う撮像部260と、装置全体の制御を行う制御部270とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部210は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部210は、ネットワークNWを介して、サーバ装置100と通信を行う。
操作部220は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部230は、RAM、ROM等から構成される。記憶部230は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部240は、例えば、LCD、ELディスプレイ等によって構成される。表示部240は、制御部270からの入力データに応じてテキスト、画像等を表示する。
音声入力部250は、マイクロフォン等から構成される。音声入力部250は外部から入力された音声を受け付けて音声データを取得する。
撮像部260は、レンズ、イメージセンサ、集積回路等を備えるカメラである。撮像部260は、外部を撮影して撮影データを取得する。撮影データは静止画データであってもよいし、動画データであってもよい。
制御部270は、CPU等から構成される。制御部270は、記憶部230に記憶されているプログラムを実行することにより、配信者端末200の全体の動作を制御する。
以下、制御部270の機能的な構成を説明する。制御部270は、配信データ送信部271、撮影条件送信部272として機能する。
配信データ送信部271は、通信部210を介してサーバ装置100に配信データを送信する。例えば、配信データ送信部271は、音声入力部250において取得した音声データと撮像部260において取得した撮影データとを配信データとしてサーバ装置100に送信する。
撮影条件送信部272は、操作部220を介して、ユーザによる撮影条件の設定を受け付ける。撮影条件送信部272は、通信部210を介して、その撮影条件をサーバ装置100に送信する。
<視聴者端末の構成>
以下、視聴者端末300の構成を詳細に説明する。図4に示すように、視聴者端末300は、他の装置と通信を行う通信部310と、ユーザの入力操作を受け付ける操作部320と、各種データを記憶する記憶部330と、各種画像を表示する表示部340と、音声を出力する音声出力部350と、音声入力を受け付ける音声入力部360と、撮像を行う撮像部370と、装置全体の制御を行う制御部380とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部310は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部310は、ネットワークNWを介して、サーバ装置100と通信を行う。
操作部320は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部330は、RAM、ROM等から構成される。記憶部330は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部340は、例えば、LCD、ELディスプレイ等によって構成される。表示部340は、制御部380からの入力データに応じてテキスト、画像等を表示する。
音声出力部350は、スピーカー、アンプ等から構成される。音声出力部350は制御部380からの入力データに応じて音声を出力する。
音声入力部360は、マイクロフォン等から構成される。音声入力部360は、外部から入力された音声を受け付けて音声データを取得する。
撮像部370は、レンズ、イメージセンサ、集積回路等を備えるカメラである。撮像部370は、外部を撮影して撮影データを取得する。撮影データは静止画データであってもよいし、動画データであってもよい。本実施形態では、撮影データが、写真すなわち静止画データである場合を説明する。
制御部380は、CPU等から構成される。制御部380は、記憶部330に記憶されているプログラムを実行することにより、視聴者端末300の全体の動作を制御する。
以下、制御部380の機能的な構成を説明する。制御部380は、コンテンツ取得部381、撮影指示信号取得部382、表示制御部383、音声出力制御部384、画像認識部385、音声認識部386、撮影実行部387として機能する。
コンテンツ取得部381は、サーバ装置100から配信されるライブコンテンツのデータを、通信部310を介して受信し、コンテンツデータを取得する。
撮影指示信号取得部382は、通信部310を介して、サーバ装置100から撮影指示信号を受信し、撮影指示信号を取得する。
表示制御部383は、表示部340を制御して、テキスト、画像等を表示する。例えば、表示制御部383は、コンテンツ取得部381が取得したライブコンテンツの映像を、表示部340に表示させる。また、表示制御部383は、撮影指示信号取得部382が取得した撮影指示信号に基づいて、撮影画面と被写体条件又は音声入力条件を示す情報とを表示部340に表示させる。
音声出力制御部384は、音声出力部350を制御して、音声を出力する。例えば、音声出力制御部384は、ライブコンテンツの音声を出力する。撮影指示信号取得部382が取得した撮影指示信号に応じて、所定の通知音を音声出力部350に出力させる。
所定の通知音は、例えば、視聴者端末300が撮影指示信号を受信したことを示す通知音、撮影完了又は撮影失敗を示す通知音、撮影動作の待機時間を示す通知音等である。撮影動作の待機時間とは、撮影指示信号を受信した後の予め定められた時間であって、表示部340が撮影画面を表示している時間である。
画像認識部385は、撮像部370に映っている画像(すなわち撮影画面に映っている画像)の画像認識を行う。画像認識部385は、撮影動作の待機時間において画像認識を行い、視聴者が被写体条件を満たしたか否かを判別する。
音声認識部386は、音声入力部360に入力された音声の音声認識を行う。撮影動作の待機時間において、音声認識部386は音声認識を行い、視聴者が音声入力条件を満たしたか否かを判別する。
撮影実行部387は、撮像動作の待機時間において、視聴者が撮影条件を満たした場合に撮影動作を実行する。具体的には、撮影実行部387は、撮像部370を制御して写真撮影を行う。この撮影動作によって得られた写真を示す撮影データは、通信部310を介して、サーバ装置100に送信される。
<撮影条件>
以下、撮影条件について3つの例を挙げて説明する。まず、撮影条件の第1の例を説明する。図5は、視聴者端末300に表示される画面の一例(その1)を示している。この画面では、上部に撮影画面A1が表示され、下部に撮影条件を説明するメッセージボックスA2が表示される。撮影画面A1に映っている人物は視聴者である。なお、撮影画面A1は、視聴者端末300が撮影指示信号を受信した場合に一定時間だけ表示される。それ以外の時間では、撮影画面A1の代わりに、ライブコンテンツの映像が表示される。
撮影画面A1上には、被写体条件として、視聴者の顔を当てはめるための矩形状のフレームF1が表示される。このフレームF1内に視聴者の顔が収まると、画像認識部385が被写体条件を満たしたと判別し、撮影実行部387が撮影動作を実行する。
撮影実行部387は、撮影動作において、撮影画面A1に映っている全部を静止画として取得してもよいし、フレームF1の中の画像部分のみを抽出した静止画を取得してもよい。なお、フレームF1は、図5に示す例に限らず、視聴者の体の一部又は全部のシルエットをはめるための大きさと形状とを有するものであってもよい。例えば、視聴者の腕を屈曲してはめる形状であってもよいし、手のひらをはめ込む手形形状であってもよい。
フレームF1の形状、大きさ等は、配信者端末200を使用する配信者によって設定される。配信者は、サーバ装置100を介して、複数の視聴者端末300に撮影指示信号を送信する場合、複数の視聴者端末300のそれぞれに異なるフレームF1を設定してもよい。例えば、フレームF1は、各々の視聴者端末300において固有に設定されてもよい。また、一部の視聴者端末300には、第1のフレームF1が設定され、他の一部の視聴者端末300には第1のフレームF1とは異なるフレームF1が設定されてもよい。すなわち、配信者は、複数パターンのフレームF1を設定することが可能である。
撮影条件の第2の例を説明する。図6は、視聴者端末300に表示される画面の一例(その2)を示している。この画面では、図5と同様に、撮影画面A1とメッセージボックスA2とが表示される。撮影画面A1に映っている人物は視聴者である。
撮影画面A1上には、被写体条件として、視聴者に要求するポーズP1が表示される。視聴者が、このポーズP1と同じポーズをとると、画像認識部385が被写体条件を満たしたと判別し、撮影実行部387が撮影動作を実行する。
撮影実行部387は、撮影動作において、撮影画面A1に映っている全部を静止画として取得してもよいし、認識された視聴者の画像部分のみを抽出した静止画を取得してもよい。なお、図6では、ポーズP1が両手を頭上に上げるポーズを示している。しかし、ポーズP1は、図6に示す例に限らず、起立するポーズ、両目を手で覆うポーズ等であってもよい。
ポーズP1は、配信者端末200を使用する配信者によって設定される。配信者は、サーバ100を介して、複数の視聴者端末300に撮影指示信号を送信する場合、複数の視聴者端末300のそれぞれに異なるポーズP1を設定してもよい。
撮影条件の第3の例を説明する。図7は、視聴者端末300に表示される画面の一例(その3)を示している。この画面では、図5と同様に、撮影画面A1とメッセージボックスA2とが表示される。撮影画面A1に映っている人物は視聴者である。
メッセージボックスA2には、音声入力条件として、視聴者が音声入力すべきセリフが表示される。この例では、セリフは「レッツ ゴー」である。視聴者が、このセリフを読み上げると、音声認識部386が音声入力条件を満たしたと判別し、撮影実行部387が撮影動作を実行する。撮影実行部387は、撮影動作において、撮影画面A1に映っている全部を静止画として取得する。
セリフは、配信者端末200を使用する配信者によって設定される。配信者は、サーバ100を介して、複数の視聴者端末300に撮影指示信号を送信する場合、複数の視聴者端末300のそれぞれに異なるセリフを設定してもよい。
<処理の流れ>
以下、図8を参照しながら、サーバ装置100が実行する制御処理の一例を説明する。この処理は、配信者端末200がサーバ装置100にログインして、ライブコンテンツの配信を開始したことを契機に実行される。なお、ここでは、サーバ装置100が、複数の視聴者端末300から撮影画像を収集し、それに基づいて生成した写真集を配信する例を説明する。
まず、制御部140の撮影条件取得部142は、配信者端末200から配信者によって設定された撮影条件を取得する(ステップS101)。ここでは、配信者が設定した撮影条件が第1の例で説明した被写体条件である場合を説明する。
次に、制御部140の撮影指示信号送信部143は、取得した撮影条件に基づいて撮影指示信号を生成し、複数の視聴者端末300に送信する(ステップS102)。なお、撮影条件が視聴者端末300毎に設定されている場合、各々の視聴者端末300に異なる撮影指示信号が送信される。
撮影指示信号を受信した視聴者端末300は、被写体条件として、撮影画面A1上に視聴者の体の一部のシルエットをはめるためのフレームF1を表示させる。この際、視聴者端末300は所定の通知音を出力してもよい。視聴者端末300は、視聴者の体の一部のシルエットがフレームF1に入ったことを認識した場合に撮影動作を実行する。フレームF1は、撮影動作の実行完了又は撮影待機時間の終了までの時間において継続的に表示される。視聴者端末300は、撮影動作によって得られた撮影画像をサーバ装置100に送信する。
制御部140の撮影画像取得部144は、通信部110を介して、視聴者端末300から撮影動作によって得られた撮影画像を取得する(ステップS103)。複数の視聴者端末300が撮影動作を実行している場合、制御部140の撮影画像取得部144は、それらのすべての撮影画像を収集する。
制御部140の配信部141は、取得した撮影画像に基づいて写真集を生成する(ステップS104)。例えば、図9は、3つの視聴者端末300から取得した撮影画像に基づいて生成された写真集を示している。この例では、撮影画像は、フレームF1の中の画像部分(視聴者の顔の部分)を抽出した画像である。制御部140の配信部141は、この例のように、複数の撮影画像を並べた写真集を生成してもよいし、複数の撮影画像をスライドショーのように順番に表示する写真集を生成してもよい。
制御部140の配信部141は、通信部110を介して、生成した写真集を配信先に配信する(ステップS105)。配信先は、ネットワークNWを介して接続されているすべての視聴者端末300であってもよいし、一部の視聴者端末300だけであってもよい。また、配信先は、視聴者端末300だけでなく、配信者端末200を含んでいてもよい。
<効果の説明>
本実施形態に係る配信システム1によれば、例えば、配信者は、視聴者に対して写真集の作成を提案し、撮影条件を設定することができる。撮影条件に基づいて生成される撮影指示信号は、視聴者端末300に、フレームF1を表示させたり、ポーズP1を表示させたり、合図となる音声入力条件を表示させたりする。視聴者端末300がこのような表示を行う撮影待機時間は、撮影指示信号受信後に開始され、時間が限られている。
この場合、視聴者が撮影に応じるかどうかを考える時間は少ない。そのため、視聴者が撮影行為に同意しやすいように視聴者を誘導することができる。特に、配信者が、視聴者にセリフ、ポーズ等を要求すれば、それに基づいて特徴的な写真集を生成することができる。そのため、配信者は、視聴者にエンタメ性のあるキッカケを与えて、視聴者からの撮影画像の収集を円滑に行うことができる。
(第2実施形態)
本実施形態では、集合写真を生成して配信する配信システム2について説明する。なお、以下の説明において、第1実施形態に係る配信システム1と共通する構成要素については同一の符号を付する。
図10に示すように、配信システム2は、サーバ装置400と、配信者端末500と、複数の視聴者端末300とを備える。サーバ装置400と、配信者端末500と、視聴者端末300とは、それぞれネットワークNWを介して通信可能に接続される。
図11に示すように、サーバ装置400は、通信部110と、記憶部120と、計時部130と、制御部440とを備える。制御部440の配信部441は、集合写真を生成し、生成した集合写真を配信する点で第1実施形態のサーバ装置100の配信部141とは異なる。
図12に示すように、配信者端末500は、通信部210と、操作部220と、記憶部230と、表示部240と、音声入力部250と、撮像部260と、制御部570とを備える。制御部570は、表示制御部573と、画像認識部574と、音声認識部575と、撮影実行部576とを備える点で第1実施形態のサーバ装置100の制御部270とは異なる。
表示制御部573は、表示部240を制御して、テキスト、画像等を表示する。例えば、表示制御部573は、配信しているライブコンテンツの撮影画面を表示部240に表示させる。また、表示制御部573は、操作部220を介して設定された配信者用の被写体条件又は音声入力条件を示す情報を表示部240に表示させる。
画像認識部574は、撮像部260に映っている画像(すなわち撮影画面に映っている画像)の画像認識を行う。画像認識部574は、予め定められた撮影動作の待機時間において画像認識を行い、配信者が被写体条件を満たしたか否かを判別する。配信者端末500の撮影動作の待機時間は、撮影条件送信部272が撮影条件を送信するタイミングで開始してもよいし、配信者が操作部220を介して撮影動作の実行を指示したタイミングで開始してもよい。
音声認識部575は、音声入力部250に入力された音声の音声認識を行う。音声認識部575は、予め定められた撮影動作の待機時間において、音声認識を行い、配信者が音声入力条件を満たしたか否かを判別する。
撮影実行部576は、配信者が被写体条件又は音声入力条件を満たした場合に、撮像部260を制御して、撮影動作を実行する。なお、撮影実行部576は、配信者が操作部220を介して撮影動作の実行を指示したタイミングで撮影動作を実行してもよい。配信者端末500の撮影動作は、その撮影実行時のタイミングで、配信しているライブコンテンツの撮影画面の一部又は全部を静止画として取得するものである。また、撮影実行部576は、撮影動作によって得られた撮影画像を、通信部210を介してサーバ装置400に送信する。
なお、画像認識部574は、例えば、視聴者端末300の被写体条件と同様に、配信者がフレームF1の中に体の一部のシルエットを収めたか否か、ポーズP1をとったりしたか否か等によって被写体条件を満たしたか否かを判別する。音声認識部575は、例えば、視聴者端末300の音声入力条件と同様に、配信者が設定したセリフを読み上げたか否かによって音声入力条件を満たしたか否かを判別する。
<処理の流れ>
以下、図13を参照しながら、サーバ装置400が実行する制御処理の一例を説明する。この処理は、配信者端末500がサーバ装置400にログインして、ライブコンテンツの配信を開始したことを契機に実行される。なお、ここでは、サーバ装置400が、配信者端末500と、複数の視聴者端末300とから撮影画像を収集し、それに基づいて生成した集合写真を配信する例を説明する。
まず、制御部440の撮影条件取得部142は、配信者端末200から配信者によって設定された撮影条件を取得する(ステップS201)。ここでは、配信者が設定した撮影条件が第1の例で説明した被写体条件である場合を説明する。また、配信者が配信者端末500についても撮影条件として被写体条件を設定している場合を説明する。
なお、サーバ装置400に撮影条件を送信した配信者端末500では、撮影待機時間が開始して、画像認識部574は画像認識を行い、配信者が被写体条件を満たしたか否かを判別する。配信者端末500の撮影実行部576は、配信者が被写体条件を満たした場合に撮像部260を制御して、撮影動作を実行する。
次に、制御部440の撮影指示信号送信部143は、取得した撮影条件に基づいて撮影指示信号を生成し、複数の視聴者端末300に送信する(ステップS202)。なお、撮影条件が視聴者端末300毎に設定されている場合、各々の視聴者端末300に異なる撮影指示信号が送信される。
撮影指示信号を受信した視聴者端末300は、被写体条件として、撮影画面A1上に視聴者の体の一部のシルエットをはめるためのフレームF1を表示させる。この際、視聴者端末300は所定の通知音を出力してもよい。視聴者端末300は、視聴者の体の一部のシルエットがフレームF1に入ったことを認識した場合に撮影動作を実行する。フレームF1は、撮影動作の実行完了又は撮影待機時間の終了までの時間において継続的に表示される。視聴者端末300は、撮影動作によって得られた撮影画像をサーバ装置400に送信する。
制御部440の撮影画像取得部144は、通信部110を介して、配信者端末500及び複数の視聴者端末300のそれぞれから撮影動作によって得られた撮影画像を取得する(ステップS203)。
制御部440の配信部441は、収集した撮影画像に基づいて集合写真を生成する(ステップS204)。例えば、図14は、5つの視聴者端末300から取得した撮影画像と、配信者端末500から取得した撮影画像とに基づいて生成された集合写真を示している。
この例では、撮影画像は、フレームF1の中の画像部分(視聴者又は配信者の顔の部分)を抽出した画像である。この集合写真は、配信者と視聴者の合計人数に基づいて生成した背景画像に、配信者と視聴者1、2、3、4、5の顔部分の撮影画像を組み込んで生成されている。制御部440の配信部441は、この例のように、複数の撮影画像を並べた集合写真を生成する。
制御部440の配信部441は、通信部110を介して、生成した集合写真を配信先に配信する(ステップS205)。配信先は、ネットワークNWを介して接続されているすべての視聴者端末300であってもよいし、一部の視聴者端末300だけであってもよい。また、配信先は、視聴者端末300だけでなく、配信者端末500を含んでいてもよい。
<効果の説明>
本実施形態に係る配信システム2によれば、例えば、配信者は、視聴者に対して集合写真の作成を提案し、撮影条件を設定することができる。撮影条件に基づいて生成される撮影指示信号は、視聴者端末300に、フレームF1を表示させたり、ポーズP1を表示させたり、合図となる音声入力条件を表示させたりする。視聴者端末300がこのような表示を行う撮影待機時間は、撮影指示信号受信後に開始され、時間が限られている。
この場合、視聴者が撮影に応じるかどうかを考える時間は少ない。そのため、視聴者が撮影行為に同意しやすいように視聴者を誘導することができる。特に、配信者が、視聴者にセリフ、ポーズ等を要求すれば、それに基づいて特徴的な集合写真を生成することができる。また、配信者と複数の視聴者とが一緒に写った集合写真を生成する場合、視聴者は配信サービス特有の集合写真を得ることができるため、撮影行為に対する参加意欲が増す。その結果、配信者は、視聴者にエンタメ性のあるキッカケを与えて、視聴者からの撮影画像の収集を円滑に行うことができる。
以上で実施形態の説明を終了するが、上記実施形態は一例に過ぎない。そのため、配信システム1、2の具体的な構成、処理の内容等は上記実施形態で説明したものに限られない。以下、上記実施形態の変形例について説明する。
(変形例)
まず、音声入力条件は、上記実施形態に示すものに限られない。例えば、複数の視聴者端末300のそれぞれに異なるセリフを設定する場合、セリフは、他の視聴者のセリフと組み合わせることによって完成するシナリオの一部であってもよい。例えば、複数の視聴者端末300のうち、第1の視聴者端末300に表示されるセリフが「配信者Aは人気者です」であり、第2の視聴者端末300に表示されるセリフが「しかし、配信者Aには敵がたくさんいます」であり、第3の視聴者端末300に表示されるセリフが「だから、みんなで配信者Aを応援しましょう」であってもよい。
この場合において、視聴者端末300の撮影実行部387は、撮影動作において取得した撮影データだけでなく、音声入力条件に応じて入力された音声データも通信部310を介してサーバ装置100、400に送信してもよい。この場合、サーバ装置100、400には、撮影画像取得部144だけでなく、通信部310を介して受信した音声データを取得する音声データ取得部が設けられる。
かかる構成により、サーバ装置100、400は、各々の視聴者端末300から撮影データと音声データを取得し、それらを組み合わせてストーリー性のある写真集を生成することができる。この場合、サーバ装置100、400は、音声データを組み込んだ写真集や集合写真を配信することも可能である。
また、セリフは、配信者が用意した題目に対する回答であってもよい。例えば、配信者が合言葉の上の句を読み上げた場合に、視聴者端末300の音声入力条件は、それに対する下の句がセリフであってもよい。また、セリフは、配信者が用意したクイズの質問に対する回答であってもよい。
上記実施形態において、サーバ装置100、400は、写真集や集合写真ではなく、取得した撮影画像をそのまま配信してもよい。また、上記実施形態では、配信者端末500や視聴者端末300に1回の撮影動作を実行させる例を説明したが、これに限られない。例えば、撮影条件を一つの視聴者端末300に送信し、その視聴者端末300に撮影動作を繰り返し実行させてもよい。この場合、サーバ装置100、400は、その視聴者端末300から複数の撮影画像を取得して、写真集を生成してもよい。
第1実施形態において、サーバ装置100は、配信者端末200から撮影画像を取得せず、視聴者端末300から取得した撮影画像のみで写真集を生成している。しかし、サーバ装置100は、配信者端末200が撮影した撮影画像を取得して、それを写真集に加えてもよい。第2実施形態において、サーバ装置400は、配信者端末500が撮影した撮影画像を取得して、それを集合写真に含めている。しかし、集合写真は、複数の視聴者端末300から収集した撮影画像のみで生成されてもよい。
上記実施形態において、サーバ装置100、400の撮影指示信号送信部143は、
配信者がクイズの質問、合言葉の上の句等の題目を読み上げたことを契機に、視聴者端末300に音声入力条件となるセリフを表示させてもよい。
このような動作を実現するために、例えば、配信者端末200、500には、配信者用の音声入力条件を満たしたか否かを判別する音声認識部が設けられる。配信者端末200、500の音声認識部が音声入力条件を満たしたと判別した場合に、配信者端末200、500はサーバ装置100、400に撮影指示信号の送信指示を通知する。この通知に基づいて、サーバ装置100、400の撮影指示信号送信部143は、視聴者端末300に音声入力条件となるセリフを表示させることができる。
上記実施形態では、撮影対象となる被写体は人間(視聴者又は配信者)である。しかし、被写体は人間に限られない。例えば、被写体はペット、置物、物体等であってもよい。例えば、配信者が撮影条件として音声入力条件を設定し、視聴者又は配信者が被写体を撮影画面A1に表示される位置に配置して、音声入力条件となる音声を入力することによって被写体を撮影することができる。この場合、被写体が何であるかを画像認識する必要がないため、被写体は何であってもよい。
上記実施形態では、配信者が設定した撮影条件が第3の例で説明した音声入力条件である場合、フレームF1が撮影画面A1上に表示されていない。しかし、撮影条件が音声入力条件であっても、配信者端末200、500や視聴者端末300が撮影画面A1上にフレームF1を表示してもよい。かかる構成によれば、配信者や視聴者は、フレームF1の中の画像部分を抽出して画像が撮影画像となることを認識したうえで撮影動作に応じることができる。
上記実施形態において、サーバ装置100、400は、写真集、集合写真、撮影画像等を、撮影動作を実行した視聴者端末300のみに配信し、撮影動作を実行しなかった視聴者端末300には配信しない構成としてもよい。この場合、配信される写真集、集合写真、撮影画像等を欲している視聴者は、撮影動作に応じやすくなる。そのため、視聴者からの撮影画像の収集をより円滑化することができる。また、サーバ装置100、400の配信部141、441は、撮影画像を加工した画像を配信者端末200、500又は視聴者端末300に配信してもよい。
上記実施形態において、視聴者端末300は、サーバ装置100、400に撮影画像を送信する前に、撮影画像を送信してよいか否かを確認する画面を表示してもよい。視聴者端末300は、その画面を表示している間に、撮影画像の送信を中止する操作を受け付けてもよい。かかる構成によれば、視聴者は、撮影画像を送信したくない場合(例えば、うまく撮影できなかった場合)に撮影画像の送信を中止することができる。
また、上記実施形態において、視聴者端末300は、サーバ装置100、400が撮影画像を配信する前に、撮影画像を配信してよいか否かを確認する画面を表示してもよい。視聴者端末300は、その画面を表示している間に、撮影画像の配信を中止する操作を受け付けて、サーバ装置100、400に配信を中止する指示を送信してもよい。かかる構成によれば、視聴者は、撮影画像を配信したくない場合(例えば、撮影動作実行後に視聴者の気が変わった場合)に撮影画像の配信を中止することができる。
上記実施形態に係る配信システム1、2では、配信者端末200、500と視聴者端末300とを異なる構成とし、両者を区別可能にしている。しかし、配信者端末200、500の構成と視聴者端末300の構成を組み合わせて、その装置を配信者端末としても視聴者端末としても機能する構成としてもよい。
また、本開示に係る配信システムは、上記装置によらず、例えば、コンピュータがプログラムを実行することで、その機能を実現してもよい。配信システムの機能を実現するためのプログラムは、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disc)、HDD(Hard Disc Drive)等のコンピュータ読み取り可能な記録媒体に記憶されてもよいし、ネットワークを介してコンピュータにダウンロードされてもよい。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
1,2…配信システム、100,400…サーバ装置、200,500…配信者端末、300…視聴者端末、110,210,310…通信部、220,320…操作部、120,230,330…記憶部、130…計時部、240,340…表示部、250,360…音声入力部、350…音声出力部、260,370…撮像部、140,270,380,440,570…制御部、141,441…配信部、142…撮影条件取得部、143…撮影指示信号送信部、144…撮影画像取得部、271…配信データ送信部、272…撮影条件送信部、381…コンテンツ取得部、382…撮影指示信号取得部、383,573…表示制御部、384…音声出力制御部、385,574…画像認識部、386,575…音声認識部、387,576…撮影実行部


Claims (20)

  1. ライブコンテンツの配信者が使用する配信者端末と、該ライブコンテンツの視聴者が使用する視聴者端末と通信するサーバ装置であって、
    前記配信者によって設定された撮影条件を前記配信者端末から取得する撮影条件取得部と、
    前記視聴者が前記撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を前記視聴者端末に送信する撮影指示信号送信部と、
    前記撮影動作によって得られた撮影画像を前記視聴者端末から取得する撮影画像取得部と、
    を備えることを特徴とするサーバ装置。
  2. 前記撮影画像取得部が複数の前記視聴者端末のそれぞれから取得した前記撮影画像を複数の前記視聴者端末に配信する配信部をさらに備える、
    ことを特徴とする請求項1に記載のサーバ装置。
  3. 前記配信部は、前記撮影画像を加工した画像を複数の前記視聴者端末に配信する、
    ことを特徴とする請求項2に記載のサーバ装置。
  4. 前記撮影画像取得部は、複数の前記視聴者端末のそれぞれから前記撮影画像を取得し、
    前記配信部は、前記取得した撮影画像に基づいて生成された写真集又は集合写真を配信する、
    ことを特徴とする請求項2又は3に記載のサーバ装置。
  5. 前記写真集又は集合写真は、前記配信者端末が撮影した撮影画像に基づく画像を含む、
    ことを特徴とする請求項4に記載のサーバ装置。
  6. 前記撮影条件は、被写体条件であり、
    前記撮影指示信号送信部は、
    前記被写体条件として、前記視聴者端末の撮影画面上に前記視聴者の体の一部又は全部のシルエットをはめるためのフレームを表示させ、該視聴者端末が前記視聴者のシルエットがフレームに入ったことを認識した場合に該視聴者端末に前記撮影動作を実行させる、
    ことを特徴とする請求項1から4のいずれか1項に記載のサーバ装置。
  7. 前記撮影指示信号送信部は、複数の前記視聴者端末のそれぞれによって異なる前記フレームを表示させる、
    ことを特徴とする請求項6に記載のサーバ装置。
  8. 前記撮影画像取得部が前記視聴者端末から取得する前記撮影画像は、前記フレームの中の画像部分を抽出した画像である、
    ことを特徴とする請求項6又は7に記載のサーバ装置。
  9. 前記撮影条件は、被写体条件であり、
    前記撮影指示信号送信部は、
    前記被写体条件として、前記視聴者端末の撮影画面上に前記視聴者に要求するポーズを表示させ、該視聴者が該ポーズを取ったことを該視聴者端末が認識した場合に該視聴者端末に前記撮影動作を実行させる、
    ことを特徴とする請求項1から4のいずれか1項に記載のサーバ装置。
  10. 前記撮影指示信号送信部は、複数の前記視聴者端末のそれぞれによって異なる前記ポーズを表示させる、
    ことを特徴とする請求項9に記載のサーバ装置。
  11. 前記撮影条件は、音声入力条件であり、
    前記撮影指示信号送信部は、前記視聴者端末に、前記音声入力条件として前記視聴者が音声入力すべきセリフを表示させる、
    ことを特徴とする請求項1に記載のサーバ装置。
  12. 前記セリフは、前記配信者又は他の前記視聴者のセリフと組み合わせることによって完成するシナリオの一部である、
    ことを特徴とする請求項11に記載のサーバ装置。
  13. 前記セリフは、前記配信者が用意した題目に対する回答である、
    ことを特徴とする請求項11に記載のサーバ装置。
  14. 前記撮影指示信号送信部は、前記配信者が前記題目を読み上げたことを契機に、前記視聴者端末に前記セリフを表示させる、
    ことを特徴とする請求項13に記載のサーバ装置。
  15. 前記撮影画像取得部が複数の前記視聴者端末のそれぞれから取得した前記撮影画像を複数の前記視聴者端末に配信する配信部と、
    複数の前記視聴者が入力した音声を示す音声データを複数の前記視聴者端末のそれぞれから取得する音声データ取得部と、
    をさらに備え、
    前記撮影画像取得部は、複数の前記視聴者端末のそれぞれから前記撮影画像を取得し、
    前記配信部は、前記取得した撮影画像及び音声データに基づいて生成された写真集又は集合写真を配信する、
    ことを特徴とする請求項11に記載のサーバ装置。
  16. ライブコンテンツの配信者によって使用される配信者端末と、
    前記ライブコンテンツの視聴者によって使用される視聴者端末と、
    前記配信者端末及び前記視聴者端末と通信するサーバ装置と、
    を備える配信システムであって、
    前記配信者端末は、前記配信者によって設定された撮影条件を前記サーバ装置に送信し、
    前記サーバ装置は、前記視聴者が前記撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を前記視聴者端末に送信し、
    前記視聴者端末は、前記撮影動作によって得られた撮影画像を前記サーバ装置に送信する、
    ことを特徴とする配信システム。
  17. 前記視聴者端末は、前記サーバ装置に前記撮影画像を送信する前に、該撮影画像を送信してよいか否かを確認する画面を表示する、
    ことを特徴とする請求項16に記載の配信システム。
  18. 前記視聴者端末は、前記サーバ装置が前記撮影画像を配信する前に、該撮影画像を配信してよいか否かを確認する画面を表示する、
    ことを特徴とする請求項16又は17に記載の配信システム。
  19. 配信者によって設定された撮影条件を配信者端末から取得する撮影条件取得ステップと、
    視聴者が前記撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する撮影指示信号送信ステップと、
    前記撮影動作によって得られた撮影画像を前記視聴者端末から取得する撮影画像取得ステップと、
    を含むことを特徴とする配信方法。
  20. コンピュータを、
    配信者によって設定された撮影条件を配信者端末から取得する撮影条件取得手段、
    視聴者が前記撮影条件を満たした場合に撮影動作を実行させる撮影指示信号を視聴者端末に送信する撮影指示信号送信手段、
    前記撮影動作によって得られた撮影画像を前記視聴者端末から取得する撮影画像取得手段、
    として機能させるプログラム。


JP2017190511A 2017-09-29 2017-09-29 サーバ装置、配信システム、配信方法及びプログラム Active JP6385543B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017190511A JP6385543B1 (ja) 2017-09-29 2017-09-29 サーバ装置、配信システム、配信方法及びプログラム
US16/140,872 US10645274B2 (en) 2017-09-29 2018-09-25 Server apparatus, distribution system, distribution method, and program with a distributor of live content and a viewer terminal for the live content including a photographed image of a viewer taking a designated body pose
CN201811138081.6A CN109587391B (zh) 2017-09-29 2018-09-28 服务器装置、发布系统、发布方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017190511A JP6385543B1 (ja) 2017-09-29 2017-09-29 サーバ装置、配信システム、配信方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018148680A Division JP2019068408A (ja) 2018-08-07 2018-08-07 サーバ装置、配信システム、配信方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6385543B1 true JP6385543B1 (ja) 2018-09-05
JP2019068203A JP2019068203A (ja) 2019-04-25

Family

ID=63444303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017190511A Active JP6385543B1 (ja) 2017-09-29 2017-09-29 サーバ装置、配信システム、配信方法及びプログラム

Country Status (3)

Country Link
US (1) US10645274B2 (ja)
JP (1) JP6385543B1 (ja)
CN (1) CN109587391B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240298084A9 (en) * 2019-10-18 2024-09-05 Meta Platforms Technologies, Llc Smart Cameras Enabled by Assistant Systems
CN111770279B (zh) * 2020-08-03 2022-04-08 维沃移动通信有限公司 一种拍摄方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210417A (ja) * 2001-09-18 2008-09-11 Sony Corp 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム
JP2014027365A (ja) * 2012-07-24 2014-02-06 Olympus Imaging Corp 撮影機器
WO2015166573A1 (ja) * 2014-05-01 2015-11-05 貴弘 市橋 ライブ放送システム
JP2015198298A (ja) * 2014-03-31 2015-11-09 株式会社シー・エス・イー 映像配信システム
JP2016033792A (ja) * 2014-07-31 2016-03-10 Kddi株式会社 情報取得指示装置、情報取得指示方法およびコンピュータプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040183915A1 (en) * 2002-08-28 2004-09-23 Yukita Gotohda Method, device, and program for controlling imaging device
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
US20050206751A1 (en) * 2004-03-19 2005-09-22 East Kodak Company Digital video system for assembling video sequences
JP4405344B2 (ja) 2004-08-23 2010-01-27 株式会社メイクソフトウェア 写真シール作成装置
JP4809057B2 (ja) * 2005-12-28 2011-11-02 富士通株式会社 画像処理システム、画像処理方法、画像処理プログラム、画像処理装置及び通信端末装置
KR100656589B1 (ko) * 2006-03-28 2006-12-13 삼성전자주식회사 분할 촬영 영상의 표시 및 편집이 가능한 휴대용 단말기 및그 방법
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP5385032B2 (ja) * 2009-07-08 2014-01-08 ソニーモバイルコミュニケーションズ株式会社 撮影装置および撮影制御方法
KR101700357B1 (ko) * 2009-11-30 2017-01-26 삼성전자주식회사 점프 영상 촬영 장치 및 방법
JP5182352B2 (ja) * 2010-11-16 2013-04-17 カシオ計算機株式会社 撮像装置、画像合成方法、及びプログラム
US9031847B2 (en) * 2011-11-15 2015-05-12 Microsoft Technology Licensing, Llc Voice-controlled camera operations
US20130235245A1 (en) * 2012-03-09 2013-09-12 Research In Motion Corporation Managing two or more displays on device with camera
TWI519122B (zh) * 2012-11-12 2016-01-21 輝達公司 行動資訊裝置與利用語音控制行動資訊裝置的方法
KR102026717B1 (ko) * 2013-02-08 2019-10-04 삼성전자 주식회사 사진 촬영 가이드 방법 및 이를 구현하는 휴대 단말
US20150009359A1 (en) * 2013-03-19 2015-01-08 Groopic Inc. Method and apparatus for collaborative digital imaging
US9795855B2 (en) * 2013-03-25 2017-10-24 Flex Booth, Inc. System and method for tracking fitness progress
WO2015029620A1 (ja) * 2013-08-27 2015-03-05 オリンパス株式会社 撮像装置、撮像方法、及び撮像プログラム
JP6476692B2 (ja) 2014-09-26 2019-03-06 カシオ計算機株式会社 システム並びに装置、制御方法
US20160093020A1 (en) * 2014-09-30 2016-03-31 Umm Al-Qura University Method of procuring integrating and sharing self portraits for a social network
KR20160057867A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 디스플레이 장치 및 그에 의한 이미지 처리 방법
JP6264475B2 (ja) 2015-01-30 2018-01-24 ディーエスグローバル カンパニー,リミテッド 仮想撮影サービス方法
US20160231818A1 (en) * 2015-02-11 2016-08-11 Multimedia Image Solution Limited Method for controlling an electronic device using a gesture command and a voice command
JP6610659B2 (ja) * 2015-03-26 2019-11-27 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
CN104735357A (zh) 2015-03-27 2015-06-24 天脉聚源(北京)教育科技有限公司 一种自动拍照的方法和装置
CN104883503A (zh) 2015-05-28 2015-09-02 牟肇健 基于语音的个性化拍照技术
CN106331754A (zh) 2016-08-18 2017-01-11 北京奇虎科技有限公司 网络直播中进行连麦直播的方法、主播端设备
US10218898B2 (en) * 2016-09-09 2019-02-26 International Business Machines Corporation Automated group photograph composition
CN106789991B (zh) 2016-12-09 2021-06-22 福建星网视易信息系统有限公司 一种基于虚拟场景的多人互动网络直播方法及系统
CN107071584B (zh) 2017-03-14 2019-12-24 北京潘达互娱科技有限公司 直播连麦方法及装置
US10582119B2 (en) * 2017-07-26 2020-03-03 Sony Corporation Image processing method and device for composite selfie image composition for remote users

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210417A (ja) * 2001-09-18 2008-09-11 Sony Corp 送信装置及び方法、コンテンツ配信装置及び方法、並びにプログラム
JP2014027365A (ja) * 2012-07-24 2014-02-06 Olympus Imaging Corp 撮影機器
JP2015198298A (ja) * 2014-03-31 2015-11-09 株式会社シー・エス・イー 映像配信システム
WO2015166573A1 (ja) * 2014-05-01 2015-11-05 貴弘 市橋 ライブ放送システム
JP2016033792A (ja) * 2014-07-31 2016-03-10 Kddi株式会社 情報取得指示装置、情報取得指示方法およびコンピュータプログラム

Also Published As

Publication number Publication date
CN109587391A (zh) 2019-04-05
CN109587391B (zh) 2020-12-11
US10645274B2 (en) 2020-05-05
JP2019068203A (ja) 2019-04-25
US20190104249A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
US20210021663A1 (en) Method for processing network data, and terminal, server and storage medium thereof
WO2019228120A1 (zh) 视频互动方法、装置、终端及存储介质
JP6469279B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
WO2020044874A1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
WO2014192552A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
KR20230039768A (ko) 촬영 방법, 장치, 전자기기 및 컴퓨터 판독 가능 저장매체
CN111327918B (zh) 网络直播房间的互动方法、装置以及存储介质
CN112717423A (zh) 游戏对局的直播方法、装置、设备及存储介质
KR20170072233A (ko) 정보 처리 장치
JP6385543B1 (ja) サーバ装置、配信システム、配信方法及びプログラム
CN108184130B (zh) 模拟器系统、直播方法、装置及存储介质
KR102234066B1 (ko) 증강현실 기반의 그룹 라이딩 지원 시스템
JP7129666B1 (ja) コンピュータプログラム及び端末
JP2020039112A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
CN112774185B (zh) 牌类虚拟场景中的虚拟牌控制方法、装置及设备
JP2018074281A (ja) 画像プリントシステム
JP6321271B1 (ja) コンテンツ提供方法、当該方法をコンピュータに実行させるプログラム、およびコンテンツ提供装置
JP2019068408A (ja) サーバ装置、配信システム、配信方法及びプログラム
US10075631B2 (en) Imaging apparatus, imaging method and recording medium having program for performing self-timer shooting
JP6473265B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
CN110384930A (zh) 一种互动游戏群组构建方法、装置、介质和电子设备
JP2020071519A (ja) 案内装置及びガイドシステム
JP2019185736A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2019185750A (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2020086667A (ja) 絵本の読み聞かせシステム、スケジュール調整システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180720

TRDD Decision of grant or rejection written
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180801

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180807

R150 Certificate of patent or registration of utility model

Ref document number: 6385543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250