[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014178219A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2014178219A1
WO2014178219A1 PCT/JP2014/054573 JP2014054573W WO2014178219A1 WO 2014178219 A1 WO2014178219 A1 WO 2014178219A1 JP 2014054573 W JP2014054573 W JP 2014054573W WO 2014178219 A1 WO2014178219 A1 WO 2014178219A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
tag
content
tag information
user
Prior art date
Application number
PCT/JP2014/054573
Other languages
English (en)
French (fr)
Inventor
周藤 泰広
北野 宏明
翔太朗 寳理
大二 伊藤
哲 夏目
大島 浩一
弘也 水村
良浩 高木
康夫 佐久間
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14791027.7A priority Critical patent/EP2993907A4/en
Priority to CN201480023383.2A priority patent/CN105144736A/zh
Priority to JP2015514766A priority patent/JP6384474B2/ja
Priority to US14/785,276 priority patent/US10075544B2/en
Publication of WO2014178219A1 publication Critical patent/WO2014178219A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • H04N21/44226Monitoring of user activity on external systems, e.g. Internet browsing on social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot

Definitions

  • This disclosure relates to an information processing apparatus and an information processing method.
  • Patent Literature 1 describes a technique for providing a bidirectional viewing experience by presenting a posted comment to an external posting site to viewers of a program being broadcast.
  • the present disclosure proposes a new and improved information processing apparatus and information processing method that make it possible to effectively use information generated by user activity on content in association with the content.
  • an activity detection unit that detects an activity by a user who is playing content, a tag generation unit that generates tag information based on the information related to the activity, and the tag information in the content corresponding to the activity
  • An information processing apparatus including a tag association unit associated with one or a plurality of positions is provided.
  • an information processing method including associating with a plurality of positions is provided.
  • information generated by a user activity on content can be effectively used in association with the content.
  • FIG. 1 is a diagram for describing an overview of a system according to a first embodiment of the present disclosure.
  • FIG. It is a figure which shows the example of the flow of the information in the system shown in FIG.
  • FIG. 3 is a block diagram illustrating a schematic functional configuration of each device according to the first embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a display example of a home screen according to the first embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a display example of a home screen according to the first embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a display example of a playback screen according to the first embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a display example of a playback screen according to the first embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a display example of a reproduction screen according to the second embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a display example of a reproduction screen according to the second embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating an example of a display process of tag category information display according to the second embodiment of the present disclosure. It is a block diagram showing a schematic functional composition of each device concerning a 3rd embodiment of this indication. It is a block diagram for demonstrating the hardware constitutions of information processing apparatus.
  • FIG. 1 is a diagram for describing an overview of a system according to the first embodiment of the present disclosure.
  • a system 10 according to the present embodiment includes a server 100 and a client 200.
  • the server 100 and the client 200 are both realized by a hardware configuration of an information processing apparatus described later, and are connected to each other by various wired or wireless networks.
  • the server 100 is not necessarily realized by a single information processing apparatus, and may be realized by cooperation of a plurality of information processing apparatuses connected to each other via a network.
  • the server 100 presents viewable content to the client 200 (S101).
  • the user of the client 200 selects content to view from the presented content, and transmits a request to the server 100 (S103).
  • the server 100 that has received the request transfers the request to the content provider 50 such as a moving image distribution server (S105) and acquires the content requested by the user of the client 200 (S107).
  • the content provider 50 such as a moving image distribution server (S105) and acquires the content requested by the user of the client 200 (S107).
  • the server 100 When providing the content acquired from the content provider 50 to the client 200 (S109), the server 100 provides tag information together (S111).
  • the tag information is information generated based on the activities of other users who viewed the same content, for example, by the server 100, and is associated with at least the playback position of the content.
  • the user's activity here may be, for example, posting a comment during the reproduction of the content, performing a Web search, or viewing other content such as a photo or video.
  • tag information generated based on such user activity is presented together with the content.
  • the user of the client 200 can easily access information related to the content, for example, and can know how other users receive the content.
  • the server 100 accesses the WWW (World Wide Web) 60 using, for example, a URL (Uniform Resource Locator) included in the selected tag information. Then, a snapshot of the Web page is acquired (S117). The acquired snapshot is transmitted to the client 200 (S119). Further, when the tag information includes comments of other users or other contents (Video), the server 100 similarly provides these information to the client 200 (S121).
  • WWW World Wide Web
  • URL Uniform Resource Locator
  • the user of the client 200 can input a comment on the content (S123).
  • the server 100 further generates tag information based on the new comment received from the client 200.
  • other activities on the content by the user of the client 200 for example, the results of a Web search performed on the content content and information such as viewing of other content can be transmitted to the server 100 as well as the comments.
  • the server 100 generates new tag information based on these pieces of information and associates them with the contents additionally.
  • the server 100 may provide information such as comments of other users, content recommendations, rankings, etc. to the client 200 in addition to providing the content itself (S125 to S129). With such information, for example, it is possible to facilitate selection of content to be viewed by the user of the client 200.
  • FIG. 2 is a diagram showing an example of information flow in the system shown in FIG. Referring to FIG. 2, in the system 10 according to the present embodiment, the flow of content selection (S201 to S213), recommendation (S215 to S221), and sub information (S223 to S231) can be roughly divided.
  • a home screen (S203) is displayed.
  • a curator list (S205) and / or a group list (S207) are displayed.
  • the curator is a user who plays a role of organizing content provided via the system 10.
  • the curator collects content according to its own preference from among a large number of contents, for example.
  • a list of contents collected by the curator (S209) is displayed.
  • a general user can easily access content that suits his / her preference by following a curator with similar preferences.
  • the group is not a dependency relationship such as the curator and follower described above, but a group in which each user is formed in an equal relationship.
  • contents that are viewed or positively evaluated by a plurality of users belonging to a group can be collected.
  • the group may be, for example, a social group intentionally set by users such as friends, or a user who is presumed to have similar preferences due to content viewing history or collection of tag information described later. It may be a group that is automatically classified.
  • the user selects any group from the group list (S207), a list of contents collected in association with the group (S209) is displayed. The user can easily access, for example, content viewed by friends or content viewed by other users with similar preferences via the group list.
  • the content playback screen (S211) is displayed.
  • the home button (S213) displayed on the playback screen the user can return to the home screen (S203).
  • the content playback screen (S201) is automatically started after the application is started (S201). S211) may be displayed.
  • recommendation information S21-5 from social media is displayed on the playback screen.
  • information (S217) of friends who viewed the same content can be displayed on the playback screen.
  • the user can input a positive evaluation (S219 “Nice!”) For the content using a button displayed on the playback screen. If a positive evaluation is input, a recommendation (S221) for the content can be executed.
  • the recommendation may be executed for other users belonging to the same group as the user, for example, or may be executed for the follower when the user is a curator. At this time, the user who has already viewed the content may be excluded from the recommendation target based on the information of the friend who viewed the same content (S217).
  • tag information can be displayed on the content playback screen (S211) in addition to the content being played back.
  • tag information is generated by posting a comment on social media or the like by a user (S225) and searching for Web or the like (S227). The generation of such tag information will be described in detail later.
  • the tag information, the URL list (S229) obtained by the search, and the like may be displayed on the playback screen (S211) in association with the content as sub information (S231).
  • FIG. 3 is a block diagram illustrating a schematic functional configuration of each device according to the first embodiment of the present disclosure.
  • the functional configuration of each apparatus will be described with reference to FIG.
  • the illustrated functional configuration is simplified for the description of the present embodiment, and each device may further include a functional configuration that is not illustrated.
  • a functional configuration not shown in the figure may be already known as a general functional configuration of each apparatus, and thus detailed description thereof is omitted.
  • the server 100 includes a communication unit 110, a reproduction control unit 120, a tag DB 130, a tag information display control unit 140, an activity detection unit 150, a tag generation unit 160, a tag association unit 170, and a communication service provision unit 180. Including.
  • the communication unit 110 is realized by a communication device, for example, and communicates with the client 200 via various wired or wireless networks.
  • the communication unit 110 also communicates with the content provider 50 and the WWW 60 described above via a network, and acquires content data and the like.
  • the communication unit 110 provides the received content data to the reproduction control unit 120, and transmits the content data to the client 200 according to the control of the reproduction control unit 120. Further, the communication unit 110 transmits data for displaying tag information to the client 200 under the control of the tag information display control unit 140. Further, the communication unit 110 intercepts information transmitted and received by the communication unit 210 of the client 200 in relation to various activities performed by the user of the client 200 on the content, and provides the information to the activity detection unit 150. In addition, the communication unit 110 transmits and receives information regarding the service provided by the communication service providing unit 180 to and from the client 200.
  • the reproduction control unit 120 is realized by a processor such as a CPU operating according to a program stored in a memory, for example, and controls reproduction of content data acquired by the communication unit 110. For example, when the user of the client 200 does not perform a separate operation, the reproduction control unit 120 can sequentially reproduce the content acquired from the content provider 50 from the beginning.
  • the playback control unit 120 may reproduce the content from the reproduction position corresponding to the tag information.
  • the reproduction control unit 120 may repeatedly reproduce the content within a range including a reproduction position corresponding to the tag information. . Further, the reproduction control unit 120 may display a home screen for selecting content.
  • the tag DB 130 is realized by a storage device, for example, and stores tag information generated for content.
  • the tag information is generated by, for example, a tag generation unit 160, which will be described later, and stored in the tag DB 130 after being associated with at least a content reproduction position by the tag association unit 170.
  • the tag information may include information prepared as an initial setting.
  • the tag information may include text, for example, and may include a link to a Web page or other content, a thumbnail, or the like.
  • the tag information can be recorded as “tag information associated with the time stamp 1h23m45s678”. Note that the reproduction position with which the tag information is associated may be defined as a range.
  • the tag information may be associated with a position in the screen of the video content.
  • X represents a horizontal position in the screen
  • Y represents a vertical position in the screen
  • T represents a time stamp.
  • the position in the screen such as X and Y may be recorded as a normalized value in consideration of the difference in the size of the reproduction screen for each client 200, for example.
  • the in-screen position with which the tag information is associated can also be defined as a range or area.
  • the tag information display control unit 140 is realized by a processor such as a CPU operating according to a program stored in a memory, for example, and displays the tag information read from the tag DB 130 on the content reproduction screen. For example, the tag information display control unit 140 may arrange the tag information for each associated reproduction position and display the tag information on the reproduction screen. At this time, the tag information display control unit 140 may display the tag information associated with the reproduction positions close to each other as a group. In addition, when tag information is also associated with an in-screen position, the tag information display control unit 140 separately displays tag information associated with the same or close playback position but associated with a different in-screen position. You may let them. Further, the tag information display control unit 140 can display the tag information as a selectable icon on the reproduction screen.
  • the icon can include, for example, a captured image of content at a reproduction position associated with the tag information, an icon indicating the type of information included in the tag information, and the like.
  • the tag information display control unit 140 may separately display a screen that individually displays tag information grouped together with the tag information on the reproduction screen. As described above, at this time, the playback control unit 120 may jump to the playback position of the selected tag information and play it back. A specific example of tag information display by the tag information display control unit 140 will be described later.
  • the activity detection unit 150 is realized by, for example, a processor such as a CPU operating according to a program stored in a memory, and detects an activity by a user during content reproduction. More specifically, the activity detection unit 150 intercepts information transmitted / received to / from the client 200 where the content is reproduced via the communication unit 110, and based on the information, the activity detection unit 150 detects the content at the client 200. Detects activities performed by the user during playback. For example, the activity detected by the activity detection unit 150 may include posting a comment by the user. The comment may be posted on a service provided by the server 100, for example, or may be posted on other social media. The activity detected by the activity detection unit 150 may include access to information other than the content being played back by the user.
  • a processor such as a CPU operating according to a program stored in a memory
  • the information accessed here may be, for example, a Web page or another content. These pieces of information can be accessed, for example, when a user performs a keyword search.
  • the activity detection unit 150 may detect a user's speech in a communication service provided by the communication service providing unit 180 described later as an activity.
  • the tag generation unit 160 is realized by a processor such as a CPU operating in accordance with a program stored in a memory, for example, and generates new tag information based on information on the activity detected by the activity detection unit 150.
  • the generated tag information can include, for example, text, a link to a Web page or other content, a thumbnail, and the like.
  • the tag generation unit 160 can generate such tag information by analyzing various logs relating to the detected user activity. For example, when a user posts a comment or remarks on a communication service while content is being played on the client 200, the activity detection unit 150 acquires the posted comment or remark information, and the tag generation unit 160 Can be generated as text information.
  • the activity detection unit 150 acquires information on a search query and a search result, and the tag generation unit 160 includes a keyword text included in the search query.
  • Tag information including a search result Web page link and snapshot.
  • the activity detection unit 150 acquires the address of the reproduced other content or the information of the other content itself, and the tag generation unit 160.
  • Can generate tag information including links to other content or other content itself.
  • a link and other content may be explicitly attached by user operation at the time of comment posting, for example.
  • the tag association unit 170 is realized by, for example, a processor such as a CPU operating according to a program stored in a memory, and the tag information generated by the tag generation unit 160 is converted into content corresponding to the activity based on the tag information. Associate with the playback position.
  • Tag information associated with content by the tag association unit 170 may be stored in the tag DB 130, for example, or may be provided to the tag information display control unit 140 and displayed in real time on the client 200.
  • the reproduction position associated with the tag information is the reproduction position of the content (the content that was originally reproduced) when a comment is posted, when a web search is performed, or when reproduction of other content is started. It can be.
  • Tag information may be associated with the playback position to be played. Note that, when the reproduction positions specified for a plurality of tag information are close to each other, the tag association unit 170 may associate these tag information with a common reproduction position. Further, as described above, in the present embodiment, the tag information can be associated with the position of the video content on the screen.
  • the tag association unit 170 associates tag information with the position in the screen that is explicitly specified by the user in the activity, for example.
  • the position in the screen may be specified as a range or a region.
  • tag association is performed.
  • the unit 170 may determine an in-screen position for associating tag information based on the detected gaze area.
  • the communication service providing unit 180 is realized by a processor such as a CPU operating according to a program stored in a memory, and provides a communication service to users of a plurality of clients 200.
  • the provided communication service can be, for example, a chat for exchanging comments between users.
  • the communication service providing unit 180 can provide a communication service to a plurality of users who have performed an activity based on tag information associated with a close reproduction position (and / or a close in-screen position) of the same content. More specifically, the communication service providing unit 180 opens a chat room in which these users participate, for example. The user who has entered the chat room can exchange a statement on another screen within a playback screen, which will be described later, for example.
  • a link to a Web page or other content may be added to the remark.
  • Information such as a user's remark in the chat room and a link added to the remark can also be detected by the activity detection unit 150 as an activity during content reproduction. Further, while the user is using the chat room, the reproduction control unit 120 may repeatedly reproduce the content within a range including the target reproduction position.
  • the client 200 includes a communication unit 210, a display control unit 220, a display unit 230, a voice control unit 240, a voice output unit 250, and an operation unit 260.
  • the client 200 can be various terminal devices that allow the user to view content such as various PCs (Personal Computers), tablet terminals, smartphones, game machines, and media players.
  • PCs Personal Computers
  • tablet terminals smartphones, game machines, and media players.
  • the communication unit 210 is realized by a communication device, for example, and communicates with the server 100 via various wired or wireless networks.
  • the communication unit 210 receives content data from the server 100 and provides it to the display control unit 220 and the audio control unit 240.
  • the communication unit 210 receives data for displaying tag information related to content from the server 100 and provides the data to the display control unit 220.
  • the communication unit 210 transmits / receives data according to an operation input given to the operation unit 260 by the user during the reproduction of the content.
  • the communication unit 210 transmits a search query according to a search operation input (input of a search keyword and a search execution instruction) given to the operation unit 260, and receives information such as a search result Web page and other contents. To do. Further, for example, the communication unit 210 transmits a comment to the server 100 or a social media server according to the comment post operation input (comment text input and post execution instruction) given to the operation unit 260. In this way, data transmitted and received by the communication unit 210 during content reproduction is exchanged with other servers or the like via the communication unit 110 of the server 100. As described above, the communication unit 110 of the server 100 provides the activity detection unit 150 with information regarding various activities performed on the content by intercepting data transmitted and received at this time.
  • a search operation input input of a search keyword and a search execution instruction
  • the display control unit 220 is realized by a processor such as a CPU operating according to a program stored in a memory, and displays an image on the display unit 230 realized by various display devices such as an LCD or an organic EL display. Control.
  • the display control unit 220 acquires content data, data for displaying tag information related to the content, and data received according to an operation input given by the user to the operation unit 260 from the communication unit 210. Based on these data, the display control unit 220 causes the display unit 230 to display a content playback screen.
  • the playback screen can include, for example, a content image and an icon of tag information displayed around the content image.
  • the display control unit 220 may display a screen for the user to execute various activities on the content in the playback screen or separately from the playback screen.
  • the display control unit 220 is, for example, an operation element for designating a comment input field for a user to input a comment, a keyword input field for inputting a search keyword, and / or an on-screen position to be an activity target. Etc. are displayed. Further, the display control unit 220 may display the home screen on the display unit 230 based on the data acquired from the server 100. An example of a screen displayed on the display unit 230 by the display control unit 220 will be described in more detail later.
  • the audio control unit 240 is realized by a processor such as a CPU operating according to a program stored in a memory, and controls the output of audio in the audio output unit 250 realized by, for example, a speaker.
  • the audio control unit 240 causes the audio output unit 250 to output content audio based on the content data acquired from the communication unit 210.
  • the content sound is sound that is linked to the content image displayed on the display unit 230.
  • the voice control unit 240 may acquire data received from the communication unit 210 according to an operation input given to the operation unit 260 by the user, and output a voice from the voice output unit 250 based on this data.
  • the case where the content is video content is described as an example.
  • the content to be played back or the content acquired by the activity of the user being played back is an image such as music content. Content that does not include Such content can be mainly output via the audio control unit 240 and the audio output unit 250.
  • the operation unit 260 is realized by various input devices such as a touch panel, a mouse, or a keyboard, for example, and acquires an operation input by a user. Based on the acquired operation input, for example, information is transmitted to various servers including the server 100 via the communication unit 210. Thereby, for example, selection of content to be reproduced, start and end of content reproduction, and the like can be controlled.
  • a search operation input input of search keyword and search execution instruction
  • comment post operation input (comment text input and post execution instruction) acquired by the operation unit 260 during content reproduction are also included in the communication unit. It can be transmitted to various servers via 210. Further, the operation input acquired by the operation unit 260 is provided to the display control unit 220 or the audio control unit 240, and may be used for controlling an image displayed on the display unit 230 or an audio output from the audio output unit 250. Good.
  • FIGS. 4 and 5 are diagrams illustrating a display example of a home screen according to the first embodiment of the present disclosure.
  • the home screen can be displayed on the display unit 230 under the control of the display control unit 220, for example, when the user starts an application for viewing content on the client 200.
  • a content icon 1001 is displayed on the home screen 1000.
  • the content icon 1001 is, for example, an image such as a thumbnail or snapshot of content, and is arranged in a curator area 1003 or a group area 1005.
  • a content icon 1001 of content collected by the curator described above is displayed.
  • the group area 1005 content icons 1001 of content collected for the above-described user group are displayed.
  • These areas can function as the above-mentioned curator list and group list.
  • the curator area 1003 and the group area 1005 are displayed in a circular shape or an oval shape, respectively.
  • Each curator area 1003 and group area 1005 can be displayed large, for example, when the user is following the curator or when the user is classified into a group.
  • each area may be displayed in a large size when the user frequently views the content collected for the curator or group, when the popularity of the curator is high, or when the user and the group are close to each other. .
  • the content icon 1001 arranged in each area is a representative one extracted according to popularity, the number of times of viewing, etc. from the content collected for each curator or group. Also good. For example, when a lot of activities from other users such as comments are detected for the content, the content icon 1001 is displayed with an effect 1007 such as a glow, and it is easy for the user to find “swelling” content. It may be. When the user selects any region, a list of contents corresponding to the curator or group can be displayed. Further, when the user selects the content icon 1001, it may be possible to directly start viewing the content.
  • the content icon 1001 arranged in that area is enlarged and displayed.
  • the content icon 1001 for other content arranged in the area may be newly displayed by expanding the area.
  • another area can be reduced or moved to the periphery of the home screen 1000.
  • the curator region 1003a for the curator A is enlarged, the curator region 1003b for the curator B and the group regions 1005a and 1005b for the groups 1 and 2 are reduced, and are displayed on the periphery of the home screen 1000. Has been moved.
  • Playback screen 6 and 7 are diagrams illustrating display examples of a playback screen according to the first embodiment of the present disclosure.
  • the playback screen is displayed on the display unit 230 under the control of the display control unit 220 when, for example, the user starts an application for viewing content on the client 200 and selects the content to be viewed via the home screen 1000 described above. Can be done.
  • the playback screen 2000 includes a content image 2001, a tag list display 2003, a tag details display 2005, a comment input field 2007, a playback control 2009, a home button 2011, and recommendation information 2013. Is displayed.
  • the content image 2001 is an image of content displayed based on data transmitted from the server 100 to the client 200 according to the control of the reproduction control unit 120.
  • the content is video content.
  • the content may be content that does not include an image, such as music content.
  • the content image 2001 for example, an image image provided from the server 100 corresponding to music content or a visual effect image generated by the server 100 or the client 200 may be displayed.
  • the image 2001 may not be included.
  • the tag list display 2003 displays a list of tag information associated with the content being reproduced, that is, the content displayed as the content image 2001 in the illustrated example.
  • data for displaying a list of tag information is provided by the tag information display control unit 140 of the server 100.
  • the tag information display control unit 140 can provide data based on tag information newly associated with the content in addition to the tag information that has already been generated. Therefore, when the tag associating unit 170 associates new tag information with the content based on the activity of the user who is viewing the content on the playback screen 2000 or another user, the tag information display control unit 140 provides the tag information.
  • the tag list display 2003 can be dynamically updated to a display including new tag information. More specifically, for example, a type icon 2025 described later may be added, or the number of in-group tags 2027 may be gradually increased.
  • a captured image 2021 of content at a reproduction position associated with each tag information is displayed as an icon indicating tag information.
  • the captured image 2021 can be displayed together with a time stamp 2023 indicating the corresponding reproduction position.
  • a tag information type icon 2025 may be added to the captured image 2021.
  • the tag information may include text (type icon 2025t), a link to a web page (type icon 2025w), and / or a link to other content (type icon 2025v). By displaying the type icon 2025, the user can easily identify what type of information each tag information includes.
  • tags indicating tag information are associated with reproduction positions close to each other, they are displayed as a group.
  • a display of the number of tags in the group 2027 may be added to the captured image 2021. For example, if “18” is displayed as the number of tags 2027 in the captured image 2021a with the time stamp 2023 “0:24”, it can be seen that there are 18 tag information associated with the vicinity of the reproduction position. .
  • tag information is grouped in this way, a plurality of type icons 2025 can also be added to the captured image 2021. For example, since the type icons 2025t, 2025w, and 2025v are displayed in the captured image 2021a, text, a link to a web page, and a link to another content are included in 18 pieces of tag information. I understand that.
  • the tag detail display 2005 When the tag information icon displayed as the tag list display 2003 is selected, the tag detail display 2005 individually displays the tag information grouped together with the tag information.
  • data for displaying the tag detail display 2005 can also be provided by the tag information display control unit 140 of the server 100 in the same manner as the tag list display 2003.
  • the tag information display control unit 140 can provide data based on the tag information newly associated with the content by the tag association unit 170 in addition to the existing tag information. Therefore, when the tag generation unit 160 generates new tag information based on the activity of the user who is viewing the content on the playback screen 2000 or another user, the tag detail display 2005 is a display including the new tag information. Can be updated. More specifically, for example, new tag information can be added and displayed during content playback.
  • the tag detail display 2005 is blank. In this case, an advertisement or the like may be displayed instead of the tag detail display 2005.
  • the tag information included in the group corresponding to the captured image 2021a is displayed as the tag details display 2005. Yes.
  • the playback position of the content displayed as the content image 2001 can jump to the playback position of the selected tag information (time stamp “0:24” in the example of FIG. 7).
  • the tag detail display 2005 displays three tag information displays 2029t, 2029w, and 2029v each including text, a web page, and other content.
  • a type icon 2031 similar to the type icon 2025 displayed in the tag list display 2003 may be displayed.
  • a snapshot 2033 of the Web page can be displayed.
  • a link to a Web page is set in the snapshot 2033, and the user may be able to access the Web page by selecting an image of the snapshot 2033.
  • thumbnails 2035 of other contents can be displayed.
  • a link for reproducing other content is set in the thumbnail 2035, and the user may be able to access the other content by selecting the thumbnail 2035.
  • other content can be reproduced on a screen different from the reproduction screen 2000, for example.
  • the snapshot 2033 and the thumbnail 2035 are not displayed at the start of the tag detail display 2005, and details are displayed when the tag information display 2029 is selected.
  • a snapshot 2033 or a thumbnail 2035 may be displayed.
  • 18 groups of tag information are included in the group corresponding to the captured image 2021a, and are not displayed at once in the tag detail display 2005 of the illustrated example.
  • a scroll bar 2037 may be displayed on the tag detail display 2005, and the tag information display 2029 arranged in the vertical direction may be scrolled for browsing.
  • the order in which the tag information display 2029 is arranged may be, for example, chronologically, or may be in the order of popularity determined by the number of accesses to Web pages or content links.
  • the new tag information may be added to the top or bottom of the tag detail display 2005.
  • the reproduction of the content is continued as it is after jumping to the reproduction position of the selected tag information. Therefore, in order to indicate what kind of scene the displayed tag information is for, the captured image 2039 (the same image as the captured image 2021a in the example of FIG. 7) is included in the tag detail display 2005. May be. Further, a jump button 2041 may be displayed together with the captured image 2039. When the user selects the jump button 2041, the playback position of the content displayed as the content image 2001 is set to the playback position corresponding to the capture image 2039, that is, the playback position corresponding to the tag information displayed as the tag detail display 2005. Jump.
  • the comment input field 2007 includes a text input field 2007a and a posting button 2007b, and accepts posting of a user comment on the content being reproduced.
  • a comment posted using the comment input field 2007 may be processed as a comment on a service provided by the server 100, for example, or may be processed as a comment on other social media.
  • the tag generation unit 160 can generate new tag information based on the posted comments, and the tag association unit 170 can associate the generated tag information with the content.
  • the tag associating unit 170 detects and generates a content reproduction position when a comment is posted by selecting the posting button 2007b or when the text input field 2007a is selected and text input is started.
  • the tagged tag information may be associated with this reproduction position.
  • the tag associated with the vicinity of the reproduction position after the user's comment is posted A group of information may be automatically displayed on the tag detail display 2005.
  • FIG. 8 is a diagram illustrating an example of cooperation between the playback screen and other screens according to the first embodiment of the present disclosure.
  • the server 100 similarly to the posting of a comment, for example, the result of a Web search using the Web browser screen 2100a and the reproduction of other content (video content) using the Web browser screen 2100b are also performed by the server 100.
  • It can be a source of tag information generated by the tag generation unit 160.
  • the Web browser screen 2100 may be provided by a service common to the playback screen 2000, or a plug for cooperation with a service provided by the server 100 on the normal Web browser screen 2100. Inn may be added.
  • Information input on the Web browser screen 2100 provided in this way can be transmitted to another server or the like via the server 100 by the communication unit 210 of the client 200.
  • FIG. 9 is a diagram illustrating a display example when the in-screen position is designated on the reproduction screen according to the first embodiment of the present disclosure.
  • the user specifies a position in the screen of the content image 2001 using the pointer 2043, and then inputs a comment for the content in the comment input field 2007.
  • the activity detection unit 150 of the server 100 can detect a user's comment posting as an activity including designation of the position within the screen.
  • the tag association unit 170 associates the tag information with the position in the screen in addition to the content reproduction position.
  • the in-screen position to be associated may be defined as a range or region, or tag information associated with the close in-screen position may be grouped.
  • the tag information associated with the in-screen position is associated with, for example, the tag information associated with another in-screen position at the reproduction position close to the tag list display 2003 or the tag detail display 2005, or the in-screen position. It can be displayed separately from the tag information that is not. More specifically, as shown in FIG. 9, even if the time stamp 2023 is the same in the tag list display 2003 (“0:12” in the example of FIG. 9), the tag information with different associated screen positions is different. Captured images 2021b and 2021c respectively corresponding to are displayed separately. The captured image 2021b indicates tag information associated with the entire screen, and the captured image 2021c indicates tag information associated with a part of the screen, specifically, an area where a bird is reflected.
  • the capture image 2021c indicating tag information associated with a part of the screen may be a clipped image of the corresponding position in the screen or its vicinity from the captured image of the content.
  • the tag detail display 2005 can also individually display the tag information of the close reproduction position and the close in-screen position corresponding to the tag list display 2003.
  • the playback control 2009 is a GUI (Graphical User Interface) component for controlling the start / stop of playback of content on the playback screen 2000, movement of the playback position, and the like.
  • a home button 2011 is a button for transitioning to the above-described home screen 1000 by interrupting or ending content viewing.
  • the recommendation information 2013 displays content recommendations from, for example, a curator that the user is following and other users who belong to the same group as the user. For example, by selecting the thumbnail 2045 of the content displayed as the recommendation information 2013, the content displayed as the content image 2001 is switched to the content displayed as the thumbnail 2045, and viewing of the content can be started. May be.
  • FIG. 10 is a diagram illustrating a display example when the communication service is provided on the reproduction screen according to the first embodiment of the present disclosure.
  • a content image 2001, a tag list display 2003, a chat screen 3001, a comment input field 2007, a playback control 2009, a home button 2011, and recommendation information 2013 are displayed on the playback screen 3000. Is done. Since components other than the chat screen 3001 are the same components as the playback screen 2000 described above, detailed description thereof is omitted.
  • a user posts a comment during content playback using the comment input field 2007, and new tag information is added to the content playback position based on the comment.
  • a user can be invited to a chat room established with another user who has input a comment at a playback position in the vicinity thereof.
  • Chat screen 3001 displays a log of each user's remarks in this chat room.
  • the user can post a comment in the chat room using the comment input field 2007 as before being invited to the chat room.
  • the chat screen 3001 may be displayed by, for example, changing the display of the tag detail display 2005 that has been displayed so far.
  • the chat screen 3001 may be displayed from the beginning on the playback screen 3000 and may be blank until the user inputs a comment using the comment input field 2007.
  • the comment that the user first posted using the comment input field 2007 may be displayed on the chat screen 3001 as the user's first comment in the chat room.
  • the trigger for the user to be invited to the chat room is not limited to the posting of a comment, and may be, for example, a Web search as shown in FIG. 8 or reproduction of other content.
  • the result of the web search or a link to other content may be displayed on the chat screen 3001 as the user's first statement.
  • a preview of the chat screen 3001 may be presented to a user who has executed an activity such as a comment, and the user may enter the chat room and display the chat screen 3001 only when the user who has viewed the preview desires. .
  • the speech of each user displayed on the chat screen 3001 is also detected as an activity by the activity detection unit 150 of the server 100 and can be a source of tag information generation by the tag generation unit 160.
  • the utterance in the user's chat room may include information similar to the user's activity during normal content viewing, such as a link to a Web page or other content.
  • the tag associating unit 170 generates the tag information generated based on each user's remarks, regardless of the position in the repetitive range where the remarks are input, for each chat room (see the example in FIG. 9). Then, it may be associated with “0:24”).
  • the user wants to proceed with viewing content the user can leave the chat room by selecting the exit button 3003 and return to normal content viewing.
  • tag information by detecting an activity by a user who is playing back content and generating tag information based on information on the detected activity, additional tag information is provided to the user.
  • a large amount of information can be collected as tag information related to the content without making the user feel the input.
  • by associating the generated tag information with the playback position of the content corresponding to the activity and / or the position within the screen it becomes clear what the tag information is for in the content, as described above. Even tag information randomly collected by user activity can make it easier to read meaningful information.
  • tag information generated for content is not necessarily associated with the playback position of the content.
  • tag information is associated with one or more positions in the content.
  • the overlapping description is abbreviate
  • FIG. 11 is a block diagram illustrating a schematic functional configuration of each device according to the second embodiment of the present disclosure.
  • the system 20 according to the present embodiment includes a server 300 and a client 400. Both the server 300 and the client 400 are realized by a hardware configuration of an information processing apparatus described later, and are connected to each other by various wired or wireless networks.
  • the server 300 is not necessarily realized by a single information processing apparatus, and may be realized by cooperation of a plurality of information processing apparatuses connected to each other via a network.
  • the functional configuration illustrated is simplified for the description of the present embodiment, and each device may further include a functional configuration not illustrated.
  • a functional configuration not shown in the figure may be already known as a general functional configuration of each apparatus, and thus detailed description thereof is omitted.
  • the server 300 includes a communication unit 110, a reproduction control unit 120, a tag DB 330, a tag information display control unit 340, an activity detection unit 150, a tag generation unit 160, a tag association unit 370, and a communication service provision unit 180. Including.
  • the tag DB 330, the tag information display control unit 340, and the tag association unit 370, which are components different from those in the first embodiment, will be particularly described.
  • the tag DB 330 is realized by a storage device, for example, and stores tag information generated for content.
  • the tag information is generated by, for example, the tag generation unit 160, is associated with one or a plurality of positions in the content by the tag association unit 370, and is stored in the tag DB 330.
  • the tag information may include information prepared as an initial setting.
  • the tag information in the present embodiment is the same as the tag information stored in the tag DB 130 in the first embodiment described above in that it can include, for example, text, a link to a web page or other content, or a thumbnail. .
  • the tag information only needs to be directly or indirectly associated with one or a plurality of positions in the content, and is not necessarily associated with the reproduction position of the content. It does not have to be.
  • the “content” in this specification may be content that progresses with time, such as video and music.
  • the playback position of the content can be defined using, for example, a time stamp (T).
  • T time stamp
  • associating tag information with one or more timestamps for a piece of content can be associating tag information with one or more locations within the content.
  • content in the present specification may be content displayed on a screen like a video, for example.
  • the position of the content in the screen can be defined using the horizontal position (X), the vertical position (Y), or the like.
  • associating tag information with one or more in-screen positions for some content can be associating tag information with one or more positions in the content.
  • the tag information may be associated with information on the subject.
  • the subject is, for example, a person or a thing displayed in a certain area (subject display area) in the screen, and is recognized as an image portion having some meaning for the viewer.
  • the subject can be displayed while changing the display area (may not change) in a series of time stamps (a plurality of playback positions) in the content that progresses with time such as video and is displayed on the screen. . Therefore, for example, when the tag information is associated with information indicating a subject, the tag information is a series of time stamps (a plurality of reproduction positions) where the display area of the subject exists in the content, and in each time stamp. It can also be said that it is indirectly associated with the display area of the subject (a plurality of screen positions).
  • information indicating some meaning for example, a subject given to at least a part of information included in the content (at least a part of reproduction position and / or at least a part of in-screen position). It is possible to associate tag information with. In this case, it can be said that the tag information is indirectly associated with one or a plurality of positions indicating the portion to which the meaning is given in the content. Information indicating such a meaning is also referred to as a tag information category in this specification.
  • tag information stored in the tag DB 330 is associated with one or more positions in the content, and more specifically, the tag information is, for example, a reproduction position, an in-screen position, or It can be said to be associated with one or more of the categories.
  • the tag information display control unit 340 is realized by a processor such as a CPU operating according to a program stored in a memory, and displays tag information read from the tag DB 330 on a content reproduction screen.
  • the display of the tag information on the content reproduction screen can be the same as that in the first embodiment, for example.
  • the tag information can be associated with, for example, a category.
  • the unit 340 may group and display tag information associated with a common category.
  • the tag information display control unit 340 displays tag category information indicating a category associated with newly generated tag information on the content reproduction screen prior to generation or registration of tag information.
  • the tag category information for example, when the position of the content in the screen is specified by the user activity, information (for example, information on the subject) associated with the tag information generated by a series of activities including the activity is displayed in advance. It can be a thing.
  • the tag information display control unit 340 displays information on the subject displayed in an area located near the position in the screen as tag category information.
  • the tag information display control unit 340 may display the tag information as tag category information. A specific example of the display of tag category information by the tag information display control unit 340 will be described later.
  • the tag association unit 370 is realized by a processor such as a CPU operating according to a program stored in a memory, for example, and the tag information generated by the tag generation unit 160 is converted into content corresponding to the activity that is the basis of the tag information. Associate directly or indirectly with one or more locations within.
  • Tag information associated with content by the tag association unit 370 may be stored in the tag DB 330, for example, or may be provided to the tag information display control unit 340 and displayed in real time on the client 400.
  • the processing of the tag association unit 370 that associates the tag information with the reproduction position or the position within the screen can be the same as the tag association unit 170 in the first embodiment, for example.
  • the tag association unit 370 may indirectly associate the tag information with one or a plurality of positions in the content by associating the tag information with the category. For example, the tag association unit 370 may detect a subject displayed in the vicinity of the position in the screen that is explicitly specified by the user in the activity, and associate tag information with the detected subject.
  • the tag association unit 370 further performs an activity performed by the user according to the tag category information.
  • Information associated with the tag information may be determined.
  • the tag association unit 370 associates tag information with information displayed as tag category information when the user refers to the tag category information and directly executes an activity such as posting a comment. Further, for example, when the user executes an activity including a modification to the tag category information, the tag association unit 370 modifies the information displayed as the tag category information according to the activity and associates the information with the tag information.
  • Playback screen 12 and 13 are diagrams illustrating a display example of a playback screen according to the second embodiment of the present disclosure.
  • a user activates an application for viewing content on the client 200, and the content to be viewed via the home screen 1000 similar to that described in the first embodiment is selected.
  • the image can be displayed on the display unit 230 under the control of the display control unit 220.
  • the playback screen 4000 includes a content image 2001, a tag list display 2003, tag category information 4005, a comment input field 2007, a playback control 2009, a home button 2011, and recommendation information. 2013 and a pointer 4015 are displayed.
  • the tag category information 4005 and the pointer 4015 which are components different from those in the first embodiment, will be particularly described.
  • the tag category information 4005 is associated with tag information that can be generated based on the subsequent user activity when, for example, the user executes an activity that designates a position (in-screen position) in the content image 2001 using the pointer 4015. Present the information of the categories to be selected in advance. For example, as shown in FIG. 12, when the user designates a certain position P in the content image 2001 using the pointer 4015, the tag information display control unit 340 is located in the vicinity of the position P (may include the position P). ) The subject displayed in the area may be searched, and information on the subject found as a result of the search may be displayed as tag category information 4005. At this time, if tag information already associated with the subject is stored in the tag DB 330, the tag information display control unit 340 may display the tag information as the tag information display 4029 in the tag category information 4005. Good.
  • the tag information display control unit 340 when a subject displayed near the position P is not found, the tag information display control unit 340 has a predetermined size area based on the position P (for example, the position P is the center). (Rectangular area) may be specified as an area to replace the display area of the subject, and information indicating this area may be displayed as tag category information 4005. At this time, when tag information already associated with the area is stored in the tag DB 330, the tag information display control unit 340 may display the tag information as the tag information display 4029 in the tag category information 4005. Good.
  • tag information that is not necessarily related to the subject, for example, when the presence of the subject is not detected by image recognition processing or the like, but something that has some meaning for the user is displayed, This may be useful when a user posts a comment about the background (cityscape, landscape, etc.) of the content image 2001 (tag information is generated based on the comment).
  • the tag category information 4005 is, for example, when the user executes an activity that designates the area of the content image 2001 using the pointer 4015 (as described above, the position of the content on the screen can be defined as a range or an area). Information associated with tag information that may be generated based on subsequent user activity may be presented. For example, as illustrated in FIG. 13, when the user designates an area Q in the content image 2001 using a pointer 4015, the tag information display control unit 340 is included in the area Q (partially overlaps with the area Q). Alternatively, the subject displayed in the area is searched, and information about the subject found as a result of the search is displayed as tag category information 4005.
  • the tag information display control unit 340 may display the tag information as the tag information display 4029 in the tag category information 4005. Good.
  • the tag information display control unit 340 has a predetermined size area based on the area Q, as in the example of FIG. (The region Q itself may be specified) as an area to replace the display area of the subject, and information indicating this area may be displayed as the tag category information 4005.
  • FIG. 14 is a diagram illustrating an example of tag category information display according to the second embodiment of the present disclosure.
  • tag category information 4005 presenting information associated with tag information generated based on user activity is displayed on the playback screen 4000.
  • the subject displayed in the vicinity of the position or region in the content image 2001 designated by the user activity is searched, and information related to the subject found as a result of the search is displayed as the tag category information 4005. It was done.
  • a subject detected by image recognition processing or the like is not necessarily recognized as a specific person or object. Therefore, although it is recognized that it is a subject, a person, or a thing, it may not be specified what it is or who it is.
  • a display example of the tag category information 4005 corresponding to such a case will be described.
  • the position P is designated by the user activity in the content image 2001a including some subject (S301).
  • the communication unit 210 of the client 400 shows the image near the position P to the server 300 in addition to the time stamp (T) of the content and the horizontal position and vertical position (X, Y) information of the position P.
  • Information may be transmitted (S303).
  • the information indicating the image in the vicinity of the position P may be, for example, image data obtained by cutting out the content image 2001 in an area of a predetermined size based on the position P, and is based on the feature amount extracted from this image data. It may be data.
  • the tag information display control unit 340 of the server 300 that has received the above information searches for a subject displayed in an area near the position P (S305). More specifically, for example, the tag information display control unit 340 has already associated tag information based on the time stamp (T) of the content and the horizontal position and vertical position (X, Y) information of the position P. A subject near the current position P may be searched. In addition, when subject detection of the entire content has already been performed, the tag information display control unit 340 may refer to the result of subject detection.
  • the tag information display control unit 340 displays the information in the vicinity of the position P received from the client 400.
  • the search for the subject is executed based on the information indicating the image.
  • the tag information display control unit 340 detects a subject by executing an image recognition process using image data obtained by cutting out the content 2001 or data based on a feature amount extracted from the image data.
  • the tag information display control unit 340 causes the client 400 to display information indicating the subject as tag category information 4005.
  • the tag information display control unit 340 uses the tag category information 4005a as information indicating that the subject is unidentified. It is displayed on the client 400 (S307).
  • the tag category information 4005a indicates “Whois” indicating that the subject is an unidentified person. "this?" and a title 4017a are displayed.
  • the title 4017a can be displayed in a form that can be overwritten by the user. If the user knows who the subject is, he can overwrite the title 4017a and input a person name, and post a comment on it (S309).
  • the server 300 Based on the above comment posting, the server 300 generates tag information, and the generated tag information is associated with the subject (S311). At this time, the tag association unit 370 registers the subject associated with the tag information in association with the subject name input by the user and information indicating an image in the vicinity of the position P received from the client 400 previously. sell. As a result, when a position in the screen including a similar image in the content is designated thereafter, the tag information display control unit 340 can display information on the registered subject as the tag category information 4005.
  • the tag information display control unit 340 causes the client 400 to display information indicating that the reliability of the registered subject name is not sufficiently high as the tag category information 4005b (S313).
  • the tag category information 4005b may include a title 4017b indicating that the reliability is not high by adding “?” To the currently registered subject name.
  • the title 4017b can be displayed in a form that can be overwritten by a user (for example, a user different from the user who previously registered the subject name). If the user knows that the subject is a person different from the currently registered subject name, the user can input the person name over the title 4017b and post a comment on it. (S315).
  • a plurality of subject name candidates may be displayed as the title 4017b, and the user may be able to post a comment after selecting a subject name that he thinks is correct from the candidates.
  • the tag association unit 370 (or tag information display control unit 340) generates tag information based on the comment posting, associates it with the subject, and, for example, based on the accumulation of the subject name correction input as described above, The reliability of the registered subject name, the presence / absence of an alternative, and the like are determined, and the subject name is corrected as necessary (S317). After such processing, when a subject name correct to some extent is found, the tag information display control unit 340 displays information indicating that the registered subject name is highly reliable as tag category information 4005c on the client 400. (S319).
  • the tag category information 4005c may include a title 4017c that displays the currently registered subject name without adding “?” Or the like.
  • the title 4017c can be displayed in a form that is not easily overwritten by the user.
  • the title 4017c may be provided with means for the user to present doubt.
  • the tag category information 4005c includes a doubt button 4019. If the user thinks that the subject name displayed by the title 4017c is wrong, he / she presses the doubt button 4019 and inputs the subject name that he thinks is correct. It may be possible to post a comment (S321).
  • the subject name input using the doubt button 4019 is accumulated by, for example, the tag association unit 370 (or the tag information display control unit 340), and the subject name is changed when a similar correction proposal is accumulated to some extent. Or, the subject name is returned to the undetermined state as in the case where the tag category information 4005b is displayed.
  • FIG. 15 is a flowchart illustrating an example of a display process of tag category information display according to the second embodiment of the present disclosure.
  • the activity detection unit 150 acquires an activity that designates the position P in the content image 2001 by the user who is viewing the content on the client 400 (S401).
  • the information acquired by the activity detection unit 150 includes, for example, an image in the vicinity of the position P in addition to the time stamp (T) of the content and the horizontal and vertical positions (X, Y) of the position P. May be included.
  • the tag information display control unit 340 searches the tag information stored in the tag DB 330 using the above information (S403). More specifically, the tag information display control unit 340 has a time stamp (T), a horizontal position, and a vertical position (X, Y), respectively, within a display area or image of a subject located in the vicinity within a predetermined range. Search for tag information associated with a region.
  • the tag information display control unit 340 When the corresponding tag information is found as a result of the search (YES in S405), the tag information display control unit 340 generates a tag information display 4029 based on the found tag information (S407). Further, the tag information display control unit 340 generates a title 4017 based on the subject name associated with the found tag information (S409). The tag information display control unit 340 displays the tag category information 4005 including the tag information display 4029 and the title 4017 on the reproduction screen 4000 displayed on the client 400 (S411).
  • the tag information display control unit 340 is based on the information indicating the image near the position P acquired by the activity detection unit 150.
  • the image recognition process is executed (S413).
  • the tag information display control unit 340 searches the tag DB 330 for tag information associated with the recognized person ( S417).
  • the time stamp (T) between the tag information and the horizontal position and vertical position are determined.
  • tag information can be associated with a plurality of content reproduction positions and a plurality of in-screen positions through the subject.
  • the tag information display control unit 340 If the corresponding tag information is found as a result of the search in S417 (YES in S419), the tag information display control unit 340 generates a tag information display 4029 based on the found tag information (S407). Further, the tag information display control unit 340 generates a title 4017 based on the name of the subject (person) associated with the found tag information (S409). The tag information display control unit 340 displays the tag category information 4005 including the tag information display 4029 and the title 4017 on the reproduction screen 4000 displayed on the client 400 (S411).
  • the tag information display control unit 340 determines whether corresponding tag information is found as a result of the search in S417 (NO in S419). If no corresponding tag information is found as a result of the search in S417 (NO in S419), the tag information display control unit 340 generates a title 4017 based on the name of the subject (person) (S409). When the name of the subject (person) is unknown, the tag information display control unit 340 generates a title 4017 such as “Who is this?” As in the example illustrated in FIG. The tag information display control unit 340 displays tag category information 4005 including the title 4017 on the reproduction screen 4000 displayed on the client 400 (S411). In this case, the tag information newly generated based on the subsequent user activity (comment posting) can be handled as the first tag information associated with the subject (person) in the content.
  • the tag information display control unit 340 is associated with the recognized object.
  • Tag information is searched from the tag DB 330 (S417).
  • the processing after S417 is the same as when the subject is a person (if the name of the subject (object) is unknown, for example, a title 4017 such as “What is this?” May be generated).
  • the tag information display control unit 340 associates an area of a predetermined size with the position P as a reference with the tag information.
  • the tag category information 4005 including information on the area is specified and displayed as an area (S423). In this case, it is possible that the subject is actually displayed in the area just because it was not detected by the image recognition processing, so the tag information display control unit 140 displays “What” as the title 4017 of the tag category information 4005. A character string such as “is this?” may be displayed.
  • the tag information generated based on the activity of the user during the content reproduction is simply associated with the content reproduction position and / or the in-screen position. Rather, it is indirectly associated with a plurality of reproduction positions and a plurality of in-screen positions of the content by being associated with category information such as the subject of the content.
  • tag information can be associated with a series of parts that the user feels in the content, and it can be easy to read meaningful information from the tag information.
  • the category such as the subject is set in the content, but the category may be set across the content.
  • tag information associated with a subject common to certain content and other content may be mutually referable. In this case, for example, when the tag information display 4029 is displayed, if there is no tag information already associated with the content of a certain subject, tag information of other content may be displayed.
  • FIG. 16 is a block diagram illustrating a schematic functional configuration of each device according to the second embodiment of the present disclosure.
  • the system 30 according to the present embodiment includes a server 500 and a client 600.
  • the server 500 and the client 600 are both realized by a hardware configuration of an information processing apparatus to be described later, and are connected to each other by various wired or wireless networks.
  • the server 500 is not necessarily realized by a single information processing apparatus, and may be realized by cooperation of a plurality of information processing apparatuses connected to each other via a network.
  • the functional configuration illustrated is simplified for the description of the present embodiment, and each device may further include a functional configuration not illustrated.
  • a functional configuration not shown in the figure may be already known as a general functional configuration of each apparatus, and thus detailed description thereof is omitted.
  • the server 500 includes a communication unit 110, a tag DB 130, and a communication service providing unit 180.
  • the server 500 provides the client 600 with content acquired from the content provider 50 such as a video distribution server in accordance with a request from the client 600 together with tag information read from the tag DB 130, and content from the client 600.
  • the function of storing the new tag information provided for the tag DB 130 in the tag DB 130 is realized. That is, the server 500 plays a role of collecting tag information generated by each client 600.
  • the server 500 provides a communication service to a plurality of users who have provided tag information associated with the close playback position (and / or close screen position) of the same content by the function of the communication service providing unit 180. Also good.
  • the client 600 includes a reproduction control unit 120, tag information display control, and the like.
  • the client 600 realizes the detection of the activity by the user who is playing the content, the generation of the tag information based on the information related to the activity, and the association of the tag information with the content independently of the server 500. According to such a configuration of the present embodiment, for example, even when the client 600 cannot stably communicate with the server 500 during the reproduction of content, the generation and association of tag information based on the user activity can be executed. it can.
  • the playback control unit 120 controls playback of content data acquired by the communication unit 110.
  • the playback control unit 120 since the playback control unit 120 is provided in the client 600, the playback control unit 120 can control the display control unit 220 and the audio control unit 240.
  • the tag information display control unit 140 displays the tag information read from the tag DB 130 in the server 500 and transmitted from the communication unit 110 to the communication unit 210 of the client 600 on the reproduction screen of the corresponding content.
  • the tag information display control unit 140 since the tag information display control unit 140 is provided in the client 600, the tag information display control unit 140 can control the display control unit 220.
  • the activity detection unit 150 intercepts information transmitted from the communication unit 210 to the server 500 or the like based on the operation input acquired by the operation unit 260 and information received from the server 500 or the like by the communication unit 210, Detect user activity based on. Note that, as indicated by a broken line in the drawing, the activity detection unit 150 may acquire information on a user's operation input directly from the operation unit 260.
  • the tag association unit 170 transmits the tag information generated by the tag generation unit 160 and associated with the content from the communication unit 210 to the server 500. In the server 500, the received tag information is stored in the tag DB 130.
  • FIG. 17 is a block diagram for explaining a hardware configuration of the information processing apparatus.
  • the illustrated information processing apparatus 900 can realize, for example, a server or a client in the above-described embodiment.
  • the information processing apparatus 900 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905.
  • the information processing apparatus 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the information processing apparatus 900 may include a processing circuit called DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 900 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs and calculation parameters used by the CPU 901.
  • the RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters at the time of execution, and the like.
  • the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, or a switch.
  • the input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 900.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data and instruct processing operations to the information processing device 900.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • the output device 917 can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, or an audio output device such as a speaker or headphones.
  • the output device 917 outputs the processing result of the information processing device 900 as video such as text or an image, or outputs it as audio such as voice or sound.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
  • the drive 921 writes a record in the attached removable recording medium 927.
  • the connection port 923 is a port for directly connecting a device to the information processing apparatus 900.
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 may be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
  • Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • an information processing apparatus for example, an information processing apparatus, a system, an information processing method executed by the information processing apparatus or system, a program for causing the information processing apparatus to function, and a program are recorded. It may include tangible media that is not temporary.
  • an activity detection unit for detecting an activity by a user during content reproduction;
  • a tag generator that generates tag information based on the information related to the activity;
  • An information processing apparatus comprising: a tag association unit that associates the tag information with one or a plurality of positions in the content corresponding to the activity.
  • the activity detection unit detects access to information other than the content by the user, The information processing apparatus according to (1), wherein the tag generation unit generates the tag information based on the accessed information. (5) The information processing apparatus according to (4), wherein the tag generation unit generates the tag information including a link to the accessed information. (6) The communication service providing unit further provides a communication service providing a communication service to a plurality of users who have executed activities corresponding to a plurality of tag information associated with a common position in the content, respectively (1) to (5) The information processing apparatus according to any one of the above.
  • the tag association unit associates the plurality of tag information with one or a plurality of reproduction positions in the content that progress with time,
  • Information processing device The activity detection unit detects a user's speech in the communication service,
  • the information processing apparatus according to (6) or (7), wherein the tag generation unit further generates the tag information based on text included in the utterance.
  • the content is video content, The information processing apparatus according to any one of (1) to (8), wherein the tag association unit associates the tag information with an in-screen position of the video content.
  • the information processing apparatus (10) The information processing apparatus according to (9), wherein the activity detection unit detects the activity including designation of the position in the screen.
  • the tag association unit associates the tag information with information related to an area corresponding to the position in the screen.
  • the area includes a display area of a subject, The information processing apparatus according to (11), wherein the tag association unit associates the tag information with information related to the subject.
  • It further includes a tag information display control unit that displays information on the subject to which the tag information is associated in advance on the playback screen of the content, The information processing unit according to (12), wherein the tag association unit determines information associated with the tag information based on an activity further performed by a user according to information displayed in advance by the tag information display control unit. apparatus.
  • the tag information display control unit converts the information related to the subject to which the tag information is associated with other tag information associated with a position close to one or a plurality of positions in the content corresponding to the activity.
  • the information processing apparatus determines the information based on the associated subject information.
  • the information processing apparatus determines information on the subject to which the tag information is associated based on information extracted from the image of the region.
  • the tag association unit corrects information on the subject to which the tag information is associated based on an activity further performed by the user according to information displayed in advance by the tag information display control unit.
  • the information processing apparatus according to any one of 13) to (15).
  • the tag association unit associates the tag information with one or a plurality of reproduction positions in the video content that progresses with time
  • the information processing apparatus further includes a tag information display control unit that causes the tag information to be displayed on a playback screen of the video content by a captured image of the video content at the one or more playback positions.
  • the information processing apparatus according to any one of (16).
  • (18) The information processing apparatus according to (17), wherein the tag information display control unit further displays the tag information on the reproduction screen using an icon indicating a type of information included in the tag information.
  • the playback control unit further jumps playback of the video content to a playback position corresponding to the selected tag information.
  • the information processing apparatus according to (18). (20) detecting an activity by a user during content playback; Generating tag information based on information about the activity; Associating the tag information with one or more positions in the content corresponding to the activity.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツに対するユーザのアクティビティによって発生した情報を、コンテンツに関連付けて有効に活用する。 【解決手段】コンテンツ再生中のユーザによるアクティビティを検出するアクティビティ検出部と、上記アクティビティに関する情報に基づいてタグ情報を生成するタグ生成部と、上記タグ情報を上記アクティビティに対応する上記コンテンツ内の1または複数の位置に関連付けるタグ関連付け部とを備える情報処理装置が提供される。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関する。
 例えば放送されるテレビ番組のように、元来一方的なものであったコンテンツの視聴体験は、近年のコンテンツ提供手段の多様化と、ソーシャルメディアなどの情報発信手段の普及とによって、視聴者がコンテンツに対して何らかのアクティビティを実行する双方向的なものになりつつある。例えば、特許文献1には、放送中の番組の視聴者に対して外部の投稿サイトへの投稿コメントを提示することによって双方向的な視聴体験を提供する技術が記載されている。
特開2013-12955号公報
 上記の例のように双方向的なコンテンツの視聴体験が実現されつつある結果、ネットワーク上でコンテンツに対するユーザのアクティビティによって膨大な情報が発生している。例えば特許文献1の例のようにユーザがコンテンツに対して入力したコメントや、ユーザがコンテンツの内容に関して実行したWeb検索の結果、ユーザがコンテンツの内容に触発されて視聴した他のコンテンツなどの情報の多くは、ネットワーク上のサーバや端末装置の中に蓄積されているが、元のコンテンツに関連付けて活用されていはいない。
 そこで、本開示では、コンテンツに対するユーザのアクティビティによって発生した情報を、コンテンツに関連付けて有効に活用することを可能にする、新規かつ改良された情報処理装置および情報処理方法を提案する。
 本開示によれば、コンテンツ再生中のユーザによるアクティビティを検出するアクティビティ検出部と、上記アクティビティに関する情報に基づいてタグ情報を生成するタグ生成部と、上記タグ情報を上記アクティビティに対応する上記コンテンツ内の1または複数の位置に関連付けるタグ関連付け部とを備える情報処理装置が提供される。
 また、本開示によれば、コンテンツ再生中のユーザによるアクティビティを検出することと、上記アクティビティに関する情報に基づいてタグ情報を生成することと、上記タグ情報を上記アクティビティに対応する上記コンテンツ内の1または複数の位置に関連付けることとを含む情報処理方法が提供される。
 以上説明したように本開示によれば、コンテンツに対するユーザのアクティビティによって発生した情報を、コンテンツに関連付けて有効に活用することができる。
本開示の第1の実施形態に係るシステムの概要について説明するための図である。 図1に示したシステムにおける情報のフローの例を示す図である。 本開示の第1の実施形態に係る各装置の概略的な機能構成を示すブロック図である。 本開示の第1の実施形態におけるホーム画面の表示例を示す図である。 本開示の第1の実施形態におけるホーム画面の表示例を示す図である。 本開示の第1の実施形態における再生画面の表示例を示す図である。 本開示の第1の実施形態における再生画面の表示例を示す図である。 本開示の第1の実施形態における再生画面と他の画面との連携の例を示す図である。 本開示の第1の実施形態における再生画面で画面内位置を指定する場合の表示例を示す図である。 本開示の第1の実施形態における再生画面でコミュニケーションサービスが提供される場合の表示例を示す図である。 本開示の第2の実施形態に係る各装置の概略的な機能構成を示すブロック図である。 本開示の第2の実施形態における再生画面の表示例を示す図である。 本開示の第2の実施形態における再生画面の表示例を示す図である。 本開示の第2の実施形態におけるタグカテゴリ情報表示の例を示す図である。 本開示の第2の実施形態におけるタグカテゴリ情報表示の表示プロセスの例を示すフローチャートである。 本開示の第3の実施形態に係る各装置の概略的な機能構成を示すブロック図である。 情報処理装置のハードウェア構成を説明するためのブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1-1.システムの概要
  1-2.機能構成
  1-3.画面表示例
 2.第2の実施形態
 3.第3の実施形態
 4.ハードウェア構成
 5.補足
 (1.第1の実施形態)
 (1-1.システムの概要)
 図1は、本開示の第1の実施形態に係るシステムの概要について説明するための図である。図1を参照すると、本実施形態に係るシステム10は、サーバ100とクライアント200とを含む。サーバ100とクライアント200とは、いずれも後述する情報処理装置のハードウェア構成によって実現され、有線または無線の各種ネットワークによって互いに接続される。なお、サーバ100は、必ずしも単一の情報処理装置によって実現されなくてもよく、ネットワークによって互いに接続された複数の情報処理装置の協働によって実現されてもよい。
 まず、サーバ100は、クライアント200に対して視聴可能なコンテンツを提示する(S101)。クライアント200のユーザは、提示されたコンテンツの中から視聴したいコンテンツを選択し、サーバ100にリクエストを送信する(S103)。リクエストを受信したサーバ100は、例えば動画配信サーバなどのコンテンツプロバイダ50にリクエストを転送し(S105)、クライアント200のユーザからリクエストされたコンテンツを取得する(S107)。
 サーバ100は、コンテンツプロバイダ50から取得したコンテンツをクライアント200に提供する(S109)にあたって、タグ情報を一緒に提供する(S111)。タグ情報は、例えばサーバ100が同じコンテンツを視聴した他のユーザのアクティビティに基づいて生成した情報であり、少なくともコンテンツの再生位置に関連付けられている。ここでいうユーザのアクティビティは、例えばコンテンツの再生中にコメントを投稿したり、Web検索を実行したり、写真や映像などの他のコンテンツを視聴したりすることでありうる。本実施形態では、こうしたユーザのアクティビティに基づいて生成されたタグ情報がコンテンツとともに提示される。クライアント200のユーザは、タグ情報を選択することによって、例えばコンテンツに関連する情報に容易にアクセスできたり、コンテンツに対する他のユーザの受け取り方を知ることができる。
 クライアント200のユーザによっていずれかのタグ情報が選択された場合(S113)、サーバ100は、例えば選択されたタグ情報に含まれるURL(Uniform Resource Locator)を用いてWWW(World Wide Web)60にアクセスし(S115)、Webページのスナップショットを取得する(S117)。取得されたスナップショットは、クライアント200に送信される(S119)。また、タグ情報に他のユーザのコメントや他のコンテンツ(Video)が含まれる場合、同様にサーバ100はこれらの情報をクライアント200に提供する(S121)。
 また、クライアント200のユーザは、コンテンツに対してコメントを入力することができる(S123)。サーバ100は、クライアント200から受信した新たなコメントに基づいて、さらにタグ情報を生成する。さらに、クライアント200のユーザによるコンテンツに対する他のアクティビティ、例えばコンテンツの内容に関して実行したWeb検索の結果や、他のコンテンツの視聴などの情報も、コメントと同様にサーバ100に送信されうる。サーバ100はこれらの情報に基づいて新たなタグ情報を生成してコンテンツに追加で関連付ける。
 さらに、サーバ100は、クライアント200に対して、コンテンツ自体の提供とは別に、他のユーザのコメントやコンテンツのリコメンド、ランキングなどの情報を提供してもよい(S125~S129)。こうした情報によって、例えばクライアント200のユーザが視聴するコンテンツを選択しやすくすることができる。
 図2は、図1に示したシステムにおける情報のフローの例を示す図である。図2を参照すると、本実施形態に係るシステム10では、大きく分けて、コンテンツ選択(S201~S213)、リコメンド(S215~S221)、およびサブ情報(S223~S231)のフローが発生しうる。
 まず、クライアント200においてユーザがコンテンツ視聴のためのアプリケーションを起動(S201)すると、ホーム画面(S203)が表示される。ホーム画面には、キュレータリスト(S205)および/またはグループリスト(S207)が表示される。本実施形態において、キュレータは、システム10を介して提供されるコンテンツを整理する役割を担うユーザである。キュレータは、例えば多数あるコンテンツの中から自らの好みに従ってコンテンツを収集する。ユーザがキュレータリスト(S205)の中からいずれかのキュレータを選択すると、そのキュレータが収集したコンテンツのリスト(S209)が表示される。一般のユーザは、好みが近いキュレータをフォローすることによって、好みに合うコンテンツにアクセスすることが容易になる。
 一方、本実施形態において、グループは、上記のキュレータとフォロワーのような従属関係ではなく、各ユーザが対等な関係で形成されるグループである。システム10では、例えばグループに属する複数のユーザが視聴したり、ポジティブに評価したりしたコンテンツが収集されうる。グループは、例えば友人同士などのユーザが意図的に設定した社会的なグループであってもよいし、コンテンツの視聴履歴や後述するタグ情報の収集などによって好みが似ていること推定されるユーザが自動的に分類されるグループであってもよい。ユーザがグループリスト(S207)の中からいずれかのグループを選択すると、そのグループに関連付けて収集されたコンテンツのリスト(S209)が表示される。ユーザは、グループリストを介して、例えば友人が視聴したコンテンツや、好みが似た他のユーザが視聴したコンテンツなどに容易にアクセスすることができる。
 ユーザがコンテンツのリスト(S209)の中からいずれかのコンテンツを選択すると、そのコンテンツの再生画面(S211)が表示される。再生画面に表示されるホームボタン(S213)を選択することで、ユーザはホーム画面(S203)に戻ることができる。なお、例えば以前にアプリケーションがコンテンツの視聴途中で終了した場合や、最初に視聴するコンテンツが予め設定されている場合などには、アプリケーションの起動(S201)に続いて自動的にコンテンツの再生画面(S211)が表示されてもよい。
 コンテンツの再生画面(S211)には、再生中のコンテンツに加えてリコメンドに関する情報が表示されうる。図示された例では、再生画面にソーシャルメディアからのリコメンド情報(S215)が表示される。また、再生画面には同じコンテンツを視聴した友人の情報(S217)も表示されうる。さらに、ユーザは、再生画面に表示されたボタンなどを用いて、コンテンツに対するポジティブな評価(S219“Nice!”)を入力することもできる。ポジティブな評価が入力された場合、そのコンテンツについてのリコメンド(S221)が実行されうる。リコメンドは、例えばユーザと同じグループに属する他のユーザに対して実行されてもよく、ユーザがキュレータである場合にはそのフォロワーに対して実行されてもよい。このとき、同じコンテンツを視聴した友人の情報(S217)に基づいて、既にそのコンテンツを視聴したユーザはリコメンドの対象から除外されてもよい。
 また、コンテンツの再生画面(S211)には、再生中のコンテンツに加えてタグ情報(S223)が表示されうる。図示された例では、ユーザによるソーシャルメディアなどへのコメントの投稿(S225)およびWebなどの検索(S227)によってタグ情報が生成されている。このようなタグ情報の生成については、後で詳しく説明する。タグ情報や、検索によって得られたURLリスト(S229)などは、サブ情報(S231)としてコンテンツに関連付けて再生画面(S211)に表示されてもよい。
 (1-2.機能構成)
 図3は、本開示の第1の実施形態に係る各装置の概略的な機能構成を示すブロック図である。以下、図3を参照して、各装置の機能構成について説明する。なお、図示されている機能構成は本実施形態の説明のために簡略化されており、各装置は図示されていない機能構成をさらに含んでもよい。図示されていない機能構成は、各装置の一般的な機能構成として既に知られたものでありうるため、詳細な説明は省略する。
  (サーバ)
 サーバ100は、通信部110と、再生制御部120と、タグDB130と、タグ情報表示制御部140と、アクティビティ検出部150と、タグ生成部160と、タグ関連付け部170と、コミュニケーションサービス提供部180とを含む。
 通信部110は、例えば通信装置によって実現され、有線または無線の各種ネットワークを介してクライアント200と通信する。また、通信部110は、ネットワークを介して上述したコンテンツプロバイダ50やWWW60などとも通信し、コンテンツデータなどを取得する。通信部110は、受信したコンテンツデータを再生制御部120に提供し、再生制御部120の制御に従ってコンテンツデータをクライアント200に送信する。また、通信部110は、タグ情報表示制御部140の制御に従って、タグ情報を表示するためのデータをクライアント200に送信する。さらに、通信部110は、クライアント200のユーザがコンテンツに対して実行した各種のアクティビティに関連してクライアント200の通信部210が送受信する情報を傍受してアクティビティ検出部150に提供する。また、通信部110は、コミュニケーションサービス提供部180によって提供されるサービスに関する情報をクライアント200との間で送受信する。
 再生制御部120は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、通信部110が取得したコンテンツデータの再生を制御する。例えば、再生制御部120は、クライアント200のユーザによって別途の操作がされない場合には、コンテンツプロバイダ50から取得したコンテンツを最初から順次再生しうる。ここで、例えば、後述するタブ情報表示制御部140によってコンテンツについて生成されたタグ情報がコンテンツの再生画面に表示され、クライアント200のユーザが表示されたタグ情報を選択したような場合、再生制御部120はコンテンツを当該タグ情報に対応する再生位置から再生してもよい。また、後述するコミュニケーションサービス提供部180によってタグ情報に関連するコミュニケーションサービスが提供されている場合、再生制御部120は、コンテンツを当該タグ情報に対応する再生位置を含む範囲で繰り返し再生してもよい。また、再生制御部120は、コンテンツを選択するためのホーム画面を表示させてもよい。
 タグDB130は、例えばストレージ装置によって実現され、コンテンツについて生成されたタグ情報を格納する。タグ情報は、例えば後述するタグ生成部160によって生成され、タグ関連付け部170によって少なくともコンテンツの再生位置に関連付けられた上で、タグDB130に格納される。また、タグ情報は、初期設定として用意されたものを含んでもよい。タグ情報は、例えばテキストを含みうる他、Webページや他のコンテンツなどへのリンクやサムネイルなどを含んでもよい。例えば、コンテンツの再生位置がタイムスタンプによって定義される場合、タグ情報は「タイムスタンプ1h23m45s678に関連付けられたタグ情報」として記録されうる。なお、タグ情報が関連付けられる再生位置は、範囲として定義されてもよい。さらに、タグ情報は、コンテンツが映像コンテンツである場合、映像コンテンツの画面内位置に関連付けられてもよい。この場合、タグ情報は例えば「(X,Y,T)=(0.123,0.456,1h23m45s678)に関連付けられたタグ情報」として記録されうる。この例において、Xは画面内の横位置、Yは画面内の縦位置、Tはタイムスタンプを表す。なお、XおよびYのような画面内位置は、例えばクライアント200ごとの再生画面のサイズの相違を考慮して、正規化した値で記録されてもよい。タグ情報が関連付けられる画面内位置も、範囲または領域として定義されうる。
 タグ情報表示制御部140は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、タグDB130から読み出されたタグ情報を、コンテンツの再生画面に表示させる。例えば、タグ情報表示制御部140は、タグ情報を、関連付けられた再生位置ごとに配列して再生画面に表示させてもよい。このとき、タグ情報表示制御部140は、互いに近接する再生位置に関連付けられたタグ情報をグループ化して表示させてもよい。また、タグ情報が画面内位置にも関連付けられている場合、タグ情報表示制御部140は、同じまたは近接する再生位置に関連付けられているが異なる画面内位置に関連付けられたタグ情報を別々に表示させてもよい。また、タグ情報表示制御部140は、タグ情報を選択可能なアイコンとして再生画面に表示させうる。アイコンは、例えば、タグ情報に関連付けられた再生位置でのコンテンツのキャプチャ画像や、タグ情報に含まれる情報の種類を示すアイコンなどを含みうる。クライアント200のユーザがタグ情報のアイコンを選択した場合、タグ情報表示制御部140は、当該タグ情報とともにグループ化されたタグ情報を個別に表示する画面を再生画面に別途表示させてもよい。また、上記のように、このとき、再生制御部120によって、コンテンツが選択されたタグ情報の再生位置にジャンプして再生されてもよい。なお、タグ情報表示制御部140によるタグ情報の表示の具体的な例については後述する。
 アクティビティ検出部150は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、コンテンツ再生中のユーザによるアクティビティを検出する。より具体的には、アクティビティ検出部150は、通信部110を介して、コンテンツが再生されているクライアント200との間で送受信された情報を傍受し、その情報に基づいて、クライアント200でコンテンツの再生中にユーザが実行したアクティビティを検出する。例えば、アクティビティ検出部150によって検出されるアクティビティは、ユーザによるコメントの投稿を含みうる。コメントは、例えばサーバ100によって提供されるサービス上で投稿されてもよいし、他のソーシャルメディアに投稿されてもよい。また、アクティビティ検出部150によって検出されるアクティビティは、ユーザによる再生中のコンテンツ以外の情報へのアクセスを含んでもよい。ここでアクセスされる情報は、例えばWebページであってもよく、また別のコンテンツであってもよい。これらの情報は、例えばユーザがキーワード検索を実行することによってアクセスされうる。さらに、アクティビティ検出部150は、後述するコミュニケーションサービス提供部180によって提供されるコミュニケーションサービスにおけるユーザの発言をアクティビティとして検出してもよい。
 タグ生成部160は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、アクティビティ検出部150によって検出されたアクティビティに関する情報に基づいて新たなタグ情報を生成する。上記の通り、生成されるタグ情報は、例えばテキストを含みうる他、Webページや他のコンテンツなどへのリンクやサムネイルなどを含みうる。タグ生成部160は、かかるタグ情報を、検出されたユーザのアクティビティに関する各種のログを解析することによって生成しうる。例えば、クライアント200でコンテンツの再生中にユーザがコメントを投稿したり、コミュニケーションサービスにおいて発言したりした場合、アクティビティ検出部150は投稿されたコメントまたは発言の情報を取得し、タグ生成部160はコメントをテキストとして含むタグ情報を生成しうる。また、例えば、クライアント200でコンテンツの再生中にユーザがWeb検索を実行した場合、アクティビティ検出部150は検索クエリや検索結果の情報を取得し、タグ生成部160は検索クエリに含まれるキーワードのテキストと検索結果のWebページのリンクやスナップショットとを含むタグ情報を生成しうる。さらに、例えば、クライアント200でコンテンツの再生中にユーザが他のコンテンツを再生した場合、アクティビティ検出部150は再生された他のコンテンツのアドレスまたは他のコンテンツ自体の情報を取得し、タグ生成部160は他のコンテンツへのリンクまたは他のコンテンツ自体を含むタグ情報を生成しうる。なお、リンクや他のコンテンツは、例えばコメント投稿時のユーザ操作によって明示的に添付されてもよい。
 タグ関連付け部170は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、タグ生成部160によって生成されたタグ情報を、タグ情報の元になったアクティビティに対応するコンテンツの再生位置に関連付ける。タグ関連付け部170によってコンテンツに関連付けられたタグ情報は、例えばタグDB130に格納されてもよく、またタグ情報表示制御部140に提供されてクライアント200でリアルタイムに表示されてもよい。例えば、タグ情報が関連付けられる再生位置は、コメントが投稿された時や、Web検索が実行された時、他のコンテンツの再生が開始された時のコンテンツ(元々再生されているコンテンツ)の再生位置でありうる。あるいは、ユーザがコメントの入力を開始した時や、Web検索のためのキーワードの入力を開始した時、他のコンテンツの再生のためのアプリケーションを起動した時などが特定可能であれば、それらに対応する再生位置にタグ情報が関連付けられてもよい。なお、タグ関連付け部170は、複数のタグ情報について特定された再生位置が互いに近接している場合、これらのタグ情報を共通する再生位置に関連付けてもよい。また、上述のように本実施形態においてタグ情報は映像コンテンツの画面内位置にも関連付けられうる。タグ関連付け部170は、例えばユーザがアクティビティにおいて明示的に指定した画面内位置にタグ情報を関連付ける。ここで、画面内位置は範囲または領域として指定されてもよい。あるいは、例えばユーザがクライアント200でHMD(Head Mounted Display)などを用いてコンテンツを視聴しており、視線検出などを利用してコンテンツの再生画面におけるユーザの注視領域が検出可能である場合、タグ関連付け部170は、検出された注視領域に基づいてタグ情報を関連付ける画面内位置を決定してもよい。
 コミュニケーションサービス提供部180は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、複数のクライアント200のユーザにコミュニケーションサービスを提供する。提供されるコミュニケーションサービスは、例えばユーザ間で発言を交換するチャットのようなものでありうる。例えば、コミュニケーションサービス提供部180は、同じコンテンツの近接する再生位置(および/または近接する画面内位置)に関連付けられるタグ情報の元になるアクティビティを実行した複数のユーザにコミュニケーションサービスを提供しうる。より具体的には、コミュニケーションサービス提供部180は、例えばこれらのユーザが参加するチャットルームを開設する。チャットルームに入室したユーザは、例えば後述する再生画面内の別画面において発言を交換することが可能である。発言には、例えばWebページや他のコンテンツなどへのリンクが付加されていてもよい。こうしたチャットルームでのユーザの発言や、発言に付加されたリンクなどの情報も、アクティビティ検出部150によってコンテンツ再生中のアクティビティとして検出されうる。また、ユーザがチャットルームを利用している間、再生制御部120が対象の再生位置を含む範囲でコンテンツを繰り返し再生してもよい。
  (クライアント)
 クライアント200は、通信部210と、表示制御部220と、表示部230と、音声制御部240と、音声出力部250と、操作部260とを含む。クライアント200は、例えば、各種のPC(Personal Computer)、タブレット端末、スマートフォン、ゲーム機、メディアプレーヤなど、ユーザがコンテンツを視聴することが可能な各種の端末装置でありうる。
 通信部210は、例えば通信装置によって実現され、有線または無線の各種ネットワークを介してサーバ100と通信する。通信部210は、コンテンツデータをサーバ100から受信して、表示制御部220および音声制御部240に提供する。また、通信部210は、コンテンツに関するタグ情報を表示するためのデータをサーバ100から受信して、表示制御部220に提供する。さらに、通信部210は、コンテンツの再生中にユーザが操作部260に与えた操作入力に従ってデータを送受信する。例えば、通信部210は、操作部260に与えられた検索の操作入力(検索キーワードの入力および検索実行の指示)に従って検索クエリを送信し、検索結果のWebページや他のコンテンツなどの情報を受信する。また、例えば、通信部210は、操作部260に与えられたコメント投稿の操作入力(コメントのテキスト入力および投稿実行の指示)に従ってサーバ100またはソーシャルメディアのサーバなどにコメントを送信する。このようにしてコンテンツの再生中に通信部210が送受信するデータは、サーバ100の通信部110を介して他のサーバなどとやりとりされる。上述の通り、サーバ100の通信部110は、このときに送受信されるデータを傍受することによって、ユーザがコンテンツに対して実行した各種のアクティビティに関する情報をアクティビティ検出部150に提供する。
 表示制御部220は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、例えばLCDまたは有機ELディスプレイなどの各種の表示装置によって実現される表示部230における画像の表示を制御する。表示制御部220は、通信部210から、コンテンツデータと、コンテンツに関するタグ情報を表示するためのデータと、ユーザが操作部260に与えた操作入力に従って受信されたデータとを取得する。これらのデータに基づいて、表示制御部220は、表示部230に、コンテンツの再生画面を表示させる。再生画面は、例えば、コンテンツ画像と、コンテンツ画像の周辺に表示されるタグ情報のアイコンとを含みうる。また、表示制御部220は、ユーザがコンテンツに対する各種のアクティビティを実行するための画面を、再生画面の中に、または再生画面とは別に表示させてもよい。表示制御部220は、例えば、ユーザがコメントを入力するためのコメント入力欄や、検索キーワードを入力するためのキーワード入力欄、および/またはアクティビティの対象になる画面内位置を指定するための操作要素などを表示させる。また、表示制御部220は、サーバ100から取得したデータに基づいて表示部230にホーム画面を表示させてもよい。なお、表示制御部220が表示部230に表示させる画面の例については、後にさらに詳しく説明する。
 音声制御部240は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、例えばスピーカなどによって実現される音声出力部250における音声の出力を制御する。音声制御部240は、通信部210から取得したコンテンツデータに基づいて、音声出力部250からコンテンツ音声を出力させる。コンテンツ音声は、表示部230に表示されるコンテンツ画像に連動する音声である。また、音声制御部240は、ユーザが操作部260に与えた操作入力に従って受信されたデータを通信部210から取得し、このデータに基づいて音声出力部250から音声を出力させてもよい。なお、本実施形態ではコンテンツが映像コンテンツである場合を例として説明しているが、他の実施形態では、再生されるコンテンツや再生中のユーザのアクティビティによって取得されるコンテンツが、音楽コンテンツなど画像を含まないコンテンツであってもよい。そのようなコンテンツは主に音声制御部240および音声出力部250を介して出力されうる。
 操作部260は、例えばタッチパネル、マウス、またはキーボードのような各種の入力装置によって実現され、ユーザによる操作入力を取得する。取得された操作入力に基づいて、例えば通信部210を介してサーバ100を含む各種サーバに情報が送信される。これによって、例えば再生するコンテンツの選択や、コンテンツ再生の開始および終了などが制御されうる。また、コンテンツ再生中に操作部260によって取得された検索の操作入力(検索キーワードの入力および検索実行の指示)やコメント投稿の操作入力(コメントのテキスト入力および投稿実行の指示)なども、通信部210を介して各種サーバに送信されうる。また、操作部260が取得した操作入力は、表示制御部220または音声制御部240に提供され、表示部230に表示される画像または音声出力部250から出力される音声の制御に用いられてもよい。
 (1-3.画面表示例)
  (ホーム画面)
 図4および図5は、本開示の第1の実施形態におけるホーム画面の表示例を示す図である。ホーム画面は、例えばクライアント200でユーザがコンテンツ視聴のためのアプリケーションを起動したときに、表示制御部220の制御によって表示部230に表示されうる。
 図4を参照すると、ホーム画面1000には、コンテンツアイコン1001が表示される。コンテンツアイコン1001は、例えばコンテンツのサムネイルまたはスナップショットなどの画像であり、キュレータ領域1003、またはグループ領域1005に区分して配置される。キュレータ領域1003には、上述したキュレータによって収集されたコンテンツのコンテンツアイコン1001が表示される。グループ領域1005には、上述したユーザのグループについて収集されたコンテンツのコンテンツアイコン1001が表示される。これらの領域は、上述したキュレータリストやグループリストとして機能しうる。図示された例では、キュレータ領域1003およびグループ領域1005がそれぞれ円形または楕円形で表示される。それぞれのキュレータ領域1003およびグループ領域1005は、例えばユーザがキュレータをフォローしている場合や、ユーザがグループに分類されている場合に大きく表示されうる。また、各領域は、ユーザがキュレータまたはグループについて収集されたコンテンツを視聴する頻度が高い場合や、キュレータの人気度が高い場合、ユーザとグループとの好みが近い場合などに大きく表示されてもよい。
 収集されたコンテンツが多い場合、各領域に配置されるコンテンツアイコン1001は、各キュレータまたはグループについて収集されたコンテンツのうち、人気度や視聴回数などに応じて抽出された代表的なものであってもよい。例えばコンテンツに対してコメントなどの他のユーザからのアクティビティが多く検出されている場合、コンテンツアイコン1001は光るなどのエフェクト1007を伴って表示され、ユーザが「盛り上がっている」コンテンツを見つけることを容易にしてもよい。ユーザがいずれかの領域を選択すると、そのキュレータまたはグループに対応するコンテンツのリストが表示されうる。また、ユーザがコンテンツアイコン1001を選択すると、直接的にそのコンテンツの視聴を開始することが可能であってもよい。
 図5に示すように、ユーザがキュレータ領域1003またはグループ領域1005を拡大すると、その領域に配置されたコンテンツアイコン1001が拡大表示される。あるいは、領域に配置されたコンテンツが収集されたコンテンツの一部である場合、領域が拡大されたことによってその領域に配置される他のコンテンツについてのコンテンツアイコン1001が新たに表示されてもよい。ある領域が拡大された場合、他の領域は縮小されたり、ホーム画面1000の周辺部に移動されたりしうる。図示された例では、キュレータAについてのキュレータ領域1003aが拡大されたために、キュレータBについてのキュレータ領域1003b、およびグループ1,2についてのグループ領域1005a,1005bが縮小され、ホーム画面1000の周辺部に移動されている。
  (再生画面)
 図6および図7は、本開示の第1の実施形態における再生画面の表示例を示す図である。再生画面は、例えばクライアント200でユーザがコンテンツ視聴のためのアプリケーションを起動し、上述したホーム画面1000などを介して視聴するコンテンツを選択したときに、表示制御部220の制御によって表示部230に表示されうる。
 図6を参照すると、再生画面2000には、コンテンツ画像2001と、タグ一覧表示2003と、タグ詳細表示2005と、コメント入力欄2007と、再生コントロール2009と、ホームボタン2011と、リコメンド情報2013とが表示される。
 コンテンツ画像2001は、サーバ100が再生制御部120の制御に従ってクライアント200に送信したデータに基づいて表示されるコンテンツの画像である。図示された例においてコンテンツは映像コンテンツであるが、上述のようにコンテンツは音楽コンテンツなど画像を含まないコンテンツであってもよい。その場合、コンテンツ画像2001としては、例えば音楽コンテンツに対応してサーバ100から提供されたイメージ画像、またはサーバ100もしくはクライアント200で生成された視覚エフェクト画像が表示されてもよく、再生画面2000がコンテンツ画像2001を含まなくてもよい。
  (タグ一覧表示)
 タグ一覧表示2003は、再生中のコンテンツ、すなわち図示された例ではコンテンツ画像2001として表示されているコンテンツに関連付けられたタグ情報の一覧を表示する。本実施形態において、タグ情報の一覧を表示するためのデータは、サーバ100のタグ情報表示制御部140によって提供される。上述のように、タグ情報表示制御部140は、既に生成されたタグ情報に加えてタグ関連付け部170新たにコンテンツに関連付けられたタグ情報に基づくデータを提供しうる。従って、再生画面2000でコンテンツを視聴しているユーザ、または他のユーザのアクティビティに基づいて、タグ関連付け部170がコンテンツに新たなタグ情報を関連付けた場合、タグ情報表示制御部140から提供される新たなデータによって、タグ一覧表示2003は新たなタグ情報を含む表示に動的に更新されうる。より具体的には、例えば、後述する種類アイコン2025が追加されたり、グループ内タグ数2027の数字が徐々に増えたりしてもよい。
 図示された例において、タグ一覧表示2003では、タグ情報を示すアイコンとして、各タグ情報に関連付けられた再生位置でのコンテンツのキャプチャ画像2021が表示される。キャプチャ画像2021は、対応する再生位置を示すタイムスタンプ2023とともに表示されうる。また、キャプチャ画像2021には、タグ情報の種類アイコン2025が付加されていてもよい。図示された例において、タグ情報はテキスト(種類アイコン2025t)、Webページへのリンク(種類アイコン2025w)、および/または他のコンテンツへのリンク(種類アイコン2025v)などを含みうる。種類アイコン2025の表示によって、ユーザは、各タグ情報がどのような種類の情報を含むかを容易に識別することができる。
 また、図示された例において、タグ一覧表示2003では、タグ情報を示すアイコンが、互いに近接する再生位置に関連付けられている場合にはグループ化して表示される。このような場合、キャプチャ画像2021にグループ内タグ数2027の表示が付加されてもよい。例えば、タイムスタンプ2023が「0:24」のキャプチャ画像2021aにグループ内タグ数2027として「18」が表示されている場合、この再生位置の近傍に関連付けられたタグ情報が18件あることがわかる。このようにタグ情報がグループ化される場合、種類アイコン2025もキャプチャ画像2021に複数付加されうる。例えば、上記のキャプチャ画像2021aには、種類アイコン2025t,2025w,2025vが表示されているため、18件のタグ情報の中にテキストとWebページへのリンクと他のコンテンツへのリンクとが含まれることがわかる。
  (タグ詳細表示)
 タグ詳細表示2005は、タグ一覧表示2003として表示されたタグ情報のアイコンが選択された場合に、当該タグ情報とともにグループ化されたタグ情報を個別に表示する。本実施形態では、タグ詳細表示2005を表示するためのデータも、タグ一覧表示2003と同様にサーバ100のタグ情報表示制御部140によって提供されうる。上述のように、タグ情報表示制御部140は、既存のタグ情報に加えて、タグ関連付け部170によって新たにコンテンツに関連付けられたタグ情報に基づくデータを提供しうる。従って、再生画面2000でコンテンツを視聴しているユーザ、または他のユーザのアクティビティに基づいてタグ生成部160が新たなタグ情報を生成した場合、タグ詳細表示2005は新たなタグ情報を含む表示に更新されうる。より具体的には、例えば、コンテンツの再生中に新たなタグ情報が追加して表示されうる。
 ここで、図6に示した例では、ユーザがタグ一覧表示2003として表示されたタグ情報のアイコンを選択していないため、タグ詳細表示2005は空欄になっている。この場合に、タグ詳細表示2005に代えて広告などが表示されてもよい。一方、図7に示した例では、ユーザがタグ一覧表示2003として表示されたキャプチャ画像2021aを選択したために、キャプチャ画像2021aに対応するグループに含まれるタグ情報が、タグ詳細表示2005として表示されている。上述のように、このとき、コンテンツ画像2001として表示されているコンテンツの再生位置は、選択されたタグ情報の再生位置(図7の例ではタイムスタンプ「0:24」)にジャンプしうる。
 図7の例において、タグ詳細表示2005には、テキスト、Webページ、および他のコンテンツをそれぞれ含む3件のタグ情報表示2029t,2029w,2029vが表示されている。これらのタグの情報の種類を識別するために、タグ一覧表示2003に表示された種類アイコン2025と同様の種類アイコン2031が表示されてもよい。
 Webページを含むタグ情報表示2029wでは、Webページのスナップショット2033が表示されうる。スナップショット2033にはWebページへのリンクが設定されており、ユーザはスナップショット2033の画像を選択することによってWebページへアクセス可能であってもよい。また、他のコンテンツを含むタグ情報表示2029vでは、他のコンテンツのサムネイル2035が表示されうる。サムネイル2035には他のコンテンツを再生するためのリンクが設定されており、ユーザはサムネイル2035を選択することによって他のコンテンツにアクセス可能であってもよい。この場合、他のコンテンツは、例えば再生画面2000とは別の画面で再生されうる。別の実施形態では、例えば表示可能なタグ情報表示2029の数を増やすために、タグ詳細表示2005の開始時にはスナップショット2033やサムネイル2035が表示されず、タグ情報表示2029が選択された場合に詳細情報としてスナップショット2033やサムネイル2035が表示されてもよい。
 上述の通り、キャプチャ画像2021aに対応するグループには18件のタグ情報が含まれ、図示された例のタグ詳細表示2005には一度に表示されない。このような場合、タグ詳細表示2005にはスクロールバー2037が表示され、上下方向に配列されたタグ情報表示2029をスクロールさせて閲覧することが可能であってもよい。タグ情報表示2029が配列される順番は、例えば時系列であってもよく、Webページやコンテンツのリンクへのアクセス数などによって決定される人気度順であってもよい。また、コンテンツに新たなタグ情報が関連付けられた場合、新たなタグ情報はタグ詳細表示2005の一番上または一番下に追加されてもよい。
 また、後述する変形例の場合とは異なり、図7の例では、コンテンツの再生が、選択されたタグ情報の再生位置にジャンプした後はそのまま続行される。そこで、表示されているタグ情報がどのようなシーンについてのものであるかを示すために、タグ詳細表示2005にキャプチャ画像2039(図7の例であればキャプチャ画像2021aと同じ画像)が含まれてもよい。さらに、キャプチャ画像2039とともにジャンプボタン2041が表示されてもよい。ユーザがジャンプボタン2041を選択すると、コンテンツ画像2001として表示されているコンテンツの再生位置が、キャプチャ画像2039に対応する再生位置、つまりタグ詳細表示2005として表示されているタグ情報に対応する再生位置にジャンプする。
  (ユーザのアクティビティに関する表示要素)
 コメント入力欄2007は、テキスト入力欄2007aと投稿ボタン2007bとを含み、再生中のコンテンツに対するユーザのコメントの投稿を受け付ける。コメント入力欄2007を用いて投稿されたコメントは、例えばサーバ100によって提供されるサービス上でのコメントとして処理されてもよく、他のソーシャルメディアでのコメントとして処理されてもよい。いずれの場合も、タグ生成部160が投稿されたコメントに基づいて新たなタグ情報を生成し、タグ関連付け部170が生成されたタグ情報をコンテンツに関連付けうる。このとき、タグ関連付け部170は、投稿ボタン2007bの選択によってコメントの投稿が実行された時、またはテキスト入力欄2007aが選択されてテキスト入力が開始された時のコンテンツの再生位置を検出し、生成されたタグ情報をこの再生位置に関連付けてもよい。ユーザのコメント投稿によって新たに生成されたタグ情報が関連付けられた再生位置の近傍に、他のタグ情報が既に関連付けられている場合、ユーザのコメント投稿後、当該再生位置の近傍に関連付けられたタグ情報のグループが自動的にタグ詳細表示2005に表示されてもよい。
 図8は、本開示の第1の実施形態における再生画面と他の画面との連携の例を示す図である。図8に示されるように、コメントの投稿と同様に、例えばWebブラウザ画面2100aを用いたWeb検索の結果や、Webブラウザ画面2100bを用いた他のコンテンツ(映像コンテンツ)の再生も、サーバ100でタグ生成部160が生成するタグ情報の元になりうる。このような処理のために、例えばWebブラウザ画面2100が再生画面2000と共通のサービスによって提供されてもよいし、通常のWebブラウザ画面2100にサーバ100によって提供されるサービスとの連携のためのプラグインが追加されてもよい。このようにして提供されるWebブラウザ画面2100において入力された情報は、クライアント200の通信部210によってサーバ100を介して他のサーバなどに送信されうる。
  (画面内位置の指定)
 図9は、本開示の第1の実施形態における再生画面で画面内位置を指定する場合の表示例を示す図である。図9を参照すると、再生画面2000において、ユーザが、ポインタ2043を用いてコンテンツ画像2001の画面内位置を指定した上で、コメント入力欄2007でコンテンツに対するコメントを入力している。このような場合、サーバ100のアクティビティ検出部150は、画面内位置の指定を含むアクティビティとしてユーザのコメント投稿を検出しうる。さらに、タグ関連付け部170は、タグ情報をコンテンツの再生位置に加えて画面内位置にも関連付ける。なお、画面内位置についても、再生位置と同様に、関連付けられる画面内位置が範囲または領域として定義されたり、近接した画面内位置に関連付けられたタグ情報がグループ化されたりしてもよい。
 ここで、画面内位置に関連付けられたタグ情報は、例えばタグ一覧表示2003やタグ詳細表示2005において、近接した再生位置で別の画面内位置に関連付けられたタグ情報や、画面内位置に関連付けられていないタグ情報とは区別して表示されうる。より具体的には、図9に示されるように、タグ一覧表示2003で、タイムスタンプ2023が同じ(図9の例では「0:12」)でも、対応付けられた画面内位置が異なるタグ情報にそれぞれ対応するキャプチャ画像2021b,2021cが別々に表示される。キャプチャ画像2021bは画面全体に対応付けられたタグ情報を示し、キャプチャ画像2021cは画面内の一部、具体的には鳥が映っている領域に対応付けられたタグ情報を示す。画面の一部分に対応付けられたタグ情報を示すキャプチャ画像2021cは、コンテンツのキャプチャ画像から対応する画面内位置またはその近傍の画像を切り取ったものでありうる。上記の場合、タグ詳細表示2005でも、タグ一覧表示2003に対応して、近接した再生位置かつ近接した画面内位置のタグ情報が個別に表示されうる。
  (その他の表示要素)
 再び図6を参照して、再生コントロール2009は、再生画面2000におけるコンテンツの再生の開始、停止、再生位置の移動などを制御するためのGUI(Graphical User Interface)部品である。ホームボタン2011は、コンテンツの視聴を中断または終了して上述したホーム画面1000に遷移するためのボタンである。リコメンド情報2013は、例えばユーザがフォローしているキュレータや、ユーザと同じグループに属する他のユーザからのコンテンツのリコメンドを表示する。例えば、リコメンド情報2013として表示されたコンテンツのサムネイル2045を選択することによって、コンテンツ画像2001として表示されるコンテンツがサムネイル2045として表示されたコンテンツに切り替わり、そのコンテンツの視聴を開始することが可能であってもよい。
  (変形例)
 図10は、本開示の第1の実施形態における再生画面でコミュニケーションサービスが提供される場合の表示例を示す図である。図10を参照すると、再生画面3000には、コンテンツ画像2001と、タグ一覧表示2003と、チャット画面3001と、コメント入力欄2007と、再生コントロール2009と、ホームボタン2011と、リコメンド情報2013とが表示される。なお、チャット画面3001以外については、上記の再生画面2000と同様の構成要素であるため詳細な説明は省略する。
 本実施形態では、サーバ100のコミュニケーションサービス提供部180の機能によって、例えばユーザがコメント入力欄2007を用いてコンテンツ再生中にコメントを投稿し、そのコメントに基づいてコンテンツの再生位置に新たなタグ情報が関連付けられたた場合に、その近傍の再生位置にコメントを入力した他のユーザとの間で開設されるチャットルームにユーザが招待されうる。チャット画面3001は、このチャットルームにおける各ユーザの発言のログを表示する。ユーザは、チャットルームに招待される前と同じくコメント入力欄2007を用いて、チャットルームでの発言を投稿することが可能である。チャット画面3001は、例えばそれまで表示されていたタグ詳細表示2005の表示が変化することによって表示されてもよい。あるいは、再生画面3000には最初からチャット画面3001が表示され、ユーザがコメント入力欄2007を用いてコメントを入力するまでは空欄であってもよい。
 上記の例において、ユーザが最初にコメント入力欄2007を用いて投稿したコメントは、チャットルームにおけるそのユーザの最初の発言としてチャット画面3001に表示されてもよい。また、ユーザがチャットルームに招待されるためのトリガは、コメントの投稿には限られず、例えば図8に示したようなWeb検索や他のコンテンツの再生などであってもよい。この場合、Web検索の結果や他のコンテンツへのリンクが、ユーザの最初の発言としてチャット画面3001に表示されてもよい。あるいは、コメントなどのアクティビティを実行したユーザにはチャット画面3001のプレビューが提示され、プレビューを閲覧したユーザが希望した場合に限ってユーザがチャットルームに入室し、チャット画面3001が表示されてもよい。
 上述の通り、チャット画面3001に表示されている各ユーザの発言も、サーバ100のアクティビティ検出部150によってアクティビティとして検出され、タグ生成部160によるタグ情報の生成の元になりうる。なお、ユーザのチャットルームにおける発言は、例えばWebページや他のコンテンツへのリンクなど、通常のコンテンツ視聴中のユーザのアクティビティと同様の情報を含みうる。
 ユーザがチャットルームに入室し、チャット画面3001が再生画面3000に表示されている間、サーバ100の再生制御部120の制御によって、コンテンツ画像2001として表示されているコンテンツの再生は、対象になる再生位置を含む範囲で繰り返されうる。タグ関連付け部170は、各ユーザの発言に基づいて生成されるタグ情報を、発言が繰り返し範囲の中のどの位置で入力されたかにかかわらず、チャットルームごとに共通の再生位置(図9の例では「0:24」)に関連付けてもよい。コンテンツの視聴を先に進めたい場合、ユーザは、退室ボタン3003を選択することによってチャットルームから退室し、通常のコンテンツの視聴に戻ることができる。
 以上で説明した本開示の第1の実施形態によれば、コンテンツ再生中のユーザによるアクティビティを検出し、検出されたアクティビティに関する情報に基づいてタグ情報を生成することによって、ユーザに別途のタグ情報入力の手間を感じさせることなく、大量の情報をコンテンツに関するタグ情報として収集することができる。また、生成されたタグ情報を、アクティビティに対応するコンテンツの再生位置および/または画面内位置に関連付けることによって、タグ情報がコンテンツの中の何に対するものであるのかが明確になり、上記のようにユーザのアクティビティによって無作為的に収集されたタグ情報であっても、そこから意味のある情報を読み取ることが容易になりうる。
 (2.第2の実施形態)
 次に、図11~図15を参照して、本開示の第2の実施形態について説明する。本実施形態では、コンテンツについて生成されるタグ情報が、必ずしもコンテンツの再生位置に関連付けられない。本実施形態において、タグ情報は、コンテンツ内の1または複数の位置に関連付けられる。なお、それ以外の点については第1の実施形態と同様であるため、共通する符号を付することによって重複した説明を省略する。
 (2-1.機能構成)
 図11は、本開示の第2の実施形態に係る各装置の概略的な機能構成を示すブロック図である。図11を参照すると、本実施形態に係るシステム20は、サーバ300とクライアント400とを含む。サーバ300とクライアント400とは、いずれも後述する情報処理装置のハードウェア構成によって実現され、有線または無線の各種ネットワークによって互いに接続される。なお、サーバ300は、必ずしも単一の情報処理装置によって実現されなくてもよく、ネットワークによって互いに接続された複数の情報処理装置の協働によって実現されてもよい。また、図示されている機能構成は本実施形態の説明のために簡略化されており、各装置は図示されていない機能構成をさらに含んでもよい。図示されていない機能構成は、各装置の一般的な機能構成として既に知られたものでありうるため、詳細な説明は省略する。
  (サーバ)
 サーバ300は、通信部110と、再生制御部120と、タグDB330と、タグ情報表示制御部340と、アクティビティ検出部150と、タグ生成部160と、タグ関連付け部370と、コミュニケーションサービス提供部180とを含む。以下では、このうち上記の第1の実施形態とは異なる構成要素であるタグDB330、タグ情報表示制御部340、およびタグ関連付け部370について特に説明する。
  (タグDB)
 タグDB330は、例えばストレージ装置によって実現され、コンテンツについて生成されたタグ情報を格納する。タグ情報は、例えばタグ生成部160によって生成され、タグ関連付け部370によってコンテンツ内の1または複数の位置に関連付けられた上で、タグDB330に格納される。また、タグ情報は、初期設定として用意されたものを含んでもよい。本実施形態におけるタグ情報は、例えばテキスト、またはWebページや他のコンテンツへのリンクもしくはサムネイルなどを含みうる点で、上記の第1の実施形態でタグDB130に格納されるタグ情報と同様である。ただし、第1の実施形態との違いとして、本実施形態では、タグ情報はコンテンツ内の1または複数の位置に直接的または間接的に関連付けられていればよく、必ずしもコンテンツの再生位置に関連付けられていなくてもよい。
 ここで、本明細書における「コンテンツ内の1または複数の位置」および「コンテンツの再生位置」といった用語について、改めて説明する。本明細書における「コンテンツ」は、例えば映像や楽曲のように時間とともに進行するコンテンツでありうる。この場合、例えばタイムスタンプ(T)などを用いてコンテンツの再生位置を定義することが可能である。例えば、あるコンテンツについて、1または複数のタイムスタンプにタグ情報を関連付けることは、タグ情報をコンテンツ内の1または複数の位置に関連付けることでありうる。
 また、本明細書における「コンテンツ」は、例えば映像のように画面に表示されるコンテンツでもありうる。この場合、例えば横位置(X)や縦位置(Y)などを用いてコンテンツの画面内位置を定義することが可能である。例えば、あるコンテンツについて、1または複数の画面内位置にタグ情報を関連付けることは、タグ情報をコンテンツ内の1または複数の位置に関連付けることでありうる。
 さらに、コンテンツが画面に表示される場合、タグ情報は被写体に関する情報に関連付けられてもよい。被写体は、例えば画面内のある領域(被写体の表示領域)に表示される人物または物などであり、視聴者に何らかの意味をもった画像部分として認識される。被写体は、例えば映像のような時間とともに進行し、かつ画面に表示されるコンテンツでは、一連のタイムスタンプ(複数の再生位置)において、表示領域を変化させながら(変化しない場合もある)表示されうる。従って、例えばタグ情報がある被写体を示す情報に関連付けられた場合、当該タグ情報は、コンテンツ内でその被写体の表示領域が存在する一連のタイムスタンプ(複数の再生位置)で、それぞれのタイムスタンプにおける被写体の表示領域(複数の画面内位置)に間接的に関連付けられるともいえる。
 このように、本実施形態では、コンテンツに含まれる情報の少なくとも一部(少なくとも一部の再生位置および/または少なくとも一部の画面内位置)に対して与えられる何らかの意味(例えば被写体)を示す情報に対してタグ情報を関連付けることが可能である。この場合、タグ情報は、コンテンツ内で当該意味が与えられる部分を示す1または複数の位置に間接的に関連付けられるともいえる。このような意味を示す情報を、本明細書ではタグ情報のカテゴリともいう。従って、本実施形態では、タグDB330に格納されるタグ情報が、コンテンツ内の1または複数の位置に関連付けられており、より具体的には、タグ情報が、例えば再生位置、画面内位置、またはカテゴリのうちの1または複数に関連付けられるといえる。
  (タグ情報表示制御部)
 タグ情報表示制御部340は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、タグDB330から読み出されたタグ情報を、コンテンツの再生画面に表示させる。コンテンツの再生画面におけるタグ情報の表示は、例えば上記の第1の実施形態と同様でありうるが、上述の通り本実施形態ではタグ情報が例えばカテゴリにも関連付けられうるため、例えばタグ情報表示制御部340は共通するカテゴリに関連付けられたタグ情報をグループ化して表示させてもよい。
 また、タグ情報表示制御部340は、新たに生成されるタグ情報が関連付けられるカテゴリを示すタグカテゴリ情報を、タグ情報の生成または登録に先立ってコンテンツの再生画面に表示させる。タグカテゴリ情報は、例えば、ユーザのアクティビティによってコンテンツの画面内位置が指定された場合に、当該アクティビティを含む一連のアクティビティによって生成されるタグ情報が関連付けられる情報(例えば被写体に関する情報)を前もって表示させるものでありうる。例えば、タグ情報表示制御部340は、タグカテゴリ情報として、当該画面内位置の近傍に位置する領域に表示される被写体の情報を表示する。当該被写体に既にタグ情報が関連付けられている場合、タグ情報表示制御部340は、それらのタグ情報をタグカテゴリ情報として表示させてもよい。なお、タグ情報表示制御部340によるタグカテゴリ情報の表示の具体的な例については後述する。
  (タグ関連付け部)
 タグ関連付け部370は、例えばCPUなどのプロセッサがメモリに格納されたプログラムに従って動作することによって実現され、タグ生成部160によって生成されたタグ情報を、タグ情報の元になったアクティビティに対応するコンテンツ内の1または複数の位置に直接的または間接的に関連付ける。タグ関連付け部370によってコンテンツに関連付けられたタグ情報は、例えばタグDB330に格納されてもよく、またタグ情報表示制御部340に提供されてクライアント400でリアルタイムに表示されてもよい。ここで、タグ情報を再生位置や画面内位置に関連付けるタグ関連付け部370の処理は、例えば上記の第1の実施形態におけるタグ関連付け部170と同様でありうる。
 さらに、タグ関連付け部370は、タグ情報をカテゴリに関連付けることによって、間接的にコンテンツ内の1または複数の位置に関連付けてもよい。タグ関連付け部370は、例えばユーザがアクティビティにおいて明示的に指定した画面内位置の近傍に表示された被写体を検出し、検出された被写体にタグ情報を関連付けてもよい。ここで、タグ情報表示制御部340が、検出された被写体などの情報をタグカテゴリ情報としてコンテンツの再生画面に表示させる場合、タグ関連付け部370は、タグカテゴリ情報に応じてユーザがさらに実行したアクティビティに基づいて、タグ情報に関連付けられる情報を決定してもよい。例えば、タグ関連付け部370は、ユーザがタグカテゴリ情報を参照した上でそのままコメント投稿などのアクティビティを実行した場合、タグカテゴリ情報として表示された情報にタグ情報を関連付ける。また、タグ関連付け部370は、例えばユーザがタグカテゴリ情報に対する修正を含むアクティビティを実行した場合、タグカテゴリ情報として表示された情報を当該アクティビティに従って修正した上でタグ情報に関連付ける。
 (2-2.画面表示例)
  (再生画面)
 図12および図13は、本開示の第2の実施形態における再生画面の表示例を示す図である。本実施形態における再生画面4000は、例えばクライアント200でユーザがコンテンツ視聴のためのアプリケーションを起動し、第1の実施形態で説明したものと同様のホーム画面1000などを介して視聴するコンテンツを選択したときに、表示制御部220の制御によって表示部230に表示されうる。
 図12および図13を参照すると、再生画面4000には、コンテンツ画像2001と、タグ一覧表示2003と、タグカテゴリ情報4005と、コメント入力欄2007と、再生コントロール2009と、ホームボタン2011と、リコメンド情報2013と、ポインタ4015とが表示される。以下では、このうち上記の第1の実施形態とは異なる構成要素であるタグカテゴリ情報4005およびポインタ4015について特に説明する。
 タグカテゴリ情報4005は、例えば、ユーザがポインタ4015を用いてコンテンツ画像2001内の位置(画面内位置)を指定するアクティビティを実行した場合に、続くユーザのアクティビティに基づいて生成されうるタグ情報に関連付けられるカテゴリの情報を前もって提示する。例えば、図12に示すように、ユーザがポインタ4015を用いてコンテンツ画像2001内のある位置Pを指定した場合、タグ情報表示制御部340が位置Pの近傍に位置する(位置Pを含んでもよい)領域に表示されている被写体を検索し、検索の結果発見された被写体に関する情報をタグカテゴリ情報4005として表示させてもよい。このとき、当該被写体に既に関連付けられているタグ情報がタグDB330に格納されている場合、タグ情報表示制御部340は、それらのタグ情報をタグカテゴリ情報4005においてタグ情報表示4029として表示させてもよい。
 上記の例において、位置Pの近傍に表示されている被写体が発見されなかった場合、タグ情報表示制御部340は、位置Pを基準にした所定のサイズの領域(例えば、位置Pを中心とする矩形領域)を被写体の表示領域に代わる領域として特定し、この領域を示す情報をタグカテゴリ情報4005として表示させてもよい。このとき、当該領域に既に関連付けられているタグ情報がタグDB330に格納されている場合、タグ情報表示制御部340は、それらのタグ情報をタグカテゴリ情報4005においてタグ情報表示4029として表示させてもよい。このように、必ずしも被写体に関連づかないタグ情報の生成は、例えば、画像認識処理などによっては被写体の存在が検出されていないものの、ユーザにとっては何らかの意味を有するものが表示されている場合や、ユーザがコンテンツ画像2001の背景(街並みや風景など)についてコメントを投稿する(そのコメントに基づいてタグ情報が生成される)場合などに有用でありうる。
 また、タグカテゴリ情報4005は、例えば、ユーザがポインタ4015を用いてコンテンツ画像2001の領域を指定するアクティビティを実行した場合(上述のように、コンテンツの画面内位置は範囲または領域として定義されうる)、続くユーザのアクティビティに基づいて生成されうるタグ情報に関連付けられる情報を提示してもよい。例えば、図13に示すように、ユーザがポインタ4015を用いてコンテンツ画像2001内の領域Qを指定した場合、タグ情報表示制御部340が、領域Qに含まれる(領域Qと部分的に重複してもよい)領域に表示されている被写体を検索し、検索の結果発見された被写体に関する情報をタグカテゴリ情報4005として表示させる。このとき、当該被写体に既に関連付けられているタグ情報がタグDB330に格納されている場合、タグ情報表示制御部340は、それらのタグ情報をタグカテゴリ情報4005においてタグ情報表示4029として表示させてもよい。一方、領域Qに含まれる領域に表示されている被写体が発見されなかった場合、タグ情報表示制御部340は、上記の図12の例と同様に、領域Qを基準にした所定のサイズの領域(領域Qそのものであってもよい)を被写体の表示領域に代わる領域として特定し、この領域を示す情報をタグカテゴリ情報4005として表示させてもよい。
  (タグカテゴリ情報表示)
 図14は、本開示の第2の実施形態におけるタグカテゴリ情報表示の例を示す図である。図12および図13を参照して説明したように、本実施形態では、再生画面4000において、ユーザのアクティビティに基づいて生成されるタグ情報に関連付けられる情報を提示するタグカテゴリ情報4005が表示される。上記の説明では、ユーザのアクティビティによって指定されたコンテンツ画像2001内の位置または領域について、その近傍に表示されている被写体が検索され、検索の結果発見された被写体に関する情報がタグカテゴリ情報4005として表示された。
 しかしながら、実際には、例えば画像認識処理などによって検出された被写体は、必ずしも特定の人物または物として認識されているわけではない。従って、被写体であること、人物であること、または物であることは認識されているけれども、それが何であるか、誰であるかは特定されていない場合もある。以下では、そのような場合に対応したタグカテゴリ情報4005の表示例について説明する。
 まず、何らかの被写体を含むコンテンツ画像2001aにおいて、ユーザのアクティビティによって位置Pが指定されたとする(S301)。このとき、クライアント400の通信部210から、サーバ300へ、コンテンツのタイムスタンプ(T)や位置Pの横位置および縦位置(X,Y)の情報に加えて、位置Pの近傍の画像を示す情報が送信されうる(S303)。位置Pの近傍の画像を示す情報は、例えば、位置Pを基準にした所定のサイズの領域でコンテンツ画像2001を切り出した画像データであってもよく、この画像データから抽出される特徴量に基づくデータであってもよい。
 上記の情報を受信したサーバ300のタグ情報表示制御部340は、位置Pの近傍の領域に表示されている被写体を検索する(S305)。より具体的には、例えば、タグ情報表示制御部340は、コンテンツのタイムスタンプ(T)や位置Pの横位置および縦位置(X,Y)の情報に基づいて、既にタグ情報が関連付けられている位置Pの近傍の被写体を検索してもよい。また、コンテンツ全体の被写体検出が既に実行されているような場合、タグ情報表示制御部340は、被写体検出の結果を参照してもよい。
 一方、既にタグ情報が関連付けられている位置Pの近傍の被写体がなく、また被写体検出もまだ実行されていないような場合、タグ情報表示制御部340は、クライアント400から受信した位置Pの近傍の画像を示す情報に基づいて被写体の検索を実行する。例えば、タグ情報表示制御部340は、コンテンツ2001を切り出した画像データ、または画像データから抽出される特徴量に基づくデータを用いて画像認識処理を実行することによって被写体を検出する。
 上記のような処理によって被写体が発見され、かつ被写体が認識された場合、タグ情報表示制御部340は、その被写体を示す情報をタグカテゴリ情報4005としてクライアント400において表示させる。一方、被写体は発見されたものの、それが何であるか、誰であるかが特定されなかった場合、タグ情報表示制御部340は、被写体が未識別であることを示す情報をタグカテゴリ情報4005aとしてクライアント400において表示させる(S307)。
 図示された例では、被写体が人物であることは識別されたものの、それが誰であるかは特定されなかったため、タグカテゴリ情報4005aは、被写体が未識別の人物であることを示す「Who is this?」というタイトル4017aとともに表示される。タイトル4017aは、ユーザによって上書きすることが可能であるような形態で表示されうる。ユーザは、その被写体が誰であるかを知っている場合、タイトル4017aに上書きして人物名を入力し、その上でコメントを投稿することが可能である(S309)。
 上記のコメント投稿に基づいて、サーバ300ではタグ情報が生成され、生成されたタグ情報は被写体に関連付けられる(S311)。このとき、タグ関連付け部370は、タグ情報が関連付けられた被写体を、ユーザによって入力された被写体名と、以前にクライアント400から受信された位置Pの近傍の画像を示す情報とに関連付けて登録しうる。これによって、以降、コンテンツ内で類似した画像を含む画面内位置が指定された場合、タグ情報表示制御部340は上記で登録された被写体に関する情報をタグカテゴリ情報4005として表示させることができる。
 上記のように、ユーザの入力に基づいて被写体名が設定される場合、ユーザによって異なる被写体名が入力される場合がありうる。また、例えば1人のユーザの入力に基づいて被写体名を設定するのは信頼性が低いと判断される場合もある。そのような場合に、タグ情報表示制御部340は、登録されている被写体名の信頼性が十分に高くないことを示す情報をタグカテゴリ情報4005bとしてクライアント400において表示させる(S313)。
 図示された例において、タグカテゴリ情報4005bは、現在登録されている被写体名に「?」を付加することなどによって信頼性が高くないことを示すタイトル4017bを含みうる。この場合、タイトル4017bは、ユーザ(例えば、以前に被写体名を登録したユーザとは別のユーザ)によって上書きすることが可能であるような形態で表示されうる。ユーザは、その被写体が現在登録されている被写体名とは異なる人物であることを知っている場合、タイトル4017bに上書きして人物名を入力し、その上でコメントを投稿することが可能である(S315)。別の例として、タイトル4017bとして、複数の被写体名の候補が表示され、ユーザは候補の中から正しいと思う被写体名を選択した上でコメントを投稿することが可能であってもよい。
 タグ関連付け部370(またはタグ情報表示制御部340)は、コメント投稿に基づいてタグ情報を生成し、これを被写体に関連付けるとともに、例えば上記のような被写体名の修正入力の蓄積などに基づいて、登録された被写体名の信頼度および代替案の有無などを判定し、必要に応じて被写体名修正する(S317)。このような処理を経て、ある程度正しい被写体名称が判明したところで、タグ情報表示制御部340は、登録されている被写体名の信頼性がある程度高いことを示す情報をタグカテゴリ情報4005cとしてクライアント400において表示させる(S319)。
 図示された例において、タグカテゴリ情報4005cは、現在登録されている被写体名を「?」などを付加せずに表示するタイトル4017cを含みうる。タイトル4017cは、ユーザによって簡単には上書きされないような形態で表示されうる。ただし、タイトル4017cについても、ユーザが疑義を呈示する手段が設けられてもよい。例えば、タグカテゴリ情報4005cは疑義ボタン4019を含み、ユーザがタイトル4017cによって表示される被写体名が間違っていると思う場合には疑義ボタン4019を押下して正しいと思う被写体名を入力した上で、コメントを投稿することが可能であってもよい(S321)。この場合、疑義ボタン4019を用いて入力された被写体名は、例えばタグ関連付け部370(またはタグ情報表示制御部340)によって蓄積され、同様の修正提案がある程度蓄積された場合に被写体名が変更されるか、タグカテゴリ情報4005bが表示される場合のように被写体名が未確定の状態に戻る。
 (2-3.処理フロー)
 図15は、本開示の第2の実施形態におけるタグカテゴリ情報表示の表示プロセスの例を示すフローチャートである。
 まず、サーバ300において、アクティビティ検出部150が、クライアント400でコンテンツを視聴中のユーザによる、コンテンツ画像2001内の位置Pを指定するアクティビティを取得する(S401)。ここで、アクティビティ検出部150によって取得される情報には、例えば、コンテンツのタイムスタンプ(T)や位置Pの横位置および縦位置(X,Y)の情報に加えて、位置Pの近傍の画像を示す情報が含まれうる。タグ情報表示制御部340は、上記の情報を用いて、タグDB330に格納されたタグ情報を検索する(S403)。より具体的には、タグ情報表示制御部340は、タイムスタンプ(T)ならびに横位置および縦位置(X,Y)について、それぞれ所定の範囲内で近傍に位置する被写体の表示領域または画像内の領域に関連付けられたタグ情報を検索する。
 検索の結果、該当するタグ情報が発見された場合(S405のYES)、タグ情報表示制御部340は、発見されたタグ情報に基づいてタグ情報表示4029を生成する(S407)。また、タグ情報表示制御部340は、発見されたタグ情報に関連付けられた被写体の名称に基づいてタイトル4017を生成する(S409)。タグ情報表示制御部340は、クライアント400で表示されている再生画面4000に、タグ情報表示4029およびタイトル4017を含むタグカテゴリ情報4005を表示させる(S411)。
 一方、検索の結果、該当するタグ情報が発見されなかった場合(S405のNO)、タグ情報表示制御部340は、アクティビティ検出部150によって取得された、位置Pの近傍の画像を示す情報に基づいて画像認識処理を実行する(S413)。ここで、画像認識処理の結果、被写体が人物であると認識された場合(S415のYES)、タグ情報表示制御部340は、認識された人物に関連付けられたタグ情報をタグDB330から検索する(S417)。上記のS403での検索との違いとして、S417では、タグ情報に関連付けられた被写体(人物)を条件として検索が実行されているため、タグ情報同士のタイムスタンプ(T)ならびに横位置および縦位置(X,Y)は必ずしも共通しない。例えばこのような処理を介して、本実施形態では、タグ情報が、被写体を媒介としてコンテンツの複数の再生位置および複数の画面内位置に関連付けられうる。
 S417の検索の結果、該当するタグ情報が発見された場合(S419のYES)、タグ情報表示制御部340は、発見されたタグ情報に基づいてタグ情報表示4029を生成する(S407)。また、タグ情報表示制御部340は、発見されたタグ情報に関連付けられた被写体(人物)の名称に基づいてタイトル4017を生成する(S409)。タグ情報表示制御部340は、クライアント400で表示されている再生画面4000に、タグ情報表示4029およびタイトル4017を含むタグカテゴリ情報4005を表示させる(S411)。
 一方、S417の検索の結果、該当するタグ情報が発見されなかった場合(S419のNO)、タグ情報表示制御部340は、被写体(人物)の名称に基づいてタイトル4017を生成する(S409)。なお、タグ情報表示制御部340は、被写体(人物)の名称が不明である場合、図14に示した例のように「Who is this?」などのタイトル4017を生成する。タグ情報表示制御部340は、クライアント400で表示されている再生画面4000に、タイトル4017を含むタグカテゴリ情報4005を表示させる(S411)。この場合、続くユーザのアクティビティ(コメント投稿)に基づいて新たに生成されるタグ情報は、そのコンテンツにおいて、当該被写体(人物)に関連付けられる最初のタグ情報として扱われうる。
 画像認識処理の結果、被写体が人物ではなく(S415のNO)、人物以外の物であると認識された場合(S421のYES)、タグ情報表示制御部340は、認識された物に関連付けられたタグ情報をタグDB330から検索する(S417)。S417以降の処理は、上記の被写体が人物である場合と同様である(被写体(物)の名称が不明である場合は、例えば、「What is this?」などのタイトル4017が生成されうる)。
 一方、画像認識処理の結果、被写体が物であるとも認識されなかった場合(S421のNO)、タグ情報表示制御部340は、位置Pを基準にした所定のサイズの領域をタグ情報に関連付けられる領域として特定し、この領域に関する情報を含むタグカテゴリ情報4005を表示させる(S423)。この場合、画像認識処理によって検出されなかっただけで、実際にはその領域に被写体が表示されていることもありうるため、タグ情報表示制御部140は、タグカテゴリ情報4005のタイトル4017として「What is this?」などの文字列を表示させてもよい。
 以上で説明した本開示の第2の実施形態によれば、コンテンツ再生中のユーザのアクティビティに基づいて生成されるタグ情報が、単純にコンテンツの再生位置および/または画面内位置に関連付けられるのではなく、例えばコンテンツの被写体のようなカテゴリの情報に関連付けられることによってコンテンツの複数の再生位置および複数の画面内位置に間接的に関連付けられる。これによって、タグ情報を、コンテンツ内でユーザが何らかの意味を感じている一連の部分に関連付けることができ、タグ情報から意味のある情報を読み取ることが容易になりうる。
 なお、上記の例では、被写体などのカテゴリがコンテンツ内で設定されたが、カテゴリはコンテンツをまたいで設定されてもよい。例えば、あるコンテンツと他のコンテンツとで共通する被写体に関連付けられたタグ情報が、相互に参照可能であってもよい。この場合、例えば、タグ情報表示4029を表示するときに、ある被写体についてコンテンツの中で既に関連付けられたタグ情報が存在しなければ、他のコンテンツのタグ情報が表示されてもよい。
 (3.第3の実施形態)
 次に、図16を参照して、本開示の第3の実施形態について説明する。本実施形態では、上記の第1または第2の実施形態ではサーバで実現されたアクティビティ検出部、タグ生成部およびタグ関連付け部の機能がクライアントで実現される。なお、各機能の詳細については第1または第2の実施形態と同様であるため、対応した符号を付することによって重複した説明を省略する。なお、以下の説明では第1の実施形態の構成を基にして説明するが、第2の実施形態の構成についても同様の変形が可能である。
 図16は、本開示の第2の実施形態に係る各装置の概略的な機能構成を示すブロック図である。図16を参照すると、本実施形態に係るシステム30は、サーバ500とクライアント600とを含む。サーバ500とクライアント600とは、いずれも後述する情報処理装置のハードウェア構成によって実現され、有線または無線の各種ネットワークによって互いに接続される。なお、サーバ500は、必ずしも単一の情報処理装置によって実現されなくてもよく、ネットワークによって互いに接続された複数の情報処理装置の協働によって実現されてもよい。また、図示されている機能構成は本実施形態の説明のために簡略化されており、各装置は図示されていない機能構成をさらに含んでもよい。図示されていない機能構成は、各装置の一般的な機能構成として既に知られたものでありうるため、詳細な説明は省略する。
 サーバ500は、通信部110と、タグDB130と、コミュニケーションサービス提供部180とを含む。本実施形態において、サーバ500は、例えば、クライアント600からのリクエストに従って動画配信サーバなどのコンテンツプロバイダ50から取得したコンテンツをタグDB130から読み出したタグ情報とともにクライアント600に提供する機能と、クライアント600からコンテンツに関して提供された新たなタグ情報をタグDB130に格納する機能とを実現する。つまり、サーバ500は、各クライアント600で生成されたタグ情報をとりまとめる役割を果たす。また、サーバ500は、コミュニケーションサービス提供部180の機能によって、同じコンテンツの近接する再生位置(および/または近接する画面内位置)に関連付けられるタグ情報を提供した複数のユーザにコミュニケーションサービスを提供してもよい。
 クライアント600は、通信部210と、表示制御部220と、表示部230と、音声制御部240と、音声出力部250と、操作部260とに加えて、再生制御部120と、タグ情報表示制御部140と、アクティビティ検出部150と、タグ生成部160と、タグ関連付け部170とを含む。クライアント600は、コンテンツ再生中のユーザによるアクティビティの検出と、アクティビティに関する情報に基づくタグ情報の生成と、タグ情報のコンテンツへの関連付けとをサーバ500とは独立して実現する。このような本実施形態の構成によれば、例えばクライアント600がコンテンツの再生中にサーバ500と安定して通信できないような場合でも、ユーザのアクティビティに基づくタグ情報の生成および関連付けを実行することができる。
 より具体的には、再生制御部120は、通信部110が取得したコンテンツデータの再生を制御する。本実施形態において再生制御部120はクライアント600に設けられるため、再生制御部120は表示制御部220および音声制御部240を制御しうる。タグ情報表示制御部140は、サーバ500においてタグDB130から読み出され、通信部110からクライアント600の通信部210へと送信されたタグ情報を、対応するコンテンツの再生画面に表示させる。本実施形態においてタグ情報表示制御部140はクライアント600に設けられるため、タグ情報表示制御部140は表示制御部220を制御しうる。アクティビティ検出部150は、操作部260が取得した操作入力に基づいて通信部210からサーバ500などに送信される情報、および通信部210によってサーバ500などから受信された情報を傍受し、その情報に基づいてユーザのアクティビティを検出する。なお、図中に破線で示すように、アクティビティ検出部150は、操作部260から直接的にユーザの操作入力の情報を取得してもよい。タグ関連付け部170は、タグ生成部160によって生成されてコンテンツに関連付けられたタグ情報を、通信部210からサーバ500に送信する。サーバ500では、受信されたタグ情報がタグDB130に格納される。
 以上で説明したように、本開示の第3の実施形態では、第1または第2の実施形態と同様の機能が、第1または第2の実施形態とは異なる形でサーバとクライアントとに分散して実現される。このように、本開示の実施形態において、各機能をサーバとクライアントとのどちらで実現するかは自由に設定されうる。従って、本開示については、上記で説明した実施形態以外にも、さらに異なる形で各機能がサーバとクライアントとに分散して実現される各種の実施形態が可能である。
 (4.ハードウェア構成)
 次に、図17を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図17は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるサーバやクライアントなどを実現しうる。
 情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行時のパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、またはスイッチなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドホンなどの音声出力装置などでありうる。出力装置917は、情報処理装置900の処理結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
 通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 (5.補足)
 本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)コンテンツ再生中のユーザによるアクティビティを検出するアクティビティ検出部と、
 前記アクティビティに関する情報に基づいてタグ情報を生成するタグ生成部と、
 前記タグ情報を前記アクティビティに対応する前記コンテンツ内の1または複数の位置に関連付けるタグ関連付け部と
 を備える情報処理装置。
(2)前記アクティビティ検出部は、前記ユーザによるコメントの投稿を検出し、
 前記タグ生成部は、前記コメントに含まれるテキストに基づいて前記タグ情報を生成する、前記(1)に記載の情報処理装置。
(3)前記アクティビティ検出部は、前記ユーザによるソーシャルメディアへのコメントの投稿を検出する、前記(2)に記載の情報処理装置。
(4)前記アクティビティ検出部は、前記ユーザによる前記コンテンツ以外の情報へのアクセスを検出し、
 前記タグ生成部は、前記アクセスされた情報に基づいて前記タグ情報を生成する、前記(1)に記載の情報処理装置。
(5)前記タグ生成部は、前記アクセスされた情報へのリンクを含む前記タグ情報を生成する、前記(4)に記載の情報処理装置。
(6)共通する前記コンテンツ内の位置に関連付けられる複数のタグ情報にそれぞれ対応するアクティビティを実行した複数のユーザにコミュニケーションサービスを提供するコミュニケーションサービス提供部をさらに備える、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)前記タグ関連付け部は、時間とともに進行する前記コンテンツ内の1または複数の再生位置に前記複数のタグ情報を関連付け、
 前記情報処理装置は、前記ユーザが前記コミュニケーションサービスを利用している間は前記コンテンツを前記1または複数の再生位置を含む範囲で繰り返し再生する再生制御部をさらに備える、前記(6)に記載の情報処理装置。
(8)前記アクティビティ検出部は、前記コミュニケーションサービスにおけるユーザの発言を検出し、
 前記タグ生成部は、前記発言に含まれるテキストに基づいてさらに前記タグ情報を生成する、前記(6)または(7)に記載の情報処理装置。
(9)前記コンテンツは、映像コンテンツであり、
 前記タグ関連付け部は、前記タグ情報を前記映像コンテンツの画面内位置に関連付ける、前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)前記アクティビティ検出部は、前記画面内位置の指定を含む前記アクティビティを検出する、前記(9)に記載の情報処理装置。
(11)前記タグ関連付け部は、前記タグ情報を前記画面内位置に対応する領域に関する情報に関連付ける、前記(9)に記載の情報処理装置。
(12)前記領域は、被写体の表示領域を含み、
 前記タグ関連付け部は、前記タグ情報を前記被写体に関する情報に関連付ける、前記(11)に記載の情報処理装置。
(13)前記タグ情報が関連付けられる前記被写体に関する情報を前記コンテンツの再生画面に前もって表示させるタグ情報表示制御部をさらに備え、
 前記タグ関連付け部は、前記タグ情報表示制御部によって前もって表示された情報に応じてユーザがさらに実行したアクティビティに基づいて前記タグ情報に関連付けられる情報を決定する、前記(12)に記載の情報処理装置。
(14)前記タグ情報表示制御部は、前記タグ情報が関連付けられる前記被写体に関する情報を、前記アクティビティに対応する前記コンテンツ内の1または複数の位置に近接した位置に関連付けられた他のタグ情報に関連付けられた被写体の情報に基づいて決定する、前記(13)に記載の情報処理装置。
(15)前記タグ情報表示制御部は、前記タグ情報が関連付けられる前記被写体に関する情報を、前記領域の画像から抽出される情報に基づいて決定する、前記(13)に記載の情報処理装置。
(16)前記タグ関連付け部は、前記タグ情報表示制御部によって前もって表示された情報に応じてユーザがさらに実行したアクティビティに基づいて、前記タグ情報が関連付けられる前記被写体に関する情報を修正する、前記(13)~(15)のいずれか1項に記載の情報処理装置。
(17)前記タグ関連付け部は、時間とともに進行する映像コンテンツ内の1または複数の再生位置に前記タグ情報を関連付け、
 前記情報処理装置は、前記1または複数の再生位置での前記映像コンテンツのキャプチャ画像によって、前記タグ情報を前記映像コンテンツの再生画面に表示させるタグ情報表示制御部をさらに備える、前記(1)~(16)のいずれか1項に記載の情報処理装置。
(18)前記タグ情報表示制御部は、さらに、前記タグ情報に含まれる情報の種類を示すアイコンによって、前記タグ情報を前記再生画面に表示させる、前記(17)に記載の情報処理装置。
(19)前記再生画面に表示されたタグ情報が選択された場合、前記映像コンテンツの再生を前記選択されたタグ情報に対応する再生位置にジャンプさせる再生制御部をさらに備える、前記(17)または(18)に記載の情報処理装置。
(20)コンテンツ再生中のユーザによるアクティビティを検出することと、
 前記アクティビティに関する情報に基づいてタグ情報を生成することと、
 前記タグ情報を前記アクティビティに対応する前記コンテンツ内の1または複数の位置に関連付けることと
 を含む情報処理方法。
 10,20  システム
 100,500  サーバ
 110  通信部
 120  再生制御部
 130  タグDB
 140  タグ情報表示制御部
 150  アクティビティ検出部
 160  生成部
 170  タグ関連付け部
 180  コミュニケーションサービス提供部
 200,600  クライアント
 210  通信部
 220  表示制御部
 230  表示部
 240  音声制御部
 250  音声出力部
 260  操作部

Claims (20)

  1.  コンテンツ再生中のユーザによるアクティビティを検出するアクティビティ検出部と、
     前記アクティビティに関する情報に基づいてタグ情報を生成するタグ生成部と、
     前記タグ情報を前記アクティビティに対応する前記コンテンツ内の1または複数の位置に関連付けるタグ関連付け部と
     を備える情報処理装置。
  2.  前記アクティビティ検出部は、前記ユーザによるコメントの投稿を検出し、
     前記タグ生成部は、前記コメントに含まれるテキストに基づいて前記タグ情報を生成する、請求項1に記載の情報処理装置。
  3.  前記アクティビティ検出部は、前記ユーザによるソーシャルメディアへのコメントの投稿を検出する、請求項2に記載の情報処理装置。
  4.  前記アクティビティ検出部は、前記ユーザによる前記コンテンツ以外の情報へのアクセスを検出し、
     前記タグ生成部は、前記アクセスされた情報に基づいて前記タグ情報を生成する、請求項1に記載の情報処理装置。
  5.  前記タグ生成部は、前記アクセスされた情報へのリンクを含む前記タグ情報を生成する、請求項4に記載の情報処理装置。
  6.  共通する前記コンテンツ内の位置に関連付けられる複数のタグ情報にそれぞれ対応するアクティビティを実行した複数のユーザにコミュニケーションサービスを提供するコミュニケーションサービス提供部をさらに備える、請求項1に記載の情報処理装置。
  7.  前記タグ関連付け部は、時間とともに進行する前記コンテンツ内の1または複数の再生位置に前記複数のタグ情報を関連付け、
     前記情報処理装置は、前記ユーザが前記コミュニケーションサービスを利用している間は前記コンテンツを前記1または複数の再生位置を含む範囲で繰り返し再生する再生制御部をさらに備える、請求項6に記載の情報処理装置。
  8.  前記アクティビティ検出部は、前記コミュニケーションサービスにおけるユーザの発言を検出し、
     前記タグ生成部は、前記発言に含まれるテキストに基づいてさらに前記タグ情報を生成する、請求項6に記載の情報処理装置。
  9.  前記コンテンツは、映像コンテンツであり、
     前記タグ関連付け部は、前記タグ情報を前記映像コンテンツの画面内位置に関連付ける、請求項1に記載の情報処理装置。
  10.  前記アクティビティ検出部は、前記画面内位置の指定を含む前記アクティビティを検出する、請求項9に記載の情報処理装置。
  11.  前記タグ関連付け部は、前記タグ情報を前記画面内位置に対応する領域に関する情報に関連付ける、請求項9に記載の情報処理装置。
  12.  前記領域は、被写体の表示領域を含み、
     前記タグ関連付け部は、前記タグ情報を前記被写体に関する情報に関連付ける、請求項11に記載の情報処理装置。
  13.  前記タグ情報が関連付けられる前記被写体に関する情報を前記コンテンツの再生画面に前もって表示させるタグ情報表示制御部をさらに備え、
     前記タグ関連付け部は、前記タグ情報表示制御部によって前もって表示された情報に応じてユーザがさらに実行したアクティビティに基づいて前記タグ情報に関連付けられる情報を決定する、請求項12に記載の情報処理装置。
  14.  前記タグ情報表示制御部は、前記タグ情報が関連付けられる前記被写体に関する情報を、前記アクティビティに対応する前記コンテンツ内の1または複数の位置に近接した位置に関連付けられた他のタグ情報に関連付けられた被写体の情報に基づいて決定する、請求項13に記載の情報処理装置。
  15.  前記タグ情報表示制御部は、前記タグ情報が関連付けられる前記被写体に関する情報を、前記領域の画像から抽出される情報に基づいて決定する、請求項13に記載の情報処理装置。
  16.  前記タグ関連付け部は、前記タグ情報表示制御部によって前もって表示された情報に応じてユーザがさらに実行したアクティビティに基づいて、前記タグ情報が関連付けられる前記被写体に関する情報を修正する、請求項13に記載の情報処理装置。
  17.  前記タグ関連付け部は、時間とともに進行する映像コンテンツ内の1または複数の再生位置に前記タグ情報を関連付け、
     前記情報処理装置は、前記1または複数の再生位置での前記映像コンテンツのキャプチャ画像によって、前記タグ情報を前記映像コンテンツの再生画面に表示させるタグ情報表示制御部をさらに備える、請求項1に記載の情報処理装置。
  18.  前記タグ情報表示制御部は、さらに、前記タグ情報に含まれる情報の種類を示すアイコンによって、前記タグ情報を前記再生画面に表示させる、請求項17に記載の情報処理装置。
  19.  前記再生画面に表示されたタグ情報が選択された場合、前記映像コンテンツの再生を前記選択されたタグ情報に対応する再生位置にジャンプさせる再生制御部をさらに備える、請求項17に記載の情報処理装置。
  20.  コンテンツ再生中のユーザによるアクティビティを検出することと、
     前記アクティビティに関する情報に基づいてタグ情報を生成することと、
     前記タグ情報を前記アクティビティに対応する前記コンテンツ内の1または複数の位置に関連付けることと
     を含む情報処理方法。
PCT/JP2014/054573 2013-04-30 2014-02-25 情報処理装置および情報処理方法 WO2014178219A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14791027.7A EP2993907A4 (en) 2013-04-30 2014-02-25 INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
CN201480023383.2A CN105144736A (zh) 2013-04-30 2014-02-25 信息处理装置和信息处理方法
JP2015514766A JP6384474B2 (ja) 2013-04-30 2014-02-25 情報処理装置および情報処理方法
US14/785,276 US10075544B2 (en) 2013-04-30 2014-02-25 Information processing apparatus and information processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013095688 2013-04-30
JP2013-095688 2013-04-30
JP2013-148532 2013-07-17
JP2013148532 2013-07-17

Publications (1)

Publication Number Publication Date
WO2014178219A1 true WO2014178219A1 (ja) 2014-11-06

Family

ID=51808203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054573 WO2014178219A1 (ja) 2013-04-30 2014-02-25 情報処理装置および情報処理方法

Country Status (5)

Country Link
US (1) US10075544B2 (ja)
EP (1) EP2993907A4 (ja)
JP (1) JP6384474B2 (ja)
CN (3) CN105144736A (ja)
WO (1) WO2014178219A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016139934A (ja) * 2015-01-27 2016-08-04 国立大学法人電気通信大学 動画配信システム及び動画再生装置
CN108900924A (zh) * 2018-07-20 2018-11-27 广州华多网络科技有限公司 直播间中推荐好友的方法和装置
KR20190065055A (ko) * 2017-12-01 2019-06-11 주식회사 애드업 콘텐츠 추천 시스템 및 방법
JP2021096693A (ja) * 2019-12-18 2021-06-24 Jeインターナショナル株式会社 チャットボットサーバー装置、学習装置、チャットボットシステム、チャットボットサーバー装置の動作方法、学習装置の動作方法、プログラム、および記録媒体

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180356961A1 (en) 2014-06-09 2018-12-13 Google Inc. Low-friction, instant, private, personalized video sharing widget
US20150382077A1 (en) * 2014-06-26 2015-12-31 Xiaomi Inc. Method and terminal device for acquiring information
US9912973B2 (en) * 2014-08-07 2018-03-06 Echostar Technologies L.L.C. Systems and methods for facilitating content discovery based on viewer ratings
EP3236360B1 (en) * 2014-12-15 2020-07-22 Sony Corporation Information processing device, information processing method, program, and information processing system
USD810106S1 (en) * 2016-01-15 2018-02-13 Microsoft Corporation Display screen with graphical user interface
CN107241622A (zh) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 视频定位处理方法、终端设备及云端服务器
US10904192B2 (en) * 2016-07-27 2021-01-26 Sap Se Time series messaging persistence and publication
US10321193B2 (en) 2016-09-02 2019-06-11 Google Llc Sharing a user-selected video in a group communication
US10659385B2 (en) 2016-11-03 2020-05-19 Sap Portals Israel Ltd. Provisioning insight services in a data provider landscape
CN106815351A (zh) * 2017-01-18 2017-06-09 腾讯科技(深圳)有限公司 一种标签推荐方法及服务器
US10349022B2 (en) * 2017-03-22 2019-07-09 Casio Computer Co., Ltd. Image processing apparatus, projector, image processing method, and storage medium storing image processing program
CN109118243B (zh) * 2017-06-26 2022-09-30 阿里巴巴集团控股有限公司 一种产品分享、有用评价识别、推送方法和服务器
CN110052026B (zh) * 2019-04-28 2023-03-21 网易(杭州)网络有限公司 游戏中的信息记录方法及装置、电子设备
CN110730382B (zh) * 2019-09-27 2020-10-30 北京达佳互联信息技术有限公司 一种视频交互方法、装置、终端及存储介质
CN112765386A (zh) * 2020-06-14 2021-05-07 黄雨勤 基于大数据和互联网的信息管理方法、系统及云服务器
CN115243084B (zh) * 2022-06-28 2024-05-17 海信视像科技股份有限公司 显示设备及设备互联方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251311A (ja) * 2001-02-22 2002-09-06 Nippon Telegr & Teleph Corp <Ntt> コンテキストデータ生成・利用方法、プログラム及び記録媒体
JP2003283981A (ja) * 2002-03-20 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
JP2008305435A (ja) * 2008-08-29 2008-12-18 Sony Corp 情報提供方法及び情報提供装置、並びに、情報受信方法及び情報受信装置
JP2009077443A (ja) * 2006-12-11 2009-04-09 Dowango:Kk コメント配信システム、端末装置、コメント配信方法、及びプログラム
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2011108147A (ja) * 2009-11-20 2011-06-02 Sony Corp 情報処理装置、ブックマーク設定方法およびプログラム
JP2012147404A (ja) * 2011-01-14 2012-08-02 Sony Computer Entertainment Inc 情報処理装置
JP2013012955A (ja) 2011-06-29 2013-01-17 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US20050005308A1 (en) * 2002-01-29 2005-01-06 Gotuit Video, Inc. Methods and apparatus for recording and replaying sports broadcasts
AU2003220618A1 (en) 2002-04-05 2003-10-27 Matsushita Electric Industrial Co., Ltd. Asynchronous integration of portable handheld device
US8412021B2 (en) * 2007-05-18 2013-04-02 Fall Front Wireless Ny, Llc Video player user interface
US9609260B2 (en) * 2007-07-13 2017-03-28 Gula Consulting Limited Liability Company Video tag layout
US20100004975A1 (en) * 2008-07-03 2010-01-07 Scott White System and method for leveraging proximity data in a web-based socially-enabled knowledge networking environment
US8966513B2 (en) * 2011-06-29 2015-02-24 Avaya Inc. System and method for processing media highlights

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251311A (ja) * 2001-02-22 2002-09-06 Nippon Telegr & Teleph Corp <Ntt> コンテキストデータ生成・利用方法、プログラム及び記録媒体
JP2003283981A (ja) * 2002-03-20 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
JP2009077443A (ja) * 2006-12-11 2009-04-09 Dowango:Kk コメント配信システム、端末装置、コメント配信方法、及びプログラム
JP2008305435A (ja) * 2008-08-29 2008-12-18 Sony Corp 情報提供方法及び情報提供装置、並びに、情報受信方法及び情報受信装置
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2011108147A (ja) * 2009-11-20 2011-06-02 Sony Corp 情報処理装置、ブックマーク設定方法およびプログラム
JP2012147404A (ja) * 2011-01-14 2012-08-02 Sony Computer Entertainment Inc 情報処理装置
JP2013012955A (ja) 2011-06-29 2013-01-17 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2993907A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016139934A (ja) * 2015-01-27 2016-08-04 国立大学法人電気通信大学 動画配信システム及び動画再生装置
KR20190065055A (ko) * 2017-12-01 2019-06-11 주식회사 애드업 콘텐츠 추천 시스템 및 방법
KR102052068B1 (ko) * 2017-12-01 2019-12-05 주식회사 애드업 콘텐츠 추천 시스템 및 방법
CN108900924A (zh) * 2018-07-20 2018-11-27 广州华多网络科技有限公司 直播间中推荐好友的方法和装置
CN108900924B (zh) * 2018-07-20 2021-03-09 广州方硅信息技术有限公司 直播间中推荐好友的方法和装置
JP2021096693A (ja) * 2019-12-18 2021-06-24 Jeインターナショナル株式会社 チャットボットサーバー装置、学習装置、チャットボットシステム、チャットボットサーバー装置の動作方法、学習装置の動作方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
US10075544B2 (en) 2018-09-11
JPWO2014178219A1 (ja) 2017-02-23
CN104135694A (zh) 2014-11-05
EP2993907A1 (en) 2016-03-09
EP2993907A4 (en) 2016-12-21
JP6384474B2 (ja) 2018-09-05
US20160112524A1 (en) 2016-04-21
CN104135694B (zh) 2019-01-08
CN105144736A (zh) 2015-12-09
CN203933870U (zh) 2014-11-05

Similar Documents

Publication Publication Date Title
JP6384474B2 (ja) 情報処理装置および情報処理方法
WO2019165905A1 (zh) 信息显示方法、图形用户接口及终端
US10897637B1 (en) Synchronize and present multiple live content streams
CN108874286A (zh) 用于相机效果的用户界面
US11277668B2 (en) Methods, systems, and media for providing media guidance
US20140372892A1 (en) On-demand interface registration with a voice control system
CN112752121B (zh) 一种视频封面生成方法及装置
US20150154302A1 (en) Information processing apparatus and recording medium
CN112866783A (zh) 评论交互方法和装置、电子设备
WO2024060559A1 (zh) 互动小说中弹幕的处理方法及装置
CN113553466A (zh) 页面展示方法、装置、介质和计算设备
CN113542845B (zh) 一种信息展示方法、装置、设备及存储介质
JP2019128850A (ja) 情報処理装置、動画検索方法、生成方法及びプログラム
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
WO2023011300A1 (zh) 记录观看视频的人脸表情的方法和装置
US20220350650A1 (en) Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory
JP2014153990A (ja) 情報処理装置、情報処理方法およびプログラム
CN117786159A (zh) 文本素材获取方法、装置、设备、介质和程序产品
WO2024113679A1 (zh) 多媒体资源处理方法、装置和设备
CN115278378B (zh) 信息显示方法、信息显示装置、电子设备和存储介质
US20230326094A1 (en) Integrating overlaid content into displayed data via graphics processing circuitry and processing circuitry using a computing memory and an operating system memory
KR20180053221A (ko) 전자 장치 및 그의 제어 방법
CN116744064A (zh) 基于虚拟现实的视频播放方法、装置及电子设备
CN107371063B (zh) 视频播放方法、装置、设备及存储介质
CN117891428A (zh) 关系指数显示方法、装置、介质和计算设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480023383.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14791027

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015514766

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14785276

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014791027

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE