[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2021044787A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2021044787A1
WO2021044787A1 PCT/JP2020/029762 JP2020029762W WO2021044787A1 WO 2021044787 A1 WO2021044787 A1 WO 2021044787A1 JP 2020029762 W JP2020029762 W JP 2020029762W WO 2021044787 A1 WO2021044787 A1 WO 2021044787A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
person
string
information processing
information
Prior art date
Application number
PCT/JP2020/029762
Other languages
English (en)
French (fr)
Inventor
憲太 中島
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/638,018 priority Critical patent/US20220365588A1/en
Publication of WO2021044787A1 publication Critical patent/WO2021044787A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Definitions

  • This technology relates to information processing devices, information processing methods, and programs that can control the display of images.
  • Patent Document 1 discloses a content providing system that provides content to a user.
  • a target user is specified based on the type of content.
  • the orientation of the display surface that displays the content is controlled so that it faces the specified target user. As a result, it is possible to inform the user that the displayed content is intended for oneself (paragraphs [0036] to [0038] of the specification of Patent Document 1 and the like).
  • the purpose of this technology is to provide an information processing device, an information processing method, and a program that can realize a new user experience.
  • the information processing device includes a display control unit. Based on the space-related information about the real space, the display control unit determines the association between the person in the real space and the object in the real space and how the movement of the person affects the object. , Controls the display of the associated image that can be grasped by the person in the real space.
  • this information processing device the association between the person and the object and the display of the associated image that enables the person to grasp how the movement of the person affects the object are controlled. This makes it possible to realize a new user experience.
  • the space-related information may include movement information related to the movement of a person in the real space.
  • the display control unit may control the display of the related image based on the motion information.
  • the information processing device may further include a determination unit that determines an instruction from a person in the real space.
  • the image display unit may control the display of the related image based on the instruction.
  • the related image may include a string-shaped image displayed so as to connect the person and the object.
  • the string-shaped image may be an image imitating an actual string-shaped object having a defined length.
  • the space-related information may include the position information of the person and the position information of the object.
  • the display control unit may control the display mode of the string-shaped image based on the distance between the person and the object.
  • the display control unit displays the string-shaped image so that the string-shaped image is pulled as the distance between the person and the object increases, and the display control unit displays the string-shaped image as the distance between the person and the object decreases.
  • the string-shaped image may be displayed so that the string-shaped image is loosened.
  • the space-related information may include the position information of the person and the position information of the object.
  • the display control unit determines the position of the first end point on the person side of the string-shaped image and the object of the string-shaped image based on the position of the person and the position of the object.
  • the position of the second end point on the side may be calculated, and the string-shaped image may be displayed so as to connect the first end point and the second end point.
  • the object may include an object image which is an image displayed in the real space.
  • the display control unit can control the display of the object image, and when the person moves in a direction away from the object image while the string-shaped image is fully extended, the person The object image may be moved so as to follow the movement of the object.
  • the display control unit may move the object image based on the movement of manipulating the string-shaped image of the person.
  • the information processing device may further include a processing execution unit that executes processing related to the object associated with the person.
  • the information processing device may further include a determination unit for determining an instruction from a person in the real space.
  • the process execution unit may execute the process related to the object associated with the person who input the instruction based on the instruction from the person in the real space.
  • the space-related information may include device information related to electronic devices in the real space.
  • the object may include an object image which is an image displayed in the real space.
  • the processing execution unit may control the electronic device based on the movement of manipulating the string-shaped image of the person to superimpose the object image on the electronic device.
  • the electronic device may include a display device.
  • the processing execution unit may display the image related to the object image on the display device based on the movement of superimposing the object image on the display device.
  • the space-related information may include object information regarding an object in the real space.
  • the display control unit may display the object information about the object associated with the person in the real space.
  • the space-related information may include device information related to electronic devices in the real space.
  • the display control unit moves the tip of the string-shaped image displayed so as to connect the person and the electronic device from the electronic device to another position, based on the electronic device.
  • An image relating to the person may be displayed in the real space as the object associated with the person.
  • the object may include an object image which is an image displayed in the real space.
  • the display control unit is the first object associated with the first person when the distance between the first person and the second person in the real space is smaller than a predetermined threshold value.
  • the image and the second object image associated with the second person may be displayed together.
  • the display control unit can control the display of a plurality of string-shaped images that connect the person and the plurality of objects when a plurality of objects are associated with the person. May be good.
  • the object may include an object image which is an image displayed in the real space.
  • the display control unit operates the plurality of string-shaped images of the person, and based on the movement of superimposing the first object image and the second object image associated with the person on each other. Integrated information about the first object image and the second object image may be displayed in the real space as the object associated with the person.
  • the information processing method is an information processing method executed by a computer system, and is based on space-related information about the real space, and the person in the real space and the object in the real space.
  • the association and how the movement of the person affects the object is included in controlling the display of the related image in the real space so that the person can grasp it.
  • a program causes a computer system to perform the following steps. Based on the space-related information about the real space, the person can grasp the association between the person in the real space and the object in the real space and how the movement of the person affects the object. A step of controlling the display of the associated image to be displayed in the real space.
  • Image display system An example of an image display system according to the present technology will be described with reference to FIG.
  • the image display system 100 according to the present technology it is possible to realize a new user experience that has never existed by controlling the display of images.
  • the image display system 100 according to the present technology is typically constructed for the real space S.
  • the real space can also be a physical space.
  • any real space such as a room such as a living room or an indoor space in a facility such as a gymnasium can be adopted.
  • the image display system 100 according to the present technology can be constructed not only in an indoor space but also in an outdoor space where a screen or the like capable of displaying an image is arranged in a plaza, a parking lot, or the like. Is.
  • the image display system 100 is constructed with the space in the room including the wall surface 5 as the real space S.
  • the image display system 100 includes an image display unit 10, a sensor unit 20, and an information processing device 30.
  • the image display unit 10, the sensor unit 20, and the information processing device 30 are communicably connected via wire or wireless.
  • the connection form between each device is not limited, and for example, wireless LAN communication such as WiFi and short-range wireless communication such as Bluetooth (registered trademark) can be used.
  • the image display unit 10 can display an image in the real space S.
  • the image display unit 10 is configured so that an image can be displayed on the wall surface 5, floor, ceiling, or the like shown in FIG.
  • a projector capable of projecting an image on a wall surface 5 or the like is used.
  • the specific configuration, number, arrangement position, etc. of the projector are not limited, and may be arbitrarily designed so that the image can be projected on a desired region in the real space S.
  • a movable projector, a free-viewpoint projector, or the like may be used.
  • the configuration of the image display unit 10 is not limited and may be arbitrarily designed.
  • the device is not limited to the device that projects an image, and a display device such as a transparent display may be installed on the wall surface 5 or the like.
  • the sensor unit 20 can detect various data related to the real space S.
  • an image pickup device such as a digital camera, a ToF (Time of Flight) camera, a stereo camera, a monocular camera, an infrared camera, a polarized camera, and another camera is arranged.
  • sensor devices such as a laser ranging sensor, a contact sensor, an ultrasonic sensor, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), and a sonar may be used.
  • various microphones capable of detecting the sound generated in the real space S are arranged.
  • GPS or the like may be arranged.
  • the configuration of the sensor unit 20 is not limited and may be arbitrarily designed.
  • the information processing device 30 has hardware necessary for configuring a computer, such as a processor such as a CPU or GPU, a memory such as ROM or RAM, and a storage device such as an HDD (see FIG. 20).
  • a computer such as a processor such as a CPU or GPU, a memory such as ROM or RAM, and a storage device such as an HDD (see FIG. 20).
  • the information processing method according to the present technology is executed when the CPU loads and executes the program according to the present technology recorded in advance in the ROM or the like into the RAM.
  • the information processing device 30 can be realized by an arbitrary computer such as a PC (Personal Computer).
  • hardware such as FPGA and ASIC may be used.
  • the display control unit 31 as a functional block is configured by the CPU executing a predetermined program.
  • the program is installed in the information processing apparatus 30 via, for example, various recording media. Alternatively, the program may be installed via the Internet or the like.
  • the type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any non-transient storage medium readable by a computer may be used.
  • the information processing device 30 acquires the space-related information 32.
  • the acquisition of the space-related information 32 includes both receiving the space-related information 32 transmitted from the outside and generating the space-related information 32 by the information processing apparatus 30 itself.
  • the space-related information 32 includes arbitrary information related to the real space S, such as environmental information, person information, and object information as illustrated below.
  • “Environmental information” For example, the position information of an object constituting the real space S and the identification information for identifying the type of the object, or the position information of the object existing in the real space S and the identification information for identifying the type of the object are acquired as environmental information. Will be done.
  • object is a concept including "person”.
  • a person and a non-human object are often described separately. Therefore, in the following, an object that is not a person may be simply described as an object.
  • the object can also be a physical object.
  • the position information is defined by, for example, coordinate values based on the coordinate system set in the real space S.
  • an absolute coordinate system (world coordinate system) may be used, or a relative coordinate system with a predetermined point as a reference (origin) may be used.
  • the reference origin may be set arbitrarily.
  • Map information about the real space S is also included in the environmental information.
  • identification information, position information, and the like that identify the wall surface 5, floor, ceiling, and the like constituting the real space S are acquired as environmental information.
  • the electronic devices of the television 2, the lighting device 3, and the electronic piano 4 are arranged in the real space S. Identification information that identifies each of these electronic devices and location information of each electronic device are acquired as environmental information.
  • Period information various information about a person existing in the real space S is acquired as person information.
  • various information about the state of a person is included in the person information.
  • identification information for identifying a person, position information of a person, movement information of a person, utterance information of a person, posture of a person, line of sight of a person, facial expression of a person, and the like are included in the person information.
  • various instructions input by the person are also included in the person information.
  • the content of the instruction input via voice, movement (gesture), posture, facial expression, etc. is acquired as personal information.
  • three persons 1 (1a to 1c) exist in the real space S.
  • the identification information for identifying the person 1, the movement of the person 1, and the instruction from the person 1 are acquired as the person information.
  • the person 1 existing in the real space S corresponds to the user of the image display system 100. Therefore, the person information can be said to be user information.
  • object information For example, arbitrary information about an object (an object that is not a person) existing in the real space S is acquired as object information. For example, the function, status, information on whether or not control is possible of the electronic device existing in the actual section S, and the like are acquired as object information. Information about electronic devices can also be called device information. In addition, arbitrary information about objects that are not electronic devices, such as foliage plants, tables, and foodstuffs, is acquired as object information.
  • Space-related information 32 including environmental information, person information, object information, etc. may be prepared and stored in advance, for example. Alternatively, it may be generated in real time based on the detection result of the sensor unit 20. Further, the space-related information 32 may be acquired by referring to the information generated based on the detection result of the sensor unit 20 and the table information or the like stored in advance. In addition, any technique (algorithm or the like) for acquiring the space-related information 32 may be adopted.
  • an arbitrary machine learning algorithm using DNN (Deep Neural Network) or the like may be used.
  • DNN Deep Neural Network
  • AI artificial intelligence
  • a learning unit and an identification unit are constructed to generate space-related information 32.
  • the learning unit performs machine learning based on the input information (learning data) and outputs the learning result.
  • the identification unit identifies (determines, predicts, etc.) the input information based on the input information and the learning result.
  • a neural network or deep learning is used as a learning method in the learning unit.
  • a neural network is a model that imitates a human brain neural circuit, and is composed of three types of layers: an input layer, an intermediate layer (hidden layer), and an output layer.
  • Deep learning is a model that uses a multi-layered neural network, and it is possible to learn complex patterns hidden in a large amount of data by repeating characteristic learning in each layer. Deep learning is used, for example, to identify objects in images and words in sounds. Of course, it can also be applied to the generation of the space-related information 32 according to the present embodiment. Further, as a hardware structure for realizing such machine learning, a neurochip / neuromorphic chip incorporating the concept of a neural network can be used.
  • Machine learning problem settings include supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, reverse reinforcement learning, active learning, and transfer learning.
  • supervised learning features are learned based on given labeled learning data (teacher data). This makes it possible to derive labels for unknown data.
  • unsupervised learning a large amount of unlabeled learning data is analyzed to extract features, and clustering is performed based on the extracted features. This makes it possible to analyze trends and predict the future based on a huge amount of unknown data.
  • semi-supervised learning is a mixture of supervised learning and unsupervised learning. After learning features in supervised learning, a huge amount of training data is given in unsupervised learning, and the features are automatically characterized. This is a method of repeatedly learning while calculating the amount.
  • Reinforcement learning also deals with the problem of observing the current state of an agent in an environment and deciding what action to take. Agents learn rewards from the environment by choosing actions and learn how to get the most rewards through a series of actions. In this way, by learning the optimum solution in a certain environment, it is possible to reproduce human judgment and to make a computer acquire judgment that exceeds human judgment. It is also possible to generate virtual sensing data by machine learning. For example, it is possible to predict another sensing data from one sensing data and use it as input information, such as generating position information from the input image information. It is also possible to generate different sensing data from a plurality of sensing data. It is also possible to predict the required information and generate predetermined information from the sensing data.
  • an arbitrary learning algorithm or the like different from machine learning may be used.
  • generating the space-related information 32 according to a predetermined learning algorithm it is possible to improve the generation accuracy of the space-related information 32.
  • the application of the learning algorithm may be executed for any process in the present disclosure.
  • Skeleton estimation may be executed as a method of generating personal information. Skeleton estimation, also called bone estimation or skeleton estimation, can be performed using well-known techniques. The skeleton estimation makes it possible to determine the posture of a person with high accuracy. For example, it is possible to detect the direction in which the arm is extended, the direction in which the wrist is switched, the direction in which the foot is kicked up, and the like.
  • the display control unit 31 of the information processing apparatus 30 illustrated in FIG. 1 can control the display of an image by the image display unit 10 arranged with respect to the real space S based on the space-related information 32. For example, the display control unit 31 calculates the display position (for example, coordinate values) of the image based on the space-related information 32. Then, a predetermined image is displayed at the calculated display position.
  • images include still images and moving images. Of course, a plurality of frame images included in the moving image are also included in the image.
  • Examples of the types of displayed images include the following types.
  • “Content image” For example, an image displaying contents such as a movie or a television program is included.
  • Virtual object image For example, an image in which a real object or the like is virtually displayed is included.
  • Information presentation image For example, an image displaying various information is included.
  • An image including a Web page or the like displayed via a Web browser is also included in the information presentation image.
  • “Device control image” For example, an image showing control of an electronic device is included. For example, an image in which arbitrary controls (commands) for electronic devices such as “volume up” and “power ON” are displayed is displayed as a device control image.
  • an image or the like in which the status (state) of the electronic device is displayed is also included in the device control image.
  • various types of images are displayed. Further, the above classification of images is an example, and is not limited to the case where images are classified based on such classification.
  • the display control unit 31 controls the display of the related image according to the present technology in the real space S.
  • the associated image according to the present technology enables the person 1 to grasp how the person 1 in the real space S is associated with the object in the real space and how the movement of the person 1 affects the object. It is an image. That is, the associated image includes an arbitrary image that allows the person 1 to grasp what the object associated with himself / herself is and how his / her movement affects the object. An associated image can be said to be an image in which the movement of an object with respect to one's own movement can be predicted.
  • the object associated with the person 1 includes, for example, any object existing in the real space S.
  • an arbitrary object such as an electronic device or an object that is not an electronic device is an object.
  • the object includes an arbitrary image displayed in the real space S. That is, in the real space S, various images are displayed as objects.
  • various images displayed as an object may be comprehensively described as an object image.
  • a string-shaped image (hereinafter, referred to as a string-shaped image) 15 is displayed as an associated image so as to connect the person 1 and the object.
  • the string-shaped image 15 can also be called a virtual string.
  • the string-shaped image 15a is displayed so as to connect the person 1a and the object image 7a.
  • the string-shaped image 15b is displayed so as to connect the person 1b and the object image 7b.
  • the string-shaped image 15c is displayed so as to connect the person 1b and the lighting device 3.
  • a plurality of objects may be associated with one person 1.
  • the string-shaped image 15 is displayed between the object and the object.
  • the string-shaped image 15 is displayed as, for example, an image imitating an actual string-shaped object having a defined length.
  • an image imitating an arbitrary string-shaped object such as a rope, a lead, or a thread can be adopted as an associated image.
  • the thickness, color, and the like may be arbitrarily set.
  • the color of the string-shaped image 15 and the like are distinguished for each person 1. This makes it possible to more easily grasp the association between the person 1 and the object.
  • the display control unit 31 can control the display mode of the string-shaped image 15 based on the distance between the person 1 and the object associated with the person 1. For example, the tension expression of the string-shaped image 15 is controlled based on the distance between the person 1 and the object. For example, as the distance between the person 1 and the object increases, the string-shaped image 15 is displayed so that the string-shaped image 15 is pulled (so that tension is applied). The string-shaped image 15 is displayed so that the string-shaped image 15 becomes looser as the distance between the person 1 and the object becomes smaller. The distance between the person 1 and the object can be calculated based on the position information of the person 1 and the position information of the object.
  • the person 1a can grasp the association between himself / herself and the object image 7a by the string-shaped image 15a. Further, it is possible to grasp the influence of one's movement on the object image 7a from the display mode of the string-shaped image 15a, specifically, the shape (tension expression) of the string-shaped image 15a. For example, if the string-shaped image 15a is loose, it can be seen that even if one moves, the effect does not reach the object image 7a. Further, depending on the degree of looseness, it is possible to grasp the moving distance that does not affect the object image 7a. If the string-shaped image 15a is in a state of being fully extended in a straight line, it can be seen that when oneself moves, the influence is directly transmitted to the object image 7a.
  • the person 1b can grasp the association between himself and the object image 7b by the string-shaped image 15b. Further, from the shape (tension expression) of the string-shaped image 15b, it is possible to grasp the influence of one's movement on the object image 7b. Further, the person 1b can grasp the association between himself / herself and the lighting device 3 from the string-shaped image 15c. Further, from the shape (tension expression) of the string-shaped image 15c, it is possible to grasp the influence of one's movement on the lighting device 3. The person 1c can grasp the association between himself and the electronic piano 4 by the string-shaped image 15d. Further, from the shape (tension expression) of the string-shaped image 15d, it is possible to grasp the influence of one's movement on the electronic piano 4.
  • the string-shaped image 15 is just an image, no physical force acts on the associated object.
  • By controlling the display of the virtual string-shaped image 15 when executing such a process it is possible to feed back the influence of the movement of the person 1 on the object image 7 to the person 1.
  • By making the string-shaped image 15 an image that imitates a real string-shaped object it is easy for the person 1 to understand how his / her movement affects the object without any special knowledge. It becomes possible to grasp.
  • a moving mechanism, an actuator mechanism, or the like capable of moving or defeating an object (physical object) existing in the real space S is provided.
  • attractions and the like according to the movement of the person 1 can be realized, and a new user experience can be realized.
  • FIG. 2 is a block diagram showing a functional configuration example of the image display system 100 and the information processing device 30.
  • a speaker 25 is arranged in the real space S in addition to the image display unit 10 and the sensor unit 20. By controlling the speaker 25, it is possible to notify the person 1 of various information via voice. It is also possible to output audio as content, such as audio of a content image. It is also possible to output sound effects and the like.
  • the interlocking device 26 shown in FIG. 2 is an electronic device or the like whose operation can be controlled by the information processing device 30.
  • the environment recognition unit 34, the person recognition unit 35, the device control unit 36, and the display control unit 31 act as functional blocks. It is composed.
  • the environment recognition unit 34 generates the above-mentioned environment information.
  • the person recognition unit 35 generates the above-mentioned person information. That is, the information processing device 30 illustrated in FIG. 2 has a function of generating environmental information and personal information included in the space-related information 32. As described above, the algorithm for generating environmental information and personal information is not limited.
  • the device control unit 36 controls the operation of the speaker 25 and the interlocking device 26.
  • the method of controlling the operation of the speaker 25 and the interlocking device 26 is not limited, and any method (algorithm or the like) may be adopted.
  • software for example, an application program
  • the position information, device information, and the like of the interlocking device 26 may be registered in advance, and the operation of the interlocking device 26 may be controllable by activating the predetermined software.
  • the API Application Programming Interface
  • the software for controlling the operation of the interlocking device 26 is open to the public, it is possible to control the operation of the interlocking device 26 or the like by calling the API.
  • FIG. 2 shows the storage unit 40.
  • the storage unit 40 may be configured by a storage device such as an HDD provided in the information processing device 30.
  • it may be configured by an external storage device connected to the information processing device 30. Even when an external storage device is used, it can be regarded as a part of the information processing device 30.
  • the association information 41, the above-mentioned object information 42, and the execution processing information 43 are stored in the storage unit 40.
  • the association information 41 includes an association between the person 1 and the object.
  • the association between the person 1a and the object image 7a, the association between the person 1b and the object image 7b, the association between the person 1b and the lighting device 3, and the association between the person 1c and the electronic piano 4 are stored. Will be done.
  • the execution processing information 43 includes information related to processing executed in response to an operation or the like using the string-shaped image 15 by the person 1 to be described later.
  • the data format, storage format, etc. of the information stored in the storage unit 40 are not limited. For example, a key-value database, a document database, or the like may be constructed to store each information.
  • the display control unit 31 realizes the display control unit according to the present technology.
  • the person recognition unit 35 realizes a determination unit that determines an instruction from a person in the real space S.
  • a process execution unit that executes a process related to the object associated with the person 1 is realized.
  • FIG. 3 is a flowchart showing an operation example of the information processing device 30.
  • the generation of the environmental information by the environment recognition unit 34 and the generation of the person information by the person recognition unit 35 are repeatedly executed at predetermined intervals (step). 101, step 102). That is, in the present embodiment, environment recognition and person recognition are repeatedly executed for the real space S.
  • the generated environment information and person information are output to the device control unit 36 and the display control unit 31.
  • FIG. 4 is a flowchart showing a processing example when the string-shaped image 15 is newly displayed.
  • FIG. 5 is a schematic view showing a display example of the string-shaped image 15.
  • the display control unit 31 monitors whether or not the association between the person 1 in the real space S and the object 45 is set (step 201). When the association between the person 1 and the object is set (Yes in step 201), the display control unit 31 calculates the display position of the string-shaped image 15 (step 202). As shown in FIGS. 5A to 5C, for example, based on the position of the person 1 and the position information of the object 45, the first end point P1 on the person 1 side of the string-shaped image 15 and the string-shaped image 15 The position of the second end point P2 on the object 45 side is calculated.
  • one point on the periphery of the person 1 is calculated as the first endpoint P1
  • one point on the periphery of the object 45 is calculated as the second endpoint P2.
  • the calculation method of the first end point P1 and the second end point P2 is not limited, and a predetermined position where the string-shaped image 15 can be displayed may be calculated.
  • the display control unit 31 selects the display mode of the string-shaped image 15 (step 203).
  • the display mode is selected based on the distance between the person 1 and the object 45.
  • the display mode of the string-shaped image 15 may be selected based on the distance between the first end point P1 and the second end point P2 shown in FIGS. 5A to 5C.
  • the display mode is typically the shape (tension expression) of the string-shaped image 15. That is, a shape capable of expressing how much the string-shaped image 15 is pulled (how much tension is applied) and how loose the string-shaped image 15 is is appropriately selected. For example, as shown in FIG. 5A, when the distance between the person 1 and the object 45 is small, a display mode in which the string-shaped image 15 is sufficiently loose is selected.
  • the display mode in which the string-shaped image 15 is fully extended is selected.
  • a plurality of display modes capable of expressing the tension of the string-shaped image 15 are stored. Then, one of the plurality of display modes is selected based on the distance between the person 1 and the object 45.
  • a threshold value or the like for selecting a display mode may be set stepwise with respect to the distance between the person 1 and the object 45. For example, when the distance between the person 1 and the object 45 becomes equal to the maximum threshold value, the extended display form as illustrated in FIG. 5C is selected.
  • the display control unit 31 displays the string-shaped image 15 (step 204).
  • the string-shaped image 15 of the display mode selected in step 203 is displayed so as to connect the first end point P1 and the second end point P2.
  • the string-shaped image 15 is displayed so as to crawl on the wall surface 5, the floor, or the like.
  • the string-shaped image 15 may be displayed three-dimensionally on 3D using a laser beam, a hologram image, or the like.
  • the method of displaying the string-shaped image 15 according to the new association is not limited, and any other method may be adopted.
  • the entire display position of the string-shaped image 15 may be set based on the distance between the person 1 and the object 45. That is, the entire display position of the string-shaped image 15 in consideration of the tension expression may be calculated. Then, the entire string-shaped image 15 may be displayed at the calculated display position.
  • how to change the display mode (tension expression) according to the distance between the person 1 and the object 45 is not limited. For example, only three stages of change such as a first tension state (which can be said to be a loose state), a second tension state, and a third tension state as illustrated in FIG. 5 may be sufficient.
  • display control with high reproducibility (high reality) according to the distance between the person 1 and the object 45 may be executed so that the actual string-shaped object is pulled little by little. This makes it possible to achieve a high quality user experience.
  • the new association can be said to be a trigger for displaying the new string-shaped image 15.
  • the person 1 specifies an object to be associated with.
  • the object can be specified by any instruction method via gesture or voice. For example, it is possible to specify an object by pointing to the object and saying "I want you to associate it with (object)". Of course, it may be possible to input an instruction to specify the object only by a gesture pointing to the object. In addition, it may be possible to input an instruction to specify an object only by utterance, such as "I want you to associate it with a television”. In addition, any method may be adopted.
  • the direction in which the person 1 points, the direction in which the person 1 extends his arm, and the like can be calculated based on the movement information of the person. It is also possible to recognize an object existing in the pointing direction based on environmental information.
  • the display control unit 31 sets the association between the person 1 and the object based on the instruction for designating the object to be associated. In response to this, the process proceeds to step 202 and the string-shaped image 15 is displayed. Further, the related information 41 in the storage unit 40 is updated.
  • the person 1 When the person 1 inputs some instruction regarding the object in the real space S, the person 1 may be associated with the object to be instructed. For example, it is assumed that the person 1 inputs an instruction to change the content content of the content image (object image 7) displayed on the wall surface 5. In this case, the person 1 is associated with the content image to be instructed. Further, when the person 1 inputs an instruction to turn on the lighting device 3, the person 1 and the lighting device 3 are associated with each other. When an instruction different from the instruction indicating that the association is desired is input to the object in this way, the association may be set by using it as a trigger, and the string-shaped image 15 may be displayed.
  • FIG. 6 is a flowchart showing an example of association processing in response to an instruction to display a content image.
  • the person 1 makes a gesture of extending his arm toward the wall surface 5. It is assumed that this gesture is stored as a display instruction of a content image accompanied by a designation of a display position.
  • the display control unit 31 determines in step 301 that the content image display instruction has been given, and in step 302, calculates the display position of the content image.
  • the wall surface 5 existing in the direction in which the arm of the person 1 is extended is detected. Then, the display position of the content image is calculated with reference to the direction in which the arm is extended (vector) and the intersection with the wall surface 5. In step 303, the display position of the string-shaped image 15 is calculated. In step 304, the display mode of the string-shaped image 15 is selected based on the distance between the person 1 and the display position of the content image. In step 305, the content image and the string-shaped image 15 are displayed. In step 305, geometric transformation may be performed on the content image based on the person 1 and the display position of the content image on the wall surface 5. Specifically, the image is geometrically transformed so that the content image is displayed facing the person 1.
  • the algorithm for geometrically transforming the image is not limited. If the display position is not specified, the object image 7 may be displayed at the default position or the like, for example. It should be noted that the gesture is not limited to extending the arm, and it is also possible to specify the display position and input the display instruction of the object image 7 according to other postures, the line of sight, the direction of the face, and the like.
  • the association setting and the display of the string-shaped image 15 may be executed based on the movement of the person 1.
  • the string-shaped image 15 may be displayed by associating the person 1 with the object based on the movement of extending the arm with respect to the object of the person 1.
  • the object image 7 is displayed on the wall surface 5 based on the movement of pointing to the wall surface 5 of the person 1, and the person 1 and the object image 7 are associated with each other. In this way, the association may be executed according to the actual movement without determining the input instruction.
  • the image display system 100 it is possible to appropriately combine and execute the display control of the string-shaped image 15 based on the instruction from the person 1 and the display control of the string-shaped image 15 based on the movement information of the person 1. is there.
  • a notification to request re-input of the instruction is output via the speaker 25 or the like.
  • FIG. 7 is a flowchart showing a processing example when erasing the string-shaped image 15.
  • the string-shaped image 15 is deleted (steps 401 and 402).
  • the association is canceled.
  • the method of inputting the instruction to cancel the association is not limited, and any method using utterance, gesture, or the like may be used.
  • the association may be broken when a predetermined movement is performed.
  • the association may be canceled based on an utterance such as "cut this string!.
  • the object image 7a associated with the person 1a is assumed to be a content image of a movie, a television program, or the like.
  • the object image 7b associated with the person 1b is also used as the content image.
  • An electronic piano 4 is associated with the person 1c.
  • any one of the persons 1a to 1c, the person 1 inputs an instruction to increase the volume through the utterance.
  • the person recognition unit 35 identifies the person 1 who has spoken, and determines the content of the instruction.
  • the speaker 25 is controlled so as to increase the volume of the object image 7a which is a content image.
  • the speaker 25 is controlled so as to increase the volume of the object image 7b which is the content image. It is assumed that the person who spoke is person 1c.
  • the electronic piano 4 is the interlocking device 26, the volume of the electronic piano 4 is increased.
  • the electronic piano 4 is not a device that can be linked, for example, the state is maintained as it is without doing anything. Alternatively, an image or sound of an error display may be notified. In this way, based on the instruction from the person 1 in the real space S, the process related to the object associated with the person 1 who input the instruction is executed.
  • the display control unit 31 and the device control unit 36 execute an executable command based on the association of the person 1 who has input the instruction. For example, even when an operation (with ambiguous instructions) that does not explicitly indicate the operation target such as "turn up the volume" is performed by voice input or the like, the relationship with the operation target is known from the string-shaped image 15. Therefore, the operation can be executed. In addition, it is possible to take different measures for each person.
  • FIG. 8 is a schematic diagram for explaining the tracking of the object image 7. As shown in FIG. 8, when the display control unit 31 moves in a direction away from the object image 7 in a state where the string-shaped image 15 connecting the person 1 and the object image 7 is fully extended, the display control unit 31 moves the person. It is possible to move the object image 7 so as to follow the movement of 1.
  • FIG. 9 is a flowchart showing a specific processing example of the tracking control of the object image 7.
  • the process shown in FIG. 9 is executed when the object image 7 is associated with the object. Whether or not the person 1 has moved is monitored (step 501).
  • the display position of the string-shaped image 15 is updated (step 502). For example, the positions of the first endpoint P1 and the second endpoint P2 illustrated in FIG. 5 are updated.
  • the distance between the first end point P1 and the second end point P2 may be the determination target.
  • the threshold value may be set arbitrarily.
  • the threshold value may be set by the person 1.
  • the display mode of the string image 15 is selected based on the distance between the person 1 and the object image 7, and the string image is selected. 15 is displayed (steps 504, 505).
  • the distance between the person 1 and the object image 7 exceeds the threshold value (Yes in step 503), it is determined whether or not the object image 7 can be moved (step 506).
  • the object image 7 is set to be movable. On the other hand, it is also possible to restrict the movement of the object image 7 by the person 1. In such a case, the object image 7 cannot be moved.
  • the display position of the object image 7 is updated, and the object image 7 and the string-shaped image 15 are displayed (steps 507 and 508).
  • the display mode of the string-shaped image 15 is maintained in a fully extended state.
  • the locus of movement of the object image 7 is calculated based on the movement of the person 1 and the display position of the string-shaped image 15, and the display of the object image 7 is based on the locus.
  • the position may be updated.
  • the trajectory of the object image 7 may be calculated by mimicking a motion model of an object such as a ball.
  • the display of the string-shaped image 15 is controlled so that the string-shaped image 15 is cut (step 509).
  • a notification that the object image 7 cannot follow may be executed.
  • the string-shaped image 15 may be cut off, and a warning or the like that the association may be canceled may be executed.
  • display control may be executed so that the string-shaped image 15 is stretched.
  • the object image 7 is made to follow the movement of the person 1 without displaying the string-shaped image 15.
  • the follow-up operation of the object image 7 is controlled by using the display mode (tension expression) of the string-shaped image 15.
  • the person 1 can intuitively grasp the movement of the object image 7. That is, the person 1 can understand the intention of the system side and perform an appropriate operation.
  • various variations can be considered as the control of the following operation using the tension expression of the string-shaped image 15.
  • the display such that the tracking of the object image 7 starts immediately before the fully extended state and the tracking speed gradually increases.
  • the degree of follow-up of the object image 7 to the person 1 may be appropriately controlled according to the tension expression of the string-shaped image 15. Further, when the person stops, the object image 7 also follows and stops at the same timing. Not limited to this, display control such that the object image 7 moves slightly inertially and then stops is also possible.
  • the object image 7a is associated with the person 1a, and the string-shaped image 15a is displayed.
  • the object image 7b is associated with the person 1b, and the string-shaped image 15b is displayed.
  • the tracking control of the object image 7 is executed based on the movement of the person 1 associated with the object image 7. That is, the display of the object image 7a is controlled so as to follow only the person 1a.
  • the display of the object image 7b is controlled so as to follow only the person 1b.
  • a plurality of object images 7 are associated with one person 1, the plurality of object images 7 can follow the movement of the person 1 and move. ..
  • the object image 7 may move.
  • a virtual object image of a balloon or the like is displayed as an object image 7, and may be associated with a person 1.
  • the display mode of the string-shaped image 15 is appropriately selected based on the distance between the object image 7 and the person 1, and the object image 7 and the object image 7 are displayed.
  • the string-shaped image 15 is displayed.
  • the movement of the object image 7 is restricted while the string-shaped image 15 is fully extended. That is, the display position of the object image 7 is fixed. Not limited to this, display control that floats fluffy like a real balloon may be executed.
  • the display mode of the string-shaped image 15 is appropriately selected and displayed based on the distance between the person 1 and the object.
  • a cutting display is executed such that the string-shaped image 15 is cut, as in step 509 of FIG. 9, for example.
  • the present invention is not limited to this, and a warning or the like may be executed.
  • a display restriction area 47 in which the display of an image is restricted may be set in the real space S.
  • a non-displayable area in which an image cannot be displayed by the image display unit 10 or a display prohibited area in which image display is prohibited is set as a display restricted area 47.
  • the display restriction area 47 may be set by the person 1.
  • the information of the display restriction area 47 in the real space S is the information included in the space-related information.
  • the display control unit 31 fixes the object image 7 moving toward the display restriction area 47 at a position immediately before the display restriction area 47.
  • the object image 7 is in a state where it cannot be moved any further.
  • step 506 it is determined in step 506 that the object image 7 cannot be moved.
  • the display control is not limited to the case where the display position of the object image 7 is fixed, and the display control may be executed so that the object image 7 bounces off.
  • the person 1 can execute various processes by operating the string-shaped image 15. For example, as illustrated in FIG. 11, it is assumed that a virtual object image in which a cat is virtually displayed is associated with the person 1 as an object image 7. The person 1 can move the object image 7 by manipulating the string-shaped image 15.
  • the person recognition unit 35 recognizes the movement of operating the string-shaped image 15 of the person 1.
  • the display control unit 31 can move the object image 7 based on the movement of operating the string-shaped image 15 of the person 1. For example, the final position (position after movement) of the object image 7 or the object image 7 based on the direction in which the arm of the person 1 extends, the direction in which the arm swings, the speed of the arm swing, the acceleration of the arm swing, and the like.
  • the trajectory of the movement of is calculated.
  • the display position of the string-shaped image 15 is calculated based on the final position of the object image 7 and the position of the person 1, and the display mode is selected. As the display mode, a fully extended state is typically selected.
  • the object image 7 is displayed at the final position, and the string-shaped image 15 is displayed between the object image 7 and the person 1.
  • An image that expresses the locus of movement of the object image 7 may be displayed.
  • various operations that can be performed on the actual string-shaped object such as pulling, pinching, winding, cutting, connecting, transplanting, stretching, contracting, splitting (dividing) and tapping are performed.
  • Conceivable. Processes may be associated and executed as appropriate according to each operation. The associated process is stored as, for example, execution process information 43. It is also possible to make the string-shaped image 15 thicker, thinner, softer, and hardened. This makes it possible to change the characteristics (parameters) related to following the person 1.
  • the string-shaped image 15 is displayed so that the string-shaped image 15 is connected around the ankle of the person 1.
  • the string-shaped image 15 can be operated by kicking up the leg to which the string-shaped image 15 is tied.
  • the string-shaped image 15 is not limited to this, and although the string-shaped image 15 is connected to the foot, the string-shaped image 15 may be operated by shaking the arm. That is, the position where the string-shaped image 15 is connected (the position where the string-shaped image 15 is displayed) and the operation on the string-shaped image 15 may or may not be related.
  • FIG. 12 is a schematic diagram for explaining a control example of the interlocking device 26 by operating the string-shaped image 15.
  • the person 1 can execute various processes by operating the string-shaped image 15 and superimposing the object image 7 on the electronic device in the real space S. That is, in the image display system 100, it is possible to control the electronic device based on the movement of manipulating the string-shaped image 15 of the person 1 to superimpose the object image 7 on the electronic device.
  • FIG. 12 is a schematic diagram for explaining a control example of the interlocking device 26 by operating the string-shaped image 15.
  • the person 1 can execute various processes by operating the string-shaped image 15 and superimposing the object image 7 on the electronic device in the real space S. That is, in the image display system 100, it is possible to control the electronic device based on the movement of manipulating the string-shaped image 15 of the person 1 to superimpose the object image 7 on the electronic device.
  • a virtual object image in which a cat is virtually displayed is associated with the person 1a as an object image 7.
  • a device control image in which the person 1b is indicated to turn off the power of the electronic device is associated with the object image 7b.
  • the person 1a operates the string-shaped image 15a to move the object image 7a and superimpose it on the television 2.
  • the device control unit 36 causes the television 2 to display the content.
  • the display control unit 31 erases the object image 7a and displays the string-shaped image 15a between the person 1a and the television 2. That is, the association setting is changed.
  • the image related to the object image 7a on the display device based on the movement of superimposing the object image 7a on the display device such as the television 2.
  • the same image as the image displayed as the object image 7a may be displayed on the television 2.
  • a content image such as a movie
  • the same content image may be displayed on the television 2.
  • other images related to some attribute etc. are displayed.
  • a virtual object image of a cat is superimposed on the television 2 as shown in FIG. 1B
  • another image for example, a content image
  • various images may be displayed.
  • the person 1b operates the string-shaped image 15b to move the object image 7b and superimpose it on the lighting device 3.
  • the device control unit 36 turns off the power of the lighting device 3 to turn it off.
  • the display control unit 31 erases the object image 7b and causes the string-shaped image 15b to be displayed between the person 1b and the lighting device 3. That is, the association setting is changed.
  • FIG. 13 is a schematic diagram for explaining an example of the operation of the string-shaped image 15 on an object other than an electronic device.
  • a control image indicating that information is presented to the person 1 is associated with the object image 7.
  • the person 1 operates the string-shaped image 15 to move the object image 7 and superimpose it on the foliage plant 8.
  • the display control unit 31 erases the object image 7b and displays information about the foliage plant 8.
  • a string-shaped image is displayed between the person 1 and the foliage plant 8. That is, the association setting is changed.
  • Information about the foliage plant 8 is displayed at a position close to the foliage plant 8, for example.
  • the foliage plant 8 may be displayed so as to be superimposed on the foliage plant 8.
  • Information about the foliage plant 8 is stored in the storage unit 40 as, for example, object information. It is assumed that the person 1 instructs the association with the foliage plant 8 in a state where the person 1 and the foliage plant 8 are not associated with each other. Alternatively, it is assumed that the person 1 makes a movement to extend his arm toward the foliage plant 8. In response to such an instruction or movement, the person 1 and the foliage plant 8 are associated with each other, and the string-shaped image 15 is displayed. At that time, as shown in FIG. 13B, information on the foliage plant 8 may also be displayed. In any case, in the image display system 100, it is possible to display the object information about the object associated with the person 1 in the real space S.
  • FIG. 14 is a flowchart showing a processing example according to the operation from the object image 7 to the physical object.
  • the process shown in FIG. 14 is executed when the object image 7 is associated with the object image 7. Whether or not the string-shaped image 15 has been operated is monitored (step 601).
  • the string-shaped image 15 is operated (Yes in step 601), for example, the final position (position after movement) of the object image 7 or the final position of the object image 7 based on the direction in which the arm of the person 1 extends, the acceleration of the swing of the arm, or the like
  • the locus of movement of the object image 7 is calculated (step 602). It is determined whether or not an object exists on the calculated locus (step 603).
  • step 604 the display control of the object image 7 is executed (step 604). For example, the movement of the object image 7 as illustrated in FIG. 11 is executed.
  • step 605 it is determined whether or not the processing related to the object and the object image 7 can be executed (step 605). For example, by referring to the execution process information 43 stored in the storage unit 40, it is determined whether or not there is an executable process.
  • step 606 display control is executed such that the object image 7 collides with an object and bounces off.
  • display control may be executed so that the object image 7 passes through the object.
  • the pass-through display control can be the same display control as the display control in step 604.
  • a notification to the effect that processing is impossible may be notified via voice or an image.
  • the process is executed (step 607). For example, the image display on the television 2, the turning off of the lighting device 3, the display of information on the foliage plant 8, and the like, which are illustrated in FIGS. 12 and 13, are executed.
  • a string-shaped image 15 is displayed between the object and the object on which the object image 7 is superimposed (step 608).
  • the processing that can be executed by superimposing the object image 7 on the object is not limited, and various processing may be executed. This makes it possible to provide a high-quality, new user experience in various variations. Examples of variations are listed below.
  • It is possible to control the electronic device by superimposing the object image 7 relating to the control and status of the electronic device on the electronic device.
  • By superimposing the object image 7 such as the content image on the display device it is possible to display the image related to the object image 7 on the display device.
  • a Web page displaying cooking recipes is displayed on the wall surface 5 as an information presentation image. By superimposing the information presentation image on the foodstuff, it is possible to display the recipe using the foodstuff.
  • the display of the recipe may be executed together with the setting of the association (display of the string-shaped image 15) according to the instruction of the association with the foodstuff by the person 1 and the movement of extending the arm toward the foodstuff.
  • the camera icon is displayed as the object image 7.
  • By superimposing the camera icon on an object in the real space S it is possible to photograph the object.
  • Shooting is performed by, for example, a camera included in the sensor unit 20.
  • Shooting conditions such as the shooting direction and the zoom magnification may be set according to the trajectory when the camera icon is superimposed on the object. For example, by superimposing the camera icon from the lower side of the foliage plant 8, an image of the foliage plant 8 viewed from below is taken. Such processing is also possible.
  • the SNS (Social Networking Service) site is displayed as the object image 7.
  • the object image 7 of the SNS By superimposing the object image 7 of the SNS on an object in the real space S, it is possible to post a photographed image of the object to the SNS.
  • an object image 7 such as a sphere of light on a predetermined object such as a plate, an animation is developed around the predetermined object.
  • the original process for each person 1 may be registered as a process that can be executed according to the operation of superimposing the object images 7.
  • the registered processing information is stored as execution processing information 43.
  • Control may be performed to assist the person 1 in grasping an object that can perform some processing by superimposing the object image 7 associated with the person 1.
  • the object image 7 relating to the control of the electronic device is associated.
  • the object image 7 moves smoothly toward an electronic device that can be controlled by superimposing the object images 7.
  • the object image 7 does not move smoothly and is difficult to move.
  • control is also possible.
  • by superimposing the object images 7, the object that can perform some processing is illuminated to make it easier for the person 1 to recognize.
  • a sound effect, a guide voice, or the like may be used as appropriate.
  • information may be presented to the person 1 by changing the color, shape, and size of the object image 7 itself. Text may also be displayed.
  • FIG. 15 is a schematic diagram for explaining the operation of the string-shaped image 15 to which the electronic device is connected.
  • the television 2 displaying the content (cat) is associated with the person 1a.
  • the lighting device 3 in the lit state is associated with the person 1b.
  • the person 1a operates the string-shaped image 15a to move the tip of the string-shaped image 15a connected to the television 2 from the television 2 to another position.
  • the device control unit 36 turns off the display of the content.
  • the display control unit 31 displays an image related to the television 2 in the real space S as an object associated with the person 1a.
  • a content image, a virtual object image, or the like related to the content (cat) displayed on the television 2 is displayed on the wall surface 5 as the object image 7a.
  • a string-shaped image 15a connecting the person 1a and the object image 7a is displayed. Any image may be displayed as the image related to the television 2.
  • the person 1b operates the string-shaped image 15b to move the tip of the string-shaped image 15b connected to the lighting device 3 from the lighting device 3 to another position.
  • the device control unit 36 turns off the lighting device 3.
  • the display control unit 31 displays an image of the lighting device 3 in the real space S as an object associated with the person 1b.
  • an image of light that imitates the lighting state of the lighting device 3 is displayed as the object image 7b.
  • a string-shaped image 15b connecting the person 1b and the object image 7b is displayed. Any image may be displayed as an image relating to the lighting device 3.
  • the display control unit 31 relates to the electronic device based on the movement of the person 1 to move the tip of the string-shaped image 15 displayed so as to connect the person 1 and the electronic device from the electronic device to another position.
  • the image can be displayed in the real space S as an object associated with the person 1.
  • FIG. 16 is a flowchart showing a processing example according to the operation of the string-shaped image 15 to which the objects are tied.
  • the process shown in FIG. 16 is executed when the objects are associated with each other.
  • Whether or not the string-shaped image 15 has been operated is monitored (step 701).
  • the string-shaped image 15 is operated (Yes in step 701), for example, the final position of the tip of the string-shaped image 15 (position after movement) based on the direction in which the arm of the person 1 extends, the acceleration of the swing of the arm, and the like. )
  • the locus of movement of the tip are calculated (step 702). It is determined whether or not an object exists on the calculated locus (step 703).
  • an association change is performed (step 704).
  • the person 1 and the object existing on the locus are associated with each other, and the string-shaped image 15 is displayed.
  • it is determined whether or not an image related to the object can be displayed step 705).
  • the display control unit 31 erases the string-shaped image 15. Notification that the association has been broken may be notified via voice or image.
  • the image about the object is displayed (step 707).
  • the object images 7a and 7b illustrated in FIG. 15 are displayed.
  • a string-shaped image 15 is displayed between the displayed object image 7 and the displayed object image 7 (step 708).
  • the operation from a physical object to the real space S can be said to be an operation that extends the real world to a virtual world represented by an image. Alternatively, it can be said to be an operation of pulling content or the like into a virtual world.
  • Various image displays may be feasible as image displays corresponding to the operation of the string-shaped image 15 tied to the physical object. This makes it possible to provide a high-quality, new user experience in various variations. Examples of variations are listed below. It is possible to pull out the contents and the like displayed on the actual display device. It is possible to pull out the light of the lighting device 3 and use it as a virtual light source. By manipulating the string-shaped image 15 connected to the skylight or the like, it is possible to display an image imitating the sun as a virtual light source. It is possible to pull out the captured image displayed on the digital photo frame. If the information of the photographed image displayed by the digital photo frame cannot be acquired, the photographed image displayed on the digital photo frame is duplicated by physically photographing the sensor unit 20, and the duplicated image is duplicated on the wall surface. Processing such as displaying at 5 mag is also possible.
  • FIG. 17 is a schematic diagram for explaining batch display of a plurality of object images 7.
  • the object image 7a is associated with the person 1a, and the string-shaped image 15a is displayed.
  • the object image 7b is associated with the person 1b, and the string-shaped image 15b is displayed.
  • the person 1a and the object image 7a correspond to one embodiment of the first person and the first object image according to the present technology.
  • the person 1b and the object image 7b correspond to one embodiment of the second person and the second object image according to the present technology. It is also possible to reverse the "first" and "second" fits. As shown in FIG.
  • the object image 7 associated with the person 1a and the object image 7b associated with the person 1b are collectively combined. Is displayed. For example, as shown in FIG. 17B, one batch display image is enlarged and displayed as an object image 7c. Both the person 1a and the person 1b are associated with the object image 7c.
  • FIG. 18 is a flowchart showing a processing example of batch display.
  • the process shown in FIG. 18 is executed for a plurality of persons associated with the content image. It is determined whether or not the distance between the persons is smaller than a predetermined threshold value (step 801). When the distance between the persons is smaller than the threshold value (Yes in step 801), it is determined whether or not the batch display has already been executed (step 802). When the batch display is not executed (No in step 802), it is determined whether or not the contents are the same (step 803). For example, referring to FIG. 17, whether the content image (object image 7a) associated with the person 1a and the content image (object image 7b) associated with the person 1b are the same content image. Whether or not it is determined.
  • step 804 the batch display is executed (step 804). For example, a common content image is displayed as a batch display image (object image 7c) shown in FIG. 17b. Then, the display of the content is continued by the batch display image (step 805). If the contents are not the same (No in step 803), the batch display is not executed, and the display of the contents is continued in each of the content image (object image 7a) and the content image (object image 7b) (No). Step 805).
  • step 806 it is determined whether or not the batch display is executed.
  • the batch display ends (step 807). That is, it is separated into a content image (object image 7a) and a content image (object image 7b). Then, in that state, the display of the content is continued (step 805).
  • the content display is continued in each of the content image (object image 7a) and the content image (object image 7b) (step 805). ..
  • any method may be executed as the method of batch display.
  • a plurality of images different from each other may be displayed in one frame image, and one batch display image may be configured as a whole.
  • the batch display may be executed for the object image 7 of a type different from the content image.
  • the display position and size of the batch display image are not limited.
  • the size at which all of the plurality of persons 1 can appropriately use the content image, the display position and the size at which all of the plurality of persons 1 can appropriately access the device control image, and the like may be appropriately calculated.
  • the conditions and triggers for executing batch display are also not limited.
  • the batch display may be executed.
  • the person 1a and the person 1b move so as to cause the object images 7 associated with them to collide with each other, the batch display may be executed.
  • FIG. 19 is a schematic diagram for explaining the display of integrated information.
  • a plurality of object images 7 are associated with the person 1.
  • the object image 7a and the object image 7b are associated with each other.
  • the object image 7a and the object image 7b correspond to the first object image and the second object image 1 embodiment according to the present technology.
  • the person 1 manipulates the string images 15a and 15b to superimpose the object image 7a and the object image 7b associated with the person 1 on each other.
  • integrated information regarding the object image 7a and the object image 7b is displayed as the object image 7c.
  • the integrated information is information in which the content of the object image 7a and the content of the object image 7b are integrated.
  • One string-shaped image 15c is displayed between the person 1 object and the object image 7c.
  • the string-shaped image 15c can also be regarded as a string-shaped image 15 in which the string-shaped images 15a and 15c are integrated.
  • the object image 7a and the object image 7b are arranged based on the movement of overlapping the object image 7a and the object image 7b associated with the person 1 with each other. It is possible to display the integrated information about the subject 1 as an object associated with the person 1 in the real space S.
  • the operation of displaying integrated information by superimposing images of a plurality of objects can be said to be an operation of integrating information and information to obtain integrated information.
  • the image displayed as the object image 7b is superimposed on the object image 7a on which the Web page of the search site is displayed.
  • the image search result of the image displayed as the object image 7b is displayed as integrated information.
  • an image displayed as an object image 7b is superimposed on an object image 7a on which a Web page containing information about a predetermined painter is displayed.
  • the image displayed as the object image 7b is processed in the style of the painter's work included in the object image 7a and displayed as integrated information.
  • the object image 7a including the food material A and the object image 7b including the national flag of a certain country are overlapped with each other.
  • the recipe of the country's specialty dish using the ingredient A is displayed as integrated information.
  • the processing method (combination of integration, etc.) for generating the integrated information is stored as, for example, the execution processing information 43.
  • the process for generating the original integrated information may be registerable.
  • various integrated information may be generated and displayed. This makes it possible to provide a high-quality, new user experience in various variations.
  • the person 1 can grasp the association between the person 1 and the object and how the movement of the person 1 affects the object.
  • the display of the associated image is controlled. This makes it possible to realize a new user experience.
  • the relationship between the image or the physical object and the person 1 can be clearly shown to the person 1 by connecting the virtual string-shaped image 15. It is also possible to present the degree of follow-up of the image by expressing the tension of the string-shaped image 15. Further, for example, various processes can be executed by operating the string-shaped image 15 by a gesture such as pulling the string-shaped image 15 and causing the object image 7 connected to the tip to collide with an object such as an electronic device. It is also possible to pull out and display information about a physical object connected to the tip of the string-shaped image 15. Further, for example, it is possible to present integrated information by colliding those connected to the tip of the string-shaped image 15. In this way, it is possible to clarify the relationship, the movable characteristics, and the interaction between the physical object and the virtual space.
  • the present technology is not limited to the embodiments described above, and various other embodiments can be realized.
  • the virtual object image of the television 2 may be displayed at the tip of the string image 15a in response to the operation of moving the tip of the string image 15a.
  • an image related to the television 2 may be displayed by the virtually displayed television 2.
  • the tip of the string-shaped image 15 is moved while the person 1 and the real object are associated with each other by the string-shaped image 15, the virtual object image of the real object associated up to that point is displayed. , May be displayed as an object image.
  • the association with the person 1 is changed from a real object to a virtual object image.
  • display control may be executed so that the function of the electronic device is exerted by the virtual object image (for example, image display by a display device or the like).
  • the object image includes an arbitrary image displayed in the real space S. Therefore, an image (content image, etc.) displayed by a display device arranged in the real space S is also included in the object image.
  • an image (content image, etc.) displayed by a display device arranged in the real space S is also included in the object image.
  • the present technology it is also possible to carry out the present technology as the association between the person 1a and the television 2 shown in FIG. 15 as the association between the person 1a and the object image displayed on the television 2.
  • the image related to the object image displayed on the television 2 is displayed on the wall surface 5 as a new object image to be associated.
  • the image of the cat is associated with the person 1a as an object image.
  • the virtual object image 7a of the cat is displayed on the wall surface 5 as an object image and is associated with the person 1a.
  • the association with the person 1a is changed from the image displayed on the television 2 to the virtual object image displayed on the wall surface 5.
  • an operation such as pulling out the content or the like in the television 2 to the outside of the television 2 and displaying it at a desired position becomes possible, and a new user experience is realized.
  • Various methods may be used as a method for detecting the content of the image displayed on the display device. For example, it is possible to determine what is displayed on the display device by executing object recognition on the image captured in the real space S including the display device. Of course, recognition using machine learning algorithms such as Semantic Segmentation and background subtraction may be executed.
  • meta information such as a tag is added to the image displayed on the television 2, the meta information may be referred to as appropriate.
  • a transmissive HMD Head Mounted Display
  • a string-shaped image 15 or the like may be displayed by the HMD in the real space S. That is, it is possible to apply this technique to the AR space.
  • a buried type HMD may be mounted, and display control of the string-shaped image 15 according to the present technology may be executed in the VR (Virtual Reality) space.
  • the string-shaped image 15 is displayed so that the floor crawls on a wall surface or the like.
  • the string-shaped image 15 may be represented three-dimensionally by an AR image or the like.
  • the string-shaped images 15 may be expressed as if the string-shaped images 15 are connected from the first-person viewpoint of the person 1. For example, it is possible to adopt an illusionary presentation method or the like.
  • the string-shaped image 15 connecting the person 1 and the object is displayed so that the string-shaped image 15 can be visually recognized by another person 1.
  • display control may be executed such that the person 1 seems to be interrupted when viewed from the other person 1, but appears to be connected to the object to the person himself / herself.
  • Grouping of related items and the like may be executed by the branch representation of the string-shaped image 15. Further, various animation expressions may be realized for the string-shaped image 15. Data communication or the like with an object may be expressed by the expression that the string-shaped image 15 pulsates. Further, as the associated image, an image other than the string-shaped image 15 may be displayed.
  • a tactile presentation device capable of presenting a predetermined tactile sensation in conjunction with each other, it may be possible to reproduce the tactile sensation, force, or the like received from an actual string-shaped object.
  • the reaction force received from the object image 7 may be reproduced by tactile presentation according to the tracking of the object image 7 as illustrated in FIG.
  • the tactile sensation or the like may be presented to the person 1 in response to various operations on the string-shaped image 15 illustrated in FIG. 11 or the like.
  • a mobile terminal such as a smartphone
  • a wearable device that can be worn by the person 1 or the like
  • various types of wearable devices such as a wristband type, a bracelet type, and a neckband type can be adopted.
  • FIG. 20 is a block diagram showing a hardware configuration example of the information processing device 30.
  • the information processing device 30 includes a CPU 201, a ROM 202, a RAM 203, an input / output interface 205, and a bus 204 that connects them to each other.
  • a display unit 206, an input unit 207, a storage unit 208, a communication unit 209, a drive unit 210, and the like are connected to the input / output interface 205.
  • the display unit 206 is a display device using, for example, a liquid crystal or an EL.
  • the input unit 207 is, for example, a keyboard, a pointing device, a touch panel, or other operating device.
  • the input unit 207 includes a touch panel
  • the touch panel can be integrated with the display unit 206.
  • the storage unit 208 is a non-volatile storage device, such as an HDD, a flash memory, or other solid-state memory.
  • the drive unit 210 is a device capable of driving a removable recording medium 211 such as an optical recording medium or a magnetic recording tape.
  • the communication unit 209 is a modem, router, or other communication device for communicating with another device that can be connected to a LAN, WAN, or the like.
  • the communication unit 209 may communicate using either wire or wireless.
  • the communication unit 209 is often used separately from the information processing device 30.
  • Information processing by the information processing device 30 having the hardware configuration as described above is realized by the cooperation between the software stored in the storage unit 208 or the ROM 202 or the like and the hardware resources of the information processing device 30.
  • the information processing method according to the present technology is realized by loading the program constituting the software stored in the ROM 202 or the like into the RAM 203 and executing the program.
  • the program is installed in the information processing apparatus 30 via, for example, the recording medium 211.
  • the program may be installed in the information processing apparatus 30 via a global network or the like.
  • any non-transient storage medium that can be read by a computer may be used.
  • An information processing device may be configured by a plurality of computers communicably connected via a network or the like, and an information processing method and a program according to the present technology may be executed. That is, the information processing method and the program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.
  • Information processing methods and program execution related to this technology by a computer system include, for example, acquisition of space-related information, display control of string-shaped images, display control of object images, execution of various processes, etc. by a single computer. This includes both when it is performed and when each process is performed by a different computer. Further, the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result. That is, the information processing method and program according to the present technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • the present technology can also adopt the following configurations.
  • (1) Based on the space-related information about the real space, the person can grasp the association between the person in the real space and the object in the real space and how the movement of the person affects the object.
  • An information processing device including a display control unit that controls the display of the associated image to be in the real space.
  • (2) The information processing apparatus according to (1).
  • the space-related information includes movement information regarding the movement of a person in the real space.
  • the display control unit is an information processing device that controls the display of the associated image based on the motion information.
  • (3) The information processing apparatus according to (1) or (2), further A determination unit for determining an instruction from a person in the real space is provided.
  • the image display unit is an information processing device that controls the display of the related image based on the instruction.
  • the information processing apparatus according to any one of (1) to (3).
  • the associated image is an information processing device including a string-shaped image displayed so as to connect the person and the object.
  • the string-shaped image is an information processing device that imitates an actual string-shaped object having a defined length.
  • the space-related information includes the position information of the person and the position information of the object.
  • the display control unit is an information processing device that controls the display mode of the string-shaped image based on the distance between the person and the object. (7) The information processing apparatus according to any one of (4) to (6).
  • the display control unit displays the string-shaped image so that the string-shaped image is pulled as the distance between the person and the object increases, and the display control unit displays the string-shaped image as the distance between the person and the object decreases.
  • An information processing device that displays the string-shaped image so that the string-shaped image is loosened.
  • the information processing apparatus according to any one of (4) to (7).
  • the space-related information includes the position information of the person and the position information of the object. Based on the position of the person and the position of the object, the display control unit has the position of the first end point of the string-shaped image on the person side and the position of the first end point of the string-shaped image on the object side.
  • An information processing device that calculates the position of two end points and displays the string-shaped image so as to connect the first end point and the second end point.
  • the information processing apparatus according to any one of (4) to (8).
  • the object includes an object image which is an image displayed in the real space.
  • the display control unit can control the display of the object image, and when the person moves in a direction away from the object image in a state where the string-shaped image is fully extended, the movement of the person is changed.
  • An information processing device that moves the object image so as to follow it.
  • the display control unit is an information processing device that moves the object image based on the movement of manipulating the string-shaped image of the person.
  • the information processing apparatus according to any one of (4) to (10), and further.
  • An information processing device including a processing execution unit that executes processing related to the object associated with the person.
  • the information processing apparatus according to (11), further A determination unit for determining an instruction from a person in the real space is provided.
  • the processing execution unit is an information processing device that executes processing related to the object associated with the person who input the instruction based on an instruction from the person in the real space.
  • the information processing apparatus according to (11) or (12).
  • the space-related information includes device information related to electronic devices in the real space.
  • the object includes an object image which is an image displayed in the real space.
  • the processing execution unit is an information processing device that controls the electronic device based on the movement of manipulating the string-shaped image of the person and superimposing the object image on the electronic device.
  • the information processing apparatus according to any one of (13).
  • the electronic device includes a display device and includes a display device.
  • the processing execution unit is an information processing device that displays an image related to the object image on the display device based on the movement of superimposing the object image on the display device.
  • the space-related information includes object information about an object in the real space.
  • the display control unit is an information processing device that displays the object information about the object associated with the person in the real space.
  • the information processing apparatus according to any one of (11) to (15).
  • the space-related information includes device information related to electronic devices in the real space.
  • the display control unit displays an image related to the electronic device based on a movement of moving the tip of the string-shaped image displayed so as to connect the person and the electronic device from the electronic device to another position.
  • An information processing device that displays in the real space as the object associated with the person.
  • the object includes an object image which is an image displayed in the real space. When the distance between the first person and the second person in the real space is smaller than a predetermined threshold value, the display control unit receives the first object image associated with the first person and the image of the first object associated with the first person.
  • An information processing device that collectively displays an image of a second object associated with the second person.
  • the display control unit can control the display of a plurality of string-shaped images that connect the person and the plurality of objects.
  • the object includes an object image which is an image displayed in the real space.
  • the display control unit operates the plurality of string-shaped images of the person, and based on the movement of superimposing the first object image and the second object image associated with the person on each other, the first object image.
  • An information processing device that displays integrated information about one object image and the second object image in the real space as the object associated with the person.
  • the person Based on the space-related information about the real space, the person can grasp the association between the person in the real space and the object in the real space and how the movement of the person affects the object.
  • the person Based on the space-related information about the real space, the person can grasp the association between the person in the real space and the object in the real space and how the movement of the person affects the object.
  • a program that causes a computer system to perform a step of controlling the display of the associated image to be displayed in the real space.
  • the information processing apparatus according to any one of (1) to (18).
  • the space-related information includes information on a display restricted area in which the display of an image in the real space is restricted.
  • the display control unit is an information processing device that fixes the object image moving toward the display restriction area in front of the display restriction area.
  • the information processing apparatus according to any one of (4) to (18).
  • the object is an object in the real space.
  • the display control unit displays the string-shaped image so that the string-shaped image is cut off when the person moves away from the object while the string-shaped image is fully extended. apparatus.
  • the object image is an information processing device including at least one of a functional image relating to the function of the electronic device and a status image relating to the status of the electronic device.
  • the image relating to the electronic device is an information processing device including an image in which the electronic device is virtually displayed.
  • the object image includes an image displayed on the display device.
  • the display control unit is displayed on the display device based on the movement of moving the tip of the string-shaped image displayed so as to connect the person and the display device from the display device to another position.
  • An information processing device that displays an image related to an image that has been used as the object associated with the person in the real space.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術の一形態に係る情報処理装置は、表示制御部を具備する。前記表示制御部は、現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する。これにより、人物と対象物との関係性の明示、可動特性の明示、及び物理物体と仮想空間とのインタラクションを実現することが可能となり、新たなユーザ体験を実現することが可能となる。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、画像の表示を制御可能な情報処理装置、情報処理方法、及びプログラムに関する。
 特許文献1には、ユーザにコンテンツを提供するコンテンツ提供システムについて開示されている。このコンテンツ提供システムでは、コンテンツの種類に基づいて対象ユーザが特定される。特定された対象ユーザの方を向くように、コンテンツを表示する表示面の向きが制御される。これにより、表示されるコンテンツが自分を対象としたものであることをユーザに伝えることが可能とのことである(特許文献1の明細書段落[0036]~[0038]等)。
特開2017-69865号公報
 例えばコンテンツ画像等の画像を視聴するユーザに対して、新たなユーザ体験(UX:User Experience)を提供することを可能とする技術が求められている。
 以上のような事情に鑑み、本技術の目的は、新たなユーザ体験を実現可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、表示制御部を具備する。
 前記表示制御部は、現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する。
 この情報処理装置では、人物と対象物との関連付け、及び人物の動きが対象物へどのように影響するかを、人物が把握可能となる関連付画像の表示が制御される。これにより、新たなユーザ体験を実現することが可能となる。
 前記空間関連情報は、前記現実空間内の人物の動きに関する動き情報を含んでもよい。この場合、前記表示制御部は、前記動き情報に基づいて、前記関連付画像の表示を制御してもよい。
 前記情報処理装置は、さらに、前記現実空間内の人物からの指示を判定する判定部を具備してもよい。この場合、前記画像表示部は、前記指示に基づいて、前記関連付画像の表示を制御してもよい。
 前記関連付画像は、前記人物と前記対象物とを結ぶように表示される紐状の画像を含んでもよい。
 前記紐状の画像は、長さが規定された現実の紐状の物体を模した画像であってもよい。
 前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含んでもよい。この場合、前記表示制御部は、前記人物と前記対象物との距離に基づいて、前記紐状の画像の表示態様を制御してもよい。
 前記表示制御部は、前記人物と前記対象物との距離が大きくなるほど前記紐状の画像が引っ張られるように前記紐状の画像を表示し、前記人物と前記対象物との距離が小さくなるほど前記紐状の画像が緩むように前記紐状の画像を表示してもよい。
 前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含んでもよい。この場合、前記表示制御部は、前記人物の位置及び前記対象物の位置に基づいて、前記紐状の画像の前記人物側の第1の端点の位置と、前記紐状の画像の前記対象物側の第2の端点の位置とを算出し、前記第1の端点と前記第2の端点とを結ぶように前記紐状の画像を表示させてもよい。
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含んでもよい。この場合、前記表示制御部は、前記対象物画像の表示を制御可能であり、前記紐状の画像が伸びきった状態で、前記人物が前記対象物画像から離れる方向に移動した場合、前記人物の動きに追従するように前記対象物画像を移動させてもよい。
 前記表示制御部は、前記人物の前記紐状の画像を操作する動きに基づいて、前記対象物画像を移動させてもよい。
 前記情報処理装置は、さらに、前記人物に関連付けられた前記対象物に関する処理を実行する処理実行部を具備してもよい。
 情報処理装置であって、さらに、前記現実空間内の人物からの指示を判定する判定部を具備してもよい。この場合、前記処理実行部は、前記現実空間内の人物からの指示に基づいて、前記指示を入力した人物に関連付けられた前記対象物に関する処理を実行してもよい。
 前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含んでもよい。この場合、前記対象物は、前記現実空間内に表示された画像である対象物画像を含んでもよい。また、前記処理実行部は、前記人物の前記紐状の画像を操作して前記対象物画像を前記電子機器に重ねる動きに基づいて、前記電子機器を制御してもよい。
 前記電子機器は、表示デバイスを含んでもよい。この場合、前記処理実行部は、前記対象物画像を前記表示デバイスに重ねる動きに基づいて、前記対象物画像に関する画像を前記表示デバイスに表示させてもよい。
 前記空間関連情報は、前記現実空間内の物体に関する物体情報を含んでもよい。この場合、前記表示制御部は、前記人物に関連付けられた前記物体に関する前記物体情報を、前記現実空間内に表示してもよい。
 前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含んでもよい。この場合、前記表示制御部は、前記人物と前記電子機器とを結ぶように表示された前記紐状の画像の先端を、前記電子機器から他の位置に移動させる動きに基づいて、前記電子機器に関する画像を前記人物と関連付けられた前記対象物として前記現実空間内に表示してもよい。
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含んでもよい。この場合、前記表示制御部は、前記現実空間内の第1の人物と第2の人物との距離が所定の閾値よりも小さい場合に、前記第1の人物に関連付けられた第1の対象物画像と、前記第2の人物に関連付けられた第2の対象物画像とを一括表示してもよい。
 前記表示制御部は、前記人物に対して複数の対象物が関連付けられている場合に、前記人物と前記複数の対象物とを結ぶような複数の紐状の画像の表示を制御可能であってもよい。この場合、前記対象物は、前記現実空間内に表示された画像である対象物画像を含んでもよい。また前記表示制御部は、前記人物の前記複数の紐状の画像を操作して、前記人物に関連付けられた第1の対象物画像及び第2の対象物画像を互いに重ねる動きに基づいて、前記第1の対象物画像と前記第2の対象物画像とに関する統合情報を、前記人物に関連付けられた前記対象物として前記現実空間内に表示してもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御することを含む。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御するステップ。
本技術に係る画像表示システムの一例について説明するための模式図である。 画像表示システム及び情報処理装置の機能的な構成例を示すブロック図である。 情報処理装置の動作例を示すフローチャートである。 紐状画像を新たに表示する際の処理例を示すフローチャートである。 紐状画像の表示例を示す模式図である。 コンテンツ画像の表示の指示に応じた、関連付けの処理例を示すフローチャートである。 紐状画像を消去する際の処理例を示すフローチャートである。 対象物画像の追従について説明するための模式図である。 対象物画像の追従制御の具体的な処理例を示すフローチャートである。 表示規制領域について説明するための模式図である。 紐状画像の操作例として、対象物画像の7の移動を示す模式図である。 紐状画像の操作による連動デバイスの制御例を説明するための模式図である。 電子機器ではない物体への操作の一例を説明するための模式図である。 対象物画像から物理物体への操作に応じた処理例を示すフローチャートである。 電子機器が結ばれている紐状画像の操作について説明するための模式図である。 物体が結ばれている紐状画像の操作に応じた処理例を示すフローチャートである。 複数の対象物画像の一括表示について説明するための模式図である。 一括表示の処理例を示すフローチャートである。 統合情報の表示について説明するための模式図である。 情報処理装置のハードウェア構成例を示すブロック図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [画像表示システム]
 図1を参照して、本技術に係る画像表示システムの一例について説明する。
 本技術に係る画像表示システム100では、画像の表示を制御することで、今までにない新たなユーザ体験を実現することが可能である。
 本技術に係る画像表示システム100は、典型的には、現実空間Sを対象として構築される。現実空間は、物理空間ということも可能である。
 現実空間Sとして、リビング等の部屋、体育館等の施設内の屋内スペース等、任意の現実空間が採用可能である。もちろん屋内の空間に限定されず、広場や駐車場等に画像を表示可能なスクリーン等が配置されたような屋外の空間に対しても、本技術に係る画像表示システム100を構築することが可能である。
 図1に示す例では、壁面5を含む部屋内の空間を現実空間Sとして、画像表示システム100が構築されている。
 画像表示システム100は、画像表示ユニット10と、センサユニット20と、情報処理装置30とを含む。
 画像表示ユニット10、センサユニット20、及び情報処理装置30は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
 画像表示ユニット10は、現実空間Sに対して画像を表示可能である。例えば、図1に示す壁面5、床、天井等に画像を表示可能なように、画像表示ユニット10が構成される。
 画像表示ユニット10として、例えば壁面5等に画像を投影可能なプロジェクタが用いられる。プロジェクタの具体的な構成、数、配置位置等は限定されず、現実空間S内の所望の領域に画像を投影可能なように、任意に設計されてよい。
 例えば、可動プロジェクタや自由視点プロジェクタ等が用いられてもよい。
 その他、画像表示ユニット10の構成は限定されず、任意に設計されてよい。例えば、画像を投影するデバイスに限定されず、透明ディスプレイ等の表示デバイスが、壁面5等に設置されてもよい。
 センサユニット20は、現実空間Sに関する種々のデータを検出可能である。
 センサユニット20として、例えばデジタルカメラ、ToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、偏光カメラ、及び、その他のカメラ等の撮像装置が配置される。またレーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
 またセンサユニット20として、現実空間S内にて発生する音を検出可能な種々のマイクが配置される。またGPS等が配置されてもよい。その他、センサユニット20の構成は限定されず、任意に設計されてよい。
 情報処理装置30は、例えばCPUやGPU等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図20参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
 例えばPC(Personal Computer)等の任意のコンピュータにより、情報処理装置30を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
 本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての表示制御部31が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 プログラムは、例えば種々の記録媒体を介して情報処理装置30にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 情報処理装置30は、空間関連情報32を取得する。なお本開示において、空間関連情報32の取得は、外部から送信された空間関連情報32を受信すること、及び情報処理装置30自身により空間関連情報32を生成することの両方を含む。
 空間関連情報32は、以下に例示するような環境情報、人物情報、物体情報等、現実空間Sに関する任意の情報を含む。
 「環境情報」
 例えば、現実空間Sを構成する物体の位置情報及び物体の種類を識別する識別情報、又は現実空間S内に存在する物体の位置情報及び物体の種類を識別する識別情報等が、環境情報として取得される。
 なお「物体」は「人物」を含む概念である。一方で、本開示では、人物と人物ではない物体とを区別して説明することも多い。従って、以下、人物ではない物体を、単に物体として説明を行う場合がある。また物体は、物理物体という事も可能である。
 位置情報は、例えば、現実空間Sに設定された座標系に基づいた座標値により規定される。例えば、絶対座標系(ワールド座標系)が用いられてもよいし、所定の点を基準(原点)とした相対座標系が用いられてもよい。相対座標系が用いられる場合、基準となる原点は、任意に設定されてよい。
 現実空間Sに関する地図情報も、環境情報に含まれる。
 図1に示す例では、現実空間Sを構成する壁面5、床、天井等を識別する識別情報や位置情報等が環境情報として取得される。
 また図1に示す例では、現実空間S内にテレビ2、照明装置3、及び電子ピアノ4の電子機器が配置されている。これら各々の電子機器を識別する識別情報、及び各々の電子機器の位置情報が、環境情報として取得される。
 「人物情報」
 例えば、現実空間S内に存在する人物に関する種々の情報が、人物情報として取得される。
 例えば、人物の状態に関する種々の情報が、人物情報に含まれる。例えば、人物を識別する識別情報、人物の位置情報、人物の動き情報、人物の発話情報、人物の姿勢、人物の視線、人物の表情等が、人物情報に含まれる。
 また、人物により入力される種々の指示も、人物情報に含まれる。例えば、音声、動き(ジェスチャ)、姿勢、表情等を介して入力された指示の内容が、人物情報として取得される。
 図1に示す例では、現実空間S内に3人の人物1(1a~1c)が存在している。人物1を識別する識別情報、人物1の動き、人物1からの指示が、人物情報として取得される。
 現実空間S内に存在する人物1は、本画像表示システム100のユーザに相当する。従って、人物情報は、ユーザ情報とも言える。
 「物体情報」
 例えば、現実空間S内に存在する物体(人物ではない物体)に関する任意の情報が、物体情報として取得される。
 例えば現実区間S内に存在する電子機器の機能、ステータス、制御が可能であるか否かの情報等が、物体情報として取得される。電子機器に関する情報は、機器情報とも言える。
 また電子機器ではない物体、例えば観葉植物やテーブル、食材等に関する任意の情報が、物体情報として取得される。
 環境情報、人物情報、物体情報等を含む空間関連情報32は、例えば、予め準備されており記憶されていてもよい。あるいは、センサユニット20の検出結果に基づいて、リアルタイムで生成されてもよい。また、センサユニット20の検出結果に基づいて生成された情報と、予め記憶等されているテーブル情報等とが参照されることで、空間関連情報32が取得される場合もあり得る。その他、空間関連情報32を取得するための任意の技術(アルゴリズム等)が採用されてよい。
 例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、空間関連情報32の生成精度を向上させることが可能となる。
 例えば空間関連情報32を生成するために学習部及び識別部が構築される。学習部は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
 学習部における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。
 ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。
 ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。もちろん、本実施形態に係る空間関連情報32の生成に適用することも可能である。
 また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
 機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。
 例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
 また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
 また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
 また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
 機械学習によって、仮想的なセンシングデータを生成することも可能である。例えば、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。
 また、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
 また、機械学習とは異なる任意の学習アルゴリズム等が用いられてよい。所定の学習アルゴリズムに従って空間関連情報32を生成することで、空間関連情報32の生成精度を向上させることが可能となる。もちろん学習アルゴリズムが用いられる場合に限定される訳ではない。
 なお学習アルゴリズムの適用は、本開示内の任意の処理に対して実行されてよい。
 人物情報の生成方法として、骨格推定が実行されてもよい。骨格推定は、ボーン推定やスケルトン推定ともいわれ、周知の技術を用いて実行可能である。骨格推定により、人物の姿勢等を高精度に判定することが可能となる。例えば、腕を伸ばした方向や、手首を切替した方向、足を蹴り上げた方向等も、検出することが可能である。
 図1に例示する情報処理装置30の表示制御部31は、空間関連情報32に基づいて、現実空間Sに対して配置された画像表示ユニット10による画像の表示を制御することが可能である。
 例えば、表示制御部31は、空間関連情報32に基づいて、画像の表示位置(例えば座標値等)を算出する。そして算出した表示位置に、所定の画像を表示する。
 本開示において、画像は、静止画像及び動画像を含む。もちろん動画像に含まれる複数のフレーム画像も、画像に含まれる。
 表示される画像の種類として、例えば以下のような種類が挙げられる。
 「コンテンツ画像」
 例えば、映画、テレビ番組等のコンテンツが表示された画像が含まれる。
 「仮想物体画像」
 例えば、現実の物体等が仮想的に表示された画像が含まれる。
 「情報提示画像」
 例えば、種々の情報が表示された画像が含まれる。Webブラウザを介して表示されるWebページ等を含む画像も、情報提示画像に含まれる。
 「機器制御画像」
 例えば、電子機器の制御を示す画像が含まれる。例えば、「音量アップ」「電源ON」等の電子機器に対する任意の制御(コマンド)が表示された画像が、機器制御画像として表示される。また、電子機器のステータス(状態)が表示された画像等も、機器制御画像に含まれる。
 その他、種々の種類の画像が表示される。また上記の画像の分類は一例であり、このような分類に基づいて画像が種類分けされる場合に限定される訳ではない。
 [関連付画像]
 また本実施形態では、表示制御部31により、本技術に係る関連付画像の、現実空間Sへの表示が制御される。
 本技術に係る関連付画像は、現実空間S内の人物1と、現実空間内の対象物との関連付け及び人物1の動きが対象物へどのように影響するかを、人物1が把握可能となる画像である。
 すなわち、関連付画像は、人物1にとって、自分と関連付けられた対象物は何かが把握可能であり、自分の動きが対象物へどのように影響するかが把握可能な任意の画像を含む。関連付画像は、自分の動きに対する対象物の動きが予測可能な画像とも言える。
 人物1と関連付けられる対象物は、例えば、現実空間S内に存在する任意の物体を含む。例えば電子機器や電子機器ではない物体等、任意の物体が対象物となる。
 また対象物は、現実空間S内にて表示される任意の画像を含む。すなわち現実空間S内において、種々の画像は対象物として表示される。以下、対象物として表示される種々の画像を、包括的に対象物画像と記載する場合がある。
 図1に示す例では、関連付画像として、人物1と対象物とを結ぶように紐状の画像(以下、紐状画像と記載する)15が表示される。紐状画像15は、仮想紐ということも可能である。
 人物1aと対象物画像7aとを結ぶように、紐状画像15aが表示される。
 人物1bと対象物画像7bとを結ぶように、紐状画像15bが表示される。
 人物1bと照明装置3とを結ぶように、紐状画像15cが表示される。このように、1人の人物1に対して複数の対象物が関連付けられてもよい。この場合、各対象物との間に紐状画像15が表示される。すなわち1人の人物から複数の紐状画像15が伸びているような状態もあり得る。
 なお、途中までは1本の紐状画像15であり、途中から枝分かれして複数の対象物に向かって伸びるような表示形態もあり得る。
 人物1cと電子ピアノ4とを結ぶように、紐状画像15dが表示される。
 紐状画像15は、例えば、長さが規定された現実の紐状の物体を模した画像として表示される。例えば、ロープ、リード、糸等、任意の紐状の物体を模した画像を、関連付画像として採用可能である。また太さや、色等も任意に設定されてよい。
 例えば人物1ごとに、紐状画像15の色等を区別する。これにより、人物1と対象物との関連付けをより簡単に把握することが可能となる。
 表示制御部31は、人物1と、人物1と関連付けられた対象物との距離に基づいて、紐状画像15の表示態様を制御することが可能である。例えば、人物1と対象物との距離に基づいて、紐状画像15の張力表現が制御される。
 例えば、人物1と対象物との距離が大きくなるほど、紐状画像15が引っ張られるように(テンションがかかるように)、紐状画像15が表示される。人物1と対象物との距離が小さくなるほど、紐状画像15が緩むように、紐状画像15が表示される。
 なお、人物1と対象物との距離は、人物1の位置情報、及び対象物の位置情報に基づいて算出することが可能である。
 人物1aは、紐状画像15aにより、自分と対象物画像7aとの関連付けを把握することが可能である。
 また紐状画像15aの表示態様、具体的には、紐状画像15aの形状(張力表現)により、自分の動きの対象物画像7aへの影響を把握することが可能である。
 例えば、紐状画像15aが緩んでいる状態であれば、自分が移動しても、その影響は対象物画像7aには及ばないことが分かる。また緩み具合により、対象物画像7aへの影響を及ぼさない移動距離を把握することが可能である。
 紐状画像15aが直線状に伸びきった状態であれば、自分が移動すると、その影響が対象物画像7aにダイレクトに伝わることが分かる。例えば、紐状画像15が伸びている方向にそのまま進むと、その方向に対象物画像7aが引っ張られる状態となることが分かる。
 人物1bは、紐状画像15bにより、自分と対象物画像7bとの関連付けを把握することが可能である。また紐状画像15bの形状(張力表現)により、自分の動きの対象物画像7bへの影響を把握することが可能である。
 また人物1bは、紐状画像15cにより、自分と照明装置3との関連付けを把握することが可能である。また紐状画像15cの形状(張力表現)により、自分の動きの照明装置3への影響を把握することが可能である。
 人物1cは、紐状画像15dにより、自分と電子ピアノ4との関連付けを把握することが可能である。また紐状画像15dの形状(張力表現)により、自分の動きの電子ピアノ4への影響を把握することが可能である。
 なお、紐状画像15はあくまで画像であるので、関連付けられている対象物に物理的な力が作用することはない。以下に説明するように、本画像表示システム100では、新しいユーザ体験を実現させるための処理の1つとして、人物1の動き等に応じて対象物画像7の表示位置を変更させるといった処理が可能である。このような処理を実行する際に、仮想的な紐状画像15の表示を制御することで、人物1の動きの対象物画像7への影響を、人物1にフィードバックすることが可能である。
 紐状画像15を、現実の紐状物体を模した画像とすることで、人物1にとっては、特別な知見等がなくても、自分の動きがどのように対象物に影響するかを容易に把握することが可能となる。
 例えば、「ロープ(紐状画像15)が緩んでいるから自由に動ける」とか、「ロープ(紐状画像15)が伸びきっているから動いたら対象物画像7も動いてしまう」、あるいは、「ロープ(紐状画像15)が伸びきっているから動いたら対象物画像7を動かすことができる」、といった、対象物画像7との動きに関する関係性を直感的に把握することが可能となる。この結果、高品質であり、新たなユーザ体験を実現することが可能となる。
 例えば、現実空間S内に存在する物体(物理物体)を移動させたり倒したりすることが可能な移動機構やアクチュエータ機構等が備えられるとする。この場合、紐状画像15を介して結ばれている人物1の動きに基づいて、物体が移動したり倒れたりするといった制御も可能である。これにより、人物1の動きに応じたアトラクション等が実現可能であり、新たなユーザ体験を実現することが可能である。
 図2は、画像表示システム100、及び情報処理装置30の機能的な構成例を示すブロック図である。
 図2に示す例では、現実空間S内に、画像表示ユニット10及びセンサユニット20に加えて、スピーカ25が配置される。
 スピーカ25を制御することで、音声を介して、種々の情報を人物1に通知することが可能である。またコンテンツ画像の音声等、コンテンツとして音声を出力することも可能である。また効果音等を出力することも可能である。
 図2に示す連動デバイス26は、情報処理装置30が動作を制御可能な電子機器等である。
 図2に例示する情報処理装置30では、CPU等のプロセッサが所定のプログラムを実行することで、機能ブロックとして、環境認識部34、人物認識部35、デバイス制御部36、及び表示制御部31が構成される。
 環境認識部34は、上記した環境情報を生成する。
 人物認識部35は、上記した人物情報を生成する。
 すなわち図2に例示する情報処理装置30は、空間関連情報32に含まれる環境情報及び人物情報を生成する機能を有する。上記したように、環境情報及び人物情報を生成するためのアルゴリズム等は限定されない。
 デバイス制御部36は、スピーカ25及び連動デバイス26の動作を制御する。スピーカ25及び連動デバイス26の動作を制御する方法は限定されず、任意の方法(アルゴリズム等)が採用されてよい。
 例えば、連動デバイス26等を制御するためのソフトウェア(例えば、アプリケーションプログラム)等が、情報処理装置30に備えられていてもよい。
 例えば、予め連動デバイス26の位置情報や機器情報等が登録されており、所定のソフトウェアを起動することで、連動デバイス26の動作が制御可能であってもよい。
 あるいは、連動デバイス26の動作を制御するためのソフトウェアのAPI(Application Programming Interface)が公開されている場合には、APIを呼び出すことで、連動デバイス26等の動作を制御することが可能である。
 図2には、記憶部40が図示されている。記憶部40は、情報処理装置30内に備えられたHDD等の記憶デバイスにより構成されてもよい。あるいは、情報処理装置30と接続された外部の記憶デバイスにより構成されてもよい。外部の記憶デバイスが用いられる場合でも、情報処理装置30の一部として見做すことが可能である。
 図2に示す例では、記憶部40に、関連付情報41、上記した物体情報42、及び実行処理情報43が記憶される。その他の、図示は省略しているが、本画像表示システム100の動作に必要な種々の情報が記憶されている。
 関連付情報41は、人物1と対象物との関連付けを含む。図1に示す例では、人物1aと対象物画像7aとの関連付け、人物1bと対象物画像7bとの関連付け、人物1bと照明装置3との関連付け、人物1cと電子ピアノ4との関連付けが記憶される。
 実行処理情報43は、後に説明する人物1による紐状画像15を利用した操作等に応じて実行される処理に関する情報を含む。
 記憶部40に記憶される情報のデータ形式や保存形式等は限定されない。例えば各情報を記憶するためにキーバリュー型のデータベースや、ドキュメント型のデーベース等が構築されてもよい。
 図2に示す例では、表示制御部31により、本技術に係る表示制御部が実現される。
 人物認識部35により、現実空間S内の人物からの指示を判定する判定部が実現される。
 デバイス制御部36と、表示制御部31とが連動することで、人物1に関連付けられた対象物に関する処理を実行する処理実行部が実現される。
 [画像表示システムの動作]
 画像表示システム100の動作例を説明する。
 図3は、情報処理装置30の動作例を示すフローチャートである。
 図3に示すように、センサユニット20による検出結果に基づいて、環境認識部34による環境情報の生成と、人物認識部35による人物情報の生成とが、所定の間隔で繰り返し実行される(ステップ101、ステップ102)。
 すなわち本実施形態では、現実空間Sに対して、環境認識と人物認識とが繰り返し実行される。生成された環境情報及び人物情報は、デバイス制御部36及び表示制御部31に出力される。
 図4は、紐状画像15を新たに表示する際の処理例を示すフローチャートである。図5は、紐状画像15の表示例を示す模式図である。
 表示制御部31により、現実空間S内の人物1と対象物45との関連付けが設定されたか否かが監視される(ステップ201)。
 人物1と対象物との関連付けが設定さされた場合(ステップ201のYes)、表示制御部31により、紐状画像15の表示位置が算出される(ステップ202)。
 図5A~Cに示すように、例えば、人物1の位置と、対象物45との位置情報とに基づいて、紐状画像15の人物1側の第1の端点P1と、紐状画像15の対象物45側の第2の端点P2の位置とが算出される。
 例えば、人物1の周縁の1点が第1の端点P1として算出され、対象物45の周縁の1点が第2の端点P2として算出される。第1の端点P1及び第2の端点P2の算出方法は限定されず、紐状画像15を表示可能な所定の位置が算出されればよい。
 表示制御部31により、紐状画像15の表示態様が選択される(ステップ203)。例えば、人物1と対象物45との距離に基づいて、表示態様が選択される。図5A~Cに示す第1の端点P1と第2の端点P2との距離に基づいて、紐状画像15の表示態様が選択されてもよい。
 表示態様は、典型的には、紐状画像15の形状(張力表現)である。すなわち紐状画像15がどの程度引っ張られているか(どの程度テンションがかかっているか)や、紐状画像15がどの程度緩んでいるかを表現可能な形状が適宜選択される。
 例えば図5Aに示すように、人物1と対象物45との距離が小さい場合には、紐状画像15が十分に緩んでいる表示態様が選択される。図5Bに示すように、人物1と対象物45との距離が大きくなると、紐状画像15が引っ張られ、緩みが少なくなる表示態様が選択される。図5Cに示すように、人物1と対象物45との距離が大きい場合は、紐状画像15が伸びきっている表示態様が選択される。
 例えは、紐状画像15の張力を表現可能な複数の表示態様が記憶されている。そして人物1と対象物45との距離に基づいて、複数の表示態様のうち1つの表示態様が選択される。表示態様を選択するための閾値等が、人物1と対象物45との距離に関して段階的に設定されてよい。
 例えば、人物1と対象物45との距離が最大閾値と等しくなった場合には、図5Cに例示するような伸びきった表示形態が選択される。
 表示制御部31により、紐状画像15が表示される(ステップ204)。図5に示す例では、第1の端点P1と第2の端点P2とを結ぶように、ステップ203にて選択された表示態様の紐状画像15が表示される。
 例えば、紐状画像15は、壁面5や床等を這うように表示される。これに限定されず、レーザ光やホログラム画像等を用いて、3D上に立体的に紐状画像15が表示されてもよい。
 新たな関連付けに応じて紐状画像15を表示する方法は限定されず、他の任意の方法が採用されてよい。
 例えば、人物1と対象物45との距離に基づいて、紐状画像15の全体の表示位置が設定されてもよい。すなわち張力表現を加味した紐状画像15の全体の表示位置が、算出されてもよい。そして、算出された表示位置に紐状画像15の全体が表示されてもよい。
 また人物1と対象物45との距離に応じてどのように表示態様(張力表現)を変更するかも限定されない。例えば、図5に例示するような第1の引っ張り状態(緩み状態とも言える)、第2の引っ張り状態、第3の引っ張り状態といった3段階の変化のみでもよい。
 一方で実際の紐状物体が少しずつ引っ張られるような、人物1と対象物45との距離に応じた再現性の高い(リアリティの高い)表示制御が実行されてもよい。これにより、高品質なユーザ体験を実現することが可能となる。
 図4のステップ201において、新たな関連付けが設定される例について説明する。新たな関連付けは、新たな紐状画像15の表示のトリガとも言える。
 例えば、人物1により関連付けを希望する対象物が指定される。対象物の指定は、ジェスチャや音声を介した任意の指示方法により実行可能である。
 例えば、対象物を指さしながら「(対象物)と関連付けして欲しい」等の発話により、対象物を指定することが可能である。もちろん、対象物を指さすジェスチャのみで、対象物を指定する指示が入力可能であってもよい。また、「テレビと関連付けして欲しい」等、発話のみで対象物を指定する指示が入力可能であってもよい。その他、任意の方法が採用されてよい。
 なお、人物の動き情報に基づいて、人物1が指さす方向や、人物1が腕を伸ばす方向等は、算出可能である。また環境情報に基づいて、指さす方向上に存在する対象物を認識することも可能である。
 表示制御部31は、関連付けを希望する対象物を指定する指示に基づいて、人物1と対象物との関連付けを設定する。これに応じて、ステップ202に進み紐状画像15が表示される。また記憶部40内の関連付情報41が更新される。
 人物1が現実空間S内の対象物に関してなんらかの指示を入力した場合に、人物1と指示の対象となる対象物とが関連付けられてもよい。
 例えば、人物1により、壁面5に表示されているコンテンツ画像(対象物画像7)のコンテンツ内容を変更する指示が入力されたとする。この場合、人物1と指示の対象となるコンテンツ画像とを関連付ける。また人物1により、照明装置3を点灯させる指示が入力された場合に、人物1と照明装置3とを関連付ける。このように対象物に対して、関連付けを希望する旨の指示とは異なる指示が入力された場合に、それをトリガとして関連付けが設定され、紐状画像15が表示されてもよい。
 発話やジェスチャ等により、人物1から対象物画像7を表示する旨の指示が入力されたとする。この場合に、対象物画像7が表示されるとともに、対象物画像7と人物1とが関連付けられてもよい。なお、対象物画像7の表示位置を指定することも可能である。
 図6は、コンテンツ画像の表示の指示に応じた、関連付けの処理例を示すフローチャートである。
 例えば、人物1により、壁面5に向けて腕を伸ばすジェスチャが行われる。本ジェスチャは、表示位置の指定を伴うコンテンツ画像の表示指示として記憶されているとする。
 表示制御部31は、ステップ301で、コンテンツ画像の表示指示があったと判定し、ステップ302にて、コンテンツ画像の表示位置を算出する。例えば、人物1の腕を伸ばす方向に存在する壁面5が検出される。そして腕を伸ばす方向(ベクトル)と、壁面5との交差点を基準として、コンテンツ画像の表示位置が算出される。
 ステップ303にて、紐状画像15の表示位置が算出される。ステップ304にて、人物1とコンテンツ画像の表示位置との距離に基づいて、紐状画像15の表示態様が選択される。ステップ305にて、コンテンツ画像と紐状画像15とが表示される。
 ステップ305にて、人物1と壁面5上のコンテンツ画像の表示位置とに基づいて、コンテンツ画像に対して幾何変換が実行されてもよい。具体的には、人物1に対してコンテンツ画像が正対して表示されるように、画像が幾何変換される。これにより、高品質のユーザ体験を提供可能である。画像を幾何変換するためのアルゴリズム等は限定されない。
 なお、表示位置の指定がない場合には、例えば、デフォルトの位置等に対象物画像7が表示されればよい。
 なお、腕を伸ばすジェスチャに限定されず、他の姿勢や、視線、顔の向き等により、表示位置の指定や対象物画像7の表示の指示を入力することも可能である。
 このように、発話やジェスチャ等を介した種々の指示の入力に応じて、関連付けの設定及び紐状画像15の表示を実行することが可能である。
 これに限定されず、人物1の動きに基づいて、関連付けの設定及び紐状画像15の表示が実行されてもよい。
 例えば、人物1の対象物に対して腕を伸ばす動きに基づいて、人物1と対象物とを関連付け紐状画像15を表示してもよい。また人物1の壁面5を指さす動きに基づいて、壁面5に対象物画像7を表示し、また人物1と対象物画像7とを関連付ける。このように、入力された指示の判定をすることなく、動きの実に応じて関連付けが実行されてもよい。
 すなわち、本画像表示システム100では、人物1から指示に基づいた紐状画像15の表示制御、及び人物1の動き情報に基づいた紐状画像15の表示制御を適宜組み合わせて実行することが可能である。もちろん、指示に基づいた表示制御と動きに基づいた表示制御のいずれか一方のみが実行可能なような実施形態も実現可能である。
 なお、発話による指示等が入力された場合に、発話をした人物1を識別できなかった場合には、指示の再入力を依頼する旨の通知がスピーカ25等を介して出力される。
 図7は、紐状画像15を消去する際の処理例を示すフローチャートである。
 例えば、人物1と対象物との関連付けが解消された場合に、紐状画像15が消去される(ステップ401、402)。
 例えば、人物1から関連付けを解消する旨の指示が入力された場合に、関連付けが解消される。関連付けを解消する旨の指示を入力する方法は限定されず、発話やジェスチャ等を用いた任意の方法が用いられてよい。
 あるいは、所定の動きが行われた場合に、関連付けが解消されてもよい。
 例えば人物1により、紐状画像15を切断する旨のジェスチャが行われた場合に、関連付けが解消される。あるいは「この紐を切って!」等の発話に基づいて、関連付けが解消されてもよい。
 [紐状画像15の表示後の処理]
 本画像表示システム100では、紐状画像15の特徴を生かした種々のユーザ体験を実現することが可能である。
 例えば、図1に示す例において、人物1aと関連付けられた対象物画像7aは、映画やテレビ番組等のコンテンツ画像であるとする。人物1bと関連付けられた対象物画像7bもコンテンツ画像とする。人物1cには、電子ピアノ4が関連付けられている。
 ここで人物1a~1cのいずれかの人物1が、発話を通じて、音量を大きくする旨の指示を入力したとする。
 人物認識部35により、発話した人物1が識別され、指示の内容が判定される。
 発話した人物が人物1aである場合には、コンテンツ画像である対象物画像7aに関する音量を増加するように、スピーカ25が制御される。
 発話した人物が人物1bである場合には、コンテンツ画像である対象物画像7bに関する音量を増加するように、スピーカ25が制御される。
 発話した人物が人物1cであったとする。この場合、電子ピアノ4が連動デバイス26である場合には、電子ピアノ4の音量が増加される。電子ピアノ4が連動可能なデバイスではない場合には、例えば、何もせずそのままの状態が維持される。あるいは、エラー表示の画像や音声等が通知されてもよい。
 このように、現実空間S内の人物1からの指示に基づいて、指示を入力した人物1に関連付けられた対象物に関する処理が実行される。表示制御部31やデバイス制御部36は、指示を入力した人物1の関連付けに基づいて、実行可能なコマンドを実行する。
 例えば、音声入力等で「音量を上げて」等の操作対象を明示的に指示しない(あいまいな指示の)操作が行われた場合でも、紐状画像15により操作対象との関係が分かっているため、操作実行が可能である。また人物1ごとに異なる対応をとることが可能である。
 [対象物画像の追従移動]
 図8は、対象物画像7の追従について説明するための模式図である。
 図8に示すように、表示制御部31は、人物1と対象物画像7とを結ぶ紐状画像15が伸びきった状態で、人物1が対象物画像7から離れる方向に移動した場合、人物1の動きに追従するように、対象物画像7を移動させることが可能である。
 図9は、対象物画像7の追従制御の具体的な処理例を示すフローチャートである。図9に示す処理は、対象物として対象物画像7が関連付けられている場合に実行される。
 人物1が移動したか否かが監視される(ステップ501)。
 人物1が移動した場合(ステップ501のYes)、紐状画像15の表示位置が更新される(ステップ502)。例えば、図5に例示した第1の端点P1及び第2の端点P2の位置が更新される。
 人物1と対象物画像7との距離が閾値を超えたか否か判定される(ステップ503)。例えば第1の端点P1及び第2の端点P2の距離が判定対象とされてもよい。また閾値は、任意に設定されてよい。人物1により、閾値が設定可能でもよい。
 人物1と対象物画像7との距離が閾値を超えない場合(ステップ503のNo)、人物1と対象物画像7との距離に基づいて紐状画像15の表示態様が選択され、紐状画像15が表示される(ステップ504、505)。
 人物1と対象物画像7との距離が閾値を超えた場合(ステップ503のYes)、対象物画像7が移動可能か否か判定される(ステップ506)。
 典型的には、対象物画像7は移動可能に設定されている。一方で、人物1により対象物画像7の移動が規制することも可能である。このような場合には、対象物画像7は移動が不可能な状態となる。
 対象物画像7が移動可能である場合(ステップ506のYes)、対象物画像7の表示位置が更新され、対象物画像7と紐状画像15とが表示される(ステップ507、508)。なお、紐状画像15の表示態様は、伸びきった状態が維持される。
 対象物画像7の表示位置の算出について、人物1の動きや、紐状画像15の表示位置に基づいて対象物画像7が移動する軌跡が算出され、その軌跡に基づいて対象物画像7の表示位置が更新されてもよい。例えばボール等の物体の運動モデルを擬態化することで、対象物画像7の軌跡が算出されてもよい。
 対象物画像7が移動可能ではない場合(ステップ506のNo)、紐状画像15が切れるように紐状画像15の表示が制御される(ステップ509)。これに限定されず、対象物画像7が追従できない旨の通知が実行されてもよい。あるいは、このまま移動すると紐状画像15が切れてしまい、関連付けが解消してしまう旨の警告等が実行されてもよい。その他、紐状画像15が伸びるような表示制御が実行されてもよい。
 例えば、紐状画像15を表示することなく、人物1の動きに合わせて、対象物画像7を追従させるとする。この場合、人物1にとって、なぜ対象物画像7がそのような動きをするのかを把握することが難しくなる可能性が高い。
 本画像表示システム100では、紐状画像15の表示態様(張力表現)を利用して、対象物画像7の追従動作が制御される。これにより、人物1は対象物画像7の動きを直感的に把握することが可能となる。すなわち人物1は、システム側の意図を理解して適宜操作を行うことが可能となる。
 なお、紐状画像15の張力表現を利用した追従動作の制御として、種々のバリエーションが考えられる。例えば、伸びきった状態となる直前から、対象物画像7の追従が始まり、追従速度が徐々に増加するといった表示制御も可能である。紐状画像15の張力表現に応じて、対象物画像7の人物1への追従度が適宜制御されてもよい。
 また、人物が停止した場合には、対象物画像7も追従して同じタイミングで停止する。これに限定されず、対象物画像7が若干慣性的に動いた後に停止するといった表示制御も可能である。
 図1に示す例では、人物1aに対象物画像7aが関連付けられており、紐状画像15aが表示されている。また人物1bに対象物画像7bが関連付けられており、紐状画像15bが表示されている。
 対象物画像7の追従制御は、対象物画像7から見て関連付けられている人物1の動きに基づいた実行される。すなわち対象物画像7aは、人物1aにのみ追従するように表示が制御される。対象物画像7bは、人物1bのみに追従するように表示が制御される。
 なお、1人の人物1に対して複数の対象物画像7が関連付けられている場合には、人物1の移動に追従して複数の対象物画像7が追従して移動することが可能である。もちろん、紐状画像15が伸びきった状態になった対象物画像7から順に移動するといった表示制御も可能である。
 なお、アプリケーションの内容によっては、対象物画像7の方が移動する場合もあり得る。例えば、風船の仮想物体画像等が対象物画像7として表示されており、人物1と関連付けられている場合等が考えられる。
 このような場合、対象物画像7の移動に応じて、対象物画像7と人物1との距離が閾値を超えるか否かが判定される。対象物画像7と人物1との距離が閾値を超えない場合には、対象物画像7と人物1との距離に基づいて、紐状画像15の表示態様が適宜選択され、対象物画像7と紐状画像15とが表示される。
 対象物画像7と人物1との距離が閾値を超える場合には、紐状画像15が伸びきった状態で、対象物画像7の移動が規制される。すなわち対象物画像7の表示位置が固定される。これに限定されず、現実の風船のように、ふわふわ漂うような表示制御が実行されてもよい。
 現実空間S内に存在する物体と人物1とが関連付けられている状態で、人物1が移動したとする。この場合、人物1と物体との距離が閾値を超えない場合には、人物1と物体との距離に基づいて、紐状画像15の表示態様が適宜選択されて表示される。人物1と物体との距離が閾値を超えた場合には、例えば図9のステップ509のように、紐状画像15が切れるような切断表示が実行される。もちろんこれに限定されず、警告等が実行されてもよい。
 図10に例示すように、現実空間S内に、画像の表示が規制された表示規制領域47が設定されてもよい。例えば、画像表示ユニット10により画像を表示できない表示不可領域や、画像の表示が禁止されている表示禁止領域が、表示規制領域47として設定される。
 例えば、人物1により、表示規制領域47が設定可能であってもよい。
 現実空間S内の表示規制領域47の情報は、空間関連情報に含まれる情報である。
 図10に例示するように、人物1の動きに追従して対象物画像7が移動しているとする。例えば、表示制御部31は、表示規制領域47に向かって移動する対象物画像7を、表示規制領域47の直前の位置で固定させる。対象物画像7はそれ以上の移動が不可能な状態となり、例えば図9に例示するフローでは、ステップ506にて、対象物画像7の移動が不可能であると判定される。
 対象物画像7の表示位置を固定する場合に限定されず、対象物画像7が跳ね返るような表示制御が実行されてもよい。
 [紐状画像15の操作]
 本画像表示システム100では、人物1は、紐状画像15を操作することで、種々の処理を実行させることが可能である。
 例えば図11に例示するように、人物1に、猫が仮想的な表示された仮想物体画像が、対象物画像7として関連付けられているとする。
 人物1は、紐状画像15を操作することで、対象物画像7を移動させることが可能である。
 例えば、人物認識部35により、人物1の紐状画像15を操作する動きが認識される。表示制御部31は、人物1の紐状画像15を操作する動きに基づいて、対象物画像7を移動させることが可能である。
 例えば、人物1の腕が伸びる方向、腕の振りの方向、腕の振りの速度、腕の振りの加速度等に基づいて、対象物画像7の最終位置(移動後の位置)や対象物画像7の移動の軌跡が算出される。
 対象物画像7の最終位置と人物1の位置とに基づいて、紐状画像15の表示位置が算出され、表示態様が選択される。表示態様としては、典型的には、伸びきった状態が選択される。
 最終位置に対象物画像7が表示され、対象物画像7と人物1との間に紐状画像15が表示される。なお、対象物画像7の移動の軌跡を表現するような画像が表示されてもよい。
 紐状画像15の操作としては、引っ張る、つまむ、巻き取る、切る、繋ぐ、移植、伸ばす、縮める、割く(分ける)タップする等の、実際の紐状物体に行うことが可能な種々の操作が考えられる。各操作に応じて、適宜処理が関連付けられ、実行されてよい。関連付けられた処理は、例えば実行処理情報43として記憶される。
 また、紐状画像15を太くする、細くする、軟化させる、硬化させる、といったことも可能である。これにより、人物1への追従に関する特性(パラメータ)を変更することも可能である。
 また、紐状画像15が、人物1の足首あたりに接続されるように、紐状画像15が表示されているとする。この場合、紐状画像15が結ばれている足を蹴り上げるといったことで、紐状画像15を操作することが可能である。
 これに限定されず、紐状画像15は足に接続されているが、腕を振るといったことで、紐状画像15を操作可能であってもよい。すなわち紐状画像15が接続されている位置(紐状画像15が表示されている位置)と、紐状画像15への操作とが、関連付けられてもよいし、関連付けられなくてもよい。
 例えば、足に接続された紐状画像15を手に取る動作をした後に、腕を振ることで紐状画像15が操作可能であるといった制御も可能である。これにより、リアリティの高い表示制御が実現される。
 [対象物画像7から物理物体への操作]
 対象物画像7を移動させ物理物体へ重ねる操作について説明する。対象物画像7を物理物体へ重ねる操作は、対象物画像7を物理物体へ衝突させる操作とも言える。
 図12は、紐状画像15の操作による連動デバイス26の制御例を説明するための模式図である。
 本画像表示システム100では、人物1は、紐状画像15を操作して対象物画像7を現実空間S内の電子機器に重ねることで、種々の処理を実行させることが可能である。すなわち本画像表示システム100では、人物1の、紐状画像15を操作して対象物画像7を電子機器に重ねる動きに基づいて、電子機器を制御することが可能である。
 図12Aに示す例では、人物1aに、猫を仮想的な表示された仮想物体画像が、対象物画像7として関連付けられている。また人物1bに、電子機器の電源をOFFにする旨が表示された機器制御画像が、対象物画像7bとして関連付けられている。
 図12Bに例示するように、人物1aが紐状画像15aを操作して、対象物画像7aを移動させテレビ2に重ねる。これに応じて、デバイス制御部36は、テレビ2にコンテンツを表示させる。表示制御部31は、対象物画像7aを消去して、人物1aとテレビ2との間に紐状画像15aを表示させる。すなわち関連付けの設定が変更される。
 このように、対象物画像7aをテレビ2等の表示デバイスに重ねる動きに基づいて、対象物画像7aに関する画像を表示デバイスに表示させることが可能である。
 例えば、対象物画像7aとして表示されている画像と同じ画像が、テレビ2に表示されてもよい。例えば映画等のコンテンツ画像が対象物画像7bとして表示されている場合、テレビ2に同じコンテンツ画像が表示されてもよい。
 これに限定されず、なんらかの属性等が関連している他の画像が表示されている。例えば図1Bに示すように猫の仮想物体画像がテレビ2に重ねられた場合に、猫に関する他の画像(例えばコンテンツ画像等)が表示されてもよい。その他、種々の画像が表示されてよい。
 人物1bが紐状画像15bを操作して、対象物画像7bを移動させ照明装置3に重ねる。これに応じて、デバイス制御部36は、照明装置3の電源をOFFにして、消灯させる。表示制御部31は、対象物画像7bを消去して、人物1bと照明装置3との間に紐状画像15bを表示させる。すなわち関連付けの設定が変更される。
 図13は、紐状画像15の電子機器ではない物体への操作の一例を説明するための模式図である。
 図13Aに示す例では、人物1に、情報を提示する旨が表示された制御画像が、対象物画像7として関連付けられている。
 図13Bに示すように、人物1が紐状画像15を操作して、対象物画像7を移動させ観葉植物8に重ねる。これに応じて、表示制御部31は、対象物画像7bを消去して、観葉植物8に関する情報を表示させる。また人物1と観葉植物8との間に紐状画像を表示させる。すなわち関連付けの設定が変更される。
 観葉植物8に関する情報は、例えば観葉植物8に近い位置に表示される。これに限定されず、AR(Augmented Reality)やMR(Mixed Reality)等の仮想表現が可能な場合には、観葉植物8に重畳するように表示されてもよい。
 なお、観葉植物8に関する情報は、例えば物体情報として、記憶部40に記憶されている。
 人物1と観葉植物8とが関連付けられていない状態で、人物1が観葉植物8との関連付けを指示したとする。あるいは、人物1が観葉植物8に向けて腕を伸ばす動きをしたとする。そのような指示や動きに応じて、人物1と観葉植物8とが関連付けられ、紐状画像15が表示される。その時に、図13Bに示すのと同様に、観葉植物8に関する情報も合わせて、表示されてもよい。
 いずれにせよ、本画像表示システム100では、人物1に関連付けられた物体に関する物体情報を、現実空間S内に表示することが可能である。
 図14は、対象物画像7から物理物体への操作に応じた処理例を示すフローチャートである。図14に示す処理は、対象物画像7が関連付けられている場合に実行される。
 紐状画像15が操作されたか否かが監視される(ステップ601)。
 紐状画像15が操作された場合(ステップ601のYes)、例えば、人物1の腕が伸びる方向や腕の振りの加速度等に基づいて、対象物画像7の最終位置(移動後の位置)や対象物画像7の移動の軌跡が算出される(ステップ602)。
 算出された軌跡上に物体が存在するか否かが判定される(ステップ603)。軌跡上に物体が存在しない場合(ステップ603のNo)、対象物画像7の表示制御が実行される(ステップ604)。例えば、図11に例示したような、対象物画像7の移動が実行される。
 軌跡上に物体が存在しない場合(ステップ603のYes)、物体と対象物画像7とに関する処理が実行可能か否か判定される(ステップ605)。例えば、記憶部40に記憶された実行処理情報43を参照することで、実行可能な処理があるかどうかが判定される。
 互いに重ね合わされた対象物画像7と物体とに関する処理が実行可能ではない場合(ステップ605のNo)、処理不可の表示制御が実行される(ステップ606)。
 例えば、対象物画像7が、物体に衝突して跳ね返るような表示制御が実行される。あるいは、対象物画像7が物体を素通りするような表示制御が実行されてもよい。素通りの表示制御は、ステップ604の表示制御と同一の表示制御になり得る。その他、処理が不可能な旨の通知が、音声や画像を介して通知されてもよい。
 対象物画像7と物体とに関する処理が実行可能な場合(ステップ605のYes)、処理が実行される(ステップ607)。例えば図12及び図13に例示した、テレビ2による画像表示、照明装置3の消灯、観葉植物8に関する情報の表示等が実行される。
 対象物画像7が重ねされた物体との間で、紐状画像15が表示される(ステップ608)。
 対象物画像7を物体に重ねることで実行可能な処理は限定されず、様々な処理が実行可能であってよい。これにより、高品質で新たなユーザ体験を、様々なバリエーションで提供することが可能である。以下、バリエーション例を列挙する。
 電子機器の制御やステータスに関する対象物画像7を電子機器に重ねることで、電子機器を制御することが可能である。
 コンテンツ画像等の対象物画像7を表示デバイスに重ねることで、対象物画像7に関する画像を表示デバイスに表示させることが可能である。
 料理のレシピが表示されたWebページが情報提示画像として壁面5に表示されている。その情報提示画像を食材に重ねることで、その食材を使ったレシピを表示することが可能である。
 なおレシピの表示は、人物1による食材との関連付けの指示や、食材に向かって腕を伸ばす動きに応じて、関連付けの設定(紐状画像15の表示)と合わせて実行されてもよい。
 カメラのアイコンが対象物画像7として表示されている。カメラのアイコンを現実空間S内の物体に重ねることで、その物体を撮影することが可能である。撮影は、例えばセンサユニット20に含まれるカメラにより実行される。
 カメラのアイコンを物体に向けて重ねる際の軌跡に応じて、撮影方向やズーム倍率等の撮影条件が設定可能であってもよい。例えば、観葉植物8の下方側からカメラのアイコンを重ねることで、観葉植物8を下方から見た場合の画像が撮影される。このような処理も可能である。
 SNS(Social Networking Service)のサイトが対象物画像7として表示されている。SNSの対象物画像7を現実空間S内の物体に重ねることで、その物体の撮影画像をSNSに投稿することが可能である。
 皿等の所定の物体に、光の球のような対象物画像7を重ねることで、所定の物体の周りにアニメーションが展開される。
 対象物画像7を重ねる動作に応じて実行可能な処理として、人物1ごとのオリジナルの処理が登録可能であってもよい。登録された処理の情報は、実行処理情報43として記憶される。
 人物1に対して、人物1と関連付けられた対象物画像7を重ねることでなんらかの処理が実行可能となる物体を把握することを補助するような制御がされてもよい。
 例えば、電子機器の制御に関する対象物画像7が関連付けられているとする。この場合に、その対象物画像7を重ねることで制御が可能な電子機器に向けては、対象物画像7はスムーズに移動する。一方、制御が不可能な電子機器に向けては、対象物画像7は移動がスムーズではなく移動させにくい。といった制御も可能である。
 また対象物画像7を重ねることでなんらかの処理が実行可能な物体に照明が当てられ、人物1にとって認識しやすくする。このような処理も可能である。
 また効果音やガイド音声等が適宜用いられてもよい。また対象物画像7自体の色や形状や大きさを変更することで、人物1に情報が提示されてもよい。またテキストが表示されてもよい。
 [物理物体から現実空間Sへの操作]
 本画像表示システム100では、人物1は、物理物体に結ばれている紐状画像15を操作することで、種々の処理を実行することが可能である。
 図15は、電子機器が結ばれている紐状画像15の操作について説明するための模式図である。
 図15Aに示す例では、人物1aに、コンテンツ(猫)を表示しているテレビ2が関連付けられている。また人物1bに、点灯状態の照明装置3が関連付けられている。
 図15Bに例示するように、人物1aが紐状画像15aを操作して、テレビ2と結ばれていている紐状画像15aの先端を、テレビ2から他の位置に移動させる。これに応じて、デバイス制御部36は、コンテンツの表示をOFFにする。表示制御部31は、テレビ2に関する画像を人物1aと関連付けられた対象物として現実空間S内に表示する。
 図15Bに示す例では、テレビ2に表示されているコンテンツ(猫)に関するコンテンツ画像や仮想物体画像等が、壁面5に対象物画像7aとして表示される。そして人物1aと対象物画像7aとを結ぶ紐状画像15aが表示される。テレビ2に関する画像として、任意の画像が表示されてよい。
 人物1bは、紐状画像15bを操作して、照明装置3と結ばれていている紐状画像15bの先端を、照明装置3から他の位置に移動させる。これに応じて、デバイス制御部36は、照明装置3を消灯させる。表示制御部31は、照明装置3に関する画像を人物1bと関連付けられた対象物として現実空間S内に表示する。
 図15Bに示す例では、照明装置3の点灯状態を模したような光の画像が、対象物画像7bとして表示される。そして、そして人物1bと対象物画像7bとを結ぶ紐状画像15bが表示される。照明装置3に関する画像として、任意の画像が表示されてよい。
 このように表示制御部31は、人物1による、人物1と電子機器とを結ぶように表示された紐状画像15の先端を電子機器から他の位置に移動させる動きに基づいて、電子機器に関する画像を人物1と関連付けられた対象物として現実空間S内に表示することが可能である。
 図16は、物体が結ばれている紐状画像15の操作に応じた処理例を示すフローチャートである。図16に示す処理は、物体が関連付けられている場合に実行される。
 紐状画像15が操作されたか否かが監視される(ステップ701)。
 紐状画像15が操作された場合(ステップ701のYes)、例えば、人物1の腕が伸びる方向や腕の振りの加速度等に基づいて、紐状画像15の先端の最終位置(移動後の位置)や先端の移動の軌跡が算出される(ステップ702)。
 算出された軌跡上に物体が存在するか否かが判定される(ステップ703)。軌跡上に物体が存在する場合(ステップ703のYes)、例えば関連付けの変更が実行される(ステップ704)。人物1と軌跡上に存在する物体とが関連付けられ、紐状画像15が表示される。
 軌跡上に物体が存在しない場合(ステップ703のYes)、物体に関する画像が表示可能か否か判定される(ステップ705)。例えば、記憶部40に記憶された実行処理情報43を参照することで、表示可能な画像があるかどうかが判定される。
 物体に関する画像が表示可能ではない場合(ステップ705のNo)、例えば関連付けの解消が実行される(ステップ706)。表示制御部31は、紐状画像15を消去する。関連付けが解消された旨の通知が、音声や画像を介して通知されてもよい。
 物体に関する画像が表示可能な場合(ステップ705のYes)、物体に関する画像が表示される(ステップ707)。例えば図15に例示した対象物画像7a及び7bが表示される。表示された対象物画像7との間で、紐状画像15が表示される(ステップ708)。
 物理物体から現実空間Sへの操作は、現実世界を、画像により表現される仮想世界に拡張する操作とも言える。あるいは、コンテンツ等を仮想世界へ引っ張り出す操作とも言える。
 物理物体に結ばれた紐状画像15の操作に応じた画像表示として、種々の画像表示が実行可能であってもよい。これにより、高品質で新たなユーザ体験を、様々なバリエーションで提供することが可能である。以下、バリエーション例を列挙する。
 現実の表示デバイスに表示されているコンテンツ等を引っ張り出すことが可能である。
 照明装置3の光を引っ張り出し、仮想光源として用いることが可能である。
 天窓等に結ばれている紐状画像15を操作することで、太陽を模した画像を仮想光源として表示することが可能である。
 デジタルフォトフレームに表示されている撮影画像を引っ張り出すことが可能である。なおデジタルフォトフレームが表示している撮影画像の情報を取得できない場合には、センサユニット20によりデジタルフォトフレームに表示されている撮影画像を物理的に撮影することで複製し、その複製画像を壁面5等に表示するといった処理も可能である。
 [対象物画像の一括表示]
 図17は、複数の対象物画像7の一括表示について説明するための模式図である。
 図17Aに示す例では、人物1aに対象物画像7aが関連付けられており、紐状画像15aが表示されている。また人物1bに対象物画像7bが関連付けられており、紐状画像15bが表示されている。
 人物1a及び対象物画像7aは、本技術に係る第1の人物及び第1の対象物画像の一実施形態に相当する。人物1b及び対象物画像7bは、本技術に係る第2の人物及び第2の対象物画像の一実施形態に相当する。「第1」「第2」のあてはめを逆にすることも可能である。
 図17Bに示すように、人物1aと人物1bとの距離が所定の閾値よりも小さい場合に、人物1aに関連付けられた対象物画像7と、人物1bに関連付けられた対象物画像7bとが一括表示される。
 例えば、図17Bに示すように、1枚の一括表示画像が対象物画像7cとして拡大されて表示される。対象物画像7cに対して、人物1a及び人物1bの両方が関連付けられる。
 図18は、一括表示の処理例を示すフローチャートである。図18に示す処理は、コンテンツ画像が関連付けられている複数の人物に対して実行される。
 人物間の距離が所定の閾値よりも小さいか否かが判定される(ステップ801)。
 人物間の距離が閾値より小さい場合(ステップ801のYes)、既に一括表示が実行されているか否か判定される(ステップ802)。
 一括表示が実行されていない場合(ステップ802のNo)、同一コンテンツであるか否か判定される(ステップ803)。例えば図17を参照して、人物1aに関連付けられているコンテンツ画像(対象物画像7a)と、人物1bに関連付けられているコンテンツ画像(対象物画像7b)とが、同一のコンテンツ画像であるか否かが判定される。
 同一コンテンツである場合(ステップ803のYes)、一括表示が実行される(ステップ804)。例えば、共通のコンテンツ画像が図17bに示す一括表示画像(対象物画像7c)として表示される。そして、一括表示画像により、コンテンツの表示が継続される(ステップ805)。
 同一コンテンツでない場合(ステップ803のNo)、一括表示は実行されず、コンテンツ画像(対象物画像7a)と、コンテンツ画像(対象物画像7b)との各々にて、コンテンツの表示が継続される(ステップ805)。
 人物間の距離が閾値より小さくない場合(ステップ801のNo)一括表示が実行されているか否か判定される(ステップ806)。
 一括表示が実行されている場合(ステップ806のYes)、一括表示が終了される(ステップ807)。すなわち、コンテンツ画像(対象物画像7a)と、コンテンツ画像(対象物画像7b)とに分離される。そしてその状態で、コンテンツの表示が継続される(ステップ805)。
 一括表示が実行されていない場合(ステップ806のNo)、コンテンツ画像(対象物画像7a)と、コンテンツ画像(対象物画像7b)との各々にて、コンテンツの表示が継続される(ステップ805)。
 一括表示の方法として、任意の方法が実行されてよい。例えば、1つの枠画像内に、互いに異なる複数の画像が表示され、全体として1つの一括表示画像が構成されてもよい。この場合、同一のコンテンツ画像でなくても、一括表示が可能である。
 またコンテンツ画像とは異なる種類の対象物画像7に対して、一括表示が実行されてもよい。
 一括表示画像の表示位置やサイズ等も限定されない。例えば複数の人物1の全てがコンテンツ画像を適正に使用可能なサイズや、複数の人物1の全てが機器制御画像に適正にアクセス可能な表示位置やサイズ等が適宜算出されればよい。
 一括表示を実行するための条件やトリガも限定されない。人物1からの一括表示をする旨の指示が入力された場合に、一括表示が実行されてもよい。また人物1aと人物1bとが、自分に関連付けられている対象物画像7同士を衝突させるような動きをした場合に、一括表示が実行されてもよい。
 [統合情報の表示]
 図19は、統合情報の表示について説明するための模式図である。
 図19に示す例では、人物1に複数の対象物画像7が関連付けられている。具体的には、対象物画像7aと対象物画像7bとが関連付けられていている。対象物画像7a及び対象物画像7bは、本技術に係る第1の対象物画像及び第2の対象物画像一実施形態に相当する。
 図19A及びBに例示するように、人物1が、紐状画像15a及び15bを操作して、人物1に関連付けられた対象物画像7a及び対象物画像7bを互いに重ねる。これにより、対象物画像7aと対象物画像7bとに関する統合情報が、対象物画像7cとして表示される。統合情報は、対象物画像7aの内容と、対象物画像7bの内容とが統合された情報である。
 人物1対象物画像7cとの間には、1本の紐状画像15cが表示される。紐状画像15cは、紐状画像15a及び15cが統合された紐状画像15と見做すことも可能である。
 このように人物1の紐状画像15a及び15bを操作して、人物1に関連付けられた対象物画像7a及び対象物画像7bを互いに重ねる動きに基づいて、対象物画像7aと対象物画像7bとに関する統合情報を、人物1に関連付けられた対象物として現実空間S内に表示することが可能である。
 複数の対象物画像を重ねることで統合情報を表示する操作は、情報と情報とを統合して統合情報を得る操作とも言える。
 どのような対象物画像7を重ねることで、どのような統合情報を表示するかについては、様々なバリエーションが考えられる。
 例えば、検索サイトのWebページが表示された対象物画像7aに対して、対象物画像7bとして表示されている画像を重ねる。これにより、対象物画像7bとして表示されている画像の画像検索結果が、統合情報として表示される。
 例えば、所定の画家に関する情報を含むWebページが表示された対象物画像7aに対して、対象物画像7bとして表示されている画像を重ねる。これにより、対象物画像7bとして表示されている画像が、対象物画像7aに含まれる画家の作品風に加工され、統合情報として表示される。
 食材Aを含む対象物画像7aとある国の国旗を含む対象物画像7bが互いに重ねられる。これにより、食材Aを用いたその国の名物料理のレシピが、統合情報として表示される。
 統合情報を生成するための処理方法(統合の組み合わせ等)については、例えば実行処理情報43として記憶されている。人物1にとって、オリジナルの統合情報が生成するための処理が登録可能であってもよい。その他、様々な統合情報が生成されて表示可能であってよい。これにより、高品質で新たなユーザ体験を、様々なバリエーションで提供することが可能である。
 以上、本実施形態に係る画像表示システム100及び情報処理装置30では、人物1と対象物との関連付け、及び人物1の動きが対象物へどのように影響するかを、人物1が把握可能となる関連付画像の表示が制御される。これにより、新たなユーザ体験を実現することが可能となる。
 情報等を提示する画像が複数表示されており、人物(ユーザ)も複数がいる場合、画像が誰に対して表示されているものかが分からない。また画像が可動する場合、その可動特性を人物に提示することが難しい。
 可動特性を提示することが難しいため、人物がその画像の位置をジェスチャ等で操作しようとした場合、適切な調整が難しい。
 本実施形態では、画像や物理物体と人物1との関係を、仮想的な紐状画像15でつなぐことで人物1に明示することが可能となる。また紐状画像15の張力表現により、画像の追従度合を提示することも可能である。
 また例えば、紐状画像15を引っ張る等のジェスチャにより操作し、先端につながった対象物画像7を電子機器等の物体に衝突させる事で、様々な処理を実行させることが可能である。また紐状画像15の先端につながった物理物体に関する情報を引っ張り出して表示させることも可能である。また例えば、紐状画像15の先端につながったもの同士を衝突させる事で統合情報を提示することも可能である。
 このように、関係性の明示、可動特性の明示、及び物理物体と仮想空間とのインタラクションを実現することが可能である。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 図15に示す人物1aとテレビ2との関連付けに関して、紐状画像15aの先端を移動させる操作に応じて、紐状画像15aの先端にテレビ2の仮想物体画像が表示されてもよい。そして、仮想的に表示されたテレビ2により、テレビ2に関する画像が表示されてもよい。
 このように、紐状画像15により人物1と現実の物体とが関連付けられている状態で、紐状画像15の先端が移動された場合に、それまで関連付けられた現実の物体の仮想物体画像が、対象物画像として表示されてもよい。人物1との関連付けは、現実の物体から仮想物体画像に変更される。現実の物体が電子機器等である場合には、仮想物体画像により電子機器が有する機能が発揮されるような表示制御が実行されてもよい(例えば表示デバイスによる画像表示等)。
 上記したように対象物画像は、現実空間S内にて表示される任意の画像を含む。従って、現実空間S内に配置される表示デバイスにより表示される画像(コンテンツ画像等)も、対象物画像に含まれる。
 例えば、図15に示す人物1aとテレビ2との関連付けを、人物1aとテレビ2に表示されている対象物画像との関連付けとして、本技術を実施することも可能である。
 この場合、紐状画像15aの先端を移動させる操作に応じて、テレビ2に表示されていた対象物画像に関する画像が、関連付けの対象となる新たな対象物画像として、壁面5に表示される。
 例えば、テレビ2により現実の猫が表示されている場合、その猫の画像が対象物画像として、人物1aに関連付けられる。人物1aが紐状画像15aの先端を移動させた場合には、猫の仮想物体画像7aが対象物画像として壁面5に表示され、人物1aと関連付けられる。人物1aとの関連付けは、テレビ2に表示される画像から、壁面5に表示される仮想物体画像に変更される。
 人物1aにとっては、テレビ2内のコンテンツ等を、テレビ2の外へ引っ張り出して好きな位置に表示させるといった操作が可能となり、新たなユーザ体験が実現される。
 なお、表示デバイスに表示されている画像の内容を検出する方法として、種々の方法が用いられてよい。例えば表示デバイスを含む現実空間Sが撮影された画像に対して、物体認識を実行することで、表示デバイスに何が表示されているかを判別することが可能である。もちろんセマンティックセグメンテーション(Semantic Segmentation)や背景差分等の機械学習アルゴリズムを利用した認識等が実行されてもよい。その他、テレビ2に表示される画像にタグ等のメタ情報が付加されている場合には、当該メタ情報が適宜参照されてもよい。
 人物1の頭部に透過型のHMD(Head Mounted Display)が装着され、現実空間Sに対して、HMDにより紐状画像15等が表示されてもよい。すなわち、AR空間に対して、本技術を適用することが可能である。
 また埋没型のHMDが装着され、VR(Virtual Reality)空間に対して、本技術に係る紐状画像15の表示制御等が実行されてもよい。
 紐状画像15の表現方法として、上記したように、床は壁面等を這うように紐状画像15が表示される。これに限定されずAR画像等により立体的に紐状画像15が表現されてもよい。
 人物1の1人称視点で紐状画像15がつながっている様に表現されてもよい。例えば、錯覚的提示方法等を採用することが可能である。
 典型的には、人物1と対象物とを結ぶ紐状画像15が、他の人物1にとっても視認可能に、紐状画像15が表示される。これに限定されず、他の人物1から見ると途切れているように見えるが、本人にとっては対象物と連結しているように見えるといった表示制御が実行されてもよい。
 紐状画像15の分岐表現により、関連する項目等のグループ分けが実行されてもよい。
 また紐状画像15に対して、様々なアニメーション表現が実現されてもよい。紐状画像15が脈打つような表現により、対象物との間のデータ通信等が表現されてもよい。
 また関連付画像として、紐状画像15以外の画像が表示されてもよい。
 例えば、所定の触覚を提示可能な触覚提示装置を連動して動作させることで、現実の紐状物体から受けるような触覚や力等が再現可能であってもよい。例えば、図8に例示するような対象物画像7の追従に応じて、対象物画像7から受ける反作用の力が触覚提示により再現されてもよい。また図11等にて例示した紐状画像15への様々な操作に応じて、人物1に触覚等が提示されてもよい。例えば、紐状画像15の振動等も実現させることが可能である。これにより高品質なユーザ体験を実現することが可能である。
 また微弱な電気信号を人物1の所定の筋肉に与えることで、人物1に所定の動きを誘発させることも可能である。これにより、例えば紐状画像15から引っ張られているような感覚を実現することも可能である。
 触覚提示装置としては、スマートフォン等の携帯端末や、人物1が装着可能なウェアラブル装置等を採用することができる。例えば、リストバンド型、腕輪型、ネックバンド型等の種々の種類のウェアラブル装置を採用することが可能である。
 図20は、情報処理装置30のハードウェア構成例を示すブロック図である。
 情報処理装置30は、CPU201、ROM202、RAM203、入出力インタフェース205、及びこれらを互いに接続するバス204を備える。
 入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。
 表示部206は、例えば液晶、EL等を用いた表示デバイスである。
 入力部207は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。
 記憶部208は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。
 ドライブ部210は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。
 通信部209は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、情報処理装置30とは別体で使用される場合が多い。
 上記のようなハードウェア構成を有する情報処理装置30による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、情報処理装置30のハードウェア資源との協働により実現される。
 具体的には、ROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより、本技術に係る情報処理方法が実現される。
 プログラムは、例えば記録媒体211を介して情報処理装置30にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置30にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 ネットワーク等を介して通信可能に接続された複数のコンピュータにより本技術に係る情報処理装置が構成され、本技術に係る情報処理方法、及びプログラムが実行されてもよい。
 すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。
 なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。従って、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば空間関連情報の取得、紐状画像の表示制御、対象物画像の表示制御、種々の処理の実行等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。
 また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明した画像表示システム、画像表示ユニット、センサユニット、情報処理装置等の各構成、空間関連情報の取得、環境認識、人物認識、紐状画像の表示制御、種々の処理の実行等の処理フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)
 現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する表示制御部
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記空間関連情報は、前記現実空間内の人物の動きに関する動き情報を含み、
 前記表示制御部は、前記動き情報に基づいて、前記関連付画像の表示を制御する
 情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、さらに、
 前記現実空間内の人物からの指示を判定する判定部を具備し、
 前記画像表示部は、前記指示に基づいて、前記関連付画像の表示を制御する
 情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
 前記関連付画像は、前記人物と前記対象物とを結ぶように表示される紐状の画像を含む
 情報処理装置。
(5)(4)に記載の情報処理装置であって、
 前記紐状の画像は、長さが規定された現実の紐状の物体を模した画像である
 情報処理装置。
(6)(4)又は(5)に記載の情報処理装置であって、
 前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含み、
 前記表示制御部は、前記人物と前記対象物との距離に基づいて、前記紐状の画像の表示態様を制御する
 情報処理装置。
(7)(4)から(6)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記人物と前記対象物との距離が大きくなるほど前記紐状の画像が引っ張られるように前記紐状の画像を表示し、前記人物と前記対象物との距離が小さくなるほど前記紐状の画像が緩むように前記紐状の画像を表示する
 情報処理装置。
(8)(4)から(7)のうちいずれか1つに記載の情報処理装置であって、
 前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含み、
 前記表示制御部は、前記人物の位置及び前記対象物の位置に基づいて、前記紐状の画像の前記人物側の第1の端点の位置と、前記紐状の画像の前記対象物側の第2の端点の位置とを算出し、前記第1の端点と前記第2の端点とを結ぶように前記紐状の画像を表示させる
 情報処理装置。
(9)(4)から(8)のうちいずれか1つに記載の情報処理装置であって、
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
 前記表示制御部は、前記対象物画像の表示を制御可能であり、前記紐状の画像が伸びきった状態で、前記人物が前記対象物画像から離れる方向に移動した場合、前記人物の動きに追従するように前記対象物画像を移動させる
 情報処理装置。
(10)(4)から(9)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記人物の前記紐状の画像を操作する動きに基づいて、前記対象物画像を移動させる
 情報処理装置。
(11)(4)から(10)のうちいずれか1つに記載の情報処理装置であって、さらに、
 前記人物に関連付けられた前記対象物に関する処理を実行する処理実行部を具備する
 情報処理装置。
(12)(11)に記載の情報処理装置であって、さらに、
 前記現実空間内の人物からの指示を判定する判定部を具備し、
 前記処理実行部は、前記現実空間内の人物からの指示に基づいて、前記指示を入力した人物に関連付けられた前記対象物に関する処理を実行する
 情報処理装置。
(13)(11)又は(12)に記載の情報処理装置であって、
 前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含み、
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
 前記処理実行部は、前記人物の前記紐状の画像を操作して前記対象物画像を前記電子機器に重ねる動きに基づいて、前記電子機器を制御する
 情報処理装置。
(14)(13)のうちいずれか1つに記載の情報処理装置であって、
 前記電子機器は、表示デバイスを含み、
 前記処理実行部は、前記対象物画像を前記表示デバイスに重ねる動きに基づいて、前記対象物画像に関する画像を前記表示デバイスに表示させる
 情報処理装置。
(15)(11)から(14)のうちいずれか1つに記載の情報処理装置であって、
 前記空間関連情報は、前記現実空間内の物体に関する物体情報を含み、
 前記表示制御部は、前記人物に関連付けられた前記物体に関する前記物体情報を、前記現実空間内に表示する
 情報処理装置。
(16)(11)から(15)のうちいずれか1つに記載の情報処理装置であって、
 前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含み、
 前記表示制御部は、前記人物と前記電子機器とを結ぶように表示された前記紐状の画像の先端を、前記電子機器から他の位置に移動させる動きに基づいて、前記電子機器に関する画像を前記人物と関連付けられた前記対象物として前記現実空間内に表示する
 情報処理装置。
(17)(4)から(16)のうちいずれか1つに記載の情報処理装置であって、
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
 前記表示制御部は、前記現実空間内の第1の人物と第2の人物との距離が所定の閾値よりも小さい場合に、前記第1の人物に関連付けられた第1の対象物画像と、前記第2の人物に関連付けられた第2の対象物画像とを一括表示する
 情報処理装置。
(18)(4)から(17)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記人物に対して複数の対象物が関連付けられている場合に、前記人物と前記複数の対象物とを結ぶような複数の紐状の画像の表示を制御可能であり、
 前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
 前記表示制御部は、前記人物の前記複数の紐状の画像を操作して、前記人物に関連付けられた第1の対象物画像及び第2の対象物画像を互いに重ねる動きに基づいて、前記第1の対象物画像と前記第2の対象物画像とに関する統合情報を、前記人物に関連付けられた前記対象物として前記現実空間内に表示する
 情報処理装置。
(19)
 現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する
 ことをコンピュータシステムが実行する情報処理方法。
(20)
 現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御するステップを
 コンピュータシステムに実行させるプログラム。
(21)(1)から(18)のうちいずれか1つに記載の情報処理装置であって、
 前記空間関連情報は、前記現実空間内の画像の表示が規制された表示規制領域の情報を含み、
 前記表示制御部は、前記表示規制領域に向かって移動する前記対象物画像を、前記表示規制領域の手前で固定させる
 情報処理装置。
(22)(4)から(18)のうちいずれか1つに記載の情報処理装置であって、
 前記対象物は、前記現実空間内の物体であり、
 前記表示制御部は、前記紐状の画像が伸びきった状態で、前記人物が前記物体から離れる方向に移動した場合、前記紐状の画像が切れるように前記紐状の画像を表示する
 情報処理装置。
(23)(13)に記載の情報処理装置であって、
 前記対象物画像は、前記電子機器の機能に関する機能画像、又は前記電子機器のステータスに関するステータス画像の少なくとも一方を含む
 情報処理装置。
(24)(16)に記載の情報処理装置であって、
 前記電子機器に関する画像は、前記電子機器が仮想的に表示された画像を含む
 情報処理装置。
(25)(14)に記載の情報処理装置であって、
 前記対象物画像は、前記表示デバイスに表示される画像を含み、
 前記表示制御部は、前記人物と前記表示デバイスとを結ぶように表示された前記紐状の画像の先端を、前記表示デバイスから他の位置に移動させる動きに基づいて、前記表示デバイスに表示されていた画像に関する画像を前記人物と関連付けられた前記対象物として前記現実空間内に表示する
 情報処理装置。
 P1…第1の端点
 P2…第2の端点
 1…人物1
 2…テレビ
 3…照明装置
 4…電子ピアノ
 7…対象物画像
 8…観葉植物
 10…画像表示ユニット
 15…紐状画像
 20…センサユニット
 26…連動デバイス
 30…情報処理装置
 31…表示制御部
 32…空間関連情報
 36…デバイス制御部
 42…物体情報
 45…対象物
 47…表示規制領域
 100…画像表示システム

Claims (20)

  1.  現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する表示制御部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記空間関連情報は、前記現実空間内の人物の動きに関する動き情報を含み、
     前記表示制御部は、前記動き情報に基づいて、前記関連付画像の表示を制御する
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、さらに、
     前記現実空間内の人物からの指示を判定する判定部を具備し、
     前記画像表示部は、前記指示に基づいて、前記関連付画像の表示を制御する
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記関連付画像は、前記人物と前記対象物とを結ぶように表示される紐状の画像を含む
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記紐状の画像は、長さが規定された現実の紐状の物体を模した画像である
     情報処理装置。
  6.  請求項4に記載の情報処理装置であって、
     前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含み、
     前記表示制御部は、前記人物と前記対象物との距離に基づいて、前記紐状の画像の表示態様を制御する
     情報処理装置。
  7.  請求項4に記載の情報処理装置であって、
     前記表示制御部は、前記人物と前記対象物との距離が大きくなるほど前記紐状の画像が引っ張られるように前記紐状の画像を表示し、前記人物と前記対象物との距離が小さくなるほど前記紐状の画像が緩むように前記紐状の画像を表示する
     情報処理装置。
  8.  請求項4に記載の情報処理装置であって、
     前記空間関連情報は、前記人物の位置情報と、前記対象物の位置情報とを含み、
     前記表示制御部は、前記人物の位置及び前記対象物の位置に基づいて、前記紐状の画像の前記人物側の第1の端点の位置と、前記紐状の画像の前記対象物側の第2の端点の位置とを算出し、前記第1の端点と前記第2の端点とを結ぶように前記紐状の画像を表示させる
     情報処理装置。
  9.  請求項4に記載の情報処理装置であって、
     前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
     前記表示制御部は、前記対象物画像の表示を制御可能であり、前記紐状の画像が伸びきった状態で、前記人物が前記対象物画像から離れる方向に移動した場合、前記人物の動きに追従するように前記対象物画像を移動させる
     情報処理装置。
  10.  請求項4に記載の情報処理装置であって、
     前記表示制御部は、前記人物の前記紐状の画像を操作する動きに基づいて、前記対象物画像を移動させる
     情報処理装置。
  11.  請求項4に記載の情報処理装置であって、さらに、
     前記人物に関連付けられた前記対象物に関する処理を実行する処理実行部を具備する
     情報処理装置。
  12.  請求項11に記載の情報処理装置であって、さらに、
     前記現実空間内の人物からの指示を判定する判定部を具備し、
     前記処理実行部は、前記現実空間内の人物からの指示に基づいて、前記指示を入力した人物に関連付けられた前記対象物に関する処理を実行する
     情報処理装置。
  13.  請求項11に記載の情報処理装置であって、
     前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含み、
     前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
     前記処理実行部は、前記人物の前記紐状の画像を操作して前記対象物画像を前記電子機器に重ねる動きに基づいて、前記電子機器を制御する
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記電子機器は、表示デバイスを含み、
     前記処理実行部は、前記対象物画像を前記表示デバイスに重ねる動きに基づいて、前記対象物画像に関する画像を前記表示デバイスに表示させる
     情報処理装置。
  15.  請求項11に記載の情報処理装置であって、
     前記空間関連情報は、前記現実空間内の物体に関する物体情報を含み、
     前記表示制御部は、前記人物に関連付けられた前記物体に関する前記物体情報を、前記現実空間内に表示する
     情報処理装置。
  16.  請求項11に記載の情報処理装置であって、
     前記空間関連情報は、前記現実空間内の電子機器に関する機器情報を含み、
     前記表示制御部は、前記人物と前記電子機器とを結ぶように表示された前記紐状の画像の先端を、前記電子機器から他の位置に移動させる動きに基づいて、前記電子機器に関する画像を前記人物と関連付けられた前記対象物として前記現実空間内に表示する
     情報処理装置。
  17.  請求項4に記載の情報処理装置であって、
     前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
     前記表示制御部は、前記現実空間内の第1の人物と第2の人物との距離が所定の閾値よりも小さい場合に、前記第1の人物に関連付けられた第1の対象物画像と、前記第2の人物に関連付けられた第2の対象物画像とを一括表示する
     情報処理装置。
  18.  請求項4に記載の情報処理装置であって、
     前記表示制御部は、前記人物に対して複数の対象物が関連付けられている場合に、前記人物と前記複数の対象物とを結ぶような複数の紐状の画像の表示を制御可能であり、
     前記対象物は、前記現実空間内に表示された画像である対象物画像を含み、
     前記表示制御部は、前記人物の前記複数の紐状の画像を操作して、前記人物に関連付けられた第1の対象物画像及び第2の対象物画像を互いに重ねる動きに基づいて、前記第1の対象物画像と前記第2の対象物画像とに関する統合情報を、前記人物に関連付けられた前記対象物として前記現実空間内に表示する
     情報処理装置。
  19.  現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  現実空間に関する空間関連情報に基づいて、前記現実空間内の人物と前記現実空間内の対象物との関連付け及び前記人物の動きが前記対象物へどのように影響するかを、前記人物が把握可能となる関連付画像の、前記現実空間への表示を制御するステップを
     コンピュータシステムに実行させるプログラム。
PCT/JP2020/029762 2019-09-04 2020-08-04 情報処理装置、情報処理方法、及びプログラム WO2021044787A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/638,018 US20220365588A1 (en) 2019-09-04 2020-08-04 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-161146 2019-09-04
JP2019161146 2019-09-04

Publications (1)

Publication Number Publication Date
WO2021044787A1 true WO2021044787A1 (ja) 2021-03-11

Family

ID=74852641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/029762 WO2021044787A1 (ja) 2019-09-04 2020-08-04 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20220365588A1 (ja)
WO (1) WO2021044787A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276605A1 (ja) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 照明制御システム、照明制御方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12079383B2 (en) * 2022-08-16 2024-09-03 Lenovo (Singapore) Pte. Ltd. Headset wire tracking and notification
CN116501175B (zh) * 2023-06-25 2023-09-22 江西格如灵科技股份有限公司 虚拟角色移动方法、装置、计算机设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2014120006A (ja) * 2012-12-17 2014-06-30 Haruyuki Iwata 携帯型移動支援装置
JP2018190395A (ja) * 2018-04-02 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019036127A (ja) * 2017-08-15 2019-03-07 富士ゼロックス株式会社 情報処理装置及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159561A1 (ja) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
CN107683497B (zh) * 2015-06-15 2022-04-08 索尼公司 信息处理设备、信息处理方法及程序
WO2018100800A1 (ja) * 2016-11-29 2018-06-07 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501956A (ja) * 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置
JP2014120006A (ja) * 2012-12-17 2014-06-30 Haruyuki Iwata 携帯型移動支援装置
JP2019036127A (ja) * 2017-08-15 2019-03-07 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018190395A (ja) * 2018-04-02 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276605A1 (ja) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 照明制御システム、照明制御方法及びプログラム

Also Published As

Publication number Publication date
US20220365588A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
US11935205B2 (en) Mission driven virtual character for user interaction
CN110942518B (zh) 上下文计算机生成现实(cgr)数字助理
US20220139051A1 (en) Creating a viewport in a hybrid-reality system
US11043031B2 (en) Content display property management
US10362429B2 (en) Systems and methods for generating spatial sound information relevant to real-world environments
EP3304252B1 (en) Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
JP2021082310A (ja) 拡張現実および仮想現実のためのシステムおよび方法
KR101917630B1 (ko) 증강 및 가상 현실을 위한 시스템 및 방법
WO2021044787A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6902683B2 (ja) 仮想ロボットのインタラクション方法、装置、記憶媒体及び電子機器
CN112153468A (zh) 视频回放与用户运动的同步方法、计算机可读介质和系统
JP7381581B2 (ja) マシン相互作用
JP7278307B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
KR20190095620A (ko) 전자 장치 및 그의 제어방법
US20240104870A1 (en) AR Interactions and Experiences
US20230218984A1 (en) Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment
WO2019201822A1 (en) Tangible mobile game programming environment for non-specialists
US20240248528A1 (en) Artificial Reality Entry Spaces for Virtual Reality Experiences
CN112424736B (zh) 机器交互
WO2024085998A1 (en) Activation of partial pass-through on an artificial reality device
CN118591408A (zh) 人工智能辅助的虚拟对象构建器
CN115004254A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20859721

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20859721

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP