WO2018211798A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- WO2018211798A1 WO2018211798A1 PCT/JP2018/009601 JP2018009601W WO2018211798A1 WO 2018211798 A1 WO2018211798 A1 WO 2018211798A1 JP 2018009601 W JP2018009601 W JP 2018009601W WO 2018211798 A1 WO2018211798 A1 WO 2018211798A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information processing
- processing apparatus
- motion
- abnormality
- signal input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Definitions
- This disclosure relates to an information processing apparatus, an information processing method, and a program.
- objects include real objects that exist in real space and virtual objects that exist in virtual space.
- virtual objects a character corresponding to the user himself (hereinafter also referred to as “avatar”) can be cited.
- a technique for controlling an avatar as an example of a virtual object based on an operation of a controller by a user is disclosed (for example, see Patent Document 1).
- the movement of the object is normally controlled according to the movement of the user, the object behaves like a human being.
- abnormal input of signals for controlling the operation of the object may be detected.
- it becomes difficult to control the movement of the object in accordance with the user's movement humanity may be lost from the movement of the object. Therefore, it is desired to provide a technique capable of enhancing the human nature of the movement of the object.
- the predetermined motion is continued until the normality of the signal input is detected.
- a motion control unit that controls the object, wherein the motion control unit receives the object from the signal input until the motion of the object transitions to the predetermined motion after the abnormality of the signal input is detected.
- an information processing apparatus that controls to perform at least one first intermediate operation different from the operation of the object and the predetermined operation when an abnormality is detected.
- the predetermined motion is continued until the normality of the signal input is detected.
- the signal is detected by the processor from the time when the signal input abnormality is detected to the time when the operation of the object transitions to the predetermined operation.
- an information processing method including controlling to perform at least one first intermediate motion different from the motion of the object and the predetermined motion.
- the computer when a signal input abnormality corresponding to a user's operation for controlling the operation of the object is detected, the computer performs a predetermined operation until the normality of the signal input is detected.
- a motion control unit configured to control the object so as to continue, the motion control unit detecting the abnormality of the signal input until the transition of the motion of the object to the predetermined motion,
- a program for functioning as an information processing apparatus that controls to perform at least one first intermediate operation different from the operation of the object and the predetermined operation when an abnormality in the signal input is detected.
- a technique capable of providing a technique capable of increasing the human nature of the motion of an object is provided.
- the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
- FIG. 3 is a diagram illustrating a functional configuration example of an information processing device according to a first embodiment of the present disclosure. It is a figure which shows the example of the flow of data in an information processing system. It is a figure which shows the operation control example of an avatar when the normality of the input of the signal for controlling the operation
- FIG. 4 is a flowchart illustrating an example of an operation of an operation control unit in the information processing apparatus according to the first embodiment of the present disclosure. It is a figure showing an example of composition of an information processing system concerning a 2nd embodiment of this indication. It is a figure which shows the function structural example of the information processing apparatus which concerns on 2nd Embodiment of this indication. It is a figure showing an example of composition of an information processing system concerning a 3rd embodiment of this indication. It is a figure which shows the function structural example of the information processing apparatus which concerns on 3rd Embodiment of this indication. It is a figure which shows the example of operation control of the robot when the normal input of the signal for controlling the operation of the robot is detected.
- FIG. 14 is a flowchart illustrating an example of an operation of an operation control unit in an information processing apparatus according to a third embodiment of the present disclosure. It is a block diagram which shows the hardware structural example of information processing apparatus.
- a plurality of constituent elements having substantially the same or similar functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same or similar functional configuration, only the same reference numerals are given.
- similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, if it is not necessary to distinguish each similar component, only the same reference numerals are given.
- FIG. 1 is a diagram illustrating a configuration example of an information processing system according to the first embodiment of the present disclosure.
- the information processing system 1 according to the first embodiment of the present disclosure includes an information processing device 10-1 and an information processing device 10-2.
- the information processing apparatus 10-1 is used by the user U-1
- the information processing apparatus 10-2 is used by the user U-2.
- the information processing apparatus 10-1 is an HMD (head mounted display) attached to the head of the user U-1.
- the information processing apparatus 10-1 is not limited to the HMD.
- the information processing apparatus 10-1 may be a smartphone or a tablet terminal.
- the case where the information processing apparatus 10-2 is also an HMD will be mainly described.
- the information processing apparatus 10-2 may be a smartphone or a tablet terminal. It may be.
- an avatar 20-1 as an example of a virtual object is displayed on the screen 161-1 of the information processing apparatus 10-1.
- the virtual object displayed on the screen 161-1 of the information processing apparatus 10-1 is not limited to the avatar 20-1.
- the virtual object displayed on the screen 161-1 of the information processing apparatus 10-1 may be an agent.
- the information processing apparatus 10-1 controls the operation of the avatar 20-1 based on the operation of the user U-2.
- the operation of user U-2 may be recognized in any way.
- the case where the operation of the user U-2 is recognized from an image captured by the information processing apparatus 10-2 (hereinafter, also simply referred to as “captured image”) is mainly used.
- captured image an image captured by the information processing apparatus 10-2
- the operation of the user U-2 may be recognized by the information processing apparatus 10-1.
- a voice uttered by the user U-2 is output from the information processing apparatus 10-1.
- the user U-1 can communicate with the user U-2 in more detail.
- the voice uttered by the user U-2 is detected by the information processing apparatus 10-2.
- the voice uttered by the user U-2 does not have to be output from the information processing apparatus 10-1.
- an avatar 20-2 as an example of a virtual object is displayed on the screen 161-2 of the information processing apparatus 10-2.
- the virtual object displayed on the screen 161-2 of the information processing apparatus 10-2 is not limited to the avatar 20-2.
- the virtual object displayed on the screen 161-2 of the information processing apparatus 10-2 may be an agent.
- the information processing apparatus 10-2 controls the operation of the avatar 20-2 based on the operation of the user U-1.
- the operation of the user U-1 may be recognized in any way.
- the operation of the user U-1 is mainly recognized from an image captured by the information processing apparatus 10-1 (hereinafter, also simply referred to as “captured image”).
- captured image an image captured by the information processing apparatus 10-1
- the operation of the user U-1 may be recognized by the information processing apparatus 10-2.
- a voice uttered by the user U-1 is output from the information processing apparatus 10-2 is mainly assumed.
- the user U-2 can communicate with the user U-1 in more detail.
- the voice uttered by the user U-1 is detected by the information processing apparatus 10-1.
- the voice uttered by the user U-1 does not have to be output from the information processing apparatus 10-2.
- the functions from the recognition of the user U-2's motion to the control of the avatar 20-1 are the same as the functions from the recognition of the motion of the user U-1 to the control of the avatar 20-2. Therefore, in the following, the functions from the recognition of the operation of the user U-2 to the control of the avatar 20-1 may be described on behalf of both functions.
- the user U-1 can communicate with the user U-2 by viewing the avatar 20-1 whose movement is controlled based on the movement of the user U-2.
- an abnormality in the input of a signal for controlling the operation of the avatar 20-1 may be detected.
- it becomes difficult to control the operation of the avatar 20-1 according to the operation of the user U-2 humanity may be lost from the operation of the avatar 20-1.
- FIG. 2 is a diagram illustrating an example of a situation where communication is hindered.
- an avatar 20-3 whose operation is controlled based on the operation of the user U-2 is displayed on the screen 161-1 of the information processing apparatus 10-1.
- the avatar 20-3 since the user U-2 has placed his hand in front of the face, the avatar 20-3 has also placed his hand in front of the face.
- the avatar 20-1 is used by the user U-1 in order to communicate with the user U-2.
- the avatar 20-1 since the humanity of the movement of the avatar 20-1 increases, it becomes possible to grasp the action of the user U-2 more realistically, so that it is expected that the communication is activated.
- the object whose operation is controlled by the information processing apparatus 10-1 is not limited to a virtual object such as the avatar 20-1.
- the object whose operation is controlled by the information processing apparatus 10-1 may be a real object. That is, the object whose operation is controlled by the information processing apparatus 10-1 may include a real object that exists in the real space, or may include a virtual object that exists in the virtual space.
- FIG. 3 is a diagram illustrating a functional configuration example of the information processing apparatus 10 according to the first embodiment of the present disclosure.
- the information processing apparatus 10 according to the first embodiment of the present disclosure includes a control unit 110, an imaging unit 120, a sound information detection unit 130, a storage unit 140, a communication unit 150, a display unit 160, and A sound information output unit 170 is provided.
- the control unit 110 executes control of each unit of the information processing apparatus 10.
- the control unit 110 includes an operation acquisition unit 111, an operation determination unit 112, a communication control unit 113, a reception determination unit 114, an operation generation unit 115, and an operation control unit 116. Details of these functional blocks will be described later.
- the control part 110 may be comprised by 1 or several CPU (Central Processing Unit; Central processing unit) etc., for example.
- CPU Central Processing Unit
- the control unit 110 is configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
- the imaging unit 120 has a function of obtaining an image by imaging part or all of the body of the user U-1.
- the imaging unit 120 includes a camera (including an image sensor), and obtains an image captured by the camera.
- the number of cameras included in the imaging unit 120 is not particularly limited as long as it is one or more.
- the position where the imaging unit 120 is provided is not particularly limited.
- the imaging unit 120 may be integrated with the information processing apparatus 10 or may exist separately from the information processing apparatus 10.
- the sound information detection unit 130 has a function of obtaining sound information by collecting sound.
- the sound information includes the user U's speech.
- the sound information detection unit 130 is configured by a microphone and collects sound using the microphone.
- the number of sound information detection units 130 is not particularly limited as long as it is 1 or more.
- the position where the sound information detection part 130 is provided is not specifically limited.
- the sound information detection unit 130 may be integrated with the information processing apparatus 10 or may exist separately from the information processing apparatus 10.
- the storage unit 140 includes a memory, and is a recording medium that stores a program executed by the control unit 110 and stores data necessary for executing the program.
- the storage unit 140 temporarily stores data for calculation by the control unit 110.
- the storage unit 140 includes a magnetic storage device, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
- the communication unit 150 includes a communication circuit, and acquires data from another information processing apparatus 10 connected to the communication network via the communication network and provides data to the other information processing apparatus 10. It has a function.
- the communication unit 150 includes a communication interface.
- the display unit 160 has a function of displaying various screens.
- the type of the display unit 160 is not limited.
- the display unit 160 may be a display capable of performing display visible to the user U, and may be a liquid crystal display or an organic EL (Electro-Luminescence) display.
- the sound information output unit 170 has a function of outputting sound information.
- the sound information output unit 170 is configured by a speaker and outputs sound information through the speaker.
- the number of sound information output units 170 is not particularly limited as long as it is 1 or more.
- the position where the sound information output unit 170 is provided is not particularly limited. However, in the first embodiment of the present disclosure, it is desirable that the user U hear the sound information output from the sound information output unit 170, and thus the sound information output unit 170 is integrated with the information processing apparatus 10. It is desirable.
- FIG. 4 is a diagram showing an example of the data flow in the information processing system 1.
- the information processing apparatus 10-1 and the information processing apparatus 10-2 are configured to be able to communicate via the communication network 40.
- the data flow in the processing from the recognition of the operation of the user U-1 to the control of the avatar 20-2 is represented by solid arrows.
- the flow of data in the processing from the recognition of the operation of the user U-2 to the control of the avatar 20-1 is represented by a dashed arrow.
- the operation acquisition unit 111-1 recognizes the operation of the user U-1 from the image and acquires the operation of the user U-1.
- the operation acquisition unit 111-1 also acquires sound information.
- the motion determination unit 112-1 determines the motion of the user U-1 and acquires a motion determination result.
- the communication control unit 113-1 performs control so that the operation, sound information, and operation determination result of the user U-1 are transmitted to the information processing apparatus 10-2 via the communication network 40.
- the communication control unit 113-2 acquires the operation, sound information, and operation determination result of the user U-1 received from the information processing apparatus 10-1 via the communication network 40.
- the reception determination unit 114-2 determines the reception state of the operation of the user U-1 by the communication control unit 113-2.
- the motion generation unit 115-2 generates the motion of the avatar 20-2 based on the motion of the user U-1, the reception determination result and the motion determination result, and the motion control unit 116-2 2 operation is controlled.
- the information processing apparatus 10-2 also outputs sound information.
- the operation acquisition unit 111-2 recognizes the operation of the user U-2 from the image and acquires the operation of the user U-2.
- the operation acquisition unit 111-2 also acquires sound information.
- the motion determination unit 112-2 determines the motion of the user U-2 and acquires a motion determination result.
- the communication control unit 113-2 controls the operation, sound information, and operation determination result of the user U-2 to be transmitted to the information processing apparatus 10-1 via the communication network 40.
- the communication control unit 113-1 acquires the operation, sound information, and operation determination result of the user U-2 received from the information processing apparatus 10-2 via the communication network 40.
- the reception determination unit 114-1 determines the reception state of the operation of the user U-2 by the communication control unit 113-1.
- the motion generation unit 115-1 generates the motion of the avatar 20-1 based on the motion of the user U-2, the reception determination result, and the motion determination result, and the motion control unit 116-1 1 operation is controlled.
- sound information is also output.
- the motion control unit 116-1 controls the signal input when an abnormality in the signal input according to the motion of the user U-2 for controlling the motion of the avatar 20-1 is detected.
- the operation of the avatar 20-1 is controlled so as to continue the predetermined operation until normality is detected.
- the motion control unit 116-1 detects the avatar 20-1 when the abnormality is detected, after the abnormality is detected, until the operation of the avatar 20-1 transitions to a predetermined operation. And at least one first intermediate operation different from the predetermined operation and the predetermined operation is controlled.
- the avatar 20-1 is controlled to perform one intermediate operation.
- the avatar 20-1 may be controlled to perform a plurality of intermediate operations.
- the information processing apparatus 10-2 recognizes the operation of the user U-2.
- a signal for controlling the operation of the avatar 20-1 is transmitted from the user U-2. It may be an action.
- the information processing apparatus 10-1 recognizes the operation of the user U-2.
- a captured image for recognizing the operation of the user U-2 is transmitted from the information processing device 10-2 to the information processing device 10-1, a signal for controlling the operation of the avatar 20-1 May be a captured image for recognizing the operation of the user U-2.
- an abnormality in the input of a signal for controlling the operation of the avatar 20-1 may be detected in any case.
- an abnormality may be detected when the operation of the user U-2 recognized from the captured image does not fall within a predetermined operation range.
- the reception determination unit 114-1 uses a signal for controlling the operation of the avatar 20-1 by the information processing apparatus 10-2 as an example of the external apparatus. May be detected, an abnormality in signal input received from the information processing apparatus 10-2 may be detected.
- the reception determination unit 114-1 receives a signal for controlling the operation of the avatar 20-1 from the information processing apparatus 10-2 as an example of an external apparatus. An abnormality may be detected when the reception state of the signal is a predetermined state.
- the reception determination unit 114-1 has a value for controlling the operation of the avatar 20-1 indicated by the signal for controlling the operation of the avatar 20-1 received from the information processing device 10-2.
- An abnormality may be detected when the same value is continuously displayed a predetermined number of times or more.
- the information processing apparatus 10-2 when a captured image is not acquired by the information processing apparatus 10-2, or when an operation of the user U-2 is not recognized from the captured image, the information processing apparatus 10-2 sends an avatar 20 to the information processing apparatus 10-1.
- a signal for controlling the operation of ⁇ 1 the same signal may be continuously transmitted.
- the signal for controlling the operation of the avatar 20-1 is also considered to change at least slightly.
- An abnormality may be detected when the value for controlling the operation of the avatar 20-1 indicated by the signal is the same continuously for a predetermined number of times.
- the reception determining unit 114-1 may detect an abnormality when a signal for controlling the operation of the avatar 20-1 is not received for a predetermined time.
- the transmission delay of the signal for controlling the operation of the avatar 20-1 for example, the transmission delay in the communication network 40, etc.
- a signal for controlling the operation of the avatar 20-1 does not reach the information processing apparatus 10-1.
- abnormality is detected, and both the first and second examples are detected.
- normality may be detected when not performed. However, it may be detected whether only one of the first example and the second example is abnormal. In such a case, normality may be detected when the abnormality of the first example is not detected. Alternatively, normality may be detected when the abnormality of the second example is not detected.
- the action acquisition unit 111-2 recognizes the action of the user U-2 from the captured image and acquires the action of the user U-2.
- the operation of the user U-2 includes the position and orientation of each recognition target part when the body of the user U-2 is "recognition target” and each part of the user U-2 body is "recognition target part". It's okay.
- each recognition target part may be an eye, a mouth, a hand, a foot, or the like.
- the position and posture of each recognition target part may be represented by the position and rotation angle of each joint.
- the operation determination unit 112-2 determines whether or not the operation of the user U-2 falls within a predetermined range. For example, the motion determination unit 112-2 determines whether the motion of the user U-2 falls within a predetermined range for each recognition target part.
- the predetermined range is not particularly limited. For example, a range that can be assumed as the operation of the user U-2 may be determined in advance as a predetermined range.
- the operation determination unit 112-2 detects an abnormality when the operation of the user U-2 does not fall within a predetermined range.
- the communication control unit 113-2 controls the operation of the user U-2, the sound information, and the determination result by the operation determining unit 112-2 to be transmitted to the information processing apparatus 10-1 via the communication network 40.
- the communication control unit 113-1 acquires the operation, sound information, and operation determination result of the user U-2 received from the information processing apparatus 10-1 via the communication network 40.
- the reception determination unit 114-1 determines the reception state of the operation of the user U-2 by the communication control unit 113-1. For example, as described above, the reception determination unit 114-1 detects an abnormality when the reception state of the operation of the user U-2 is a predetermined state. Subsequently, the motion generation unit 115-1 determines the avatar 20-1 based on the motion determination result by the motion determination unit 112-2, the reception determination result by the reception determination unit 114-1, and the operation of the user U-2. A motion is generated, and the motion control unit 116-2 controls the motion of the avatar 20-1. In the information processing apparatus 10-1, sound information is also output.
- FIG. 5 is a diagram showing an example of operation control of the avatar 20-1 when the normal input of a signal for controlling the operation of the avatar 20-1 is detected.
- an avatar 20-4 is displayed as an example of the avatar 20-1 on the screen 161-1.
- the action acquisition unit 116-1 controls the action of the avatar 20-4 so as to correspond to the action of the user U-2.
- the movement of the user U-2 with both hands is recognized, and the avatar 20-5 controlled to perform the movement with both hands in accordance with the movement of the user U-2 is displayed. ing.
- the motion acquisition unit 116-1 selects the avatar 20-1 when the abnormality is detected after the abnormality is detected and before the operation of the avatar 20-1 transitions to a predetermined operation. And at least one first intermediate operation different from the predetermined operation and the predetermined operation is controlled.
- various operations are assumed as the “predetermined operation” that is the transition destination of the operation of the avatar 20-1 when an abnormality is detected.
- the operation control unit 116-1 detects the first recognition target part of the user U-2 related to the abnormality.
- the movement of the control target part of the avatar 20-1 corresponding to the above may be changed to the first movement included in the predetermined movement.
- the first operation is not particularly limited.
- the first embodiment of the present disclosure in order to make the avatar 20-1 look like a human, a case where an operation in which a control target part fluctuates is used as the first operation will be mainly described.
- FIG. 6 is a diagram showing an example of operation control of the avatar 20-1 when an abnormality is detected exceeding the time T1.
- an avatar 20-6 is displayed on the screen 161-1 as an example of the avatar 20-1.
- the user U-2 places his hand in front of the face, the avatar 20-6 has also placed his hand in front of the face.
- the action acquisition unit 116-1 performs the operation of the control target part “the hand of the avatar 20-6” corresponding to the first recognition target part “the hand of the user U-2” in which the abnormality is detected, The operation is changed to “moving operation”. Referring to FIG. 6, an avatar 20-8 that has been changed to a motion that shakes the hand is displayed.
- the motion acquisition unit 116-1 determines the control target part “Avatar 20-6's hand” based on the position in the captured image of the first recognition target part “User U-2's hand” where the abnormality is detected.
- the operation may be changed to the first operation “operation that fluctuates”.
- the abnormality of the first recognition target part “user U-2's hand” is detected at the face position of the user U-2.
- the motion acquisition unit 116-1 positions the control target region “the hand of the avatar 20-8” at a position away from the face position.
- the motion acquisition unit 116-1 does not change until the motion of the avatar 20-6 transitions to the avatar 20-8 (that is, after the abnormality is detected, until the transition to the first motion “swinging motion”). ),
- the avatar 20-6 is controlled to perform at least one first intermediate operation different from the operation and the predetermined operation of the avatar 20-1 when an abnormality is detected. Referring to FIG. 6, the position of the hand of the avatar 20-7 is controlled to be intermediate between the position of the hand and the position of the hand of the avatar 20-8, and the orientation of the hand is the position of the avatar 20-6. An avatar 20-7 controlled so as to be intermediate between the direction of the hand and the direction of the hand of the avatar 20-8 is displayed.
- the first operation may be determined without depending on the user U-2, or may be determined depending on the user U-2.
- the first motion and the motion of the second recognition target part are associated in advance with the user U-2.
- the operation of the control target part is changed to the first action. You may make a transition.
- the first action of the control target part of the user U-2 and the action of the second recognition target part are associated in advance.
- the motion generation unit 115-1 What is necessary is just to link
- the user U-2 has a habit of simultaneously performing the action of lowering the hand and the action of turning the eyes upward, and the first part of the control target part “hand” is associated with the user U-2.
- a case is assumed in which the operation “operation to lower the hand” and the operation “operation to turn up” of the second recognition target region “eye” are associated with each other.
- time T2 a second time longer than time T1
- the operation control unit 116-1 may transition the entire operation of the avatar 20-1 to the second operation included in the predetermined operation.
- the second operation may be referred to as “standard state”.
- the second operation is not particularly limited.
- the operation of blinking both eyes and the operation of shaking both shoulders to the left and right are performed. The case of using will be mainly described.
- FIG. 7 is a diagram illustrating an example of operation control of the avatar 20-1 when an abnormality is detected exceeding the time T2.
- an avatar 20-9 is displayed as an example of the avatar 20-1 on the screen 161-1.
- the operation of the control target part “Avatar 20-9's hand” corresponding to the recognition target part “User U-2's hand” in which the abnormality exceeds time T1 is detected as the first action “ It has been transitioned to “Swinging motion”.
- the motion acquisition unit 116-1 shifts the overall motion of the avatar 20-9 to the second motion (standard state) “motion that blinks both eyes and motion that shakes the upper body from side to side”.
- the motion acquisition unit 116-1 shifts the overall motion of the avatar 20-9 to the second motion (standard state) “motion that blinks both eyes and motion that shakes the upper body from side to side”.
- avatars 20-11 and 20-12 that have been transitioned to an action of blinking both eyes and an action of shaking the upper body to the left and right are displayed.
- the action acquisition unit 116-1 performs the second action (standard state) on the entire action of the avatar 20-9 based on the position in the captured image of the recognition target “user U-2” where the abnormality is detected. It is good to make a transition to “an action that blinks both eyes and an action that shakes the upper body from side to side”. In the example shown in FIG. 7, the abnormality of the recognition target “user U-2” is detected at the center of the captured image. Therefore, the action acquisition unit 116-1 positions the control target “avatars 20-11 and 20-12” at the center of the screen 161-1.
- the motion acquisition unit 116-1 determines that the second motion (standard state) “both eyes until the motion of the avatar 20-9 transitions to the avatars 20-11 and 20-12 (that is, after the abnormality is detected).
- the operation of blinking and moving the upper body to the left and right ") the avatar 20-9 is changed to at least one first operation different from the operation of the avatar 20-9 when an abnormality is detected and the predetermined operation. 1 is controlled to perform the intermediate operation.
- the hand position is controlled to be intermediate between the hand position of the avatar 20-9 and the hand positions of the avatars 20-11 and 20-12.
- An avatar 20-10 controlled to be intermediate between the hand orientation of 20-9 and the hand orientation of the avatars 20-11 and 20-12 is displayed.
- the case where one operation is used as the second operation (standard state) has been mainly described.
- a plurality of operations may be used as the second operation (standard state). That is, when the second action (standard state) includes a plurality of different actions, the action acquisition unit 116-1 determines that the entire action of the avatar 20-9 is detected when an abnormality is detected exceeding the time T2.
- the overall operation of the avatar 20-9 may be controlled so that it can be switched between a plurality of operations (for example, every predetermined time). Then, the avatars 20-11 and 20-12 are expected to look more human.
- the second operation may be selected from a plurality of operations. That is, when an abnormality is detected exceeding time T2, the action acquisition unit 116-1 selects a second action (standard state) from a plurality of actions based on the action of the user U-2 in which the abnormality is detected. (For example, the operation closest to the operation of the user U-2 in which an abnormality is detected is selected), and the entire operation of the avatar 20-9 may be transitioned to the selected second operation (standard state). .
- the second operation may be determined without depending on the user U-2, or may be determined depending on the user U-2.
- the action generation unit 115-1 may generate the second action (standard state) based on the action state of the user U-2 when the action state of the user U-2 satisfies a predetermined condition. . Then, it becomes possible to reflect the habit of the user U-2 in the second operation (standard state).
- the action state of the user U-2 may include the movement of the user U-2 and may include the amount of speech of the user U-2.
- the predetermined conditions are not particularly limited.
- the predetermined condition may include at least one of a condition that the utterance amount of the user U-2 is smaller than the predetermined amount and a condition that the movement of the user U-2 is smaller than the predetermined movement.
- the operation of the avatar 20-1 when an abnormality in the input of a signal for controlling the operation of the avatar 20-1 is detected has been mainly described. However, it may be assumed that once an abnormality is detected, normality is detected again. More specifically, it is assumed that the operation determination result by the operation determination unit 112-2 is normal and the reception determination result by the reception determination unit 114-1 is normal. Even in such a case, it is preferable that the operation of the avatar 20-1 be controlled so as to gradually return from the operation when the abnormality is detected to the operation when the normality is detected. Then, it is expected that the avatar 20-1 looks more human.
- the motion control unit 116-1 detects the normality of the signal input for controlling the operation of the avatar 20-1 after the abnormality of the signal input for controlling the operation of the avatar 20-1 is detected. If the action of the avatar 20-1 is changed from the predetermined action to the action based on the action of the user U-2, the action of the avatar 20-1 is changed from at least one second action different from the predetermined action. It is good to control to perform the intermediate operation.
- FIG. 8 is a flowchart showing an example of the operation of the operation control unit 116-1 in the information processing apparatus 10-1. As shown in FIG. 8, first, the motion control unit 116-1 sets the position and posture of each part of the avatar to an initial state (S11).
- the motion control unit 116-1 performs the avatar corresponding to each recognition target part.
- the position and posture of this part are controlled according to the position and posture of the corresponding recognition target part (S13).
- the operation control unit 116-1 shifts the operation to S12.
- the motion control unit 116-1 determines the position of the avatar part corresponding to the recognition target part whose input abnormality does not exceed the time T1. And the posture are controlled according to the position and posture of the corresponding recognition target part (S15). Then, the operation control unit 116-1 performs control so that the avatar part corresponding to the recognition target part whose input is abnormal after the time T1 performs the fluctuation operation at the position corresponding to the abnormality detection position (S16). Then, the operation control unit 116-1 shifts the operation to S12.
- the motion control unit 116-1 sets the position and posture of the avatar part corresponding to each recognition target part to the standard state. It sets and controls so that the site
- FIG. 9 is a diagram illustrating a configuration example of an information processing system according to the second embodiment of the present disclosure.
- the information processing system according to the second embodiment of the present disclosure includes an information processing apparatus 10-1.
- the information processing apparatus 10-1 is used by the user U-1.
- the information processing system may not include the information processing apparatus 10-2.
- an avatar 20-2 as an example of a virtual object is displayed on the screen 161-1 of the information processing apparatus 10-1.
- the avatar 20-1 is displayed.
- the information processing apparatus 10-1 controls the operation of the avatar 20-2 based on the operation of the user U-1.
- the user U-1 can see the avatar 20-2 controlled based on the operation of the user U-1.
- FIG. 10 is a diagram illustrating a functional configuration example of the information processing apparatus 10 according to the second embodiment of the present disclosure.
- the information processing apparatus 10 according to the second embodiment of the present disclosure does not include the communication unit 150 unlike the information processing apparatus 10 according to the second embodiment of the present disclosure.
- the communication control unit 113 and the reception determination unit 114 may not be provided.
- the processing executed by the operation generation unit 115 of the other information processing apparatus 10-2 in the first embodiment of the present disclosure is the same as the operation of the information processing apparatus 10-1 in the second embodiment of the present disclosure. It is executed by the generation unit 115.
- the processing executed by the operation control unit 116 of the other information processing apparatus 10-2 in the first embodiment of the present disclosure is the same as that of the information processing apparatus 10-1 in the second embodiment of the present disclosure. It is executed by the operation control unit 116.
- FIG. 11 is a diagram illustrating a configuration example of an information processing system according to the third embodiment of the present disclosure.
- the information processing system according to the third embodiment of the present disclosure includes an information processing device 10-1 and a robot 30-1.
- the information processing apparatus 10-1 is used by the user U-1.
- the information processing system may not include the information processing apparatus 10-2.
- the real object is not limited to the robot 30-1.
- the real object may be an agent.
- the information processing apparatus 10-1 controls the operation of the robot 30-1 based on the operation of the user U-1.
- the user U-1 can see the robot 30-1 controlled based on the operation of the user U-1.
- FIG. 12 is a diagram illustrating a functional configuration example of the information processing apparatus 10 according to the third embodiment of the present disclosure.
- the information processing apparatus 10 according to the third embodiment of the present disclosure is different from the information processing apparatus 10 according to the second embodiment of the present disclosure, and includes a display unit 160 and a sound information output unit 170.
- the operation control signal and sound information are output to the robot 30.
- the processing executed by the operation generation unit 115 of the other information processing apparatus 10-2 in the first embodiment of the present disclosure is the same as the operation of the information processing apparatus 10-1 in the third embodiment of the present disclosure. It is executed by the generation unit 115.
- the processing executed by the operation control unit 116 of the other information processing apparatus 10-2 in the second embodiment of the present disclosure is the same as the operation of the information processing apparatus 10-1 in the third embodiment of the present disclosure. It is executed by the control unit 116.
- FIG. 13 is a diagram illustrating an example of operation control of the robot 30-1 when the normal input of a signal for controlling the operation of the robot 30-1 is detected.
- a robot 30-4 exists as an example of the robot 30-1.
- the motion acquisition unit 116 controls the motion of the robot 30-4 so as to correspond to the motion of the user U-1.
- the robot 30-5 that recognizes the action of the user U-1 raising both hands and is controlled to perform the action of raising both hands in accordance with the action of the user U-1. ing.
- a case is assumed in which an abnormality in the input of a signal for controlling the operation of the robot 30-1 is detected. More specifically, it is assumed that the operation determination result by the operation determination unit 112 is abnormal or the reception determination result by the reception determination unit 114 is abnormal. In such a case, the motion acquisition unit 116 determines whether the robot 30-1 operates when the abnormality is detected before the operation of the robot 30-1 transitions to a predetermined operation after the abnormality is detected. Control is performed to perform at least one first intermediate operation different from the predetermined operation.
- the motion control unit 116 corresponds to the first recognition target part of the robot 30-1 related to the abnormality when the abnormality is detected exceeding the time T1.
- the operation of the control target part of the robot 30-1 may be changed to the first operation included in the predetermined operation.
- the first operation is not particularly limited as in the first embodiment of the present disclosure.
- FIG. 14 is a diagram illustrating an example of operation control of the robot 30-1 when an abnormality is detected exceeding the time T1.
- a robot 30-6 exists as an example of the robot 30-1. However, since the user U-1 has placed his hand in front of the face, the robot 30-6 has also placed his hand in front of the face.
- the motion acquisition unit 116 performs the operation of the control target part “the hand of the robot 30-6” corresponding to the first recognition target part “the hand of the user U-1” where the abnormality is detected as the first action. Transition to “swinging motion”. Referring to FIG. 14, there is a robot 30-8 that has been changed to a motion that shakes the hand.
- the action acquisition unit 116 performs the operation of the control target part “the hand of the robot 30-6” based on the position in the captured image of the first recognition target part “the hand of the user U-1” where the abnormality is detected. It is good to make a transition to the first operation “moving operation”.
- the abnormality of the first recognition target part “user U-1's hand” is detected at the face position of the user U-1. Therefore, the motion acquisition unit 116 positions the control target part “the hand of the robot 30-8” at a position away from the face position.
- the motion acquisition unit 116 does not change until the motion of the robot 30-6 transitions to the robot 30-8 (that is, from when an abnormality is detected until the transition to the first motion “swaying motion”).
- the robot 30-6 is controlled to perform at least one first intermediate operation different from the operation and the predetermined operation of the robot 30-1 when an abnormality is detected. Referring to FIG. 14, the position of the hand of the robot 30-7 is controlled to be intermediate between the position of the hand and the position of the hand of the robot 30-8, and the orientation of the hand is determined by the robot 30-6. There is a robot 30-7 that is controlled to be intermediate between the direction of the hand and the direction of the hand of the robot 30-8.
- the operation control unit 116-1 may transition the entire operation of the robot 30-1 to the second operation (standard state) included in the predetermined operation. Similar to the first embodiment of the present disclosure, the second operation (standard state) is not particularly limited.
- FIG. 15 is a diagram illustrating an example of operation control of the robot 30-1 when an abnormality is detected over time T2.
- a robot 30-9 as an example of the robot 30-1.
- the operation of the control target part “the hand of the robot 30-9” corresponding to the recognition target part “the hand of the user U-1” in which the abnormality exceeds the time T1 and the abnormality is detected is the first operation “ It has been transitioned to “Swinging motion”.
- the motion acquisition unit 116-1 shifts the overall motion of the robot 30-9 to the second motion (standard state) “a motion that blinks both eyes and a motion that shakes the upper body from side to side”.
- robots 30-11 and 30-12 that have been transitioned to an action of blinking both eyes and an action of shaking the upper body to the left and right are displayed.
- the motion acquisition unit 116 performs the second motion (standard state) “both eyes” based on the position in the captured image of the recognition target “user U-1” where the abnormality is detected. It is good to make a transition to an operation of blinking and an operation of shaking the upper body from side to side. For example, when an abnormality of the recognition target “user U-1” is detected in the center of the captured image, the motion acquisition unit 116 positions the control target “robots 30-11 and 30-12” corresponding to the center of the captured image. May be located.
- the motion acquisition unit 116 also blinks both eyes until the motion of the robot 30-9 transitions to the robots 30-11 and 30-12 (that is, the second motion (standard state) after the abnormality is detected).
- Control to perform intermediate operation Referring to FIG. 15, the position of the hand is controlled to be intermediate between the position of the hand of the robot 30-9 and the position of the hands of the robots 30-11 and 30-12, and the orientation of the hand is There is a robot 30-10 that is controlled so as to be intermediate between the direction of the hand of 30-9 and the direction of the hands of the robots 30-11 and 30-12.
- FIG. 16 is a flowchart showing an example of the operation of the operation control unit 116 in the information processing apparatus 10-1. As shown in FIG. 16, first, the motion control unit 116 sets the position and posture of each part of the robot to an initial state (S21).
- the motion control unit 116 performs the robot part corresponding to each recognition target part. Are controlled according to the position and posture of the corresponding recognition target part (S23). Then, the operation control unit 116 shifts the operation to S22.
- the motion control unit 116 determines the position and orientation of the robot part corresponding to the recognition target part whose input abnormality does not exceed the time T1. Are controlled according to the position and orientation of the corresponding recognition target part (S25). Then, the operation control unit 116 performs control so that the part of the robot corresponding to the recognition target part whose input is abnormal after the time T1 performs the fluctuation operation at the position corresponding to the abnormality detection position (S26). Then, the operation control unit 116 shifts the operation to S22.
- the motion control unit 116 sets the position and posture of the robot part corresponding to each recognition target part to the standard state. Then, control is performed so that the part fluctuates (S27). Then, the operation control unit 116 shifts the operation to S22.
- FIG. 17 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to the embodiment of the present disclosure.
- the information processing apparatus 10 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905.
- the information processing apparatus 10 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
- the information processing apparatus 10 may include an imaging device 933 and a sensor 935 as necessary.
- the information processing apparatus 10 may include a processing circuit called a DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.
- DSP Digital Signal Processor
- ASIC Application Specific Integrated Circuit
- the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
- the ROM 903 stores programs and calculation parameters used by the CPU 901.
- the RAM 905 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
- the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
- PCI Peripheral Component Interconnect / Interface
- the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
- the input device 915 may include a microphone that detects the user's voice.
- the input device 915 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 10.
- the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data to the information processing device 10 or instruct a processing operation.
- An imaging device 933 which will be described later, can also function as an input device by imaging a user's hand movement, a user's finger, and the like. At this time, the pointing position may be determined according to the movement of the hand or the direction of the finger.
- the output device 917 is a device that can notify the user of the acquired information visually or audibly.
- the output device 917 includes, for example, a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display, a projector, a hologram display device, a sound output device such as a speaker and headphones, As well as a printer device.
- the output device 917 outputs the result obtained by the processing of the information processing device 10 as a video such as text or an image, or outputs it as a sound such as voice or sound.
- the output device 917 may include a light or the like to brighten the surroundings.
- the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 10.
- the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
- the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
- the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 10.
- the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
- the drive 921 writes a record in the attached removable recording medium 927.
- the connection port 923 is a port for directly connecting a device to the information processing apparatus 10.
- the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
- the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
- Various data can be exchanged between the information processing apparatus 10 and the external connection device 929 by connecting the external connection device 929 to the connection port 923.
- the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
- the communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
- the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
- the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
- the communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
- the imaging device 933 uses various members such as an imaging element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the imaging of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image.
- the imaging device 933 may capture a still image or may capture a moving image.
- the sensor 935 is various sensors such as a distance measuring sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, and a sound sensor.
- the sensor 935 acquires information about the state of the information processing apparatus 10 itself, such as the attitude of the housing of the information processing apparatus 10, and information about the surrounding environment of the information processing apparatus 10, such as brightness and noise around the information processing apparatus 10.
- the sensor 935 may include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the apparatus.
- GPS Global Positioning System
- the normality of the signal input is detected when an abnormality in the signal input according to the user's motion for controlling the motion of the object is detected.
- a motion control unit that controls the motion of the object so as to continue the predetermined motion until the motion control portion transitions the motion of the object to the predetermined motion after detecting an abnormality in the signal input.
- An information processing apparatus that controls the object to perform at least one first intermediate operation different from the object operation and the predetermined operation when an abnormality in the signal input is detected is provided. Is done. According to such a configuration, it is possible to increase the human nature of the motion of the object.
- the position of each component is not particularly limited as long as the operation of the information processing apparatus 10-1 described above is realized.
- Part of the processing of each unit in the information processing apparatus 10-1 may be performed by the information processing apparatus 10-2, or may be performed by a server apparatus (not shown).
- some or all of the blocks included in the control unit 110 in the information processing apparatus 10-1 may exist in the information processing apparatus 10-2 or a server apparatus (not shown).
- part or all of the motion acquisition unit 111 and the motion determination unit 112 in the information processing apparatus 10-1 may exist in the information processing apparatus 10-2 or a server device (not shown).
- each component is not particularly limited as long as the operation of the information processing apparatus 10-2 described above is realized.
- a part of the processing of each unit in the information processing apparatus 10-2 may be performed by the information processing apparatus 10-1, or may be performed by a server apparatus (not shown).
- some or all of the blocks of the control unit 110 in the information processing apparatus 10-2 may exist in the information processing apparatus 10-1 or a server apparatus (not shown).
- part or all of the motion acquisition unit 111 and the motion determination unit 112 in the information processing apparatus 10-2 may exist in the information processing apparatus 10-1 or a server device (not shown).
- the following configurations also belong to the technical scope of the present disclosure.
- An operation control unit for controlling The motion control unit is configured to move the object when the signal input abnormality is detected between the detection of the signal input abnormality and the transition of the object operation to the predetermined operation. And at least one first intermediate operation different from the predetermined operation is controlled.
- Information processing device The predetermined operation includes a first operation; When the abnormality in the signal input is detected over a first time, the operation control unit is configured to control the object corresponding to the first recognition target part of the user related to the signal input abnormality.
- the information processing apparatus transition from the first operation to the first operation, The information processing apparatus according to (1). (3) When the signal input abnormality is detected beyond the first time, the operation control unit performs the operation of the control target part based on the position of the first recognition target part in the captured image. Transition to the operation of 1.
- the information processing apparatus according to (2).
- the operation controller is In the case where the first action and the action of the second recognition target part of the user are related, the abnormality of the signal input is detected over the first time; and When the operation of the second recognition target part is recognized, the operation of the control target part is shifted to the first action.
- the information processing apparatus according to (2) or (3).
- the information processing apparatus includes: When the operation of the first recognition target part and the operation of the second recognition target part are recognized from a single captured image, the operation of the first recognition target part and the second recognition target part An action generation unit for associating the action with The information processing apparatus according to (4).
- the predetermined operation includes a second operation;
- the motion control unit transitions the entire motion of the object to the second motion when an abnormality in the signal input is detected over a second time longer than the first time.
- the information processing apparatus according to any one of (2) to (5).
- the motion control unit performs the entire motion of the object based on the position of the first recognition target part in the captured image. Transition to the operation of The information processing apparatus according to (6).
- the information processing apparatus includes: An operation generating unit that generates the second operation based on the user behavior state when the user behavior state satisfies a predetermined condition;
- the predetermined condition includes at least one of a condition that the utterance amount of the user is smaller than a predetermined amount and a condition that the movement of the user is smaller than a predetermined movement.
- the second operation includes a plurality of different operations, The motion control unit performs the overall motion of the object so that the overall motion of the object is switched between the plurality of motions when an abnormality in the signal input is detected beyond the second time. Control, The information processing apparatus according to any one of (6) to (9).
- the motion control unit transitions the overall motion of the object to the second motion selected based on the motion of the user when an abnormality in the signal input is detected beyond the second time.
- the information processing apparatus according to any one of (6) to (9).
- the information processing apparatus according to any one of (1) to (11).
- the information processing apparatus includes: A reception determination unit that detects an abnormality of the signal input received from an external device that generates the signal input according to the user's operation; The information processing apparatus according to any one of (1) to (11).
- the reception determination unit detects an abnormality in the signal input when a value for controlling the movement of the object indicated by the signal input received from the external device is the same value continuously for a predetermined number of times or more.
- the reception determination unit detects an abnormality in the signal input when the signal input is not received beyond a predetermined time.
- the motion control unit may change the motion of the object from the predetermined motion based on the motion of the user when the normality of the signal input is detected after the abnormality of the signal input is detected.
- the object is controlled to perform at least one second intermediate operation different from the predetermined operation;
- the information processing apparatus according to any one of (1) to (15).
- the object includes a real object that exists in real space, The information processing apparatus according to any one of (1) to (16).
- the object includes a virtual object that exists in a virtual space, The information processing apparatus according to any one of (1) to (16).
- the processor detects the object movement when the signal input abnormality is detected and the predetermined period from when the signal input abnormality is detected by the processor until the movement of the object transitions to the predetermined movement. Controlling to perform at least one first intermediate operation different from the operation of Information processing method.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
Abstract
【課題】オブジェクトの動作の人間らしさを高めることが望まれる。 【解決手段】オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、オブジェクトの動作を制御する技術が知られている。オブジェクトの例としては、実空間に存在する実オブジェクトおよび仮想空間に存在する仮想オブジェクトなどが挙げられる。例えば、仮想オブジェクトの例としては、ユーザ自身に対応するキャラクタ(以下、「アバター」とも言う。)が挙げられる。
オブジェクトの動作を制御する技術の一例として、ユーザによるコントローラの操作に基づいて、仮想オブジェクトの例としてのアバターを制御する技術が開示されている(例えば、特許文献1参照)。オブジェクトの動作が、ユーザの動作に応じて正常に制御されることによって、オブジェクトが人間らしく振る舞うようになる。
しかし、オブジェクトの動作を制御するための信号の入力の異常が検出される場合があり得る。かかる場合には、ユーザの動作に応じたオブジェクトの動作の制御が困難になるため、オブジェクトの動作から人間らしさが損なわれる可能性がある。そこで、オブジェクトの動作の人間らしさを高めることが可能な技術が提供されることが望まれる。
本開示によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。
本開示によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御することを含み、プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、情報処理方法が提供される。
本開示によれば、コンピュータを、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトを制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、オブジェクトの動作の人間らしさを高めることが可能な技術が提供されることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.システム構成例
1.2.情報処理装置の機能構成例
1.3.情報処理システムの機能詳細
2.第2の実施形態
2.1.システム構成例
2.2.情報処理装置の機能構成例
2.3.情報処理システムの機能詳細
3.第3の実施形態
3.1.システム構成例
3.2.情報処理装置の機能構成例
3.3.情報処理システムの機能詳細
4.ハードウェア構成例
5.むすび
1.第1の実施形態
1.1.システム構成例
1.2.情報処理装置の機能構成例
1.3.情報処理システムの機能詳細
2.第2の実施形態
2.1.システム構成例
2.2.情報処理装置の機能構成例
2.3.情報処理システムの機能詳細
3.第3の実施形態
3.1.システム構成例
3.2.情報処理装置の機能構成例
3.3.情報処理システムの機能詳細
4.ハードウェア構成例
5.むすび
<1.第1の実施形態>
まず、本開示の第1の実施形態について説明する。
まず、本開示の第1の実施形態について説明する。
[1.1.システム構成例]
まず、図面を参照しながら、本開示の第1の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。図1に示したように、本開示の第1の実施形態に係る情報処理システム1は、情報処理装置10-1および情報処理装置10-2を備える。情報処理装置10-1は、ユーザU-1によって利用され、情報処理装置10-2は、ユーザU-2によって利用される。
まず、図面を参照しながら、本開示の第1の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の第1の実施形態に係る情報処理システムの構成例を示す図である。図1に示したように、本開示の第1の実施形態に係る情報処理システム1は、情報処理装置10-1および情報処理装置10-2を備える。情報処理装置10-1は、ユーザU-1によって利用され、情報処理装置10-2は、ユーザU-2によって利用される。
なお、本開示の第1の実施形態においては、情報処理装置10-1がユーザU-1の頭部に装着されるHMD(ヘッドマウントディスプレイ)である場合を主に説明する。しかし、情報処理装置10-1はHMDに限定されない。例えば、情報処理装置10-1は、スマートフォンであってもよいし、タブレット端末であってもよい。同様に、本開示の第1の実施形態においては、情報処理装置10-2もHMDである場合を主に説明するが、情報処理装置10-2は、スマートフォンであってもよいし、タブレット端末であってもよい。
図1に示した例では、情報処理装置10-1の画面161-1に、仮想オブジェクトの例としてのアバター20-1が表示されている。ここで、情報処理装置10-1の画面161-1に表示される仮想オブジェクトは、アバター20-1に限定されない。例えば、情報処理装置10-1の画面161-1に表示される仮想オブジェクトは、エージェントなどであってもよい。情報処理装置10-1は、アバター20-1の動作をユーザU-2の動作に基づいて制御する。
ユーザU-2の動作は、どのようにして認識されてもよい。本開示の第1の実施形態においては、ユーザU-2の動作が、情報処理装置10-2によって撮像された画像(以下、単に「撮像画像」とも言う。)から認識される場合を主に想定する。また、本開示の第1の実施形態においては、ユーザU-2の動作が、情報処理装置10-2によって認識される場合を主に想定する。しかし、ユーザU-2の動作は、情報処理装置10-1によって認識されてもよい。
また、本開示の第1の実施形態においては、ユーザU-2によって発せられた音声が情報処理装置10-1から出力される例を主に想定する。これによって、ユーザU-1は、ユーザU-2とのコミュニケーションをより詳細に図ることが可能である。例えば、ユーザU-2によって発せられた音声は、情報処理装置10-2によって検出される。しかし、ユーザU-2によって発せられた音声は、情報処理装置10-1から出力されなくてもよい。
同様に、図1に示した例では、情報処理装置10-2の画面161-2に、仮想オブジェクトの例としてのアバター20-2が表示されている。ここで、情報処理装置10-2の画面161-2に表示される仮想オブジェクトは、アバター20-2に限定されない。例えば、情報処理装置10-2の画面161-2に表示される仮想オブジェクトは、エージェントなどであってもよい。情報処理装置10-2は、アバター20-2の動作をユーザU-1の動作に基づいて制御する。
ユーザU-1の動作は、どのようにして認識されてもよい。本開示の第1の実施形態においては、ユーザU-1の動作が、情報処理装置10-1によって撮像された画像(以下、単に「撮像画像」とも言う。)から認識される場合を主に想定する。また、本開示の第1の実施形態においては、ユーザU-1の動作が、情報処理装置10-1によって認識される場合を主に想定する。しかし、ユーザU-1の動作は、情報処理装置10-2によって認識されてもよい。
また、本開示の第1の実施形態においては、ユーザU-1によって発せられた音声が情報処理装置10-2から出力される例を主に想定する。これによって、ユーザU-2は、ユーザU-1とのコミュニケーションをより詳細に図ることが可能である。例えば、ユーザU-1によって発せられた音声は、情報処理装置10-1によって検出される。しかし、ユーザU-1によって発せられた音声は、情報処理装置10-2から出力されなくてもよい。
なお、ユーザU-2の動作の認識からアバター20-1の制御までの機能と、ユーザU-1の動作の認識からアバター20-2の制御までの機能とは同様である。そのため、以下においては、両機能を代表して、ユーザU-2の動作の認識からアバター20-1の制御までの機能について説明する場合がある。ユーザU-1は、ユーザU-2の動きに基づいて動きが制御されたアバター20-1を見ることによって、ユーザU-2とのコミュニケーションを図ることが可能である。
ここで、アバター20-1の動作を制御するための信号の入力の異常が検出される場合があり得る。かかる場合には、ユーザU-2の動作に応じたアバター20-1の動作の制御が困難になるため、アバター20-1の動作から人間らしさが損なわれる可能性がある。
さらに、ユーザU-2の動作に応じたアバター20-1の動作の制御が困難になった結果として、コミュニケーションが阻害されてしまうような状況も生じ得る。かかる状況の例について説明する。
図2は、コミュニケーションが阻害されてしまう状況の例を示す図である。図2を参照すると、情報処理装置10-1の画面161-1には、ユーザU-2の動作に基づいて動作が制御されたアバター20-3が表示されている。特に、図2に示した例では、ユーザU-2が顔の前に手を位置させているため、アバター20-3も、顔の前に手を位置させてしまっている。
この状態において、アバター20-3の動作を制御するための信号の入力の異常が検出された場合には、アバター20-3が顔の前に手を位置させたままの状態が維持されてしまうといった状況が生じ得る。このようにアバター20-3の顔が手で覆われてしまった場合には、ユーザU-1がアバター20-3の表情を認識しにくくなるため、ユーザU-2との間のコミュニケーションが阻害されてしまうといった状況が生じ得る。
そこで、アバター20-1の動作の人間らしさを高めることが可能な技術が提供されることが望まれる。特に、本開示の第1の実施形態においては、ユーザU-2との間でコミュニケーションを図るためにユーザU-1によってアバター20-1が利用される場合を想定する。かかる場合には、アバター20-1の動作の人間らしさが高まることによって、ユーザU-2の行動をよりリアルに把握することが可能になるため、コミュニケーションが活性化されることが期待される。
なお、情報処理装置10-1によって動作が制御されるオブジェクトは、アバター20-1などといった仮想オブジェクトに限定されない。例えば、情報処理装置10-1によって動作が制御されるオブジェクトは、実オブジェクトであってもよい。すなわち、情報処理装置10-1によって動作が制御されるオブジェクトは、実空間に存在する実オブジェクトを含んでもよいし、仮想空間に存在する仮想オブジェクトを含んでもよい。
以上、本開示の第1の実施形態に係る情報処理システム1の構成例について説明した。
[1.2.情報処理装置の機能構成例]
続いて、本開示の第1の実施形態に係る情報処理装置10の機能構成例について説明する。図3は、本開示の第1の実施形態に係る情報処理装置10の機能構成例を示す図である。図3に示したように、本開示の第1の実施形態に係る情報処理装置10は、制御部110、撮像部120、音情報検出部130、記憶部140、通信部150、表示部160および音情報出力部170を有している。
続いて、本開示の第1の実施形態に係る情報処理装置10の機能構成例について説明する。図3は、本開示の第1の実施形態に係る情報処理装置10の機能構成例を示す図である。図3に示したように、本開示の第1の実施形態に係る情報処理装置10は、制御部110、撮像部120、音情報検出部130、記憶部140、通信部150、表示部160および音情報出力部170を有している。
制御部110は、情報処理装置10の各部の制御を実行する。制御部110は、動作取得部111、動作判定部112、通信制御部113、受信判定部114、動作生成部115および動作制御部116を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部110は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部110がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
撮像部120は、ユーザU-1の身体の一部または全部を撮像することによって画像を得る機能を有する。以下では、撮像部120によってユーザU1の上半身が撮像される場合を主に想定する。例えば、撮像部120は、カメラ(イメージセンサを含む)を含んでおり、カメラによって撮像された画像を得る。撮像部120に含まれるカメラの数は1以上であれば特に限定されない。そして、撮像部120が設けられる位置も特に限定されない。例えば、撮像部120は、情報処理装置10と一体化されていてもよいし、情報処理装置10とは別体として存在していてもよい。
音情報検出部130は、集音によって音情報を得る機能を有する。ユーザUが発話を行っている場合には、音情報にユーザUの発話が含まれる。例えば、音情報検出部130は、マイクロフォンによって構成されており、マイクロフォンによって集音を行う。音情報検出部130の数は1以上であれば特に限定されない。そして、音情報検出部130が設けられる位置も特に限定されない。例えば、音情報検出部130は、情報処理装置10と一体化されていてもよいし、情報処理装置10とは別体として存在していてもよい。
記憶部140は、メモリを含んで構成され、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部140は、制御部110による演算のためにデータを一時的に記憶する。記憶部140は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
通信部150は、通信回路を含んで構成され、通信ネットワークを介して通信ネットワークに接続された他の情報処理装置10からのデータの取得および当該他の情報処理装置10へのデータの提供を行う機能を有する。例えば、通信部150は、通信インターフェースにより構成される。
表示部160は、各種の画面を表示する機能を有する。表示部160の種類は限定されない。例えば、表示部160は、ユーザUに視認可能な表示を行うことが可能なディスプレイであればよく、液晶ディスプレイであってもよいし、有機EL(Electro-Luminescence)ディスプレイであってもよい。
音情報出力部170は、音情報を出力する機能を有する。例えば、音情報出力部170は、スピーカによって構成されており、スピーカによって音情報を出力する。音情報出力部170の数は1以上であれば特に限定されない。そして、音情報出力部170が設けられる位置も特に限定されない。しかし、本開示の第1の実施形態においては、音情報出力部170から出力される音情報をユーザUに聞かせるのが望ましいため、音情報出力部170は、情報処理装置10と一体化されているのが望ましい。
以上、本開示の第1の実施形態に係る情報処理装置10の機能構成例について説明した。
[1.3.情報処理システムの機能詳細]
続いて、本開示の第1の実施形態に係る情報処理システム1の機能詳細について説明する。
続いて、本開示の第1の実施形態に係る情報処理システム1の機能詳細について説明する。
図4は、情報処理システム1におけるデータの流れの例を示す図である。図4を参照すると、情報処理装置10-1と情報処理装置10-2とは、通信ネットワーク40を介して通信可能に構成されている。図4においては、ユーザU-1の動作の認識からアバター20-2の制御までの処理におけるデータの流れが、実線の矢印にて表されている。一方、ユーザU-2の動作の認識からアバター20-1の制御までの処理におけるデータの流れが、破線の矢印にて表されている。
まず、図4において実線の矢印によって表されているデータの流れについて概要を説明する。情報処理装置10-1において、動作取得部111-1は、画像からユーザU-1の動作を認識してユーザU-1の動作を取得する。また、動作取得部111-1は、音情報も取得する。続いて、動作判定部112-1は、ユーザU-1の動作を判定して動作判定結果を取得する。通信制御部113-1は、ユーザU-1の動作、音情報および動作判定結果が、通信ネットワーク40を介して情報処理装置10-2に送信されるように制御する。
情報処理装置10-2において、通信制御部113-2は、通信ネットワーク40を介して情報処理装置10-1から受信された、ユーザU-1の動作、音情報および動作判定結果を取得する。また、受信判定部114-2は、通信制御部113-2によるユーザU-1の動作の受信状態を判定する。続いて、動作生成部115-2は、ユーザU-1の動作、受信判定結果および動作判定結果に基づいて、アバター20-2の動作を生成し、動作制御部116-2は、アバター20-2の動作を制御する。情報処理装置10-2においては、音情報も出力される。
続いて、図4において破線の矢印によって表されているデータの流れについて概要を説明する。情報処理装置10-2において、動作取得部111-2は、画像からユーザU-2の動作を認識してユーザU-2の動作を取得する。また、動作取得部111-2は、音情報も取得する。続いて、動作判定部112-2は、ユーザU-2の動作を判定して動作判定結果を取得する。通信制御部113-2は、ユーザU-2の動作、音情報および動作判定結果が、通信ネットワーク40を介して情報処理装置10-1に送信されるように制御する。
情報処理装置10-1において、通信制御部113-1は、通信ネットワーク40を介して情報処理装置10-2から受信された、ユーザU-2の動作、音情報および動作判定結果を取得する。また、受信判定部114-1は、通信制御部113-1によるユーザU-2の動作の受信状態を判定する。続いて、動作生成部115-1は、ユーザU-2の動作、受信判定結果および動作判定結果に基づいて、アバター20-1の動作を生成し、動作制御部116-1は、アバター20-1の動作を制御する。情報処理装置10-1においては、音情報も出力される。
以上、ユーザU-1の動作の認識からアバター20-2の制御までの処理におけるデータの流れ、および、ユーザU-2の動作の認識からアバター20-1の制御までの処理におけるデータの流れについて説明した。以下では、両データの流れを代表して、ユーザU-2の動作の認識からアバター20-1の制御までの処理におけるデータの流れについて主に説明する。
情報処理装置10-1において、動作制御部116-1は、アバター20-1の動作を制御するための、ユーザU-2の動作に応じた信号入力の異常が検出された場合に、信号入力の正常が検出されるまで、所定の動作を継続するようにアバター20-1の動作を制御する。このとき、動作制御部116-1は、異常が検出されてからアバター20-1の動作が所定の動作に遷移するまでに、アバター20-1を、異常が検出された際のアバター20-1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
かかる構成によれば、アバター20-1の動作の人間らしさを高めることが可能となる。以下では、かかる構成の詳細について、より具体的に説明する。本開示の第1の実施形態においては、アバター20-1が一つの中間動作を行うよう制御される場合を主に説明する。しかし、アバター20-1が複数の中間動作を行うよう制御されてもよい。
本開示の第1の実施形態においては、情報処理装置10-2においてユーザU-2の動作が認識される場合を主に想定する。かかる場合には、情報処理装置10-2から情報処理装置10-1にユーザU-2の動作が送信されるため、アバター20-1の動作を制御するための信号は、ユーザU-2の動作であってよい。
しかし、情報処理装置10-1においてユーザU-2の動作が認識される場合も想定される。かかる場合には、情報処理装置10-2から情報処理装置10-1にユーザU-2の動作を認識するための撮像画像が送信されるため、アバター20-1の動作を制御するための信号は、ユーザU-2の動作を認識するための撮像画像であってよい。
また、アバター20-1の動作を制御するための信号の入力の異常は、どのような場合に検出されてもよい。一つ目の例として、撮像画像から認識されるユーザU-2の動作が所定の動作範囲に収まらない場合に、異常が検出されてもよい。
また、二つ目の例として、情報処理装置10-1において、受信判定部114-1は、外部装置の例としての情報処理装置10-2によってアバター20-1の動作を制御するための信号が生成される場合、情報処理装置10-2から受信される信号入力の異常を検出してもよい。例えば、情報処理装置10-1において、受信判定部114-1は、アバター20-1の動作を制御するための信号が、外部装置の例としての情報処理装置10-2から受信される場合、当該信号の受信状態が所定の状態である場合に、異常を検出してもよい。
より具体的に、受信判定部114-1は、情報処理装置10-2から受信するアバター20-1の動作を制御するための信号が示すアバター20-1の動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、異常を検出してもよい。
例えば、情報処理装置10-2において撮像画像が取得されない場合、または、撮像画像からユーザU-2の動作が認識されない場合などに、情報処理装置10-2から情報処理装置10-1にアバター20-1の動作を制御するための信号として、同一の信号を送信し続ける場合がある。かかる場合、ユーザU-2が撮像画像に写っていれば、アバター20-1の動作を制御するための信号も少なくとも僅かには変化すると考えられるため、アバター20-1の動作を制御するための信号が示すアバター20-1の動作を制御するための値が所定の回数以上連続して同一である場合、異常を検出してよい。
また、例えば、受信判定部114-1は、アバター20-1の動作を制御するための信号が所定の時間を超えて受信されない場合、異常を検出してもよい。アバター20-1の動作を制御するための信号が所定の時間を超えて受信されない場合としては、アバター20-1の動作を制御するための信号の伝送遅延(例えば、通信ネットワーク40における伝送遅延など)が生じている場合、および、アバター20-1の動作を制御するための信号が情報処理装置10-1に到達しない場合などが想定される。
以下では、一つ目の例および二つ目の例の異常のいずれか一方でも検出された場合には、異常が検出され、一つ目の例および二つ目の例の異常のいずれも検出されない場合に、正常が検出される場合を主に説明する。しかし、一つ目の例および二つ目の例のうちの一方のみ異常であるか否かが検出されてもよい。かかる場合には、一つ目の例の異常が検出されない場合に、正常が検出されてもよい。あるいは、二つ目の例の異常が検出されない場合に、正常が検出されてもよい。
まず、情報処理装置10-2において、動作取得部111-2は、撮像画像からユーザU-2の動作を認識してユーザU-2の動作を取得する。ユーザU-2の動作は、ユーザU-2の身体を「認識対象」とし、ユーザU-2の身体の各部位を「認識対象部位」とした場合、各認識対象部位の位置および姿勢を含んでよい。より詳細には、各認識対象部位は、目、口、手、足などであってよい。また、各認識対象部位の位置および姿勢は、各関節の位置および回転角度によって表されてもよい。
動作判定部112-2は、ユーザU-2の動作が所定の範囲に収まるか否かを判定する。例えば、動作判定部112-2は、動作判定部112-2は、ユーザU-2の動作が認識対象部位ごとに所定の範囲に収まるか否かを判定する。ここで、所定の範囲は特に限定されない。例えば、ユーザU-2の動作として想定し得る範囲があらかじめ所定の範囲として定められていてよい。動作判定部112-2は、ユーザU-2の動作が所定の範囲に収まらない場合に、異常を検出する。
通信制御部113-2は、ユーザU-2の動作、音情報および動作判定部112-2による判定結果が、通信ネットワーク40を介して情報処理装置10-1に送信されるように制御する。情報処理装置10-1において、通信制御部113-1は、通信ネットワーク40を介して情報処理装置10-1から受信された、ユーザU-2の動作、音情報および動作判定結果を取得する。
受信判定部114-1は、通信制御部113-1によるユーザU-2の動作の受信状態を判定する。例えば、上記したように、受信判定部114-1は、ユーザU-2の動作の受信状態が所定の状態である場合に、異常を検出する。続いて、動作生成部115-1は、動作判定部112-2による動作判定結果、受信判定部114-1による受信判定結果、および、ユーザU-2の動作に基づいて、アバター20-1の動作を生成し、動作制御部116-2は、アバター20-1の動作を制御する。情報処理装置10-1においては、音情報も出力される。
まず、アバター20-1の動作を制御するための信号の入力の正常が検出された場合を想定する。より具体的には、動作判定部112-2による動作判定結果が正常である場合、かつ、受信判定部114-1による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116-1は、ユーザU-2の動作に基づいてアバター20-1の動作を制御する。
図5は、アバター20-1の動作を制御するための信号の入力の正常が検出された場合におけるアバター20-1の動作制御例を示す図である。図5を参照すると、画面161-1にアバター20-1の例としてアバター20-4が表示されている。
ここで、動作判定部112-2による動作判定結果が正常である場合、かつ、受信判定部114-1による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116-1は、ユーザU-2の動作に対応するようにアバター20-4の動作を制御する。図5を参照すると、ユーザU-2が両手を挙げている動作が認識され、ユーザU-2の動作に合わせて、両手を挙げた動作をするように制御されたアバター20-5が表示されている。
続いて、アバター20-1の動作を制御するための信号の入力の異常が検出された場合を想定する。より具体的には、動作判定部112-2による動作判定結果が異常である場合、または、受信判定部114-1による受信判定結果が異常である場合を想定する。かかる場合、動作取得部116-1は、異常が検出されてからアバター20-1の動作が所定の動作に遷移するまでに、アバター20-1を、異常が検出された際のアバター20-1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
ここで、異常が検出された場合におけるアバター20-1の動作の遷移先である「所定の動作」としては、様々な動作が想定される。例えば、動作制御部116-1は、異常が第1の時間(以下、「時間T1」とも言う。)を超えて検出された場合、異常と関連するユーザU-2の第1の認識対象部位に対応するアバター20-1の制御対象部位の動作を、所定の動作に含まれる第1の動作に遷移させてよい。
第1の動作は特に限定されない。本開示の第1の実施形態においては、アバター20-1が人間らしく見えるようにするために、第1の動作として、制御対象部位が揺らぐような動作を利用する場合を主に説明する。
図6は、異常が時間T1を超えて検出された場合におけるアバター20-1の動作制御例を示す図である。図6を参照すると、画面161-1にアバター20-1の例としてアバター20-6が表示されている。しかし、ユーザU-2が顔の前に手を位置させているため、アバター20-6も、顔の前に手を位置させてしまっている。
ここで、ユーザU-2の手が検出されないという異常が時間T1を超えて検出された場合を想定する。かかる場合、動作取得部116-1は、異常が検出された第1の認識対象部位「ユーザU-2の手」に対応する制御対象部位「アバター20-6の手」の動作を、第1の動作「揺らぐような動作」に遷移させる。図6を参照すると、手が揺らぐような動作に遷移されたアバター20-8が表示されている。
このとき、動作取得部116-1は、異常が検出された第1の認識対象部位「ユーザU-2の手」の撮像画像における位置に基づいて制御対象部位「アバター20-6の手」の動作を、第1の動作「揺らぐような動作」に遷移させるとよい。図6に示した例では、第1の認識対象部位「ユーザU-2の手」の異常がユーザU-2の顔の位置で検出されている。そのため、動作取得部116-1は、顔の位置からは離れた位置に制御対象部位「アバター20-8の手」を位置させている。
また、動作取得部116-1は、アバター20-6の動作がアバター20-8に遷移するまでに(すなわち、異常が検出されてから第1の動作「揺らぐような動作」に遷移するまでに)、アバター20-6を、異常が検出された際のアバター20-1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図6を参照すると、アバター20-7の手の位置が、手の位置とアバター20-8の手の位置との中間となるように制御され、かつ、手の向きが、アバター20-6の手の向きとアバター20-8の手の向きとの中間となるように制御されたアバター20-7が表示されている。
なお、第1の動作は、ユーザU-2に依存せずに決められてもよいし、ユーザU-2に依存して決められてもよい。例えば、ユーザU-2に対応して、第1の動作と第2の認識対象部位の動作とがあらかじめ関係付けられている場合も想定される。かかる場合において、異常が第1の時間を超えて検出された場合、かつ、ユーザU-2の第2の認識対象部位の動作が認識された場合、制御対象部位の動作を第1の動作に遷移させてもよい。
このとき、ユーザU-2の制御対象部位の第1の動作と第2の認識対象部位の動作とがあらかじめ関連付けられる。例えば、動作生成部115-1は、制御対象部位の第1の動作と第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、制御対象部位の動作と第2の認識対象部位の動作とを関連付ければよい。
一例として、ユーザU-2が、手を下げる動作と目を上に向ける動作とを同時に行う癖を有しており、ユーザU-2に対応して、制御対象部位「手」の第1の動作「手を下げる動作」と第2の認識対象部位「目」の動作「上を向ける動作」とが関連付けられた場合を想定する。
かかる場合、ユーザU-2の撮像画像から、第1の認識対象部位「手」が認識されなくても、第2の認識対象部位「目」の動作「上を向ける動作」が認識された場合に、制御対象部位「手」の動作が第1の動作「手を下げる動作」に遷移される。そのため、ユーザU-2の癖を制御対象部位の動きに反映させることが可能となる。
続いて、時間T1よりも長い第2の時間(以下、「時間T2」とも言う。)を超えて異常が検出された場合を想定する。かかる場合には、例えば、動作制御部116-1は、アバター20-1の全体の動作を、所定の動作に含まれる第2の動作に遷移させてよい。以下では、第2の動作を「標準状態」と称する場合がある。
第2の動作(標準状態)は特に限定されない。本開示の第1の実施形態においては、アバター20-1が人間らしく見えるようにするために、第2の動作(標準状態)として、両目を瞬きさせる動作、および、両肩を左右に揺さぶる動作を利用する場合を主に説明する。
図7は、異常が時間T2を超えて検出された場合におけるアバター20-1の動作制御例を示す図である。図7を参照すると、画面161-1にアバター20-1の例としてアバター20-9が表示されている。具体的に、異常が時間T1を超え、異常が検出された認識対象部位「ユーザU-2の手」に対応する制御対象部位「アバター20-9の手」の動作が、第1の動作「揺らぐような動作」に遷移されている。
ここで、ユーザU-2の手が検出されないという異常が時間T2を超えて検出された場合を想定する。かかる場合、動作取得部116-1は、アバター20-9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させる。図7を参照すると、両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作に遷移されたアバター20-11、20-12が表示されている。
このとき、動作取得部116-1は、異常が検出された認識対象「ユーザU-2」の撮像画像における位置に基づいてアバター20-9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させるとよい。図7に示した例では、認識対象「ユーザU-2」の異常が撮像画像の中央で検出されている。そのため、動作取得部116-1は、制御対象「アバター20-11、20-12」を画面161-1の中央に位置させている。
また、動作取得部116-1は、アバター20-9の動作がアバター20-11、20-12に遷移するまでに(すなわち、異常が検出されてから第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移するまでに)、アバター20-9を、異常が検出された際のアバター20-9の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図7を参照すると、手の位置が、アバター20-9の手の位置とアバター20-11、20-12の手の位置との中間となるように制御され、かつ、手の向きが、アバター20-9の手の向きとアバター20-11、20-12の手の向きとの中間となるように制御されたアバター20-10が表示されている。
なお、上記では、第2の動作(標準状態)として、一つの動作が利用される場合を主に説明したが、第2の動作(標準状態)として、複数の動作が利用されてもよい。すなわち、第2の動作(標準状態)が互いに異なる複数の動作を含んでおり、動作取得部116-1は、異常が時間T2を超えて検出された場合、アバター20-9の全体の動作が複数の動作の間で(例えば、所定の時間ごとに)切り替えられるようにアバター20-9の全体の動作を制御してもよい。そうすれば、アバター20-11、20-12がより人間らしく見えることが期待される。
また、第2の動作(標準状態)は、複数の動作から選択されてもよい。すなわち、動作取得部116-1は、異常が時間T2を超えて検出された場合、異常が検出されたユーザU-2の動作に基づいて複数の動作から第2の動作(標準状態)を選択し(例えば、異常が検出されたユーザU-2の動作に最も近い動作を選択し)、アバター20-9の全体の動作を、選択した第2の動作(標準状態)に遷移させてもよい。
なお、第2の動作(標準状態)は、ユーザU-2に依存せずに決められてもよいし、ユーザU-2に依存して決められてもよい。例えば、動作生成部115-1は、ユーザU-2の行動状態が所定の条件を満たす場合に、ユーザU-2の行動状態に基づいて第2の動作(標準状態)を生成してもよい。そうすれば、ユーザU-2の癖を第2の動作(標準状態)に反映させることが可能となる。ユーザU-2の行動状態には、ユーザU-2の動きが含まれてもよいし、ユーザU-2の発話量が含まれてもよい。
ここで、所定の条件は、特に限定されない。例えば、あまり動いていないユーザU-2の動作に基づいて第2の動作が生成された方が、たくさん動いているユーザU-2の動作に基づいて第2の動作が生成されるよりも、より適切な標準状態が生成されると考えられる。したがって、所定の条件は、ユーザU-2の発話量が所定量よりも少ないという条件およびユーザU-2の動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含んでもよい。
上記では、アバター20-1の動作を制御するための信号の入力の異常が検出された場合におけるアバター20-1の動作について主に説明した。しかし、一度異常が検出されてから再度正常が検出される場合も想定される。より具体的には、動作判定部112-2による動作判定結果が正常である場合、かつ、受信判定部114-1による受信判定結果が正常である場合を想定する。かかる場合においても、アバター20-1の動作は、異常が検出された場合の動作から正常が検出された場合の動作に、徐々に戻るように制御されるのがよい。そうすれば、アバター20-1がより人間らしく見えることが期待される。
すなわち、動作制御部116-1は、アバター20-1の動作を制御するための信号の入力の異常が検出された後に、アバター20-1の動作を制御するための信号の入力の正常が検出された場合に、アバター20-1の動作を所定の動作からユーザU-2の動作に基づくように遷移させるまでに、アバター20-1の動作を、所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御するとよい。
図8は、情報処理装置10-1における動作制御部116-1の動作の例を示すフローチャートである。図8に示すように、まず、動作制御部116-1は、アバターの各部位の位置および姿勢を初期状態に設定する(S11)。
続いて、動作制御部116-1は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立しない場合(S12において「No」)、各認識対象部位に対応するアバターの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S13)。そして、動作制御部116-1は、動作をS12に移行させる。
一方、動作制御部116-1は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立する場合(S12において「Yes」)、時間T1よりも長い時間T2を超えて異常という条件が成立するか否かを判定する(S14)。
動作制御部116-1は、長い時間T2を超えて異常という条件が成立しない場合(S14において「No」)、入力の異常が時間T1を超えていない認識対象部位に対応するアバターの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S15)。そして、動作制御部116-1は、時間T1を超えて入力が異常な認識対象部位に対応するアバターの部位が異常検出位置に対応する位置で揺らぎ動作をするように制御する(S16)。そして、動作制御部116-1は、動作をS12に移行させる。
一方、動作制御部116-1は、長い時間T2を超えて異常という条件が成立する場合(S14において「Yes」)、各認識対象部位に対応するアバターの部位の位置および姿勢を、標準状態に設定し、その部位が揺らぎ動作をするように制御する(S17)。そして、動作制御部116-1は、動作をS12に移行させる。
以上、本開示の第1の実施形態について説明した。
<2.第2の実施形態>
まず、本開示の第2の実施形態について説明する。
まず、本開示の第2の実施形態について説明する。
[2.1.システム構成例]
まず、本開示の第2の実施形態に係る情報処理システムの構成例について説明する。図9は、本開示の第2の実施形態に係る情報処理システムの構成例を示す図である。図9に示したように、本開示の第2の実施形態に係る情報処理システムは、情報処理装置10-1を備える。情報処理装置10-1は、ユーザU-1によって利用される。本開示の第2の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10-2を有していなくてよい。
まず、本開示の第2の実施形態に係る情報処理システムの構成例について説明する。図9は、本開示の第2の実施形態に係る情報処理システムの構成例を示す図である。図9に示したように、本開示の第2の実施形態に係る情報処理システムは、情報処理装置10-1を備える。情報処理装置10-1は、ユーザU-1によって利用される。本開示の第2の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10-2を有していなくてよい。
図9に示した例では、情報処理装置10-1の画面161-1に、仮想オブジェクトの例としてのアバター20-2が表示されている。アバター20-1が表示される。本開示の第2の実施形態では、本開示の第1の実施形態と異なり、情報処理装置10-1は、アバター20-2の動作をユーザU-1の動作に基づいて制御する。ユーザU-1は、ユーザU-1の動作に基づいて制御されたアバター20-2を見ることができる。
以上、本開示の第2の実施形態に係る情報処理システムの構成例について説明した。
[2.2.情報処理装置の機能構成例]
続いて、本開示の第2の実施形態に係る情報処理装置10の機能構成例について説明する。図10は、本開示の第2の実施形態に係る情報処理装置10の機能構成例を示す図である。図10に示したように、本開示の第2の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、通信部150を有しておらず、通信制御部113および受信判定部114を有していなくてよい。
続いて、本開示の第2の実施形態に係る情報処理装置10の機能構成例について説明する。図10は、本開示の第2の実施形態に係る情報処理装置10の機能構成例を示す図である。図10に示したように、本開示の第2の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、通信部150を有しておらず、通信制御部113および受信判定部114を有していなくてよい。
以上、本開示の第2の実施形態に係る情報処理装置10の機能構成例について説明した。
[2.3.情報処理システムの機能詳細]
続いて、本開示の第2の実施形態に係る情報処理システムの機能詳細について説明する。図10に示したように、本開示の第2の実施形態に係る情報処理装置10-1において、動作取得部111によって取得されたユーザU-1の動作、動作判定部112によって判定されたユーザU-1の動作判定結果が、同一の情報処理装置10-1の動作生成部115および動作制御部116に出力される。
続いて、本開示の第2の実施形態に係る情報処理システムの機能詳細について説明する。図10に示したように、本開示の第2の実施形態に係る情報処理装置10-1において、動作取得部111によって取得されたユーザU-1の動作、動作判定部112によって判定されたユーザU-1の動作判定結果が、同一の情報処理装置10-1の動作生成部115および動作制御部116に出力される。
したがって、本開示の第1の実施形態において他の情報処理装置10-2の動作生成部115によって実行された処理が、本開示の第2の実施形態においては、情報処理装置10-1の動作生成部115によって実行される。同様に、本開示の第1の実施形態において他の情報処理装置10-2の動作制御部116によって実行された処理が、本開示の第2の実施形態においては、情報処理装置10-1の動作制御部116によって実行される。
以上、本開示の第2の実施形態について説明した。
<3.第3の実施形態>
まず、本開示の第3の実施形態について説明する。
まず、本開示の第3の実施形態について説明する。
[3.1.システム構成例]
まず、本開示の第3の実施形態に係る情報処理システムの構成例について説明する。図11は、本開示の第3の実施形態に係る情報処理システムの構成例を示す図である。図11に示したように、本開示の第3の実施形態に係る情報処理システムは、情報処理装置10-1およびロボット30-1を備える。情報処理装置10-1は、ユーザU-1によって利用される。本開示の第3の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10-2を有していなくてよい。
まず、本開示の第3の実施形態に係る情報処理システムの構成例について説明する。図11は、本開示の第3の実施形態に係る情報処理システムの構成例を示す図である。図11に示したように、本開示の第3の実施形態に係る情報処理システムは、情報処理装置10-1およびロボット30-1を備える。情報処理装置10-1は、ユーザU-1によって利用される。本開示の第3の実施形態では、本開示の第1の実施形態と異なり、情報処理システムは、情報処理装置10-2を有していなくてよい。
図11に示した例では、実オブジェクトの例としてのロボット30-1が存在している。ここで、実オブジェクトは、ロボット30-1に限定されない。例えば、実オブジェクトは、エージェントなどであってもよい。情報処理装置10-1は、ロボット30-1の動作をユーザU-1の動作に基づいて制御する。ユーザU-1は、ユーザU-1の動作に基づいて制御されたロボット30-1を見ることができる。
以上、本開示の第3の実施形態に係る情報処理システムの構成例について説明した。
[3.2.情報処理装置の機能構成例]
続いて、本開示の第3の実施形態に係る情報処理装置10の機能構成例について説明する。図12は、本開示の第3の実施形態に係る情報処理装置10の機能構成例を示す図である。図12に示したように、本開示の第3の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、表示部160および音情報出力部170を有しておらず、動作の制御信号および音情報は、ロボット30に出力される。
続いて、本開示の第3の実施形態に係る情報処理装置10の機能構成例について説明する。図12は、本開示の第3の実施形態に係る情報処理装置10の機能構成例を示す図である。図12に示したように、本開示の第3の実施形態に係る情報処理装置10は、本開示の第2の実施形態に係る情報処理装置10と異なり、表示部160および音情報出力部170を有しておらず、動作の制御信号および音情報は、ロボット30に出力される。
以上、本開示の第3の実施形態に係る情報処理装置10の機能構成例について説明した。
[3.3.情報処理システムの機能詳細]
続いて、本開示の第3の実施形態に係る情報処理システムの機能詳細について説明する。図12に示したように、本開示の第3の実施形態に係る情報処理装置10-1において、動作取得部111によって取得されたユーザU-1の動作、動作判定部112によって判定されたユーザU-1の動作判定結果が、同一の情報処理装置10-1の動作生成部115および動作制御部116に出力される。
続いて、本開示の第3の実施形態に係る情報処理システムの機能詳細について説明する。図12に示したように、本開示の第3の実施形態に係る情報処理装置10-1において、動作取得部111によって取得されたユーザU-1の動作、動作判定部112によって判定されたユーザU-1の動作判定結果が、同一の情報処理装置10-1の動作生成部115および動作制御部116に出力される。
したがって、本開示の第1の実施形態において他の情報処理装置10-2の動作生成部115によって実行された処理が、本開示の第3の実施形態においては、情報処理装置10-1の動作生成部115によって実行される。同様に、本開示の第の実施形態において他の情報処理装置10-2の動作制御部116によって実行された処理が、本開示の第3の実施形態においては、情報処理装置10-1の動作制御部116によって実行される。
図13は、ロボット30-1の動作を制御するための信号の入力の正常が検出された場合におけるロボット30-1の動作制御例を示す図である。図13を参照すると、ロボット30-1の例としてロボット30-4が存在している。
ここで、動作判定部112による動作判定結果が正常である場合、かつ、受信判定部114による受信判定結果が正常である場合を想定する。かかる場合、動作取得部116は、ユーザU-1の動作に対応するようにロボット30-4の動作を制御する。図13を参照すると、ユーザU-1が両手を挙げている動作が認識され、ユーザU-1の動作に合わせて、両手を挙げた動作をするように制御されたロボット30-5が存在している。
続いて、ロボット30-1の動作を制御するための信号の入力の異常が検出された場合を想定する。より具体的には、動作判定部112による動作判定結果が異常である場合、または、受信判定部114による受信判定結果が異常である場合を想定する。かかる場合、動作取得部116は、異常が検出されてからロボット30-1の動作が所定の動作に遷移するまでに、ロボット30-1を、異常が検出された際のロボット30-1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。
例えば、本開示の第1の実施形態と同様に、動作制御部116は、異常が時間T1を超えて検出された場合、異常と関連するロボット30-1の第1の認識対象部位に対応するロボット30-1の制御対象部位の動作を、所定の動作に含まれる第1の動作に遷移させてよい。第1の動作は、本開示の第1の実施形態と同様に、特に限定されない。
図14は、異常が時間T1を超えて検出された場合におけるロボット30-1の動作制御例を示す図である。図14を参照すると、ロボット30-1の例としてロボット30-6が存在している。しかし、ユーザU-1が顔の前に手を位置させているため、ロボット30-6も、顔の前に手を位置させてしまっている。
ここで、ユーザU-1の手が検出されないという異常が時間T1を超えて検出された場合を想定する。かかる場合、動作取得部116は、異常が検出された第1の認識対象部位「ユーザU-1の手」に対応する制御対象部位「ロボット30-6の手」の動作を、第1の動作「揺らぐような動作」に遷移させる。図14を参照すると、手が揺らぐような動作に遷移されたロボット30-8が存在している。
このとき、動作取得部116は、異常が検出された第1の認識対象部位「ユーザU-1の手」の撮像画像における位置に基づいて制御対象部位「ロボット30-6の手」の動作を、第1の動作「揺らぐような動作」に遷移させるとよい。図14に示した例では、第1の認識対象部位「ユーザU-1の手」の異常がユーザU-1の顔の位置で検出されている。そのため、動作取得部116は、顔の位置からは離れた位置に制御対象部位「ロボット30-8の手」を位置させている。
また、動作取得部116は、ロボット30-6の動作がロボット30-8に遷移するまでに(すなわち、異常が検出されてから第1の動作「揺らぐような動作」に遷移するまでに)、ロボット30-6を、異常が検出された際のロボット30-1の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図14を参照すると、ロボット30-7の手の位置が、手の位置とロボット30-8の手の位置との中間となるように制御され、かつ、手の向きが、ロボット30-6の手の向きとロボット30-8の手の向きとの中間となるように制御されたロボット30-7が存在している。
続いて、時間T2を超えて異常が検出された場合を想定する。かかる場合には、例えば、動作制御部116-1は、ロボット30-1の全体の動作を、所定の動作に含まれる第2の動作(標準状態)に遷移させてよい。本開示の第1の実施形態と同様に、第2の動作(標準状態)は特に限定されない。
図15は、異常が時間T2を超えて検出された場合におけるロボット30-1の動作制御例を示す図である。図15を参照すると、ロボット30-1の例としてロボット30-9が存在している。具体的に、異常が時間T1を超え、異常が検出された認識対象部位「ユーザU-1の手」に対応する制御対象部位「ロボット30-9の手」の動作が、第1の動作「揺らぐような動作」に遷移されている。
ここで、ユーザU-1の手が検出されないという異常が時間T2を超えて検出された場合を想定する。かかる場合、動作取得部116-1は、ロボット30-9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させる。図15を参照すると、両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作に遷移されたロボット30-11、30-12が表示されている。
このとき、動作取得部116は、異常が検出された認識対象「ユーザU-1」の撮像画像における位置に基づいてロボット30-9の全体の動作を、第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移させるとよい。例えば、認識対象「ユーザU-1」の異常が撮像画像の中央で検出された場合、動作取得部116は、制御対象「ロボット30-11、30-12」を撮像画像の中央に対応する位置に位置させてよい。
また、動作取得部116は、ロボット30-9の動作がロボット30-11、30-12に遷移するまでに(すなわち、異常が検出されてから第2の動作(標準状態)「両目を瞬きさせる動作、および、上半身を左右に揺さぶる動作」に遷移するまでに)、ロボット30-9を、異常が検出された際のロボット30-9の動作および所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する。図15を参照すると、手の位置が、ロボット30-9の手の位置とロボット30-11、30-12の手の位置との中間となるように制御され、かつ、手の向きが、ロボット30-9の手の向きとロボット30-11、30-12の手の向きとの中間となるように制御されたロボット30-10が存在している。
図16は、情報処理装置10-1における動作制御部116の動作の例を示すフローチャートである。図16に示すように、まず、動作制御部116は、ロボットの各部位の位置および姿勢を初期状態に設定する(S21)。
続いて、動作制御部116は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立しない場合(S22において「No」)、各認識対象部位に対応するロボットの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S23)。そして、動作制御部116は、動作をS22に移行させる。
一方、動作制御部116は、少なくとも一つの認識対象部位に対応する入力が時間T1を超えて異常という条件が成立する場合(S22において「Yes」)、時間T1よりも長い時間T2を超えて異常という条件が成立するか否かを判定する(S24)。
動作制御部116は、長い時間T2を超えて異常という条件が成立しない場合(S24において「No」)、入力の異常が時間T1を超えていない認識対象部位に対応するロボットの部位の位置および姿勢を、対応する認識対象部位の位置および姿勢に応じて制御する(S25)。そして、動作制御部116は、時間T1を超えて入力が異常な認識対象部位に対応するロボットの部位が異常検出位置に対応する位置で揺らぎ動作をするように制御する(S26)。そして、動作制御部116は、動作をS22に移行させる。
一方、動作制御部116は、長い時間T2を超えて異常という条件が成立する場合(S24において「Yes」)、各認識対象部位に対応するロボットの部位の位置および姿勢を、標準状態に設定し、その部位が揺らぎ動作をするように制御する(S27)。そして、動作制御部116は、動作をS22に移行させる。
以上、本開示の第3の実施形態について説明した。
<4.ハードウェア構成例>
次に、図17を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
次に、図17を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図17に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<5.むすび>
以上説明したように、本開示の実施形態によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる
少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。かかる構成によれば、オブジェクトの動作の人間らしさを高めることが可能となる。
以上説明したように、本開示の実施形態によれば、オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる
少なくとも一つの第1の中間動作を行うよう制御する、情報処理装置が提供される。かかる構成によれば、オブジェクトの動作の人間らしさを高めることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部110が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
例えば、上記した情報処理装置10-1の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10-1における各部の処理の一部は、情報処理装置10-2によって行われてもよいし、サーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10-1における制御部110が有する各ブロックの一部または全部は、情報処理装置10-2またはサーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10-1における動作取得部111、動作判定部112の一部または全部は、情報処理装置10-2またはサーバ装置(不図示)などに存在していてもよい。
同様に、上記した情報処理装置10-2の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10-2における各部の処理の一部は、情報処理装置10-1によって行われてもよいし、サーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10-2における制御部110が有する各ブロックの一部または全部は、情報処理装置10-1またはサーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10-2における動作取得部111、動作判定部112の一部または全部は、情報処理装置10-1またはサーバ装置(不図示)などに存在していてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置。
(2)
前記所定の動作は第1の動作を含み、
前記動作制御部は、前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる、
前記(1)に記載の情報処理装置。
(3)
前記動作制御部は、前記信号入力の異常が前記第1の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)に記載の情報処理装置。
(4)
前記動作制御部は、
前記第1の動作と、前記ユーザの第2の認識対象部位の動作とが関係付けられている場合において、前記信号入力の異常が前記第1の時間を超えて検出された場合、かつ、前記第2の認識対象部位の動作が認識された場合、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)または(3)に記載の情報処理装置。
(5)
前記情報処理装置は、
前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とを関連付ける動作生成部を備える、
前記(4)に記載の情報処理装置。
(6)
前記所定の動作は第2の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第1の時間よりも長い第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(2)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(6)に記載の情報処理装置。
(8)
前記情報処理装置は、
前記ユーザの行動状態が所定の条件を満たす場合に、前記ユーザの行動状態に基づいて前記第2の動作を生成する動作生成部を備える、
前記(6)に記載の情報処理装置。
(9)
前記所定の条件は、前記ユーザの発話量が所定量よりも少ないという条件および前記ユーザの動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含む、
前記(8)に記載の情報処理装置。
(10)
前記第2の動作は、互いに異なる複数の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作が前記複数の動作の間で切り替えられるように前記オブジェクトの全体の動作を制御する、
前記(6)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を、前記ユーザの動作に基づいて選択された前記第2の動作に遷移させる、
前記(6)~(9)のいずれか一項に記載の情報処理装置。
(12)
前記信号入力から認識される前記ユーザの動作が所定の動作範囲に収まらない場合に、前記信号入力の異常が検出される、
前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記ユーザの動作に応じた前記信号入力を生成する外部装置から受信される前記信号入力の異常を検出する受信判定部を備える、
前記(1)~(11)のいずれか一項に記載の情報処理装置。
(14)
前記受信判定部は、前記外部装置から受信する前記信号入力が示す前記オブジェクトの動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(15)
前記受信判定部は、前記信号入力が所定の時間を超えて受信されない場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(16)
前記動作制御部は、前記信号入力の異常が検出された後に前記信号入力の正常が検出された場合に、前記オブジェクトの動作を前記所定の動作から前記ユーザの動作に基づくように遷移させるまでに、前記オブジェクトを、前記所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御する、
前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記オブジェクトは、実空間に存在する実オブジェクトを含む、
前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記オブジェクトは、仮想空間に存在する仮想オブジェクトを含む、
前記(1)~(16)のいずれか一項に記載の情報処理装置。
(19)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御することを含み、
プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、
情報処理方法。
(20)
コンピュータを、
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置として機能させるためのプログラム。
(1)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置。
(2)
前記所定の動作は第1の動作を含み、
前記動作制御部は、前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる、
前記(1)に記載の情報処理装置。
(3)
前記動作制御部は、前記信号入力の異常が前記第1の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)に記載の情報処理装置。
(4)
前記動作制御部は、
前記第1の動作と、前記ユーザの第2の認識対象部位の動作とが関係付けられている場合において、前記信号入力の異常が前記第1の時間を超えて検出された場合、かつ、前記第2の認識対象部位の動作が認識された場合、前記制御対象部位の動作を前記第1の動作に遷移させる、
前記(2)または(3)に記載の情報処理装置。
(5)
前記情報処理装置は、
前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とを関連付ける動作生成部を備える、
前記(4)に記載の情報処理装置。
(6)
前記所定の動作は第2の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第1の時間よりも長い第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(2)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
前記(6)に記載の情報処理装置。
(8)
前記情報処理装置は、
前記ユーザの行動状態が所定の条件を満たす場合に、前記ユーザの行動状態に基づいて前記第2の動作を生成する動作生成部を備える、
前記(6)に記載の情報処理装置。
(9)
前記所定の条件は、前記ユーザの発話量が所定量よりも少ないという条件および前記ユーザの動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含む、
前記(8)に記載の情報処理装置。
(10)
前記第2の動作は、互いに異なる複数の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作が前記複数の動作の間で切り替えられるように前記オブジェクトの全体の動作を制御する、
前記(6)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を、前記ユーザの動作に基づいて選択された前記第2の動作に遷移させる、
前記(6)~(9)のいずれか一項に記載の情報処理装置。
(12)
前記信号入力から認識される前記ユーザの動作が所定の動作範囲に収まらない場合に、前記信号入力の異常が検出される、
前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、
前記ユーザの動作に応じた前記信号入力を生成する外部装置から受信される前記信号入力の異常を検出する受信判定部を備える、
前記(1)~(11)のいずれか一項に記載の情報処理装置。
(14)
前記受信判定部は、前記外部装置から受信する前記信号入力が示す前記オブジェクトの動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(15)
前記受信判定部は、前記信号入力が所定の時間を超えて受信されない場合、前記信号入力の異常を検出する、
前記(13)に記載の情報処理装置。
(16)
前記動作制御部は、前記信号入力の異常が検出された後に前記信号入力の正常が検出された場合に、前記オブジェクトの動作を前記所定の動作から前記ユーザの動作に基づくように遷移させるまでに、前記オブジェクトを、前記所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御する、
前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記オブジェクトは、実空間に存在する実オブジェクトを含む、
前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記オブジェクトは、仮想空間に存在する仮想オブジェクトを含む、
前記(1)~(16)のいずれか一項に記載の情報処理装置。
(19)
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御することを含み、
プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、
情報処理方法。
(20)
コンピュータを、
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置として機能させるためのプログラム。
1 情報処理システム
10 情報処理装置
20 アバター
30 ロボット
110 制御部
111 動作取得部
112 動作判定部
113 通信制御部
114 受信判定部
115 動作生成部
116 動作制御部
120 撮像部
130 音情報検出部
140 記憶部
150 通信部
160 表示部
170 音情報出力部
10 情報処理装置
20 アバター
30 ロボット
110 制御部
111 動作取得部
112 動作判定部
113 通信制御部
114 受信判定部
115 動作生成部
116 動作制御部
120 撮像部
130 音情報検出部
140 記憶部
150 通信部
160 表示部
170 音情報出力部
Claims (20)
- オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置。 - 前記所定の動作は第1の動作を含み、
前記動作制御部は、前記信号入力の異常が第1の時間を超えて検出された場合、前記信号入力の異常と関連する前記ユーザの第1の認識対象部位に対応する前記オブジェクトの制御対象部位の動作を前記第1の動作に遷移させる、
請求項1に記載の情報処理装置。 - 前記動作制御部は、前記信号入力の異常が前記第1の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて、前記制御対象部位の動作を前記第1の動作に遷移させる、
請求項2に記載の情報処理装置。 - 前記動作制御部は、
前記第1の動作と、前記ユーザの第2の認識対象部位の動作とが関係付けられている場合において、前記信号入力の異常が前記第1の時間を超えて検出された場合、かつ、前記第2の認識対象部位の動作が認識された場合、前記制御対象部位の動作を前記第1の動作に遷移させる、
請求項2に記載の情報処理装置。 - 前記情報処理装置は、
前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とが単一の撮像画像から認識された場合に、前記第1の認識対象部位の動作と前記第2の認識対象部位の動作とを関連付ける動作生成部を備える、
請求項4に記載の情報処理装置。 - 前記所定の動作は第2の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第1の時間よりも長い第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
請求項2に記載の情報処理装置。 - 前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、撮像画像における前記第1の認識対象部位の位置に基づいて前記オブジェクトの全体の動作を前記第2の動作に遷移させる、
請求項6に記載の情報処理装置。 - 前記情報処理装置は、
前記ユーザの行動状態が所定の条件を満たす場合に、前記ユーザの行動状態に基づいて前記第2の動作を生成する動作生成部を備える、
請求項6に記載の情報処理装置。 - 前記所定の条件は、前記ユーザの発話量が所定量よりも少ないという条件および前記ユーザの動きが所定の動きよりも小さいという条件の少なくともいずれか一つを含む、
請求項8に記載の情報処理装置。 - 前記第2の動作は、互いに異なる複数の動作を含み、
前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作が前記複数の動作の間で切り替えられるように前記オブジェクトの全体の動作を制御する、
請求項6に記載の情報処理装置。 - 前記動作制御部は、前記信号入力の異常が前記第2の時間を超えて検出された場合、前記オブジェクトの全体の動作を、前記ユーザの動作に基づいて選択された前記第2の動作に遷移させる、
請求項6に記載の情報処理装置。 - 前記信号入力から認識される前記ユーザの動作が所定の動作範囲に収まらない場合に、前記信号入力の異常が検出される、
請求項1に記載の情報処理装置。 - 前記情報処理装置は、
前記ユーザの動作に応じた前記信号入力を生成する外部装置から受信される前記信号入力の異常を検出する受信判定部を備える、
請求項1に記載の情報処理装置。 - 前記受信判定部は、前記外部装置から受信する前記信号入力が示す前記オブジェクトの動作を制御するための値が、所定の回数以上連続して同一の値を示す場合、前記信号入力の異常を検出する、
請求項13に記載の情報処理装置。 - 前記受信判定部は、前記信号入力が所定の時間を超えて受信されない場合、前記信号入力の異常を検出する、
請求項13に記載の情報処理装置。 - 前記動作制御部は、前記信号入力の異常が検出された後に前記信号入力の正常が検出された場合に、前記オブジェクトの動作を前記所定の動作から前記ユーザの動作に基づくように遷移させるまでに、前記オブジェクトを、前記所定の動作とは異なる少なくとも一つの第2の中間動作を行うよう制御する、
請求項1に記載の情報処理装置。 - 前記オブジェクトは、実空間に存在する実オブジェクトを含む、
請求項1に記載の情報処理装置。 - 前記オブジェクトは、仮想空間に存在する仮想オブジェクトを含む、
請求項1に記載の情報処理装置。 - オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御することを含み、
プロセッサにより、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御することを含む、
情報処理方法。 - コンピュータを、
オブジェクトの動作を制御するための、ユーザの動作に応じた信号入力の異常が検出された場合に、前記信号入力の正常が検出されるまで、所定の動作を継続するように前記オブジェクトの動作を制御する動作制御部を備え、
前記動作制御部は、前記信号入力の異常が検出されてから前記オブジェクトの動作が前記所定の動作に遷移するまでに、前記オブジェクトを、前記信号入力の異常が検出された際の前記オブジェクトの動作および前記所定の動作とは異なる少なくとも一つの第1の中間動作を行うよう制御する、
情報処理装置として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201880031031.XA CN110612552A (zh) | 2017-05-18 | 2018-03-13 | 信息处理装置、信息处理方法和程序 |
JP2019519083A JP6927295B2 (ja) | 2017-05-18 | 2018-03-13 | 情報処理装置、情報処理方法およびプログラム |
US16/606,346 US11372473B2 (en) | 2017-05-18 | 2018-03-13 | Information processing apparatus and information processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-098755 | 2017-05-18 | ||
JP2017098755 | 2017-05-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018211798A1 true WO2018211798A1 (ja) | 2018-11-22 |
Family
ID=64274224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/009601 WO2018211798A1 (ja) | 2017-05-18 | 2018-03-13 | 情報処理装置、情報処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11372473B2 (ja) |
JP (1) | JP6927295B2 (ja) |
CN (1) | CN110612552A (ja) |
WO (1) | WO2018211798A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172651A1 (ja) | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146435A (ja) * | 2004-11-17 | 2006-06-08 | Univ Waseda | 動作伝達システムおよび動作伝達方法 |
JP2012521038A (ja) * | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 連鎖アニメーション |
JP2013533537A (ja) * | 2010-06-02 | 2013-08-22 | マイクロソフト コーポレーション | アバター・ジェスチャーの表示制限 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US9652992B2 (en) * | 2012-10-09 | 2017-05-16 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US10007332B2 (en) * | 2015-09-28 | 2018-06-26 | Interblock D.D. | Electronic gaming machine in communicative control with avatar display from motion-capture system |
WO2017079731A1 (en) * | 2015-11-06 | 2017-05-11 | Mursion, Inc. | Control system for virtual characters |
US11318350B2 (en) * | 2016-12-29 | 2022-05-03 | BioMech Sensor LLC | Systems and methods for real-time data quantification, acquisition, analysis, and feedback |
-
2018
- 2018-03-13 JP JP2019519083A patent/JP6927295B2/ja active Active
- 2018-03-13 CN CN201880031031.XA patent/CN110612552A/zh not_active Withdrawn
- 2018-03-13 US US16/606,346 patent/US11372473B2/en active Active
- 2018-03-13 WO PCT/JP2018/009601 patent/WO2018211798A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146435A (ja) * | 2004-11-17 | 2006-06-08 | Univ Waseda | 動作伝達システムおよび動作伝達方法 |
JP2012521038A (ja) * | 2009-03-20 | 2012-09-10 | マイクロソフト コーポレーション | 連鎖アニメーション |
JP2013533537A (ja) * | 2010-06-02 | 2013-08-22 | マイクロソフト コーポレーション | アバター・ジェスチャーの表示制限 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172651A1 (ja) | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US12105868B2 (en) | 2021-02-12 | 2024-10-01 | Sony Group Corporation | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6927295B2 (ja) | 2021-08-25 |
CN110612552A (zh) | 2019-12-24 |
US11372473B2 (en) | 2022-06-28 |
JPWO2018211798A1 (ja) | 2020-05-14 |
US20210333862A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6459972B2 (ja) | 表示制御装置、表示制御方法、およびプログラム | |
US10162594B2 (en) | Information processing device, method of information processing, and program | |
JP6848881B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2017130486A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2018072339A1 (zh) | 一种虚拟现实头盔和切换虚拟现实头盔显示信息的方法 | |
JP2009288951A (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
WO2014185170A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
EP3528024B1 (en) | Information processing device, information processing method, and program | |
US11151804B2 (en) | Information processing device, information processing method, and program | |
TWI467413B (zh) | 掌上型電子裝置及其螢幕畫面自動旋轉方法 | |
JP2016181018A (ja) | 情報処理システムおよび情報処理方法 | |
WO2016088410A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2018135057A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2018163558A (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2018211798A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20180352168A1 (en) | Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program | |
WO2020031795A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
TWI634453B (zh) | 在虛擬實境環境瀏覽時進行畫面切換之系統及方法,及其相關電腦程式產品 | |
JP7078036B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JPWO2019087513A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2023111925A (ja) | ヘッドマウント情報処理装置およびヘッドマウント情報処理装置の制御方法 | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2017199505A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2016147693A1 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18801631 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019519083 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18801631 Country of ref document: EP Kind code of ref document: A1 |