WO2024190673A1 - 情報処理方法、情報処理装置、及び情報処理プログラム - Google Patents
情報処理方法、情報処理装置、及び情報処理プログラム Download PDFInfo
- Publication number
- WO2024190673A1 WO2024190673A1 PCT/JP2024/009065 JP2024009065W WO2024190673A1 WO 2024190673 A1 WO2024190673 A1 WO 2024190673A1 JP 2024009065 W JP2024009065 W JP 2024009065W WO 2024190673 A1 WO2024190673 A1 WO 2024190673A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- recording
- work
- audio
- video
- memory
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims description 56
- 238000003672 processing method Methods 0.000 title claims description 37
- 238000004891 communication Methods 0.000 claims description 202
- 238000000034 method Methods 0.000 claims description 102
- 230000001960 triggered effect Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 13
- 230000000977 initiatory effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 97
- 238000012545 processing Methods 0.000 description 50
- 230000005540 biological transmission Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 25
- 230000009471 action Effects 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000013459 approach Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 241000287181 Sturnus vulgaris Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
Definitions
- This disclosure relates to a technology for recording video images captured at a work site and audio collected at the work site on a server.
- Patent Document 1 discloses that an intermediary terminal device automatically records support request information consisting of image signals and audio signals that pass through the intermediary terminal device, and support information consisting of audio signals.
- Patent Document 2 discloses a client terminal that includes an input/output means and/or a data acquisition means for acquiring data from a communication means, an application request means for requesting an application necessary for the client terminal to function, an application storage means for storing an application received from a server, and a security means for erasing the data acquired by the data acquisition means and/or the application stored in the application storage means when the operation of the client terminal is terminated.
- This disclosure has been made to solve the above problems, and aims to provide technology that can reduce the amount of data recorded in memory and ease the burden on workers.
- the information processing method disclosed herein is an information processing method executed by a computer, and includes receiving a video image captured at a work site and a first audio signal collected at the work site from a work terminal used by a worker at the work site, and starting recording of the video image and the first audio signal in a memory in response to a recording start operation performed by an assistant assisting the worker with the work.
- This disclosure makes it possible to reduce the amount of data recorded in memory and ease the burden on workers.
- FIG. 1 is a diagram showing a configuration of a work support system according to a first embodiment.
- 11 is a flowchart for illustrating a work support process by a work terminal according to the first embodiment of the present disclosure.
- 11 is a flowchart for illustrating a work support process by a server according to the first embodiment of the present disclosure.
- 11 is a flowchart for illustrating a task support process by the support terminal according to the first embodiment of the present disclosure.
- FIG. 4 is a diagram showing an example of a screen displayed on a display unit of the support terminal in the first embodiment.
- FIG. 11 is a diagram showing a configuration of a work support system according to a second embodiment.
- FIG. 11 is a diagram showing a configuration of a work support system according to a third embodiment.
- 13 is a flowchart for illustrating a work support process by a work terminal according to a third embodiment of the present disclosure.
- 13 is a flowchart for illustrating a work support process by a server according to a third embodiment of the present disclosure.
- FIG. 13 is a flowchart for illustrating a task support process by a support terminal according to a third embodiment of the present disclosure.
- FIG. 11 is a diagram showing a configuration of a work support system according to a fourth embodiment.
- 13 is a flowchart for illustrating a work support process by a server according to a fourth embodiment of the present disclosure.
- FIG. 13 is a diagram showing a configuration of a work support system according to a fifth embodiment.
- 13 is a flowchart for illustrating a work support process by a server according to a fifth embodiment of the present disclosure.
- FIG. 13 is a diagram showing a configuration of a work support system according to a sixth embodiment.
- FIG. 23 is a flowchart for illustrating a work support process by a work terminal according to a sixth embodiment of the present disclosure.
- 23 is a flowchart for illustrating a work support process by a server according to a sixth embodiment of the present disclosure.
- FIG. 13 is a diagram showing a configuration of a work support system according to a seventh embodiment of the present invention.
- 23 is a flowchart for illustrating a work support process by a server according to a seventh embodiment of the present disclosure.
- FIG. 13 is a diagram showing a configuration of a work support system according to an eighth embodiment of the present invention.
- 23 is a flowchart for illustrating a work support process by a work terminal according to an eighth embodiment of the present disclosure.
- FIG. 23 is a flowchart for illustrating a work support process by a server according to an eighth embodiment of the present disclosure.
- 23 is a flowchart for explaining a work support process by a support terminal according to an eighth embodiment of the present disclosure.
- FIG. 23 is a diagram showing an example of a screen displayed on a display unit of a support terminal in the eighth embodiment.
- FIG. 23 is a diagram showing an example of a screen displayed on a display unit of a work terminal in the eighth embodiment.
- FIG. 13 is a diagram showing a configuration of a work support system according to a ninth embodiment of the present invention.
- 23 is a flowchart for illustrating a work support process by a work terminal according to a ninth embodiment of the present disclosure.
- FIG. 23 is a flowchart for explaining a work support process by a server according to a ninth embodiment of the present disclosure.
- FIG. 14 is a diagram showing a configuration of a work support system according to a tenth embodiment.
- 23 is a flowchart for illustrating a work support process by a server in a tenth embodiment of the present disclosure.
- FIG. 2 is a diagram showing an example of a screen displayed on a display unit of a support terminal in the first to tenth embodiments.
- the intermediary terminal device automatically records support request information consisting of image signals and audio signals that pass through the intermediary terminal device, and support information consisting of audio signals.
- An information processing method is an information processing method executed by a computer, and includes receiving a video captured at a work site and a first audio collected at the work site from a work terminal used by a worker at the work site, and starting recording of the video and the first audio in a memory in response to a recording start operation by an assistant assisting the worker in the work.
- the assistant's operation to start recording is used as a trigger to start recording in memory of the video and the first audio received from the work terminal used by the worker at the work site. Therefore, only the video and the first audio that the assistant determines is necessary are recorded in memory, making it possible to reduce the amount of data recorded in memory. In addition, since recording of the video and the first audio in memory starts when the assistant performs the operation to start recording, the worker does not need to perform the operation to start recording while working, which reduces the burden on the worker.
- the information processing method described in (1) above may further include receiving, from a support terminal used by the supporter, a recording start signal that instructs the start of the recording based on an input operation by the supporter at a remote location, and the start of the recording may include starting recording of the video and the first audio in the memory as a trigger when the recording start signal is received.
- the information processing method described in (1) above may further include receiving location information from the work terminal indicating a current location of the work terminal, and the start of the recording may include starting recording of the video and the first audio in the memory when the location of the work terminal indicated by the location information enters a specified area at the work site.
- the information processing method described in (3) above may further include receiving area designation information indicating a predetermined area at the work site designated by the assistant at a remote location from an assistant terminal used by the assistant, and the start of the recording may include starting recording of the video and the first audio in the memory when the position of the work terminal indicated by the position information enters the predetermined area indicated by the area designation information.
- the information processing method described in (1) above further includes receiving, from a support terminal used by the supporter, identification information contained in a wireless signal transmitted from a work target at the work site designated by the supporter at a remote location, and receiving from the work terminal signal information including the identification information contained in the wireless signal received by the work terminal and the radio wave intensity of the wireless signal measured by the work terminal, and the initiation of the recording may include starting recording of the video and the first audio in the memory when the radio wave intensity of the wireless signal received from the work terminal, including the identification information received from the support terminal, is equal to or greater than a threshold value.
- the information processing method described in (1) above may further include receiving a second sound from a support terminal used by the supporter in a remote location, and the start of the recording may include starting recording of the video and the first sound in the memory when a predetermined keyword stored in advance is included in the second sound.
- the start of recording may include detecting a speech section in the second audio spoken by the supporter, and starting recording of the video and the first audio in the memory when the predetermined keyword that has been stored in advance within the detected speech section is included in the second audio.
- the speech section in the second voice spoken by the supporter is detected, and if the second voice contains a predetermined keyword that has been stored in advance within the detected speech section, recording of the video and the first voice in memory is started. Therefore, even if the second voice contains noise, it can be determined with high accuracy that the second voice contains the predetermined keyword.
- the start of the recording may include recognizing a movement of the assistant at the work site from the received video image, and starting recording of the video image and the first audio in the memory when the recognized movement is a predetermined movement that has been determined as a trigger.
- the start of the recording may include starting the recording of the video and the first audio in the memory when a pre-stored predetermined keyword is included in the first audio, which includes the voice of the support person at the work site.
- the information processing method described in (1) above may further include transmitting the received video and the first audio to a support terminal used by the supporter in a remote location, and receiving from the support terminal a still image extracted by the supporter from the video displayed on a display unit of the support terminal, and the start of the recording may include starting recording of the video and the first audio in the memory using the reception of the still image as a trigger.
- the information processing method described in (10) above may further include receiving a second sound from the support terminal around the support terminal, and the start of the recording may include starting recording of the video image, the first sound, the second sound, and the still image in the memory, triggered by receiving the still image.
- the information processing method described in (1) above may further include transmitting the received video and the first audio to a support terminal used by the supporter in a remote location, and receiving from the support terminal a still image extracted by the supporter from the video displayed on a display unit of the support terminal, the receiving of the still image including receiving from the support terminal the still image on which instruction information input by the supporter using the support terminal is superimposed, and the initiation of the recording may include starting recording of the video and the first audio in the memory using the superimposition of the instruction information on the still image as a trigger.
- the information processing method described in (1) above may further include receiving mode information from the work terminal indicating whether a first mode in which the worker uses the work terminal or a second mode in which the assistant uses the work terminal has been selected, and the start of the recording may include starting recording of the video and the first audio in the memory when the received mode information indicates the second mode and a predetermined keyword that has been stored in advance is included in the first audio.
- the information processing method described in (1) above may further include receiving mode information from the work terminal indicating whether a first mode in which the worker uses the work terminal or a second mode in which the assistant uses the work terminal has been selected, and the start of the recording may include starting recording of the video and the first audio in the memory when the received mode information indicates the second mode and when the same object is continuously captured in a predetermined area of the video for more than a predetermined period of time.
- the present disclosure can be realized not only as an information processing method that executes the characteristic processing as described above, but also as an information processing device having a characteristic configuration corresponding to the characteristic processing executed by the information processing method. It can also be realized as a computer program that causes a computer to execute the characteristic processing included in such an information processing method. Therefore, the same effect as the above information processing method can be achieved in the following other aspects as well.
- An information processing device includes a communication unit, a control unit, and a memory, the communication unit receives video images captured at a work site and a first audio signal collected at the work site from a work terminal used by a worker at the work site, and the control unit starts recording the video images and the first audio signal in the memory in response to a recording start operation performed by a supporter who supports the work performed by the worker.
- An information processing program causes a computer to function in such a way that a video captured at a work site and a first audio collected at the work site are received from a work terminal used by a worker at the work site, and that recording of the video and the first audio in memory is started in response to a recording start operation by an assistant assisting the worker in the work.
- a non-transitory computer-readable recording medium records an information processing program, and the information processing program causes a computer to receive video images captured at a work site and a first audio signal collected at the work site from a work terminal used by a worker at the work site, and to start recording the video images and the first audio signal in memory in response to a recording start operation by an assistant assisting the worker in the work.
- FIG. 1 is a diagram showing a configuration of a task support system 10 according to the first embodiment.
- the work support system 10 shown in FIG. 1 includes a work terminal 1, a server 2, and a support terminal 3.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- the work terminal 1 is, for example, a wearable device that is worn on the worker's head. The worker performs work at the work site while wearing the work terminal 1.
- the work terminal 1 may be, for example, a smartphone or a tablet computer.
- the work terminal 1 at least comprises a computer system that includes, for example, a control program, a processing circuit such as a processor or logic circuit that executes the control program, and a recording device such as an internal memory or an accessible external memory that stores the control program.
- a control program e.g., a control program
- a processing circuit such as a processor or logic circuit that executes the control program
- a recording device such as an internal memory or an accessible external memory that stores the control program.
- the work terminal 1 may be realized, for example, by hardware implementation using the processing circuit, or by execution of a software program held in the memory by the processing circuit or distributed from an external server, or by a combination of these hardware and software implementations.
- the work terminal 1 is connected to the server 2 via a network 4 so that they can communicate with each other.
- the network 4 is, for example, the Internet.
- the work terminal 1 includes a communication unit 11, a control unit 12, a memory 13, an input unit 14, a camera 15, a microphone 16, and a speaker 17.
- the control unit 12 controls the entire work terminal 1.
- the control unit 12 controls the operation of the communication unit 11, memory 13, input unit 14, camera 15, microphone 16, and speaker 17.
- Memory 13 is a storage device capable of storing various types of information, such as a RAM (Random Access Memory), SSD (Solid State Drive), or flash memory.
- RAM Random Access Memory
- SSD Solid State Drive
- flash memory any type of information
- the camera 15 captures video images by photographing the work site. If the work terminal 1 is a wearable device that is worn on the worker's head, the video images are viewed from the worker's viewpoint.
- Microphone 16 collects the first sound at the work site.
- the communication unit 11 transmits the video captured by the camera 15 and the first audio collected by the microphone 16 to the server 2.
- the communication unit 11 also receives from the server 2 the second audio around the support terminal 3 used by a supporter in a remote location.
- the input unit 14 accepts various input operations by the worker.
- the input unit 14 includes a first start button for starting image capture by the camera 15 and starting collection of the first sound by the microphone 16.
- the input unit 14 also includes a first end button for ending image capture by the camera 15 and ending collection of the first sound by the microphone 16.
- the camera 15 starts image capture and the microphone 16 starts collection of the first sound.
- the camera 15 stops image capture and the microphone 16 ends collection of the first sound.
- the input unit 14 also includes a second start button for starting the transmission of the video and audio to the server 2.
- the input unit 14 also includes a second end button for ending the transmission of the video and audio to the server 2.
- the communication unit 11 starts the transmission of the video and the first audio to the server 2.
- the communication unit 11 ends the transmission of the video and the first audio to the server 2.
- the speaker 17 outputs the second audio received by the communication unit 11 to the outside.
- the second audio includes the voice of the supporter, and the worker can perform work while listening to the voice of the supporter output from the speaker 17.
- the server 2 comprises at least a computer system that includes, for example, a control program, a processing circuit such as a processor or logic circuit that executes the control program, and a recording device such as an internal memory or an accessible external memory that stores the control program.
- a control program such as a processor or logic circuit that executes the control program
- a recording device such as an internal memory or an accessible external memory that stores the control program.
- the server 2 may be realized, for example, by hardware implementation using the processing circuit, or by execution of a software program held in the memory by the processing circuit or distributed from an external server, or by a combination of these hardware and software implementations.
- the server 2 is connected to the work terminal 1 and the support terminal 3 via the network 4 so that they can communicate with each other.
- the server 2 includes a communication unit 21, a control unit 22, and a memory 23.
- the server 2 is an example of an information processing device.
- the communication unit 21 receives video images captured at the work site and first audio collected at the work site from the work terminal 1 used by a worker at the work site.
- the communication unit 21 also receives second audio from the support terminal 3 used by a supporter in a remote location.
- the communication unit 21 also transmits the video images and first audio received from the work terminal 1 to the support terminal 3.
- the communication unit 21 also transmits the second audio received from the support terminal 3 to the work terminal 1.
- the control unit 22 controls the entire server 2.
- the control unit 22 controls the operation of the communication unit 21 and the memory 23.
- the control unit 22 starts recording the video and first audio received by the communication unit 21 into the memory 23, triggered by a recording start operation by the assistant who is assisting the worker with the work.
- the control unit 22 also stops recording the video and first audio received by the communication unit 21 into the memory 23, triggered by a recording end operation by the assistant.
- control unit 22 may not only record the video and first audio from the work terminal 1 in the memory 23, but may also record the video and first audio from the work terminal 1 and the second audio from the support terminal 3 in the memory 23. That is, the control unit 22 may start recording the video, first audio, and second audio received by the communication unit 21 in the memory 23, triggered by a supporter's operation to start recording. The control unit 22 may also end recording the video, first audio, and second audio received by the communication unit 21 in the memory 23, triggered by a supporter's operation to stop recording.
- the memory 23 is a storage device capable of storing various types of information, such as a RAM, a hard disk drive (HDD), an SSD, or a flash memory.
- the memory 23 non-temporarily records the video and the first audio from the work terminal 1.
- the memory 23 may non-temporarily record not only the video and the first audio from the work terminal 1, but also the video and the first audio from the work terminal 1 and the second audio from the support terminal 3. That is, the memory 23 may non-temporarily record the video, the first audio, and the second audio received by the communication unit 21. In this case, the memory 23 records the video, the first audio, and the second audio in one file.
- the communication unit 21 also receives a recording start signal from the support terminal 3 used by the supporter, which instructs the start of recording based on an input operation by the supporter in a remote location.
- the control unit 22 starts recording the video image and the first audio in the memory 23, triggered by the communication unit 21 receiving the recording start signal.
- the communication unit 21 also receives a recording end signal from the support terminal 3 used by the supporter, which instructs the supporter to end recording based on an input operation by the supporter in a remote location.
- the control unit 22 ends the recording of the video and the first audio in the memory 23, triggered by the communication unit 21 receiving the recording end signal.
- the support terminal 3 is, for example, a personal computer, a smartphone, or a tablet computer.
- the support terminal 3 at least comprises a computer system that includes, for example, a control program, a processing circuit such as a processor or logic circuit that executes the control program, and a recording device such as an internal memory or an accessible external memory that stores the control program.
- a control program e.g., a control program
- a processing circuit such as a processor or logic circuit that executes the control program
- a recording device such as an internal memory or an accessible external memory that stores the control program.
- the support terminal 3 may be realized, for example, by hardware implementation using the processing circuit, or by execution of a software program held in the memory by the processing circuit or distributed from an external server, or by a combination of these hardware and software implementations.
- the support terminal 3 is connected to the server 2 via the network 4 so that they can communicate with each other.
- the support terminal 3 includes a communication unit 31, a control unit 32, a memory 33, a display unit 34, a speaker 35, a microphone 36, and an input unit 37.
- the microphone 36 collects the second sound around the support terminal 3.
- the communication unit 31 receives from the server 2 video images captured at the work site and first audio collected at the work site.
- the communication unit 31 also transmits to the server 2 second audio collected by the microphone 36 around the support terminal 3.
- the communication unit 31 also transmits a recording start signal to the server 2 instructing the start of recording based on the input operation by the supporter.
- the communication unit 21 also transmits a recording end signal to the server 2 instructing the end of recording based on the input operation by the supporter.
- the control unit 32 controls the entire support terminal 3.
- the control unit 32 controls the operation of the communication unit 31, memory 33, display unit 34, speaker 35, microphone 36, and input unit 37.
- Memory 33 is a storage device capable of storing various types of information, such as a RAM, HDD, SSD, or flash memory.
- the display unit 34 is, for example, a liquid crystal display, and displays various information.
- the display unit 34 displays video images of the work site received by the communication unit 31.
- the video images displayed on the display unit 34 are video images captured in real time. By viewing the video images displayed on the display unit 34, the supporter can check the work of the worker at the work site.
- the speaker 35 outputs to the outside the first voice collected at the work site and received by the communication unit 31.
- the first voice output from the speaker 35 is voice collected in real time.
- the supporter can support the worker's work while listening to the worker's voice output from the speaker 35.
- the input unit 37 is, for example, a keyboard, a mouse, or a touch panel.
- the input unit 37 accepts various input operations by the supporter.
- the input unit 37 includes a recording start button for starting recording of the video image and the first audio on the server 2.
- the recording start button may be a button that is physically pressed by the supporter, or may be a button that is displayed on the display unit 34 and clicked with a mouse.
- the communication unit 31 transmits a recording start signal to the server 2 to instruct the start of recording.
- the input unit 37 also includes a recording end button for ending the recording of the video and the first audio to the server 2.
- the recording end button may be a button that is physically pressed by the supporter, or may be a button that is displayed on the display unit 34 and clicked with a mouse.
- the communication unit 31 transmits a recording end signal to the server 2 to instruct the end of recording.
- any of the work terminal 1, the server 2, and the support terminal 3 Before starting communication with each other, any of the work terminal 1, the server 2, and the support terminal 3 generates a communication ID and transmits the generated communication ID to each other.
- the work terminal 1, the server 2, and the support terminal 3 transmit and receive the video, the first audio, and the second audio using the communication ID.
- the communication ID is used to identify the video, the first audio, and the second audio.
- FIG. 2 is a flowchart for explaining the work support process performed by the work terminal 1 in the first embodiment of the present disclosure.
- step S1 the camera 15 captures a video image by photographing the work site.
- the input unit 14 accepts an input operation by the worker to start capturing the video image and the first audio.
- step S2 the microphone 16 acquires a first sound at the work site.
- step S3 the communication unit 11 transmits the video captured by the camera 15 and the first audio captured by the microphone 16 to the server 2.
- the input unit 14 accepts an input operation by the worker to start transmitting the video and the first audio.
- the communication unit 11 also transmits the video and the first audio to the server 2, with the support terminal 3 as the destination. As a result, the video and the first audio are transmitted to the support terminal 3 via the server 2.
- step S4 the communication unit 11 receives the second audio around the support terminal 3 transmitted by the server 2.
- step S5 the speaker 17 outputs the second audio received by the communication unit 11 to the outside.
- step S6 the control unit 12 determines whether or not to end the transmission of the video and the first audio.
- the input unit 14 accepts an input operation by the operator to end the transmission of the video and the first audio. If an input operation to end the transmission of the video and the first audio is accepted, the control unit 12 determines to end the transmission of the video and the first audio. On the other hand, if an input operation to end the transmission of the video and the first audio is not accepted, the control unit 12 determines not to end the transmission of the video and the first audio.
- step S6 If it is determined that the transmission of the video and the first audio is to be ended (YES in step S6), the work support process ends. At this time, the communication unit 11 ends the transmission of the video and the first audio. After the transmission of the video and the first audio is ended, the input unit 14 accepts an input operation by the worker to end the acquisition of the video and the first audio.
- step S6 if it is determined that the transmission of the video and the first audio is not to be ended (NO in step S6), the process returns to step S1.
- FIG. 3 is a flowchart for explaining the work support process by the server 2 in the first embodiment of the present disclosure.
- step S11 the communication unit 21 receives the video and the first audio transmitted by the work terminal 1.
- step S12 the communication unit 21 transmits the received video and first audio to the support terminal 3.
- step S13 the communication unit 21 receives the second audio transmitted by the support terminal 3.
- step S14 the communication unit 21 transmits the received second voice to the work terminal 1.
- step S15 the control unit 22 determines whether a recording start signal instructing the start of recording has been received by the communication unit 21 based on an input operation by a supporter in a remote location.
- step S16 the control unit 22 starts recording the video, first audio, and second audio received by the communication unit 21 in the memory 23. Thereafter, the process returns to step S11. Thereafter, the video, first audio, and second audio received by the communication unit 21 are recorded in the memory 23.
- step S17 the control unit 22 determines whether or not a recording end signal instructing the end of recording based on an input operation by a supporter in a remote location has been received by the communication unit 21.
- step S18 the control unit 22 ends recording the video, first audio, and second audio received by the communication unit 21 in the memory 23. Then, the process returns to step S11. As a result, the video, first audio, and second audio received by the communication unit 21 from the time the recording start signal was received until the time the recording end signal was received are recorded in the memory 23.
- step S17 if it is determined that the recording end signal has not been received (NO in step S17), the process returns to step S11.
- FIG. 4 is a flowchart for explaining the work support process by the support terminal 3 in the first embodiment of the present disclosure.
- step S21 the communication unit 31 receives the video and the first audio transmitted by the server 2.
- step S22 the display unit 34 displays the video image received by the communication unit 31.
- step S23 the speaker 35 outputs the first audio received by the communication unit 31 to the outside.
- step S24 the microphone 36 acquires the second sound around the support terminal 3.
- step S25 the communication unit 31 transmits the second voice acquired by the microphone 36 to the server 2.
- the communication unit 31 transmits the second voice to the server 2, with the work terminal 1 as the destination.
- the second voice is transmitted to the work terminal 1 via the server 2.
- step S26 the control unit 32 determines whether the recording start button on the input unit 37 has been pressed.
- step S27 the communication unit 31 sends a record start signal to the server 2 to instruct the server 2 to start recording. Then, the process returns to step S21.
- step S28 the control unit 32 determines whether the stop recording button on the input unit 37 has been pressed.
- step S29 the communication unit 31 sends a recording end signal to the server 2 to instruct the server 2 to end recording. Then, the process returns to step S21.
- step S28 if it is determined that the recording stop button has not been pressed (NO in step S28), the process returns to step S21.
- the assistant's operation to start recording serves as a trigger to start recording in memory 23 of the video and first audio received from the work terminal 1 used by the worker at the work site. Therefore, only the video and first audio that the assistant determines is necessary are recorded in memory 23, so the amount of data recorded in memory 23 can be reduced. Also, since recording of the video and first audio in memory 23 starts when the assistant performs an operation to start recording, the worker does not need to perform an operation to start recording while working, which reduces the burden on the worker.
- FIG. 5 shows an example of a screen displayed on the display unit 34 of the support terminal 3 in the present embodiment 1.
- the display unit 34 displays a video 341 captured at the work site, a start recording button 342, and an end recording button 343.
- a start recording signal is sent to the server 2. This causes the server 2 to start recording the video, the first audio, and the second audio.
- the supporter operates the mouse to move the pointer displayed on the display unit 34 onto the recording end button 343, and when the supporter clicks the mouse button, a recording end signal is sent to the server 2. This causes the server 2 to end recording of the video, first audio, and second audio.
- the control unit 22 starts recording the video and the first audio in the memory 23 from the time when the supporter operates to start recording, but the present disclosure is not particularly limited to this, and the video and the first audio may be recorded in the memory 23 from a predetermined time before the supporter operates to start recording.
- the memory 23 includes a buffer area for temporarily recording the received video and first audio.
- the control unit 22 temporarily records the received video and first audio in the buffer area.
- the control unit 22 may read the video and first audio from the time when the recording start signal is received until a predetermined time ago from the buffer area and record them in the memory 23, and may record the video and first audio from the time when the recording start signal is received after the recording start signal is received in the memory 23.
- control unit 22 ends recording of the video and the first audio in the memory 23 when the supporter operates to end recording, but the present disclosure is not particularly limited to this, and the video and the first audio may be recorded in the memory 23 from the time the supporter operates to end recording until a predetermined time later.
- the control unit 22 may record in the memory 23 the video and the first audio from the time the recording end signal is received until a predetermined time later.
- the recording of the video and the first audio into memory 23 is started when a recording start signal is received, whereas in the second embodiment, the recording of the video and the first audio into memory is started when the position of the work terminal enters a specified area at the work site designated by a supporter located in a remote location.
- FIG. 6 is a diagram showing the configuration of a work support system 10A according to the second embodiment.
- the work support system 10A shown in FIG. 6 includes a work terminal 1A, a server 2A, and a support terminal 3A.
- the same components as those in the first embodiment are given the same reference numerals, and the description thereof is omitted.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- the work terminal 1A includes a communication unit 11A, a control unit 12, a memory 13, an input unit 14, a camera 15, a microphone 16, a speaker 17, and a GPS (Global positioning system) receiving unit 18.
- the following description of the work terminal 1A focuses on the differences from the work terminal 1 of the first embodiment.
- the communication unit 11A transmits location information indicating the current location of the work terminal 1A acquired by the GPS receiving unit 18 to the server 2.
- the current location of the work terminal 1A is obtained from a GPS signal, but the present disclosure is not limited to this, and the current location of the work terminal 1A may also be obtained from base station information of a mobile phone or wireless LAN terminal.
- the server 2A includes a communication unit 21A, a control unit 22A, and a memory 23A.
- the server 2A is an example of an information processing device. The following description of the server 2A focuses on the differences from the server 2 of the first embodiment.
- the communication unit 21A receives location information indicating the current location of the work terminal 1A from the work terminal 1A.
- the communication unit 21A stores the received area designation information in the memory 23A.
- the control unit 22A starts recording the video and the first audio in the memory 23A when the position of the work terminal 1A indicated by the position information enters a specified area at the work site. That is, the control unit 22A starts recording the video and the first audio in the memory 23A when the position of the work terminal 1A indicated by the position information enters a specified area indicated by the area designation information. The control unit 22A also stops recording the video and the first audio in the memory 23A when the position of the work terminal 1A indicated by the position information leaves the specified area indicated by the area designation information.
- the control unit 22A may not only record the video and the first audio from the work terminal 1A in the memory 23A, but may also record the video and the first audio from the work terminal 1A and the second audio from the support terminal 3A in the memory 23A. That is, the control unit 22A may start recording the video, the first audio, and the second audio received by the communication unit 21A in the memory 23A when triggered by a supporter's operation to start recording. The control unit 22A may also end recording the video, the first audio, and the second audio received by the communication unit 21A in the memory 23A when triggered by a supporter's operation to stop recording.
- Memory 23A stores the area designation information received by communication unit 21A.
- the support terminal 3A includes a communication unit 31A, a control unit 32, a memory 33, a display unit 34A, a speaker 35, a microphone 36, and an input unit 37A.
- a communication unit 31A for communicating with a control unit 32
- a memory 33 for storing data
- a display unit 34A for displaying images
- a speaker 35 for converting sound
- a microphone 36 for converting sound
- an input unit 37A input unit.
- the communication unit 31A receives drawing information for the work site.
- the drawing information indicates the positions of equipment and the like located at the work site.
- the communication unit 31A may receive the drawing information from another terminal, or from the server 2A.
- the display unit 34A displays the drawing information received by the communication unit 31A.
- the input unit 37A accepts the supporter's designation of a specified area for the drawing information displayed on the display unit 34A.
- recording of the video and first audio from the work terminal 1A to the server 2A begins.
- recording of the video and first audio from the work terminal 1A to the server 2A ends.
- the supporter designates a specified area on the drawing of the work site.
- the input unit 37A accepts the supporter's designation of a specified area by surrounding the specified area on the drawing of the work site with a line.
- the communication unit 31A transmits area designation information indicating a specific area in the work site designated by the assistant using the input unit 37A to the server 2A.
- FIG. 7 is a flowchart for explaining the work support process by the work terminal 1A in the second embodiment of the present disclosure.
- step S31 to step S33 is the same as the processing from step S1 to step S3 shown in FIG. 2, so the explanation is omitted.
- step S34 the GPS receiver 18 receives GPS signals transmitted from GPS satellites to obtain the current position of the work terminal 1A.
- step S35 the communication unit 11A transmits to the server 2 location information indicating the current location of the work terminal 1A acquired by the GPS receiving unit 18.
- steps S36 to S38 is the same as that in steps S4 to S6 shown in FIG. 2, so a description thereof will be omitted.
- FIG. 8 is a flowchart for explaining the work support process by server 2A in embodiment 2 of the present disclosure.
- step S41 the communication unit 21A receives area designation information indicating a specific area in the work site transmitted by the support terminal 3A.
- step S42 the communication unit 21A stores the received area designation information in memory 23A.
- step S43 to step S46 is the same as the processing from step S11 to step S14 shown in FIG. 3, so a description thereof will be omitted.
- step S47 the communication unit 21A receives location information indicating the current location of the work terminal 1A transmitted by the work terminal 1A.
- step S48 the control unit 22A determines whether the position of the work terminal 1A indicated by the position information received by the communication unit 21A is within a predetermined area indicated by the area designation information stored in the memory 23A.
- step S49 the control unit 22A determines whether the video, the first audio, and the second audio are being recorded.
- step S50 the control unit 22A starts recording the video, the first audio, and the second audio received by the communication unit 21A in the memory 23A. Then, the process returns to step S43.
- step S49 if it is determined that the video, first audio, and second audio are being recorded (YES in step S49), the process returns to step S43.
- step S51 the control unit 22A determines whether the video, the first audio, and the second audio are being recorded.
- step S52 the control unit 22A ends the recording of the video, the first audio, and the second audio received by the communication unit 21A in the memory 23A. Then, the process returns to step S43.
- step S51 if it is determined that the video, first audio, and second audio are not being recorded (NO in step S51), the process returns to step S43.
- FIG. 9 is a flowchart for explaining the work support process by the support terminal 3A in the second embodiment of the present disclosure.
- step S61 the input unit 37A accepts the assistant's designation of a specific area at the work site.
- the assistant designates the range of the specific area in the diagram of the work site displayed on the display unit 34A, within which recording to the server 2A will begin when the work terminal 1A enters.
- step S62 the communication unit 31A transmits area designation information indicating a specific area in the work site designated by the input unit 37A to the server 2A.
- step S63 to step S67 is the same as the processing from step S21 to step S25 shown in FIG. 4, so a description thereof will be omitted.
- the server 2A receives the area designation information and determines whether the position of the work terminal 1A is within the predetermined area, but the present disclosure is not particularly limited to this.
- the work terminal 1A may receive the area designation information and determine whether the position of the work terminal 1A is within the predetermined area. If it is determined that the position of the work terminal 1A is within the predetermined area, the work terminal 1A may transmit a recording start signal to the server 2A to instruct the start of recording.
- the server 2A may start recording the video, the first audio, and the second audio in the memory 23A.
- the work terminal 1A may transmit a recording end signal to the server 2A to instruct the end of recording.
- the server 2A may end the recording of the video, the first audio, and the second audio in the memory 23A.
- recording of the moving image and the first audio into memory 23A is started when the position of the work terminal 1A enters a specified area at a work site designated by a supporter at a remote location, while in embodiment 3, recording of the moving image and the first audio into memory is started when the work terminal approaches a work target at a work site designated by a supporter at a remote location.
- FIG. 10 is a diagram showing the configuration of a work assistance system 10B according to the third embodiment.
- the work support system 10B shown in FIG. 10 includes a work terminal 1B, a server 2B, and a support terminal 3B. Note that in this embodiment 3, the same components as those in the embodiment 1 are given the same reference numerals, and the description thereof is omitted.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- a beacon transmitter that transmits a beacon signal is provided on a work target such as equipment installed at a work site.
- the beacon transmitter is, for example, a transmitter that transmits a beacon signal that conforms to the BLE (Bluetooth (registered trademark) Low Energy) communication protocol.
- the beacon transmitter is provided on the work target and wirelessly transmits a beacon signal that includes a beacon ID (identification information) for identifying the work target.
- the beacon ID is, for example, a UUID (Universally Unique IDentifier), a Major ID, or a Minor ID, and uniquely identifies the beacon transmitter and the work target that is equipped with the beacon transmitter.
- the beacon transmitter transmits a beacon signal at a fixed period.
- the beacon transmitter is provided with a memory that pre-stores a beacon ID for identifying the work target, and transmits a beacon signal that includes the beacon ID.
- the beacon signal is an example of a wireless signal.
- the work terminal 1B includes a communication unit 11B, a control unit 12, a memory 13, an input unit 14, a camera 15, a microphone 16, a speaker 17, and a beacon receiving unit 19.
- the following description of the work terminal 1B focuses on the differences from the work terminal 1 of the first embodiment.
- the beacon receiver 19 receives a beacon signal transmitted from a beacon transmitter at the work site.
- the beacon receiver 19 includes an antenna that complies with the BLE standard.
- the beacon receiver 19 receives the beacon signal transmitted by the beacon transmitter.
- the beacon receiver 19 also measures the radio wave strength (RSSI (Received Signal Strength Indicator)) of the received beacon signal.
- RSSI Receiveived Signal Strength Indicator
- the communication unit 11B transmits to the server 2B signal information including the beacon ID contained in the beacon signal received by the beacon receiving unit 19 and the radio wave intensity of the beacon signal measured by the beacon receiving unit 19.
- the beacon receiving unit 19 When the beacon receiving unit 19 receives multiple beacon signals, it measures the radio wave intensities of the multiple beacon signals.
- the communication unit 11B transmits to the server 2B signal information including multiple beacon IDs included in each of the multiple beacon signals received by the beacon receiving unit 19 and multiple radio wave intensities of each of the multiple beacon signals measured by the beacon receiving unit 19.
- Server 2B includes a communication unit 21B, a control unit 22B, and a memory 23B.
- Server 2B is an example of an information processing device. In the following explanation of server 2B, differences from server 2 in embodiment 1 will be described.
- the communication unit 21B receives a beacon ID (identification information) contained in a beacon signal (wireless signal) transmitted from a work target at a work site designated by a supporter in a remote location from the support terminal 3B used by the supporter.
- the communication unit 21B stores the beacon ID received from the support terminal 3B in the memory 23B.
- the communication unit 21B also receives signal information from the work terminal 1B, including a beacon ID (identification information) contained in the beacon signal (wireless signal) received by the work terminal 1B and the radio wave intensity of the beacon signal (wireless signal) measured by the work terminal 1B.
- a beacon ID identification information contained in the beacon signal (wireless signal) received by the work terminal 1B
- the radio wave intensity of the beacon signal (wireless signal) measured by the work terminal 1B the radio wave intensity of the beacon signal (wireless signal) measured by the work terminal 1B.
- the control unit 22B starts recording the video and the first audio in the memory 23B when the radio wave strength of the beacon signal (wireless signal) received from the work terminal 1B, including the beacon ID (identification information) of the work target received from the support terminal 3B, is equal to or greater than a threshold.
- the control unit 22B also stops recording the video and the first audio in the memory 23B when the radio wave strength of the beacon signal (wireless signal) received from the work terminal 1B, including the beacon ID (identification information) of the work target received from the support terminal 3B, is lower than the threshold.
- control unit 22B may not only record the video and the first audio from the work terminal 1B in the memory 23B, but may also record the video and the first audio from the work terminal 1B and the second audio from the support terminal 3B in the memory 23B. That is, the control unit 22B may start recording the video, the first audio, and the second audio received by the communication unit 21B in the memory 23B when triggered by a supporter's operation to start recording. The control unit 22B may also end recording the video, the first audio, and the second audio received by the communication unit 21B in the memory 23B when triggered by a supporter's operation to stop recording.
- Memory 23B stores the beacon ID (identification information) of the work target received by communication unit 21B.
- the support terminal 3B includes a communication unit 31B, a control unit 32, a memory 33, a display unit 34B, a speaker 35, a microphone 36, and an input unit 37B.
- a communication unit 31B for communicating with a control unit 32
- a memory 33 for storing data
- a display unit 34B for displaying images
- a speaker 35 for converting sound
- a microphone 36 for converting sound
- an input unit 37B includes a communication unit 31B, a communication unit 31B, a communication unit 31B, a control unit 32, a memory 33, a display unit 34B, a speaker 35, a microphone 36, and an input unit 37B.
- the display unit 34B displays at least one work object at the work site.
- a beacon ID identification information
- the input unit 37B accepts the assistant's designation of a work target for which the assistant will assist from among at least one work target displayed on the display unit 34B. There is at least one work target at the work site.
- the assistant designates a work target for which the assistant will assist from among the at least one work target.
- the communication unit 31B transmits to the server 2A the beacon ID (identification information) associated with the task target specified by the supporter via the input unit 37B.
- FIG. 11 is a flowchart for explaining the work support process by the work terminal 1B in the third embodiment of the present disclosure.
- steps S71 to S73 is the same as that in steps S1 to S3 shown in FIG. 2, so a description thereof will be omitted.
- step S74 the beacon receiver 19 receives a beacon signal transmitted from a beacon transmitter at the work site.
- step S75 the beacon receiver 19 measures the radio wave strength of the received beacon signal.
- step S76 the communication unit 11B transmits signal information including the beacon ID contained in the beacon signal received by the beacon receiving unit 19 and the radio wave intensity of the beacon signal measured by the beacon receiving unit 19 to the server 2B.
- steps S77 to S79 is the same as that in steps S4 to S6 shown in FIG. 2, so a description thereof will be omitted.
- FIG. 12 is a flowchart for explaining the work support process by server 2B in embodiment 3 of the present disclosure.
- step S81 the communication unit 21B receives the beacon ID of the work target at the work site transmitted by the support terminal 3B.
- step S82 communication unit 21B stores the received beacon ID of the work target in memory 23B.
- step S83 to step S86 is the same as the processing from step S11 to step S14 shown in FIG. 3, so a description thereof will be omitted.
- step S87 the communication unit 21B receives signal information from the work terminal 1B, the signal information including the beacon ID included in the beacon signal received by the work terminal 1B and the radio wave intensity of the beacon signal measured by the work terminal 1B.
- step S88 the control unit 22B determines whether the radio wave strength of the beacon signal received from the work terminal 1B, which includes the beacon ID of the work target received from the support terminal 3B, is equal to or greater than a threshold value.
- step S89 the control unit 22B determines whether the video, the first audio, and the second audio are being recorded.
- step S90 the control unit 22B starts recording the video, the first audio, and the second audio received by the communication unit 21B in the memory 23B. Then, the process returns to step S83.
- step S89 if it is determined that the video, the first audio, and the second audio are being recorded (YES in step S89), the process returns to step S83.
- step S91 the control unit 22B determines whether the video, the first audio, and the second audio are being recorded.
- step S92 the control unit 22B ends the recording of the video, the first audio, and the second audio received by the communication unit 21B in the memory 23B. Then, the process returns to step S83.
- step S91 if it is determined that the video, first audio, and second audio are not being recorded (NO in step S91), the process returns to step S83.
- FIG. 13 is a flowchart for explaining the work support process by the support terminal 3B in the third embodiment of the present disclosure.
- step S101 the input unit 37B accepts the supporter's designation of a work target for which the supporter will assist with the work. From among at least one work target displayed on the display unit 34B, the supporter designates a work target for which recording to the server 2B will begin when the work terminal 1B approaches.
- step S102 the communication unit 31B transmits the beacon ID of the work target specified by the input unit 37B to the server 2B.
- step S103 to step S107 is the same as the processing from step S21 to step S25 shown in FIG. 4, so the explanation is omitted.
- the server 2B receives the beacon ID of the work target and determines whether the radio wave strength of the beacon signal including the beacon ID of the work target is equal to or greater than a threshold value, but the present disclosure is not particularly limited to this.
- the work terminal 1B may receive the beacon ID of the work target and determine whether the radio wave strength of the beacon signal including the beacon ID of the work target is equal to or greater than a threshold value. If it is determined that the radio wave strength of the beacon signal including the beacon ID of the work target is equal to or greater than a threshold value, the work terminal 1B may transmit a recording start signal to the server 2B to instruct the start of recording.
- the server 2B may start recording the video, the first audio, and the second audio in the memory 23B. Also, when it is determined that the radio wave strength of the beacon signal including the beacon ID of the work target is less than the threshold value, the work terminal 1B may transmit a recording end signal to the server 2B to instruct the end of recording. When the server 2B receives the recording end signal transmitted by the work terminal 1B, the server 2B may end the recording of the video, the first audio, and the second audio in the memory 23B.
- FIG. 14 is a diagram showing the configuration of a work support system 10C according to the fourth embodiment.
- the work support system 10C shown in FIG. 14 includes a work terminal 1, a server 2C, and a support terminal 3C. Note that in this embodiment 4, the same components as those in embodiment 1 are given the same reference numerals, and the description thereof is omitted.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- the server 2C includes a communication unit 21C, a control unit 22C, and a memory 23C.
- the server 2C is an example of an information processing device. The following description of the server 2C focuses on the differences from the server 2 of the first embodiment.
- the communication unit 21C receives the second audio from the support terminal 3C used by a supporter in a remote location.
- Memory 23C pre-stores a predetermined start keyword and also pre-stores a predetermined end keyword.
- the predetermined start keyword is, for example, a demonstrative pronoun such as "there” or “over there", the name of the work target, or the name of a part of the work target.
- the predetermined end keyword is, for example, a phrase for ending recording such as "end recording”.
- the predetermined start keyword and the predetermined end keyword may be input by the assistant.
- Memory 23C may store one start keyword or multiple start keywords.
- Memory 23C may store one end keyword or multiple end keywords.
- the control unit 22C starts recording the video and the first audio in the memory 23C when a predetermined start keyword pre-stored in the memory 23C is included in the second audio as a trigger.
- the control unit 22C also stops recording the video and the first audio in the memory 23C when a predetermined end keyword pre-stored in the memory 23C is included in the second audio as a trigger.
- the control unit 22C performs voice recognition on the second voice received by the communication unit 21 and converts the second voice into text. The control unit 22C then determines whether or not a predetermined start keyword pre-stored in the memory 23C is included in the converted second voice. If it is determined that the predetermined start keyword is included in the second voice, the control unit 22C starts recording the video and the first voice into the memory 23C.
- control unit 22C determines whether or not the predetermined end keyword previously stored in the memory 23C is contained in the second voice that has been converted into text. If it is determined that the predetermined end keyword is contained in the second voice, the control unit 22C ends recording of the video and the first voice in the memory 23C.
- control unit 22C may not only record the video and first audio from the work terminal 1 in the memory 23C, but may also record the video and first audio from the work terminal 1 and the second audio from the support terminal 3C in the memory 23C. That is, the control unit 22C may start recording the video, first audio, and second audio received by the communication unit 21C in the memory 23C, triggered by a supporter's operation to start recording. The control unit 22C may also end recording the video, first audio, and second audio received by the communication unit 21C in the memory 23C, triggered by a supporter's operation to stop recording.
- the support terminal 3C includes a communication unit 31C, a control unit 32C, a memory 33, a display unit 34, a speaker 35, a microphone 36, and an input unit 37C.
- a communication unit 31C a communication unit 31C
- a control unit 32C a control unit 32C
- a memory 33 a memory 33
- a display unit 34 a speaker 35
- a microphone 36 a microphone 36
- an input unit 37C input unit
- the communication unit 31C receives video images captured at the work site and first audio collected at the work site from the server 2C.
- the communication unit 31C also transmits second audio collected by the microphone 36 around the support terminal 3C to the server 2C.
- the communication unit 31C does not transmit a recording start signal or a recording end signal to the server 2C.
- the control unit 32C does not determine whether the recording start button has been pressed. Also, unlike the first embodiment, the control unit 32C does not determine whether the recording end button has been pressed.
- the input unit 37C does not include a recording start button or a recording end button.
- FIG. 15 is a flowchart for explaining the work support process by the server 2C in the fourth embodiment of the present disclosure.
- step S121 to step S124 is the same as the processing from step S11 to step S14 shown in FIG. 3, so the explanation is omitted.
- step S125 the control unit 22C performs voice recognition on the second voice received by the communication unit 21 and converts the second voice into text.
- step S126 the control unit 22C determines whether a predetermined start keyword pre-stored in the memory 23C is included in the second voice that has been converted into text.
- step S127 the control unit 22C starts recording the video, the first audio, and the second audio in the memory 23C. Then, the process returns to step S121.
- step S1208 the control unit 22C determines whether or not the specified end keyword pre-stored in the memory 23C is included in the second voice that has been converted into text.
- step S1228 If it is determined that the specified end keyword is not included in the second voice (NO in step S128), the process returns to step S121.
- step S129 the control unit 22C determines whether the video, the first audio, and the second audio are being recorded.
- step S129 If it is determined that the video, first audio, and second audio are not being recorded (NO in step S129), the process returns to step S121.
- step S130 the control unit 22C ends the recording of the video, the first audio, and the second audio in the memory 23C. Then, the process returns to step S121.
- the supporter in a remote location speaks a predetermined keyword that has been stored in advance, recording of the video image and the first audio in memory 23C begins. Therefore, the worker does not need to perform an operation to start recording, and the supporter in a remote location can record the video image and the first audio in memory 23C by speaking the predetermined keyword.
- the control unit 22C determines whether or not a predetermined end keyword is included in the second audio, but the present disclosure is not particularly limited to this.
- the support terminal 3C may accept pressing of a recording end button by the supporter. When the recording end button is pressed by the supporter, the support terminal 3C may transmit a recording end signal to the server 2C.
- the communication unit 21C of the server 2C may receive the recording end signal transmitted by the support terminal 3C.
- the control unit 22C may determine whether or not the recording end signal transmitted by the support terminal 3C has been received. When it is determined that the recording end signal has been received, the control unit 22C may terminate recording of the video, the first audio, and the second audio in the memory 23C.
- the server 2C determines whether or not the second voice contains a predetermined start keyword, but the present disclosure is not particularly limited to this.
- the support terminal 3C may determine whether or not the second voice contains a predetermined start keyword. If it is determined that the second voice contains the predetermined start keyword, the support terminal 3C may transmit a recording start signal to the server 2C to instruct the start of recording. When the server 2C receives the recording start signal transmitted by the support terminal 3C, it may start recording the video, the first voice, and the second voice in the memory 23C.
- the support terminal 3C may also determine whether or not the second voice contains a predetermined end keyword.
- the support terminal 3C may transmit a recording end signal to the server 2C to instruct the end of recording.
- the server 2C receives the recording end signal transmitted by the support terminal 3C, it may end recording the video, the first voice, and the second voice in the memory 23C.
- Embodiment 5 In embodiment 1, the recording of the moving image and the first audio into memory 23 is started in response to the reception of a recording start signal, whereas in embodiment 5, a speech section in the second audio spoken by the supporter is detected, and the detection of the speech section is used as a trigger to start recording of the moving image and the first audio into memory.
- FIG. 16 is a diagram showing the configuration of a work support system 10D according to the fifth embodiment.
- the work support system 10D shown in FIG. 16 includes a work terminal 1, a server 2D, and a support terminal 3C. Note that in this embodiment 5, the same components as those in the embodiments 1 and 4 are given the same reference numerals, and the description thereof is omitted.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- the server 2D includes a communication unit 21D, a control unit 22D, and a memory 23.
- the server 2D is an example of an information processing device. The following description of the server 2D focuses on the differences from the server 2 of the first embodiment.
- the communication unit 21D receives a second sound from the support terminal 3C around the support terminal 3C used by a supporter in a remote location.
- the control unit 22D detects the speech section in the second voice where the supporter speaks.
- the control unit 22D detects the speech section using a general speech section detection (VAD: Voice Activity Detection) technology.
- VAD Voice Activity Detection
- the control unit 22D detects whether a frame constituted by a time series of the input second voice is a speech section based on the amplitude and the number of zero crossings in the frame.
- the control unit 22D may calculate the probability that the supporter is speaking using a voice model based on the features of the input voice information, and calculate the probability that the supporter is not speaking using a noise model, and determine that a section where the probability obtained from the voice model is higher than the probability obtained from the noise model is a speech section.
- the control unit 22D is triggered by the detection of a speech section to start recording the video and the first audio in the memory 23.
- the control unit 22D is also triggered by the disappearance of the speech section to end recording the video and the first audio in the memory 23.
- the control unit 22D determines whether the second sound is a speech section. If it is determined that the second sound is a speech section, the control unit 22D starts recording the video and the first sound in the memory 23. Furthermore, if it is determined that the second sound is not a speech section after it has been determined that the second sound is a speech section, the control unit 22D ends recording the video and the first sound in the memory 23.
- control unit 22D may not only record the video and first audio from the work terminal 1 in the memory 23, but may also record the video and first audio from the work terminal 1 and the second audio from the support terminal 3C in the memory 23. That is, the control unit 22C may start recording the video, first audio, and second audio received by the communication unit 21D in the memory 23, triggered by a supporter's operation to start recording. The control unit 22D may also end recording the video, first audio, and second audio received by the communication unit 21D in the memory 23, triggered by a supporter's operation to stop recording.
- FIG. 17 is a flowchart for explaining the work support process by the server 2C in the fifth embodiment of the present disclosure.
- step S141 to step S144 is the same as the processing from step S11 to step S14 shown in FIG. 3, so the explanation is omitted.
- step S145 the control unit 22D detects the speech section in the second audio.
- step S146 the control unit 22D determines whether the second audio is a speech section.
- step S147 the control unit 22D determines whether the video, the first audio, and the second audio are being recorded.
- step S147 If it is determined that the video, first audio, and second audio are being recorded (YES in step S147), the process returns to step S141.
- step S148 the control unit 22D starts recording the video, the first audio, and the second audio in the memory 23. Then, the process returns to step S141.
- step S149 the control unit 22D determines whether the video, the first audio, and the second audio are being recorded.
- step S149 If it is determined that the video, first audio, and second audio are not being recorded (NO in step S149), the process returns to step S141.
- step S150 the control unit 22D ends the recording of the video, the first audio, and the second audio in the memory 23. Then, the process returns to step S141.
- the control unit 22D detects the speech section in the second voice where the supporter speaks, but the present disclosure is not particularly limited to this.
- the control unit 22D may detect the speech section in the first voice and the second voice where the worker and the supporter speak.
- the control unit 22D may determine whether the first voice and the second voice are speech sections. If it is determined that the first voice and the second voice are speech sections, the control unit 22D may start recording the moving image and the first voice in the memory 23. Furthermore, if it is determined that the first voice and the second voice are not speech sections after it is determined that the first voice and the second voice are speech sections, the control unit 22D may end recording the moving image and the first voice in the memory 23.
- the server 2D detects the speech section in the second voice spoken by the supporter and determines whether the second voice is a speech section, but the present disclosure is not particularly limited to this.
- the support terminal 3C may detect the speech section in the second voice spoken by the supporter and determine whether the second voice is a speech section. If the second voice is determined to be a speech section, the support terminal 3C may send a recording start signal to the server 2D to instruct the start of recording.
- the server 2D receives the recording start signal sent by the support terminal 3C, it may start recording the video, the first voice, and the second voice in the memory 23.
- the support terminal 3C may send a recording end signal to the server 2D to instruct the end of recording.
- the server 2D receives the recording end signal sent by the support terminal 3C, it may end the recording of the video, the first voice, and the second voice in the memory 23.
- the control unit 22D determines whether the second voice is a speech section. If it is determined that the second voice is a speech section, the control unit 22D may perform voice recognition on the second voice received by the communication unit 21D and convert the second voice into text. The control unit 22D may then determine whether a predetermined start keyword pre-stored in the memory 23 is included in the converted text of the second voice. If it is determined that the predetermined start keyword is included in the second voice, the control unit 22D may start recording the video and the first voice in the memory 23. Furthermore, if it is determined that the second voice is not a speech section during the recording of the video and the first voice, the control unit 22D may end the recording of the video and the first voice in the memory 23.
- FIG. 18 is a diagram showing the configuration of a work assistance system 10E according to the sixth embodiment.
- the work support system 10E shown in FIG. 18 includes a work terminal 1E and a server 2E. Note that in this embodiment 6, the same components as those in embodiment 1 are given the same reference numerals and will not be described.
- a worker who performs work is at a work site, and a supporter who assists the worker in his work is also at the work site.
- the worker takes a picture of the supporter assisting the worker in the work on the work target at the work site.
- the work terminal 1E includes a communication unit 11E, a control unit 12E, a memory 13, an input unit 14E, a camera 15, and a microphone 16.
- a communication unit 11E for communicating with a communication terminal 1E
- a control unit 12E for controlling the operation of the work terminal 1E
- a memory 13 for storing data
- an input unit 14E for converting digital signals to digital signals
- a camera 15 for capturing images
- a microphone 16 includes a microphone 16.
- the communication unit 11E transmits the video captured by the camera 15 and the first audio collected by the microphone 16 to the server 2E.
- the server 2E includes a communication unit 21E, a control unit 22E, and a memory 23E.
- the server 2E is an example of an information processing device. The following description of the server 2E focuses on the differences from the server 2 of the first embodiment.
- the communication unit 21E receives the video captured at the work site and the first audio collected at the work site from the work terminal 1E used by a worker at the work site.
- the control unit 22E recognizes the movement of the supporter at the work site from the video image received by the communication unit 21E. When the recognized movement of the supporter is a predetermined movement, the control unit 22E starts recording the video image and the first sound in the memory 23E as a trigger.
- the predetermined movement is the movement of the supporter pointing a finger at the work target.
- the control unit 22E uses the trained neural network to estimate the skeleton of a person appearing in a video image.
- the control unit 22E also uses the trained neural network to recognize the movements of the person from the estimated skeleton.
- the control unit 22E judges whether the recognized movement of the assistant is a predetermined movement. If it is judged that the recognized movement of the assistant is a predetermined movement, the control unit 22E starts recording the video and the first sound in the memory 23E. For example, when assisting with work at a work site, the assistant points his/her finger at the work target. By recognizing the assistant's pointing movement, the control unit 22E judges that the assistant has started assisting with the work, and starts recording the video and the first sound in the memory 23E.
- the first sound includes the voice of the worker and the voice of the assistant.
- the communication unit 21E also receives a recording end signal from the work terminal 1E, which instructs the end of recording based on an input operation by the worker at the work site.
- the control unit 22E ends the recording of the video and the first audio in the memory 23E, triggered by the communication unit 21E receiving the recording end signal.
- FIG. 19 is a flowchart for explaining the work support process by the work terminal 1E in the sixth embodiment of the present disclosure.
- steps S151 to S153 is the same as the processing in steps S1 to S3 shown in FIG. 2, so a description thereof will be omitted.
- step S154 the control unit 12E determines whether the recording end button on the input unit 14E has been pressed.
- step S154 If it is determined that the recording stop button has not been pressed (NO in step S154), the process returns to step S151.
- step S155 the communication unit 11E sends a recording end signal to the server 2E to instruct the server 2E to end recording.
- step S156 is the same as the process of step S6 shown in FIG. 2, so a description thereof will be omitted.
- FIG. 20 is a flowchart for explaining the work support process by the server 2E in the sixth embodiment of the present disclosure.
- step S161 the communication unit 21E receives the video and the first audio transmitted by the work terminal 1E.
- step S162 the control unit 22E recognizes the actions of the support staff at the work site from the video images received by the communication unit 21E.
- step S163 the control unit 22E determines whether the recognized action is a predetermined action.
- step S164 the control unit 22E determines whether or not a moving image and the first audio are being recorded.
- step S164 If it is determined that the video and the first audio are being recorded (YES in step S164), the process returns to step S161.
- step S165 the control unit 22E starts recording the video and the first audio received by the communication unit 21E in the memory 23E. Then, the process returns to step S161.
- step S166 the control unit 22E determines whether a recording end signal instructing the end of recording based on an input operation by a worker at the work site has been received by the communication unit 21E.
- step S167 the control unit 22E ends recording the video and first audio received by the communication unit 21E in the memory 23E. Then, the process returns to step S161.
- step S166 if it is determined that the recording end signal has not been received (NO in step S166), the process returns to step S161.
- the recording of the moving image and the first audio into memory 23 is started in response to the reception of a recording start signal, whereas in the seventh embodiment, the recording of the moving image and the first audio into memory is started in response to the inclusion of a predetermined keyword stored in advance in the first audio, which includes the voice of the support person at the work site.
- FIG. 21 is a diagram showing the configuration of a work assistance system 10F according to the seventh embodiment.
- the work support system 10F shown in FIG. 21 includes a work terminal 1F and a server 2F. Note that in this embodiment 7, the same components as those in the embodiment 1 are given the same reference numerals and will not be described.
- a worker who performs work is at a work site, and an assistant who assists the worker in his work is also at the work site.
- the worker uses the work terminal 1F to capture an image of the assistant assisting the worker in the work on the work target.
- the work terminal 1F includes a communication unit 11F, a control unit 12, a memory 13, an input unit 14, a camera 15, and a microphone 16.
- a communication unit 11F includes a communication unit 11F, a control unit 12, a memory 13, an input unit 14, a camera 15, and a microphone 16.
- the communication unit 11F transmits the video captured by the camera 15 and the first audio collected by the microphone 16 to the server 2F.
- the server 2F includes a communication unit 21F, a control unit 22F, and a memory 23F.
- the server 2F is an example of an information processing device. In the following description of the server 2F, differences from the server 2 of the first embodiment will be described.
- the communication unit 21F receives the video captured at the work site and the first audio collected at the work site from the work terminal 1F used by the worker at the work site.
- Memory 23F pre-stores a predetermined start keyword and also pre-stores a predetermined end keyword.
- the predetermined start keyword is, for example, a demonstrative pronoun such as "there” or “over there", the name of the work target, or the name of a part of the work target.
- the predetermined end keyword is, for example, a phrase for ending recording such as "end recording”.
- the predetermined start keyword and the predetermined end keyword may be input by the assistant.
- Memory 23F may store one start keyword or multiple start keywords.
- Memory 23F may store one end keyword or multiple end keywords.
- the control unit 22F starts recording the video and the first audio in the memory 23F when a predetermined keyword pre-stored in the memory 23F is included in the first audio, which includes the voice of the supporter at the work site.
- the control unit 22F also ends recording the video and the first audio in the memory 23F when a predetermined end keyword pre-stored in the memory 23F is included in the first audio.
- the control unit 22F performs voice recognition on the first voice received by the communication unit 21F and converts the first voice into text. The control unit 22F then determines whether or not a predetermined start keyword pre-stored in the memory 23F is included in the converted first voice. If it is determined that the predetermined start keyword is included in the first voice, the control unit 22F starts recording the video and the first voice into the memory 23F.
- the assistant when assisting a work site, talks with the worker wearing the work terminal 1F. At this time, the assistant speaks a predetermined start keyword at the timing to start recording the video and the first audio to the server 2F. If the predetermined start keyword is included in the first audio collected at the work site, the control unit 22F determines that the assistant has started assisting with the work, and starts recording the video and the first audio to the memory 23F.
- the control unit 22F determines whether or not the predetermined end keyword pre-stored in the memory 23F is included in the first voice that has been converted into text. If it is determined that the predetermined end keyword is included in the first voice, the control unit 22F ends recording of the video and the first voice in the memory 23F. For example, the supporter speaks the predetermined end keyword at the timing of ending recording of the video and the first voice in the server 2F.
- FIG. 22 is a flowchart for explaining the work support process by the server 2F in embodiment 7 of the present disclosure.
- step S171 the communication unit 21F receives the video and the first audio transmitted by the work terminal 1F.
- step S172 the control unit 22F performs voice recognition on the first voice received by the communication unit 21F and converts the first voice into text.
- step S173 the control unit 22F determines whether or not a predetermined start keyword pre-stored in the memory 23F is included in the first voice that has been converted into text.
- step S174 the control unit 22F starts recording the video and the first voice in the memory 23F. Then, the process returns to step S171.
- step S175 the control unit 22F determines whether or not the specified end keyword pre-stored in the memory 23F is included in the first speech that has been converted into text.
- step S175 If it is determined that the specified end keyword is not included in the first voice (NO in step S175), the process returns to step S171.
- step S176 the control unit 22F determines whether the video and the first audio are being recorded.
- step S176 If it is determined that the video and the first audio are not being recorded (NO in step S176), the process returns to step S171.
- step S177 the control unit 22F ends the recording of the video and the first audio in the memory 23F. Then, the process returns to step S171.
- the assistant at the work site speaks a predetermined keyword that has been stored in advance, recording of the video and the first audio in memory 23F begins. Therefore, the worker does not need to perform an operation to start recording, and the assistant at the work site can record the video and the first audio in memory 23F by speaking the predetermined keyword.
- the control unit 22F determines whether or not a predetermined end keyword is included in the first audio, but the present disclosure is not particularly limited to this.
- the work terminal 1F may receive a recording end button pressed by the worker. When the recording end button is pressed by the worker, the work terminal 1F may transmit a recording end signal to the server 2F.
- the communication unit 21F of the server 2F may receive the recording end signal transmitted by the work terminal 1F.
- the control unit 22F may determine whether or not the recording end signal transmitted by the work terminal 1F has been received. When it is determined that the recording end signal has been received, the control unit 22F may terminate recording of the video and the first audio in the memory 23F.
- the server 2F determines whether the first voice contains a predetermined start keyword, but the present disclosure is not particularly limited to this.
- the work terminal 1F may determine whether the first voice contains a predetermined start keyword. If it is determined that the first voice contains the predetermined start keyword, the work terminal 1F may transmit a recording start signal to the server 2F to instruct the start of recording. When the server 2F receives the recording start signal transmitted by the work terminal 1F, it may start recording the video and the first voice in the memory 23F.
- the work terminal 1F may also determine whether the first voice contains a predetermined end keyword. If it is determined that the first voice contains the predetermined end keyword, the work terminal 1F may transmit a recording end signal to the server 2F to instruct the end of recording. When the server 2F receives the recording end signal transmitted by the work terminal 1F, it may end recording the video and the first voice in the memory 23F.
- FIG. 23 is a diagram showing the configuration of a work support system 10G according to the eighth embodiment.
- the work support system 10G shown in FIG. 23 includes a work terminal 1G, a server 2G, and a support terminal 3G. Note that in this embodiment 8, the same components as those in embodiment 1 are given the same reference numerals, and the description thereof is omitted.
- the worker who performs the work is at the work site, and the assistant who assists the worker in the work is in a remote location.
- the support terminal 3G includes a communication unit 31G, a control unit 32G, a memory 33, a display unit 34G, a speaker 35, a microphone 36, and an input unit 37G.
- a communication unit 31G for communicating with a control unit 32G
- a memory 33 for storing data
- a display unit 34G for displaying images
- a speaker 35 for converting sound
- a microphone 36 for converting sound
- an input unit 37G input unit.
- the input unit 37G includes a capture start button for extracting a still image from the moving image displayed by the display unit 34G.
- the capture start button may be a button that is physically pressed by the supporter, or may be a button that is displayed on the display unit 34G and clicked with a mouse.
- the control unit 32G determines whether the capture start button has been pressed.
- the control unit 32G extracts still images from the video.
- the display unit 34G displays the still images extracted from the video, and the communication unit 31G periodically transmits the still images extracted from the video to the work terminal 1G via the server 2G.
- the supporter presses the capture start button when there is a part that requires support.
- the still image at the time the capture start button was pressed is displayed on the display unit 34G, and is periodically transmitted by the communication unit 31G to the work terminal 1G via the server 2G.
- the input unit 37G also accepts input of instruction information such as letters and symbols by the supporter on the still image displayed on the display unit 34G.
- instruction information such as letters and symbols by the supporter on the still image displayed on the display unit 34G.
- the supporter may write arrows or letters on the displayed still image to instruct a specific task.
- the communication unit 31G periodically transmits the still image on which the instruction information input by the supporter is superimposed to the work terminal 1G via the server 2G.
- the input unit 37G includes a capture end button for ending the display and transmission of the extracted still image.
- the capture end button may be a button that is physically pressed by the supporter, or may be a button that is displayed on the display unit 34G and clicked with a mouse.
- the control unit 32G determines whether or not the capture end button has been pressed.
- the display unit 34G ends the display of the still image
- the communication unit 31G ends the transmission of the still image to the server 2G.
- the server 2G includes a communication unit 21G, a control unit 22G, and a memory 23G.
- the server 2G is an example of an information processing device. In the following explanation of the server 2G, differences from the server 2 of the first embodiment will be described.
- the communication unit 21G receives from the support terminal 3G still images extracted by the supporter from the moving image displayed on the display unit 34G of the support terminal 3G.
- the communication unit 21G also transmits the still images received from the support terminal 3G to the work terminal 1G.
- the control unit 22G is triggered by receiving a still image to start recording the moving image and the first audio in the memory 23G.
- the control unit 22G determines whether or not a still image has been received by the communication unit 21G. If it is determined that a still image has been received by the communication unit 21G, the control unit 22G starts recording the moving image and the first audio in the memory 23G.
- control unit 22G ends the recording of the video and the first audio in the memory 23G when a still image is no longer received after recording of the video and the first audio has started. If the communication unit 21G determines that a still image is not being received while recording the video and the first audio, the control unit 22G ends the recording of the video and the first audio in the memory 23G.
- control unit 22G may not only record the video and first audio from the work terminal 1 in the memory 23G, but may also record the video and first audio from the work terminal 1 and the second audio from the support terminal 3G in the memory 23G. That is, the control unit 22G may start recording the video, first audio, and second audio received by the communication unit 21G in the memory 23G, triggered by a supporter's operation to start recording. The control unit 22G may also end recording the video, first audio, and second audio received by the communication unit 21G in the memory 23G, triggered by a supporter's operation to stop recording.
- the control unit 22G may also record the video and first audio from the work terminal 1 and the second audio and still images from the support terminal 3G in the memory 23G. That is, the control unit 22G may start recording the video, first audio, second audio, and still images received by the communication unit 21G in the memory 23G, triggered by the receipt of a still image. The control unit 22G may also end recording the video, first audio, second audio, and still images received by the communication unit 21G in the memory 23G, triggered by the discontinuation of reception of a still image while the video, first audio, second audio, and still images are being recorded.
- control unit 22G may record only the second audio and still images from the support terminal 3G in the memory 23G, without recording the moving image and first audio from the work terminal 1 in the memory 23G. That is, the control unit 22G may start recording the second audio and still images received by the communication unit 21G in the memory 23G, triggered by the reception of a still image. The control unit 22G may also end recording the second audio and still images received by the communication unit 21G in the memory 23G, triggered by the discontinuation of reception of a still image while the second audio and still image are being recorded.
- the memory 23G may non-temporarily record not only the video and the first audio from the work terminal 1, but also the video and the first audio from the work terminal 1 and the second audio from the support terminal 3. In other words, the memory 23 may non-temporarily record the video, the first audio, and the second audio received by the communication unit 21.
- the memory 23G may also non-temporarily record the video and first audio from the work terminal 1G and the second audio and still images from the support terminal 3G. That is, the memory 23 may non-temporarily record the video, first audio, second audio, and still images received by the communication unit 21G.
- the work terminal 1G includes a communication unit 11G, a control unit 12G, a memory 13, an input unit 14, a camera 15, a microphone 16, a speaker 17, and a display unit 20.
- a communication unit 11G for communicating with a communication terminal 1G
- a control unit 12G for controlling the operation of the work terminal 1G
- a memory 13 for storing data
- an input unit 14 for converting image signals to a display.
- the communication unit 11G periodically receives still images extracted by the supporter from the video image from the server 2G.
- the display unit 20 displays the still images received by the communication unit 11G. This allows the worker to receive work support from the supporter while looking at the still images extracted by the supporter from the moving image.
- the display unit 20 also displays still images on which the supporter has superimposed letters and symbols. This allows the worker to receive more detailed work support from the supporter while looking at the still images on which the letters and symbols have been superimposed.
- the work terminal 1G may also be equipped with a touch panel in which the input unit 14 and display unit 20 are integrated.
- the display unit 20 may also display video images captured by the camera 15.
- FIG. 24 is a flowchart for explaining the work support process by the work terminal 1G in embodiment 8 of the present disclosure.
- step S181 to step S185 is the same as the processing from step S1 to step S5 shown in FIG. 2, so the explanation is omitted.
- step S186 the control unit 12G determines whether or not a still image has been received by the communication unit 11G.
- the communication unit 11G receives the still image transmitted by the server 2G.
- step S187 the display unit 20 displays the still image received by the communication unit 11G.
- step S186 if it is determined that a still image has not been received (NO in step S186), the process proceeds to step S188. Note that if it is determined that a still image has not been received while a still image is being displayed, the display unit 20 ends the display of the still image.
- step S188 is the same as that in step S6 shown in FIG. 2, so a detailed explanation is omitted.
- FIG. 25 is a flowchart for explaining the work support process by the server 2G in embodiment 8 of the present disclosure.
- step S191 to step S194 is the same as the processing from step S11 to step S14 shown in FIG. 3, so a description thereof will be omitted.
- step S195 the control unit 22G determines whether or not a still image has been received by the communication unit 21G.
- the communication unit 21G receives the still image transmitted by the support terminal 3G.
- step S196 the communication unit 21G transmits the received still image to the work terminal 1G.
- step S197 the control unit 22G determines whether the video image, the first audio, the second audio, and the still image are being recorded.
- step S198 the control unit 22G starts recording the video, the first audio, the second audio, and the still image received by the communication unit 21G in the memory 23G. Then, the process returns to step S191.
- step S197 if it is determined that the video, first audio, second audio, and still image are being recorded (YES in step S197), the process returns to step S191.
- step S199 the control unit 22G determines whether a moving image, the first audio, the second audio, and a still image are being recorded.
- step S200 the control unit 22G ends the recording of the video, the first audio, the second audio, and the still image received by the communication unit 21G in the memory 23G. Then, the process returns to step S191.
- step S199 if it is determined that the video, first audio, second audio, and still image are not being recorded (NO in step S199), the process returns to step S191.
- FIG. 26 is a flowchart for explaining the work support process by the support terminal 3G in embodiment 8 of the present disclosure.
- step S211 to step S215 is the same as the processing from step S21 to step S25 shown in FIG. 4, so the explanation is omitted.
- step S216 the control unit 32G determines whether the capture start button on the input unit 37G has been pressed.
- step S217 the control unit 32G extracts a still image from the video image received by the communication unit 31G.
- step S218 the display unit 34G displays the still image extracted by the control unit 32G.
- step S219 the input unit 37G accepts input of instruction information, such as letters and symbols, by the supporter for the still image displayed on the display unit 34G.
- instruction information such as letters and symbols
- step S220 the communication unit 31G transmits the still image extracted from the moving image to the server 2G. After that, the process returns to step S211. If the supporter inputs instruction information such as characters and symbols, the communication unit 31G transmits the still image on which the instruction information is superimposed to the server 2G. The communication unit 31G also transmits the still image to the server 2G, with the work terminal 1G as the destination. As a result, the still image is transmitted to the work terminal 1G via the server 2G.
- step S221 the control unit 32G determines whether a still image is being displayed on the display unit 34G.
- step S221 If it is determined that a still image is not being displayed (NO in step S221), the process returns to step S211.
- step S222 the control unit 32G determines whether the capture end button on the input unit 37G has been pressed.
- step S222 If it is determined that the capture end button has not been pressed (NO in step S222), the process proceeds to step S218.
- step S223 the display unit 34G ends the display of the still image.
- step S224 the communication unit 31G ends the transmission of the still image to the server 2G.
- the supporter in a remote location extracts a still image to be used to support the work from the moving image displayed on the display unit 34G of the support terminal 3G, recording of the moving image and the first audio in memory 23G begins. Therefore, the worker does not need to perform an operation to start recording, and the supporter in a remote location can record the moving image and the first audio in memory 23G by extracting a still image from the moving image.
- FIG. 27 shows an example of a screen displayed on the display unit 34G of the support terminal 3G in this embodiment 8.
- Display unit 34G displays video 351 captured at the work site, a capture start button 352, and a capture end button 353.
- the supporter operates the mouse to move the pointer displayed on display unit 34G onto capture start button 352, and the supporter clicks the mouse button, a still image 354 is extracted from video 351, and the extracted still image 354 is displayed on display unit 34G.
- the extracted still image 354 is then transmitted to server 2G.
- server 2G begins recording the video, first audio, second audio, and still image.
- the supporter operates the mouse to move the pointer displayed on display unit 34G onto capture end button 353, and when the supporter clicks the mouse button, display of still image 354 ends and transmission of still image 354 ends.
- This causes server 2G to end recording of the video, first audio, second audio, and still image. Note that when display of still image 354 ends, video image 351 is displayed.
- the input unit 37G also accepts input of instruction information such as characters 355 and symbols 356 by the supporter on the still image 354 displayed on the display unit 34G.
- the supporter uses a mouse or keyboard to write characters 355 and symbols 356 on the still image 354 displayed on the display unit 34G.
- FIG. 27 the characters 355 "rotate" and a symbol 356 representing an arrow have been written.
- the communication unit 31G transmits the still image 354 on which the instruction information is superimposed to the server 2G.
- Display unit 34G when capture start button 352 is pressed, display unit 34G displays only still image 354, but the present disclosure is not particularly limited to this.
- Display unit 34G may display moving image 351 superimposed on still image 354.
- display unit 34G may display still image 354 full screen and moving image 351 small in the lower right part of the screen.
- FIG. 28 shows an example of a screen displayed on the display unit 20 of the work terminal 1G in this embodiment 8.
- the display unit 20 displays a moving image 201 capturing the work site and a still image 202 transmitted by the support terminal 3G.
- the moving image 201 is captured in real time by the camera 15.
- the display unit 20 displays the moving image 201 full screen, and displays the still image 202 in a small size in the lower right part of the screen.
- instruction information is input to the still image 202, the still image 202 with the instruction information superimposed is displayed.
- the worker can receive support from the supporter by performing work while looking at the still image 202 displayed on the display unit 20.
- the control unit 12G of the work terminal 1G may determine whether or not a still image 202 is included in the moving image 201 captured by the camera 15. If it is determined that the still image 202 is included in the moving image 201, the display unit 20 may highlight an area 203 in the moving image 201 that matches the still image 202. In FIG. 28, the area 203 that matches the still image 202 is surrounded by a line of a predetermined color.
- the predetermined color is, for example, red.
- the display unit 20 displays a moving image 201 and a still image 202, but the present disclosure is not particularly limited to this, and the display unit 20 may display only a still image 202.
- control unit 22G starts recording the video and the first audio in the memory 23G when it receives a still image extracted from the video from the support terminal 3G as a trigger, but the present disclosure is not particularly limited to this.
- the control unit 22G may start recording the video and the first audio in the memory when it receives instruction information on the still image as a trigger. In this case, the control unit 22G does not start recording when the still image is received, but starts recording when the instruction information is superimposed on the still image. That is, after the still image is received, the control unit 22G may determine whether or not the instruction information is superimposed on the still image. When it is determined that the instruction information is superimposed on the still image, the control unit 22G may start recording the video and the first audio in the memory.
- step S197 of FIG. 25 if it is determined that the video, first audio, second audio, and still image are not being recorded (NO in step S197), the control unit 22G determines whether or not instruction information has been superimposed on the still image. Here, if it is determined that instruction information has not been superimposed on the still image, the process returns to step S191. On the other hand, if it is determined that instruction information has been superimposed on the still image, in step S198, the control unit 22G starts recording the video, first audio, second audio, and still image received by the communication unit 21G in memory 23G.
- the supporter in a remote location extracts a still image to be used to support the work from the moving image displayed on the display unit 34G of the support terminal 3G and superimposes the instruction information on the still image, recording of the moving image and the first sound in memory 23G begins. Therefore, the worker does not need to perform an operation to start recording, and the supporter in a remote location can extract a still image from the moving image and superimpose the instruction information on the still image, thereby recording the moving image and the first sound in memory 23G.
- the support terminal 3G may transmit drawing data of the work object created by CAD (Computer Aided Design), operation manual data showing how to operate the work object, or an image of the entire screen displayed on the display unit 34G to the work terminal 1G via the server 2G, instead of transmitting a still image extracted from the moving image.
- the control unit 22G may start recording the moving image and the first sound in the memory 23G when it receives the drawing data of the work object, the operation manual data of the work object, or an image of the entire screen displayed on the display unit 34G of the support terminal 3G from the support terminal 3G as a trigger.
- the work terminal 1G may display the drawing data of the work object, the operation manual data of the work object, or an image of the entire screen displayed on the display unit 34G of the support terminal 3G.
- recording of the video and the first audio into memory 23 is started when a recording start signal is received
- recording of the video and the first audio into memory is started when mode information received from the work terminal indicates the second mode in which the supporter uses the work terminal and a predetermined keyword that has been stored in advance is included in the first audio, which includes the voice of the supporter at the work site.
- FIG. 29 is a diagram showing the configuration of a work assistance system 10J according to the ninth embodiment.
- the work support system 10J shown in FIG. 29 includes a work terminal 1J and a server 2J. Note that in this embodiment 9, the same components as those in embodiment 1 are given the same reference numerals and will not be described.
- a worker who performs work is at a work site, and an assistant who assists the worker in his work is also at the work site.
- the assistant photographs the work target while assisting the worker in the work using a work terminal 1J.
- the worker uses the work terminal 1J and cases where the assistant uses the work terminal 1J.
- the work terminal 1J includes a communication unit 11J, a control unit 12, a memory 13, an input unit 14J, a camera 15, and a microphone 16.
- a communication unit 11J for communicating with a communication terminal 1J
- a control unit 12 for controlling the operation of the work terminal 1J
- a memory 13 for storing data
- an input unit 14J for converting digital signals to digital signals
- a camera 15 for capturing images
- a microphone 16 a microphone 16.
- the input unit 14J includes a switch for switching between a first mode in which the worker uses the work terminal 1J and a second mode in which the supporter uses the work terminal 1J.
- the worker using the work terminal 1J switches the switch to the first mode, and the supporter using the work terminal 1J switches the switch to the second mode.
- the communication unit 11J transmits to the server 2J the video image captured by the camera 15, the first sound captured by the microphone 16, and mode information received by the input unit 14J indicating whether the first mode or the second mode has been selected.
- Server 2J includes a communication unit 21J, a control unit 22J, and a memory 23J.
- Server 2J is an example of an information processing device. In the following explanation of server 2J, differences from server 2 in embodiment 1 will be described.
- the communication unit 21J receives the video image, the first audio, and the mode information from the work terminal 1J.
- Memory 23J prestores a predetermined start keyword and also prestores a predetermined end keyword.
- the predetermined start keyword is, for example, a demonstrative pronoun such as "there” or “over there", the name of the work target, or the name of a part of the work target.
- the predetermined end keyword is, for example, a phrase for ending recording, such as "end recording”.
- the predetermined start keyword and the predetermined end keyword may be input by the assistant.
- Memory 23J may store one start keyword or multiple start keywords.
- Memory 23J may store one end keyword or multiple end keywords.
- the control unit 22J starts recording the video and the first audio in the memory 23J when the mode information received by the communication unit 21J indicates the second mode and the first audio contains a predetermined start keyword that is pre-stored in the memory 23J as a trigger.
- the control unit 22J also stops recording the video and the first audio in the memory 23J when the mode information received by the communication unit 21J indicates the second mode and the first audio contains a predetermined end keyword that is pre-stored in the memory 23J as a trigger.
- control unit 22J determines whether the mode information received by the communication unit 21J indicates the first mode or the second mode. If it is determined that the mode information indicates the second mode, the control unit 22J performs voice recognition on the first voice received by the communication unit 21J and converts the first voice into text. The control unit 22J then determines whether a predetermined start keyword pre-stored in the memory 23J is included in the converted first voice. If it is determined that the predetermined start keyword is included in the first voice, the control unit 22J starts recording the video and the first voice into the memory 23J.
- a supporter wearing the work terminal 1J talks with a worker when supporting the work at a work site.
- the control unit 22J determines that the supporter has started supporting the work, and starts recording the video and the first voice in the memory 23J.
- control unit 22J determines whether or not the predetermined end keyword previously stored in the memory 23J is contained in the first voice that has been converted into text. If it is determined that the predetermined end keyword is contained in the first voice, the control unit 22J ends recording of the video and the first voice in the memory 23J.
- FIG. 30 is a flowchart for explaining the work support process by the work terminal 1J in the ninth embodiment of the present disclosure.
- step S251 the input unit 14J accepts a selection by the assistant or worker between a first mode in which the worker uses the work terminal 1J, and a second mode in which the assistant uses the work terminal 1J.
- the worker using the work terminal 1J switches the switch of the input unit 14J to the first mode, and the assistant using the work terminal 1J switches the switch of the input unit 14J to the second mode.
- steps S252 and S253 are the same as that in steps S1 and S2 shown in FIG. 2, so a description thereof will be omitted.
- step S254 the communication unit 11J transmits to the server 2J the video image captured by the camera 15, the first sound captured by the microphone 16, and mode information indicating either the first mode or the second mode received by the input unit 14J.
- the input unit 14J receives an input operation by the supporter or worker to start transmitting the video image, the first sound, and the mode information.
- step S255 the control unit 12 determines whether or not to end the transmission of the video, the first audio, and the mode information.
- the input unit 14J accepts an input operation by the assistant or worker to end the transmission of the video, the first audio, and the mode information. If an input operation to end the transmission of the video, the first audio, and the mode information is accepted, the control unit 12 determines to end the transmission of the video, the first audio, and the mode information. On the other hand, if an input operation to end the transmission of the video, the first audio, and the mode information is not accepted, the control unit 12 determines not to end the transmission of the video, the first audio, and the mode information.
- step S255 If it is determined that the transmission of the video, the first audio, and the mode information is to be ended (YES in step S255), the work support process ends. At this time, the communication unit 11J ends the transmission of the video, the first audio, and the mode information.
- step S255 if it is determined that the transmission of the video, the first audio, and the mode information is not to be ended (NO in step S255), the process returns to step S252.
- FIG. 31 is a flowchart for explaining the work support process by the server 2J in the ninth embodiment of the present disclosure.
- step S261 the communication unit 21J receives the video image, the first audio, and the mode information transmitted by the work terminal 1J.
- step S262 the control unit 22J determines whether the mode information received by the communication unit 21J indicates the second mode.
- step S262 If it is determined here that the mode information does not indicate the second mode, i.e., if it is determined that the mode information indicates the first mode (NO in step S262), the process returns to step S261.
- step S263 the control unit 22J performs voice recognition on the first voice received by the communication unit 21J and converts the first voice into text.
- step S264 to step S268 is the same as the processing from step S173 to step S177 shown in FIG. 22, so a description thereof will be omitted.
- the control unit 22J determines whether or not a predetermined end keyword is included in the first voice, but the present disclosure is not particularly limited to this.
- the work terminal 1J may accept pressing of a recording end button by the supporter. When the recording end button is pressed by the supporter, the work terminal 1J may transmit a recording end signal to the server 2J.
- the communication unit 21J of the server 2J may receive the recording end signal transmitted by the work terminal 1J.
- the control unit 22J may determine whether or not the recording end signal transmitted by the work terminal 1J has been received. When it is determined that the recording end signal has been received, the control unit 22J may terminate recording of the video and the first voice in the memory 23J.
- the server 2J determines whether the mode information indicates the second mode and whether the first voice contains a predetermined start keyword, but the present disclosure is not particularly limited to this.
- the work terminal 1J may determine whether the mode information indicates the second mode and whether the first voice contains a predetermined start keyword. Then, when it is determined that the mode information indicates the second mode and that the first voice contains a predetermined start keyword, the work terminal 1J may transmit a recording start signal to the server 2J instructing the start of recording. When the server 2J receives the recording start signal transmitted by the work terminal 1J, it may start recording the video and the first voice in the memory 23J. Furthermore, the work terminal 1J may determine whether the mode information indicates the second mode and whether the first voice contains a predetermined end keyword.
- the work terminal 1J may transmit a recording end signal to the server 2J instructing the end of recording.
- the server 2J receives the recording end signal transmitted by the work terminal 1J, it may end recording of the video and the first audio in the memory 23J.
- recording of the video and the first audio into memory 23 is started in response to the reception of a recording start signal
- recording of the video and the first audio into memory is started in response to the mode information received from the work terminal indicating the second mode in which the supporter uses the work terminal and the same object being continuously captured in a specified area within the video for more than a specified period of time.
- FIG. 32 is a diagram showing the configuration of a work assistance system 10K according to the present embodiment 10.
- the work support system 10K shown in FIG. 32 includes a work terminal 1J and a server 2K. Note that in this embodiment 10, the same components as those in the first and ninth embodiments are given the same reference numerals and will not be described.
- a worker who performs work is at a work site, and an assistant who assists the worker in his work is also at the work site.
- the assistant photographs the work target while assisting the worker in the work using a work terminal 1J.
- the server 2K includes a communication unit 21K, a control unit 22K, and a memory 23K.
- the server 2K is an example of an information processing device. The following explanation of the server 2K focuses on the differences from the server 2 of the first embodiment.
- the communication unit 21K receives the video image, the first audio, and the mode information from the work terminal 1J.
- the control unit 22K starts recording the video and the first audio in the memory 23K when triggered by the mode information received by the communication unit 21K indicating the second mode and the same object being continuously captured in a predetermined area of the video for a predetermined period of time or more. After the recording of the video and the first audio in the memory 23K has started, the control unit 22K stops recording the video and the first audio in the memory 23K when triggered by the mode information received by the communication unit 21K indicating the second mode and the same object not being continuously captured in a predetermined area of the video for a predetermined period of time or more.
- control unit 22K determines whether the mode information received by the communication unit 21K indicates the first mode or the second mode. If it is determined that the mode information indicates the second mode, the control unit 22K analyzes the video received by the communication unit 21K and determines whether the same object is continuously captured in a predetermined area of the video for a predetermined period of time or more.
- the predetermined area is an area that includes the center of each of the multiple still images that make up the video. If it is determined that the same object is continuously captured in a predetermined area of the video for a predetermined period of time or more, the control unit 22K starts recording the video and the first audio in the memory 23K.
- the control unit 22K determines that the supporter has started assisting with the work, and starts recording the video image and the first sound in the memory 23K.
- control unit 22K ends recording of the video and the first audio in memory 23K.
- FIG. 33 is a flowchart for explaining the work support process by the server 2K in embodiment 10 of the present disclosure.
- steps S271 to S272 is the same as that in steps S261 to S262 shown in FIG. 31, so a description thereof will be omitted.
- step S273 the control unit 22K analyzes the moving image received by the communication unit 21K.
- the control unit 22K recognizes objects that appear in a predetermined area that includes the center of each of the multiple still images that make up the moving image.
- step S274 the control unit 22K determines whether the same object is continuously captured in a predetermined area within the video image for a predetermined period of time or more.
- step S275 the control unit 22K starts recording the video and the first audio in the memory 23K. Then, the process returns to step S271.
- step S276 the control unit 22K determines whether the video and the first audio are being recorded.
- step S276 If it is determined that the video and the first audio are not being recorded (NO in step S276), the process returns to step S271.
- step S277 the control unit 22K ends the recording of the video and the first audio in the memory 23K. Then, the process returns to step S271.
- the server 2K determines whether the mode information indicates the second mode and whether the same object is continuously captured in a predetermined area in the video for a predetermined time or more, but the present disclosure is not particularly limited to this.
- the work terminal 1J may determine whether the mode information indicates the second mode and whether the same object is continuously captured in a predetermined area in the video for a predetermined time or more. Then, when it is determined that the mode information indicates the second mode and that the same object is continuously captured in a predetermined area in the video for a predetermined time or more, the work terminal 1J may transmit a recording start signal to the server 2K instructing the start of recording.
- the server 2K When the server 2K receives the recording start signal transmitted by the work terminal 1J, it may start recording the video and the first sound in the memory 23K. Thereafter, when it is determined that the mode information indicates the second mode and that the same object is not continuously captured in a predetermined area in the video for a predetermined time or more, the work terminal 1J may transmit a recording end signal to the server 2K instructing the end of recording. When the server 2K receives the recording end signal transmitted by the work terminal 1J, it may end recording of the video and the first audio in the memory 23K.
- the support terminal or the work terminal may accept input by the supporter or the workman of information relating to the content of the video and the first audio recorded in the server.
- FIG. 34 shows an example of a screen displayed on the display unit 34 of the support terminal in embodiments 1 to 10.
- the display unit 34 plays the video and the first audio recorded on the server, and displays a display screen 360 for accepting input by the supporter of information relating to the content of the video and the first audio.
- Display screen 360 includes a search criteria input field 361 for searching for files, a file selection field 362 for accepting a file selection, a playback field 363 for playing the selected file, and an information input field 364 for accepting input of information regarding the contents of the file.
- the video image and the first audio are recorded as one file.
- the server memory records the operation date and time, user name, equipment ID, call memo, event memo, and file name in association with the file.
- the work date and time indicates the date and time when the video and the first audio were recorded.
- the user name indicates the name of the assistant or worker.
- the equipment ID indicates identification information for identifying the equipment on which the work was performed.
- the call memo and event memo indicate information regarding the contents of the file.
- the file name indicates the name of the file.
- the supporter inputs at least one of the work date and time, user name, equipment ID, call memo, event memo, and file name in the search condition input field 361.
- information about files that match the conditions input in the search condition input field 361 is displayed in the file selection field 362. If no conditions are input in the search condition input field 361, information about multiple recorded files is displayed in the file selection field 362.
- the work date and time, user name, equipment ID, call memo, event memo, file name, play button, download button, and delete button are displayed in the file selection field 362.
- the information input field 364 accepts input of call memos and event memos for the files played in the play field 363.
- the support terminal displays the display screen 360 and accepts information input by the supporter, but the present disclosure is not particularly limited to this.
- a work terminal may display the display screen 360 and accept information input by a worker, or a terminal other than the support terminal and work terminal may display the display screen 360 and accept information input by a supporter or worker.
- each component may be configured with dedicated hardware, or may be realized by executing a software program suitable for each component.
- Each component may be realized by a program execution unit such as a CPU or processor reading and executing a software program recorded on a recording medium such as a hard disk or semiconductor memory.
- the program may be executed by another independent computer system by recording the program on a recording medium and transferring it, or by transferring the program via a network.
- LSI Large Scale Integration
- FPGA Field Programmable Gate Array
- reconfigurable processor that can reconfigure the connections and settings of circuit cells inside the LSI may also be used.
- a processor such as a CPU executing a program.
- the technology disclosed herein can reduce the amount of data recorded in memory and ease the burden on workers, making it useful as a technology for recording video images captured at a work site and audio collected at the work site to a server.
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Manufacturing & Machinery (AREA)
- General Factory Administration (AREA)
Abstract
サーバは、作業現場において撮影された動画像及び作業現場において収集された第1音声を、作業現場にいる作業者が用いる作業端末から受信し、作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、動画像及び第1音声のメモリへの記録を開始する。
Description
本開示は、作業現場において撮影された動画像及び作業現場において収集された音声をサーバに記録する技術に関する。
例えば、特許文献1では、仲介端末装置が、仲介端末装置を通る画像信号及び音声信号からなる支援要求情報及び音声信号からなる支援情報を自動的に記録することが開示されている。
また、例えば、特許文献2には、入出力手段、又は/及び、通信手段か らのデータを取得するデータ取得手段と、クライアント端末が機能するために必要なアプリケーションを要求するアプリケーション要求手段と、サーバから受信したアプリケーションを記憶するアプリ記憶手段と、クライアント端末の操作が終了した時点でデータ取得手段により取得したデータ、又は/及び、アプリ記憶手段に記憶したアプリケーションを消去するセキュリティ手段と、を備えたクライアント端末が開示されている。
しかしながら、上記従来の技術では、作業現場において撮影された全ての動画像及び作業現場において収集された全ての音声がサーバのメモリに記録された場合、メモリに記録するデータ量が増えるおそれがあり、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、メモリに記録するデータ量を削減することができるとともに、作業者の負担を軽減することができる技術を提供することを目的とするものである。
本開示に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信することと、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始することと、を含む。
本開示によれば、メモリに記録するデータ量を削減することができるとともに、作業者の負担を軽減することができる。
(本開示の基礎となった知見)
製造業又は建築業などでは、作業現場で作業する作業者と、作業者を支援する支援者とがいる。作業者は、作業に支援が必要な場合、支援者に作業の支援を依頼するが、支援者は、作業現場にいる場合と、作業現場とは異なる遠隔地にいる場合とがある。そして、作業者が支援者により支援を受けている際の動画像及び音声がサーバのメモリに記録されることにより、作業者は記録された動画像及び音声を後から見ることができる。
製造業又は建築業などでは、作業現場で作業する作業者と、作業者を支援する支援者とがいる。作業者は、作業に支援が必要な場合、支援者に作業の支援を依頼するが、支援者は、作業現場にいる場合と、作業現場とは異なる遠隔地にいる場合とがある。そして、作業者が支援者により支援を受けている際の動画像及び音声がサーバのメモリに記録されることにより、作業者は記録された動画像及び音声を後から見ることができる。
上記の特許文献1では、仲介端末装置が、仲介端末装置を通る画像信号及び音声信号からなる支援要求情報及び音声信号からなる支援情報を自動的に記録している。
しかしながら、作業現場において撮影された全ての動画像及び作業現場において収集された全ての音声がサーバのメモリに記録された場合、メモリに記録するデータ量が増えるおそれがある。この場合、メモリの記録容量を増やす必要があり、コストがかかる。また、必要なデータのみを記録することを目的として、作業者が、作業中に記録開始の操作を行う場合、作業者の負担が大きくなり、作業に支障をきたすおそれがある。
また、上記の特許文献2では、クライアント端末の操作が終了した時点で取得したデータ、又は/及び、アプリケーションが消去される。そのため、作業者が支援者により支援を受けている際の動画像及び音声がメモリに記録されないので、作業者は記録された動画像及び音声を後から見ることができなかった。
以上の課題を解決するために、下記の技術が開示される。
(1)本開示の一態様に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信することと、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始することと、を含む。
この構成によれば、支援者による記録開始の操作をトリガーとして、作業現場にいる作業者が用いる作業端末から受信された動画像及び第1音声のメモリへの記録が開始される。したがって、支援者が必要であると判断した動画像及び第1音声のみがメモリに記録されるので、メモリに記録するデータ量を削減することができる。また、支援者による記録開始の操作が行われると動画像及び第1音声のメモリへの記録が開始されるので、作業者は作業中に記録開始の操作を行う必要がなく、作業者の負担を軽減することができる。
(2)上記(1)記載の情報処理方法において、さらに、遠隔地にいる前記支援者による入力操作に基づき前記記録の開始を指示する記録開始信号を、前記支援者が用いる支援端末から受信することを含み、前記記録の開始は、前記記録開始信号を受信したことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者による入力操作が行われると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者による入力操作に基づき動画像及び第1音声をメモリに記録することができる。
(3)上記(1)記載の情報処理方法において、さらに、前記作業端末の現在の位置を示す位置情報を前記作業端末から受信することを含み、前記記録の開始は、前記位置情報で示される前記作業端末の前記位置が、前記作業現場における所定の領域内に入ったことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、作業現場における所定の領域内に作業端末が入ると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場における所定の領域が指定されることによって、動画像及び第1音声をメモリに記録することができる。
(4)上記(3)記載の情報処理方法において、さらに、遠隔地にいる前記支援者によって指定された前記作業現場における所定の領域を示す領域指定情報を、前記支援者が用いる支援端末から受信することを含み、前記記録の開始は、前記位置情報で示される前記作業端末の前記位置が、前記領域指定情報で示される前記所定の領域内に入ったことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者によって指定された作業現場における所定の領域内に作業端末が入ると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が作業現場における所定の領域を指定することによって、動画像及び第1音声をメモリに記録することができる。
(5)上記(1)記載の情報処理方法において、さらに、遠隔地にいる前記支援者によって指定された前記作業現場における作業対象から発信される無線信号に含まれる識別情報を、前記支援者が用いる支援端末から受信することと、さらに、前記作業端末によって受信された前記無線信号に含まれる前記識別情報及び前記作業端末によって測定された前記無線信号の電波強度を含む信号情報を前記作業端末から受信することと、を含み、前記記録の開始は、前記支援端末から受信した前記識別情報を含む、前記作業端末から受信した前記無線信号の前記電波強度が閾値以上であることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者によって指定された作業現場における作業対象に作業端末が近づくと、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が作業現場における作業対象の識別情報を指定することによって、動画像及び第1音声をメモリに記録することができる。
(6)上記(1)記載の情報処理方法において、さらに、遠隔地にいる前記支援者が用いる支援端末の周囲の第2音声を前記支援端末から受信することを含み、前記記録の開始は、予め記憶されている所定のキーワードが前記第2音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリに記録することができる。
(7)上記(6)記載の情報処理方法において、前記記録の開始は、前記第2音声における前記支援者が発話した発話区間を検出し、検出した前記発話区間内において予め記憶されている前記所定のキーワードが前記第2音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、第2音声における支援者が発話した発話区間が検出され、検出された発話区間内において予め記憶されている所定のキーワードが第2音声に含まれていると、動画像及び第1音声のメモリへの記録が開始される。したがって、第2音声に雑音が含まれている場合であっても、所定のキーワードが第2音声に含まれることを高い精度で判定することができる。
(8)上記(1)記載の情報処理方法において、前記記録の開始は、受信された前記動画像から、前記作業現場にいる前記支援者の動作を認識し、認識した前記動作が、予め決められている所定の動作であることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、作業現場にいる支援者が、予め決められている所定の動作を行うと、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場にいる支援者が所定の動作を行うことによって、動画像及び第1音声をメモリに記録することができる。
(9)上記(1)記載の情報処理方法において、前記記録の開始は、予め記憶されている所定のキーワードが、前記作業現場にいる前記支援者の声を含む前記第1音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、作業現場にいる支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場にいる支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリに記録することができる。
(10)上記(1)記載の情報処理方法において、さらに、受信した前記動画像及び前記第1音声を、遠隔地にいる前記支援者が用いる支援端末に送信することと、さらに、前記支援端末の表示部によって表示された前記動画像から、前記支援者によって抽出された静止画像を、前記支援端末から受信することと、を含み、前記記録の開始は、前記静止画像を受信したことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者が、支援端末の表示部によって表示された動画像から、作業を支援するために用いる静止画像を抽出すると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が動画像から静止画像を抽出することによって、動画像及び第1音声をメモリに記録することができる。
(11)上記(10)記載の情報処理方法において、さらに、前記支援端末の周囲の第2音声を、前記支援端末から受信することを含み、前記記録の開始は、前記静止画像を受信したことをトリガーとして、前記動画像、前記第1音声、前記第2音声、及び前記静止画像の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、動画像及び第1音声だけでなく、遠隔地にいる支援者の声を含む第2音声及び支援者が動画像から抽出した静止画像もメモリに記録される。したがって、支援者による実際の作業の支援が終わった後であっても、作業者は、メモリに記録された動画像、第1音声、第2音声、及び静止画像を作業の支援に役立てることができる。
(12)上記(1)記載の情報処理方法において、さらに、受信した前記動画像及び前記第1音声を、遠隔地にいる前記支援者が用いる支援端末に送信することと、さらに、前記支援端末の表示部によって表示された前記動画像から、前記支援者によって抽出された静止画像を、前記支援端末から受信することと、を含み、前記静止画像の受信は、前記支援端末を用いて前記支援者により入力された指示情報が重畳された前記静止画像を、前記支援端末から受信することを含み、前記記録の開始は、前記静止画像に前記指示情報が重畳されたことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、遠隔地にいる支援者が、支援端末の表示部によって表示された動画像から、作業を支援するために用いる静止画像を抽出し、静止画像に指示情報を重畳すると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が動画像から静止画像を抽出し、静止画像に指示情報を重畳することによって、動画像及び第1音声をメモリに記録することができる。
(13)上記(1)記載の情報処理方法において、さらに、前記作業者が前記作業端末を用いる第1モードと、前記支援者が前記作業端末を用いる第2モードとのいずれが選択されたかを示すモード情報を前記作業端末から受信することを含み、前記記録の開始は、受信した前記モード情報が前記第2モードを示すとともに、予め記憶されている所定のキーワードが前記第1音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
この構成によれば、作業現場において作業端末を用いて作業を支援する支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場において作業端末を用いて作業を支援する支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリに記録することができる。
(14)上記(1)記載の情報処理方法において、さらに、前記作業者が前記作業端末を用いる第1モードと、前記支援者が前記作業端末を用いる第2モードとのいずれが選択されたかを示すモード情報を前記作業端末から受信することを含み、前記記録の開始は、受信した前記モード情報が前記第2モードを示すとともに、前記動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含んでもよい。
作業現場において作業端末を用いて作業を支援する支援者が、作業対象を凝視した場合、動画像内の所定の領域に同一の物体が所定の時間以上連続して写ることになる。そのため、支援者が作業現場において作業端末を用いるとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていると、動画像及び第1音声のメモリへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場において作業端末を用いて作業を支援する支援者が作業対象を凝視することによって、動画像及び第1音声をメモリに記録することができる。
また、本開示は、以上のような特徴的な処理を実行する情報処理方法として実現することができるだけでなく、情報処理方法が実行する特徴的な処理に対応する特徴的な構成を備える情報処理装置などとして実現することもできる。また、このような情報処理方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現することもできる。したがって、以下の他の態様でも、上記の情報処理方法と同様の効果を奏することができる。
(15)本開示の他の態様に係る情報処理装置は、通信部と、制御部と、メモリと、を備え、前記通信部は、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信し、前記制御部は、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始する。
(16)本開示の他の態様に係る情報処理プログラムは、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信し、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始するようにコンピュータを機能させる。
(17)本開示の他の態様に係る非一時的なコンピュータ読み取り可能な記録媒体は、情報処理プログラムを記録し、前記情報処理プログラムは、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信し、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始するようにコンピュータを機能させる。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、本実施の形態1に係る作業支援システム10の構成を示す図である。
図1は、本実施の形態1に係る作業支援システム10の構成を示す図である。
図1に示す作業支援システム10は、作業端末1、サーバ2、及び支援端末3を備える。
実施の形態1において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
作業端末1は、例えば、作業者の頭部に装着されるウェアラブル装置である。作業者は、作業現場において作業端末1を装着した状態で作業を行う。なお、作業端末1は、例えば、スマートフォン又はタブレット型コンピュータであってもよい。
作業端末1は、例えば、制御プログラムと、当該制御プログラムを実行するプロセッサ又は論理回路等の処理回路と、当該制御プログラムを記憶する内部メモリ又はアクセス可能な外部メモリ等の記録装置と、を備えるコンピュータシステムを少なくとも備える。なお、作業端末1は、例えば、処理回路によるハード実装によって、又は、処理回路によるメモリに保持される、若しくは、外部サーバから配信されるソフトウェアプログラムの実行によって、又は、これらハード実装とソフト実装との組み合わせによって実現されてもよい。
作業端末1は、ネットワーク4を介してサーバ2と互いに通信可能に接続されている。ネットワーク4は、例えばインターネットである。
作業端末1は、通信部11、制御部12、メモリ13、入力部14、カメラ15、マイクロホン16、及びスピーカ17を備える。
制御部12は、作業端末1全体を制御する。制御部12は、通信部11、メモリ13、入力部14、カメラ15、マイクロホン16、及びスピーカ17の動作を制御する。
メモリ13は、例えば、RAM(Random Access Memory)、SSD(Solid State Drive)、又はフラッシュメモリ等の各種情報を記憶可能な記憶装置である。
カメラ15は、作業現場を撮影することにより動画像を取得する。作業端末1が作業者の頭部に装着されるウェアラブル装置である場合、動画像は、作業者の視点から見た動画像である。
マイクロホン16は、作業現場における第1音声を収集する。
通信部11は、カメラ15によって撮影された動画像及びマイクロホン16によって収集された第1音声をサーバ2へ送信する。また、通信部11は、遠隔地にいる支援者が用いる支援端末3の周囲の第2音声をサーバ2から受信する。
入力部14は、作業者による種々の入力操作を受け付ける。入力部14は、カメラ15による撮影を開始するとともに、マイクロホン16による第1音声の収集を開始するための第1開始ボタンを含む。また、入力部14は、カメラ15による撮影を終了するとともに、マイクロホン16による第1音声の収集を終了するための第1終了ボタンを含む。作業者により第1開始ボタンが押下されると、カメラ15は、撮影を開始するとともに、マイクロホン16は、第1音声の収集を開始する。また、作業者により第1終了ボタンが押下されると、カメラ15は、撮影を終了するとともに、マイクロホン16は、第1音声の収集を終了する。
また、入力部14は、動画像及び音声のサーバ2への送信を開始するための第2開始ボタンを含む。また、入力部14は、動画像及び音声のサーバ2への送信を終了するための第2終了ボタンを含む。作業者により第2開始ボタンが押下されると、通信部11は、動画像及び第1音声のサーバ2への送信を開始する。また、作業者により第2終了ボタンが押下されると、通信部11は、動画像及び第1音声のサーバ2への送信を終了する。
スピーカ17は、通信部11によって受信された第2音声を外部に出力する。第2音声には支援者の声が含まれており、作業者は、スピーカ17から出力される支援者の声を聞きながら、作業を行うことができる。
サーバ2は、例えば、制御プログラムと、当該制御プログラムを実行するプロセッサ又は論理回路等の処理回路と、当該制御プログラムを記憶する内部メモリ又はアクセス可能な外部メモリ等の記録装置と、を備えるコンピュータシステムを少なくとも備える。なお、サーバ2は、例えば、処理回路によるハード実装によって、又は、処理回路によるメモリに保持される、若しくは、外部サーバから配信されるソフトウェアプログラムの実行によって、又は、これらハード実装とソフト実装との組み合わせによって実現されてもよい。
サーバ2は、作業端末1及び支援端末3のそれぞれとネットワーク4を介して互いに通信可能に接続されている。
サーバ2は、通信部21、制御部22、及びメモリ23を備える。サーバ2は、情報処理装置の一例である。
通信部21は、作業現場において撮影された動画像及び作業現場において収集された第1音声を、作業現場にいる作業者が用いる作業端末1から受信する。また、通信部21は、遠隔地にいる支援者が用いる支援端末3の周囲の第2音声を支援端末3から受信する。また、通信部21は、作業端末1から受信した動画像及び第1音声を支援端末3へ送信する。また、通信部21は、支援端末3から受信した第2音声を作業端末1へ送信する。
制御部22は、サーバ2全体を制御する。制御部22は、通信部21及びメモリ23の動作を制御する。制御部22は、作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、通信部21によって受信された動画像及び第1音声のメモリ23への記録を開始する。また、制御部22は、支援者による記録終了の操作をトリガーとして、通信部21によって受信された動画像及び第1音声のメモリ23への記録を終了する。
なお、制御部22は、作業端末1からの動画像及び第1音声だけをメモリ23に記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3からの第2音声とをメモリ23に記録してもよい。すなわち、制御部22は、支援者による記録開始の操作をトリガーとして、通信部21によって受信された動画像、第1音声、及び第2音声のメモリ23への記録を開始してもよい。また、制御部22は、支援者による記録終了の操作をトリガーとして、通信部21によって受信された動画像、第1音声、及び第2音声のメモリ23への記録を終了してもよい。
メモリ23は、例えば、RAM、HDD(Hard Disk Drive)、SSD、又はフラッシュメモリ等の各種情報を記憶可能な記憶装置である。メモリ23は、作業端末1からの動画像及び第1音声を非一時的に記録する。
また、メモリ23は、作業端末1からの動画像及び第1音声だけを非一時的に記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3からの第2音声とを非一時的に記録してもよい。すなわち、メモリ23は、通信部21によって受信された動画像、第1音声、及び第2音声を非一時的に記録してもよい。この場合、メモリ23は、動画像、第1音声、及び第2音声を1つのファイルに記録する。
また、通信部21は、遠隔地にいる支援者による入力操作に基づき記録の開始を指示する記録開始信号を、支援者が用いる支援端末3から受信する。制御部22は、通信部21が記録開始信号を受信したことをトリガーとして、動画像及び第1音声のメモリ23への記録を開始する。
また、通信部21は、遠隔地にいる支援者による入力操作に基づき記録の終了を指示する記録終了信号を、支援者が用いる支援端末3から受信する。制御部22は、通信部21が記録終了信号を受信したことをトリガーとして、動画像及び第1音声のメモリ23への記録を終了する。
支援端末3は、例えば、パーソナルコンピュータ、スマートフォン、又はタブレット型コンピュータである。
支援端末3は、例えば、制御プログラムと、当該制御プログラムを実行するプロセッサ又は論理回路等の処理回路と、当該制御プログラムを記憶する内部メモリ又はアクセス可能な外部メモリ等の記録装置と、を備えるコンピュータシステムを少なくとも備える。なお、支援端末3は、例えば、処理回路によるハード実装によって、又は、処理回路によるメモリに保持される、若しくは、外部サーバから配信されるソフトウェアプログラムの実行によって、又は、これらハード実装とソフト実装との組み合わせによって実現されてもよい。
支援端末3は、ネットワーク4を介してサーバ2と互いに通信可能に接続されている。
支援端末3は、通信部31、制御部32、メモリ33、表示部34、スピーカ35、マイクロホン36、及び入力部37を備える。
マイクロホン36は、支援端末3の周囲の第2音声を収集する。
通信部31は、作業現場において撮影された動画像及び作業現場において収集された第1音声をサーバ2から受信する。また、通信部31は、マイクロホン36によって収集された支援端末3の周囲の第2音声をサーバ2へ送信する。
また、通信部31は、支援者による入力操作に基づき記録の開始を指示する記録開始信号をサーバ2へ送信する。また、通信部21は、支援者による入力操作に基づき記録の終了を指示する記録終了信号をサーバ2へ送信する。
制御部32は、支援端末3全体を制御する。制御部32は、通信部31、メモリ33、表示部34、スピーカ35、マイクロホン36、及び入力部37の動作を制御する。
メモリ33は、例えば、RAM、HDD、SSD、又はフラッシュメモリ等の各種情報を記憶可能な記憶装置である。
表示部34は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部34は、通信部31によって受信された作業現場を撮影した動画像を表示する。表示部34に表示される動画像は、リアルタイムに撮影された動画像である。支援者は、表示部34に表示される動画像を見ることにより、作業現場における作業者の作業を確認することができる。
スピーカ35は、通信部31によって受信された作業現場において収集された第1音声を外部に出力する。スピーカ35から出力される第1音声は、リアルタイムに収集された音声である。支援者は、スピーカ35から出力される作業者の声を聞きながら、作業者の作業を支援することができる。
入力部37は、例えば、キーボード、マウス、又はタッチパネルである。入力部37は、支援者による種々の入力操作を受け付ける。入力部37は、動画像及び第1音声のサーバ2への記録を開始するための記録開始ボタンを含む。なお、記録開始ボタンは、支援者により物理的に押下されるボタンであってもよいし、表示部34に表示されてマウスによりクリックされるボタンであってもよい。支援者により記録開始ボタンが押下されると、通信部31は、記録の開始を指示する記録開始信号をサーバ2へ送信する。
また、入力部37は、動画像及び第1音声のサーバ2への記録を終了するための記録終了ボタンを含む。なお、記録終了ボタンは、支援者により物理的に押下されるボタンであってもよいし、表示部34に表示されてマウスによりクリックされるボタンであってもよい。支援者により記録終了ボタンが押下されると、通信部31は、記録の終了を指示する記録終了信号をサーバ2へ送信する。
なお、作業端末1、サーバ2、及び支援端末3のいずれかは、互いに通信を開始する前に、通信IDを生成し、生成した通信IDをそれぞれに送信する。作業端末1、サーバ2、及び支援端末3は、通信IDを用いて動画像、第1音声、及び第2音声を送信及び受信する。通信IDは、動画像、第1音声、及び第2音声を特定するために用いられる。
続いて、本開示の実施の形態1における作業端末1、サーバ2、及び支援端末3それぞれによる作業支援処理について説明する。
図2は、本開示の実施の形態1における作業端末1による作業支援処理について説明するためのフローチャートである。
まず、ステップS1において、カメラ15は、作業現場を撮影することにより動画像を取得する。このとき、入力部14は、動画像及び第1音声の取得を開始するための作業者による入力操作を受け付ける。
次に、ステップS2において、マイクロホン16は、作業現場における第1音声を取得する。
次に、ステップS3において、通信部11は、カメラ15によって取得された動画像及びマイクロホン16によって取得された第1音声をサーバ2へ送信する。このとき、入力部14は、動画像及び第1音声の送信を開始するための作業者による入力操作を受け付ける。また、通信部11は、支援端末3を宛先として、動画像及び第1音声をサーバ2へ送信する。これにより、動画像及び第1音声は、サーバ2を介して支援端末3へ送信される。
次に、ステップS4において、通信部11は、サーバ2によって送信された支援端末3の周囲の第2音声を受信する。
次に、ステップS5において、スピーカ17は、通信部11によって受信された第2音声を外部に出力する。
次に、ステップS6において、制御部12は、動画像及び第1音声の送信を終了するか否かを判定する。このとき、入力部14は、動画像及び第1音声の送信を終了するための作業者による入力操作を受け付ける。動画像及び第1音声の送信を終了するための入力操作が受け付けられた場合、制御部12は、動画像及び第1音声の送信を終了すると判定する。また、動画像及び第1音声の送信を終了するための入力操作が受け付けられない場合、制御部12は、動画像及び第1音声の送信を終了しないと判定する。
ここで、動画像及び第1音声の送信を終了すると判定された場合(ステップS6でYES)、作業支援処理が終了する。このとき、通信部11は、動画像及び第1音声の送信を終了する。なお、動画像及び第1音声の送信が終了された後、入力部14は、動画像及び第1音声の取得を終了するための作業者による入力操作を受け付ける。
一方、動画像及び第1音声の送信を終了しないと判定された場合(ステップS6でNO)、ステップS1に処理が戻る。
図3は、本開示の実施の形態1におけるサーバ2による作業支援処理について説明するためのフローチャートである。
まず、ステップS11において、通信部21は、作業端末1によって送信された動画像及び第1音声を受信する。
次に、ステップS12において、通信部21は、受信した動画像及び第1音声を支援端末3へ送信する。
次に、ステップS13において、通信部21は、支援端末3によって送信された第2音声を受信する。
次に、ステップS14において、通信部21は、受信した第2音声を作業端末1へ送信する。
次に、ステップS15において、制御部22は、遠隔地にいる支援者による入力操作に基づき記録の開始を指示する記録開始信号が通信部21によって受信されたか否かを判定する。
ここで、記録開始信号が受信されたと判定された場合(ステップS15でYES)、ステップS16において、制御部22は、通信部21によって受信された動画像、第1音声、及び第2音声のメモリ23への記録を開始する。その後、ステップS11に処理が戻る。以降、通信部21によって受信された動画像、第1音声、及び第2音声がメモリ23に記録される。
一方、記録開始信号が受信されていないと判定された場合(ステップS15でNO)、ステップS17において、制御部22は、遠隔地にいる支援者による入力操作に基づき記録の終了を指示する記録終了信号が通信部21によって受信されたか否かを判定する。
ここで、記録終了信号が受信されたと判定された場合(ステップS17でYES)、ステップS18において、制御部22は、通信部21によって受信された動画像、第1音声、及び第2音声のメモリ23への記録を終了する。その後、ステップS11に処理が戻る。これにより、記録開始信号が受信された時点から、記録終了信号が受信された時点までに通信部21によって受信された動画像、第1音声、及び第2音声がメモリ23に記録される。
一方、記録終了信号が受信されていないと判定された場合(ステップS17でNO)、ステップS11に処理が戻る。
図4は、本開示の実施の形態1における支援端末3による作業支援処理について説明するためのフローチャートである。
まず、ステップS21において、通信部31は、サーバ2によって送信された動画像及び第1音声を受信する。
次に、ステップS22において、表示部34は、通信部31によって受信された動画像を表示する。
次に、ステップS23において、スピーカ35は、通信部31によって受信された第1音声を外部に出力する。
次に、ステップS24において、マイクロホン36は、支援端末3の周囲の第2音声を取得する。
次に、ステップS25において、通信部31は、マイクロホン36によって取得された第2音声をサーバ2へ送信する。このとき、通信部31は、作業端末1を宛先として、第2音声をサーバ2へ送信する。これにより、第2音声は、サーバ2を介して作業端末1へ送信される。
次に、ステップS26において、制御部32は、入力部37の記録開始ボタンが押下されたか否かを判定する。
ここで、記録開始ボタンが押下されたと判定された場合(ステップS26でYES)、ステップS27において、通信部31は、記録の開始を指示する記録開始信号をサーバ2へ送信する。その後、ステップS21に処理が戻る。
一方、記録開始ボタンが押下されていないと判定された場合(ステップS26でNO)、ステップS28において、制御部32は、入力部37の記録終了ボタンが押下されたか否かを判定する。
ここで、記録終了ボタンが押下されたと判定された場合(ステップS28でYES)、ステップS29において、通信部31は、記録の終了を指示する記録終了信号をサーバ2へ送信する。その後、ステップS21に処理が戻る。
一方、記録終了ボタンが押下されていないと判定された場合(ステップS28でNO)、ステップS21に処理が戻る。
このように、支援者による記録開始の操作をトリガーとして、作業現場にいる作業者が用いる作業端末1から受信された動画像及び第1音声のメモリ23への記録が開始される。したがって、支援者が必要であると判断した動画像及び第1音声のみがメモリ23に記録されるので、メモリ23に記録するデータ量を削減することができる。また、支援者による記録開始の操作が行われると動画像及び第1音声のメモリ23への記録が開始されるので、作業者は作業中に記録開始の操作を行う必要がなく、作業者の負担を軽減することができる。
また、遠隔地にいる支援者による入力操作が行われると、動画像及び第1音声のメモリ23への記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者による入力操作に基づき動画像及び第1音声をメモリ23に記録することができる。
図5は、本実施の形態1において、支援端末3の表示部34に表示される画面の一例を示す図である。
表示部34は、作業現場を撮影した動画像341と、記録開始ボタン342と、記録終了ボタン343とを表示する。支援者によるマウスの操作により、表示部34に表示されるポインタが記録開始ボタン342の上に移動され、支援者によりマウスのボタンがクリックされると、記録開始信号がサーバ2へ送信される。これにより、サーバ2は、動画像、第1音声、及び第2音声の記録を開始する。
また、動画像、第1音声、及び第2音声の記録中に、支援者によるマウスの操作により、表示部34に表示されるポインタが記録終了ボタン343の上に移動され、支援者によりマウスのボタンがクリックされると、記録終了信号がサーバ2へ送信される。これにより、サーバ2は、動画像、第1音声、及び第2音声の記録を終了する。
なお、本実施の形態1において、制御部22は、支援者による記録開始の操作があった時点から、動画像及び第1音声のメモリ23への記録を開始しているが、本開示は特にこれに限定されず、支援者による記録開始の操作があった時点の所定時間前から、動画像及び第1音声をメモリ23へ記録してもよい。この場合、メモリ23は、受信された動画像及び第1音声を一時的に記録するバッファ領域を含む。制御部22は、受信された動画像及び第1音声を一時的にバッファ領域に記録する。制御部22は、記録開始信号を受信した時点から所定時間前までの動画像及び第1音声をバッファ領域から読み出してメモリ23に記録するとともに、記録開始信号を受信した時点以降の動画像及び第1音声をメモリ23に記録してもよい。
また、制御部22は、支援者による記録終了の操作があった時点で、動画像及び第1音声のメモリ23への記録を終了しているが、本開示は特にこれに限定されず、支援者による記録終了の操作があった時点から所定時間後までの動画像及び第1音声をメモリ23へ記録してもよい。制御部22は、記録終了信号を受信した時点から所定時間後までの動画像及び第1音声をメモリ23に記録してもよい。
(実施の形態2)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態2では、作業端末の位置が、遠隔地にいる支援者によって指定された作業現場における所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態2では、作業端末の位置が、遠隔地にいる支援者によって指定された作業現場における所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図6は、本実施の形態2に係る作業支援システム10Aの構成を示す図である。
図6に示す作業支援システム10Aは、作業端末1A、サーバ2A、及び支援端末3Aを備える。なお、本実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態2において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
作業端末1Aは、通信部11A、制御部12、メモリ13、入力部14、カメラ15、マイクロホン16、スピーカ17、及びGPS(Global positioning System)受信部18を備える。以下の作業端末1Aの説明では、実施の形態1の作業端末1と異なる点について説明する。
GPS受信部18は、GPS衛星から送信されるGPS信号を受信することにより、作業端末1Aの現在の位置を取得する。
通信部11Aは、GPS受信部18によって取得された作業端末1Aの現在の位置を示す位置情報をサーバ2へ送信する。
なお、本実施の形態2では、GPS信号から作業端末1Aの現在の位置が取得されているが、本開示は特にこれに限定されず、携帯電話又は無線LAN端末の基地局情報から作業端末1Aの現在の位置が取得されてもよい。
サーバ2Aは、通信部21A、制御部22A、及びメモリ23Aを備える。サーバ2Aは、情報処理装置の一例である。以下のサーバ2Aの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Aは、作業端末1Aの現在の位置を示す位置情報を作業端末1Aから受信する。通信部21Aは、遠隔地にいる支援者によって指定された作業現場における所定の領域を示す領域指定情報を、支援者が用いる支援端末3Aから受信する。通信部21Aは、受信した領域指定情報をメモリ23Aに記憶する。
制御部22Aは、位置情報で示される作業端末1Aの位置が、作業現場における所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリ23Aへの記録を開始する。すなわち、制御部22Aは、位置情報で示される作業端末1Aの位置が、領域指定情報で示される所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリ23Aへの記録を開始する。また、制御部22Aは、位置情報で示される作業端末1Aの位置が、領域指定情報で示される所定の領域から出たことをトリガーとして、動画像及び第1音声のメモリ23Aへの記録を終了する。
なお、制御部22Aは、作業端末1Aからの動画像及び第1音声だけをメモリ23Aに記録するのではなく、作業端末1Aからの動画像及び第1音声と支援端末3Aからの第2音声とをメモリ23Aに記録してもよい。すなわち、制御部22Aは、支援者による記録開始の操作をトリガーとして、通信部21Aによって受信された動画像、第1音声、及び第2音声のメモリ23Aへの記録を開始してもよい。また、制御部22Aは、支援者による記録終了の操作をトリガーとして、通信部21Aによって受信された動画像、第1音声、及び第2音声のメモリ23Aへの記録を終了してもよい。
メモリ23Aは、通信部21Aによって受信された領域指定情報を記憶する。
支援端末3Aは、通信部31A、制御部32、メモリ33、表示部34A、スピーカ35、マイクロホン36、及び入力部37Aを備える。以下の支援端末3Aの説明では、実施の形態1の支援端末3と異なる点について説明する。
通信部31Aは、作業現場における図面情報を受信する。図面情報は、作業現場に配置されている設備などの位置を示す。なお、通信部31Aは、図面情報を他の端末から受信してもよいし、サーバ2Aから受信してもよい。
表示部34Aは、通信部31Aによって受信された図面情報を表示する。
入力部37Aは、表示部34Aに表示された図面情報に対する所定の領域の支援者による指定を受け付ける。所定の領域内に作業端末1Aが入った場合、作業端末1Aからの動画像及び第1音声のサーバ2Aへの記録が開始される。そして、所定の領域から作業端末1Aが出た場合、作業端末1Aからの動画像及び第1音声のサーバ2Aへの記録が終了される。支援者は、作業現場の図面上における所定の領域を指定する。例えば、入力部37Aは、作業現場の図面上の所定の領域を線で囲むことにより、所定の領域の支援者による指定を受け付ける。
通信部31Aは、入力部37Aによって支援者により指定された作業現場における所定の領域を示す領域指定情報をサーバ2Aへ送信する。
続いて、本開示の実施の形態2における作業端末1A、サーバ2A、及び支援端末3Aそれぞれによる作業支援処理について説明する。
図7は、本開示の実施の形態2における作業端末1Aによる作業支援処理について説明するためのフローチャートである。
ステップS31~ステップS33の処理は、図2に示すステップS1~ステップS3の処理と同じであるので、説明を省略する。
次に、ステップS34において、GPS受信部18は、GPS衛星から送信されるGPS信号を受信することにより、作業端末1Aの現在の位置を取得する。
次に、ステップS35において、通信部11Aは、GPS受信部18によって取得された作業端末1Aの現在の位置を示す位置情報をサーバ2へ送信する。
ステップS36~ステップS38の処理は、図2に示すステップS4~ステップS6の処理と同じであるので、説明を省略する。
図8は、本開示の実施の形態2におけるサーバ2Aによる作業支援処理について説明するためのフローチャートである。
まず、ステップS41において、通信部21Aは、支援端末3Aによって送信された作業現場における所定の領域を示す領域指定情報を受信する。
次に、ステップS42において、通信部21Aは、受信した領域指定情報をメモリ23Aに記憶する。
ステップS43~ステップS46の処理は、図3に示すステップS11~ステップS14の処理と同じであるので、説明を省略する。
次に、ステップS47において、通信部21Aは、作業端末1Aによって送信された作業端末1Aの現在の位置を示す位置情報を受信する。
次に、ステップS48において、制御部22Aは、通信部21Aによって受信された位置情報で示される作業端末1Aの位置が、メモリ23Aに記憶されている領域指定情報で示される所定の領域内に入っているか否かを判定する。
ここで、作業端末1Aの位置が所定の領域内に入っていると判定された場合(ステップS48でYES)、ステップS49において、制御部22Aは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS49でNO)、ステップS50において、制御部22Aは、通信部21Aによって受信された動画像、第1音声、及び第2音声のメモリ23Aへの記録を開始する。その後、ステップS43に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS49でYES)、ステップS43に処理が戻る。
また、作業端末1Aの位置が所定の領域内に入っていないと判定された場合、すなわち作業端末1Aの位置が所定の領域から出ていると判定された場合(ステップS48でNO)、ステップS51において、制御部22Aは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS51でYES)、ステップS52において、制御部22Aは、通信部21Aによって受信された動画像、第1音声、及び第2音声のメモリ23Aへの記録を終了する。その後、ステップS43に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS51でNO)、ステップS43に処理が戻る。
図9は、本開示の実施の形態2における支援端末3Aによる作業支援処理について説明するためのフローチャートである。
まず、ステップS61において、入力部37Aは、作業現場における所定の領域の支援者による指定を受け付ける。支援者は、表示部34Aに表示された作業現場の図面に対し、作業端末1Aが入ることによりサーバ2Aへの記録が開始される所定の領域の範囲を指定する。
次に、ステップS62において、通信部31Aは、入力部37Aによって指定された作業現場における所定の領域を示す領域指定情報をサーバ2Aへ送信する。
ステップS63~ステップS67の処理は、図4に示すステップS21~ステップS25の処理と同じであるので、説明を省略する。
このように、遠隔地にいる支援者によって指定された作業現場における所定の領域内に作業端末1Aが入ると、動画像及び第1音声のメモリ23Aへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が作業現場における所定の領域を指定することによって、動画像及び第1音声をメモリ23Aに記録することができる。
なお、本実施の形態2において、サーバ2Aが、領域指定情報を受信し、作業端末1Aの位置が所定の領域内に入っているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Aが、領域指定情報を受信し、作業端末1Aの位置が所定の領域内に入っているか否かを判定してもよい。そして、作業端末1Aの位置が所定の領域内に入っていると判定された場合、作業端末1Aは、記録の開始を指示する記録開始信号をサーバ2Aへ送信してもよい。サーバ2Aは、作業端末1Aによって送信された記録開始信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Aへの記録を開始してもよい。また、作業端末1Aの位置が所定の領域から出たと判定された場合、作業端末1Aは、記録の終了を指示する記録終了信号をサーバ2Aへ送信してもよい。サーバ2Aは、作業端末1Aによって送信された記録終了信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Aへの記録を終了してもよい。
(実施の形態3)
実施の形態2では、作業端末1Aの位置が、遠隔地にいる支援者によって指定された作業現場における所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリ23Aへの記録が開始されるが、実施の形態3では、作業端末が、遠隔地にいる支援者によって指定された作業現場における作業対象に近づいたことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態2では、作業端末1Aの位置が、遠隔地にいる支援者によって指定された作業現場における所定の領域内に入ったことをトリガーとして、動画像及び第1音声のメモリ23Aへの記録が開始されるが、実施の形態3では、作業端末が、遠隔地にいる支援者によって指定された作業現場における作業対象に近づいたことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図10は、本実施の形態3に係る作業支援システム10Bの構成を示す図である。
図10に示す作業支援システム10Bは、作業端末1B、サーバ2B、及び支援端末3Bを備える。なお、本実施の形態3において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態3において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
作業現場に配置された設備などの作業対象には、ビーコン信号を発信するビーコン発信機が設けられている。ビーコン発信機は、例えば、BLE(Bluetooth(登録商標) Low Energy)の通信プロトコルに準拠するビーコン信号を送信する発信機で構成されている。ビーコン発信機は、作業対象に設けられ、作業対象を識別するためのビーコンID(識別情報)を含むビーコン信号を無線により送信する。ビーコンIDは、例えば、UUID(Universally Unique IDentifier)、MajorID、又はMinorIDであり、ビーコン発信機を一意に識別するとともに、ビーコン発信機を備える作業対象を一意に識別する。ビーコン発信機は、一定の周期でビーコン信号を送信する。ビーコン発信機は、作業対象を識別するためのビーコンIDを事前に記憶するメモリを備え、ビーコン信号にビーコンIDを含ませて送信する。ビーコン信号は、無線信号の一例である。
作業端末1Bは、通信部11B、制御部12、メモリ13、入力部14、カメラ15、マイクロホン16、スピーカ17、及びビーコン受信部19を備える。以下の作業端末1Bの説明では、実施の形態1の作業端末1と異なる点について説明する。
ビーコン受信部19は、作業現場においてビーコン発信機から発信されるビーコン信号を受信する。ビーコン受信部19は、BLEの規格に対応するアンテナを含む。ビーコン受信部19は、ビーコン発信機によって送信されたビーコン信号を受信する。また、ビーコン受信部19は、受信したビーコン信号の電波強度(RSSI(Received Signal Strength Indicator))を測定する。
通信部11Bは、ビーコン受信部19によって受信されたビーコン信号に含まれるビーコンID及びビーコン受信部19によって測定されたビーコン信号の電波強度を含む信号情報をサーバ2Bへ送信する。
なお、ビーコン受信部19は、複数のビーコン信号を受信した場合、複数のビーコン信号の電波強度を測定する。通信部11Bは、ビーコン受信部19によって受信された複数のビーコン信号それぞれに含まれる複数のビーコンID及びビーコン受信部19によって測定された複数のビーコン信号それぞれの複数の電波強度を含む信号情報をサーバ2Bへ送信する。
サーバ2Bは、通信部21B、制御部22B、及びメモリ23Bを備える。サーバ2Bは、情報処理装置の一例である。以下のサーバ2Bの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Bは、遠隔地にいる支援者によって指定された作業現場における作業対象から発信されるビーコン信号(無線信号)に含まれるビーコンID(識別情報)を、支援者が用いる支援端末3Bから受信する。通信部21Bは、支援端末3Bから受信したビーコンIDをメモリ23Bに記憶する。
また、通信部21Bは、作業端末1Bによって受信されたビーコン信号(無線信号)に含まれるビーコンID(識別情報)及び作業端末1Bによって測定されたビーコン信号(無線信号)の電波強度を含む信号情報を作業端末1Bから受信する。
制御部22Bは、支援端末3Bから受信した作業対象のビーコンID(識別情報)を含む、作業端末1Bから受信したビーコン信号(無線信号)の電波強度が閾値以上であることをトリガーとして、動画像及び第1音声のメモリ23Bへの記録を開始する。また、制御部22Bは、支援端末3Bから受信した作業対象のビーコンID(識別情報)を含む、作業端末1Bから受信したビーコン信号(無線信号)の電波強度が閾値より小さくなったことをトリガーとして、動画像及び第1音声のメモリ23Bへの記録を終了する。
なお、制御部22Bは、作業端末1Bからの動画像及び第1音声だけをメモリ23Bに記録するのではなく、作業端末1Bからの動画像及び第1音声と支援端末3Bからの第2音声とをメモリ23Bに記録してもよい。すなわち、制御部22Bは、支援者による記録開始の操作をトリガーとして、通信部21Bによって受信された動画像、第1音声、及び第2音声のメモリ23Bへの記録を開始してもよい。また、制御部22Bは、支援者による記録終了の操作をトリガーとして、通信部21Bによって受信された動画像、第1音声、及び第2音声のメモリ23Bへの記録を終了してもよい。
メモリ23Bは、通信部21Bによって受信された作業対象のビーコンID(識別情報)を記憶する。
支援端末3Bは、通信部31B、制御部32、メモリ33、表示部34B、スピーカ35、マイクロホン36、及び入力部37Bを備える。以下の支援端末3Bの説明では、実施の形態1の支援端末3と異なる点について説明する。
表示部34Bは、作業現場における少なくとも1つの作業対象を表示する。なお、少なくとも1つの作業対象には、ビーコンID(識別情報)が予め対応付けられている。
入力部37Bは、表示部34Bに表示された少なくとも1つの作業対象の中から、作業を支援する作業対象の支援者による指定を受け付ける。作業現場には、少なくとも1つの作業対象がある。支援者は、少なくとも1つの作業対象の中から、作業を支援する作業対象を指定する。支援者が指定した作業対象に作業端末1Bが近づいた場合、作業端末1Bからの動画像及び第1音声のサーバ2Bへの記録が開始される。そして、支援者が指定した作業対象から作業端末1Bが離れた場合、作業端末1Bからの動画像及び第1音声のサーバ2Bへの記録が終了される。
通信部31Bは、入力部37Bによって支援者により指定された作業対象に対応付けられているビーコンID(識別情報)をサーバ2Aへ送信する。
続いて、本開示の実施の形態3における作業端末1B、サーバ2B、及び支援端末3Bそれぞれによる作業支援処理について説明する。
図11は、本開示の実施の形態3における作業端末1Bによる作業支援処理について説明するためのフローチャートである。
ステップS71~ステップS73の処理は、図2に示すステップS1~ステップS3の処理と同じであるので、説明を省略する。
次に、ステップS74において、ビーコン受信部19は、作業現場においてビーコン発信機から発信されるビーコン信号を受信する。
次に、ステップS75において、ビーコン受信部19は、受信したビーコン信号の電波強度を測定する。
次に、ステップS76において、通信部11Bは、ビーコン受信部19によって受信されたビーコン信号に含まれるビーコンID及びビーコン受信部19によって測定されたビーコン信号の電波強度を含む信号情報をサーバ2Bへ送信する。
ステップS77~ステップS79の処理は、図2に示すステップS4~ステップS6の処理と同じであるので、説明を省略する。
図12は、本開示の実施の形態3におけるサーバ2Bによる作業支援処理について説明するためのフローチャートである。
まず、ステップS81において、通信部21Bは、支援端末3Bによって送信された作業現場における作業対象のビーコンIDを受信する。
次に、ステップS82において、通信部21Bは、受信した作業対象のビーコンIDをメモリ23Bに記憶する。
ステップS83~ステップS86の処理は、図3に示すステップS11~ステップS14の処理と同じであるので、説明を省略する。
次に、ステップS87において、通信部21Bは、作業端末1Bによって受信されたビーコン信号に含まれるビーコンID及び作業端末1Bによって測定されたビーコン信号の電波強度を含む信号情報を作業端末1Bから受信する。
次に、ステップS88において、制御部22Bは、支援端末3Bから受信した作業対象のビーコンIDを含む、作業端末1Bから受信したビーコン信号の電波強度が閾値以上であるか否かを判定する。
ここで、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値以上であると判定された場合(ステップS88でYES)、ステップS89において、制御部22Bは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS89でNO)、ステップS90において、制御部22Bは、通信部21Bによって受信された動画像、第1音声、及び第2音声のメモリ23Bへの記録を開始する。その後、ステップS83に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS89でYES)、ステップS83に処理が戻る。
また、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値以上ではないと判定された場合、すなわち作業対象のビーコンIDを含むビーコン信号の電波強度が閾値より小さいと判定された場合(ステップS88でNO)、ステップS91において、制御部22Bは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS91でYES)、ステップS92において、制御部22Bは、通信部21Bによって受信された動画像、第1音声、及び第2音声のメモリ23Bへの記録を終了する。その後、ステップS83に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS91でNO)、ステップS83に処理が戻る。
図13は、本開示の実施の形態3における支援端末3Bによる作業支援処理について説明するためのフローチャートである。
まず、ステップS101において、入力部37Bは、作業を支援する作業対象の支援者による指定を受け付ける。支援者は、表示部34Bに表示された少なくとも1つの作業対象の中から、作業端末1Bが近づくことによりサーバ2Bへの記録が開始される作業対象を指定する。
次に、ステップS102において、通信部31Bは、入力部37Bによって指定された作業対象のビーコンIDをサーバ2Bへ送信する。
ステップS103~ステップS107の処理は、図4に示すステップS21~ステップS25の処理と同じであるので、説明を省略する。
このように、遠隔地にいる支援者によって指定された作業現場における作業対象に作業端末1Bが近づくと、動画像及び第1音声のメモリ23Bへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が作業現場における作業対象の識別情報を指定することによって、動画像及び第1音声をメモリ23Bに記録することができる。
なお、本実施の形態3において、サーバ2Bが、作業対象のビーコンIDを受信し、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値以上であるか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Bが、作業対象のビーコンIDを受信し、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値以上であるか否かを判定してもよい。そして、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値以上であると判定された場合、作業端末1Bは、記録の開始を指示する記録開始信号をサーバ2Bへ送信してもよい。サーバ2Bは、作業端末1Bによって送信された記録開始信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Bへの記録を開始してもよい。また、作業対象のビーコンIDを含むビーコン信号の電波強度が閾値より小さいと判定された場合、作業端末1Bは、記録の終了を指示する記録終了信号をサーバ2Bへ送信してもよい。サーバ2Bは、作業端末1Bによって送信された記録終了信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Bへの記録を終了してもよい。
(実施の形態4)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態4では、予め記憶されている所定のキーワードが第2音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態4では、予め記憶されている所定のキーワードが第2音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図14は、本実施の形態4に係る作業支援システム10Cの構成を示す図である。
図14に示す作業支援システム10Cは、作業端末1、サーバ2C、及び支援端末3Cを備える。なお、本実施の形態4において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態4において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
サーバ2Cは、通信部21C、制御部22C、及びメモリ23Cを備える。サーバ2Cは、情報処理装置の一例である。以下のサーバ2Cの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Cは、遠隔地にいる支援者が用いる支援端末3Cの周囲の第2音声を支援端末3Cから受信する。
メモリ23Cは、所定の開始キーワードを予め記憶するとともに、所定の終了キーワードを予め記憶する。所定の開始キーワードは、例えば、「そこ」又は「あそこ」などの指示代名詞、作業対象の名称、又は作業対象の部品の名称である。また、所定の終了キーワードは、例えば、「記録終了」などの記録を終了するための文言である。なお、所定の開始キーワード及び所定の終了キーワードは、支援者によって入力されてもよい。また、メモリ23Cは、1つの開始キーワードを記憶してもよいし、複数の開始キーワードを記憶してもよい。また、メモリ23Cは、1つの終了キーワードを記憶してもよいし、複数の終了キーワードを記憶してもよい。
制御部22Cは、メモリ23Cに予め記憶されている所定の開始キーワードが第2音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Cへの記録を開始する。また、制御部22Cは、メモリ23Cに予め記憶されている所定の終了キーワードが第2音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Cへの記録を終了する。
制御部22Cは、通信部21によって受信された第2音声に対して音声認識を行い、第2音声をテキスト化する。そして、制御部22Cは、メモリ23Cに予め記憶されている所定の開始キーワードが、テキスト化した第2音声に含まれているか否かを判定する。所定の開始キーワードが第2音声に含まれていると判定された場合、制御部22Cは、動画像及び第1音声のメモリ23Cへの記録を開始する。
また、所定の開始キーワードが第2音声に含まれていないと判定された場合、制御部22Cは、メモリ23Cに予め記憶されている所定の終了キーワードが、テキスト化した第2音声に含まれているか否かを判定する。所定の終了キーワードが第2音声に含まれていると判定された場合、制御部22Cは、動画像及び第1音声のメモリ23Cへの記録を終了する。
なお、制御部22Cは、作業端末1からの動画像及び第1音声だけをメモリ23Cに記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3Cからの第2音声とをメモリ23Cに記録してもよい。すなわち、制御部22Cは、支援者による記録開始の操作をトリガーとして、通信部21Cによって受信された動画像、第1音声、及び第2音声のメモリ23Cへの記録を開始してもよい。また、制御部22Cは、支援者による記録終了の操作をトリガーとして、通信部21Cによって受信された動画像、第1音声、及び第2音声のメモリ23Cへの記録を終了してもよい。
支援端末3Cは、通信部31C、制御部32C、メモリ33、表示部34、スピーカ35、マイクロホン36、及び入力部37Cを備える。以下の支援端末3Aの説明では、実施の形態1の支援端末3と異なる点について説明する。
通信部31Cは、作業現場において撮影された動画像及び作業現場において収集された第1音声をサーバ2Cから受信する。また、通信部31Cは、マイクロホン36によって収集された支援端末3Cの周囲の第2音声をサーバ2Cへ送信する。
通信部31Cは、実施の形態1とは異なり、記録開始信号及び記録終了信号をサーバ2Cへ送信しない。制御部32Cは、実施の形態1とは異なり、記録開始ボタンが押下されたか否かを判定しない。また、制御部32Cは、実施の形態1とは異なり、記録終了ボタンが押下されたか否かを判定しない。入力部37Cは、実施の形態1とは異なり、記録開始ボタン及び記録終了ボタンを含まない。
続いて、本開示の実施の形態4におけるサーバ2C及び支援端末3Cそれぞれによる作業支援処理について説明する。
図15は、本開示の実施の形態4におけるサーバ2Cによる作業支援処理について説明するためのフローチャートである。
ステップS121~ステップS124の処理は、図3に示すステップS11~ステップS14の処理と同じであるので、説明を省略する。
次に、ステップS125において、制御部22Cは、通信部21によって受信された第2音声に対して音声認識を行い、第2音声をテキスト化する。
次に、ステップS126において、制御部22Cは、メモリ23Cに予め記憶されている所定の開始キーワードが、テキスト化した第2音声に含まれているか否かを判定する。
ここで、所定の開始キーワードが第2音声に含まれていると判定された場合(ステップS126でYES)、ステップS127において、制御部22Cは、動画像、第1音声、及び第2音声のメモリ23Cへの記録を開始する。その後、ステップS121に処理が戻る。
一方、所定の開始キーワードが第2音声に含まれていないと判定された場合(ステップS126でNO)、ステップS128において、制御部22Cは、メモリ23Cに予め記憶されている所定の終了キーワードが、テキスト化した第2音声に含まれているか否かを判定する。
ここで、所定の終了キーワードが第2音声に含まれていないと判定された場合(ステップS128でNO)、ステップS121に処理が戻る。
一方、所定の終了キーワードが第2音声に含まれていると判定された場合(ステップS128でYES)、ステップS129において、制御部22Cは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS129でNO)、ステップS121に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS129でYES)、ステップS130において、制御部22Cは、動画像、第1音声、及び第2音声のメモリ23Cへの記録を終了する。その後、ステップS121に処理が戻る。
なお、本実施の形態4における支援端末3Cによる作業支援処理は、図4に示すステップS21~ステップS25の処理と同じであるので、説明を省略する。
このように、遠隔地にいる支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリ23Cへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリ23Cに記録することができる。
なお、本実施の形態4では、制御部22Cは、所定の終了キーワードが第2音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。支援端末3Cは、支援者による記録終了ボタンの押下を受け付けてもよい。支援者により記録終了ボタンが押下された場合、支援端末3Cは、記録終了信号をサーバ2Cへ送信してもよい。サーバ2Cの通信部21Cは、支援端末3Cによって送信された記録終了信号を受信してもよい。制御部22Cは、支援端末3Cによって送信された記録終了信号が受信されたか否かを判定してもよい。記録終了信号が受信されたと判定された場合、制御部22Cは、動画像、第1音声、及び第2音声のメモリ23Cへの記録を終了してもよい。
また、本実施の形態4において、サーバ2Cが、所定の開始キーワードが第2音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。支援端末3Cが、所定の開始キーワードが第2音声に含まれているか否かを判定してもよい。そして、所定の開始キーワードが第2音声に含まれていると判定された場合、支援端末3Cは、記録の開始を指示する記録開始信号をサーバ2Cへ送信してもよい。サーバ2Cは、支援端末3Cによって送信された記録開始信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Cへの記録を開始してもよい。また、支援端末3Cが、所定の終了キーワードが第2音声に含まれているか否かを判定してもよい。所定の終了キーワードが第2音声に含まれていると判定された場合、支援端末3Cは、記録の終了を指示する記録終了信号をサーバ2Cへ送信してもよい。サーバ2Cは、支援端末3Cによって送信された記録終了信号を受信すると、動画像、第1音声、及び第2音声のメモリ23Cへの記録を終了してもよい。
(実施の形態5)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態5では、第2音声における支援者が発話した発話区間が検出され、発話区間が検出されたことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態5では、第2音声における支援者が発話した発話区間が検出され、発話区間が検出されたことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図16は、本実施の形態5に係る作業支援システム10Dの構成を示す図である。
図16に示す作業支援システム10Dは、作業端末1、サーバ2D、及び支援端末3Cを備える。なお、本実施の形態5において、実施の形態1,4と同じ構成については同じ符号を付し、説明を省略する。
実施の形態5において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
サーバ2Dは、通信部21D、制御部22D、及びメモリ23を備える。サーバ2Dは、情報処理装置の一例である。以下のサーバ2Dの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Dは、遠隔地にいる支援者が用いる支援端末3Cの周囲の第2音声を支援端末3Cから受信する。
制御部22Dは、第2音声における支援者が発話した発話区間を検出する。制御部22Dは、一般的な発話区間検出(VAD:Voice Activity Detection)技術を用いて発話区間を検出する。例えば、制御部22Dは、入力された第2音声の時系列で構成されたフレームにおいて、振幅と零交差数とに基づいて、そのフレームが音声区間か否かを検出する。また、例えば、制御部22Dは、入力される音声情報の特徴量に基づき、支援者が発話中である確率を音声モデルにより算出するとともに、支援者の発話がない状態である確率を雑音モデルにより算出し、雑音モデルから得られた確率よりも音声モデルから得られた確率の方が高い区間を発話区間であると判定してもよい。
制御部22Dは、発話区間が検出されたことをトリガーとして、動画像及び第1音声のメモリ23への記録を開始する。また、制御部22Dは、発話区間が検出されなくなったことをトリガーとして、動画像及び第1音声のメモリ23への記録を終了する。
制御部22Dは、第2音声が発話区間であるか否かを判定する。第2音声が発話区間であると判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を開始する。また、第2音声が発話区間であると判定された後、第2音声が発話区間ではないと判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を終了する。
なお、制御部22Dは、作業端末1からの動画像及び第1音声だけをメモリ23に記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3Cからの第2音声とをメモリ23に記録してもよい。すなわち、制御部22Cは、支援者による記録開始の操作をトリガーとして、通信部21Dによって受信された動画像、第1音声、及び第2音声のメモリ23への記録を開始してもよい。また、制御部22Dは、支援者による記録終了の操作をトリガーとして、通信部21Dによって受信された動画像、第1音声、及び第2音声のメモリ23への記録を終了してもよい。
続いて、本開示の実施の形態5におけるサーバ2Cによる作業支援処理について説明する。
図17は、本開示の実施の形態5におけるサーバ2Cによる作業支援処理について説明するためのフローチャートである。
ステップS141~ステップS144の処理は、図3に示すステップS11~ステップS14の処理と同じであるので、説明を省略する。
次に、ステップS145において、制御部22Dは、第2音声における発話区間を検出する。
次に、ステップS146において、制御部22Dは、第2音声が発話区間であるか否かを判定する。
ここで、第2音声が発話区間であると判定された場合(ステップS146でYES)、ステップS147において、制御部22Dは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS147でYES)、ステップS141に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS147でNO)、ステップS148において、制御部22Dは、動画像、第1音声、及び第2音声のメモリ23への記録を開始する。その後、ステップS141に処理が戻る。
一方、第2音声が発話区間ではないと判定された場合(ステップS146でNO)、ステップS149において、制御部22Dは、動画像、第1音声、及び第2音声が記録中であるか否かを判定する。
ここで、動画像、第1音声、及び第2音声が記録中ではないと判定された場合(ステップS149でNO)、ステップS141に処理が戻る。
一方、動画像、第1音声、及び第2音声が記録中であると判定された場合(ステップS149でYES)、ステップS150において、制御部22Dは、動画像、第1音声、及び第2音声のメモリ23への記録を終了する。その後、ステップS141に処理が戻る。
このように、遠隔地にいる支援者が発話すると、動画像及び第1音声のメモリ23への記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が発話することによって、動画像及び第1音声をメモリ23に記録することができる。
なお、本実施の形態5では、制御部22Dは、第2音声における支援者が発話した発話区間を検出しているが、本開示は特にこれに限定されない。制御部22Dは、第1音声及び第2音声における作業者及び支援者が発話した発話区間を検出してもよい。制御部22Dは、第1音声及び第2音声が発話区間であるか否かを判定してもよい。第1音声及び第2音声が発話区間であると判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を開始してもよい。また、第1音声及び第2音声が発話区間であると判定された後、第1音声及び第2音声が発話区間ではないと判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を終了してもよい。
また、本実施の形態5において、サーバ2Dが、第2音声における支援者が発話した発話区間を検出し、第2音声が発話区間であるか否かを判定しているが、本開示は特にこれに限定されない。支援端末3Cが、第2音声における支援者が発話した発話区間を検出し、第2音声が発話区間であるか否かを判定してもよい。そして、第2音声が発話区間であると判定された場合、支援端末3Cは、記録の開始を指示する記録開始信号をサーバ2Dへ送信してもよい。サーバ2Dは、支援端末3Cによって送信された記録開始信号を受信すると、動画像、第1音声、及び第2音声のメモリ23への記録を開始してもよい。また、第2音声が発話区間であると判定された後、第2音声が発話区間ではないと判定された場合、支援端末3Cは、記録の終了を指示する記録終了信号をサーバ2Dへ送信してもよい。サーバ2Dは、支援端末3Cによって送信された記録終了信号を受信すると、動画像、第1音声、及び第2音声のメモリ23への記録を終了してもよい。
また、本実施の形態5において、制御部22Dは、第2音声における支援者が発話した発話区間を検出し、検出した発話区間内において予め記憶されている所定のキーワードが第2音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23への記録を開始してもよい。この場合、図17のステップS146で第2音声が発話区間であると判定された場合、図15のステップS125~ステップS130の処理が行われてもよい。
すなわち、制御部22Dは、第2音声が発話区間であるか否かを判定する。第2音声が発話区間であると判定された場合、制御部22Dは、通信部21Dによって受信された第2音声に対して音声認識を行い、第2音声をテキスト化してもよい。そして、制御部22Dは、メモリ23に予め記憶されている所定の開始キーワードが、テキスト化した第2音声に含まれているか否かを判定してもよい。所定の開始キーワードが第2音声に含まれていると判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を開始してもよい。また、動画像及び第1音声の記録中に、第2音声が発話区間ではないと判定された場合、制御部22Dは、動画像及び第1音声のメモリ23への記録を終了してもよい。
(実施の形態6)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態6では、受信された動画像から、作業現場にいる支援者の動作が認識され、認識された動作が、予め決められている所定の動作であることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態6では、受信された動画像から、作業現場にいる支援者の動作が認識され、認識された動作が、予め決められている所定の動作であることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図18は、本実施の形態6に係る作業支援システム10Eの構成を示す図である。
図18に示す作業支援システム10Eは、作業端末1E及びサーバ2Eを備える。なお、本実施の形態6において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態6において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者も作業現場にいる。作業者は、作業現場において、作業対象に対して支援者が作業を支援している様子を撮影する。
作業端末1Eは、通信部11E、制御部12E、メモリ13、入力部14E、カメラ15、及びマイクロホン16を備える。以下の作業端末1Eの説明では、実施の形態1の作業端末1と異なる点について説明する。
通信部11Eは、カメラ15によって撮影された動画像及びマイクロホン16によって収集された第1音声をサーバ2Eへ送信する。
入力部14Eは、動画像及び第1音声のサーバ2Eへの記録を終了するための記録終了ボタンを含む。制御部12Eは、入力部14Eの記録終了ボタンが押下されたか否かを判定する。作業者により記録終了ボタンが押下されると、通信部11Eは、記録の終了を指示する記録終了信号をサーバ2Eへ送信する。
サーバ2Eは、通信部21E、制御部22E、及びメモリ23Eを備える。サーバ2Eは、情報処理装置の一例である。以下のサーバ2Eの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Eは、作業現場において撮影された動画像及び作業現場において収集された第1音声を、作業現場にいる作業者が用いる作業端末1Eから受信する。
制御部22Eは、通信部21Eによって受信された動画像から、作業現場にいる支援者の動作を認識する。制御部22Eは、認識した支援者の動作が、予め決められている所定の動作であることをトリガーとして、動画像及び第1音声のメモリ23Eへの記録を開始する。所定の動作は、支援者が作業対象に向かって指を指している動作である。
制御部22Eは、学習済みのニューラルネットワークを用いて、動画像に写る人物の骨格を推定する。また、制御部22Eは、学習済みのニューラルネットワークを用いて、推定した骨格から人物の動作を認識する。
制御部22Eは、認識した支援者の動作が、予め決められている所定の動作であるか否かを判定する。認識した支援者の動作が所定の動作であると判定された場合、制御部22Eは、動画像及び第1音声のメモリ23Eへの記録を開始する。例えば、支援者は、作業現場において作業を支援する際に、作業対象に向かって指を指す動作を行う。制御部22Eは、支援者が指を指す動作を認識することにより、支援者が作業の支援を開始したと判定し、動画像及び第1音声のメモリ23Eへの記録を開始する。第1音声には、作業者の声と、支援者の声とが含まれる。
また、通信部21Eは、作業現場にいる作業者による入力操作に基づき記録の終了を指示する記録終了信号を、作業端末1Eから受信する。制御部22Eは、通信部21Eが記録終了信号を受信したことをトリガーとして、動画像及び第1音声のメモリ23Eへの記録を終了する。
続いて、本開示の実施の形態6における作業端末1E及びサーバ2Eそれぞれによる作業支援処理について説明する。
図19は、本開示の実施の形態6における作業端末1Eによる作業支援処理について説明するためのフローチャートである。
ステップS151~ステップS153の処理は、図2に示すステップS1~ステップS3の処理と同じであるので、説明を省略する。
次に、ステップS154において、制御部12Eは、入力部14Eの記録終了ボタンが押下されたか否かを判定する。
ここで、記録終了ボタンが押下されていないと判定された場合(ステップS154でNO)、ステップS151に処理が戻る。
一方、記録終了ボタンが押下されたと判定された場合(ステップS154でYES)、ステップS155において、通信部11Eは、記録の終了を指示する記録終了信号をサーバ2Eへ送信する。
ステップS156の処理は、図2に示すステップS6の処理と同じであるので、説明を省略する。
図20は、本開示の実施の形態6におけるサーバ2Eによる作業支援処理について説明するためのフローチャートである。
まず、ステップS161において、通信部21Eは、作業端末1Eによって送信された動画像及び第1音声を受信する。
次に、ステップS162において、制御部22Eは、通信部21Eによって受信された動画像から、作業現場にいる支援者の動作を認識する。
次に、ステップS163において、制御部22Eは、認識した動作が、予め決められている所定の動作であるか否かを判定する。
ここで、認識した動作が所定の動作であると判定された場合(ステップS163でYES)、ステップS164において、制御部22Eは、動画像及び第1音声が記録中であるか否かを判定する。
ここで、動画像及び第1音声が記録中であると判定された場合(ステップS164でYES)、ステップS161に処理が戻る。
一方、動画像及び第1音声が記録中ではないと判定された場合(ステップS164でNO)、ステップS165において、制御部22Eは、通信部21Eによって受信された動画像及び第1音声のメモリ23Eへの記録を開始する。その後、ステップS161に処理が戻る。
一方、認識した動作が所定の動作ではないと判定された場合(ステップS163でNO)、ステップS166において、制御部22Eは、作業現場にいる作業者による入力操作に基づき記録の終了を指示する記録終了信号が通信部21Eによって受信されたか否かを判定する。
ここで、記録終了信号が受信されたと判定された場合(ステップS166でYES)、ステップS167において、制御部22Eは、通信部21Eによって受信された動画像及び第1音声のメモリ23Eへの記録を終了する。その後、ステップS161に処理が戻る。
一方、記録終了信号が受信されていないと判定された場合(ステップS166でNO)、ステップS161に処理が戻る。
このように、作業現場にいる支援者が、予め決められている所定の動作を行うと、動画像及び第1音声のメモリ23Eへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場にいる支援者が所定の動作を行うことによって、動画像及び第1音声をメモリ23Eに記録することができる。
(実施の形態7)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態7では、予め記憶されている所定のキーワードが、作業現場にいる支援者の声を含む第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態7では、予め記憶されている所定のキーワードが、作業現場にいる支援者の声を含む第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図21は、本実施の形態7に係る作業支援システム10Fの構成を示す図である。
図21に示す作業支援システム10Fは、作業端末1F及びサーバ2Fを備える。なお、本実施の形態7において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態7において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者も作業現場にいる。作業現場において、作業者は、作業端末1Fを用いて、作業対象に対して支援者が作業を支援している様子を撮影する。
作業端末1Fは、通信部11F、制御部12、メモリ13、入力部14、カメラ15、及びマイクロホン16を備える。以下の作業端末1Fの説明では、実施の形態1の作業端末1と異なる点について説明する。
通信部11Fは、カメラ15によって撮影された動画像及びマイクロホン16によって収集された第1音声をサーバ2Fへ送信する。
サーバ2Fは、通信部21F、制御部22F、及びメモリ23Fを備える。サーバ2Fは、情報処理装置の一例である。以下のサーバ2Fの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Fは、作業現場において撮影された動画像及び作業現場において収集された第1音声を、作業現場にいる作業者が用いる作業端末1Fから受信する。
メモリ23Fは、所定の開始キーワードを予め記憶するとともに、所定の終了キーワードを予め記憶する。所定の開始キーワードは、例えば、「そこ」又は「あそこ」などの指示代名詞、作業対象の名称、又は作業対象の部品の名称である。また、所定の終了キーワードは、例えば、「記録終了」などの記録を終了するための文言である。なお、所定の開始キーワード及び所定の終了キーワードは、支援者によって入力されてもよい。また、メモリ23Fは、1つの開始キーワードを記憶してもよいし、複数の開始キーワードを記憶してもよい。また、メモリ23Fは、1つの終了キーワードを記憶してもよいし、複数の終了キーワードを記憶してもよい。
制御部22Fは、メモリ23Fに予め記憶されている所定のキーワードが、作業現場にいる支援者の声を含む第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Fへの記録を開始する。また、制御部22Fは、メモリ23Fに予め記憶されている所定の終了キーワードが第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Fへの記録を終了する。
制御部22Fは、通信部21Fによって受信された第1音声に対して音声認識を行い、第1音声をテキスト化する。そして、制御部22Fは、メモリ23Fに予め記憶されている所定の開始キーワードが、テキスト化した第1音声に含まれているか否かを判定する。所定の開始キーワードが第1音声に含まれていると判定された場合、制御部22Fは、動画像及び第1音声のメモリ23Fへの記録を開始する。
例えば、支援者は、作業現場において作業を支援する際に、作業端末1Fを装着した作業者と会話する。このとき、支援者は、動画像及び第1音声のサーバ2Fへの記録を開始するタイミングで、所定の開始キーワードを発話する。制御部22Fは、所定の開始キーワードが、作業現場で収集された第1音声に含まれている場合、支援者が作業の支援を開始したと判定し、動画像及び第1音声のメモリ23Fへの記録を開始する。
また、所定の開始キーワードが第1音声に含まれていないと判定された場合、制御部22Fは、メモリ23Fに予め記憶されている所定の終了キーワードが、テキスト化した第1音声に含まれているか否かを判定する。所定の終了キーワードが第1音声に含まれていると判定された場合、制御部22Fは、動画像及び第1音声のメモリ23Fへの記録を終了する。例えば、支援者は、動画像及び第1音声のサーバ2Fへの記録を終了するタイミングで、所定の終了キーワードを発話する。
続いて、本開示の実施の形態7における作業端末1F及びサーバ2Fそれぞれによる作業支援処理について説明する。
なお、本実施の形態7における作業端末1Fによる作業支援処理は、図2に示すステップS1、ステップS2、ステップS3、及びステップS6の処理と同じであるので、説明を省略する。
図22は、本開示の実施の形態7におけるサーバ2Fによる作業支援処理について説明するためのフローチャートである。
まず、ステップS171において、通信部21Fは、作業端末1Fによって送信された動画像及び第1音声を受信する。
次に、ステップS172において、制御部22Fは、通信部21Fによって受信された第1音声に対して音声認識を行い、第1音声をテキスト化する。
次に、ステップS173において、制御部22Fは、メモリ23Fに予め記憶されている所定の開始キーワードが、テキスト化した第1音声に含まれているか否かを判定する。
ここで、所定の開始キーワードが第1音声に含まれていると判定された場合(ステップS173でYES)、ステップS174において、制御部22Fは、動画像及び第1音声のメモリ23Fへの記録を開始する。その後、ステップS171に処理が戻る。
一方、所定の開始キーワードが第1音声に含まれていないと判定された場合(ステップS173でNO)、ステップS175において、制御部22Fは、メモリ23Fに予め記憶されている所定の終了キーワードが、テキスト化した第1音声に含まれているか否かを判定する。
ここで、所定の終了キーワードが第1音声に含まれていないと判定された場合(ステップS175でNO)、ステップS171に処理が戻る。
一方、所定の終了キーワードが第1音声に含まれていると判定された場合(ステップS175でYES)、ステップS176において、制御部22Fは、動画像及び第1音声が記録中であるか否かを判定する。
ここで、動画像及び第1音声が記録中ではないと判定された場合(ステップS176でNO)、ステップS171に処理が戻る。
一方、動画像及び第1音声が記録中であると判定された場合(ステップS176でYES)、ステップS177において、制御部22Fは、動画像及び第1音声のメモリ23Fへの記録を終了する。その後、ステップS171に処理が戻る。
このように、作業現場にいる支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリ23Fへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場にいる支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリ23Fに記録することができる。
なお、本実施の形態7では、制御部22Fは、所定の終了キーワードが第1音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Fは、作業者による記録終了ボタンの押下を受け付けてもよい。作業者により記録終了ボタンが押下された場合、作業端末1Fは、記録終了信号をサーバ2Fへ送信してもよい。サーバ2Fの通信部21Fは、作業端末1Fによって送信された記録終了信号を受信してもよい。制御部22Fは、作業端末1Fによって送信された記録終了信号が受信されたか否かを判定してもよい。記録終了信号が受信されたと判定された場合、制御部22Fは、動画像及び第1音声のメモリ23Fへの記録を終了してもよい。
また、本実施の形態7において、サーバ2Fが、所定の開始キーワードが第1音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Fが、所定の開始キーワードが第1音声に含まれているか否かを判定してもよい。そして、所定の開始キーワードが第1音声に含まれていると判定された場合、作業端末1Fは、記録の開始を指示する記録開始信号をサーバ2Fへ送信してもよい。サーバ2Fは、作業端末1Fによって送信された記録開始信号を受信すると、動画像及び第1音声のメモリ23Fへの記録を開始してもよい。また、作業端末1Fが、所定の終了キーワードが第1音声に含まれているか否かを判定してもよい。所定の終了キーワードが第1音声に含まれていると判定された場合、作業端末1Fは、記録の終了を指示する記録終了信号をサーバ2Fへ送信してもよい。サーバ2Fは、作業端末1Fによって送信された記録終了信号を受信すると、動画像及び第1音声のメモリ23Fへの記録を終了してもよい。
(実施の形態8)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態8では、遠隔地にいる支援者によって動画像から抽出された静止画像を支援端末から受信したことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態8では、遠隔地にいる支援者によって動画像から抽出された静止画像を支援端末から受信したことをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図23は、本実施の形態8に係る作業支援システム10Gの構成を示す図である。
図23に示す作業支援システム10Gは、作業端末1G、サーバ2G、及び支援端末3Gを備える。なお、本実施の形態8において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態8において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者は遠隔地にいる。
支援端末3Gは、通信部31G、制御部32G、メモリ33、表示部34G、スピーカ35、マイクロホン36、及び入力部37Gを備える。以下の支援端末3Gの説明では、実施の形態1の支援端末3と異なる点について説明する。
入力部37Gは、表示部34Gによって表示された動画像から静止画像を抽出するためのキャプチャ開始ボタンを含む。なお、キャプチャ開始ボタンは、支援者により物理的に押下されるボタンであってもよいし、表示部34Gに表示されてマウスによりクリックされるボタンであってもよい。
制御部32Gは、キャプチャ開始ボタンが押下されたか否かを判定する。支援者によりキャプチャ開始ボタンが押下されると、制御部32Gは、動画像から静止画像を抽出する。表示部34Gは、動画像から抽出された静止画像を表示するとともに、通信部31Gは、動画像から抽出された静止画像を、サーバ2Gを介して周期的に作業端末1Gへ送信する。例えば、支援者は、動画像を見ながら、支援が必要な箇所があると、キャプチャ開始ボタンを押下する。これにより、キャプチャ開始ボタンが押下された時点の静止画像が、表示部34Gに表示されるとともに、通信部31Gによってサーバ2Gを介して周期的に作業端末1Gへ送信される。
また、入力部37Gは、表示部34Gに表示された静止画像に対する支援者による文字及び記号などの指示情報の入力を受け付ける。例えば、支援者は、具体的な作業を指示するため、表示された静止画像に対し、矢印を書き込んだり、文字を書き込んだりする。通信部31Gは、支援者により入力された指示情報が重畳された静止画像を、サーバ2Gを介して周期的に作業端末1Gへ送信する。
また、入力部37Gは、抽出された静止画像の表示及び送信を終了するためのキャプチャ終了ボタンを含む。なお、キャプチャ終了ボタンは、支援者により物理的に押下されるボタンであってもよいし、表示部34Gに表示されてマウスによりクリックされるボタンであってもよい。
制御部32Gは、キャプチャ終了ボタンが押下されたか否かを判定する。支援者によりキャプチャ終了ボタンが押下されると、表示部34Gは、静止画像の表示を終了するとともに、通信部31Gは、静止画像のサーバ2Gへの送信を終了する。
サーバ2Gは、通信部21G、制御部22G、及びメモリ23Gを備える。サーバ2Gは、情報処理装置の一例である。以下のサーバ2Gの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Gは、支援端末3Gの表示部34Gによって表示された動画像から、支援者によって抽出された静止画像を、支援端末3Gから受信する。また、通信部21Gは、支援端末3Gから受信した静止画像を作業端末1Gへ送信する。
制御部22Gは、静止画像を受信したことをトリガーとして、動画像及び第1音声のメモリ23Gへの記録を開始する。制御部22Gは、通信部21Gによって静止画像が受信されたか否かを判定する。通信部21Gによって静止画像が受信されたと判定された場合、制御部22Gは、動画像及び第1音声のメモリ23Gへの記録を開始する。
また、制御部22Gは、動画像及び第1音声の記録が開始された後、静止画像を受信しなくなったことをトリガーとして、動画像及び第1音声のメモリ23Gへの記録を終了する。動画像及び第1音声の記録中に、通信部21Gによって静止画像が受信されていないと判定された場合、制御部22Gは、動画像及び第1音声のメモリ23Gへの記録を終了する。
なお、制御部22Gは、作業端末1からの動画像及び第1音声だけをメモリ23Gに記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3Gからの第2音声とをメモリ23Gに記録してもよい。すなわち、制御部22Gは、支援者による記録開始の操作をトリガーとして、通信部21Gによって受信された動画像、第1音声、及び第2音声のメモリ23Gへの記録を開始してもよい。また、制御部22Gは、支援者による記録終了の操作をトリガーとして、通信部21Gによって受信された動画像、第1音声、及び第2音声のメモリ23Gへの記録を終了してもよい。
また、制御部22Gは、作業端末1からの動画像及び第1音声と支援端末3Gからの第2音声及び静止画像とをメモリ23Gに記録してもよい。すなわち、制御部22Gは、静止画像を受信したことをトリガーとして、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像のメモリ23Gへの記録を開始してもよい。また、制御部22Gは、動画像、第1音声、第2音声、及び静止画像の記録中に静止画像を受信しなくなったことをトリガーとして、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像のメモリ23Gへの記録を終了してもよい。
さらに、制御部22Gは、作業端末1からの動画像及び第1音声をメモリ23Gに記録せずに、支援端末3Gからの第2音声及び静止画像のみをメモリ23に記録してもよい。すなわち、制御部22Gは、静止画像を受信したことをトリガーとして、通信部21Gによって受信された第2音声及び静止画像のメモリ23Gへの記録を開始してもよい。また、制御部22Gは、第2音声及び静止画像の記録中に静止画像を受信しなくなったことをトリガーとして、通信部21Gによって受信された第2音声及び静止画像のメモリ23Gへの記録を終了してもよい。
メモリ23Gは、作業端末1からの動画像及び第1音声だけを非一時的に記録するのではなく、作業端末1からの動画像及び第1音声と支援端末3からの第2音声とを非一時的に記録してもよい。すなわち、メモリ23は、通信部21によって受信された動画像、第1音声、及び第2音声を非一時的に記録してもよい。
また、メモリ23Gは、作業端末1Gからの動画像及び第1音声と支援端末3Gからの第2音声及び静止画像とを非一時的に記録してもよい。すなわち、メモリ23は、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像を非一時的に記録してもよい。
作業端末1Gは、通信部11G、制御部12G、メモリ13、入力部14、カメラ15、マイクロホン16、スピーカ17、及び表示部20を備える。以下の作業端末1Gの説明では、実施の形態1の作業端末1と異なる点について説明する。
通信部11Gは、動画像から支援者によって抽出された静止画像を周期的にサーバ2Gから受信する。
表示部20は、通信部11Gによって受信された静止画像を表示する。これにより、作業者は、動画像から支援者によって抽出された静止画像を見ながら、支援者から作業の支援を受けることができる。また、表示部20は、支援者により文字及び記号が重畳された静止画像を表示する。これにより、作業者は、文字及び記号が重畳された静止画像を見ながら、支援者からより詳細な作業の支援を受けることができる。なお、作業端末1Gは、入力部14と表示部20とが一体となったタッチパネルを備えてもよい。
なお、表示部20は、カメラ15によって撮影された動画像を表示してもよい。
続いて、本開示の実施の形態8における作業端末1G、サーバ2G、及び支援端末3Gそれぞれによる作業支援処理について説明する。
図24は、本開示の実施の形態8における作業端末1Gによる作業支援処理について説明するためのフローチャートである。
ステップS181~ステップS185の処理は、図2に示すステップS1~ステップS5の処理と同じであるので、説明を省略する。
次に、ステップS186において、制御部12Gは、通信部11Gによって静止画像が受信されたか否かを判定する。通信部11Gは、サーバ2Gによって送信された静止画像を受信する。
ここで、静止画像が受信されたと判定された場合(ステップS186でYES)、ステップS187において、表示部20は、通信部11Gによって受信された静止画像を表示する。
一方、静止画像が受信されていないと判定された場合(ステップS186でNO)、ステップS188に処理が移行する。なお、静止画像の表示中に、静止画像が受信されていないと判定された場合、表示部20は、静止画像の表示を終了する。
ステップS188の処理は、図2に示すステップS6の処理と同じであるので、説明を省略する。
図25は、本開示の実施の形態8におけるサーバ2Gによる作業支援処理について説明するためのフローチャートである。
ステップS191~ステップS194の処理は、図3に示すステップS11~ステップS14の処理と同じであるので、説明を省略する。
次に、ステップS195において、制御部22Gは、通信部21Gによって静止画像が受信されたか否かを判定する。通信部21Gは、支援端末3Gによって送信された静止画像を受信する。
ここで、静止画像が受信されたと判定された場合(ステップS195でYES)、ステップS196において、通信部21Gは、受信した静止画像を作業端末1Gへ送信する。
次に、ステップS197において、制御部22Gは、動画像、第1音声、第2音声、及び静止画像が記録中であるか否かを判定する。
ここで、動画像、第1音声、第2音声、及び静止画像が記録中ではないと判定された場合(ステップS197でNO)、ステップS198において、制御部22Gは、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像のメモリ23Gへの記録を開始する。その後、ステップS191に処理が戻る。
一方、動画像、第1音声、第2音声、及び静止画像が記録中であると判定された場合(ステップS197でYES)、ステップS191に処理が戻る。
また、静止画像が受信されていないと判定された場合(ステップS195でNO)、ステップS199において、制御部22Gは、動画像、第1音声、第2音声、及び静止画像が記録中であるか否かを判定する。
ここで、動画像、第1音声、第2音声、及び静止画像が記録中であると判定された場合(ステップS199でYES)、ステップS200において、制御部22Gは、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像のメモリ23Gへの記録を終了する。その後、ステップS191に処理が戻る。
一方、動画像、第1音声、第2音声、及び静止画像が記録中ではないと判定された場合(ステップS199でNO)、ステップS191に処理が戻る。
図26は、本開示の実施の形態8における支援端末3Gによる作業支援処理について説明するためのフローチャートである。
ステップS211~ステップS215の処理は、図4に示すステップS21~ステップS25の処理と同じであるので、説明を省略する。
次に、ステップS216において、制御部32Gは、入力部37Gのキャプチャ開始ボタンが押下されたか否かを判定する。
ここで、キャプチャ開始ボタンが押下されたと判定された場合(ステップS216でYES)、ステップS217において、制御部32Gは、通信部31Gによって受信された動画像から静止画像を抽出する。
次に、ステップS218において、表示部34Gは、制御部32Gによって抽出された静止画像を表示する。
次に、ステップS219において、入力部37Gは、表示部34Gに表示された静止画像に対する支援者による文字及び記号などの指示情報の入力を受け付ける。
次に、ステップS220において、通信部31Gは、動画像から抽出された静止画像をサーバ2Gへ送信する。その後、ステップS211に処理が戻る。なお、支援者により文字及び記号などの指示情報が入力された場合、通信部31Gは、指示情報が重畳された静止画像をサーバ2Gへ送信する。また、通信部31Gは、作業端末1Gを宛先として、静止画像をサーバ2Gへ送信する。これにより、静止画像は、サーバ2Gを介して作業端末1Gへ送信される。
一方、キャプチャ開始ボタンが押下されていないと判定された場合(ステップS216でNO)、ステップS221において、制御部32Gは、表示部34Gに静止画像が表示中であるか否かを判定する。
ここで、静止画像が表示中ではないと判定された場合(ステップS221でNO)、ステップS211に処理が戻る。
一方、静止画像が表示中であると判定された場合(ステップS221でYES)、ステップS222において、制御部32Gは、入力部37Gのキャプチャ終了ボタンが押下されたか否かを判定する。
ここで、キャプチャ終了ボタンが押下されていないと判定された場合(ステップS222でNO)、ステップS218に処理が移行する。
一方、キャプチャ終了ボタンが押下されたと判定された場合(ステップS222でYES)、ステップS223において、表示部34Gは、静止画像の表示を終了する。
次に、ステップS224において、通信部31Gは、静止画像のサーバ2Gへの送信を終了する。
このように、遠隔地にいる支援者が、支援端末3Gの表示部34Gによって表示された動画像から、作業を支援するために用いる静止画像を抽出すると、動画像及び第1音声のメモリ23Gへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が動画像から静止画像を抽出することによって、動画像及び第1音声をメモリ23Gに記録することができる。
図27は、本実施の形態8において、支援端末3Gの表示部34Gに表示される画面の一例を示す図である。
表示部34Gは、作業現場を撮影した動画像351と、キャプチャ開始ボタン352と、キャプチャ終了ボタン353とを表示する。支援者によるマウスの操作により、表示部34Gに表示されるポインタがキャプチャ開始ボタン352の上に移動され、支援者によりマウスのボタンがクリックされると、動画像351から静止画像354が抽出され、抽出された静止画像354が表示部34Gに表示される。そして、抽出された静止画像354がサーバ2Gへ送信される。これにより、サーバ2Gは、動画像、第1音声、第2音声、及び静止画像の記録を開始する。
また、静止画像354の表示中に、支援者によるマウスの操作により、表示部34Gに表示されるポインタがキャプチャ終了ボタン353の上に移動され、支援者によりマウスのボタンがクリックされると、静止画像354の表示が終了するとともに、静止画像354の送信が終了する。これにより、サーバ2Gは、動画像、第1音声、第2音声、及び静止画像の記録を終了する。なお、静止画像354の表示が終了すると、動画像351が表示される。
また、入力部37Gは、表示部34Gに表示された静止画像354に対する支援者による文字355及び記号356などの指示情報の入力を受け付ける。支援者は、マウス又はキーボードを用いて、表示部34Gに表示されている静止画像354に文字355及び記号356を書き込む。図27では、「回す」という文字355と、矢印を表す記号356とが書き込まれている。指示情報が入力されると、通信部31Gは、指示情報が重畳された静止画像354をサーバ2Gへ送信する。
なお、図27の例では、キャプチャ開始ボタン352が押下された場合、表示部34Gは、静止画像354のみを表示しているが、本開示は特にこれに限定されない。表示部34Gは、静止画像354に動画像351を重畳して表示してもよい。例えば、表示部34Gは、静止画像354を全画面に表示し、動画像351を画面の右下部分に小さく表示してもよい。
図28は、本実施の形態8において、作業端末1Gの表示部20に表示される画面の一例を示す図である。
表示部20は、作業現場を撮影している動画像201と、支援端末3Gによって送信された静止画像202とを表示する。動画像201は、カメラ15によってリアルタイムに撮影されている動画像である。表示部20は、動画像201を全画面に表示し、静止画像202を画面の右下部分に小さく表示する。静止画像202に対して指示情報が入力された場合、指示情報が重畳された静止画像202が表示される。作業者は、表示部20に表示された静止画像202を見ながら、作業を行うことにより、支援者による支援を受けることができる。
なお、作業端末1Gの制御部12Gは、カメラ15で撮影された動画像201内に静止画像202が含まれるか否かを判定してもよい。そして、動画像201内に静止画像202が含まれると判定された場合、表示部20は、動画像201内における静止画像202と一致する領域203を強調表示してもよい。図28では、静止画像202と一致する領域203が、所定の色の線で囲まれている。所定の色は、例えば赤色である。
なお、図28では、表示部20は、動画像201と静止画像202とを表示しているが、本開示は特にこれに限定されず、表示部20は、静止画像202のみを表示してもよい。
また、本実施の形態8では、制御部22Gは、動画像から抽出された静止画像を支援端末3Gから受信したことをトリガーとして、動画像及び第1音声のメモリ23Gへの記録を開始するが、本開示は特にこれに限定されない。制御部22Gは、静止画像に指示情報が重畳されたことをトリガーとして、動画像及び第1音声のメモリへの記録を開始してもよい。この場合、制御部22Gは、静止画像が受信されただけでは記録を開始せず、静止画像に指示情報が重畳された場合に記録を開始する。すなわち、制御部22Gは、静止画像が受信された後、静止画像に指示情報が重畳されたか否かを判定してもよい。静止画像に指示情報が重畳されたと判定された場合、制御部22Gは、動画像及び第1音声のメモリへの記録を開始してもよい。
具体的には、図25のステップS197において、動画像、第1音声、第2音声、及び静止画像が記録中ではないと判定された場合(ステップS197でNO)、制御部22Gは、静止画像に指示情報が重畳されたか否かを判定する。ここで、静止画像に指示情報が重畳されていないと判定された場合、ステップS191に処理が戻る。一方、静止画像に指示情報が重畳されたと判定された場合、ステップS198において、制御部22Gは、通信部21Gによって受信された動画像、第1音声、第2音声、及び静止画像のメモリ23Gへの記録を開始する。
このように、遠隔地にいる支援者が、支援端末3Gの表示部34Gによって表示された動画像から、作業を支援するために用いる静止画像を抽出し、静止画像に指示情報を重畳すると、動画像及び第1音声のメモリ23Gへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、遠隔地にいる支援者が動画像から静止画像を抽出し、静止画像に指示情報を重畳することによって、動画像及び第1音声をメモリ23Gに記録することができる。
また、本実施の形態8において、支援端末3Gは、動画像から抽出された静止画像を送信するのではなく、CAD(Computer Aided Design)で作成された作業対象の図面データ、作業対象の操作方法を示す操作マニュアルデータ、又は表示部34Gに表示されている画面全体の画像をサーバ2Gを介して作業端末1Gへ送信してもよい。制御部22Gは、作業対象の図面データ、作業対象の操作マニュアルデータ、又は支援端末3Gの表示部34Gに表示されている画面全体の画像を支援端末3Gから受信したことをトリガーとして、動画像及び第1音声のメモリ23Gへの記録を開始してもよい。作業端末1Gは、作業対象の図面データ、作業対象の操作マニュアルデータ、又は支援端末3Gの表示部34Gに表示されている画面全体の画像を表示してもよい。
(実施の形態9)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態9では、作業端末から受信したモード情報が支援者が作業端末を用いる第2モードを示すとともに、予め記憶されている所定のキーワードが、作業現場にいる支援者の声を含む第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態9では、作業端末から受信したモード情報が支援者が作業端末を用いる第2モードを示すとともに、予め記憶されている所定のキーワードが、作業現場にいる支援者の声を含む第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図29は、本実施の形態9に係る作業支援システム10Jの構成を示す図である。
図29に示す作業支援システム10Jは、作業端末1J及びサーバ2Jを備える。なお、本実施の形態9において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。
実施の形態9において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者も作業現場にいる。作業現場において、支援者は、作業端末1Jを用いて、作業を支援しながら、作業対象を撮影する。実施の形態9では、作業者が作業端末1Jを用いる場合と、支援者が作業端末1Jを用いる場合とがある。
作業端末1Jは、通信部11J、制御部12、メモリ13、入力部14J、カメラ15、及びマイクロホン16を備える。以下の作業端末1Jの説明では、実施の形態1の作業端末1と異なる点について説明する。
入力部14Jは、作業者が作業端末1Jを用いる第1モードと、支援者が作業端末1Jを用いる第2モードとを切り替えるスイッチを含む。作業端末1Jを用いる作業者は、第1モードにスイッチを切り替え、作業端末1Jを用いる支援者は、第2モードにスイッチを切り替える。
通信部11Jは、カメラ15によって取得された動画像、マイクロホン16によって取得された第1音声、及び入力部14Jによって受け付けた第1モード及び第2モードのいずれかが選択されたかを示すモード情報をサーバ2Jへ送信する。
サーバ2Jは、通信部21J、制御部22J、及びメモリ23Jを備える。サーバ2Jは、情報処理装置の一例である。以下のサーバ2Jの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Jは、動画像、第1音声、及びモード情報を作業端末1Jから受信する。
メモリ23Jは、所定の開始キーワードを予め記憶するとともに、所定の終了キーワードを予め記憶する。所定の開始キーワードは、例えば、「そこ」又は「あそこ」などの指示代名詞、作業対象の名称、又は作業対象の部品の名称である。また、所定の終了キーワードは、例えば、「記録終了」などの記録を終了するための文言である。なお、所定の開始キーワード及び所定の終了キーワードは、支援者によって入力されてもよい。また、メモリ23Jは、1つの開始キーワードを記憶してもよいし、複数の開始キーワードを記憶してもよい。また、メモリ23Jは、1つの終了キーワードを記憶してもよいし、複数の終了キーワードを記憶してもよい。
制御部22Jは、通信部21Jによって受信されたモード情報が第2モードを示すとともに、メモリ23Jに予め記憶されている所定の開始キーワードが第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Jへの記録を開始する。また、制御部22Jは、通信部21Jによって受信されたモード情報が第2モードを示すとともに、メモリ23Jに予め記憶されている所定の終了キーワードが第1音声に含まれることをトリガーとして、動画像及び第1音声のメモリ23Jへの記録を終了する。
より具体的には、制御部22Jは、通信部21Jによって受信されたモード情報が第1モード及び第2モードのいずれを示すかを判定する。モード情報が第2モードを示すと判定した場合、制御部22Jは、通信部21Jによって受信された第1音声に対して音声認識を行い、第1音声をテキスト化する。そして、制御部22Jは、メモリ23Jに予め記憶されている所定の開始キーワードが、テキスト化した第1音声に含まれているか否かを判定する。所定の開始キーワードが第1音声に含まれていると判定された場合、制御部22Jは、動画像及び第1音声のメモリ23Jへの記録を開始する。
例えば、作業端末1Jを装着した支援者は、作業現場において作業を支援する際に、作業者と会話する。制御部22Jは、所定の開始キーワードが、作業現場で収集された第1音声に含まれている場合、支援者が作業の支援を開始したと判定し、動画像及び第1音声のメモリ23Jへの記録を開始する。
また、所定の開始キーワードが第1音声に含まれていないと判定された場合、制御部22Jは、メモリ23Jに予め記憶されている所定の終了キーワードが、テキスト化した第1音声に含まれているか否かを判定する。所定の終了キーワードが第1音声に含まれていると判定された場合、制御部22Jは、動画像及び第1音声のメモリ23Jへの記録を終了する。
続いて、本開示の実施の形態9における作業端末1J及びサーバ2Jそれぞれによる作業支援処理について説明する。
図30は、本開示の実施の形態9における作業端末1Jによる作業支援処理について説明するためのフローチャートである。
まず、ステップS251において、入力部14Jは、作業者が作業端末1Jを用いる第1モードと、支援者が作業端末1Jを用いる第2モードとのいずれかの支援者又は作業者による選択を受け付ける。作業端末1Jを用いる作業者は、第1モードに入力部14Jのスイッチを切り替え、作業端末1Jを用いる支援者は、第2モードに入力部14Jのスイッチを切り替える。
ステップS252~ステップS253の処理は、図2に示すステップS1~ステップS2の処理と同じであるので、説明を省略する。
次に、ステップS254において、通信部11Jは、カメラ15によって取得された動画像、マイクロホン16によって取得された第1音声、及び入力部14Jによって受け付けた第1モード及び第2モードのいずれかを示すモード情報をサーバ2Jへ送信する。このとき、入力部14Jは、動画像、第1音声、及びモード情報の送信を開始するための支援者又は作業者による入力操作を受け付ける。
次に、ステップS255において、制御部12は、動画像、第1音声、及びモード情報の送信を終了するか否かを判定する。このとき、入力部14Jは、動画像、第1音声、及びモード情報の送信を終了するための支援者又は作業者による入力操作を受け付ける。動画像、第1音声、及びモード情報の送信を終了するための入力操作が受け付けられた場合、制御部12は、動画像、第1音声、及びモード情報の送信を終了すると判定する。また、動画像、第1音声、及びモード情報の送信を終了するための入力操作が受け付けられない場合、制御部12は、動画像、第1音声、及びモード情報の送信を終了しないと判定する。
ここで、動画像、第1音声、及びモード情報の送信を終了すると判定された場合(ステップS255でYES)、作業支援処理が終了する。このとき、通信部11Jは、動画像、第1音声、及びモード情報の送信を終了する。
一方、動画像、第1音声、及びモード情報の送信を終了しないと判定された場合(ステップS255でNO)、ステップS252に処理が戻る。
図31は、本開示の実施の形態9におけるサーバ2Jによる作業支援処理について説明するためのフローチャートである。
まず、ステップS261において、通信部21Jは、作業端末1Jによって送信された動画像、第1音声、及びモード情報を受信する。
次に、ステップS262において、制御部22Jは、通信部21Jによって受信されたモード情報が第2モードを示すか否かを判定する。
ここで、モード情報が第2モードを示さないと判定された場合、すなわち、モード情報が第1モードを示すと判定された場合(ステップS262でNO)、ステップS261に処理が戻る。
一方、モード情報が第2モードを示すと判定された場合(ステップS262でYES)、ステップS263において、制御部22Jは、通信部21Jによって受信された第1音声に対して音声認識を行い、第1音声をテキスト化する。
なお、ステップS264~ステップS268の処理は、図22に示すステップS173~ステップS177の処理と同じであるので、説明を省略する。
このように、作業現場において作業端末1Jを用いて作業を支援する支援者が、予め記憶されている所定のキーワードを発話すると、動画像及び第1音声のメモリ23Jへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場において作業端末1Jを用いて作業を支援する支援者が所定のキーワードを発話することによって、動画像及び第1音声をメモリ23Jに記録することができる。
なお、本実施の形態9では、制御部22Jは、所定の終了キーワードが第1音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Jは、支援者による記録終了ボタンの押下を受け付けてもよい。支援者により記録終了ボタンが押下された場合、作業端末1Jは、記録終了信号をサーバ2Jへ送信してもよい。サーバ2Jの通信部21Jは、作業端末1Jによって送信された記録終了信号を受信してもよい。制御部22Jは、作業端末1Jによって送信された記録終了信号が受信されたか否かを判定してもよい。記録終了信号が受信されたと判定された場合、制御部22Jは、動画像及び第1音声のメモリ23Jへの記録を終了してもよい。
また、本実施の形態9において、サーバ2Jが、モード情報が第2モードを示すか否かを判定するとともに、所定の開始キーワードが第1音声に含まれているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Jが、モード情報が第2モードを示すか否かを判定するとともに、所定の開始キーワードが第1音声に含まれているか否かを判定してもよい。そして、モード情報が第2モードを示すと判定されるとともに、所定の開始キーワードが第1音声に含まれていると判定された場合、作業端末1Jは、記録の開始を指示する記録開始信号をサーバ2Jへ送信してもよい。サーバ2Jは、作業端末1Jによって送信された記録開始信号を受信すると、動画像及び第1音声のメモリ23Jへの記録を開始してもよい。また、作業端末1Jが、モード情報が第2モードを示すか否かを判定するとともに、所定の終了キーワードが第1音声に含まれているか否かを判定してもよい。モード情報が第2モードを示すと判定されるとともに、所定の終了キーワードが第1音声に含まれていると判定された場合、作業端末1Jは、記録の終了を指示する記録終了信号をサーバ2Jへ送信してもよい。サーバ2Jは、作業端末1Jによって送信された記録終了信号を受信すると、動画像及び第1音声のメモリ23Jへの記録を終了してもよい。
(実施の形態10)
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態10では、作業端末から受信したモード情報が支援者が作業端末を用いる第2モードを示すとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
実施の形態1では、記録開始信号が受信されたことをトリガーとして、動画像及び第1音声のメモリ23への記録が開始されるが、実施の形態10では、作業端末から受信したモード情報が支援者が作業端末を用いる第2モードを示すとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていることをトリガーとして、動画像及び第1音声のメモリへの記録が開始される。
図32は、本実施の形態10に係る作業支援システム10Kの構成を示す図である。
図32に示す作業支援システム10Kは、作業端末1J及びサーバ2Kを備える。なお、本実施の形態10において、実施の形態1,9と同じ構成については同じ符号を付し、説明を省略する。
実施の形態10において、作業を行う作業者は作業現場におり、作業者の作業を支援する支援者も作業現場にいる。作業現場において、支援者は、作業端末1Jを用いて、作業を支援しながら、作業対象を撮影する。実施の形態10では、作業者が作業端末1Jを用いる場合と、支援者が作業端末1Jを用いる場合とがある。
サーバ2Kは、通信部21K、制御部22K、及びメモリ23Kを備える。サーバ2Kは、情報処理装置の一例である。以下のサーバ2Kの説明では、実施の形態1のサーバ2と異なる点について説明する。
通信部21Kは、動画像、第1音声、及びモード情報を作業端末1Jから受信する。
制御部22Kは、通信部21Kによって受信されたモード情報が第2モードを示すとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていることをトリガーとして、動画像及び第1音声のメモリ23Kへの記録を開始する。また、制御部22Kは、動画像及び第1音声のメモリ23Kへの記録が開始された後、通信部21Kによって受信されたモード情報が第2モードを示すとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていないことをトリガーとして、動画像及び第1音声のメモリ23Kへの記録を終了する。
より具体的には、制御部22Kは、通信部21Kによって受信されたモード情報が第1モード及び第2モードのいずれを示すかを判定する。モード情報が第2モードを示すと判定した場合、制御部22Kは、通信部21Kによって受信された動画像を解析し、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っているか否かを判定する。所定の領域は、動画像を構成する複数の静止画像それぞれの中心を含む領域である。動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていると判定された場合、制御部22Kは、動画像及び第1音声のメモリ23Kへの記録を開始する。
例えば、作業端末1Jを装着した支援者は、作業現場において作業を支援する際に、作業対象を凝視する。このとき、動画像内の所定の領域に同一の物体(作業対象)が所定の時間以上連続して写っている。制御部22Kは、支援者が作業現場で作業対象を凝視している場合、支援者が作業の支援を開始したと判定し、動画像及び第1音声のメモリ23Kへの記録を開始する。
また、動画像及び第1音声のメモリ23Kへの記録が開始された後、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていないと判定された場合、制御部22Kは、動画像及び第1音声のメモリ23Kへの記録を終了する。
続いて、本開示の実施の形態10におけるサーバ2Kによる作業支援処理について説明する。
図33は、本開示の実施の形態10におけるサーバ2Kによる作業支援処理について説明するためのフローチャートである。
ステップS271~ステップS272の処理は、図31に示すステップS261~ステップS262の処理と同じであるので、説明を省略する。
次に、ステップS273において、制御部22Kは、通信部21Kによって受信された動画像を解析する。制御部22Kは、動画像を構成する複数の静止画像それぞれの中心を含む所定の領域に写っている物体を認識する。
次に、ステップS274において、制御部22Kは、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っているか否かを判定する。
ここで、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていると判定された場合(ステップS274でYES)、ステップS275において、制御部22Kは、動画像及び第1音声のメモリ23Kへの記録を開始する。その後、ステップS271に処理が戻る。
一方、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていないと判定された場合(ステップS274でNO)、ステップS276において、制御部22Kは、動画像及び第1音声が記録中であるか否かを判定する。
ここで、動画像及び第1音声が記録中ではないと判定された場合(ステップS276でNO)、ステップS271に処理が戻る。
一方、動画像及び第1音声が記録中であると判定された場合(ステップS276でYES)、ステップS277において、制御部22Kは、動画像及び第1音声のメモリ23Kへの記録を終了する。その後、ステップS271に処理が戻る。
このように、作業現場において作業端末1Jを用いて作業を支援する支援者が、作業対象を凝視した場合、動画像内の所定の領域に同一の物体が所定の時間以上連続して写ることになる。そのため、支援者が作業現場において作業端末1Jを用いるとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていると、動画像及び第1音声のメモリ23Kへの記録が開始される。したがって、作業者は記録開始の操作を行う必要がなく、作業現場において作業端末1Jを用いて作業を支援する支援者が作業対象を凝視することによって、動画像及び第1音声をメモリ23Kに記録することができる。
なお、本実施の形態10において、サーバ2Kが、モード情報が第2モードを示すか否かを判定するとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っているか否かを判定しているが、本開示は特にこれに限定されない。作業端末1Jが、モード情報が第2モードを示すか否かを判定するとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っているか否かを判定してもよい。そして、モード情報が第2モードを示すと判定されるとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていると判定された場合、作業端末1Jは、記録の開始を指示する記録開始信号をサーバ2Kへ送信してもよい。サーバ2Kは、作業端末1Jによって送信された記録開始信号を受信すると、動画像及び第1音声のメモリ23Kへの記録を開始してもよい。その後、モード情報が第2モードを示すと判定されるとともに、動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていないと判定された場合、作業端末1Jは、記録の終了を指示する記録終了信号をサーバ2Kへ送信してもよい。サーバ2Kは、作業端末1Jによって送信された記録終了信号を受信すると、動画像及び第1音声のメモリ23Kへの記録を終了してもよい。
実施の形態1~10において、支援端末又は作業端末は、サーバに記録された動画像及び第1音声の内容に関する情報の支援者又は作業者による入力を受け付けてもよい。
図34は、実施の形態1~10において、支援端末の表示部34に表示される画面の一例を示す図である。
表示部34は、サーバに記録された動画像及び第1音声を再生するとともに、動画像及び第1音声の内容に関する情報の支援者による入力を受け付けるための表示画面360を表示する。
表示画面360は、ファイルを検索するための検索条件入力欄361、ファイルの選択を受け付けるためのファイル選択欄362、選択されたファイルを再生するための再生欄363、及びファイルの内容に関する情報の入力を受け付けるための情報入力欄364を含む。
動画像及び第1音声は、1つのファイルとして記録される。サーバのメモリは、作業日時、ユーザ名、設備ID、通話メモ、イベントメモ、及びファイル名を、ファイルに対応付けて記録する。
作業日時は、動画像及び第1音声が記録された日時を示す。ユーザ名は、支援者又は作業者の名前を示す。設備IDは、作業が行われた設備を識別するための識別情報を示す。通話メモ及びイベントメモは、ファイルの内容に関する情報を示す。ファイル名は、ファイルの名称を示す。
支援者は、作業日時、ユーザ名、設備ID、通話メモ、イベントメモ、及びファイル名の少なくとも1つを検索条件入力欄361に入力する。これにより、検索条件入力欄361に入力された条件に一致するファイルに関する情報がファイル選択欄362に表示される。また、検索条件入力欄361に条件が入力されない場合、記録されている複数のファイルに関する情報がファイル選択欄362に表示される。ファイル選択欄362には、作業日時、ユーザ名、設備ID、通話メモ、イベントメモ、ファイル名、再生ボタン、ダウンロードボタン、及び削除ボタンが表示される。
再生ボタンが押下されると、対応するファイルが再生欄363に再生される。ダウンロードボタンが押下されると、対応するファイルがサーバから支援端末へダウンロードされる。また、削除ボタンが押下されると、対応するファイルがサーバのメモリから削除される。情報入力欄364は、再生欄363に再生されるファイルの通話メモ及びイベントメモの入力を受け付ける。
図34では、支援端末が表示画面360を表示し、支援者による情報の入力を受け付けているが、本開示は特にこれに限定されない。作業端末が表示画面360を表示し、作業者による情報の入力を受け付けてもよく、支援端末及び作業端末以外の端末が表示画面360を表示し、支援者又は作業者による情報の入力を受け付けてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。また、プログラムを記録媒体に記録して移送することにより、又はプログラムをネットワークを経由して移送することにより、独立した他のコンピュータシステムによりプログラムが実施されてもよい。
本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
本開示に係る技術は、メモリに記録するデータ量を削減することができるとともに、作業者の負担を軽減することができるので、作業現場において撮影された動画像及び作業現場において収集された音声をサーバに記録する技術として有用である。
Claims (16)
- コンピュータにより実行される情報処理方法であって、
作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信することと、
前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始することと、
を含む情報処理方法。 - さらに、遠隔地にいる前記支援者による入力操作に基づき前記記録の開始を指示する記録開始信号を、前記支援者が用いる支援端末から受信することを含み、
前記記録の開始は、前記記録開始信号を受信したことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、前記作業端末の現在の位置を示す位置情報を前記作業端末から受信することを含み、
前記記録の開始は、前記位置情報で示される前記作業端末の前記位置が、前記作業現場における所定の領域内に入ったことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、遠隔地にいる前記支援者によって指定された前記作業現場における所定の領域を示す領域指定情報を、前記支援者が用いる支援端末から受信することを含み、
前記記録の開始は、前記位置情報で示される前記作業端末の前記位置が、前記領域指定情報で示される前記所定の領域内に入ったことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項3記載の情報処理方法。 - さらに、遠隔地にいる前記支援者によって指定された前記作業現場における作業対象から発信される無線信号に含まれる識別情報を、前記支援者が用いる支援端末から受信することと、
さらに、前記作業端末によって受信された前記無線信号に含まれる前記識別情報及び前記作業端末によって測定された前記無線信号の電波強度を含む信号情報を前記作業端末から受信することと、
を含み、
前記記録の開始は、前記支援端末から受信した前記識別情報を含む、前記作業端末から受信した前記無線信号の前記電波強度が閾値以上であることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、遠隔地にいる前記支援者が用いる支援端末の周囲の第2音声を前記支援端末から受信することを含み、
前記記録の開始は、予め記憶されている所定のキーワードが前記第2音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - 前記記録の開始は、前記第2音声における前記支援者が発話した発話区間を検出し、検出した前記発話区間内において予め記憶されている前記所定のキーワードが前記第2音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項6記載の情報処理方法。 - 前記記録の開始は、受信された前記動画像から、前記作業現場にいる前記支援者の動作を認識し、認識した前記動作が、予め決められている所定の動作であることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - 前記記録の開始は、予め記憶されている所定のキーワードが、前記作業現場にいる前記支援者の声を含む前記第1音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、受信した前記動画像及び前記第1音声を、遠隔地にいる前記支援者が用いる支援端末に送信することと、
さらに、前記支援端末の表示部によって表示された前記動画像から、前記支援者によって抽出された静止画像を、前記支援端末から受信することと、
を含み、
前記記録の開始は、前記静止画像を受信したことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、前記支援端末の周囲の第2音声を、前記支援端末から受信することを含み、
前記記録の開始は、前記静止画像を受信したことをトリガーとして、前記動画像、前記第1音声、前記第2音声、及び前記静止画像の前記メモリへの記録を開始することを含む、
請求項10記載の情報処理方法。 - さらに、受信した前記動画像及び前記第1音声を、遠隔地にいる前記支援者が用いる支援端末に送信することと、
さらに、前記支援端末の表示部によって表示された前記動画像から、前記支援者によって抽出された静止画像を、前記支援端末から受信することと、
を含み、
前記静止画像の受信は、前記支援端末を用いて前記支援者により入力された指示情報が重畳された前記静止画像を、前記支援端末から受信することを含み、
前記記録の開始は、前記静止画像に前記指示情報が重畳されたことをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、前記作業者が前記作業端末を用いる第1モードと、前記支援者が前記作業端末を用いる第2モードとのいずれが選択されたかを示すモード情報を前記作業端末から受信することを含み、
前記記録の開始は、受信した前記モード情報が前記第2モードを示すとともに、予め記憶されている所定のキーワードが前記第1音声に含まれることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - さらに、前記作業者が前記作業端末を用いる第1モードと、前記支援者が前記作業端末を用いる第2モードとのいずれが選択されたかを示すモード情報を前記作業端末から受信することを含み、
前記記録の開始は、受信した前記モード情報が前記第2モードを示すとともに、前記動画像内の所定の領域に同一の物体が所定の時間以上連続して写っていることをトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始することを含む、
請求項1記載の情報処理方法。 - 通信部と、
制御部と、
メモリと、
を備え、
前記通信部は、作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信し、
前記制御部は、前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声の前記メモリへの記録を開始する、
情報処理装置。 - 作業現場において撮影された動画像及び前記作業現場において収集された第1音声を、前記作業現場にいる作業者が用いる作業端末から受信し、
前記作業者が行う作業を支援する支援者による記録開始の操作をトリガーとして、前記動画像及び前記第1音声のメモリへの記録を開始するようにコンピュータを機能させる、
情報処理プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202363452574P | 2023-03-16 | 2023-03-16 | |
US63/452,574 | 2023-03-16 | ||
JP2024-012182 | 2024-01-30 | ||
JP2024012182 | 2024-01-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024190673A1 true WO2024190673A1 (ja) | 2024-09-19 |
Family
ID=92755793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2024/009065 WO2024190673A1 (ja) | 2023-03-16 | 2024-03-08 | 情報処理方法、情報処理装置、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024190673A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125151A (ja) * | 2018-01-16 | 2019-07-25 | 株式会社東芝 | 安全管理システム |
JP2020166493A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社東芝 | 管理装置、管理システム及びプログラム |
JP2021083079A (ja) * | 2019-11-20 | 2021-05-27 | ダイキン工業株式会社 | 遠隔作業支援システム |
JP2022021009A (ja) * | 2020-07-21 | 2022-02-02 | 株式会社東芝 | 現場映像管理システムおよび現場映像管理方法 |
WO2022059117A1 (ja) * | 2020-09-17 | 2022-03-24 | 株式会社日立国際電気 | 映像処理装置、撮像装置、及び、映像処理方法 |
-
2024
- 2024-03-08 WO PCT/JP2024/009065 patent/WO2024190673A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125151A (ja) * | 2018-01-16 | 2019-07-25 | 株式会社東芝 | 安全管理システム |
JP2020166493A (ja) * | 2019-03-29 | 2020-10-08 | 株式会社東芝 | 管理装置、管理システム及びプログラム |
JP2021083079A (ja) * | 2019-11-20 | 2021-05-27 | ダイキン工業株式会社 | 遠隔作業支援システム |
JP2022021009A (ja) * | 2020-07-21 | 2022-02-02 | 株式会社東芝 | 現場映像管理システムおよび現場映像管理方法 |
WO2022059117A1 (ja) * | 2020-09-17 | 2022-03-24 | 株式会社日立国際電気 | 映像処理装置、撮像装置、及び、映像処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019233212A1 (zh) | 文本识别方法、装置、移动终端以及存储介质 | |
US10397471B2 (en) | Image processing apparatus, location information adding method | |
AU2020309090A1 (en) | Image processing methods and apparatuses, electronic devices, and storage media | |
EP3236469B1 (en) | Object monitoring method and device | |
CN104112129A (zh) | 图像识别方法及装置 | |
JP6439806B2 (ja) | ロボット装置及びプログラム | |
WO2022057435A1 (zh) | 基于搜索的问答方法及存储介质 | |
US20210201478A1 (en) | Image processing methods, electronic devices, and storage media | |
CN112236767A (zh) | 用于通过输入单元向应用提供与图像相关的信息的电子装置和方法 | |
US11531702B2 (en) | Electronic device for generating video comprising character and method thereof | |
CN110109608A (zh) | 文本显示方法、装置、终端及存储介质 | |
US20200365149A1 (en) | Imaging control method and apparatus, control device, and imaging device | |
CN108510267B (zh) | 一种账户信息获取方法、移动终端 | |
WO2018154902A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11978252B2 (en) | Communication system, display apparatus, and display control method | |
WO2024190673A1 (ja) | 情報処理方法、情報処理装置、及び情報処理プログラム | |
JPWO2017026154A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10593077B2 (en) | Associating digital ink markups with annotated content | |
CN108280184B (zh) | 一种基于智能笔的试题摘录方法、系统及智能笔 | |
JP2018132906A (ja) | 情報処理サーバ、クライアントおよび情報処理システム | |
JP2021043860A (ja) | 調査支援端末および管理装置 | |
JP2017211430A (ja) | 情報処理装置および情報処理方法 | |
KR20150026382A (ko) | 전자 장치 및 전자 장치에서 연락처 관리 방법 | |
CN115086759A (zh) | 视频处理方法、装置、计算机设备及介质 | |
WO2016161640A1 (zh) | 一种接入Wi-Fi网络的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24770779 Country of ref document: EP Kind code of ref document: A1 |