[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2021245886A1 - 建物の交通管理システム - Google Patents

建物の交通管理システム Download PDF

Info

Publication number
WO2021245886A1
WO2021245886A1 PCT/JP2020/022138 JP2020022138W WO2021245886A1 WO 2021245886 A1 WO2021245886 A1 WO 2021245886A1 JP 2020022138 W JP2020022138 W JP 2020022138W WO 2021245886 A1 WO2021245886 A1 WO 2021245886A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
building
management system
unit
Prior art date
Application number
PCT/JP2020/022138
Other languages
English (en)
French (fr)
Inventor
剛 山崎
英治 湯浅
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/022138 priority Critical patent/WO2021245886A1/ja
Priority to JP2022529256A priority patent/JP7294538B2/ja
Priority to CN202080101375.0A priority patent/CN115698632A/zh
Publication of WO2021245886A1 publication Critical patent/WO2021245886A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Definitions

  • This disclosure relates to the traffic management system of buildings.
  • Patent Document 1 discloses an example of a guidance guidance system.
  • the guidance guidance system guides the user based on the congestion status of the elevator landing.
  • Patent Document 1 guides the user by the display of the guidance guidance display unit provided near the entrance / exit of the building. Therefore, the guidance guidance system cannot guide the user moving inside the building.
  • the present disclosure provides a traffic management system for a building that can guide users moving inside the building.
  • the building traffic management system includes a congestion information acquisition unit that acquires congestion information by one or more users in a building having a plurality of floors for each of the plurality of floors, and one or more users.
  • the position information acquisition unit that acquires the position information in the building of the first user who carries the portable device, the position information of the first user acquired by the position information acquisition unit, the purpose information of the first user, and a plurality of them.
  • the route information generation unit and the route information generation unit Based on the congestion information acquired by the congestion information acquisition unit for the floor on which the first user is located, the route information generation unit and the route information generation unit generate route information to guide the first user.
  • the mobile device includes a guidance information generation unit that generates guidance information for guiding the first user according to the route information.
  • the building traffic management system contains mobile devices carried by the first user among one or more users of a building having multiple floors, and congestion information by one or more users in the building.
  • the congestion information acquisition unit acquired for each of a plurality of floors, the position information acquisition unit for acquiring the position information in the building of the first user, the position information of the first user acquired by the position information acquisition unit, the first Route information that generates route information that guides the first user based on the purpose information of one user and the congestion information acquired by the congestion information acquisition unit for the floor where the first user is located among multiple floors. It includes a generation unit and a guidance information generation unit that generates guidance information in which the mobile device guides the first user according to the route information generated by the route information generation unit.
  • the building traffic management system can guide users to move inside the building.
  • FIG. It is a block diagram of the traffic management system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the function of the mobile device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the related information stored in the related information storage part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the route information generated by the route information generation part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the image taken by the visual field camera which concerns on Embodiment 1.
  • FIG. 1 It is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 1.
  • FIG. 2 is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 1.
  • FIG. 2 is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the example of the operation of the traffic management system which concerns on Embodiment 1.
  • It is a hardware block diagram of the main part of the traffic management system which concerns on Embodiment 1.
  • FIG. is a block diagram of the traffic management system which concerns on Embodiment 2.
  • FIG. 1 It is a hardware block diagram of the main part of the traffic management system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the virtual design generated by the virtual design generation part which concerns on Embodiment 2.
  • FIG. It is a block diagram of the traffic management system which concerns on Embodiment 3. It is a figure which shows the example of the viewpoint information which the information storage part which concerns on Embodiment 3 accumulates. It is a block diagram of the traffic management system which concerns on Embodiment 4. It is a top view of the landing which concerns on Embodiment 4.
  • FIG. It is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 4.
  • FIG. It is a block diagram of the traffic management system which concerns on Embodiment 5. It is a figure which shows the user who gets in the car which concerns on Embodiment 5. It is a figure which shows the example of the guidance information generated by the guidance information generation part which concerns on Embodiment 5.
  • FIG. 1 is a configuration diagram of the traffic management system 1 according to the first embodiment.
  • the traffic management system 1 is applied to, for example, a building 2 having a plurality of floors.
  • building 2 is an office building.
  • the floor-to-floor moving means is a device or equipment used by the user of the building 2 to move between a plurality of floors.
  • the floor-to-floor transportation means includes, for example, a staircase 3, an escalator 4, an elevator 5, and the like.
  • the stairs 3 are provided between two adjacent floors.
  • the escalator 4 is a device for transporting a user who rides on a step of circulating movement or the like between two floors.
  • the hoistway 6 of the elevator 5 is provided.
  • the hoistway 6 is a vertically long space spanning a plurality of floors.
  • a landing 7 for the elevator 5 is provided on each floor of the building 2.
  • a landing device is provided at the landing 7.
  • the landing equipment is the equipment of the elevator 5 provided in the landing 7.
  • the landing equipment includes a landing operation panel 8, a landing display panel 9, a landing door 10, and a three-sided frame 11.
  • the landing operation panel 8 is a device that accepts operations such as registration of a user's landing call at the landing 7.
  • the landing display board 9 is a device that displays the status of the elevator 5.
  • the landing door 10 is provided at an opening leading from the landing 7 to the hoistway 6.
  • the landing door 10 is a door that separates the landing 7 and the hoistway 6.
  • the three-sided frame 11 is a frame that surrounds the opening leading from the landing 7 to the hoistway 6 from three sides above and to the left and right.
  • the coded image 12 is attached to the wall surface of the landing 7.
  • the coded image 12 is, for example, an image in which information for specifying the landing 7 and the floor of the elevator 5 is encoded.
  • the coded image 12 is, for example, a two-dimensional code symbol based on the ISO / IEC 18004 standard.
  • Elevator 5 is equipped with a basket 13.
  • the car 13 is a device for transporting a user between a plurality of floors by traveling vertically along the hoistway 6.
  • the car 13 travels on the hoistway 6 by, for example, a driving force generated by a hoist (not shown).
  • the car 13 includes a car door 14.
  • the car door 14 is a device that opens and closes the landing door 10 of the landing 7 in conjunction with the landing door 10 so that the user can get on and off when the car 13 is stopped on any floor.
  • the car 13 includes a car device.
  • the car device is a device provided inside the car 13.
  • the car equipment includes a car operation panel 15 and a car display panel 16.
  • the car operation panel 15 is a device that accepts operations such as registration of a user's car call inside the car 13.
  • the car display panel 16 is a device that displays the status of the elevator 5.
  • the status of the elevator 5 includes information such as the position of the car 13.
  • the traffic management system 1 is equipped with an elevator management board 17.
  • the elevator management board 17 includes an operation management unit 18 and a first communication unit 19.
  • the operation management unit 18 is a part that manages the operation of the elevator 5.
  • the management of the operation of the elevator 5 by the operation management unit 18 includes, for example, registration of a call and running of a car 13 in response to the registered call.
  • the first communication unit 19 is a part that communicates with an external device of the elevator management board 17.
  • the first communication unit 19 is connected to the elevator 5 so that, for example, a control signal from the operation management unit 18 can be output.
  • Building 2 is used by one or more users. At least one of the users carries the mobile device 20.
  • the user carrying the mobile device 20 is an example of the first user.
  • the mobile device 20 is, for example, a portable device that displays an image to a mobile user. In this example, the mobile device 20 is eyewear worn at the position of the user's eyes.
  • the portable device 20 includes a second communication unit 21, a display unit 22, a reading unit 23, a line-of-sight detection unit 24, a voice recognition unit 25, a field-of-view camera 26, and an image recognition unit 27.
  • the second communication unit 21 is a part that communicates with an external device of the mobile device 20.
  • the second communication unit 21 is equipped with a wireless communication function.
  • the second communication unit 21 is connected to a communication network such as a telephone line network or the Internet.
  • the second communication unit 21 may be equipped with a short-range wireless communication function such as RFID (Radio Frequency Identifier).
  • the second communication unit 21 may be equipped with a wireless communication function based on, for example, the IEEE 802.11 standard or the IEEE 802.11 standard.
  • the display unit 22 is a part that displays an image to a mobile user.
  • the image may include text.
  • the image may be either a still image or a moving image.
  • the reading unit 23 is a part that reads the user's authentication information.
  • Authentication information is information used for user authentication.
  • the authentication information is, for example, user-specific information.
  • the authentication information may be, for example, the biometric information of the user.
  • the user's biological information may be, for example, the user's retinal information or iris information.
  • the line-of-sight detection unit 24 is a part that detects the line of sight of a user carrying a mobile device 20.
  • the line-of-sight detection unit 24 detects the user's line of sight with, for example, a visible light camera, an infrared light source, an infrared camera, or the like.
  • the voice recognition unit 25 is a part that performs voice recognition of the voice of the user who carries the mobile device 20.
  • the voice recognition unit 25 has, for example, a microphone that collects the user's voice.
  • the field-of-view camera 26 is a camera that photographs the front of the user who wears the portable device 20 which is eyewear.
  • the field of view camera 26 is directed to the front of the user.
  • the field of view camera 26 captures, for example, the user's field of view.
  • the image recognition unit 27 is a part that recognizes an image taken by the field camera 26.
  • the traffic management system 1 includes a plurality of fixed cameras 28 and a building management board 29.
  • Each fixed camera 28 is a camera fixedly provided toward the internal area of the building 2.
  • Each fixed camera 28 captures a directed area inside the building 2.
  • one or more of the plurality of fixed cameras 28 are provided on each floor.
  • Each fixed camera 28 outputs the captured image to the building management board 29.
  • the building management board 29 includes a third communication unit 30, a congestion information acquisition unit 31, a location information acquisition unit 32, a route information generation unit 33, a guidance information generation unit 34, an authentication unit 35, and a related information storage unit. 36 and.
  • the third communication unit 30 is a part that communicates with an external device of the building management board 29.
  • the external equipment of the building management board 29 includes the elevator management board 17.
  • the third communication unit 30 communicates with the second communication unit 21 of the mobile device 20 through a communication network such as a telephone line network or the Internet.
  • the congestion information acquisition unit 31 is a part that acquires congestion information in the building 2 for each floor.
  • the congestion information is information indicating the state of congestion by one or more users of the building 2.
  • the congestion information includes information such as the congestion degree distribution in the building 2. Further, the congestion information may include information such as the utilization rate of the floor-to-floor transportation means in the building 2.
  • the degree of congestion is an index of congestion such as the density of users in the area of building 2. Further, when there is only one user in the building 2, the congestion information may be information indicating information that there is no other user.
  • the congestion information may include information such as the position or movement speed of each user.
  • the congestion information may include information on predicted values of future congestion situations. Here, the predicted value of the future congestion situation is predicted by the congestion information acquisition unit 31 or the like based on information such as the position and movement speed of each user.
  • the congestion information acquisition unit 31 acquires congestion information by, for example, image recognition of an image taken by each fixed camera 28.
  • the congestion information acquisition unit 31 detects, for example, a user passing through an area photographed by each fixed camera 28 by motion detection or the like.
  • the congestion information acquisition unit 31 acquires congestion information based on the detected density of users and the like.
  • the congestion information acquisition unit 31 acquires the utilization rate of the escalator 4 based on, for example, the load information of the escalator 4.
  • the congestion information acquisition unit 31 may acquire the utilization rate of the escalator 4 based on the image of the fixed camera 28 that captures the escalator 4.
  • the congestion information acquisition unit 31 acquires the utilization rate of the elevator 5 based on, for example, information on the operation status of the elevator 5 acquired from the operation management unit 18.
  • the congestion information acquisition unit 31 may acquire the utilization rate of the elevator 5 based on the image of the fixed camera 28 that captures the landing 7 of the elevator 5.
  • the location information acquisition unit 32 is a portion that acquires location information in the building 2 of the user carrying the mobile device 20.
  • the user's location information includes information on the floor on which the user is currently located.
  • the user's position information includes information on the position on the floor surface on the floor where the user is currently located.
  • the user's location information may include information on the orientation of the user.
  • the user's location information is detected, for example, by the mobile device 20 carried by the user.
  • the mobile device 20 detects the user's position information based on, for example, a satellite navigation system, an autonomous navigation system, an indoor positioning system applied to a building 2, or a combination of these systems.
  • the mobile device 20 detects the orientation of the user, for example, by recognizing an image of the inside of the building 2 taken by the visual field camera 26.
  • the mobile device 20 has a sensor such as a gyro sensor
  • the portable device 20 may detect the direction of the user based on the detection signal of the sensor or the like.
  • the user's position information detected by the mobile device 20 is transmitted by the second communication unit 21 to the third communication unit 30 of the position information acquisition unit 32.
  • the position information acquisition unit 32 acquires the position information transmitted from the mobile device 20.
  • the user's position information may be acquired by image recognition of an image taken by each fixed camera 28.
  • the position information acquisition unit 32 tracks, for example, a user who carries a mobile device 20 and passes through an area photographed by each fixed camera 28 by motion detection and tracking. At this time, the position information acquisition unit 32 may identify the user by, for example, face recognition or gait recognition based on a walking pattern.
  • the position information acquisition unit 32 acquires the position information of the user, for example, by tracking the user in the image taken by each fixed camera 28.
  • the route information generation unit 33 is a part that generates route information that guides the user.
  • the route information includes information on the route from the current position of the user to the destination of the user. When the user travels from the current floor to the destination of another floor, the route information includes information on the use of one of the floor-to-floor transportation means.
  • the route information generation unit 33 provides route information based on the user's location information, the user's purpose information, the congestion information about the floor on which the user is currently located, and the congestion information about the floor including the user's destination.
  • the user's purpose information is information representing the user's purpose.
  • the purpose information includes, for example, information on the user's destination.
  • the guidance information generation unit 34 is a part that generates guidance information in which the mobile device 20 guides the user according to the route information generated by the route information generation unit 33.
  • the guidance information is information that can be recognized by the user, such as images, characters, or voice.
  • the guidance information generation unit 34 generates an image to be displayed to the user by the display unit 22 of the mobile device 20 as guidance information.
  • the guidance information generated by the guidance information generation unit 34 is transmitted by the third communication unit 30 to the second communication unit 21 of the mobile device 20.
  • the authentication unit 35 is a part that authenticates a user carrying a mobile device 20 based on authentication information.
  • the authentication unit 35 authenticates, for example, by collating with pre-registered authenticateable authentication information.
  • the authentication information is transmitted to the third communication unit 30 by the second communication unit 21 of the mobile device 20.
  • the related information storage unit 36 is a part that stores related information related to the user who carries the mobile device 20.
  • the related information storage unit 36 stores the related information in association with the user's authentication information.
  • the related information storage unit 36 readablely stores the related information associated with the authentication information based on the user's authentication information.
  • FIG. 2 is a diagram showing an example of the function of the mobile device 20 according to the first embodiment.
  • FIG. 2 shows a schematic view of the mobile device 20 as viewed from the side of the user's head.
  • the portable device 20 is, for example, smart glasses or eyewear such as an HMD (Head Mounted Display).
  • HMD Head Mounted Display
  • the display for displaying an image is an example of the display unit 22.
  • the portable device 20 may be a retinal projection type laser eyewear that displays an image to the user by projecting an image by, for example, scanning the retina of the user wearing the device with a laser.
  • the optical system including the light source of the laser scanned by the user's retina is an example of the display unit 22.
  • the reading unit 23 is arranged, for example, in front of the eyes of the wearing user. At this time, the reading unit 23 reads the biological information from the front of the user's eyes. Alternatively, the reading unit 23 may read the user's biological information through a mirror (not shown) arranged in front of the user's eyes. In this example, the reading unit 23 reads the user's retinal information.
  • the line-of-sight detection unit 24 is arranged, for example, in front of the eyes of the wearing user. At this time, the line-of-sight detection unit 24 detects the user's line of sight based on the direction of the user's eyeball detected from the front of the user's eyes. Alternatively, the line-of-sight detection unit 24 may detect the user's line of sight through a mirror (not shown) arranged in front of the user's eyes.
  • the field of view camera 26 is arranged toward the front of the wearing user.
  • the field of view camera 26 is arranged, for example, between the eyes of the user.
  • the field-of-view camera 26 may be arranged outside both eyes of the user.
  • FIG. 3 is a diagram showing an example of related information stored in the related information storage unit 36 according to the first embodiment.
  • the related information storage unit 36 stores the related information as authentication information in association with the biometric information of the user.
  • Related information includes information on user attributes.
  • Information on user attributes includes, for example, information on the user's gender and age or age.
  • Related information includes the language used by the user.
  • the language used by the user is, for example, a language that the user can understand.
  • the related information includes information on the floor that can be used by the user among the plurality of floors.
  • Relevant information includes information on the function of the user's body.
  • the information on the function of the body includes, for example, the information on the motor function of the user or the information on the sensory function of the user.
  • the information on the function of the body includes, for example, information such as the presence or absence of a disability of the user.
  • Information on physical function includes information such as whether or not an auxiliary device is used.
  • the information on the function of the body may include information such as a temporary change in the function of the body due to an injury or the like.
  • the related information storage unit 36 may store information related to the user's thoughts and actions as related information.
  • the related information may include information such as a user's hobbies or preferences.
  • the relevant information may include user health information.
  • the health information includes, for example, information on the physical constitution of the user or information such as a history of the amount of activity of the user.
  • the related information may include the user's affiliation information.
  • the affiliation information includes, for example, information on the organization to which the user belongs, information on the project in which the user participates, and the like.
  • the related information may include information on the user's schedule.
  • the related information may include information on the place of work of the user.
  • the related information may include information such as an in-house newsletter of the organization to which the user belongs.
  • the related information storage unit 36 may acquire information related to the user in cooperation with an external system of the traffic management system 1.
  • the related information storage unit 36 has, for example, gender "male”, age “20 years old”, language “English”, available floor “1st floor, 2nd floor, 5th floor” as related information associated with the first biometric information. , And the 7th floor ”, and information including the physical function“ healthy person ”, etc. are memorized.
  • the related information storage unit 36 has, for example, gender "female”, age “30 years old”, language “Japanese”, available floors “2nd floor, 3rd floor, and” as related information associated with the second biometric information. Memorize information including “4th floor” and physical function "use of wheelchair”.
  • the related information storage unit 36 has, for example, gender "female”, age “40 years old”, language “Chinese”, available floors “5th and 9th floors” as related information associated with the third biometric information. , And information including physical function "low vision” and so on.
  • FIG. 4 is a diagram showing an example of route information generated by the route information generation unit 33 according to the first embodiment.
  • 5 and 7 to 9 are diagrams showing examples of guidance information generated by the guidance information generation unit 34 according to the first embodiment.
  • FIG. 6 is a diagram showing an example of an image taken by the visual field camera 26 according to the first embodiment.
  • FIG. 4 On the upper side of FIG. 4, an example of a plan view of the floor where the user is currently present is shown. Below FIG. 4, an example of a floor plan of the floor including the user's destination is shown.
  • the user moves inside the building 2 to the destination inside the area where the entrance / exit area is controlled.
  • the area is, for example, a room locked and controlled by an electric lock 37.
  • the congestion information acquisition unit 31 of the building management board 29 acquires congestion information for each floor based on information such as images taken by each fixed camera 28.
  • the user who carries the mobile device 20 is wearing the mobile device 20 which is eyewear.
  • the reading unit 23 reads the biometric information of the user wearing the mobile device 20.
  • the second communication unit 21 transmits the biometric information of the user to the building management board 29.
  • the authentication unit 35 of the building management board 29 authenticates the user carrying the mobile device 20.
  • the position information acquisition unit 32 acquires the user's position information.
  • the route information generation unit 33 and the guidance information generation unit 34 read the user-related information stored in the related information storage unit 36 based on the biological information. Reading related information that has already been read may be omitted.
  • the route information generation unit 33 acquires the purpose information of the user.
  • the purpose information is input by the user, for example, through the mobile device 20.
  • the input of the target information is performed, for example, through the voice recognition unit 25 of the mobile device 20.
  • the input of the target information may be performed, for example, through the line-of-sight detection unit 24 of the mobile device 20.
  • the input of the target information through the line-of-sight detection unit 24 is performed, for example, by continuously directing the line of sight to the area where the candidate of the target information is displayed by the display unit 22 for a time longer than a preset time.
  • the target information may be acquired based on the user's related information.
  • the destination, which is the purpose information is, for example, the work place of the user.
  • the destination as the purpose information may be, for example, the location of the conference room registered in the user's schedule.
  • the acquisition of the target information that has already been acquired may be omitted.
  • the already acquired target information may be updated by a new input of the target information or the like.
  • the route information generation unit 33 is used for the user's location information, the user's purpose information, the floor congestion information on which the user is currently located, the floor congestion information including the user's destination, and the user-related information. Generate route information based on.
  • the route information generation unit 33 sets the user's destination based on the purpose information. When the destination information includes the destination itself, the route information generation unit 33 sets the destination as the destination of the user. When the user's destination is on the floor on which the user is currently located, the route information generation unit 33 uses the user's location information, the user's purpose information, the congestion information on the floor on which the user is currently located, and the use. Generate route information based on the person's related information.
  • the route information generation unit 33 generates route information so as to avoid, for example, a place currently congested or a place where congestion is expected.
  • the route information generation unit 33 selects one of the floor-to-floor moving means and uses the floor-to-floor moving means. To generate.
  • the route information generation unit 33 may be selected to avoid, for example, the congested floor-to-floor moving means.
  • the route information generation unit 33 may generate route information using the escalator 4 or the stairs 3.
  • the route information generation unit 33 when the related information includes the physical function "wheelchair use” and the like, the route information generation unit 33 generates, for example, route information passing through a place with few steps. At this time, the route information generation unit 33 may generate route information using the elevator 5.
  • the route information generation unit 33 generates route information using the elevator 5.
  • FIG. 5 shows an example of guidance information displayed by the mobile device 20.
  • the guidance information generation unit 34 generates guidance information based on the route information generated by the route information generation unit 33.
  • the guidance information generation unit 34 generates, for example, an image that guides the user to the route of the route information.
  • the guidance information generation unit 34 uses the user's position information to generate an image of an arrow along the route of the route information.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20.
  • the display unit 22 of the mobile device 20 displays the guidance information received by the second communication unit 21.
  • the display unit 22 displays guidance information as an image (AR: Augmented Reality) displayed overlaid on the image of the user's actual visual field.
  • AR Augmented Reality
  • the display unit 22 displays guidance information as an AR image displayed superimposed on the image captured by the visual field camera 26.
  • the display unit 22 may display the guidance information as a virtually generated VR image (VR: Virtual Reality) of the user's visual field. At this time, the situation around the user recognized by the visual field camera 26 and the image recognition unit 27 may be reflected in the VR image.
  • VR Virtual Reality
  • the user wearing the mobile device 20 moves the building 2 according to the display of the display unit 22. After that, the user arrives at the platform 7 of the elevator 5.
  • FIG. 6 shows an example of an image of the landing 7 of the elevator 5 taken by the field camera 26.
  • the image recognition unit 27 of the portable device 20 performs image recognition of the image taken by the visual field camera 26.
  • the image recognition unit 27 recognizes one of the landing devices by image recognition.
  • the image recognition unit 27 recognizes, for example, a landing operation panel 8, a landing display panel 9, a landing door 10, or a three-way frame 11 as landing equipment.
  • the second communication unit 21 transmits a recognition signal indicating that the landing device has been recognized to the elevator management board 17.
  • the second communication unit 21 may transmit a recognition signal indicating that the coded image 12 is recognized to the elevator management board 17 when the image recognition unit 27 recognizes the coded image 12 of the landing. ..
  • the recognition signal is transmitted to the elevator management board 17 via the building management board 29.
  • the operation management unit 18 of the elevator management board 17 detects that the user has arrived at the landing 7 of the elevator 5 when the first communication unit 19 receives the recognition signal.
  • the operation management unit 18 registers the call from the departure floor to the destination floor of the user.
  • the departure floor of the user is the floor including the landing 7 where the user arrived.
  • the user's destination floor is, for example, a floor including the user's destination, or a floor such as a transit floor via a route to the user's destination.
  • the departure floor and the destination floor are transmitted from the building management board 29 to the elevator management board 17 together with, for example, a recognition signal.
  • the operation management unit 18 drives the car 13 so as to answer the registered call.
  • the destination floor of the user may be selected by the user.
  • the display unit 22 of the mobile device 20 displays the floor that can be used by the user registered in the related information of the user as a candidate for the destination floor.
  • the image displayed here is generated by, for example, the guidance information generation unit 34 or the like.
  • the user selects a destination floor from the candidates displayed through the voice recognition unit 25, the line-of-sight detection unit 24, or the like.
  • the display unit 22 of the mobile device 20 may display the user's related information and the like.
  • the display unit 22 displays, for example, information on the user's schedule, information on the user's in-house newsletter, and the like.
  • the display unit 22 may display the content information.
  • the content information may be, for example, news, a weather forecast, an advertisement, or management information of a building 2.
  • the image of the information displayed here is generated by, for example, the guidance information generation unit 34 or the like.
  • the display unit 22 of the mobile device 20 displays an image prompting the user to board the car 13.
  • the image displayed here is generated as guidance information by, for example, the guidance information generation unit 34.
  • the display unit 22 of the mobile device 20 may display the same as when waiting at the landing 7.
  • FIG. 7 shows an example of guidance information displayed by the mobile device 20.
  • the guidance information generation unit 34 When the car 13 is closer to the user's destination floor than the preset proximity, the guidance information generation unit 34 generates an image indicating arrival at the destination floor as guidance information.
  • the guidance information generation unit 34 generates the image when, for example, the distance from the car 13 to the user's destination floor is shorter than the preset distance.
  • the guidance information generation unit 34 generates an image including an icon image showing the operation of opening the car door 14, a message notifying the arrival at the destination floor, and a message showing the floor of the destination floor.
  • the message is generated based on the language registered as the user's related information.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20.
  • FIG. 8 shows an example of guidance information displayed by the mobile device 20 when the related information is shown in FIG. 7 and when another language is registered.
  • the guidance information generation unit 34 generates guidance information including a common icon image regardless of the language of the related information.
  • the guidance information generation unit 34 may generate guidance information including an icon image corresponding to the user's cultural area when the related information includes information representing the user's cultural area.
  • the user moves to the destination according to the display displayed on the mobile device 20.
  • the authentication unit 35 of the building management board 29 notifies the electric lock 37 that the user can be authenticated based on the biometric information.
  • the electric lock 37 unlocks the door. As a result, the user can smoothly pass through the inside of the building 2 to the destination.
  • FIG. 9 shows an example of guidance information displayed by the mobile device 20 when an emergency event occurs.
  • the traffic management system 1 guides the user to evacuate when an emergency event occurs.
  • the emergency event is an event requiring evacuation in the building 2 such as an earthquake or a fire.
  • the route information generation unit 33 When an emergency event occurs, the route information generation unit 33 generates route information including an evacuation route and an evacuation timing.
  • the route information generation unit 33 sets the user's destination as an evacuation area.
  • the evacuation area is, for example, a place preset in the building 2 in response to an emergency event.
  • the route information generation unit 33 is based on, for example, the location information of the user, the congestion information of each floor, the location information of the location where the emergency event occurred, and the related information of the user. You may choose an evacuation site.
  • the route information generation unit 33 generates route information including an evacuation route with the evacuation site as the destination of the user. At this time, the evacuation route is generated based on the user's related information. For example, when the related information includes the physical function "wheelchair use", the route information generation unit 33 generates an evacuation route through a place having few steps.
  • the route information generation unit 33 sets the evacuation timing for each user, for example, when it becomes difficult to move due to the occurrence of congestion.
  • the evacuation timing is set based on, for example, the position of the user, congestion information on each floor, and the like.
  • the evacuation timing may be set based on the user's related information. For example, when the information related to the user includes the physical function "visual impairment" and the route information generation unit 33 obtains the information that the caregiver is heading to the user, the user is evacuated. The timing may be set after the caregiver arrives.
  • the guidance information generation unit 34 generates guidance information based on the route information generated by the route information generation unit 33. For example, before the user's evacuation timing, the guidance information generation unit 34 generates an image including a message requesting to wait until the evacuation timing as guidance information. After the user's evacuation timing, the guidance information generation unit 34 generates an image of an arrow along the evacuation route using the user's position information.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20.
  • the display unit 22 of the mobile device 20 displays the guidance information received by the second communication unit 21.
  • the display unit 22 of the mobile device 20 may display information on an emergency event that has occurred, information on the response status to the emergency event, and the like.
  • the image of the information displayed here is generated by, for example, the guidance information generation unit 34 or the like.
  • FIGS. 10 and 11 are flowcharts showing an example of the operation of the traffic management system 1 according to the first embodiment.
  • FIG. 10 shows an example of the operation of the traffic management system 1 in a normal time.
  • step S1 the congestion information acquisition unit 31 of the building management board 29 acquires congestion information for each floor. After that, the operation of the traffic management system 1 proceeds to step S2.
  • step S2 the authentication unit 35 of the building management board 29 determines whether the authentication information that can be authenticated is transmitted from the mobile device 20.
  • the authentication unit 35 sets the determination result to No.
  • the authentication unit 35 sets the determination result to No, and the authentication information received by the third communication unit 30 from the mobile device 20 can be authenticated. If the above is the case, the authentication unit 35 sets the determination result to Yes.
  • the determination result is Yes, the operation of the traffic management system 1 proceeds to step S3.
  • the determination result is No, the operation of the traffic management system 1 ends.
  • step S3 the route information generation unit 33 and the guidance information generation unit 34 of the building management board 29 read the related information from the related information storage unit 36 based on the authentication information.
  • the route information generation unit 33 acquires the target information of the user. After that, the operation of the traffic management system 1 proceeds to step S4. If the related information has already been read, the operation of step S3 may be omitted.
  • step S4 the location information acquisition unit 32 of the building management board 29 acquires the location information of the user. After that, the operation of the traffic management system 1 proceeds to step S5.
  • step S5 the building management board 29 determines whether the user has arrived at the destination based on the user's location information or the like. When the determination result is No, the operation of the traffic management system 1 proceeds to step S6. When the determination result is Yes, the operation of the traffic management system 1 ends.
  • step S6 the operation management unit 18 of the elevator management board 17 determines whether the user using the elevator 5 has arrived at the landing 7 based on the recognition signal transmitted from the mobile device 20 or the like.
  • the determination result is Yes
  • the operation of the traffic management system 1 proceeds to step S7.
  • the determination result is No
  • the operation of the traffic management system 1 proceeds to step S8.
  • step S7 the traffic management system 1 processes the movement using the elevator 5. After that, the operation of the traffic management system 1 proceeds to step S8.
  • step S8 the route information generation unit 33 of the building management board 29 generates route information for guiding the user based on the user's location information, purpose information, related information, congestion information, and the like. After that, the operation of the traffic management system 1 proceeds to step S9.
  • step S9 the guidance information generation unit 34 of the building management board 29 generates guidance information based on the user's related information, route information, and the like.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20 so that the display unit 22 can display it. After that, the operation of the traffic management system 1 proceeds to step S1.
  • FIG. 11 shows an example of the operation of the traffic management system 1 related to the processing of movement using the elevator 5.
  • step S71 the operation management unit 18 of the elevator management board 17 registers the user's call. After that, the operation of the traffic management system 1 proceeds to step S72.
  • step S72 the operation management unit 18 of the elevator management board 17 determines whether the car 13 has arrived at the destination floor of the user. When the determination result is No, the operation of the traffic management system 1 proceeds to step S73. When the determination result is Yes, the operation of the traffic management system 1 proceeds to step S74.
  • step S73 the guidance information generation unit 34 of the building management board 29 generates an image to be displayed to the user waiting at the landing 7.
  • the third communication unit 30 transmits the generated image to the mobile device 20 so that the display unit 22 can display it.
  • step S74 the guidance information generation unit 34 of the building management board 29 generates guidance information for urging the user waiting at the landing 7 to board the car 13.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20 so that the display unit 22 can display it. After that, the operation of the traffic management system 1 proceeds to step S75.
  • step S75 the operation management unit 18 of the elevator management board 17 determines whether the car 13 is closer than the preset proximity to the user's destination floor. When the determination result is No, the operation of the traffic management system 1 proceeds to step S76. When the determination result is Yes, the operation of the traffic management system 1 proceeds to step S77.
  • step S76 the guidance information generation unit 34 of the building management board 29 generates an image to be displayed to the user in the car 13.
  • the third communication unit 30 transmits the generated image to the mobile device 20 so that the display unit 22 can display it.
  • step S77 the guidance information generation unit 34 of the building management board 29 generates guidance information for notifying the user in the car 13 of the arrival at the destination floor.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20 so that the display unit 22 can display it.
  • the building 2 to which the traffic management system 1 is applied is not limited to the office building.
  • the building 2 may be, for example, an apartment house, a commercial facility, an accommodation facility, a public facility, or the like.
  • the combination, replacement, omission, etc. of the configuration may be performed according to the type or scale of the applicable building 2 or the characteristics of the user, to the extent that the purpose of the present disclosure is not deviated.
  • the mobile device 20 may be a general-purpose information terminal such as a smartphone.
  • the reading unit 23 may read information such as a user's password as authentication information. Further, the reading unit 23 may read the user's face image information, voice information, fingerprint information, or the like as biological information. When the mobile device 20 has a portion to be attached to the user's ear, the reading unit 23 may read ear acoustic information or the like as the user's biological information.
  • the image recognition unit 27 may perform image recognition of an image taken by a camera provided in the portable device 20.
  • the mobile device 20 may include a reproduction unit that reproduces guidance information generated as voice.
  • the congestion information acquisition unit 31 may acquire congestion information by an infrared sensor, an infrared camera, or the like provided in the building 2.
  • the congestion information acquisition unit 31 is a radio transmitted from the second communication unit 21 of the mobile device 20 carried by each user.
  • Congestion information may be acquired based on the signal strength of the signal or the like. The signal strength is acquired by, for example, a plurality of receivers provided in the building 2.
  • the congestion information acquisition unit 31 may acquire congestion information based on the location information of each user.
  • the route information generation unit 33 may have already generated route information for other users.
  • the route information is an example of the route information of another person.
  • the route information generation unit 33 may generate the route information of the user based on the other user's route information. For example, when the route information of another person for a wheelchair user uses the elevator 5, the route information generation unit 33 assumes that the route information for a healthy person user uses the escalator 4 or the stairs 3. May be generated.
  • the route information generation unit 33 may generate route information so that each user can control traffic so as to avoid the occurrence of congestion in the entire building 2.
  • the detection that the user has arrived at the landing 7 of the elevator 5 may be performed by the position information acquisition unit 32 of the building management board 29 or the like based on the position information of the user.
  • the arrival of the user at the landing 7 may be detected by receiving the radio signal transmitted from the second communication unit 21 of the mobile device 20 by the receiver provided at the landing 7.
  • the building management board and the elevator management board 17 may have the same hardware.
  • the guidance information generation unit 34 may be provided in the mobile device 20.
  • the third communication unit 30 of the building management board 29 transmits a part or all of the route information generated by the route information generation unit 33 to the mobile device 20.
  • the user-related information may be stored in the storage unit of the mobile device 20 carried by the user.
  • the traffic management system 1 includes a mobile device 20, a congestion information acquisition unit 31, a position information acquisition unit 32, a route information generation unit 33, and a guidance information generation unit 34.
  • the mobile device 20 is carried by the first user among one or more users of the building 2.
  • Building 2 has a plurality of floors.
  • the congestion information acquisition unit 31 acquires congestion information by one or more users in the building 2 for each of the plurality of floors.
  • the position information acquisition unit 32 acquires the position information in the building 2 of the first user.
  • the route information generation unit 33 provides route information for guiding the first user based on the location information of the first user, the purpose information of the first user, and the congestion information about the floor on which the first user is located.
  • the guidance information generation unit 34 generates guidance information in which the mobile device 20 guides the first user according to the route information.
  • Guidance information that guides the user is displayed on the mobile device 20 carried by the user. Therefore, the user can confirm the guidance information in a free place inside the building 2. As a result, the traffic management system 1 can smoothly guide the user who moves inside the building 2. In addition, the situation such as congestion may change for each floor inside the building 2. Since the route information generation unit 33 generates the route information of the user based on the congestion information acquired for each floor, the guidance of the user inside the building 2 becomes more reliable.
  • the guidance information generation unit 34 generates an image for guiding the first user as guidance information by displaying the image on the mobile device 20 to the first user.
  • the mobile device 20 is eyewear worn at the position of the eyes of the first user.
  • the guidance information is displayed as an image, the user can intuitively understand the guidance information.
  • the mobile device 20 is eyewear, the user can check the guidance information without using his / her hands. As a result, the usage information can confirm the guidance information while moving. As a result, the guidance of the user inside the building 2 becomes smoother.
  • the traffic management system 1 can display guidance information as visual information to a user of low vision or the like. At this time, the range of users targeted by the traffic management system 1 becomes wider.
  • the portable device 20 has a voice recognition unit 25.
  • the voice recognition unit 25 recognizes the voice of the first user.
  • the mobile device 20 accepts the input of the target information of the first user by the voice recognized by the voice recognition unit 25.
  • the portable device 20 has a line-of-sight detection unit 24.
  • the line-of-sight detection unit 24 detects the line of sight of the first user.
  • the mobile device 20 accepts the input of the target information of the first user by the line of sight detected by the line of sight detection unit 24.
  • the user can enter the purpose information without using his hands. Therefore, the convenience of the user is improved.
  • the traffic management system 1 includes a reading unit 23 and a related information storage unit 36.
  • the reading unit 23 reads the authentication information of the first user.
  • the reading unit 23 is provided in, for example, a mobile device 20 which is eyewear.
  • the reading unit 23 reads the biometric information of the first user as the authentication information when the mobile device 20 is attached to the first user.
  • the related information storage unit 36 stores the related information related to the first user in a readable manner based on the authentication information read by the reading unit 23.
  • the guidance information generation unit 34 generates guidance information based on the related information of the first user.
  • the related information storage unit 36 stores information in the language used by the first user as related information.
  • the related information storage unit 36 stores information on the floor that can be used by the first user among the plurality of floors as related information.
  • the related information storage unit 36 stores information on the physical function of the first user as related information.
  • information such as guidance information is presented in a language that the user can understand, or in a form according to each user's circumstances such as whether or not the user has a disability. Since it becomes easier for the user to grasp the content of the presented guidance information, the guidance of the user inside the building 2 becomes smoother. Further, when the mobile device 20 is a wearable device such as eyewear, the reading unit 23 can continuously read biometric information as authentication information. At this time, unauthorized replacement of users is prevented. The security of the building 2 is improved when the authentication information is used for cooperation with the entrance / exit management of the building 2.
  • the route information generation unit 33 generates route information based on the related information of the first user.
  • guidance information is generated so as to follow the route information according to each user's circumstances such as the presence or absence of a user's disability. Since the guidance information to the movement route that the user can actually move is presented, the guidance of the user becomes smoother.
  • the route information generation unit 33 generates route information including the evacuation route of the first user based on the related information of the first user when an emergency event occurs. Further, the route information generation unit 33 generates route information including the evacuation timing of the first user based on the related information of the first user when an emergency event occurs.
  • a plurality of floor-to-floor transportation means are provided.
  • the route information generation unit 33 selects one of the plurality of floor-to-floor transportation means based on the related information of the first user.
  • the route information generation unit 33 generates route information using the selected alcove-to-floor moving means.
  • the actually available floor-to-floor transportation method is selected according to the circumstances of each user. As a result, the guidance of the user becomes smoother.
  • the route information generation unit 33 generates route information based on congestion information about the floor including the destination of the first user.
  • the situation such as congestion may change for each floor inside the building 2. Since the route information is generated based on the congestion information before and after the user moves between the floors, the guidance of the user becomes smoother.
  • the route information generation unit 33 when the route information generation unit 33 is generating the route information of another person, the route information about the first user is generated based on the route information of the other person.
  • the other user route information is route information that guides another user of the first user among a plurality of users.
  • route information adjusted between each user is generated, so that the user's guidance becomes smoother.
  • the traffic management system 1 includes an operation management unit 18.
  • the operation management unit 18 registers a call from the departure floor to the destination floor of the first user when the first user arrives at the platform 7 of the elevator 5. Further, the operation management unit 18 detects that the first user has arrived at the landing 7 by the recognition signal transmitted by the mobile device 20.
  • the recognition signal is transmitted when the mobile device 20 recognizes the coded image 12 attached to the landing 7 by the camera provided in the mobile device 20. Further, it is transmitted when the mobile device 20 recognizes the landing device of the elevator 5 by the camera provided in the mobile device 20.
  • the guided user's movement becomes smoother. Further, since the arrival at the landing 7 is detected based on the image of the landing equipment or the coded image 12 attached to the landing 7, the call is registered by the natural movement of the user. Since the coded image 12 may be recognized based on the image taken by the camera rather than the visual sense of the user, there is room for adjustment in the size or color of the coded image 12 within the range in which the image can be recognized. Therefore, the influence of the coded image 12 on the design of the landing 7 is suppressed.
  • the guidance information generation unit 34 generates guidance information including information on the call of the first user.
  • FIG. 12 is a hardware configuration diagram of a main part of the traffic management system 1 according to the first embodiment.
  • Each function of the traffic management system 1 can be realized by a processing circuit.
  • the processing circuit includes at least one processor 100a and at least one memory 100b.
  • the processing circuit may include at least one dedicated hardware 200 with or as a substitute for the processor 100a and the memory 100b.
  • each function of the traffic management system 1 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program. The program is stored in the memory 100b. The processor 100a realizes each function of the traffic management system 1 by reading and executing the program stored in the memory 100b.
  • the processor 100a is also referred to as a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, and a DSP.
  • the memory 100b is composed of, for example, a non-volatile or volatile semiconductor memory such as a RAM, a ROM, a flash memory, an EPROM, or an EEPROM.
  • the processing circuit includes the dedicated hardware 200
  • the processing circuit is realized by, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • Each function of the traffic management system 1 can be realized by a processing circuit. Alternatively, each function of the traffic management system 1 can be collectively realized by a processing circuit. For each function of the traffic management system 1, a part may be realized by the dedicated hardware 200, and the other part may be realized by software or firmware. As described above, the processing circuit realizes each function of the traffic management system 1 by the dedicated hardware 200, software, firmware, or a combination thereof.
  • FIG. 13 is a configuration diagram of the traffic management system 1 according to the second embodiment.
  • the building 2 to which the traffic management system 1 is applied is an apartment house such as a residence.
  • the building management board 29 of the traffic management system 1 has a virtual design generation unit 38.
  • the virtual design generation unit 38 is a part that generates an image of a virtual design inside the building 2.
  • the image of the design generated by the virtual design generation unit 38 includes, for example, an image of the appearance of the walls, fittings, columns, ceilings, floors, and the like of the building 2.
  • the image of the design generated by the virtual design generation unit 38 includes an image of the appearance of the landing equipment of the elevator 5.
  • the image of the design generated by the virtual design generation unit 38 includes an image of the design inside the car 13 of the elevator 5. Images of the design inside the car 13 include images of the interior walls, ceilings, and floors of the car 13, the appearance of the car door 14, and the appearance of the car equipment.
  • the virtual design image generated by the virtual design generation unit 38 is an image that the display unit 22 of the mobile device 20 superimposes on the image of the actual design.
  • the mobile device 20 is eyewear worn by the user.
  • the image of the virtual design is, for example, an AR image or a VR image.
  • the related information storage unit 36 may include design information selected and registered in advance by the user.
  • the design registered here includes a color and a pattern such as a wall surface.
  • the virtual design generation unit 38 generates a virtual design based on the user's related information.
  • FIG. 14 is a diagram showing an example of a virtual design generated by the virtual design generation unit 38 according to the second embodiment.
  • FIG. 14 shows an example of a virtual design inside the car 13 displayed by the mobile device 20.
  • the route information generation unit 33 starts generating route information when, for example, a user wearing a mobile device 20 which is eyewear goes out.
  • the determination of the user going out is performed, for example, based on the operation of the mobile device 20 by the user. Alternatively, the determination of the user going out may be made based on, for example, the user's location information. Alternatively, the determination of the user going out may be made based on, for example, an image taken by a fixed camera 28 provided in a common area of the user's residential floor.
  • the route information generation unit 33 sets, for example, the entrance of the building 2 as the destination of the user.
  • the operation management unit 18 registers a call from the user's residential floor to the entrance floor.
  • the user's residential floor is, for example, a floor including the user's residence.
  • the mobile device 20 worn by the user is the other user who is riding in the car 13 together with the user by the visual field camera 26 and the image recognition unit 27. Is detected.
  • the mobile device 20 transmits information such as the relative position with the detected other user or the contour of the detected other user to the virtual design generation unit 38.
  • the virtual design generation unit 38 generates an image of a virtual design around the user, for example, based on the position information of the user. For example, when the user is in the car 13, the virtual design generation unit 38 has an image of a virtual design of the inner wall surface, ceiling, and floor of the car 13, the car door 14, the car device, and the like. Is generated individually. At this time, the virtual design generation unit 38 may generate a virtual design based on information such as a relative position or contour of another user transmitted from the mobile device 20 worn by the user. The virtual design generation unit 38 generates an AR image in which an image of a car device or the like is superimposed on the foreground of an actual image of another user, for example. Alternatively, the virtual design generation unit 38 may generate a VR image representing another user.
  • the virtual design generation unit 38 generates a VR image in which an image of a car device or the like is superimposed on the foreground of an image representing another user, for example.
  • the virtual design generation unit 38 generates an image in which the image of the car operation panel 15 is superimposed on the image of another user.
  • the virtual design generation unit 38 may generate a user's image or an image superimposed on the image as a semi-transparent image of the car device.
  • the virtual design generation unit 38 generates an image of another user or an image superimposed on the foreground of an image of a virtual design such as a wall surface, a ceiling, a floor surface, and a car door 14 inside the car 13. ..
  • the third communication unit 30 transmits the image of the virtual design generated by the virtual design generation unit 38 to the second communication unit 21 of the mobile device 20.
  • the mobile device 20 displays an image of a virtual design received by the second communication unit 21.
  • the mobile device 20 may display guidance information by superimposing it on an image of a virtual design.
  • the mobile device 20 may display the content information on the image of the virtual design, for example, when the user is in the car 13.
  • the content information may be, for example, news, a weather forecast, an advertisement, or a notification from the manager of the building 2.
  • the mobile device 20 may acquire information such as the amount of activity of the user based on, for example, an acceleration sensor.
  • the route information generation unit 33 starts generating route information when the user returns home.
  • the return of the user is determined in the same manner as the user going out, for example.
  • the route information generation unit 33 sets, for example, the entrance of the user's residence, which is stored as the user's related information, as the destination.
  • the route generation unit selects the means of transportation between floors based on, for example, the amount of activity of the user.
  • the amount of activity of the user is transmitted from the mobile device 20 to the building management board 29, for example.
  • the activity amount of the user may be, for example, a history of the activity amount registered in the related information.
  • the route generation unit selects the stairs 3 as the means for moving between floors, for example, when the amount of activity of the user is small.
  • the route generation unit may select the means of transportation between floors based on the situation such as the amount of luggage of the user.
  • the user's situation is determined based on, for example, an image taken by a fixed camera 28 provided in a common area such as a front door.
  • the route generation unit selects the elevator 5 for carrying cargo as the means for moving between floors.
  • the route generation unit may select the normal elevator 5 as the floor-to-floor transportation means.
  • the operation management unit 18 registers a call from the entrance floor to the user's residential floor.
  • the traffic management system 1 includes a virtual design generation unit 38.
  • the virtual design generation unit 38 generates an image of a virtual design inside the building 2.
  • the image of the virtual design is displayed by the mobile device 20 to the first user.
  • the image of the virtual design includes an image of the inside of the car 13 displayed by the mobile device 20 to the first user when the first user is in the car 13.
  • the design of the building 2 that reflects the preferences of each user can be displayed to the user.
  • the user can spend more comfortably inside the building 2.
  • the user can select a design that does not easily cause discomfort such as a feeling of obstruction even in a closed space such as the inside of the car 13.
  • the virtual design generation unit 38 is an image in which the image of the first user among a plurality of users and the image of another user riding in the car 13 is superimposed on the image of the car device provided inside the car 13 in the foreground. To generate.
  • the virtual design generation unit 38 superimposes an image of a landing device such as a landing display panel 9 or a landing operation panel 8 on an image of a first user among a plurality of users and another user present at the landing 7. An image may be generated in the foreground. Further, the image of the virtual design such as the car device or the landing device does not have to reflect the size of the actual car device or the landing device.
  • the image of the virtual design such as a car device or a landing device may be displayed larger than the actual one so that the user can easily recognize it, for example. Further, an image of a virtual design such as a car device or a landing device may be displayed in a place where there is no actual car device or a landing device.
  • the operation on the car device or the landing device displayed as an image of a virtual design is, for example, a mobile device. It may be done through the device 20.
  • the operation is performed, for example, through the line-of-sight detection unit 24 or the like.
  • the operation through the line-of-sight detection unit 24 is performed, for example, by continuously directing the line of sight to an area where an operation target part such as a button is displayed in a virtual design image for a longer time than a preset time. ..
  • the virtual design generation unit 38 may be provided in the mobile device 20. At this time, communication resources are saved by communicating images of virtual designs. In addition, the deviation of the virtual design display due to the communication delay is suppressed. On the other hand, when the virtual design generation unit 38 is provided on the building management board 29, the load of information processing on the mobile device 20 is reduced.
  • FIG. 15 is a configuration diagram of the traffic management system 1 according to the third embodiment.
  • the building 2 to which the traffic management system 1 is applied is a commercial facility.
  • Commercial facilities include, for example, a plurality of stores.
  • the building management board 29 of the traffic management system 1 has an information storage unit 39.
  • the information storage unit 39 is a part that stores and stores information on the behavior of the user in the building 2.
  • the information on the user's behavior may include, for example, the user's viewpoint information.
  • FIG. 16 is a diagram showing an example of viewpoint information accumulated by the information storage unit 39 according to the third embodiment.
  • the viewpoint information is information on the point where the user wearing the mobile device 20 which is eyewear is looking at.
  • the viewpoint information includes an image taken by the field camera 26 as the field image information.
  • the viewpoint information includes the point at which the user's line of sight detected by the line-of-sight detection unit 24 is directed in the visual field image information as the line-of-sight information.
  • the mobile device 20 transmits the authentication information to the building management board 29 when the user arrives at the building 2.
  • the mobile device 20 may transmit the target information to the building management board 29.
  • the target information is input based on, for example, a user's voice or line of sight.
  • the purpose information may be, for example, information such as a user's purchase target product.
  • the purpose information may be input before the user arrives at the building 2.
  • the purpose information may be updated while the user is staying in the building 2.
  • the mobile device 20 may be lent to a user from a commercial facility.
  • the user inputs related information including the user's attributes and the like when entering the commercial facility through the mobile device 20.
  • the user may also input the purpose information.
  • the route information generation unit 33 sets the destination based on the user's purpose information. For example, when the target information is a purchase target product, the route information generation unit 33 sets a store that handles the purchase target product as the destination.
  • the route information generation unit 33 may select the alcove-to-floor transportation means based on the situation such as the amount of luggage of the user.
  • the route information generation unit 33 may select the alcove-to-floor transportation means based on the situation of the user's companion such as whether or not the stroller is used.
  • the route information generation unit 33 may select the alcove-to-floor transportation means based on the usage status of the user such as whether or not the shopping cart is used. For example, when the user is using a stroller, a shopping cart, or the like, the route information generation unit 33 selects the elevator 5 as the floor-to-floor transportation means.
  • the mobile device 20 may display content information when it does not interfere with the movement of the user and other surrounding users.
  • the mobile device 20 displays content information, for example, when the user is stopped.
  • the content information may be audio information.
  • the content information is generated by, for example, the guidance information generation unit 34, the virtual design generation unit 38, or the like.
  • the content information may be, for example, an advertisement.
  • the displayed advertisement may be selected based on related information such as a user's attribute or preference.
  • the image recognition unit 27 of the mobile device 20 may detect the product picked up by the user based on the image of the visual field camera 26. At this time, the mobile device 20 transmits the detected product information to the building management board 29.
  • the guidance information generation unit 34 or the like of the building management board 29 may generate content information including advertisements for the detected products or related products of the products. Further, the image recognition unit 27 of the mobile device 20 may detect a product that has not been purchased after being picked up by the user. At this time, the display unit 22 of the mobile device 20 may display the content information including the advertisement of the product again after, for example, a preset time has elapsed.
  • the visual field camera 26, the line-of-sight detection unit 24, and the image recognition unit 27 of the mobile device 20 generate viewpoint information.
  • the viewpoint information may include the result of detection of the product picked up by the user.
  • the mobile device 20 transmits the generated viewpoint information to the building management board 29.
  • the building management board 29 stores and stores the received viewpoint information in the information storage unit 39.
  • the guidance information generation unit 34 or the like of the building management board 29 may generate content information or the like based on the information stored in the information storage unit 39.
  • the user behavior information stored in the information storage unit 39 is not limited to viewpoint information.
  • the information on the user's behavior may include, for example, the history of the route traveled by the user.
  • the mobile device 20 may be a wearable device worn on an arm or the like or a device other than eyewear such as a smartphone.
  • the traffic management system 1 includes an information storage unit 39.
  • the information storage unit 39 stores viewpoint information.
  • the viewpoint information includes visual field image information and line-of-sight information.
  • the field of view image information is information of an image taken by the field of view camera 26.
  • the field of view camera 26 is provided in the portable device 20.
  • the field of view camera 26 is directed to the front of the first user.
  • the line-of-sight information is information on the line-of-sight of the first user detected by the line-of-sight detection unit 24.
  • the line-of-sight detection unit 24 is provided in the portable device 20.
  • the viewpoint information is information that can reflect the object of interest of the user. Therefore, the viewpoint information is valuable information that can be used for selecting an advertisement for the user. Since the viewpoint information is collected by the mobile device 20 that guides the movement of the user, the traffic management system 1 can accumulate the viewpoint information while providing benefits to the user.
  • the traffic management system 1 can be used, for example, to propose a tenant layout to the owner or manager of a commercial facility by using the accumulated viewpoint information or the like. Further, the traffic management system 1 can be used to provide information on products that are of great interest to users, for example, to tenants of commercial facilities or manufacturers of products handled in commercial facilities, based on the accumulated viewpoint information.
  • the information stored in the information storage unit 39 may be processed so that individual users are not specified, and then targeted for transactions as big data or the like.
  • the information stored in the information storage unit 39 may be deposited in, for example, an information bank.
  • the information storage unit 39 may be provided in the mobile device 20. At this time, communication resources are saved by communicating the information stored in the information storage unit 39. Further, when the user is the owner of the mobile device 20, the user can manage the information stored in the information storage unit 39 by himself / herself. The user may directly receive compensation for providing the information, for example, by depositing the accumulated information in an information bank.
  • FIG. 17 is a configuration diagram of the traffic management system 1 according to the fourth embodiment.
  • the building 2 to which the traffic management system 1 is applied is an accommodation facility such as a hotel.
  • Elevator 5 is equipped with a plurality of baskets 13.
  • a plurality of landing doors 10 are provided at the landing 7 of the elevator 5.
  • Each landing door 10 corresponds to any of the baskets 13.
  • the landing door 10 corresponding to the car 13 of the landing 7 on the floor opens and closes in conjunction with the opening and closing of the car door 14 of the car 13.
  • the operation management unit 18 assigns a user's call to one of a plurality of baskets 13 based on, for example, the operation efficiency of the elevator 5.
  • FIG. 18 is a plan view of the landing 7 according to the fourth embodiment.
  • FIG. 19 is a diagram showing an example of guidance information generated by the guidance information generation unit 34 according to the fourth embodiment.
  • FIG. 18 shows a user carrying a mobile device 20 and waiting for the arrival of the car 13 at the landing 7.
  • the elevator 5 includes six baskets 13 from Unit A to Unit F.
  • the operation management unit 18 assigns the user's call to the F unit.
  • a user who is unaware that a call has been assigned to Unit F is standing by facing the landing door 10 corresponding to Unit B. At this time, the user turns his back to the landing door 10 corresponding to Unit F.
  • the guidance information generation unit 34 generates guidance information including information for specifying the car 13 to which the user's call is assigned.
  • the information of the car 13 to which the user's call is assigned is provided, for example, from the operation management unit 18 to the guidance information generation unit 34.
  • FIG. 19 shows an example of guidance information displayed by the mobile device 20.
  • the guidance information generation unit 34 generates guidance information including the number of the car 13 such as "Unit F" as the information for specifying the car 13 to which the user's call is assigned. Further, the guidance information generation unit 34 generates guidance information including an image such as an arrow indicating the direction seen from the user of the car 13 to which the call is assigned.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20.
  • the display unit 22 of the mobile device 20 displays the guidance information received by the second communication unit 21.
  • the destination of the user is, for example, the room in which the user stays.
  • the room in which the user stays is entered, for example, at check-in.
  • the mobile device 20 corresponding to the room in which the guest is staying may be lent to the user, for example, at the time of check-in.
  • the display unit 22 of the mobile device 20 may display the content information to the user, for example, when the user is waiting at the landing 7 of the elevator 5 or is in the car 13.
  • the content information may include facility information of the accommodation facility, cautionary information on the use of the facility, tourist information around the facility, and the like.
  • the content information displayed here may replace the material presented in writing in each room.
  • the electric lock 37 in the room where the user stays may be unlocked based on the authentication information read by the reading unit 23 of the mobile device 20.
  • the operation management unit 18 assigns the call of the first user to any of the plurality of cars 13.
  • the guidance information generation unit 34 generates guidance information including information for specifying the car 13 to which the call of the first user is assigned. Further, the guidance information generation unit 34 generates guidance information including the direction of the car 13 to which the call of the first user is assigned. The direction of the car 13 is the direction seen from the first user at the landing 7.
  • the user can use the elevator 5 more smoothly. Further, since the direction of the car 13 as seen from the user is shown as guidance information, the user can more easily recognize the car 13. This makes the movement of the user smoother.
  • FIG. 20 is a configuration diagram of the traffic management system 1 according to the fifth embodiment.
  • the building 2 to which the traffic management system 1 is applied is a public facility.
  • the car 13 of the elevator 5 has two car doors 14. One car door 14 is arranged in front of the car 13. The other car door 14 is arranged on the rear surface of the car 13. On a part of a plurality of floors, a landing 7 is provided on the front side of the car 13. In the other part of the plurality of floors, the landing 7 is provided on the rear side of the car 13. When the car 13 stops on any floor, the car door 14 on the side where the landing 7 on the floor is provided opens and closes.
  • FIG. 21 is a diagram showing a user who gets in the car 13 according to the fifth embodiment.
  • a landing 7 is provided on the front side of the car 13.
  • a landing 7 is provided on the rear side of the car 13.
  • a user who is unaware that the car door 14 that opens and closes differs between the departure floor and the destination floor turns his back to the car door 14 on the rear side that opens and closes on the destination floor. In this case, the user may take time to get on from the car 13. Therefore, the guidance information generation unit 34 generates guidance information including information indicating the car door 14 that opens and closes on the destination floor of the user.
  • FIG. 22 is a diagram showing an example of guidance information generated by the guidance information generation unit 34 according to the fifth embodiment.
  • FIG. 22 shows an example of guidance information displayed by the mobile device 20.
  • the guidance information generation unit 34 generates guidance information including a message indicating a car door 14 that opens and closes on the destination floor of the user. Further, the guidance information generation unit 34 generates guidance information including an image such as an arrow indicating the direction seen from the user of the car door 14 that opens and closes on the destination floor.
  • the third communication unit 30 transmits the generated guidance information to the mobile device 20.
  • the display unit 22 of the mobile device 20 displays the guidance information received by the second communication unit 21.
  • the guidance information generation unit 34 is the first when the first user is in the car 13 having the plurality of car doors 14. Generate guidance information including the direction of the car door 14 to be opened on the user's destination floor.
  • the direction of the car door 14 is the direction seen from the first user who is in the car 13.
  • the traffic management system according to this disclosure can be applied to buildings with multiple floors.
  • 1 traffic management system 2 buildings, 3 stairs, 4 escalator, 5 elevators, 6 hoistways, 7 landings, 8 landing operation boards, 9 landing display boards, 10 landing doors, 11 three-sided frames, 12 coded images, 13 baskets, 14 car door, 15 car operation panel, 16 car display panel, 17 elevator management panel, 18 operation management unit, 19 1st communication unit, 20 mobile devices, 21 2nd communication unit, 22 display unit, 23 reading unit, 24 line of sight Detection unit, 25 voice recognition unit, 26 field camera, 27 image recognition unit, 28 fixed camera, 29 building management board, 30 third communication unit, 31 congestion information acquisition unit, 32 location information acquisition unit, 33 route information generation unit, 34 Guidance information generation unit, 35 authentication unit, 36 related information storage unit, 37 electric lock, 38 virtual design generation unit, 39 information storage unit, 100a processor, 100b memory, 200 dedicated hardware

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)

Abstract

建物の内部を移動する利用者を誘導できる建物の交通管理システムを提供する。交通管理システム(1)は、携帯機器(20)と、混雑情報取得部(31)と、位置情報取得部(32)と、経路情報生成部(33)と、誘導情報生成部(34)と、を備える。携帯機器(20)は、建物(2)の1以上の利用者のうちの第1利用者に携帯される。建物(2)は、複数の階床を有する。混雑情報取得部(31)は、建物(2)における1以上の利用者による混雑情報を、複数の階床の各々について取得する。位置情報取得部(32)は、第1利用者の建物(2)における位置情報を取得する。経路情報生成部(33)は、第1利用者の位置情報、第1利用者の目的情報、および第1利用者がいる階床についての混雑情報に基づいて、第1利用者を案内する経路情報を生成する。誘導情報生成部(34)は、経路情報に従って携帯機器(20)が第1利用者を誘導する誘導情報を生成する。

Description

建物の交通管理システム
 本開示は、建物の交通管理システムに関する。
 特許文献1は、誘導案内システムの例を開示する。誘導案内システムは、エレベーターの乗場の混雑状況に基づいて利用者を誘導する。
日本特開2008-143680号公報
 しかしながら、特許文献1の誘導案内システムは、建物の出入り口付近に設けられた誘導案内表示部の表示によって利用者を誘導する。このため、誘導案内システムは、建物の内部を移動する利用者を誘導できない。
 本開示は、このような課題の解決に係るものである。本開示は、建物の内部を移動する利用者を誘導できる建物の交通管理システムを提供する。
 本開示に係る建物の交通管理システムは、複数の階床を有する建物における1以上の利用者による混雑情報を、複数の階床の各々について取得する混雑情報取得部と、1以上の利用者のうち携帯機器を携帯する第1利用者の建物における位置情報を取得する位置情報取得部と、位置情報取得部が取得した第1利用者の位置情報、第1利用者の目的情報、および複数の階床のうち第1利用者がいる階床について混雑情報取得部が取得した混雑情報に基づいて、第1利用者を案内する経路情報を生成する経路情報生成部と、経路情報生成部が生成した経路情報に従って携帯機器が第1利用者を誘導する誘導情報を生成する誘導情報生成部と、を備える。
 本開示に係る建物の交通管理システムは、複数の階床を有する建物の1以上の利用者のうちの第1利用者に携帯される携帯機器と、建物における1以上の利用者による混雑情報を、複数の階床の各々について取得する混雑情報取得部と、第1利用者の建物における位置情報を取得する位置情報取得部と、位置情報取得部が取得した第1利用者の位置情報、第1利用者の目的情報、および複数の階床のうち第1利用者がいる階床について混雑情報取得部が取得した混雑情報に基づいて、第1利用者を案内する経路情報を生成する経路情報生成部と、経路情報生成部が生成した経路情報に従って携帯機器が第1利用者を誘導する誘導情報を生成する誘導情報生成部と、を備える。
 本開示に係る建物の交通管理システムであれば、建物の内部を移動する利用者を誘導できる。
実施の形態1に係る交通管理システムの構成図である。 実施の形態1に係る携帯機器の機能の例を示す図である。 実施の形態1に係る関連情報記憶部が記憶する関連情報の例を示す図である。 実施の形態1に係る経路情報生成部が生成する経路情報の例を示す図である。 実施の形態1に係る誘導情報生成部が生成する誘導情報の例を示す図である。 実施の形態1に係る視野カメラが撮影する画像の例を示す図である。 実施の形態1に係る誘導情報生成部が生成する誘導情報の例を示す図である。 実施の形態1に係る誘導情報生成部が生成する誘導情報の例を示す図である。 実施の形態1に係る誘導情報生成部が生成する誘導情報の例を示す図である。 実施の形態1に係る交通管理システムの動作の例を示すフローチャートである。 実施の形態1に係る交通管理システムの動作の例を示すフローチャートである。 実施の形態1に係る交通管理システムの主要部のハードウェア構成図である。 実施の形態2に係る交通管理システムの構成図である。 実施の形態2に係る仮想意匠生成部が生成する仮想意匠の例を示す図である。 実施の形態3に係る交通管理システムの構成図である。 実施の形態3に係る情報蓄積部が蓄積する視点情報の例を示す図である。 実施の形態4に係る交通管理システムの構成図である。 実施の形態4に係る乗場の平面図である。 実施の形態4に係る誘導情報生成部が生成する誘導情報の例を示す図である。 実施の形態5に係る交通管理システムの構成図である。 実施の形態5に係るかごに乗車する利用者を示す図である。 実施の形態5に係る誘導情報生成部が生成する誘導情報の例を示す図である。
 本開示を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。
 実施の形態1.
 図1は、実施の形態1に係る交通管理システム1の構成図である。
 交通管理システム1は、例えば複数の階床を有する建物2に適用される。この例において、建物2はオフィスビルである。
 建物2において、複数の階床間移動手段が設けられる。階床間移動手段は、建物2の利用者が複数の階床の間の移動に利用する装置または設備などである。階床間移動手段は、例えば階段3、エスカレーター4、またはエレベーター5などを含む。階段3は、隣接する2つの階床の間において設けられる。エスカレーター4は、循環移動するステップなどに乗る利用者を2つの階床の間において輸送する装置である。
 建物2において、エレベーター5の昇降路6が設けられる。昇降路6は、複数の階床にわたる鉛直方向に長い空間である。建物2の各々の階床において、エレベーター5の乗場7が設けられる。乗場7において、乗場機器が設けられる。乗場機器は、乗場7に設けられるエレベーター5の機器である。乗場機器は、乗場操作盤8、乗場表示盤9、乗場ドア10、および三方枠11を含む。乗場操作盤8は、乗場7における利用者の乗場呼びの登録の操作などを受け付ける機器である。乗場表示盤9は、エレベーター5の状況などを表示する機器である。乗場ドア10は、乗場7から昇降路6に通じる開口に設けられる。乗場ドア10は、乗場7および昇降路6を区画するドアである。三方枠11は、乗場7から昇降路6に通じる開口を上方および左右の三方から囲う枠である。乗場7において、例えば乗場7の壁面などに符号化画像12が付される。符号化画像12は、例えばエレベーター5の乗場7および階床を特定する情報などを符号化した画像である。符号化画像12は、例えばISO/IEC 18004規格に基づく二次元コードシンボルなどである。
 エレベーター5は、かご13を備える。かご13は、昇降路6を鉛直方向に走行することによって複数の階床の間で利用者を輸送する機器である。かご13は、例えば図示されない巻上機が発生させる駆動力によって昇降路6を走行する。かご13は、かごドア14を備える。かごドア14は、かご13がいずれかの階床に停止しているときに利用者が乗降しうるように当該乗場7の乗場ドア10を連動させて開閉する機器である。かご13は、かご機器を備える。かご機器は、かご13の内部に設けられる機器である。かご機器は、かご操作盤15、およびかご表示盤16を含む。かご操作盤15は、かご13の内部における利用者のかご呼びの登録の操作などを受け付ける機器である。かご表示盤16は、エレベーター5の状況などを表示する機器である。エレベーター5の状況は、例えばかご13の位置などの情報を含む。
 交通管理システム1は、エレベーター管理盤17を備える。エレベーター管理盤17は、運行管理部18と、第1通信部19と、を備える。
 運行管理部18は、エレベーター5の運行を管理する部分である。運行管理部18によるエレベーター5の運行の管理は、例えば呼びの登録および登録された呼びに応答するかご13の走行などを含む。
 第1通信部19は、エレベーター管理盤17の外部の機器と通信する部分である。第1通信部19は、例えば運行管理部18からの制御信号など出力しうるようにエレベーター5に接続される。
 建物2は、1以上の利用者に利用される。少なくともいずれかの利用者は、携帯機器20を携帯している。携帯機器20を携帯している利用者は、第1利用者の例である。携帯機器20は、例えば携帯している利用者に画像を表示する可搬な機器などである。この例において、携帯機器20は、利用者の目の位置に装着されるアイウェアである。携帯機器20は、第2通信部21と、表示部22と、読取部23と、視線検出部24と、音声認識部25と、視野カメラ26と、画像認識部27と、を備える。
 第2通信部21は、携帯機器20の外部の機器と通信する部分である。第2通信部21は、無線通信の機能を搭載する。第2通信部21は、例えば電話回線網またはインターネットなどの通信網に接続される。第2通信部21は、例えばRFID(Radio Frequency IDentifier)などの近距離無線通信の機能を搭載していてもよい。第2通信部21は、例えばIEEE 802.11規格またはIEEE 802.15規格などに基づく無線通信の機能を搭載していてもよい。
 表示部22は、携帯している利用者に画像を表示する部分である。画像は、文字を含んでもよい。画像は、静止画または動画のいずれであってもよい。
 読取部23は、利用者の認証情報を読み取る部分である。認証情報は、利用者の認証に用いられる情報である。認証情報は、例えば、利用者の固有の情報である。認証情報は、例えば利用者の生体情報などであってもよい。利用者の生体情報は、例えば利用者の網膜情報または虹彩情報などであってもよい。
 視線検出部24は、携帯機器20を携帯する利用者の視線を検出する部分である。視線検出部24は、例えば可視光カメラ、または赤外線光源および赤外線カメラなどによって利用者の視線を検出する。
 音声認識部25は、携帯機器20を携帯する利用者の音声の音声認識を行う部分である。音声認識部25は、例えば利用者の音声を収音するマイクなどを有する。
 視野カメラ26は、アイウェアである携帯機器20を装着する利用者の前方を撮影するカメラである。視野カメラ26は、利用者の前方に向けられる。視野カメラ26は、例えば利用者の視野を撮影する。
 画像認識部27は、視野カメラ26が撮影する画像の画像認識を行う部分である。
 交通管理システム1は、複数の固定カメラ28と、建物管理盤29と、を備える。各々の固定カメラ28は、建物2の内部の領域に向けて固定して設けられるカメラである。各々の固定カメラ28は、建物2の内部において向けられた領域を撮影する。この例において、各々の階床において、複数の固定カメラ28のうちのいずれか1つ以上が設けられる。各々の固定カメラ28は、撮影した画像を建物管理盤29に出力する。建物管理盤29は、第3通信部30と、混雑情報取得部31と、位置情報取得部32と、経路情報生成部33と、誘導情報生成部34と、認証部35と、関連情報記憶部36と、を備える。
 第3通信部30は、建物管理盤29の外部の機器と通信する部分である。建物管理盤29の外部の機器は、エレベーター管理盤17を含む。第3通信部30は、例えば電話回線網またはインターネットなどの通信網を通じて携帯機器20の第2通信部21と通信する。
 混雑情報取得部31は、建物2における混雑情報を各々の階床について取得する部分である。混雑情報は、建物2の1以上の利用者による混雑の状況を表す情報である。混雑情報は、例えば建物2における混雑度分布などの情報を含む。また、混雑情報は、建物2における階床間移動手段の利用率などの情報を含んでもよい。混雑度は、例えば建物2の領域における利用者の密度などの混雑の指標である。また、建物2において1人のみの利用者がいる場合に、混雑情報は、他の利用者がいないという情報を表す情報であってもよい。また、混雑情報は、個々の利用者の位置または移動速度などの情報を含んでもよい。また、混雑情報は、将来の混雑の状況の予測値の情報を含んでもよい。ここで、将来の混雑の状況の予測値は、例えば個々の利用者の位置および移動速度などの情報に基づいて混雑情報取得部31などによって予測される。
 混雑情報取得部31は、例えば各々の固定カメラ28が撮影する画像の画像認識によって混雑情報を取得する。混雑情報取得部31は、例えば各々の固定カメラ28が撮影する領域を通行する利用者を動体検出などによって検出する。混雑情報取得部31は、検出した利用者の密度などに基づいて混雑情報を取得する。混雑情報取得部31は、例えばエスカレーター4の負荷情報などに基づいてエスカレーター4の利用率を取得する。混雑情報取得部31は、エスカレーター4を撮影する固定カメラ28の画像に基づいてエスカレーター4の利用率を取得してもよい。混雑情報取得部31は、例えば運行管理部18から取得するエレベーター5の運行状況の情報などに基づいてエレベーター5の利用率を取得する。混雑情報取得部31は、エレベーター5の乗場7を撮影する固定カメラ28の画像に基づいてエレベーター5の利用率を取得してもよい。
 位置情報取得部32は、携帯機器20を携帯している利用者の建物2における位置情報を取得する部分である。利用者の位置情報は、利用者が現在いる階床の情報を含む。利用者の位置情報は、利用者が現在いる階床における床面上の位置の情報を含む。利用者の位置情報は、利用者の向きの情報を含んでもよい。
 利用者の位置情報は、例えば当該利用者が携帯する携帯機器20によって検出される。携帯機器20は、例えば衛星航法システム、自律航法システム、もしくは建物2に適用される屋内測位システム、またはこれらのシステムの組み合わせなどに基づいて利用者の位置情報を検出する。携帯機器20は、例えば視野カメラ26が撮影した建物2の内部の画像の画像認識などによって利用者の向きを検出する。携帯機器20は、例えばジャイロセンサなどのセンサを有しているときに、当該センサの検出信号などに基づいて利用者の向きを検出してもよい。携帯機器20が検出した利用者の位置情報は、第2通信部21によって位置情報取得部32の第3通信部30に送信される。位置情報取得部32は、携帯機器20から送信される位置情報を取得する。
 あるいは、利用者の位置情報は、各々の固定カメラ28が撮影する画像の画像認識によって位置情報を取得してもよい。位置情報取得部32は、例えば携帯機器20を携帯して各々の固定カメラ28が撮影する領域を通行する利用者を、動体検出およびトラッキングなどによって追跡する。このとき、位置情報取得部32は、例えば顔認識または歩行パターンによる歩容認識などによって利用者を識別してもよい。位置情報取得部32は、例えば各々の固定カメラ28が撮影する画像における利用者の追跡によって当該利用者の位置情報を取得する。
 経路情報生成部33は、利用者を案内する経路情報を生成する部分である。経路情報は、利用者が現在いる位置から利用者の目的地までの経路の情報を含む。利用者が現在いる階床から他の階床の目的地まで移動するときに、経路情報は、いずれかの階床間移動手段の利用の情報を含む。経路情報生成部33は、利用者の位置情報、利用者の目的情報、利用者が現在いる階床についての混雑情報、および利用者の目的地を含む階床についての混雑情報に基づいて経路情報を生成する。利用者の目的情報は、利用者の目的を表す情報である。目的情報は、例えば利用者の目的地の情報を含む。
 誘導情報生成部34は、経路情報生成部33が生成した経路情報に従って携帯機器20が利用者を誘導する誘導情報を生成する部分である。誘導情報は、利用者が認識しうる例えば画像、文字、または音声などによる情報である。この例において、誘導情報生成部34は、誘導情報として携帯機器20の表示部22が利用者に表示する画像を誘導情報として生成する。誘導情報生成部34が生成する誘導情報は、第3通信部30によって携帯機器20の第2通信部21に送信される。
 認証部35は、携帯機器20を携帯する利用者を認証情報に基づいて認証を行う部分である。認証部35は、例えば予め登録されている認証可能な認証情報との照合などによって認証を行う。認証情報は、携帯機器20の第2通信部21によって第3通信部30に送信される。
 関連情報記憶部36は、携帯機器20を携帯する利用者に関連する関連情報を記憶する部分である。関連情報記憶部36は、関連情報を利用者の認証情報に紐付けて記憶する。これにより、関連情報記憶部36は、利用者の認証情報に基づいて、当該認証情報に紐付けられている関連情報を読出し可能に記憶する。
 図2は、実施の形態1に係る携帯機器20の機能の例を示す図である。
 図2において、利用者の頭部の側方から見た携帯機器20の概略図が示される。
 携帯機器20は、例えばスマートグラス、またはHMD(Head Mounted Display)などのアイウェアである。例えば携帯機器20が装着している利用者の目の前方にディスプレイを有するアイウェアである場合に、画像を表示するディスプレイは、表示部22の例である。
 あるいは、携帯機器20は、例えば装着している利用者の網膜へのレーザーの走査などによって画像を投影することで利用者に画像を表示する網膜投影型のレーザーアイウェアであってもよい。この場合に、利用者の網膜に走査されるレーザーの光源を含む光学系は、表示部22の例である。
 読取部23は、例えば装着している利用者の目より前方に配置される。このとき、読取部23は利用者の目の前方から生体情報を読み取る。あるいは、読取部23は、利用者の目より前方に配置される図示されないミラーなどを通じて利用者の生体情報を読み取ってもよい。この例において、読取部23は利用者の網膜情報を読み取る。
 視線検出部24は、例えば装着している利用者の目より前方に配置される。このとき、視線検出部24は、利用者の目の前方から検出した利用者の眼球の向きなどに基づいて利用者の視線を検出する。あるいは、視線検出部24は、利用者の目より前方に配置される図示されないミラーなどを通じて利用者の視線を検出してもよい。
 視野カメラ26は、装着している利用者の前方に向けて配置される。視野カメラ26は、例えば利用者の両眼の間に配置される。あるいは、視野カメラ26は、利用者の両眼の外側に配置されてもよい。
 続いて、図3を用いて、利用者の認証情報に紐付けられている関連情報の例を説明する。
 図3は、実施の形態1に係る関連情報記憶部36が記憶する関連情報の例を示す図である。
 この例において、関連情報記憶部36は、認証情報として利用者の生体情報に紐付けて関連情報を記憶する。関連情報は、利用者の属性の情報を含む。利用者の属性の情報は、例えば利用者の性別および年齢または年代の情報を含む。関連情報は、利用者が利用する言語を含む。利用者が利用する言語は、例えば利用者が理解できる言語である。関連情報は、複数の階床のうち利用者が利用できる階床の情報を含む。関連情報は、利用者の身体の機能の情報を含む。身体の機能の情報は、例えば利用者の運動機能、または利用者の感覚機能の情報を含む。身体の機能の情報は、例えば利用者の障がいの有無などの情報を含む。身体の機能の情報は、補助器具の利用の有無などの情報を含む。身体の機能の情報は、例えば怪我などによる一時的な身体の機能の変化などの情報を含んでもよい。
 関連情報記憶部36は、関連情報として利用者の考えおよび行動などに関連する情報を記憶してもよい。関連情報は、利用者の趣味または嗜好などの情報を含んでもよい。関連情報は、利用者の健康情報を含んでもよい。健康情報は、例えば利用者の体格の情報、または利用者の活動量の履歴などの情報を含む。関連情報は、利用者の所属情報を含んでもよい。所属情報は、例えば利用者が所属する組織の情報、または利用者が参加するプロジェクトの情報などを含む。関連情報は、利用者のスケジュールの情報を含んでもよい。関連情報は、利用者の勤務場所の情報を含んでもよい。関連情報は、利用者が所属する組織の社内報などの情報を含んでもよい。
 関連情報記憶部36は、交通管理システム1の外部のシステムと連携して利用者に関連する情報を取得してもよい。
 関連情報記憶部36は、1番目の生体情報に紐付けられた関連情報として、例えば性別「男性」、年齢「20歳」、言語「英語」、利用可能階「1階、2階、5階、および7階」、および身体の機能「健常者」などを含む情報を記憶する。
 関連情報記憶部36は、2番目の生体情報に紐付けられた関連情報として、例えば性別「女性」、年齢「30歳」、言語「日本語」、利用可能階「2階、3階、および4階」、および身体の機能「車椅子利用」などを含む情報を記憶する。
 関連情報記憶部36は、3番目の生体情報に紐付けられた関連情報として、例えば性別「女性」、年齢「40歳」、言語「中国語」、利用可能階「5階、および9階」、および身体の機能「ロービジョン」などを含む情報を記憶する。
 続いて、図4から図9を用いて、交通管理システム1の機能の例を説明する。
 図4は、実施の形態1に係る経路情報生成部33が生成する経路情報の例を示す図である。
 図5、および図7から図9は、実施の形態1に係る誘導情報生成部34が生成する誘導情報の例を示す図である。
 図6は、実施の形態1に係る視野カメラ26が撮影する画像の例を示す図である。
 図4の上側において、利用者が現在いる階床の平面図の例が示される。図4の下側において、利用者の目的地を含む階床の平面図の例が示される。
 この例において、利用者は、入退域が管理される領域の内部の目的地まで建物2の内部を移動する。当該領域は、例えば電気錠37によって施錠管理されている部屋である。
 建物管理盤29の混雑情報取得部31は、各々の固定カメラ28が撮影する画像などの情報に基づいて、各々の階床について混雑情報を取得する。
 携帯機器20を携帯する利用者は、アイウェアである携帯機器20を装着している。読取部23は、携帯機器20を装着している利用者の生体情報を読み取る。第2通信部21は、利用者の生体情報を建物管理盤29に送信する。
 建物管理盤29の認証部35は、第3通信部30が携帯機器20から生体情報を受信するときに、当該携帯機器20を携帯している利用者の認証を行う。生体情報に基づいて当該利用者が認証できると認証部35が判定するときに、位置情報取得部32は、利用者の位置情報を取得する。また、経路情報生成部33および誘導情報生成部34は、生体情報に基づいて関連情報記憶部36が記憶している利用者の関連情報を読み込む。既に読み込まれている関連情報の読み込みは、省略されてもよい。
 経路情報生成部33は、利用者の目的情報を取得する。目的情報は、例えば利用者によって携帯機器20を通じて入力される。目的情報の入力は、例えば携帯機器20の音声認識部25を通じて行われる。あるいは、目的情報の入力は、例えば携帯機器20の視線検出部24を通じて行われてもよい。視線検出部24を通じた目的情報の入力は、例えば表示部22によって目的情報の候補が表示されている領域に予め設定された時間より長く継続して視線を向けることなどによって行われる。あるいは、目的情報は、利用者の関連情報に基づいて取得されてもよい。目的情報である目的地は、例えば利用者の勤務場所である。あるいは、目的情報である目的地は、例えば利用者のスケジュールに登録されている会議室の場所であってもよい。ここで、既に取得されている目的情報の取得は、省略されてもよい。また、既に取得されている目的情報は、目的情報の新たな入力などによって更新されてもよい。
 経路情報生成部33は、利用者の位置情報、利用者の目的情報、利用者が現在いる階床の混雑情報、利用者の目的地を含む階床の混雑情報、および利用者の関連情報に基づいて経路情報を生成する。経路情報生成部33は、目的情報に基づいて利用者の目的地を設定する。目的情報が目的地そのものを含む場合に、経路情報生成部33は、当該目的地を利用者の目的地として設定する。利用者が現在いる階床に利用者の目的地がある場合に、経路情報生成部33は、利用者の位置情報、利用者の目的情報、利用者が現在いる階床の混雑情報、および利用者の関連情報に基づいて経路情報を生成する。
 経路情報生成部33は、例えば現在混雑している場所、または混雑が予測される場所などを避けるように経路情報を生成する。利用者が現在いる階床と目的地を含む階床とが異なる場合に、経路情報生成部33は、いずれかの階床間移動手段を選択して当該階床間移動手段を利用する経路情報を生成する。このとき、経路情報生成部33は、例えば混雑している階床間移動手段を避けるように選択してもよい。例えば、エレベーター5が混雑している場合に、経路情報生成部33は、エスカレーター4または階段3を利用する経路情報を生成してもよい。
 また、関連情報が身体の機能「車椅子利用」などを含むときに、経路情報生成部33は、例えば段差の少ない場所を通る経路情報を生成する。このとき、経路情報生成部33は、エレベーター5を利用する経路情報を生成してもよい。
 この例において、経路情報生成部33は、エレベーター5を利用する経路情報を生成する。
 図5において、携帯機器20が表示する誘導情報の例が示される。
 誘導情報生成部34は、経路情報生成部33が生成した経路情報に基づいて誘導情報を生成する。誘導情報生成部34は、例えば経路情報の経路に利用者を誘導する画像を生成する。この例において、誘導情報生成部34は、利用者の位置情報を用いて経路情報の経路に沿う矢印の画像を生成する。第3通信部30は、生成された誘導情報を携帯機器20に送信する。
 携帯機器20の表示部22は、第2通信部21が受信した誘導情報を表示する。例えば表示部22が透過型のディスプレイなどの場合に、表示部22は、利用者の現実の視野の映像に重ねて表示される画像(AR:Argumented Reality)として誘導情報を表示する。例えば表示部22が非透過型のディスプレイなどの場合に、表示部22は、視野カメラ26が撮影する画像に重ねて表示されるAR画像として誘導情報を表示する。あるいは、表示部22は、仮想的に生成された利用者の視野のVR画像(VR:Virtual Reality)として誘導情報を表示してもよい。このとき、視野カメラ26および画像認識部27によって認識された利用者の周辺の状況がVR画像に反映されてもよい。
 携帯機器20を装着している利用者は、表示部22の表示に従って建物2を移動する。その後、利用者は、エレベーター5の乗場7に到着する。
 図6において、視野カメラ26が撮影するエレベーター5の乗場7の画像の例が示される。
 携帯機器20の画像認識部27は、視野カメラ26が撮影する画像の画像認識を行う。画像認識部27は、画像認識によっていずれかの乗場機器を認識する。ここで、画像認識部27は、乗場機器として、例えば乗場操作盤8、乗場表示盤9、乗場ドア10、または三方枠11を認識する。このとき、第2通信部21は、乗場機器が認識されたことを表す認識信号をエレベーター管理盤17に送信する。あるいは、第2通信部21は、画像認識部27が乗場の符号化画像12を認識したときに、符号化画像12が認識されたことを表す認識信号をエレベーター管理盤17に送信してもよい。この例において、認識信号は、建物管理盤29を介してエレベーター管理盤17に送信される。
 エレベーター管理盤17の運行管理部18は、第1通信部19が認識信号を受信するときに利用者がエレベーター5の乗場7に到着したことを検出する。運行管理部18は、利用者の出発階から目的階までの呼びを登録する。利用者の出発階は、利用者が到着した乗場7を含む階床である。利用者の目的階は、例えば利用者の目的地を含む階床、または利用者の目的地までの経路において経由する乗継階などの階床である。出発階および目的階は、例えば認識信号とともに建物管理盤29からエレベーター管理盤17に送信される。運行管理部18は、登録した呼びに応答するようにかご13を走行させる。
 ここで、利用者の目的階は、利用者によって選択されてもよい。利用者が乗場7に到着したときに、携帯機器20の表示部22は、当該利用者の関連情報に登録されている当該利用者が利用できる階床を目的階の候補として表示する。ここで表示される画像は、例えば誘導情報生成部34などによって生成される。利用者は、音声認識部25または視線検出部24などを通じて表示された候補から目的階を選択する。
 かご13の出発階への到着を利用者が待機しているときに、携帯機器20の表示部22は、利用者の関連情報などを表示してもよい。表示部22は、例えば利用者のスケジュールの情報、または利用者の社内報の情報などを表示する。あるいは、表示部22は、コンテンツ情報を表示してもよい。コンテンツ情報は、例えばニュース、天気予報、広告、または建物2の管理情報などであってもよい。ここで表示される情報の画像は、例えば誘導情報生成部34などによって生成される。
 利用者の出発階にかご13が到着するときに、携帯機器20の表示部22は、かご13への乗車を促す画像を表示する。ここで表示される画像は、例えば誘導情報生成部34などによって誘導情報として生成される。
 利用者がかご13に乗車しているときに、携帯機器20の表示部22は、乗場7において待機しているときと同様の表示を行ってもよい。
 図7において、携帯機器20が表示する誘導情報の例が示される。
 かご13が利用者の目的階に予め設定された近さより近づいたときに、誘導情報生成部34は、目的階への到着を示す画像を誘導情報として生成する。誘導情報生成部34は、例えばかご13から利用者の目的階までの距離が予め設定された距離より短くなるときに、当該画像を生成する。この例において、誘導情報生成部34は、かごドア14が開く動作を表すアイコン画像、目的階への到着を通知するメッセージ、および目的階の階床を示すメッセージを含む画像を生成する。ここで、メッセージは、利用者の関連情報として登録されている言語に基づいて生成される。第3通信部30は、生成された誘導情報を携帯機器20に送信する。
 図8において、関連情報として図7に示される場合と他の言語が登録されている場合に携帯機器20が表示する誘導情報の例が示される。
 この例において、誘導情報生成部34は、関連情報の言語によらずに共通のアイコン画像を含む誘導情報を生成する。あるいは、誘導情報生成部34は、関連情報に利用者の文化圏を表す情報が含まれる場合などに、利用者の文化圏に応じたアイコン画像を含む誘導情報を生成してもよい。
 その後、利用者は携帯機器20に表示される表示に従って、目的地まで移動する。利用者が電気錠37によって施錠されているドアを通行するときに、建物管理盤29の認証部35は、生体情報に基づいて利用者が認証可能であることを当該電気錠37に通知する。認証部35からの通知を受けた電気錠37は、ドアの施錠を解除する。これにより、利用者は目的地まで建物2の内部をスムーズに通行できる。
 図9において、緊急事象が発生しているときに携帯機器20が表示する誘導情報の例が示される。
 交通管理システム1は、緊急事象が発生しているときに利用者の避難誘導を行う。ここで、緊急事象は、例えば地震または火災などの建物2において避難を要する事象である。
 緊急事象が発生しているときに、経路情報生成部33は、避難経路および避難タイミングを含む経路情報を生成する。経路情報生成部33は、利用者の目的地を避難場所に設定する。避難場所は、例えば建物2において緊急事象に応じて予め設定される場所である。避難場所が複数ある場合に、経路情報生成部33は、例えば利用者の位置情報、各々の階床の混雑情報、緊急事象が発生した場所の位置情報、および利用者の関連情報などに基づいて避難場所を選択してもよい。経路情報生成部33は、避難場所を利用者の目的地として、避難経路を含む経路情報を生成する。このとき、避難経路は、利用者の関連情報に基づいて生成される。例えば関連情報が身体の機能「車椅子利用」などを含むときに、経路情報生成部33は、段差の少ない場所を通る避難経路を生成する。
 また、経路情報生成部33は、例えば混雑の発生によって移動が困難になる場合などに、利用者ごとに避難タイミングを設定する。避難タイミングは、例えば利用者の位置、各々の階床の混雑情報などに基づいて設定される。避難タイミングは、利用者の関連情報に基づいて設定されてもよい。例えば利用者の関連情報が身体の機能「視覚障がい」などを含み、介助者が当該利用者のもとに向かっている情報を経路情報生成部33が得ている場合に、当該利用者の避難タイミングは、介助者の到着後に設定されてもよい。
 誘導情報生成部34は、経路情報生成部33が生成した経路情報に基づいて誘導情報を生成する。例えば利用者の避難タイミングより前において、誘導情報生成部34は、避難タイミングまで待機することを要請するメッセージを含む画像を誘導情報として生成する。利用者の避難タイミングより後において、誘導情報生成部34は、利用者の位置情報を用いて避難経路に沿う矢印の画像を生成する。第3通信部30は、生成された誘導情報を携帯機器20に送信する。
 携帯機器20の表示部22は、第2通信部21が受信した誘導情報を表示する。避難タイミングを利用者が待機しているときに、携帯機器20の表示部22は、発生している緊急事象の情報、および緊急事象への対応状況の情報などを表示してもよい。ここで表示される情報の画像は、例えば誘導情報生成部34などによって生成される。
 続いて、図10および図11を用いて、交通管理システム1の動作の例を説明する。
 図10および図11は、実施の形態1に係る交通管理システム1の動作の例を示すフローチャートである。
 図10において、通常時における交通管理システム1の動作の例が示される。
 ステップS1において、建物管理盤29の混雑情報取得部31は、各々の階床について混雑情報を取得する。その後、交通管理システム1の動作は、ステップS2に進む。
 ステップS2において、建物管理盤29の認証部35は、認証可能な認証情報が携帯機器20から送信されたかを判定する。第3通信部30が携帯機器20からの認証情報を受信していない場合に、認証部35は、判定結果をNoとする。第3通信部30が携帯機器20から受信した認証情報が認証可能でない場合に、認証部35は、判定結果をNoとする、第3通信部30が携帯機器20から受信した認証情報が認証可能である場合に、認証部35は、判定結果をYesとする。判定結果がYesの場合に、交通管理システム1の動作は、ステップS3に進む。判定結果がNoの場合に、交通管理システム1の動作は、終了する。
 ステップS3において、建物管理盤29の経路情報生成部33および誘導情報生成部34は、認証情報に基づいて関連情報記憶部36から関連情報を読み込む。経路情報生成部33は、利用者の目的情報を取得する。その後、交通管理システム1の動作は、ステップS4に進む。なお、関連情報が既に読み込まれている場合に、ステップS3の動作は省略されてもよい。
 ステップS4において、建物管理盤29の位置情報取得部32は、利用者の位置情報を取得する。その後、交通管理システム1の動作は、ステップS5に進む。
 ステップS5において、建物管理盤29は、利用者の位置情報などに基づいて利用者が目的地に到着したかを判定する。判定結果がNoの場合に、交通管理システム1の動作は、ステップS6に進む。判定結果がYesの場合に、交通管理システム1の動作は、終了する。
 ステップS6において、エレベーター管理盤17の運行管理部18は、携帯機器20から送信される認識信号などに基づいて、エレベーター5を利用する利用者が乗場7に到着したかを判定する。判定結果がYesの場合に、交通管理システム1の動作は、ステップS7に進む。判定結果がNoの場合に、交通管理システム1の動作は、ステップS8に進む。
 ステップS7において、交通管理システム1は、エレベーター5を利用した移動の処理を行う。その後、交通管理システム1の動作は、ステップS8に進む。
 ステップS8において、建物管理盤29の経路情報生成部33は、利用者の位置情報、目的情報、および関連情報、ならびに混雑情報などに基づいて当該利用者を案内する経路情報を生成する。その後、交通管理システム1の動作は、ステップS9に進む。
 ステップS9において、建物管理盤29の誘導情報生成部34は、利用者の関連情報、および経路情報などに基づいて誘導情報を生成する。第3通信部30は、生成された誘導情報を表示部22が表示しうるように携帯機器20に送信する。その後、交通管理システム1の動作は、ステップS1に進む。
 図11において、エレベーター5を利用した移動の処理に係る交通管理システム1の動作の例が示される。
 ステップS71において、エレベーター管理盤17の運行管理部18は、利用者の呼びを登録する。その後、交通管理システム1の動作は、ステップS72に進む。
 ステップS72において、エレベーター管理盤17の運行管理部18は、かご13が利用者の行先階に到着したかを判定する。判定結果がNoの場合に、交通管理システム1の動作は、ステップS73に進む。判定結果がYesの場合に、交通管理システム1の動作は、ステップS74に進む。
 ステップS73において、建物管理盤29の誘導情報生成部34は、乗場7において待機している利用者に表示される画像を生成する。第3通信部30は、生成された画像を表示部22が表示しうるように携帯機器20に送信する。その後、交通管理システム1の動作は、ステップS72に進む。
 ステップS74において、建物管理盤29の誘導情報生成部34は、乗場7において待機している利用者にかご13への乗車を促す誘導情報を生成する。第3通信部30は、生成された誘導情報を表示部22が表示しうるように携帯機器20に送信する。その後、交通管理システム1の動作は、ステップS75に進む。
 ステップS75において、エレベーター管理盤17の運行管理部18は、利用者の目的階に予め設定された近さよりかご13が近づいたかを判定する。判定結果がNoの場合に、交通管理システム1の動作は、ステップS76に進む。判定結果がYesの場合に、交通管理システム1の動作は、ステップS77に進む。
 ステップS76において、建物管理盤29の誘導情報生成部34は、かご13に乗車している利用者に表示される画像を生成する。第3通信部30は、生成された画像を表示部22が表示しうるように携帯機器20に送信する。その後、交通管理システム1の動作は、ステップS75に進む。
 ステップS77において、建物管理盤29の誘導情報生成部34は、かご13に乗車している利用者に目的階への到着を通知する誘導情報を生成する。第3通信部30は、生成された誘導情報を表示部22が表示しうるように携帯機器20に送信する。その後、エレベーター5を利用した移動の処理に係る交通管理システム1の動作は、終了する。
 なお、交通管理システム1が適用される建物2は、オフィスビルに限定されない。建物2は、例えば集合住宅、商業施設、宿泊施設、または公益施設などであってもよい。交通管理システム1において、適用される建物2の種類もしくは規模、または利用者の特性などに応じて構成の組み合わせ、置換、または省略などが本開示の趣旨を逸脱しない範囲で行われてもよい。
 また、携帯機器20は、スマートフォンなどの汎用の情報端末であってもよい。このとき、読取部23は、認証情報として利用者のパスワードなどの情報を読み取ってもよい。また、読取部23は、生体情報として利用者の顔画像情報、声情報、または指紋情報などを読み取ってもよい。携帯機器20が利用者の耳に装着される部分を有するときに、読取部23は、利用者の生体情報として耳音響情報などを読み取ってもよい。画像認識部27は、携帯機器20に設けられるカメラが撮影する画像の画像認識を行ってもよい。携帯機器20は、音声として生成された誘導情報を再生する再生部を備えていてもよい。
 また、交通管理システム1は、複数の固定カメラ28の一部もしくは全部に代えて、または複数の固定カメラ28の一部もしくは全部とともに、利用者の通行量を検出するセンサなどを備えていてもよい。混雑情報取得部31は、建物2に設けられた赤外線センサまたは赤外線カメラなどによって混雑情報を取得してもよい。建物2の利用者の多くが携帯機器20を携帯している場合などに、混雑情報取得部31は、各々の利用者が携帯している携帯機器20の第2通信部21から発信される無線信号の信号強度などに基づいて混雑情報を取得してもよい。信号強度は、例えば建物2に設けられる複数の受信機などによって取得される。あるいは、混雑情報取得部31は、各々の利用者の位置情報に基づいて混雑情報を取得してもよい。
 また、建物2において複数の利用者がいる場合に、経路情報生成部33は、他の利用者について既に経路情報を生成していることがある。当該経路情報は、他者経路情報の例である。このとき、経路情報生成部33は、利用者の経路情報を他の利用者の他者経路情報に基づいて生成してもよい。例えば車椅子の利用者についての他者経路情報がエレベーター5を利用するものである場合に、経路情報生成部33は、健常者の利用者についての経路情報をエスカレーター4または階段3を利用するものとして生成してもよい。経路情報生成部33は、建物2の全体において混雑の発生を避けるように、各々の利用者を交通整理しうるように経路情報を生成してもよい。
 また、利用者がエレベーター5の乗場7に到着したことの検出は、利用者の位置情報に基づいて建物管理盤29の位置情報取得部32などが行ってもよい。あるいは、利用者の乗場7への到着は、携帯機器20の第2通信部21から発信される無線信号を乗場7に設けられる受信機が受信することによって検出されてもよい。
 また、ビル管理盤およびエレベーター管理盤17は、同一のハードウェアであってもよい。誘導情報生成部34は、携帯機器20に設けられてもよい。このとき、建物管理盤29の第3通信部30は、経路情報生成部33が生成した経路情報の一部または全部を携帯機器20に送信する。利用者の関連情報は、当該利用者が携帯する携帯機器20の記憶部に記憶されていてもよい。
 以上に説明したように、実施の形態1に係る交通管理システム1は、携帯機器20と、混雑情報取得部31と、位置情報取得部32と、経路情報生成部33と、誘導情報生成部34と、を備える。携帯機器20は、建物2の1以上の利用者のうちの第1利用者に携帯される。建物2は、複数の階床を有する。混雑情報取得部31は、建物2における1以上の利用者による混雑情報を、複数の階床の各々について取得する。位置情報取得部32は、第1利用者の建物2における位置情報を取得する。経路情報生成部33は、第1利用者の位置情報、第1利用者の目的情報、および第1利用者がいる階床についての混雑情報に基づいて、第1利用者を案内する経路情報を生成する。誘導情報生成部34は、経路情報に従って携帯機器20が第1利用者を誘導する誘導情報を生成する。
 利用者を誘導する誘導情報は、利用者が携帯する携帯機器20に表示される。このため、利用者は、建物2の内部の自由な場所において誘導情報を確認できる。これにより、交通管理システム1は、建物2の内部を移動する利用者をスムーズに誘導できる。また、建物2の内部において階床ごとに混雑などの状況は変わりうる。経路情報生成部33は、階床ごとに取得された混雑情報に基づいて利用者の経路情報を生成するので、建物2の内部における利用者の誘導がより確実になる。
 また、誘導情報生成部34は、携帯機器20が第1利用者に表示することで第1利用者を誘導する画像を誘導情報として生成する。
 また、携帯機器20は、第1利用者の目の位置に装着されるアイウェアである。
 誘導情報が画像として表示されるので、利用者は、直感的に誘導情報を理解しうる。携帯機器20がアイウェアである場合に、利用者は手を使わずに誘導情報を確認できる。これにより、利用情報は、移動しながら誘導情報を確認できる。これにより、建物2の内部における利用者の誘導がよりスムーズになる。また、アイウェアが網膜投影型のレーザーアイウェアなどである場合に、交通管理システム1は、ロービジョンの利用者などにも視覚的な情報として誘導情報を表示しうる。このとき、交通管理システム1が対象とする利用者の範囲は、より広くなる。
 また、携帯機器20は、音声認識部25を有する。音声認識部25は、第1利用者の音声を認識する。携帯機器20は、音声認識部25が認識した音声によって第1利用者の目的情報の入力を受け付ける。
 また、携帯機器20は、視線検出部24を有する。視線検出部24は、第1利用者の視線を検出する。携帯機器20は、視線検出部24が検出した視線によって第1利用者の目的情報の入力を受け付ける。
 利用者は、手を使わずに目的情報を入力できる。このため、利用者の利便性が高くなる。
 また、交通管理システム1は、読取部23と、関連情報記憶部36と、を備える。読取部23は、第1利用者の認証情報を読み取る。読取部23は、例えばアイウェアである携帯機器20に設けられる。このとき、読取部23は、携帯機器20が第1利用者に装着されているときに第1利用者の生体情報を認証情報として読み取る。関連情報記憶部36は、第1利用者に関連する関連情報を読取部23が読み取った認証情報に基づいて読出し可能に記憶する。
 また、誘導情報生成部34は、第1利用者の関連情報に基づいて誘導情報を生成する。
 また、関連情報記憶部36は、第1利用者が利用する言語の情報を関連情報として記憶する。
 また、関連情報記憶部36は、複数の階床のうち第1利用者が利用できる階床の情報を関連情報として記憶する。
 また、関連情報記憶部36は、第1利用者の身体の機能の情報を関連情報として記憶する。
 これにより、利用者が理解できる言語、または利用者の障がいの有無などの各々の利用者の事情に応じた形で誘導情報などの情報が提示される。利用者が提示された誘導情報の内容を把握しやすくなるので、建物2の内部における利用者の誘導がよりスムーズになる。また、携帯機器20がアイウェアなどのウェアラブルデバイスである場合に、読取部23は、認証情報として生体情報を継続的に読み取りうる。このとき、利用者の不正な入れ替わりが防止される。認証情報が建物2の入退管理などとの連携に利用されるときに、建物2のセキュリティが向上する。
 また、経路情報生成部33は、第1利用者の関連情報に基づいて経路情報を生成する。
 これにより、利用者の障がいの有無などの各々の利用者の事情に応じた経路情報に従うように誘導情報が生成される。利用者が実際に移動可能な移動経路への誘導情報が提示されるので、利用者の誘導がよりスムーズになる。
 また、経路情報生成部33は、緊急事象が発生しているときに、第1利用者の関連情報に基づいて第1利用者の避難経路を含む経路情報を生成する。
 また、経路情報生成部33は、緊急事象が発生しているときに、第1利用者の関連情報に基づいて第1利用者の避難タイミングを含む経路情報を生成する。
 これにより、利用者が実際に移動可能な避難経路への誘導情報が提示されるので、利用者の誘導がよりスムーズになる。また、利用者の避難タイミングが各々の利用者の事情に応じて管理されるので、緊急事象が発生しているときの混雑などによる混乱の発生が抑えられる。
 また、建物2において、複数の階床間移動手段が設けられる。経路情報生成部33は、第1利用者の関連情報に基づいて複数の階床間移動手段のうちのいずれかを選択する。経路情報生成部33は、選択した階床間移動手段を利用する経路情報を生成する。
 各々の利用者の事情に応じて、実際に利用可能な階床間移動手段が選択される。これにより、利用者の誘導がよりスムーズになる。
 また、経路情報生成部33は、第1利用者の目的地を含む階床についての混雑情報に基づいて経路情報を生成する。
 建物2の内部において階床ごとに混雑などの状況は変わりうる。利用者が階床間を移動した前後の混雑情報に基づいて経路情報が生成されるので、利用者の誘導がよりスムーズになる。
 また、経路情報生成部33は、他者経路情報を生成している場合に、第1利用者についての経路情報を他者経路情報に基づいて生成する。他者経路情報は、複数の利用者のうち第1利用者の他の利用者を案内する経路情報である。
 これにより、各々の利用者の間の調整を行った経路情報が生成されるので、利用者の誘導がよりスムーズになる。
 また、交通管理システム1は、運行管理部18を備える。運行管理部18は、エレベーター5の乗場7に第1利用者が到着するときに、第1利用者の出発階から目的階までの呼びを登録する。
 また、運行管理部18は、携帯機器20が送信する認識信号によって第1利用者が前記乗場7に到着したことを検出する。認識信号は、乗場7に付される符号化画像12を携帯機器20に設けられるカメラによって携帯機器20が認識するときに送信される。また、エレベーター5の乗場機器を携帯機器20に設けられるカメラによって携帯機器20が認識するときに送信される。
 エレベーター5において、利用者の呼びが自動的に登録されるので、誘導された利用者の移動がよりスムーズになる。また、乗場機器の画像、または乗場7に付される符号化画像12に基づいて乗場7への到着が検出されるので、利用者の自然な移動によって呼びが登録される。符号化画像12は利用者の視覚ではなくカメラが撮影する画像に基づいて認識されればよいので、画像認識しうる範囲で符号化画像12の大きさまたは色彩などに調整の余地がある。このため、符号化画像12による乗場7の意匠への影響が抑えられる。
 また、誘導情報生成部34は、第1利用者の呼びの情報を含む誘導情報を生成する。
 利用者の呼びに応じるかご13の到着などの情報が誘導情報として示されるため、利用者はよりスムーズにエレベーター5を利用できる。これにより、利用者の移動がよりスムーズになる。
 続いて、図12を用いて、交通管理システム1のハードウェア構成の例について説明する。
 図12は、実施の形態1に係る交通管理システム1の主要部のハードウェア構成図である。
 交通管理システム1の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。
 処理回路がプロセッサ100aとメモリ100bとを備える場合、交通管理システム1の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、交通管理システム1の各機能を実現する。
 プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。
 処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。
 交通管理システム1の各機能は、それぞれ処理回路で実現することができる。あるいは、交通管理システム1の各機能は、まとめて処理回路で実現することもできる。交通管理システム1の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで交通管理システム1の各機能を実現する。
 以下で説明する実施の形態の各々において、他の実施の形態で開示される例と相違する点について特に詳しく説明する。以下の実施の形態の各々で説明しない特徴については、他の実施の形態で開示される例のいずれの特徴が採用されてもよい。
 実施の形態2.
 図13は、実施の形態2に係る交通管理システム1の構成図である。
 この例において、交通管理システム1が適用される建物2は、レジデンスなどの集合住宅である。
 交通管理システム1の建物管理盤29は、仮想意匠生成部38を有する。仮想意匠生成部38は、建物2の内部の仮想的な意匠の画像を生成する部分である。仮想意匠生成部38が生成する意匠の画像は、例えば建物2の壁、建具、柱、天井、および床面などの外観の画像を含む。仮想意匠生成部38が生成する意匠の画像は、エレベーター5の乗場機器の外観の画像を含む。仮想意匠生成部38が生成する意匠の画像は、エレベーター5のかご13の内部の意匠の画像を含む。かご13の内部の意匠の画像は、かご13の内部の壁面、天井、および床面の外観、かごドア14の外観、ならびにかご機器の外観の画像を含む。仮想意匠生成部38が生成する仮想的な意匠の画像は、携帯機器20の表示部22が現実の意匠の映像に重ねて表示する画像である。この例において、携帯機器20は、利用者が装着するアイウェアである。仮想的な意匠の画像は、例えばAR画像またはVR画像などである。
 関連情報記憶部36は、利用者が予め選択して登録した意匠の情報を含んでもよい。ここで登録される意匠は、例えば壁面などの色および模様を含む。このとき、仮想意匠生成部38は、利用者の関連情報に基づいて仮想的な意匠を生成する。
 続いて、図14を用いて、交通管理システム1の機能の例を説明する。
 図14は、実施の形態2に係る仮想意匠生成部38が生成する仮想的な意匠の例を示す図である。
 図14において、携帯機器20が表示するかご13の内部の仮想的な意匠の例が示される。
 経路情報生成部33は、例えばアイウェアである携帯機器20を装着している利用者が外出するときに経路情報の生成を開始する。利用者の外出の判定は、例えば利用者による携帯機器20の操作に基づいて行われる。あるいは、利用者の外出の判定は、例えば利用者の位置情報に基づいて行われてもよい。あるいは、利用者の外出の判定は、例えば利用者の居住階の共用部に設けられる固定カメラ28が撮影する画像などに基づいて行われてもよい。経路情報生成部33は、例えば建物2の玄関を利用者の目的地として設定する。
 経路情報生成部33がエレベーター5を利用する経路情報を生成するときに、運行管理部18は、利用者の居住階から玄関階までの呼びを登録する。利用者の居住階は、例えば利用者の住居を含む階床である。
 利用者がかご13に乗車しているときに、当該利用者が装着している携帯機器20は、視野カメラ26および画像認識部27によって当該利用者とともにかご13に同乗している他の利用者を検出する。携帯機器20は、例えば検出された他の利用者との相対位置または検出された他の利用者の輪郭などの情報を仮想意匠生成部38に送信する。
 仮想意匠生成部38は、例えば利用者の位置情報などに基づいて、利用者の周囲の仮想的な意匠の画像を生成する。例えば利用者がかご13に乗車しているときに、仮想意匠生成部38は、かご13の内部の壁面、天井、および床面、かごドア14、ならびにかご機器などについて、仮想的な意匠の画像を個別に生成する。このとき、仮想意匠生成部38は、利用者が装着する携帯機器20から送信された他の利用者の相対位置または輪郭などの情報に基づいて仮想意匠を生成してもよい。仮想意匠生成部38は、例えば他の利用者の実際の映像の前景にかご機器などの画像を重ねたAR画像を生成する。あるいは、仮想意匠生成部38は、他の利用者を表すVR画像を生成してもよい。このとき、仮想意匠生成部38は、例えば他の利用者を表す画像の前景にかご機器などの画像を重ねたVR画像を生成する。この例において、仮想意匠生成部38は、他の利用者の映像にかご操作盤15の画像を重ねた画像を生成する。仮想意匠生成部38は、かご機器を半透明な画像として利用者の映像または画像に重ねた画像を生成してもよい。仮想意匠生成部38は、例えばかご13の内部の壁面、天井、および床面、かごドア14などの仮想的な意匠の画像の前景に他の利用者の映像または画像を重ねた画像を生成する。
 第3通信部30は、仮想意匠生成部38が生成した仮想的な意匠の画像を携帯機器20の第2通信部21に送信する。携帯機器20は、第2通信部21が受信した仮想的な意匠の画像を表示する。携帯機器20は、仮想的な意匠の画像に重ねて誘導情報を表示してもよい。また、携帯機器20は、例えば利用者がかご13に乗車しているときに、仮想的な意匠の画像に重ねてコンテンツ情報を表示してもよい。コンテンツ情報は、例えばニュース、天気予報、広告、または建物2の管理者からの通知などであってもよい。
 その後、利用者は、建物2の外部に外出する。利用者が外出している間、携帯機器20は、例えば加速度センサなどに基づいて利用者の活動量などの情報を取得してもよい。
 その後、経路情報生成部33は、利用者が帰宅するときに経路情報の生成を開始する。利用者の帰宅は、例えば利用者の外出と同様に判定される。経路情報生成部33は、例えば利用者の関連情報として記憶されている利用者の住居の玄関を目的地として設定する。
 経路生成部は、例えば利用者の活動量などに基づいて階床間移動手段を選択する。利用者の活動量は、例えば携帯機器20から建物管理盤29に送信される。あるいは、利用者の活動量は、例えば関連情報に登録されている活動量の履歴などであってもよい。経路生成部は、例えば利用者の活動量が少ない場合に、階床間移動手段として階段3を選択する。
 あるいは、経路生成部は、例えば利用者の荷物の多寡などの状況に基づいて階床間移動手段を選択してもよい。利用者の状況は、例えば玄関などの共用部に設けられる固定カメラ28が撮影する画像などに基づいて判定される。例えば利用者の荷物が多い場合に、経路生成部は、階床間移動手段として貨物運搬用のエレベーター5を選択する。一方、利用者の荷物が少ない場合に、経路生成部は、階床間移動手段として通常のエレベーター5を選択してもよい。
 経路情報生成部33がエレベーター5を利用する経路情報を生成するときに、運行管理部18は、玄関階から利用者の居住階までの呼びを登録する。
 以上に説明したように、実施の形態2に係る交通管理システム1は、仮想意匠生成部38を備える。仮想意匠生成部38は、建物2の内部の仮想的な意匠の画像を生成する。仮想的な意匠の画像は、携帯機器20が第1利用者に表示する。仮想的な意匠の画像は、かご13に第1利用者が乗車しているときに携帯機器20が第1利用者に表示するかご13の内部の画像を含む。
 これにより、各々の利用者の好みなどを反映した建物2の意匠を利用者に表示できる。好みの意匠の空間を仮想的に演出することによって、利用者は、建物2の内部においてより快適に過ごすことができる。また、利用者は、かご13の内部などの閉鎖された空間においても閉塞感などの不快感を覚えにくい意匠を選択できる。
 また、仮想意匠生成部38は、複数の利用者のうち第1利用者とかご13に同乗する他の利用者の映像に、かご13の内部に設けられるかご機器の映像を前景に重ねた画像を生成する。
 これにより、同乗する他の利用者によってかご表示盤16またはかご操作盤15などが隠ぺいされていても、仮想的な意匠の画像によって利用者は表示などを確認できる。これにより、同乗する他の利用者によるエレベーター5の利便性の低下が抑えられる。なお、仮想意匠生成部38は、複数の利用者のうち第1利用者と乗場7に居合わせる他の利用者の映像に、乗場表示盤9または乗場操作盤8などの乗場機器の映像を重ねた前景に画像を生成してもよい。また、かご機器または乗場機器などの仮想的な意匠の画像は、実際のかご機器または乗場機器などの大きさを反映していなくてもよい。かご機器または乗場機器などの仮想的な意匠の画像は、例えば利用者が認識しやすいように実際より大きく表示されるものであってもよい。また、かご機器または乗場機器などの仮想的な意匠の画像は、実際のかご機器または乗場機器などがない場所に表示されてもよい。
 また、かご操作盤15または乗場操作盤8などの利用者の操作を受け付けるかご機器または乗場機器について、仮想的な意匠の画像として表示されている当該かご機器または乗場機器への操作は、例えば携帯機器20を通じて行われてもよい。当該操作は、例えば視線検出部24などを通じて行われる。視線検出部24を通じた操作は、例えば仮想的な意匠の画像においてボタンなどの操作対象の部分が表示されている領域に、予め設定された時間より長く継続して視線を向けることなどによって行われる。このとき、利用者が認識しやすく操作可能なかご機器または乗場機器などが仮想的な意匠の画像として利用者に示されるので、利用者ごとに認識しやすいかご機器および乗場機器などを別途設ける必要がなくなる。これにより、エレベーター5の設置に係るコストが低減される。なお、例えば利用者の多くが実際のかご機器または乗場機器を通じた操作または表示などによらずにエレベーター5を利用できる場合などに、かご機器または乗場機器の一部または全部の設置が省略されてもよい。
 なお、仮想意匠生成部38は、携帯機器20に設けられていてもよい。このとき、仮想的な意匠の画像の通信による通信リソースが節約される。また、通信遅延による仮想的な意匠の表示のずれが抑制される。一方、仮想意匠生成部38が建物管理盤29に設けられている場合に、携帯機器20における情報処理の負荷が低減される。
 実施の形態3.
 図15は、実施の形態3に係る交通管理システム1の構成図である。
 この例において、交通管理システム1が適用される建物2は、商業施設である。商業施設は、例えば複数の店舗などを含む。
 交通管理システム1の建物管理盤29は、情報蓄積部39を有する。情報蓄積部39は、建物2における利用者の行動の情報を蓄積して記憶する部分である。利用者の行動の情報は、例えば利用者の視点情報を含んでもよい。
 図16は、実施の形態3に係る情報蓄積部39が蓄積する視点情報の例を示す図である。
 視点情報は、アイウェアである携帯機器20を装着している利用者が視線を向けている点の情報である。視点情報は、視野カメラ26が撮影する画像を視野画像情報として含む。視点情報は、視線検出部24が検出する利用者の視線が視野画像情報において向けられている点を視線情報として含む。
 携帯機器20は、利用者が建物2に到着するときに、建物管理盤29に認証情報を送信する。このとき、携帯機器20は、建物管理盤29に目的情報を送信してもよい。目的情報は、例えば利用者の音声または視線などに基づいて入力される。目的情報は、例えば利用者の購入目的品などの情報であってもよい。目的情報は、利用者が建物2に到着する前に入力されてもよい。目的情報は、利用者が建物2に滞在している間に更新されてもよい。
 携帯機器20は、商業施設から利用者に貸与されるものであってもよい。このとき、利用者は、商業施設に入館するときに利用者の属性などを含む関連情報を、携帯機器20を通じて入力する。このとき、利用者は、目的情報をあわせて入力してもよい。
 経路情報生成部33は、利用者の目的情報に基づいて目的地を設定する。例えば目的情報が購入目的品である場合に、経路情報生成部33は、購入目的品を取り扱う店舗を目的地として設定する。経路情報生成部33は、利用者の荷物の多寡などの状況に基づいて階床間移動手段を選択してもよい。経路情報生成部33は、ベビーカーの利用の有無などの利用者の同行者の状況に基づいて階床間移動手段を選択してもよい。経路情報生成部33は、ショッピングカートの利用の有無などの利用者の利用状況に基づいて階床間移動手段を選択してもよい。例えば利用者がベビーカーまたはショッピングカートなどを利用しているときに、経路情報生成部33は、階床間移動手段としてエレベーター5を選択する。
 利用者および周囲の他の利用者の移動の妨げにならないときに、携帯機器20は、コンテンツ情報を表示してもよい。携帯機器20は、例えば利用者が停止しているときにコンテンツ情報を表示する。コンテンツ情報は、音声情報であってもよい。コンテンツ情報は、例えば誘導情報生成部34、または仮想意匠生成部38などによって生成される。コンテンツ情報は、例えば広告などであってもよい。このとき、表示される広告は、利用者の属性または嗜好などの関連情報に基づいて選択されてもよい。
 携帯機器20の画像認識部27は、視野カメラ26の画像に基づいて利用者が手に取った商品を検出してもよい。このとき、携帯機器20は、検出した商品の情報を建物管理盤29に送信する。建物管理盤29の誘導情報生成部34などは、検出された商品または当該商品の関連商品の広告を含むコンテンツ情報を生成してもよい。また、携帯機器20の画像認識部27は、利用者が手に取った後購入に至らなかった商品を検出してもよい。このとき、携帯機器20の表示部22は、例えば予め設定された時間が経過した後に、当該商品の広告を含むコンテンツ情報を再度表示してもよい。
 利用者が建物2に滞在している間に、携帯機器20の例えば視野カメラ26、視線検出部24、および画像認識部27は、視点情報を生成する。視点情報は、利用者が手に取った商品の検出の結果を含んでもよい。携帯機器20は、生成した視点情報を建物管理盤29に送信する。建物管理盤29は、受信した視点情報を情報蓄積部39に蓄積して記憶する。建物管理盤29の誘導情報生成部34などは、情報蓄積部39に蓄積された情報に基づいてコンテンツ情報などを生成してもよい。
 なお、情報蓄積部39に蓄積される利用者の行動の情報は、視点情報に限定されない。利用者の行動の情報は、例えば利用者が移動した経路の履歴を含んでもよい。視点情報を取得しない場合に、携帯機器20は、例えば腕などに装着するウェアラブルデバイスまたはスマートフォンなどのアイウェア以外の機器であってもよい。
 以上に説明したように、実施の形態3に係る交通管理システム1は、情報蓄積部39を備える。情報蓄積部39は、視点情報を蓄積する。視点情報は、視野画像情報および視線情報を含む。視野画像情報は、視野カメラ26が撮影する画像の情報である。視野カメラ26は、携帯機器20に設けられる。視野カメラ26は、第1利用者の前方に向けられる。視線情報は、視線検出部24が検出する第1利用者の視線の情報である。視線検出部24は、携帯機器20に設けられる。
 視点情報は、利用者の関心の対象を反映しうる情報である。このため、視点情報は、利用者に対する広告の選択などに利用しうる価値のある情報である。利用者の移動を案内する携帯機器20によって視点情報が収集されるので、交通管理システム1は、利用者に便益を提供しながら視点情報を蓄積できる。交通管理システム1は、蓄積された視点情報などによって、例えば商業施設の所有者または管理者などへのテナントのレイアウトの提案などに利用できる。また、交通管理システム1は、蓄積された視点情報などによって、例えば商業施設のテナントまたは商業施設で扱われる商品のメーカーなどへの利用者の関心の高い商品の情報の提供などに利用できる。情報蓄積部39に蓄積された情報は、個々の利用者が特定されないように加工された上で、ビッグデータなどとして取引の対象とされてもよい。情報蓄積部39に蓄積された情報は、例えば情報銀行などに預託されてもよい。
 なお、情報蓄積部39は、携帯機器20に設けられていてもよい。このとき、情報蓄積部39に蓄積する情報の通信による通信リソースが節約される。また、利用者が携帯機器20の所有者である場合などに、利用者は情報蓄積部39に蓄積された情報を自身で管理できる。利用者は、蓄積された情報を例えば情報銀行に預託することなどによって、情報の提供による対価を直接受けてもよい。
 実施の形態4.
 図17は、実施の形態4に係る交通管理システム1の構成図である。
 この例において、交通管理システム1が適用される建物2は、ホテルなどの宿泊施設である。
 エレベーター5は、複数のかご13を備える。エレベーター5の乗場7において、複数の乗場ドア10が設けられる。各々の乗場ドア10は、いずれかのかご13に対応する。かご13がいずれかの階床に停止するときに、当該階床の乗場7の当該かご13に対応する乗場ドア10は、当該かご13のかごドア14の開閉に連動して開閉する。エレベーター管理盤17において、運行管理部18は、例えばエレベーター5の運行効率などに基づいて、利用者の呼びを複数のかご13のいずれかに割り当てる。
 続いて、図18および図19を用いて、交通管理システム1の機能の例を説明する。
 図18は、実施の形態4に係る乗場7の平面図である。
 図19は、実施の形態4に係る誘導情報生成部34が生成する誘導情報の例を示す図である。
 図18において、携帯機器20を携帯して乗場7においてかご13の到着を待機している利用者が示される。この例において、エレベーター5は、A号機からF号機までの6つのかご13を備える。運行管理部18は、利用者の呼びをF号機に割り当てている。F号機に呼びが割り当てられたことに気づいていない利用者は、B号機に対応する乗場ドア10を向いて待機している。このとき、利用者は、F号機に対応する乗場ドア10に背を向けている。この場合に、利用者がF号機の到着に気づかなければ、利用者はかご13への乗車に時間を要する可能性がある。このため、誘導情報生成部34は、利用者の呼びが割り当てられたかご13を特定する情報を含む誘導情報を生成する。利用者の呼びが割り当てられたかご13の情報は、例えば運行管理部18から誘導情報生成部34に提供される。
 図19において、携帯機器20が表示する誘導情報の例が示される。
 この例において、誘導情報生成部34は、利用者の呼びが割り当てられたかご13を特定する情報として、例えば「F号機」などの当該かご13の番号を含む誘導情報を生成する。また、誘導情報生成部34は、呼びが割り当てられたかご13の利用者から見た方向を示す矢印などの画像を含む誘導情報を生成する。第3通信部30は、生成された誘導情報を携帯機器20に送信する。携帯機器20の表示部22は、第2通信部21が受信した誘導情報を表示する。
 利用者の目的地は、例えば利用者が宿泊する部屋などである。利用者が宿泊する部屋は、例えばチェックイン時に入力される。あるいは、宿泊する部屋に対応する携帯機器20が利用者に例えばチェックイン時に貸与されてもよい。携帯機器20の表示部22は、例えば利用者がエレベーター5の乗場7で待機しているときまたはかご13に乗車しているときなどに、利用者にコンテンツ情報を表示してもよい。コンテンツ情報は、宿泊施設の施設情報、施設の利用上の注意情報、または施設の周辺の観光情報などを含んでもよい。ここで表示されるコンテンツ情報によって、各部屋において書面によって提示されていた資料が代替されてもよい。また、携帯機器20の読取部23が読み取った認証情報に基づいて、利用者が宿泊する部屋の電気錠37の開錠などが行われてもよい。
 以上に説明したように、実施の形態4に係る交通管理システム1において、運行管理部18は、複数のかご13のいずれかに第1利用者の呼びを割り当てる。誘導情報生成部34は、第1利用者の呼びが割り当てられたかご13を特定する情報を含む誘導情報を生成する。
 また、誘導情報生成部34は、第1利用者の呼びが割り当てられたかご13の方向を含む誘導情報を生成する。当該かご13の方向は、乗場7にいる第1利用者から見た方向である。
 利用者の呼びが割り当てられたかご13を特定する情報が誘導情報として示されるため、利用者はよりスムーズにエレベーター5を利用できる。また、利用者から見た当該かご13の方向が誘導情報として示されるため、利用者は当該かご13をより認識しやすくなる。これにより、利用者の移動がよりスムーズになる。
 実施の形態5.
 図20は、実施の形態5に係る交通管理システム1の構成図である。
 この例において、交通管理システム1が適用される建物2は、公益施設である。
 エレベーター5のかご13は、2つのかごドア14を有する。一方のかごドア14は、かご13の前面に配置される。他方のかごドア14は、かご13の後面に配置される。複数の階床の一部において、かご13の前面側に乗場7が設けられる。複数の階床の他の一部において、かご13の後面側に乗場7が設けられる。かご13がいずれかの階床に停止するときに、当該階床の乗場7が設けられる側のかごドア14が開閉する。
 図21は、実施の形態5に係るかご13に乗車する利用者を示す図である。
 利用者の出発階において、かご13の前面側に乗場7が設けられる。また、利用者の目的階において、かご13の後面側に乗場7が設けられる。出発階と目的階とで開閉するかごドア14が異なることに気づいていない利用者は、目的階において開閉する後面側のかごドア14に背を向けている。この場合に、利用者はかご13からの乗車に時間を要する可能性がある。このため、誘導情報生成部34は、利用者の目的階において開閉するかごドア14を示す情報を含む誘導情報を生成する。
 続いて、図22を用いて、交通管理システム1の機能の例を説明する。
 図22は、実施の形態5に係る誘導情報生成部34が生成する誘導情報の例を示す図である。
 図22において、携帯機器20が表示する誘導情報の例が示される。
 この例において、誘導情報生成部34は、利用者の目的階において開閉するかごドア14を示すメッセージを含む誘導情報を生成する。また、誘導情報生成部34は、目的階において開閉するかごドア14の利用者から見た方向を示す矢印などの画像を含む誘導情報を生成する。第3通信部30は、生成された誘導情報を携帯機器20に送信する。携帯機器20の表示部22は、第2通信部21が受信した誘導情報を表示する。
 以上に説明したように、実施の形態5に係る交通管理システム1において、誘導情報生成部34は、複数のかごドア14を有するかご13に第1利用者が乗車しているときに、第1利用者の目的階において開くかごドア14の方向を含む誘導情報を生成する。当該かごドア14の方向は、かご13に乗車している第1利用者から見た方向である。
 目的階において開閉するかごドア14の利用者から見た方向が誘導情報として示されるため、利用者は当該かごドア14をより認識しやすくなる。これにより、利用者の移動がよりスムーズになる。
 本開示に係る交通管理システムは、複数の階床を有する建物に適用できる。
 1 交通管理システム、 2 建物、 3 階段、 4 エスカレーター、 5 エレベーター、 6 昇降路、 7 乗場、 8 乗場操作盤、 9 乗場表示盤、 10 乗場ドア、 11 三方枠、 12 符号化画像、 13 かご、 14 かごドア、 15 かご操作盤、 16 かご表示盤、 17 エレベーター管理盤、 18 運行管理部、 19 第1通信部、 20 携帯機器、 21 第2通信部、 22 表示部、 23 読取部、 24 視線検出部、 25 音声認識部、 26 視野カメラ、 27 画像認識部、 28 固定カメラ、 29 建物管理盤、 30 第3通信部、 31 混雑情報取得部、 32 位置情報取得部、 33 経路情報生成部、 34 誘導情報生成部、 35 認証部、 36 関連情報記憶部、 37 電気錠、 38 仮想意匠生成部、 39 情報蓄積部、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア

Claims (32)

  1.  複数の階床を有する建物における1以上の利用者による混雑情報を、前記複数の階床の各々について取得する混雑情報取得部と、
     前記1以上の利用者のうち携帯機器を携帯する第1利用者の前記建物における位置情報を取得する位置情報取得部と、
     前記位置情報取得部が取得した前記第1利用者の前記位置情報、前記第1利用者の目的情報、および前記複数の階床のうち前記第1利用者がいる階床について前記混雑情報取得部が取得した前記混雑情報に基づいて、前記第1利用者を案内する経路情報を生成する経路情報生成部と、
     前記経路情報生成部が生成した前記経路情報に従って前記携帯機器が前記第1利用者を誘導する誘導情報を生成する誘導情報生成部と、
     を備える建物の交通管理システム。
  2.  前記誘導情報生成部は、前記携帯機器が前記第1利用者に表示することで前記第1利用者を誘導する画像を前記誘導情報として生成する
     請求項1に記載の建物の交通管理システム。
  3.  前記誘導情報生成部は、前記第1利用者の目の位置に装着されるアイウェアである前記携帯機器が表示する画像を前記誘導情報として生成する
     請求項2に記載の建物の交通管理システム。
  4.  複数の階床を有する建物の1以上の利用者のうちの第1利用者に携帯される携帯機器と、
     前記建物における前記1以上の利用者による混雑情報を、前記複数の階床の各々について取得する混雑情報取得部と、
     前記第1利用者の前記建物における位置情報を取得する位置情報取得部と、
     前記位置情報取得部が取得した前記第1利用者の前記位置情報、前記第1利用者の目的情報、および前記複数の階床のうち前記第1利用者がいる階床について前記混雑情報取得部が取得した前記混雑情報に基づいて、前記第1利用者を案内する経路情報を生成する経路情報生成部と、
     前記経路情報生成部が生成した前記経路情報に従って前記携帯機器が前記第1利用者を誘導する誘導情報を生成する誘導情報生成部と、
     を備える建物の交通管理システム。
  5.  前記誘導情報生成部は、前記携帯機器が前記第1利用者に表示することで前記第1利用者を誘導する画像を前記誘導情報として生成する
     請求項4に記載の建物の交通管理システム。
  6.  前記携帯機器は、前記第1利用者の目の位置に装着され、前記誘導情報として生成された画像を前記第1利用者に表示するアイウェアである
     請求項5に記載の建物の交通管理システム。
  7.  前記携帯機器は、前記第1利用者の音声を認識する音声認識部を有し、前記音声認識部が認識した音声によって前記第1利用者の前記目的情報の入力を受け付ける
     請求項6に記載の建物の交通管理システム。
  8.  前記携帯機器は、前記第1利用者の視線を検出する視線検出部を有し、前記視線検出部が検出した視線によって前記第1利用者の前記目的情報の入力を受け付ける
     請求項6に記載の建物の交通管理システム。
  9.  前記携帯機器に設けられ、前記第1利用者に装着されているときに前記第1利用者の生体情報を読み取る読取部と、
     前記第1利用者に関連する関連情報を、前記読取部が読み取った前記生体情報に基づいて読出し可能に記憶する関連情報記憶部と、
     を備える請求項6から請求項8のいずれか一項に記載の建物の交通管理システム。
  10.  前記第1利用者の認証情報を読み取る読取部と、
     前記第1利用者に関連する関連情報を、前記読取部が読み取った前記認証情報に基づいて読出し可能に記憶する関連情報記憶部と、
     を備える請求項1から請求項8のいずれか一項に記載の建物の交通管理システム。
  11.  前記関連情報記憶部は、前記第1利用者が利用する言語の情報を前記関連情報として記憶する
     請求項9または請求項10に記載の建物の交通管理システム。
  12.  前記関連情報記憶部は、前記複数の階床のうち前記第1利用者が利用できる階床の情報を関連情報として記憶する
     請求項9から請求項11のいずれか一項に記載の建物の交通管理システム。
  13.  前記関連情報記憶部は、前記第1利用者の身体の機能の情報を前記関連情報として記憶する
     請求項9から請求項12のいずれか一項に記載の建物の交通管理システム。
  14.  前記経路情報生成部は、前記第1利用者の前記関連情報に基づいて前記経路情報を生成する
     請求項9から請求項13のいずれか一項に記載の建物の交通管理システム。
  15.  前記経路情報生成部は、緊急事象が発生しているときに、前記第1利用者の前記関連情報に基づいて前記第1利用者の避難経路を含む前記経路情報を生成する
     請求項9から請求項14のいずれか一項に記載の建物の交通管理システム。
  16.  前記経路情報生成部は、緊急事象が発生しているときに、前記第1利用者の前記関連情報に基づいて前記第1利用者の避難タイミングを含む前記経路情報を生成する
     請求項9から請求項15のいずれか一項に記載の建物の交通管理システム。
  17.  前記経路情報生成部は、前記第1利用者の前記関連情報に基づいて前記建物に設けられる複数の階床間移動手段のうちのいずれかを選択し、選択した階床間移動手段を利用する前記経路情報を生成する
     請求項9から請求項16のいずれか一項に記載の建物の交通管理システム。
  18.  前記誘導情報生成部は、前記第1利用者の前記関連情報に基づいて前記誘導情報を生成する
     請求項9から請求項17のいずれか一項に記載の建物の交通管理システム。
  19.  前記経路情報生成部は、前記複数の階床のうち前記第1利用者の目的地を含む階床について前記混雑情報取得部が取得した混雑情報に基づいて前記経路情報を生成する
     請求項1から請求項18のいずれか一項に記載の建物の交通管理システム。
  20.  前記1以上の利用者として複数の利用者が前記建物にいるときに、前記経路情報生成部は、前記複数の利用者のうち前記第1利用者の他の利用者を案内する他者経路情報を生成している場合に、前記第1利用者についての前記経路情報を前記他者経路情報に基づいて生成する
     請求項1から請求項19のいずれか一項に記載の建物の交通管理システム。
  21.  前記建物に設けられるエレベーターの乗場に前記第1利用者が到着するときに、前記第1利用者の出発階から目的階までの呼びを登録する運行管理部
     を備える請求項1から請求項20のいずれか一項に記載の建物の交通管理システム。
  22.  前記運行管理部は、前記乗場に付される符号化画像を前記携帯機器に設けられるカメラによって前記携帯機器が認識するときに前記携帯機器が送信する認識信号によって前記第1利用者が前記乗場に到着したことを検出する
     請求項21に記載の建物の交通管理システム。
  23.  前記運行管理部は、前記エレベーターの乗場機器を前記携帯機器に設けられるカメラによって前記携帯機器が認識するときに前記携帯機器が送信する認識信号によって前記第1利用者が前記乗場に到着したことを検出する
     請求項21または請求項22に記載の建物の交通管理システム。
  24.  前記誘導情報生成部は、前記第1利用者の呼びの情報を含む前記誘導情報を生成する
     請求項21から請求項23のいずれか一項に記載の建物の交通管理システム。
  25.  前記運行管理部は、前記エレベーターが有する複数のかごのいずれかに前記第1利用者の呼びを割り当て、
     前記誘導情報生成部は、前記第1利用者の呼びが割り当てられたかごを特定する情報を含む前記誘導情報を生成する
     請求項24に記載の建物の交通管理システム。
  26.  前記誘導情報生成部は、前記乗場にいる前記第1利用者から見た前記第1利用者の呼びが割り当てられたかごの方向を含む前記誘導情報を生成する
     請求項25に記載の建物の交通管理システム。
  27.  前記誘導情報生成部は、前記エレベーターにおいて複数のかごドアを有するかごに前記第1利用者が乗車しているときに、前記複数のかごドアのうち前記第1利用者の目的階において開くかごドアの前記第1利用者から見た方向を含む前記誘導情報を生成する
     請求項21から請求項26のいずれか一項に記載の建物の交通管理システム。
  28.  前記携帯機器が前記第1利用者に表示する前記建物の内部の仮想的な意匠の画像を生成する仮想意匠生成部
     を備える請求項3または請求項6に記載の建物の交通管理システム。
  29.  前記1以上の利用者として複数の利用者が前記建物にいるときに、前記仮想意匠生成部は、前記複数の利用者のうち前記第1利用者と前記建物に設けられるエレベーターの乗場に居合わせる利用者の映像または画像に、前記乗場に設けられる乗場機器の画像を前景に重ねた画像を生成する
     請求項28に記載の建物の交通管理システム。
  30.  前記仮想意匠生成部は、前記建物に設けられるエレベーターのかごに前記第1利用者が乗車しているときに前記携帯機器が前記第1利用者に表示する前記かごの内部の仮想的な意匠の画像を生成する
     請求項28または請求項29に記載の建物の交通管理システム。
  31.  前記1以上の利用者として複数の利用者が前記建物にいるときに、前記仮想意匠生成部は、前記複数の利用者のうち前記第1利用者と前記かごに同乗する利用者の映像または画像に前記かごの内部に設けられるかご機器の画像を前景に重ねた画像を生成する
     請求項30に記載の建物の交通管理システム。
  32.  前記携帯機器に設けられ前記第1利用者の前方に向けられる視野カメラが撮影する視野画像情報、および前記携帯機器に設けられ前記第1利用者の視線を検出する視線検出部が検出する視線情報を含む視点情報を蓄積する情報蓄積部
     を備える請求項3または請求項6に記載の建物の交通管理システム。
PCT/JP2020/022138 2020-06-04 2020-06-04 建物の交通管理システム WO2021245886A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/022138 WO2021245886A1 (ja) 2020-06-04 2020-06-04 建物の交通管理システム
JP2022529256A JP7294538B2 (ja) 2020-06-04 2020-06-04 建物の交通管理システム
CN202080101375.0A CN115698632A (zh) 2020-06-04 2020-06-04 建筑物的交通管理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/022138 WO2021245886A1 (ja) 2020-06-04 2020-06-04 建物の交通管理システム

Publications (1)

Publication Number Publication Date
WO2021245886A1 true WO2021245886A1 (ja) 2021-12-09

Family

ID=78830284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022138 WO2021245886A1 (ja) 2020-06-04 2020-06-04 建物の交通管理システム

Country Status (3)

Country Link
JP (1) JP7294538B2 (ja)
CN (1) CN115698632A (ja)
WO (1) WO2021245886A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416316B1 (ja) 2023-06-07 2024-01-17 三菱電機ビルソリューションズ株式会社 エレベーターシステム
JP7562890B1 (ja) 2024-01-30 2024-10-07 東芝エレベータ株式会社 乗客コンベアの利用管理装置および乗客コンベアの利用管理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102683056B1 (ko) * 2023-09-05 2024-07-09 한국공항공사 공항에서의 트래픽 관리 방법 및 장치

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002286491A (ja) * 2001-03-22 2002-10-03 Kokusai Kogyo Co Ltd 携帯用ナビゲーションシステム
JP2011007696A (ja) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd 経路探索装置、経路探索システムおよび経路探索プログラム
JP2011242881A (ja) * 2010-05-14 2011-12-01 Chugoku Electric Power Co Inc:The 避難誘導方法、及びこの方法に用いる情報処理システム
JP2013513804A (ja) * 2009-12-09 2013-04-22 クアルコム,インコーポレイテッド 屋内ナビゲーション環境で命令を低減するための方法および装置
JP2015225025A (ja) * 2014-05-29 2015-12-14 株式会社日立システムズ 眼鏡型のウェアラブル端末および該ウェアラブル端末を使用する建屋内行先誘導システム
WO2015194017A1 (ja) * 2014-06-19 2015-12-23 日立マクセル株式会社 ウェアラブル装置および認証方法
WO2016117061A1 (ja) * 2015-01-22 2016-07-28 株式会社野村総合研究所 ウェアラブル端末およびそれを用いた情報処理システム
JP2017026568A (ja) * 2015-07-28 2017-02-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2018195099A1 (en) * 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
JP2019516949A (ja) * 2016-05-19 2019-06-20 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 屋内ナビゲーションのための方法、装置及びシステム
WO2019181153A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
WO2019234899A1 (ja) * 2018-06-07 2019-12-12 三菱電機株式会社 機器制御システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102712440B (zh) * 2009-11-06 2015-03-11 三菱电机株式会社 电梯的呼梯登记装置
WO2016042617A1 (ja) * 2014-09-17 2016-03-24 三菱電機株式会社 エレベーターシステム
JP2016108097A (ja) * 2014-12-08 2016-06-20 三菱電機株式会社 エレベーターシステム
WO2017009995A1 (ja) * 2015-07-16 2017-01-19 三菱電機株式会社 エレベーターの行先呼び登録システムおよびその方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002286491A (ja) * 2001-03-22 2002-10-03 Kokusai Kogyo Co Ltd 携帯用ナビゲーションシステム
JP2011007696A (ja) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd 経路探索装置、経路探索システムおよび経路探索プログラム
JP2013513804A (ja) * 2009-12-09 2013-04-22 クアルコム,インコーポレイテッド 屋内ナビゲーション環境で命令を低減するための方法および装置
JP2011242881A (ja) * 2010-05-14 2011-12-01 Chugoku Electric Power Co Inc:The 避難誘導方法、及びこの方法に用いる情報処理システム
JP2015225025A (ja) * 2014-05-29 2015-12-14 株式会社日立システムズ 眼鏡型のウェアラブル端末および該ウェアラブル端末を使用する建屋内行先誘導システム
WO2015194017A1 (ja) * 2014-06-19 2015-12-23 日立マクセル株式会社 ウェアラブル装置および認証方法
WO2016117061A1 (ja) * 2015-01-22 2016-07-28 株式会社野村総合研究所 ウェアラブル端末およびそれを用いた情報処理システム
JP2017026568A (ja) * 2015-07-28 2017-02-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019516949A (ja) * 2016-05-19 2019-06-20 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 屋内ナビゲーションのための方法、装置及びシステム
WO2018195099A1 (en) * 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
WO2019181153A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
WO2019234899A1 (ja) * 2018-06-07 2019-12-12 三菱電機株式会社 機器制御システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416316B1 (ja) 2023-06-07 2024-01-17 三菱電機ビルソリューションズ株式会社 エレベーターシステム
JP7562890B1 (ja) 2024-01-30 2024-10-07 東芝エレベータ株式会社 乗客コンベアの利用管理装置および乗客コンベアの利用管理方法

Also Published As

Publication number Publication date
CN115698632A (zh) 2023-02-03
JP7294538B2 (ja) 2023-06-20
JPWO2021245886A1 (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
WO2021245886A1 (ja) 建物の交通管理システム
JP6619760B2 (ja) エレベーター装置、エレベーターシステム、および、自律ロボットの制御方法
US9079749B2 (en) Simple node transportation system and node controller and vehicle controller therein
RU2527883C2 (ru) Способ управления системой подъёмного оборудования
EP3287872A1 (en) System and method for distant gesture-based control using a network of sensors across the building
TW201532940A (zh) 電梯控制系統
US20130277153A1 (en) Conveying system
JP6927867B2 (ja) エレベーターシステム
EP3453665A1 (en) Dynamic information display for building occupants
KR20180137549A (ko) 엘리베이터 시스템 및 카 호출 추정 방법
JP6180682B1 (ja) セキュリティゲートおよびエレベータシステム
US20220189227A1 (en) Smart Airport and Cabin System to Avoid Touch Points and Maintain Social Distancing
TW202039284A (zh) 利用自動駕駛車輛之使用者載送系統
KR101947570B1 (ko) 사용자 맞춤 동작을 수행하는 승강 시스템
WO2022153899A1 (ja) 案内システム
JPWO2021245886A5 (ja)
JP5596423B2 (ja) エレベータ制御システム
JP2020038608A (ja) 情報処理装置及び情報処理方法
JP2003226474A (ja) エレベータシステム
JP5804958B2 (ja) 避難弱者優先救出機能付きエレベータ
EP3800151B1 (en) Elevator system
JP6068691B1 (ja) エレベータの運行管理システム及び運行管理方法
US12131640B2 (en) Boarding and alighting time informing method
JP6719357B2 (ja) エレベータシステム
WO2023068737A1 (ko) 인공지능 기반의 서비스 로봇

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20938633

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022529256

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20938633

Country of ref document: EP

Kind code of ref document: A1