WO2018092865A1 - Networked robot device - Google Patents
Networked robot device Download PDFInfo
- Publication number
- WO2018092865A1 WO2018092865A1 PCT/JP2017/041382 JP2017041382W WO2018092865A1 WO 2018092865 A1 WO2018092865 A1 WO 2018092865A1 JP 2017041382 W JP2017041382 W JP 2017041382W WO 2018092865 A1 WO2018092865 A1 WO 2018092865A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- voice
- identifier
- storage unit
- user
- product
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
Definitions
- the present invention relates to a network robot apparatus, and more particularly to a network robot apparatus capable of communicating with an external apparatus through a computer network.
- robot means a device that has a certain character and a processor that realizes various functions.
- Non-Patent Document 1 a flow of inputting necessary information is performed (for example, Non-Patent Document 1).
- a user who wants to purchase a product at a shopping site is required to perform a complicated input operation on the computer.
- a robot that supports consumers with some inconvenience like this one is expected to be widely accepted and utilized by them.
- the present invention has an object to make it possible to spread a high-performance robot widely to consumers.
- the present invention adopts the following configuration. That is, in a network robot apparatus provided with a control unit that realizes various functions, a communication unit that communicates with an external function on the Internet, information for internal processing of the network robot apparatus, and information for external processing passed to the external function And a storage unit for storing.
- the control unit realizes the function of the apparatus main body by reading and processing the information for internal processing from the storage unit, and reads the information for external processing from the storage unit and transmits it to the external function through the communication unit. Make external functions work.
- a high-performance robot can be widely spread to consumers.
- FIG. 1 is an external configuration diagram showing an embodiment of the present invention.
- FIG. 2 is a block diagram of the apparatus main body of the shopping support apparatus shown in FIG.
- FIG. 3 is a structural diagram of data stored in the storage unit of FIG.
- FIG. 4 is a configuration diagram in which a part of a leaflet (product catalog) is omitted.
- FIG. 5 is a flowchart of shopping processing executed by the apparatus main body of FIG.
- FIG. 6 is a flowchart of taxi dispatch processing executed by the apparatus main body of FIG. 7 is a flowchart of hometown tax payment processing executed by the apparatus main body of FIG.
- FIG. 8 is a flowchart of tactile switch response processing executed by the apparatus main body of FIG.
- FIG. 9 is an overall configuration diagram of a shopping support system including the shopping support apparatus of FIG.
- FIG. 10 is a block diagram of a transaction support system included in the shopping support system of FIG. 11 is a structural diagram of data stored in the storage unit of the transaction support system shown in FIG.
- FIG. 12 is a block diagram of a catalog generation apparatus that uses the data shown in FIG.
- FIG. 13 is a diagram for explaining the operation of the generation apparatus shown in FIG.
- FIG. 14 is a block diagram of an audio data generation apparatus that uses the data shown in FIG.
- FIG. 15 is a diagram for explaining the operation of the generation apparatus shown in FIG.
- FIG. 16 is an overall configuration diagram of an information processing system including the network robot apparatus of the present invention.
- FIG. 17 is an overall system configuration diagram including the system of FIG. 16.
- FIG. 1 shows an embodiment of a shopping support apparatus as a network robot apparatus.
- the shopping support apparatus of the present embodiment is wrapped in a character exterior 1 and includes a connection part for a numeric keypad 2 and a connection part for a card reader 3.
- tactile switches 11 are built in both hands and nose of the character exterior 1, respectively.
- the character exterior 1 is an exterior exhibiting the appearance of a character such as a human being or an animal.
- the appearance of a monkey is exhibited.
- the appearance may be various character appearances. Although it is desirable for the appearance to be familiar to the user, it is not limited thereto.
- the material for example, a material used for a stuffed animal can be adopted.
- the numeric keypad 2 is not necessarily limited to only numeric keys, but includes function keys that allow one key to input special instructions. Since a small keyboard with the minimum number of keys is preferable, it is called a numeric keypad in the present application.
- the card reader 3 is a device that reads information from a card or the like possessed by the user, and may read information from an IC chip or read information from a magnetic stripe.
- the user can shop by operating the numeric keypad 2 according to the voice uttered from the character exterior 1 and by causing the card reader 3 to read a card or the like.
- a card a credit card, an electronic money card, a point card or a my number card in a supermarket or a shopping street, or a portable terminal equipped with an IC chip that functions in the same manner as these cards can be used.
- the tactile switch 11 is a switch for reproducing a sound corresponding to a pressed part when the user presses the hand or nose of the character exterior 1.
- FIG. 2 is a block configuration diagram of the apparatus main body built in the character exterior 1.
- the tactile switch 11 Inside the character exterior 1, the tactile switch 11, the numeric keypad connection unit 12, the card reader connection unit 13, the control unit 14, the storage unit 15, the audio output unit 16, and the communication unit 17 are provided.
- the numeric keypad connection unit 12 is an interface such as a USB (Universal Serial Bus) for connecting the numeric keypad 2.
- the card reader connection unit 13 is an interface such as a USB for connecting the card reader 3.
- the control unit 14 includes a processor and realizes various functions by executing a program.
- the storage unit 15 is provided in a storage device such as a flash memory, and includes an audio storage unit, a catalog storage unit, and a user storage unit.
- the sound output unit 16 is a speaker that emits sound for the user, and is preferably arranged around the mouth of the character exterior 1.
- the communication unit 17 includes a wireless LAN (local area network) adapter and is used to transmit an order form generated by the shopping support apparatus. When the power source of the shopping support apparatus is a battery, it becomes easy to carry the apparatus main body together with the character exterior 1.
- FIG. 3 shows the structure of data stored in the storage unit 15.
- FIG. 3A shows the structure of data stored in the voice storage unit.
- the voice storage unit stores a user identifier, a voice set identifier, a voice identifier, and voice data in association with each other.
- “User identifier” is equal to the value of a card-specific identifier such as a card number read from the card reader 3. That is, the user identifier has a different value for each card to be read, and even if the person is the same, the audio data to be used may be different depending on the card to be read.
- the “voice set identifier” is an identifier indicating a plurality of voice sets used corresponding to the user identifier. For each user identifier, the set of audio used may be different. Other examples include the standard language set, dialect set, male voice set, female, etc. Some users use polite language voice sets, some users use more verbose wording voice sets, etc. Various voice sets such as voice set, Japanese set, and English set can be used properly according to the user.
- “Voice identifier” is an identifier for distinguishing a plurality of voices included in the voice set.
- the voice identifier is assigned a unique value for each voice data, but each voice set has a set of voice identifiers having the same value.
- the greeting voice for example, standard word
- the greeting voice for example, dialect
- the greeting voice for example, dialect
- “Voice data” is audio data such as words and songs corresponding to the voice identifier, and includes guidance voice (guide voice) for the user to proceed with shopping. In some cases, words that make sense by connecting a plurality of audio data are reproduced.
- FIG. 3B shows the structure of data stored in the catalog storage unit.
- the catalog storage unit stores a user identifier, a catalog identifier, a publication identifier, a product identifier, a voice identifier, and product information in association with each other.
- “User identifier” is as described above.
- the “catalog identifier” is an identifier of a product catalog that can be used corresponding to the user identifier. A user orders a product while viewing a product catalog such as a paper medium.
- the term “product” is used as a concept including “service”.
- Product identifier is a unique identifier for each product. Even for the same product, different product identifiers are assigned to different providers and intermediaries.
- “Published identifier” is an identifier for distinguishing products listed in the product catalog. The user selects a product to order from a product catalog by inputting a publication identifier.
- “Voice identifier” is an identifier of voice data that pronounces the product name of the product.
- Product information is information relating to the product, and includes a product name, product image, price and description.
- FIG. 3C shows the structure of data stored in the user storage unit.
- the user storage unit stores a user identifier, a name, and personal information in association with each other.
- “User identifier” is as described above.
- the “call name” is sound data that pronounces the call name (nickname) of the user.
- “Personal information” is personal information of the user, and includes an address, a name, and a telephone number. “Personal information” may be used when personal information cannot be read from the card through the card reader 3.
- FIG. 4 shows an example of a product catalog that the user sees.
- the product catalog is a paper medium, which is a so-called leaflet.
- This product catalog corresponds to one card possessed by the user, and lists products that can be purchased when the card reader 3 reads the card.
- Each product is given a serial number from 1 to 6, and the serial number from 1 to 6 represents the insertion identifier shown in FIG.
- FIG. 5 is a flowchart showing a procedure for a user to order a product. The operation for the user to order a product listed in the product catalog of FIG. 4 will be described along this flowchart.
- the shopping support apparatus shown in FIG. 2 is set to an operating state, and the user causes the card reader 3 to read a card or the like corresponding to the product catalog shown in FIG.
- the control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3. If it can be read from the card or the like, the user's address, name and phone number are read (S1).
- the control unit 14 reads out the audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit.
- the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit.
- the control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S2). " ⁇ 's, Hello. ⁇ 's monkey!. Character exterior 1 is pronounced. If a card with a user identifier not registered in the storage unit 15 is used, it may be controlled so that the device cannot be used by generating a sound such as “This card cannot be used!”. It is possible to prevent a situation in which a child orders by play.
- control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16.
- Make a pronunciation S3. “Please press the number you want on the moon flyer!”.
- the user inputs one of the publication identifiers 1 to 6 of the desired product from the numeric keypad 2 while viewing the product catalog in FIG.
- the control unit 14 acquires the posting identifier K input by the user from the numeric keypad 2 (S4). Subsequently, the control unit 14 acquires voice data that pronounces the product name of the product selected by the user from the voice storage unit. That is, the control unit 14 reads out the voice identifier V associated with the user identifier U and the publication identifier K from the catalog storage unit, and further stores the voice data of the product name associated with the user identifier U and the voice identifier V as the voice storage unit. Read from. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit.
- control part 14 combines the audio
- the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( S6). “Press how many you want!”. The user inputs the order quantity of the product selected earlier from the numeric keypad 2.
- the control unit 14 acquires the order quantity input by the user from the numeric keypad 2 (S7). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the number of voice identifiers input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio
- the control unit 14 stores the product identifier of the product selected by the user and the order quantity of the product in the storage unit 15. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the additional confirmation voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word. (S9). “If you have anything else you want, press“ Yes ”, otherwise press“ No ”! "
- the control unit 14 reads the product identifier of each product selected by the user so far and each order quantity of each product from the storage unit 15.
- the control unit 14 reads the price of the product corresponding to each read product identifier from the product information in the catalog storage unit.
- the control unit 14 calculates the total order amount based on the read price of each product and the order quantity of each product.
- the control unit 14 is voice data associated with the user identifier U, the voice data corresponding to the calculated voice identifier, the voice data corresponding to the voice identifier of each product name, and the quantity of each product. Audio data corresponding to the audio identifier is read from the audio storage unit.
- control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the order detail confirmation voice from the voice storage unit. And the control part 14 combines each read audio
- the user inputs “Yes” or “No” from the numeric keypad 2.
- the control unit 14 returns to the addition confirmation in S9.
- the process proceeds to the next process.
- the user can cancel all inputs at any time.
- the control unit 14 resets the product identifier and the order quantity stored in the storage unit 15, and returns to the card reading of S1.
- the control unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the delivery date confirmation audio from the audio storage unit. Further, the control unit 14 refers to the calendar and determines the first candidate date for delivery that is several days after today. In addition, the control unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the determined date from the audio storage unit. Then, the control unit 14 combines the read voice data, for example, to pronounce the next word from the voice output unit 16 (S12). “Is the delivery date o month x day?” “If this is OK, press“ Yes ”, otherwise press“ No ”! "
- the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the delivery date guidance voice from the voice storage unit. Then, the control unit 14 combines the voice data of the read delivery date guidance voice and the voice data of the delivery candidate date read immediately before, for example, and causes the voice output unit 16 to pronounce the next word. “Now, I ’ll deliver it on the day of the month!” The control unit 14 stores the determined delivery date in the storage unit 15.
- control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the settlement method confirmation voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S13). “Can I pay for it?” “If this is OK, press“ Yes ”, otherwise press“ No ”! "
- the user inputs “Yes” or “No” from the numeric keypad 2.
- the control unit 14 repeats the payment method confirmation in S13 while changing the payment method to “electronic money payment” or “credit card payment”.
- a button corresponding to each settlement method may be provided on the numeric keypad 2, and the settlement method may be selected by pressing the button.
- electronic money may be selected by pressing a button such as 1 and credit payment may be 2.
- the process proceeds to the following process.
- the control unit 14 stores the determined settlement method in the storage unit 15.
- the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the determined voice identifier of the settlement method from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( In the case of cash on delivery). "Thank you for your order! “You will get the price at the time of delivery, so please have it ready!”
- control unit 14 reads the product identifier, product name, price, order quantity, delivery date, and settlement method of each product ordered by the user from the storage unit 15.
- the control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3.
- the control part 14 reads a user's address, a full name, and a telephone number from a user memory
- the control unit 14 may acquire the user's address, name, and telephone number from the Internet through the communication unit 17.
- the control unit 14 then orders the product including the product identifier, product name, price, order quantity, total order amount, delivery date, payment method, user address, name, phone number, and order date of each product ordered by the user. Generate document data. And the control part 14 transmits the produced
- control unit 14 provides electronic payment service to the Internet via the communication unit 17 based on information read from the card or the like through the card reader 3.
- Money settlement or credit card settlement processing is executed (S15).
- control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the ending voice from the voice storage unit, and causes the voice output unit 16 to pronounce the next word, for example ( S16). "See you again, damn it!
- the transaction support system that has received the order form data transmits the order form data to the provider of each ordered product, and arranges for the ordered product to reach the user.
- the product provider may purchase the ordered product and leave it in the store as a reserved product.
- the product can be ordered simply by causing the card reader 3 to read the card and operating the numeric keypad 2 in accordance with the guidance voice, even a user who is unfamiliar with the operation of the computer can compare with the conventional one. You can easily use the Internet for shopping. In addition, a healing effect can be expected from the friendly character exterior 1. Furthermore, by using the numeric keypad 2 with limited information that can be input instead of a method of recognizing the user's response, the apparatus can be designed at a low cost without considering a response unexpected by the user. Further, by placing an order based on a leaflet or the like on which products are posted, the screen can be made unnecessary, and the shopping support apparatus can be provided at a lower cost.
- a mobile phone carrier can adopt its own CM character in the character exterior 1, or a CM song can be played by operating the tactile switch 11, so that the user can have a specification that will be attached to the user.
- personal information such as an address and name can be read from the IC card, and the user does not need to input an address or the like.
- FIG. 6 is a flowchart showing a procedure for requesting taxi dispatch by the shopping support apparatus.
- the shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes the card reader 3 to read a predetermined card or the like.
- the control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3 (S21). Subsequently, the control unit 14 reads out audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit. In addition, the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit.
- control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S22). " ⁇ 's, Hello. ⁇ 's monkey!. Character exterior 1 is pronounced.
- control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16.
- Make a pronunciation S231. "Press the button you want! Here, the user presses a key indicating “taxi dispatch” provided on the numeric keypad 2.
- the control unit 14 acquires a request for “taxi dispatch” input from the user from the numeric keypad 2 (S232). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit, and for example, pronounces the next word from the voice output unit 16. (S233). "I'll call you a taxi! Click” Yes "if you want, or" No "if you don't! "
- control unit 14 accepts designation of a time for dispatching a taxi (S24).
- the control unit 14 reads predetermined audio data corresponding to the user identifier from the audio storage unit, and, for example, “call immediately, call later? Call“ Yes ”when calling immediately,“ No ”when calling later. Push it. Is pronounced from the voice output unit 16. Next, an input of “Yes” or “No” is accepted from the numeric keypad 2, and in the case of “Yes”, “call immediately” is stored in the storage unit 15 as the dispatch time.
- the predetermined voice data corresponding to the user identifier is read from the voice storage unit and, for example, “Please press the time you want to come to the taxi.” And the time which wants to come is received from the ten key 2, and the input time is memorize
- the control unit 14 accepts designation of a place where a taxi is allocated (S25). It is assumed that information representing a plurality of places is registered in the storage unit 15 in advance in association with the user identifier. The information representing the place is configured by associating the name of the place (such as home or hospital) with the address or position information of the place.
- the control unit 14 reads out predetermined audio data associated with the user identifier from the audio storage unit, and causes the audio output unit 16 to pronounce, for example, “Is the place home or is it a hospital?”.
- designation of a location is received from the numeric keypad 2 and the designated location is stored in the storage unit 15 as a dispatch location.
- information such as a zip code, a city name, or a street address
- information specifying the address from the numeric keypad 2 may be input or selected from the numeric keypad 2 according to voice guidance.
- control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, for example, reads the next word from the voice output unit 16. Make a pronunciation (S26). “Press how many you want to call!” The user inputs the number of taxis desired to be dispatched from the numeric keypad 2.
- the control unit 14 acquires the number input by the user from the numeric keypad 2 (S27). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the number of voice identifiers input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio
- the user inputs “Yes” or “No” from the numeric keypad 2.
- the control unit 14 returns to the quantity input guidance of S26.
- the process proceeds to the following process. The user can cancel all inputs at any time.
- the control unit 14 returns to the card reading of S21.
- the control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3. Or the control part 14 reads a user's address, a full name, and a telephone number from a user memory
- the dispatch request data includes a product identifier corresponding to the taxi dispatch, a destination address, a name, a dispatch time, and a telephone number.
- control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the ending voice from the voice storage unit, and causes the voice output unit 16 to pronounce the next word, for example ( S30). “Take a taxi. Wait until you arrive!”.
- the user can arrange a taxi dispatch by simply reading a card or the like and inputting only a numeric keypad to the shopping support apparatus.
- FIG. 7 is a flowchart showing a procedure for applying for hometown tax payment by the shopping support apparatus.
- the shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes the card reader 3 to read a predetermined card or the like.
- the control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3 (S31). Subsequently, the control unit 14 reads out audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit. In addition, the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit.
- control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S32). " ⁇ 's, Hello. ⁇ 's monkey!. Character exterior 1 is pronounced.
- control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16.
- Make a pronunciation S33. "Press the button you want!” Here, the user presses a key indicating “hometown tax payment” provided on the numeric keypad 2.
- the control unit 14 acquires a request for “hometown tax payment” input by the user from the numeric keypad 2 (S34). Subsequently, the control unit 14 acquires, from the voice storage unit, voice data that pronounces the name of the local government of the hometown tax payment destination. That is, the control unit 14 reads out the voice identifier associated with the user identifier U and the product identifier corresponding to the hometown tax payment from the catalog storage unit, and further, the local government as a product name associated with the user identifier U and the voice identifier in advance. Read the voice data of the name from the voice storage unit. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit.
- control part 14 combines the audio
- the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( S36). “Pay how much you want to pay!” The user inputs the amount to be donated as the hometown tax payment from the numeric keypad 2.
- the control unit 14 acquires the amount of money input by the user from the numeric keypad 2 (S37). Subsequently, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the amount input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio
- the user inputs “Yes” or “No” from the numeric keypad 2.
- the control unit 14 returns to the quantity input guidance of S36.
- the process proceeds to the following process. The user can cancel all inputs at any time.
- the control unit 14 returns to the card reading of S31.
- control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the settlement method confirmation voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S39). "Can I pay with a credit card?” “If this is OK, press“ Yes ”, otherwise press“ No ”! "
- the user inputs “Yes” or “No” from the numeric keypad 2.
- the control unit 14 repeats the payment method confirmation in S39 while changing the payment method to another payment method.
- the process proceeds to the following process.
- the control unit 14 stores the determined settlement method in the storage unit 15.
- control unit 14 executes a process of selecting a hometown tax gift (S40).
- the control part 14 performs the process which makes a user select a gift as the process of S3 to S5 of FIG. 5, and memorize
- S40 a process of selecting a hometown tax gift
- control unit 14 reads voice data associated with the user identifier U and corresponding to the determined voice identifier of the settlement method from the voice storage unit, and for example, reads the next word from the voice output unit 16. Let them pronounce. "Thank you for the application! "Wait for fun!”
- the control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3. Or the control part 14 reads a user's address, a full name, and a telephone number from a user memory
- the application form data includes a product identifier corresponding to hometown tax payment, a donation amount, a payment method, a product identifier of a thank-you gift, a user address, a name, and a telephone number. Upon receiving the application form data, the transaction support system acts as a hometown tax payment.
- the control unit 14 performs a credit card payment process for a payment service on the Internet via the communication unit 17 based on information read from the card or the like through the card reader 3. Is executed (S42).
- the settlement process of S42 may be executed after the payment method confirmation (S39) and before the gift selection process (S40).
- control unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the ending audio from the audio storage unit, and causes the audio output unit 16 to pronounce the next word, for example ( S43). "See you again, damn it!
- the user can easily perform hometown tax payment from the shopping support apparatus to a specific local government.
- Local governments can provide users with a shopping support device with a local character exterior (for example, Momotaro in Okayama Prefecture), making it easier for users to get home and paying taxes, and reducing the movement of users to other local governments. Can do. It is also possible to associate the device unique number of the shopping support apparatus with the local government of the donation destination in advance, and the transaction support system can determine the local government of the donation destination based on the device unique number of the shopping support apparatus.
- FIG. 8 shows the operation of the shopping support apparatus when the user presses the tactile switch 11.
- the control unit 14 detects that the tactile switch 11 is turned on (S51), and the tactile sense that is turned on. Audio data corresponding to the switch 11 is read from the audio storage unit (S52), and the read audio data is reproduced from the audio output unit 16 (S53).
- Each tactile switch 11 is associated with a different sound identifier, and the control unit 14 stores sound data associated with the sound identifier for the sound identifier associated with the tactile switch 11 that is turned on. Read from.
- the contents of the audio data are different depending on the location, such as greeting when holding the right hand, different greetings when holding the left hand, and singing a song when pinching the nose. Thereby, it is possible to communicate between the user and the shopping support apparatus, and the shopping support apparatus becomes increasingly attached to the user.
- the voice data is stored in the voice storage unit, and the voice data is read and reproduced at the time of pronunciation.
- the text data is stored and controlled.
- the unit 14 may convert the text data into voice data that pronounces a word corresponding to the text data each time it is pronounced and use it for pronunciation.
- control unit 14 may transmit text data to a speech synthesis system on the Internet each time a pronunciation is received, receive voice data that pronounces a word corresponding to the text data from the speech synthesis system, and use it for pronunciation. .
- control unit 14 may transmit a voice identifier to a server system on the Internet each time a sound is generated, receive voice data corresponding to the voice identifier from the server system, and use it for sound generation.
- the control unit 14 transmits a voice identifier to a server system on the Internet each time a pronunciation is generated, receives text data corresponding to the voice identifier from the server system, and uses the received text data as a word corresponding to the text data. May be used for pronunciation after being converted into voice data.
- any electronic data can be adopted instead of the text data as long as it can be finally converted into voice data.
- the shopping assistance apparatus of this embodiment does not have a display for display, it is provided with a touch panel such as a tablet terminal on the abdomen of the character exterior 1 of the shopping assistance apparatus 10, and the control unit 14 receives user input from the touch panel. While accepting, the content that has been output by voice may be displayed on the touch panel.
- the control unit 14 may display predetermined content on a built-in touch panel as the order process progresses.
- the control unit 14 may display a product catalog screen on a built-in touch panel based on data in the catalog storage unit.
- the shopping support apparatus 10 may use the input device and the display device of the external device by communicating with the external device in a wired or wireless manner.
- an external device a tablet terminal, a smartphone, a television, or the like can be used.
- the control unit 14 transmits the content to the external device via the communication unit 17 based on the input from the input device of the external device or the numeric keypad 2, and displays the predetermined content on the external device as the order process proceeds. May be.
- the control unit 14 may cause the external device to display a product catalog screen based on the data stored in the catalog storage unit.
- a receipt printer may be built in the abdomen or back of the character exterior 1, and the control unit 14 may print a receipt of the order contents for the user.
- the user's address may be input from the numeric keypad 2 in addition to the method described above.
- the address information other than the address corresponding to the postal code is acquired from the address database based on the postal code input from the numeric keypad 2, and in addition to this, the address of the user is input by inputting the address from the numeric keypad 2.
- An address may be acquired.
- an address database stored in an external computer may be used via a network. This address acquisition process may be performed by the control unit 14 of the shopping support apparatus 10, or may provide the shopping support apparatus 10 with address information acquired and executed by a computer on the server side.
- the payment method can be selected by the method described above or by pressing the button on the numeric keypad 2.
- a settlement method such as “cash on delivery” may be displayed in advance on the button of the numeric keypad 2, and the button of the settlement method to be selected may be pressed. Further, by voice guidance, it may be pronounced as “Cash on delivery is 1, credit card is 2 and electronic money is 3” and a number button corresponding to the settlement method to be selected may be pressed.
- the card unique number as the user identifier U is read from the card reader 3 and the sound data corresponding to the read user identifier U is sounded, thereby enabling sound generation with different sounds for each user.
- the merchant identifier that uniquely identifies the merchant of the product or the provider of the service or the like is read from the card reader 3, and the voice data corresponding to the read merchant identifier is pronounced.
- pronunciation may be made with different voices or words for each provider of services. This can be realized by replacing the “user identifier” in FIG.
- a corresponding merchant identifier may be specified based on a merchandise number (product identifier) and pronounced with a different voice or wording for each merchant identifier.
- the merchant identifier and the voice set identifier may be stored in association with each other, and the product identifier and the contractor identifier may be stored in association with each other in advance.
- a shopping support apparatus 10 such as that shown in FIG. 1 can be installed beside a cash register in a store and used for the purpose of adding points to a point card.
- a character exterior a character having an edge in the store or the location of the store can be adopted.
- the card reader 3 is installed at a place where the shopper can hold the card, and the numeric keypad 2 is installed at a position operated by the store clerk who hits the cash register.
- the control unit 14 reads a user identifier or a trader identifier from the card held over the card reader 3 via the card reader connection unit 13.
- control part 14 outputs the guidance by the audio
- the store clerk inputs the number of points to be given (number of points to be added) from the numeric keypad 2 according to the product purchased by the shopper.
- the control unit 14 When adding points to the storage unit in the card, the control unit 14 acquires the current number of points stored in the card via the card reader connection unit 13. Further, the control unit 14 acquires the number of points added from the numeric keypad 2 via the numeric keypad connection unit 12. Then, the control unit 14 updates the total number of points obtained by adding the number of added points to the current number of points to the storage unit of the card held over the card reader via the card reader connection unit 13. In addition, when adding points to an external point management system, the control unit 14 associates the card-specific identifier read from the card with the added point number or the total number of points after the addition, via the communication unit 17. To the point management system. In this way, a new point card service can be provided to the shopper.
- the input from the user is performed by operating the numeric keypad.
- the user may feel dissatisfied because the voice is not correctly recognized.
- the input using the numeric keypad adopted by the present invention has an advantage that the input certainty is higher than the voice input at present.
- a plurality of shopping support devices 10 placed at the user's hand are connected to the Internet and communicate with the transaction support system 20. Further, the transaction support system 20 can communicate with the computer of the product producer, the provider, the product sales intermediary, and the product deliverer through the Internet.
- FIG. 10 shows the configuration of the transaction support system 20.
- the transaction support system 20 includes a processing unit 21, a storage unit 22, and a communication unit 23.
- the processing unit 21 includes a processor and realizes various functions by executing a program.
- the storage unit 22 is provided in a storage device such as an HDD (Hard Disk Drive).
- the communication unit 23 is a communication device that communicates with the shopping support device 10 and the computer on the Internet.
- the storage unit 22 includes a distribution storage unit, a catalog storage unit, a product storage unit, a voice storage unit, and a trader storage unit.
- the structure of data stored in each storage unit is shown in FIG.
- FIG. 11A shows the data structure of the distribution storage unit.
- the distribution storage unit stores a catalog identifier and a voice set identifier in association with each user identifier.
- the user identifier is a user identifier handled in the shopping support apparatus 10.
- the catalog identifier is an identifier of a product catalog stored in the shopping support apparatus 10 corresponding to the user identifier.
- the voice set identifier is an identifier of a voice set stored in the shopping support apparatus 10 corresponding to the user identifier.
- Fig. 11 (b) shows the data structure of the catalog storage unit.
- the catalog storage unit stores a publication identifier, a product identifier, and an audio identifier in association with each catalog identifier.
- the catalog identifier is a unique value for each medium such as a mail order catalog or a flyer.
- the placement identifier is a unique value for each product placed on the medium.
- the product identifier is a unique value for each product. Even if the product is the same, the product identifier is different if the provider or the mediator is different.
- the voice identifier is an identifier of voice data that pronounces the product name of the product.
- the mail order catalog or flyer may be displayed on a television or computer display.
- FIG. 11C shows the data structure of the product storage unit.
- the product storage unit stores product information, a voice identifier, a mediator identifier, and a provider identifier in association with each product identifier.
- the product identifier is as described above.
- the product information includes the product name, product image, price, and description of the product.
- the voice identifier is an identifier of voice data corresponding to the voice of the product name of the product.
- the mediator identifier is an identifier of a person who mediates the sale of the product, for example, an identifier of a trader who operates mail order. If there is no mediator for the product, the mediator identifier takes an invalid value.
- the provider identifier is an identifier of a retailer, a wholesaler or a producer who provides the product directly to the user.
- FIG. 11D shows the data structure of the voice storage unit.
- the voice storage unit stores a voice identifier and voice data in association with each voice set identifier.
- the audio set identifier identifies a group of audio data associated with each user identifier.
- the audio identifier is an identifier of audio data included in the audio set.
- the voice data includes a voice for the shopping support apparatus 10 to guide the user to a procedure such as shopping.
- FIG. 11 (e) shows the data structure of the trader storage unit.
- the trader storage unit stores trader information for each trader identifier.
- the trader identifier includes an intermediary identifier and a provider identifier.
- the trader information is information on the broker or provider (retailer, wholesaler or producer), such as trader name, address, contact information on the Internet (e-mail address, session ID to the transaction support system, etc.) and Including other contact information (telephone number and FAX number).
- the processing unit 21 of the transaction support system 20 executes the following operation in response to the communication from the shopping support apparatus 10.
- the provider identifier corresponding to the product identifier of the ordered product is read from the product storage unit and the read provider identifier is read
- the trader information corresponding to (the trader identifier) is read from the trader storage unit.
- the trader is notified of the ordered product and its quantity, as well as the orderer's address, name and telephone number.
- the notification is performed to a computer on the Internet through the communication unit 23, or is performed by FAX transmission or the like.
- the ordered product is delivered from the trader to the user of the shopping support apparatus 10 that is the orderer through the delivery person.
- the processing unit 21 displays the result of product sales in the transaction information corresponding to the mediator identifier (transactioner identifier). Add reward (margin).
- the processing unit 21 reads a product identifier from the dispatch request data. Then, the provider identifier of the taxi trader corresponding to the product identifier is read from the product storage unit, and the trader information corresponding to the provider identifier (trader identifier) is read from the trader storage unit. Based on the read trader information, the number of taxis requested to be dispatched, the address or location information of the dispatch destination, name, dispatch time, and telephone number are notified to the trader. The notification is made to a computer on the Internet through the communication unit 23 or by telephone or the like. Then, the requested number of taxis are dispatched to the user of the shopping support apparatus 10 as the requester by the taxi trader as the trader.
- the processing unit 21 reads the hometown tax payment product identifier from the received application form data. And the provider identifier of the local government corresponding to the product identifier is read from the product storage unit, and the trader information corresponding to the provider identifier (trader identifier) is read from the trader storage unit. Then, based on the read transaction information, the local government is notified of the donation amount of the hometown tax payment, the payment method, the identifier of the gift, the address of the donor, the name and the telephone number.
- the notification is made to a computer on the Internet through the communication unit 23, or is made by FAX or the like.
- the local government that has received the notice proceeds with arrangements for gifts and donation certificates for donors.
- the application form data includes a device unique identifier (MAC address or the like) of the shopping support device 10 that is the transmission source as an identifier of the local government of the donation destination
- the processing unit 21 is associated with the device unique identifier.
- the local government provider identifier may be read from the storage unit and used.
- the transaction support system 20 has a function of updating the product catalog and voice set stored in each shopping support apparatus 10.
- the processing unit 21 periodically receives a product catalog update request from each shopping support apparatus 10 through the communication unit 23.
- the update request includes a user identifier.
- the processing unit 21 reads the catalog identifier and the voice set identifier corresponding to the received user identifier from the distribution storage unit, and the contents of the catalog storage unit corresponding to the catalog identifier are updated after the previous distribution. It is also determined whether the content of the voice storage unit corresponding to the voice set identifier has been updated since the previous distribution.
- the date and time when the contents of the corresponding catalog storage unit and the content of the voice storage unit are distributed is stored in the storage unit. Further, the date and time when the content of the catalog storage unit is updated for each catalog identifier is stored in the storage unit, and the date and time when the content of the audio storage unit is updated for each voice identifier is stored in the storage unit. Then, the distribution date and the update date are compared. If the result of this determination is that the data has been updated, the updated catalog storage unit data and updated voice storage unit data are read from the storage unit 22 and transmitted to the requesting shopping support apparatus 10 through the communication unit 23. To do.
- the processing unit 21 reads product information corresponding to the product identifier associated with the catalog identifier from the product storage unit, associates the read product information with the corresponding product identifier, and transmits the requesting shopping support apparatus 10 through the communication unit 23. Send to.
- the control unit 14 updates the received update data of the catalog storage unit to the catalog storage unit of the storage unit 15. Further, the control unit 14 updates the received update data of the voice storage unit to the voice storage unit. In addition, the update data of the received product information is updated in association with the corresponding product identifier in the product storage unit.
- FIG. 12 is a configuration diagram of a catalog generation device that generates an image of a product catalog that a user refers to at hand.
- the catalog generation device includes a catalog image generation unit 31, a catalog image storage unit 32, an input unit 33, a display unit 34, and an output unit 35.
- the product storage unit 36 is a product storage unit of the transaction support system 20 shown in the storage unit 22 of FIG.
- the catalog storage unit 37 is a catalog storage unit of the transaction support system 20 shown in the storage unit 22 of FIG.
- the catalog image generation unit 31 includes a processor and realizes various functions by executing a program.
- the catalog image storage unit 32, the product storage unit 36, and the catalog storage unit 37 are provided in a storage device such as an HDD.
- the input unit 33 is an input device such as a keyboard or a pointing device.
- the display unit 34 is a display that displays information.
- the output unit 35 is an interface that outputs data for printing.
- the catalog image generation unit 31 displays the product advertisement part 41 associated with the product identifier on the display unit 34 as shown in FIG.
- the product advertisement part 41 is generated using product information stored in the product storage unit 36.
- the product advertisement part 41 includes a product name and price or a combination of these and a product image.
- the generation unit 31 displays a flyer image 42 (product catalog image) associated with the catalog identifier on the display unit 34.
- the flyer image 42 is provided with a product placement area 43 associated with a placement identifier.
- generation part 31 detects operation (drag and drop etc.) linked
- the generation unit 31 generates an image image of a leaflet in which the image of the dropped product advertisement part 41 is inserted in the product placement area 43 of the leaflet image 42 and stores it in the catalog image storage unit 32.
- the generation unit 31 reads the image data of the leaflet from the catalog image storage unit 32 and transmits the image data of the leaflet to the printer or the like in order to print the image of the completed leaflet.
- FIG. 14 is a configuration diagram of an audio data generation apparatus that generates audio to be registered in the audio storage unit.
- the voice data generation device includes a text voice conversion unit 51, a voice storage unit 52, a product information storage unit 53, an input unit 54, and a display unit 55.
- the text-to-speech conversion unit 51 includes a processor and implements various functions by executing a program.
- the voice storage unit 52 is a voice storage unit of the transaction support system 20 shown in the storage unit 22 of FIG. 10 or a copy thereof.
- the product information storage unit 53 is a product storage unit of the transaction support system 20 shown in the storage unit 22 of FIG.
- the input unit 54 is an input device such as a keyboard or a pointing device.
- the display unit 55 is a display that displays information.
- the text-to-speech conversion unit 51 displays the product information editing area 61 associated with the product identifier on the display unit 55.
- the product information editing area 61 the product information read from the product storage unit 53 is displayed in an editable state.
- the product information newly input from the input unit 54 is displayed in the product information editing area 61.
- the text-to-speech conversion unit 51 displays the speech set identifier and the speech text editing area 62 associated with the speech identifier on the display unit 55.
- the voice text editing area 62 the voice set identifier and the voice text to be registered in association with the voice identifier are input from the input unit 54.
- the text-to-speech conversion unit 51 When the text-to-speech conversion unit 51 detects an operation (such as drag and drop) for inserting the product information displayed in the product information editing area 61 into the voice text in the editing area 62, the text-to-speech conversion unit 51 converts the dropped product information into text It is inserted in the position where it is dropped and displayed on the display unit 55.
- voice conversion is instructed from the input unit 54 to the input text
- the text voice conversion unit 51 converts the text input in the voice text editing area 62 into voice data, and
- the voice set identifier and the voice identifier associated with the editing area 62 are registered in the voice storage unit 52 in association with each other.
- voice data can be generated and registered using the product information stored in the product storage unit 53.
- a robot 100 including a processor 101 that realizes various functions includes a communication unit 102 that communicates with an external function 201 on the Internet, and an information storage unit 103.
- the processor 101 transmits the original information stored in the storage unit 103 to the external function 201 on the Internet through the communication unit 102, and the result information acquired based on the original information by the external function 201
- the function is received from the external function 201 via the communication unit 102 and the program is executed using the result information to realize the function.
- the “robot” in the present application includes a certain character and a processor that realizes various functions.
- the “communication unit” is a network communication device such as a wireless LAN adapter.
- the “storage unit” is provided in a storage device such as a flash memory.
- “Original information” is information acquired based on artificial input from the input device 104, input from various sensors 105, computation in the main body, or the like.
- the “external function” is provided by the external device 200 on the Internet.
- the shopping support apparatus described above operates by receiving information from the numeric keypad 2 corresponding to the input device 104.
- the present invention is not limited to this, and the robot 100 is configured to operate based on a voice input from the input device 104 or the sensor 105.
- the control unit 14 of the shopping support apparatus may specify the product selected by voice recognition of the product name input by voice in the product selection reception (S4, S232, S34, S40).
- the quantity may be specified by recognizing the number inputted by voice. Further, in a scene where confirmation is requested, branching may be determined by recognizing a voice input “Yes” or “No” word.
- time and place information may be acquired by voice recognition in the time designation process (S24) and the place designation process (S25).
- the external device 200 transmits the content notified to the user of the robot 100 from the terminal of the medical staff or the relative terminal, the timing (such as the date and time, the behavior of the robot 100), and the notification destination.
- the identifier of the robot 100 is received in association with it and registered in the storage device. Medical personnel or relatives can register notification contents such as text and notification timing through a management screen provided by the external device 200 to the terminal.
- the terminal may be a smartphone.
- the external device 200 detects the arrival of the timing registered in the storage device, the external device 200 transmits the notification content associated with the timing to the robot 100 corresponding to the identifier of the robot 100 associated with the timing. .
- the processor 101 of the robot 100 that has received the notification content via the communication unit 102 causes the voice output unit to pronounce the received notification content as words.
- an instruction or advice set by a hospital, a caregiver, a family, or the like can be generated by the robot 100 in a timely manner and transmitted to a user such as an elderly person. For example, messages such as “Good morning”, “Today's consultation is 10:00”, “Don't eat breakfast”, “What time of day will you visit” can be communicated to the user. .
- a plurality of terminals communicating with the external device 200 can share the content input by the user. For example, the contents input by the elderly can be shared among the parties who are allowed to share such as hospitals and care facilities.
- the elderly person who is a user can use these functions even if difficult settings are not possible.
- the mother can tell the child that it's already 6pm and it's time for studying.
- the processor 101 of the robot 100 may have a speech synthesizer function, and may pronounce a word uttered from the voice output unit with a voice of a famous anime character or the like. For example, it is possible to expect an effect that the child obeys obediently by conveying the message that the mother conveys to the child with the voice of a famous anime character.
- the external device 200 may include a speech synthesizer, and the voice synthesized by the external device 200 may be transmitted to the robot 100 to generate sound.
- a voice dialogue may be realized between an arbitrary terminal on the Internet and the robot 100.
- the terminal may be a smartphone or the like.
- the content of the dialogue can be studying or playing English conversation. For example, this can be realized by connecting a voice chat between an arbitrary terminal and the robot 100.
- a camera may be provided as the sensor 105 of the robot 100, and a video chat may be executed by transmitting an image of the user of the robot 100 to a partner terminal.
- the speech synthesizer may be executed in the robot 100 or the external device 200 that transmits voice to the robot 100, and the words uttered from the robot 100 may be pronounced by voices such as famous anime characters.
- the user may submit data to the external device 200.
- the user of the medical institution (user of the robot 100) causes the robot 100 to pronounce “Good morning”, “How is your physical condition today?”, “Measure your body temperature”, and so on.
- the user measures the body temperature with a thermometer as the sensor 105, and the processor 101 transmits the body temperature data received from the thermometer to the external device 200 in association with the user identifier.
- the external device 200 provides the body temperature data received from the robot 100 to a terminal such as a medical staff who is a voice notification partner.
- blood pressure data and other biological information data are acquired from the sensor 105, transferred to the external device 200, and provided to terminals such as medical personnel.
- the visual state of the user may be acquired from a camera as the sensor 105 and provided to a terminal such as a medical staff via the external device 200.
- a medical staff or the like may arrange medicines, supplements, meals, etc. for the user at the store based on the biometric data acquired from the user and automatically deliver it from the store to the user's home. Furthermore, medical personnel and the like can also set voice notification to the next user in consideration of biometric information data and the like using the voice notification system.
- Application software (application) executed by the robot 100 is provided in the external device 200, and the robot 100 uses an ASP (application service provider) type corresponding application in accordance with an operation of a numeric keypad or the like connected to the robot 100. You may do it. Applicable to English conversation apps, learning apps such as mathematics, and play and game apps. Further, a method may be used in which an application to be executed is downloaded to the robot 100, installed, and executed. According to these, many functions can be freely used with one robot terminal, and the functions can be upgraded.
- ASP application service provider
- the processor 101 may detect the operation and transmit information indicating that the operation has been performed to the external apparatus 200.
- the operation is, for example, activation of the robot 100 or operation of the tactile switch described above. Since the external device 200 that has received the information can grasp that the user is acting, a user watching system can be constructed.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Marketing (AREA)
- Mechanical Engineering (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Robotics (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Manipulator (AREA)
Abstract
[Problem] To produce robots with high functionality at low cost and achieve widespread diffusion among consumers. [Solution] A networked robot device 100 provided with a control unit 101 for achieving various functions, wherein the robot device is provided with: a communication unit 102 for communicating with an external function 201 on the Internet; and a storage unit 103 for storing information for internal processing by the networked robot device 100 and information to be transferred to the external function 201 for external processing. The control unit 101 reads and processes the internal processing information from the storage unit 103 to implement the functions of the device body 100 , and reads the external processing information from the storage unit 103 and transmits the information to the external function 201 via the communication unit 102 to and to operate the external function 201.
Description
本発明は、ネットワークロボット装置に係り、特に、コンピュータネットワークを通じて外部装置との通信が可能なネットワークロボット装置に関する。
The present invention relates to a network robot apparatus, and more particularly to a network robot apparatus capable of communicating with an external apparatus through a computer network.
「ロボット」の定義は、一義的には確立されていないが、本願では、何らかのキャラクターを備え、種々の機能を実現するプロセッサを備えているものをいう。
The definition of “robot” is not uniquely established, but in the present application, it means a device that has a certain character and a processor that realizes various functions.
そのようなロボットを高性能化するためには、高性能のプロセッサや記憶装置等を搭載する必要がある。しかし、内蔵ハードウェアの高性能化に伴い、ロボット自体の製造原価も上昇し、量産および需要者に広く浸透させることへの障壁となる。
In order to improve the performance of such robots, it is necessary to install high-performance processors and storage devices. However, as the performance of built-in hardware increases, the manufacturing cost of the robot itself increases, which becomes a barrier to mass production and widespread penetration by consumers.
また、現在、インターネットサイトにアクセスし通信販売により商品を購入することが広く行われている。商品を購入したいユーザは、ブラウザを操作してショッピングサイトにアクセスし、そのサイトで購入したい商品を検索し、検索した商品をショッピングカートに追加し、以上を繰り返して購入したい商品が揃ったら、決済に必要な入力を行う、という流れが一般的である(例えば、非特許文献1)。このように、ショッピングサイトで商品を購入したいユーザは、コンピュータに対して複雑な入力操作を行うことを求められる。しかし、コンピュータの操作に不慣れなユーザは、インターネットによる通信販売を利用することが難しかった。この一例のように何らかの不便を伴う需要者を支援するロボットが、彼らに広く受け入れられ、活用される社会が期待される。
Currently, it is widely used to access the Internet site and purchase products by mail order. The user who wants to purchase a product operates the browser to access the shopping site, searches for the product to be purchased on the site, adds the searched product to the shopping cart, and repeats the above to complete the purchase. In general, a flow of inputting necessary information is performed (for example, Non-Patent Document 1). Thus, a user who wants to purchase a product at a shopping site is required to perform a complicated input operation on the computer. However, it is difficult for users who are unfamiliar with computer operations to use mail order on the Internet. A robot that supports consumers with some inconvenience like this one is expected to be widely accepted and utilized by them.
本発明は、上記従来例の有する不都合のうち、特に、高性能のロボットを需要者に広く普及できるようにすることを課題とする。
Among the inconveniences of the above-mentioned conventional example, the present invention has an object to make it possible to spread a high-performance robot widely to consumers.
上記課題を解決するため、本発明は、以下の構成を採用する。即ち、種々の機能を実現する制御部を備えたネットワークロボット装置において、インターネット上の外部機能と通信する通信部と、ネットワークロボット装置の内部処理用の情報と外部機能に渡す外部処理用の情報とを記憶する記憶部とを備える。そして、制御部は、内部処理用の情報を記憶部から読み出して処理することにより装置本体の機能を実現すると共に、外部処理用の情報を記憶部から読み出し通信部を通じて外部機能に送信することにより外部機能を機能させる。
In order to solve the above problems, the present invention adopts the following configuration. That is, in a network robot apparatus provided with a control unit that realizes various functions, a communication unit that communicates with an external function on the Internet, information for internal processing of the network robot apparatus, and information for external processing passed to the external function And a storage unit for storing. The control unit realizes the function of the apparatus main body by reading and processing the information for internal processing from the storage unit, and reads the information for external processing from the storage unit and transmits it to the external function through the communication unit. Make external functions work.
このようにすると、ネットワークロボット自体の機能が限られるとしても、外側にサービス機能を置いて、それと結んで全体として高機能なロボットを実現することができる。このため、ロボット自体のコストを抑えることが可能となる。
In this way, even if the functions of the network robot itself are limited, a service function can be placed outside and connected to it to realize a highly functional robot as a whole. For this reason, it is possible to reduce the cost of the robot itself.
よって、本発明によれば、高性能のロボットを需要者に広く普及できるようにすることができる。
Therefore, according to the present invention, a high-performance robot can be widely spread to consumers.
以下、本発明の実施形態を図面を参照して説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[本体のハードウェア構成]
図1は、ネットワークロボット装置としての買物支援装置の実施形態を示している。本実施形態の買物支援装置は、キャラクター外装1に包まれており、テンキー2の接続部と、カードリーダ3の接続部とを備えている。また、キャラクター外装1の両手と鼻に、それぞれ触覚スイッチ11を内蔵している。 [Hardware configuration]
FIG. 1 shows an embodiment of a shopping support apparatus as a network robot apparatus. The shopping support apparatus of the present embodiment is wrapped in acharacter exterior 1 and includes a connection part for a numeric keypad 2 and a connection part for a card reader 3. In addition, tactile switches 11 are built in both hands and nose of the character exterior 1, respectively.
図1は、ネットワークロボット装置としての買物支援装置の実施形態を示している。本実施形態の買物支援装置は、キャラクター外装1に包まれており、テンキー2の接続部と、カードリーダ3の接続部とを備えている。また、キャラクター外装1の両手と鼻に、それぞれ触覚スイッチ11を内蔵している。 [Hardware configuration]
FIG. 1 shows an embodiment of a shopping support apparatus as a network robot apparatus. The shopping support apparatus of the present embodiment is wrapped in a
キャラクター外装1は、人や動物等のキャラクターの外観を呈する外装であり、本実施形態では猿の外観を呈しているが、様々なキャラクターの外観とすることができる。外観はユーザに親しみを与えるものが望ましいが、それに限るものではない。素材は、例えば、ぬいぐるみに用いられる素材を採用することができる。
The character exterior 1 is an exterior exhibiting the appearance of a character such as a human being or an animal. In this embodiment, the appearance of a monkey is exhibited. However, the appearance may be various character appearances. Although it is desirable for the appearance to be familiar to the user, it is not limited thereto. As the material, for example, a material used for a stuffed animal can be adopted.
テンキー2は、必ずしも数字キーだけに限るものではなく、1つのキーで特別な指示を入力することのできるファンクションキーが含まれる。キーの数を必要最小限にした小型のキーボードが好ましいことから、本願ではテンキーと呼ぶ。
The numeric keypad 2 is not necessarily limited to only numeric keys, but includes function keys that allow one key to input special instructions. Since a small keyboard with the minimum number of keys is preferable, it is called a numeric keypad in the present application.
カードリーダ3は、ユーザが所持するカード等から情報を読み込む装置であり、ICチップから情報を読み込むものでもよいし、磁気ストライプから情報を読み込むものでもよい。ユーザは、キャラクター外装1から発せられる音声に従って、テンキー2を操作することにより、また、カードリーダ3にカード等を読ませることにより、買物ができるようになっている。カードとして、クレジットカード、電子マネーカード、スーパーや商店街のポイントカードもしくはマイナンバーカード等又はこれらのカードと同様に機能するICチップを備えた携帯端末等を利用することができる。
The card reader 3 is a device that reads information from a card or the like possessed by the user, and may read information from an IC chip or read information from a magnetic stripe. The user can shop by operating the numeric keypad 2 according to the voice uttered from the character exterior 1 and by causing the card reader 3 to read a card or the like. As a card, a credit card, an electronic money card, a point card or a my number card in a supermarket or a shopping street, or a portable terminal equipped with an IC chip that functions in the same manner as these cards can be used.
触覚スイッチ11は、ユーザがキャラクター外装1の手や鼻等を加圧した際に、加圧した部位に応じた音声を再生させるためのスイッチである。
The tactile switch 11 is a switch for reproducing a sound corresponding to a pressed part when the user presses the hand or nose of the character exterior 1.
図2は、キャラクター外装1に内蔵された装置本体のブロック構成図である。
FIG. 2 is a block configuration diagram of the apparatus main body built in the character exterior 1.
キャラクター外装1の内部には、上記の触覚スイッチ11、テンキー接続部12、カードリーダ接続部13、制御部14、記憶部15、音声出力部16および通信部17を備えている。
Inside the character exterior 1, the tactile switch 11, the numeric keypad connection unit 12, the card reader connection unit 13, the control unit 14, the storage unit 15, the audio output unit 16, and the communication unit 17 are provided.
テンキー接続部12は、テンキー2を接続するUSB(ユニバーサルシリアルバス)等のインターフェースである。カードリーダ接続部13は、カードリーダ3を接続するUSB等のインターフェースである。制御部14は、プロセッサを備え、プログラムを実行することにより種々の機能を実現する。記憶部15は、フラッシュメモリ等の記憶装置に設けられ、音声記憶部、カタログ記憶部およびユーザ記憶部を含む。音声出力部16は、ユーザ向けに音声を発するスピーカであり、好ましくはキャラクター外装1の口あたりに配置される。通信部17は、無線LAN(ローカルエリアネットワーク)のアダプタを備え、買物支援装置が生成した注文書の送信等に用いられる。買物支援装置の電源をバッテリーにすると、キャラクター外装1と共に装置本体を持ち運ぶことが容易になる。
The numeric keypad connection unit 12 is an interface such as a USB (Universal Serial Bus) for connecting the numeric keypad 2. The card reader connection unit 13 is an interface such as a USB for connecting the card reader 3. The control unit 14 includes a processor and realizes various functions by executing a program. The storage unit 15 is provided in a storage device such as a flash memory, and includes an audio storage unit, a catalog storage unit, and a user storage unit. The sound output unit 16 is a speaker that emits sound for the user, and is preferably arranged around the mouth of the character exterior 1. The communication unit 17 includes a wireless LAN (local area network) adapter and is used to transmit an order form generated by the shopping support apparatus. When the power source of the shopping support apparatus is a battery, it becomes easy to carry the apparatus main body together with the character exterior 1.
[本体内のデータ構造]
図3は、記憶部15に格納されるデータの構造を示す。 [Data structure in the main unit]
FIG. 3 shows the structure of data stored in thestorage unit 15.
図3は、記憶部15に格納されるデータの構造を示す。 [Data structure in the main unit]
FIG. 3 shows the structure of data stored in the
図3(a)は、音声記憶部に格納されるデータの構造を示す。音声記憶部は、ユーザ識別子、音声セット識別子、音声識別子および音声データを関連付けて記憶する。
FIG. 3A shows the structure of data stored in the voice storage unit. The voice storage unit stores a user identifier, a voice set identifier, a voice identifier, and voice data in association with each other.
「ユーザ識別子」は、カードリーダ3から読み込まれるカード番号等のカード固有の識別子の値に等しい。つまり、読み込むカードごとにユーザ識別子は異なる値を持ち、同一人物であっても、読み込むカードによって使用する音声データが異なる場合がある。
“User identifier” is equal to the value of a card-specific identifier such as a card number read from the card reader 3. That is, the user identifier has a different value for each card to be read, and even if the person is the same, the audio data to be used may be different depending on the card to be read.
「音声セット識別子」は、そのユーザ識別子に対応して使用される複数の音声のセットを示す識別子である。ユーザ識別子ごとに、使用される音声のセットは異なる場合がある。例を挙げると、あるユーザには丁寧語の音声セットを、あるユーザにはもっと砕けた言い回しの音声セットを使用する、というように、他にも標準語セット、方言セット、男性ボイスセット、女性ボイスセット、日本語セット、英語セット、など様々な音声セットをユーザに応じて使い分けることができるようになっている。
The “voice set identifier” is an identifier indicating a plurality of voice sets used corresponding to the user identifier. For each user identifier, the set of audio used may be different. Other examples include the standard language set, dialect set, male voice set, female, etc. Some users use polite language voice sets, some users use more verbose wording voice sets, etc. Various voice sets such as voice set, Japanese set, and English set can be used properly according to the user.
「音声識別子」は、その音声セットに含まれる複数の音声を区別するための識別子である。音声識別子は音声データごとに固有の値が付与されるが、各音声セットは、同じ値の音声識別子のセットを持つ。例えば、オープニングに音声識別子sに対応する挨拶音声をプログラムが再生する場合に、ユーザに応じて音声セットAから音声識別子sに対応する挨拶音声(例えば標準語)を読み出して再生する場合と、ユーザに応じて音声セットBから音声識別子sに対応する挨拶音声(例えば方言)を読み出して再生する場合とがある。このとき、各音声セットが、同じ場面の音声に同じ音声識別子を持つことにより、共通のプログラムでの処理が可能となる。
“Voice identifier” is an identifier for distinguishing a plurality of voices included in the voice set. The voice identifier is assigned a unique value for each voice data, but each voice set has a set of voice identifiers having the same value. For example, when the program reproduces the greeting voice corresponding to the voice identifier s for the opening, the greeting voice (for example, standard word) corresponding to the voice identifier s is read from the voice set A according to the user and played back, and the user Depending on the case, the greeting voice (for example, dialect) corresponding to the voice identifier s may be read from the voice set B and reproduced. At this time, since each sound set has the same sound identifier for the sound of the same scene, processing by a common program becomes possible.
「音声データ」は、その音声識別子に対応する言葉や歌などのオーディオデータであり、ユーザが買物を進めるための案内音声(誘導音声)を含む。複数の音声データを繋いで意味をなす言葉を再生する場合もある。
“Voice data” is audio data such as words and songs corresponding to the voice identifier, and includes guidance voice (guide voice) for the user to proceed with shopping. In some cases, words that make sense by connecting a plurality of audio data are reproduced.
図3(b)は、カタログ記憶部に格納されるデータの構造を示す。カタログ記憶部は、ユーザ識別子、カタログ識別子、掲載識別子、商品識別子、音声識別子および商品情報を関連付けて記憶する。
FIG. 3B shows the structure of data stored in the catalog storage unit. The catalog storage unit stores a user identifier, a catalog identifier, a publication identifier, a product identifier, a voice identifier, and product information in association with each other.
「ユーザ識別子」は、上述の通りである。「カタログ識別子」は、ユーザ識別子に対応して利用可能な商品カタログの識別子である。ユーザは、紙媒体等の商品カタログを見ながら商品を注文するようになっている。本願において、「商品」の語は「役務」を含む概念として用いている。
“User identifier” is as described above. The “catalog identifier” is an identifier of a product catalog that can be used corresponding to the user identifier. A user orders a product while viewing a product catalog such as a paper medium. In the present application, the term “product” is used as a concept including “service”.
「商品識別子」は、商品毎に固有の識別子である。同じ商品であっても、その提供者や仲介者が異なれば、異なる商品識別子が付与されている。
“Product identifier” is a unique identifier for each product. Even for the same product, different product identifiers are assigned to different providers and intermediaries.
「掲載識別子」は、その商品カタログに掲載されてる商品を区別するための識別子である。ユーザは、掲載識別子を入力することにより、注文する商品を商品カタログから選択するようになっている。
“Published identifier” is an identifier for distinguishing products listed in the product catalog. The user selects a product to order from a product catalog by inputting a publication identifier.
「音声識別子」は、その商品の商品名を発音する音声データの識別子である。
“Voice identifier” is an identifier of voice data that pronounces the product name of the product.
「商品情報」は、その商品に関する情報であり、商品名、商品画像、価格および説明文が含まれる。
“Product information” is information relating to the product, and includes a product name, product image, price and description.
図3(c)は、ユーザ記憶部に格納されるデータの構造を示す。ユーザ記憶部は、ユーザ識別子、呼び名および個人情報を関連付けて記憶する。
FIG. 3C shows the structure of data stored in the user storage unit. The user storage unit stores a user identifier, a name, and personal information in association with each other.
「ユーザ識別子」は、上記の通りである。「呼び名」は、そのユーザの呼び名(愛称)を発音する音声データである。「個人情報」は、そのユーザの個人情報であって、住所、氏名および電話番号を含む。「個人情報」は、カードリーダ3を通じてカードから個人情報を読み込めなかった場合に用いられる場合がある。
“User identifier” is as described above. The “call name” is sound data that pronounces the call name (nickname) of the user. “Personal information” is personal information of the user, and includes an address, a name, and a telephone number. “Personal information” may be used when personal information cannot be read from the card through the card reader 3.
[カタログ(チラシ)の構成]
図4は、ユーザが目にする商品カタログの一例を示している。本実施形態では、紙媒体の商品カタログであり、いわゆるチラシである。この商品カタログは、ユーザが所持している一のカードに対応しており、そのカードをカードリーダ3に読み込ませた場合に、購入可能となる商品を掲載している。各商品には1~6の通し番号が付記されており、この1~6の通し番号は図3(b)に示した掲載識別子を示している。 [Composition of catalog (flyer)]
FIG. 4 shows an example of a product catalog that the user sees. In the present embodiment, the product catalog is a paper medium, which is a so-called leaflet. This product catalog corresponds to one card possessed by the user, and lists products that can be purchased when thecard reader 3 reads the card. Each product is given a serial number from 1 to 6, and the serial number from 1 to 6 represents the insertion identifier shown in FIG.
図4は、ユーザが目にする商品カタログの一例を示している。本実施形態では、紙媒体の商品カタログであり、いわゆるチラシである。この商品カタログは、ユーザが所持している一のカードに対応しており、そのカードをカードリーダ3に読み込ませた場合に、購入可能となる商品を掲載している。各商品には1~6の通し番号が付記されており、この1~6の通し番号は図3(b)に示した掲載識別子を示している。 [Composition of catalog (flyer)]
FIG. 4 shows an example of a product catalog that the user sees. In the present embodiment, the product catalog is a paper medium, which is a so-called leaflet. This product catalog corresponds to one card possessed by the user, and lists products that can be purchased when the
[商品の注文]
図5は、ユーザが商品を注文する手順を示したフローチャートである。このフローチャートに沿って、ユーザが図4の商品カタログに掲載された商品を注文する動作を説明する。図2の買物支援装置を稼働状態に設定し、ユーザは、図4の商品カタログに対応するカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む。また、当該カード等から読み出すことが可能な場合は、ユーザの住所、氏名および電話番号を読み込む(S1)。 [Product Order]
FIG. 5 is a flowchart showing a procedure for a user to order a product. The operation for the user to order a product listed in the product catalog of FIG. 4 will be described along this flowchart. The shopping support apparatus shown in FIG. 2 is set to an operating state, and the user causes thecard reader 3 to read a card or the like corresponding to the product catalog shown in FIG. The control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3. If it can be read from the card or the like, the user's address, name and phone number are read (S1).
図5は、ユーザが商品を注文する手順を示したフローチャートである。このフローチャートに沿って、ユーザが図4の商品カタログに掲載された商品を注文する動作を説明する。図2の買物支援装置を稼働状態に設定し、ユーザは、図4の商品カタログに対応するカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む。また、当該カード等から読み出すことが可能な場合は、ユーザの住所、氏名および電話番号を読み込む(S1)。 [Product Order]
FIG. 5 is a flowchart showing a procedure for a user to order a product. The operation for the user to order a product listed in the product catalog of FIG. 4 will be described along this flowchart. The shopping support apparatus shown in FIG. 2 is set to an operating state, and the user causes the
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、オープニング音声に対応する音声識別子に関連付けられた音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた呼び名の音声データをユーザ記憶部から読み出す。そして、制御部14は、読み出したオープニング音声の音声データと呼び名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S2)。「○○さん、こんにちは。□□モンキーだよ!」。キャラクター外装1が発音する。記憶部15に登録されていないユーザ識別子のカードが使用された場合は、「このカードは使えないよ!」などと発音させ、装置を使用できないように制御するとよい。子供が遊びで注文する等の事態を防止することができる。
Subsequently, the control unit 14 reads out the audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit. In addition, the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit. Then, the control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S2). "○○'s, Hello. □□'s monkey!". Character exterior 1 is pronounced. If a card with a user identifier not registered in the storage unit 15 is used, it may be controlled so that the device cannot be used by generating a sound such as “This card cannot be used!”. It is possible to prevent a situation in which a child orders by play.
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品選択案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S3)。「○月のチラシの欲しい番号を押してね!」。ユーザは、図4の商品カタログを見ながら、欲しい商品の掲載識別子1~6のいずれかをテンキー2から入力する。
Subsequently, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S3). “Please press the number you want on the moon flyer!”. The user inputs one of the publication identifiers 1 to 6 of the desired product from the numeric keypad 2 while viewing the product catalog in FIG.
制御部14は、ユーザが入力した掲載識別子Kをテンキー2から取得する(S4)。続いて、制御部14は、ユーザが選択した商品の商品名を発音する音声データを音声記憶部から取得する。つまり、制御部14は、ユーザ識別子Uおよび掲載識別子Kに関連付けられた音声識別子Vをカタログ記憶部から読み出し、更に、ユーザ識別子Uおよび音声識別子Vに関連付けられた商品名の音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した商品確認音声の音声データと商品名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S5)。「K番の○○(商品名)だね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires the posting identifier K input by the user from the numeric keypad 2 (S4). Subsequently, the control unit 14 acquires voice data that pronounces the product name of the product selected by the user from the voice storage unit. That is, the control unit 14 reads out the voice identifier V associated with the user identifier U and the publication identifier K from the catalog storage unit, and further stores the voice data of the product name associated with the user identifier U and the voice identifier V as the voice storage unit. Read from. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit. And the control part 14 combines the audio | voice data of the read goods confirmation audio | voice and the audio | voice data of a merchandise name, for example, makes the following words pronounce from the audio | voice output part 16 (S5). “No. XX (product name)! If this is OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S3の商品選択案内に戻る。一方、「はい」が入力された場合、以下の処理に進む(S5)。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the product selection guide of S3. On the other hand, if “yes” is input, the process proceeds to the following process (S5).
制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量入力案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S6)。「何個欲しいか、数を押してね!」。ユーザは、先ほど選択した商品の注文数量をテンキー2から入力する。
The control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( S6). “Press how many you want!”. The user inputs the order quantity of the product selected earlier from the numeric keypad 2.
制御部14は、ユーザが入力した注文数量をテンキー2から取得する(S7)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、ユーザが入力した数量の音声識別子に対応する音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した数量確認音声の音声データと数量の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S8)。「何個だね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires the order quantity input by the user from the numeric keypad 2 (S7). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the number of voice identifiers input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio | voice data of the read quantity confirmation audio | voice and quantity audio | voice data, for example, makes the following words pronounce from the audio | voice output part 16 (S8). “How many! If yes, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S6の数量入力案内に戻る。一方、「はい」が入力された場合、以下の処理に進む。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the quantity input guidance of S6. On the other hand, if “yes” is input, the process proceeds to the following process.
制御部14は、ユーザが選択した商品の商品識別子とその商品の注文数量とを記憶部15に記憶する。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、追加確認音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S9)。「他に欲しいものがあれば「はい」を、無いときは「いいえ」を押してね!」。
The control unit 14 stores the product identifier of the product selected by the user and the order quantity of the product in the storage unit 15. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the additional confirmation voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word. (S9). “If you have anything else you want, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「はい」が入力された場合、制御部14は、S3の商品選択案内に戻る。一方、「いいえ」が入力された場合、以下の処理に進む。
The user inputs “Yes” or “No” from the numeric keypad 2. When “Yes” is input, the control unit 14 returns to the product selection guide in S3. On the other hand, if “No” is entered, the process proceeds to the following process.
制御部14は、これまでにユーザが選択した各商品の商品識別子と各商品の各注文数量とを記憶部15から読み出す。制御部14は、読み出した各商品識別子に対応する商品の価格をカタログ記憶部の商品情報から読み出す。制御部14は、読み出した各商品の価格と各商品の注文数量とに基づいて注文合計金額を算出する。制御部14は、ユーザ識別子Uに関連付けられた音声データであって、算出された金額の音声識別子に対応する音声データと、各商品名の音声識別子に対応する音声データと、各商品の数量の音声識別子に対応する音声データとを、音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、注文明細確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した各音声データを組み合わせて、例えば次の言葉を音声出力部16から発音させる(S11)。
「それじゃあ、ご注文の商品を確認するよ!」
「長ねぎを3つと、大玉ももを2つと、だいこんを3つだね!」
「金額は、○○○○円だよ!」
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Thecontrol unit 14 reads the product identifier of each product selected by the user so far and each order quantity of each product from the storage unit 15. The control unit 14 reads the price of the product corresponding to each read product identifier from the product information in the catalog storage unit. The control unit 14 calculates the total order amount based on the read price of each product and the order quantity of each product. The control unit 14 is voice data associated with the user identifier U, the voice data corresponding to the calculated voice identifier, the voice data corresponding to the voice identifier of each product name, and the quantity of each product. Audio data corresponding to the audio identifier is read from the audio storage unit. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the order detail confirmation voice from the voice storage unit. And the control part 14 combines each read audio | voice data, for example, the next word is pronounced from the audio | voice output part 16 (S11).
“Now, I ’ll check the product you ordered!”
“Three long onions, two large thighs and three daikon!”
“The amount is ○○○○ yen!”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
「それじゃあ、ご注文の商品を確認するよ!」
「長ねぎを3つと、大玉ももを2つと、だいこんを3つだね!」
「金額は、○○○○円だよ!」
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 The
“Now, I ’ll check the product you ordered!”
“Three long onions, two large thighs and three daikon!”
“The amount is ○○○○ yen!”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S9の追加確認に戻る。一方、「はい」が入力された場合、次の処理に進む。ユーザは、どのタイミングにおいても、すべての入力を取り消すことができる。ユーザがテンキー2から「取り消し」を示すボタンを押した場合、制御部14は、記憶部15に記憶している商品識別子および注文数量をリセットし、S1のカード読み込みに戻る。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the addition confirmation in S9. On the other hand, if “yes” is input, the process proceeds to the next process. The user can cancel all inputs at any time. When the user presses a button indicating “cancel” from the numeric keypad 2, the control unit 14 resets the product identifier and the order quantity stored in the storage unit 15, and returns to the card reading of S1.
制御部14は、ユーザ識別子Uに関連付けられた音声データであって、お届け日確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。また、制御部14は、カレンダーを参照し、本日から数日後にあたるお届けの第1候補日を決定する。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、決定した日付の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した各音声データを組み合わせて、例えば次の言葉を音声出力部16から発音させる(S12)。
「お届け日は、○月×日でいい?」
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Thecontrol unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the delivery date confirmation audio from the audio storage unit. Further, the control unit 14 refers to the calendar and determines the first candidate date for delivery that is several days after today. In addition, the control unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the determined date from the audio storage unit. Then, the control unit 14 combines the read voice data, for example, to pronounce the next word from the voice output unit 16 (S12).
“Is the delivery date o month x day?”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
「お届け日は、○月×日でいい?」
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 The
“Is the delivery date o month x day?”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、お届けの候補日を変更しながら、S12のお届け日確認を繰り返す。一方、「はい」が入力された場合、以下の処理に進む。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 repeats the delivery date confirmation in S12 while changing the delivery candidate date. On the other hand, if “yes” is input, the process proceeds to the following process.
制御部14は、ユーザ識別子Uに関連付けられた音声データであって、お届け日案内音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出したお届け日案内音声の音声データと、直前に読み出したお届け候補日の音声データとを組み合わせて、例えば次の言葉を音声出力部16から発音させる。「じゃあ、○月△日に届けるようにするね!」。制御部14は、決定したお届け日を記憶部15に記憶する。
The control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the delivery date guidance voice from the voice storage unit. Then, the control unit 14 combines the voice data of the read delivery date guidance voice and the voice data of the delivery candidate date read immediately before, for example, and causes the voice output unit 16 to pronounce the next word. “Now, I ’ll deliver it on the day of the month!” The control unit 14 stores the determined delivery date in the storage unit 15.
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、決済方法確認音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S13)。
「お支払いは代金引換でいい?」。
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Subsequently, thecontrol unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the settlement method confirmation voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S13).
“Can I pay for it?”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
「お支払いは代金引換でいい?」。
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Subsequently, the
“Can I pay for it?”
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、決済方法を「電子マネー決済」や「クレジットカード決済」に変更しながら、S13の支払方法確認を繰り返す。または、決済方法ごとに対応するボタンをテンキー2に設け、ボタンを押すことにより決済方法を選択させてもよい。電子マネーは1、クレジット払いは2などのようにボタンを押して選択する方式にしてもよい。一方、「はい」が入力された場合、以下の処理に進む。制御部14は、決定した決済方法を記憶部15に記憶する。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 repeats the payment method confirmation in S13 while changing the payment method to “electronic money payment” or “credit card payment”. Alternatively, a button corresponding to each settlement method may be provided on the numeric keypad 2, and the settlement method may be selected by pressing the button. For example, electronic money may be selected by pressing a button such as 1 and credit payment may be 2. On the other hand, if “yes” is input, the process proceeds to the following process. The control unit 14 stores the determined settlement method in the storage unit 15.
制御部14は、ユーザ識別子Uに関連付けられた音声データであって、決定した決済方法の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(代金引換の場合)。
「ご注文ありがとう!」
「代金はお届けのときに頂くから、用意しておいてね!」 Thecontrol unit 14 reads out the voice data associated with the user identifier U and corresponding to the determined voice identifier of the settlement method from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( In the case of cash on delivery).
"Thank you for your order!"
“You will get the price at the time of delivery, so please have it ready!”
「ご注文ありがとう!」
「代金はお届けのときに頂くから、用意しておいてね!」 The
"Thank you for your order!"
“You will get the price at the time of delivery, so please have it ready!”
続いて、制御部14は、ユーザが注文した各商品の商品識別子、商品名、価格、注文数量、お届け日および決済方法を記憶部15から読み出す。また、制御部14は、カードリーダ3を通じてカード等からユーザの住所、氏名および電話番号を読み込む。又は、制御部14は、ユーザ記憶部からユーザの住所、氏名および電話番号を読み出す。又は、制御部14は、通信部17を通じてインターネット上からユーザの住所、氏名および電話番号を取得してもよい。そして、制御部14は、ユーザが注文した各商品の商品識別子、商品名、価格、注文数量、注文合計金額、お届け日、決済方法、ユーザの住所、氏名、電話番号および注文日を含む注文書データを生成する。そして、制御部14は、生成した注文書データを、通信部17を介してインターネット上の取引支援システムに送信する(S14)。
Subsequently, the control unit 14 reads the product identifier, product name, price, order quantity, delivery date, and settlement method of each product ordered by the user from the storage unit 15. The control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3. Or the control part 14 reads a user's address, a full name, and a telephone number from a user memory | storage part. Alternatively, the control unit 14 may acquire the user's address, name, and telephone number from the Internet through the communication unit 17. The control unit 14 then orders the product including the product identifier, product name, price, order quantity, total order amount, delivery date, payment method, user address, name, phone number, and order date of each product ordered by the user. Generate document data. And the control part 14 transmits the produced | generated purchase order data to the transaction assistance system on the internet via the communication part 17 (S14).
また、制御部14は、決済方法が電子マネー決済又はクレジットカード決済である場合は、カードリーダ3を通じてカード等から読み込んだ情報に基づき、通信部17を介してインターネット上の決済サービスに対し、電子マネー決済又はクレジットカード決済の処理を実行する(S15)。
In addition, when the payment method is electronic money payment or credit card payment, the control unit 14 provides electronic payment service to the Internet via the communication unit 17 based on information read from the card or the like through the card reader 3. Money settlement or credit card settlement processing is executed (S15).
また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、エンディング音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16に発音させる(S16)。「またね、ばいばい!」。
In addition, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the ending voice from the voice storage unit, and causes the voice output unit 16 to pronounce the next word, for example ( S16). "See you again, damn it!"
注文書データを受信した取引支援システムは、注文書データを注文された各商品の提供者に送信し、注文された商品がユーザに届くように手配する。この際、商品の提供者は、注文された商品を仕入れ、予約品として店舗に取り置いてもよい。
The transaction support system that has received the order form data transmits the order form data to the provider of each ordered product, and arranges for the ordered product to reach the user. At this time, the product provider may purchase the ordered product and leave it in the store as a reserved product.
以上の実施形態によれば、カードリーダ3にカードを読ませ、また、誘導音声に従ってテンキー2を操作するだけで商品を注文できるので、コンピュータの操作に不慣れなユーザであっても、従来に比べ簡単にインターネットを利用した買物等を利用することができる。また、親しみやすいキャラクター外装1により癒し効果も期待できる。さらに、ユーザの応答を音声認識する方法ではなく、入力できる情報が限られたテンキー2を用いることにより、ユーザの想定外の応答を考慮することなく、安価に装置を設計することができる。また、商品が掲載されたチラシ等に基づいて注文することにより、画面を不要にすることができ、買物支援装置をより安価に提供することが可能である。また、例えば携帯電話キャリアが自社のCMキャラクターをキャラクター外装1に採用したり、触覚スイッチ11の操作によりCMソングが流れるようにするなど、ユーザにとって愛着の湧く仕様に仕上げることも可能である。また、ICカードから住所や氏名等の個人情報を読み込むことが可能であり、ユーザは住所等を入力する必要もない。
According to the above embodiment, since the product can be ordered simply by causing the card reader 3 to read the card and operating the numeric keypad 2 in accordance with the guidance voice, even a user who is unfamiliar with the operation of the computer can compare with the conventional one. You can easily use the Internet for shopping. In addition, a healing effect can be expected from the friendly character exterior 1. Furthermore, by using the numeric keypad 2 with limited information that can be input instead of a method of recognizing the user's response, the apparatus can be designed at a low cost without considering a response unexpected by the user. Further, by placing an order based on a leaflet or the like on which products are posted, the screen can be made unnecessary, and the shopping support apparatus can be provided at a lower cost. In addition, for example, a mobile phone carrier can adopt its own CM character in the character exterior 1, or a CM song can be played by operating the tactile switch 11, so that the user can have a specification that will be attached to the user. In addition, personal information such as an address and name can be read from the IC card, and the user does not need to input an address or the like.
[タクシーの配車指示]
次に図6は、買物支援装置によりタクシーの配車を要求する手順を示したフローチャートである。図2の買物支援装置を稼働状態に設定し、ユーザは、所定のカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む(S21)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、オープニング音声に対応する音声識別子に関連付けられた音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた呼び名の音声データをユーザ記憶部から読み出す。そして、制御部14は、読み出したオープニング音声の音声データと呼び名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S22)。「○○さん、こんにちは。□□モンキーだよ!」。キャラクター外装1が発音する。 [Taxis allocation instructions]
Next, FIG. 6 is a flowchart showing a procedure for requesting taxi dispatch by the shopping support apparatus. The shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes thecard reader 3 to read a predetermined card or the like. The control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3 (S21). Subsequently, the control unit 14 reads out audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit. In addition, the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit. Then, the control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S22). "○○'s, Hello. □□'s monkey!". Character exterior 1 is pronounced.
次に図6は、買物支援装置によりタクシーの配車を要求する手順を示したフローチャートである。図2の買物支援装置を稼働状態に設定し、ユーザは、所定のカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む(S21)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、オープニング音声に対応する音声識別子に関連付けられた音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた呼び名の音声データをユーザ記憶部から読み出す。そして、制御部14は、読み出したオープニング音声の音声データと呼び名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S22)。「○○さん、こんにちは。□□モンキーだよ!」。キャラクター外装1が発音する。 [Taxis allocation instructions]
Next, FIG. 6 is a flowchart showing a procedure for requesting taxi dispatch by the shopping support apparatus. The shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes the
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品選択案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S231)。「欲しいボタンを押してね!」。ここで、ユーザは、テンキー2に設けられた「タクシーの配車」を示すキーを押下する。
Subsequently, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S231). "Press the button you want!" Here, the user presses a key indicating “taxi dispatch” provided on the numeric keypad 2.
制御部14は、ユーザが入力した「タクシーの配車」の要求をテンキー2から取得する(S232)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品確認音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S233)。「タクシーを呼ぶね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires a request for “taxi dispatch” input from the user from the numeric keypad 2 (S232). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit, and for example, pronounces the next word from the voice output unit 16. (S233). "I'll call you a taxi! Click" Yes "if you want, or" No "if you don't! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S23の商品選択案内に戻る。一方、「はい」が入力された場合、以下の処理に進む(S233)。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the product selection guide in S23. On the other hand, if “yes” is input, the process proceeds to the following process (S233).
続いて、制御部14は、タクシーを配車する時刻の指定を受け付ける(S24)。制御部14は、ユーザ識別子に対応する所定の音声データを音声記憶部から読み出し、例えば「すぐに呼ぶ?後で呼ぶ?すぐに呼ぶときは「はい」を、後で呼ぶときは「いいえ」を押してね。」と音声出力部16から発音させる。次いで、テンキー2から「はい」又は「いいえ」の入力を受け付け、「はい」の場合は配車時刻として「すぐに呼ぶ」旨を記憶部15に記憶する。一方、「いいえ」の場合はユーザ識別子に対応する所定の音声データを音声記憶部から読み出し、例えば「タクシーに来て欲しい時刻を押してね。」と音声出力部16から発音させる。そして、来て欲しい時刻をテンキー2から受け付け、入力された時刻を配車時刻として記憶部15に記憶する。
Subsequently, the control unit 14 accepts designation of a time for dispatching a taxi (S24). The control unit 14 reads predetermined audio data corresponding to the user identifier from the audio storage unit, and, for example, “call immediately, call later? Call“ Yes ”when calling immediately,“ No ”when calling later. Push it. Is pronounced from the voice output unit 16. Next, an input of “Yes” or “No” is accepted from the numeric keypad 2, and in the case of “Yes”, “call immediately” is stored in the storage unit 15 as the dispatch time. On the other hand, in the case of “No”, the predetermined voice data corresponding to the user identifier is read from the voice storage unit and, for example, “Please press the time you want to come to the taxi.” And the time which wants to come is received from the ten key 2, and the input time is memorize | stored in the memory | storage part 15 as dispatch time.
続いて、制御部14は、タクシーを配車する場所の指定を受け付ける(S25)。記憶部15には、予めユーザ識別子に関連付けて複数の場所を表す情報を登録しているものとする。場所を表す情報は、場所の名称(自宅や病院など)と、その場所の住所又は位置情報とを関連付けて構成されている。制御部14は、ユーザ識別子に関連付けられた所定の音声データを音声記憶部から読み出し、例えば「場所は自宅でいい?あるいは病院かな?」などと音声出力部16から発音させる。次いで、テンキー2から場所の指定を受け付け、指定された場所を配車場所として記憶部15に記憶する。住所又は位置情報を予め登録していない場所の場合、テンキー2から住所を特定する情報(郵便番号、市町村名、番地など)を音声案内に従ってテンキー2から入力又は選択させてもよい。
Subsequently, the control unit 14 accepts designation of a place where a taxi is allocated (S25). It is assumed that information representing a plurality of places is registered in the storage unit 15 in advance in association with the user identifier. The information representing the place is configured by associating the name of the place (such as home or hospital) with the address or position information of the place. The control unit 14 reads out predetermined audio data associated with the user identifier from the audio storage unit, and causes the audio output unit 16 to pronounce, for example, “Is the place home or is it a hospital?”. Next, designation of a location is received from the numeric keypad 2 and the designated location is stored in the storage unit 15 as a dispatch location. In the case of a place where address or position information is not registered in advance, information (such as a zip code, a city name, or a street address) specifying the address from the numeric keypad 2 may be input or selected from the numeric keypad 2 according to voice guidance.
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量入力案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S26)。「何台呼ぶか、数を押してね!」。ユーザは、配車を望むタクシーの台数をテンキー2から入力する。
Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, for example, reads the next word from the voice output unit 16. Make a pronunciation (S26). “Press how many you want to call!” The user inputs the number of taxis desired to be dispatched from the numeric keypad 2.
制御部14は、ユーザが入力した台数をテンキー2から取得する(S27)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、ユーザが入力した台数の音声識別子に対応する音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した数量確認音声の音声データと台数の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S28)。「○台だね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires the number input by the user from the numeric keypad 2 (S27). Subsequently, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the number of voice identifiers input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio | voice data of the read quantity confirmation audio | voice and the audio | voice data of the number, for example, makes the following words pronounce from the audio | voice output part 16 (S28). “It ’s a ○ stand! If it ’s OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S26の数量入力案内に戻る。一方、「はい」が入力された場合、以下の処理に進む。ユーザは、どのタイミングにおいても、すべての入力を取り消すことができる。ユーザがテンキー2から「取り消し」を示すボタンを押した場合、制御部14は、S21のカード読み込みに戻る。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the quantity input guidance of S26. On the other hand, if “yes” is input, the process proceeds to the following process. The user can cancel all inputs at any time. When the user presses the button indicating “Cancel” from the numeric keypad 2, the control unit 14 returns to the card reading of S21.
制御部14は、カードリーダ3を通じてカード等からユーザの住所、氏名および電話番号を読み込む。又は、制御部14は、ユーザ記憶部からユーザの住所、氏名および電話番号を読み出す。又は、制御部14は、通信部17を通じてインターネット上からユーザの住所、氏名および電話番号を取得してもよい。そして、制御部14は、記憶部15に記憶した情報に基づき、ユーザが希望した台数のタクシーの配車要求データを生成し、取引支援システム又は所定のタクシー会社のコンピュータに送信する(S29)。配車要求データは、タクシー配車に対応する商品識別子、配車先の住所、氏名、配車時刻および電話番号を含む。
The control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3. Or the control part 14 reads a user's address, a full name, and a telephone number from a user memory | storage part. Alternatively, the control unit 14 may acquire the user's address, name, and telephone number from the Internet through the communication unit 17. And the control part 14 produces | generates the dispatch request data of the number of taxis which the user desired based on the information memorize | stored in the memory | storage part 15, and transmits to the computer of a transaction assistance system or a predetermined taxi company (S29). The dispatch request data includes a product identifier corresponding to the taxi dispatch, a destination address, a name, a dispatch time, and a telephone number.
また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、エンディング音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16に発音させる(S30)。「タクシーを呼んだよ。到着まで待ってね!」。
In addition, the control unit 14 reads out the voice data associated with the user identifier U and corresponding to the voice identifier of the ending voice from the voice storage unit, and causes the voice output unit 16 to pronounce the next word, for example ( S30). “Take a taxi. Wait until you arrive!”.
以上の実施形態によれば、ユーザは、カード等を読ませ、また、買物支援装置へのテンキー入力だけでタクシーの配車を手配することができる。
According to the above embodiment, the user can arrange a taxi dispatch by simply reading a card or the like and inputting only a numeric keypad to the shopping support apparatus.
[ふるさと納税の申し込み]
図7は、買物支援装置により、ふるさと納税を申し込む手順を示したフローチャートである。図2の買物支援装置を稼働状態に設定し、ユーザは、所定のカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む(S31)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、オープニング音声に対応する音声識別子に関連付けられた音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた呼び名の音声データをユーザ記憶部から読み出す。そして、制御部14は、読み出したオープニング音声の音声データと呼び名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S32)。「○○さん、こんにちは。□□モンキーだよ!」。キャラクター外装1が発音する。 [Application for hometown tax payment]
FIG. 7 is a flowchart showing a procedure for applying for hometown tax payment by the shopping support apparatus. The shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes thecard reader 3 to read a predetermined card or the like. The control unit 14 reads the card unique number as the user identifier U from the card or the like through the card reader 3 (S31). Subsequently, the control unit 14 reads out audio data associated with the user identifier U and associated with the audio identifier corresponding to the opening audio from the audio storage unit. In addition, the control unit 14 reads out voice data of a name associated with the user identifier U from the user storage unit. Then, the control unit 14 combines the read voice data of the opening voice and the voice data of the name, and for example, causes the voice output unit 16 to pronounce the next word (S32). "○○'s, Hello. □□'s monkey!". Character exterior 1 is pronounced.
図7は、買物支援装置により、ふるさと納税を申し込む手順を示したフローチャートである。図2の買物支援装置を稼働状態に設定し、ユーザは、所定のカード等をカードリーダ3に読ませる。制御部14は、カードリーダ3を通じてカード等からユーザ識別子Uとしてのカード固有番号を読み込む(S31)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、オープニング音声に対応する音声識別子に関連付けられた音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた呼び名の音声データをユーザ記憶部から読み出す。そして、制御部14は、読み出したオープニング音声の音声データと呼び名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S32)。「○○さん、こんにちは。□□モンキーだよ!」。キャラクター外装1が発音する。 [Application for hometown tax payment]
FIG. 7 is a flowchart showing a procedure for applying for hometown tax payment by the shopping support apparatus. The shopping support apparatus shown in FIG. 2 is set to the operating state, and the user causes the
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品選択案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S33)。「欲しいボタンを押してね!」。ここで、ユーザは、テンキー2に設けられた「ふるさと納税」を示すキーを押下する。
Subsequently, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the product selection guidance voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S33). "Press the button you want!" Here, the user presses a key indicating “hometown tax payment” provided on the numeric keypad 2.
制御部14は、ユーザが入力した「ふるさと納税」の要求をテンキー2から取得する(S34)。続いて、制御部14は、ふるさと納税の寄付先の自治体名を発音する音声データを音声記憶部から取得する。つまり、制御部14は、ユーザ識別子Uおよびふるさと納税に対応する商品識別子に関連付けられた音声識別子をカタログ記憶部から読み出し、更に、そのユーザ識別子Uおよび音声識別子に予め関連付けられた商品名としての自治体名の音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、商品確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した商品確認音声の音声データと自治体名の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S35)。「○○県□□市にふるさと納税をするね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires a request for “hometown tax payment” input by the user from the numeric keypad 2 (S34). Subsequently, the control unit 14 acquires, from the voice storage unit, voice data that pronounces the name of the local government of the hometown tax payment destination. That is, the control unit 14 reads out the voice identifier associated with the user identifier U and the product identifier corresponding to the hometown tax payment from the catalog storage unit, and further, the local government as a product name associated with the user identifier U and the voice identifier in advance. Read the voice data of the name from the voice storage unit. Further, the control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the product confirmation voice from the voice storage unit. And the control part 14 combines the audio | voice data of the read goods confirmation audio | voice and the audio | voice data of a local government name, for example, makes the following words pronounce from the audio | voice output part 16 (S35). “I will pay my hometown tax to □□ city in XX prefecture! If yes, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S33の商品選択案内に戻る。一方、「はい」が入力された場合、以下の処理に進む(S35)。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the product selection guide in S33. On the other hand, if “yes” is input, the process proceeds to the following process (S35).
制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量入力案内音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S36)。「幾ら納めるか、金額を押してね!」。ユーザは、ふるさと納税として寄付する金額をテンキー2から入力する。
The control unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the quantity input guidance voice from the voice storage unit, and for example, causes the voice output unit 16 to pronounce the next word ( S36). “Pay how much you want to pay!” The user inputs the amount to be donated as the hometown tax payment from the numeric keypad 2.
制御部14は、ユーザが入力した金額をテンキー2から取得する(S37)。続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、ユーザが入力した金額の音声識別子に対応する音声データを音声記憶部から読み出す。また、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、数量確認音声の音声識別子に対応する音声データを音声記憶部から読み出す。そして、制御部14は、読み出した数量確認音声の音声データと金額の音声データとを組み合わせ、例えば次の言葉を音声出力部16から発音させる(S38)。「○万円だね!これでよければ「はい」を、違うときは「いいえ」を押してね!」。
The control unit 14 acquires the amount of money input by the user from the numeric keypad 2 (S37). Subsequently, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the amount input by the user from the voice storage unit. In addition, the control unit 14 reads out voice data associated with the user identifier U and corresponding to the voice identifier of the quantity confirmation voice from the voice storage unit. And the control part 14 combines the audio | voice data of the read quantity confirmation audio | voice and the audio | voice data of an amount, for example, the following words are pronounced from the audio | voice output part 16 (S38). “It ’s ¥ 10,000! If you ’re satisfied, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、S36の数量入力案内に戻る。一方、「はい」が入力された場合、以下の処理に進む。ユーザは、どのタイミングにおいても、すべての入力を取り消すことができる。ユーザがテンキー2から「取り消し」を示すボタンを押した場合、制御部14は、S31のカード読み込みに戻る。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 returns to the quantity input guidance of S36. On the other hand, if “yes” is input, the process proceeds to the following process. The user can cancel all inputs at any time. When the user presses the button indicating “Cancel” from the numeric keypad 2, the control unit 14 returns to the card reading of S31.
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、決済方法確認音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる(S39)。
「お支払いはクレジットカードでいい?」。
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Subsequently, thecontrol unit 14 reads voice data associated with the user identifier U and corresponding to the voice identifier of the settlement method confirmation voice from the voice storage unit, and for example, reads the next word from the voice output unit 16. Make a pronunciation (S39).
"Can I pay with a credit card?"
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
「お支払いはクレジットカードでいい?」。
「これでよければ「はい」を、違うときは「いいえ」を押してね!」 Subsequently, the
"Can I pay with a credit card?"
“If this is OK, press“ Yes ”, otherwise press“ No ”! "
ユーザは、テンキー2から「はい」又は「いいえ」を入力する。「いいえ」が入力された場合、制御部14は、決済方法を他の決済方法に変更しながら、S39の支払方法確認を繰り返す。一方、「はい」が入力された場合、以下の処理に進む。制御部14は、決定した決済方法を記憶部15に記憶する。
The user inputs “Yes” or “No” from the numeric keypad 2. When “No” is input, the control unit 14 repeats the payment method confirmation in S39 while changing the payment method to another payment method. On the other hand, if “yes” is input, the process proceeds to the following process. The control unit 14 stores the determined settlement method in the storage unit 15.
続いて、制御部14は、ふるさと納税のお礼品を選択する処理を実行する(S40)。ここで、制御部14は、図5のS3からS5の処理と同様に、お礼品をユーザに選択させる処理を実行し、選択されたお礼品の商品識別子を記憶部15に記憶する。
Subsequently, the control unit 14 executes a process of selecting a hometown tax gift (S40). Here, the control part 14 performs the process which makes a user select a gift as the process of S3 to S5 of FIG. 5, and memorize | stores the goods identifier of the selected gift in the memory | storage part 15. FIG.
続いて、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、決定した決済方法の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16から発音させる。
「お申込みありがとう!」
「お礼品を楽しみに待っていてね!」 Subsequently, thecontrol unit 14 reads voice data associated with the user identifier U and corresponding to the determined voice identifier of the settlement method from the voice storage unit, and for example, reads the next word from the voice output unit 16. Let them pronounce.
"Thank you for the application!"
"Wait for fun!"
「お申込みありがとう!」
「お礼品を楽しみに待っていてね!」 Subsequently, the
"Thank you for the application!"
"Wait for fun!"
制御部14は、カードリーダ3を通じてカード等からユーザの住所、氏名および電話番号を読み込む。又は、制御部14は、ユーザ記憶部からユーザの住所、氏名および電話番号を読み出す。又は、制御部14は、通信部17を通じてインターネット上からユーザの住所、氏名および電話番号を取得してもよい。そして、制御部14は、ユーザが希望した金額のふるさと納税の申込書データを生成し、通信部17を通じて取引支援システムに送信する(S41)。申込書データは、ふるさと納税に対応する商品識別子、寄付金額、決済方法、お礼品の商品識別子、ユーザの住所、氏名および電話番号を含む。申込書データを受けた取引支援システムは、ふるさと納税を代行する。
The control unit 14 reads the user's address, name, and telephone number from the card or the like through the card reader 3. Or the control part 14 reads a user's address, a full name, and a telephone number from a user memory | storage part. Alternatively, the control unit 14 may acquire the user's address, name, and telephone number from the Internet through the communication unit 17. And the control part 14 produces | generates the hometown of the amount of money which the user requested, and tax payment application form data, and transmits to a transaction assistance system through the communication part 17 (S41). The application form data includes a product identifier corresponding to hometown tax payment, a donation amount, a payment method, a product identifier of a thank-you gift, a user address, a name, and a telephone number. Upon receiving the application form data, the transaction support system acts as a hometown tax payment.
また、制御部14は、決済方法がクレジットカード決済である場合は、カードリーダ3を通じてカード等から読み込んだ情報に基づき、通信部17を介してインターネット上の決済サービスに対し、クレジットカード決済の処理を実行する(S42)。ここで、S42の決済処理は、支払方法確認(S39)の後、お礼品選択処理(S40)の前に実行してもよい。
Further, when the payment method is a credit card payment, the control unit 14 performs a credit card payment process for a payment service on the Internet via the communication unit 17 based on information read from the card or the like through the card reader 3. Is executed (S42). Here, the settlement process of S42 may be executed after the payment method confirmation (S39) and before the gift selection process (S40).
そして、制御部14は、ユーザ識別子Uに関連付けられた音声データであって、エンディング音声の音声識別子に対応する音声データを音声記憶部から読み出し、例えば次の言葉を音声出力部16に発音させる(S43)。「またね、ばいばい!」。
Then, the control unit 14 reads out audio data associated with the user identifier U and corresponding to the audio identifier of the ending audio from the audio storage unit, and causes the audio output unit 16 to pronounce the next word, for example ( S43). "See you again, damn it!"
以上の実施形態によると、ユーザは、買物支援装置から特定の自治体へのふるさと納税を簡単に行うことができる。自治体は、ご当地のキャラクター外装(例えば岡山県は桃太郎)とした買物支援装置をユーザに与えることにより、ユーザからのふるさと納税を得やすくなり、かつ、他の自治体へのユーザの移り気を抑えることができる。買物支援装置の装置固有番号と寄付先の自治体とを予め紐付けておき、取引支援システムでは買物支援装置の装置固有番号に基づいて寄付先の自治体を判定することも可能である。
According to the above embodiment, the user can easily perform hometown tax payment from the shopping support apparatus to a specific local government. Local governments can provide users with a shopping support device with a local character exterior (for example, Momotaro in Okayama Prefecture), making it easier for users to get home and paying taxes, and reducing the movement of users to other local governments. Can do. It is also possible to associate the device unique number of the shopping support apparatus with the local government of the donation destination in advance, and the transaction support system can determine the local government of the donation destination based on the device unique number of the shopping support apparatus.
[触覚スイッチの機能]
図8は、ユーザが触覚スイッチ11を押圧した際の買物支援装置の動作を示す。ユーザがキャラクター外装1の手や鼻に内蔵された触覚スイッチ11を押圧し、触覚スイッチ11がオンになると、制御部14は、触覚スイッチ11のオンを検知し(S51)、オンになった触覚スイッチ11に対応する音声データを音声記憶部から読み出し(S52)、読み出した音声データを音声出力部16から再生させる(S53)。各触覚スイッチ11には、それぞれ異なる音声識別子を紐付けており、制御部14は、オンになった触覚スイッチ11に紐付けられた音声識別子について、音声識別子に関連付けられた音声データを音声記憶部から読み出す。音声データの内容は、例えば、右手を握ると挨拶、左手を握るとまた違う挨拶、鼻をつまむと歌を歌う、というように、場所に応じて異なる音声になっている。これにより、ユーザと買物支援装置との間でコミュニケーションを取ることができ、ユーザにとってますます買物支援装置は愛着の湧く存在となる。 [Function of tactile switch]
FIG. 8 shows the operation of the shopping support apparatus when the user presses thetactile switch 11. When the user presses the tactile switch 11 built in the hand or nose of the character exterior 1 and the tactile switch 11 is turned on, the control unit 14 detects that the tactile switch 11 is turned on (S51), and the tactile sense that is turned on. Audio data corresponding to the switch 11 is read from the audio storage unit (S52), and the read audio data is reproduced from the audio output unit 16 (S53). Each tactile switch 11 is associated with a different sound identifier, and the control unit 14 stores sound data associated with the sound identifier for the sound identifier associated with the tactile switch 11 that is turned on. Read from. The contents of the audio data are different depending on the location, such as greeting when holding the right hand, different greetings when holding the left hand, and singing a song when pinching the nose. Thereby, it is possible to communicate between the user and the shopping support apparatus, and the shopping support apparatus becomes increasingly attached to the user.
図8は、ユーザが触覚スイッチ11を押圧した際の買物支援装置の動作を示す。ユーザがキャラクター外装1の手や鼻に内蔵された触覚スイッチ11を押圧し、触覚スイッチ11がオンになると、制御部14は、触覚スイッチ11のオンを検知し(S51)、オンになった触覚スイッチ11に対応する音声データを音声記憶部から読み出し(S52)、読み出した音声データを音声出力部16から再生させる(S53)。各触覚スイッチ11には、それぞれ異なる音声識別子を紐付けており、制御部14は、オンになった触覚スイッチ11に紐付けられた音声識別子について、音声識別子に関連付けられた音声データを音声記憶部から読み出す。音声データの内容は、例えば、右手を握ると挨拶、左手を握るとまた違う挨拶、鼻をつまむと歌を歌う、というように、場所に応じて異なる音声になっている。これにより、ユーザと買物支援装置との間でコミュニケーションを取ることができ、ユーザにとってますます買物支援装置は愛着の湧く存在となる。 [Function of tactile switch]
FIG. 8 shows the operation of the shopping support apparatus when the user presses the
[音声データの取得方法]
以上説明した買物支援装置では、音声記憶部に音声データを記憶し、発音の際には、当該音声データを読み出して再生しているが、音声データに代えてテキストデータを記憶しておき、制御部14は、発音の都度、テキストデータを当該テキストデータに対応する言葉を発音する音声データに変換して発音に用いてもよい。 [Acquisition method of audio data]
In the shopping support apparatus described above, the voice data is stored in the voice storage unit, and the voice data is read and reproduced at the time of pronunciation. However, instead of the voice data, the text data is stored and controlled. Theunit 14 may convert the text data into voice data that pronounces a word corresponding to the text data each time it is pronounced and use it for pronunciation.
以上説明した買物支援装置では、音声記憶部に音声データを記憶し、発音の際には、当該音声データを読み出して再生しているが、音声データに代えてテキストデータを記憶しておき、制御部14は、発音の都度、テキストデータを当該テキストデータに対応する言葉を発音する音声データに変換して発音に用いてもよい。 [Acquisition method of audio data]
In the shopping support apparatus described above, the voice data is stored in the voice storage unit, and the voice data is read and reproduced at the time of pronunciation. However, instead of the voice data, the text data is stored and controlled. The
また、制御部14は、発音の都度、テキストデータをインターネット上の音声合成システムに送信し、当該音声合成システムからテキストデータに対応する言葉を発音する音声データを受信して発音に用いてもよい。
In addition, the control unit 14 may transmit text data to a speech synthesis system on the Internet each time a pronunciation is received, receive voice data that pronounces a word corresponding to the text data from the speech synthesis system, and use it for pronunciation. .
また、制御部14は、発音の都度、音声識別子をインターネット上のサーバシステムに送信し、当該サーバシステムから音声識別子に対応する音声データを受信して発音に用いてもよい。
In addition, the control unit 14 may transmit a voice identifier to a server system on the Internet each time a sound is generated, receive voice data corresponding to the voice identifier from the server system, and use it for sound generation.
また、制御部14は、発音の都度、音声識別子をインターネット上のサーバシステムに送信し、当該サーバシステムから音声識別子に対応するテキストデータを受信し、受信したテキストデータを当該テキストデータに対応する言葉を発音する音声データに変換して発音に用いてもよい。以上において、最終的に音声データに変換できるものであれば、上記のテキストデータに代えて任意の電子データを採用することができる。
The control unit 14 transmits a voice identifier to a server system on the Internet each time a pronunciation is generated, receives text data corresponding to the voice identifier from the server system, and uses the received text data as a word corresponding to the text data. May be used for pronunciation after being converted into voice data. In the above, any electronic data can be adopted instead of the text data as long as it can be finally converted into voice data.
[本体へのタッチパネルの搭載]
また、本実施形態の買物支援装置は、表示用のディスプレイを持たないが、買物支援装置10のキャラクター外装1の腹部にタブレット端末等のタッチパネルを備え、制御部14は、ユーザの入力をタッチパネルから受け付けると共に、音声で出力していた内容をタッチパネルに表示するようにしてもよい。制御部14は、注文処理の進行に合せて所定のコンテンツを内蔵のタッチパネルに表示してもよい。制御部14は、カタログ記憶部のデータに基づいて内蔵のタッチパネルに商品カタログ画面を表示させてもよい。 [Mounting the touch panel on the main unit]
Moreover, although the shopping assistance apparatus of this embodiment does not have a display for display, it is provided with a touch panel such as a tablet terminal on the abdomen of thecharacter exterior 1 of the shopping assistance apparatus 10, and the control unit 14 receives user input from the touch panel. While accepting, the content that has been output by voice may be displayed on the touch panel. The control unit 14 may display predetermined content on a built-in touch panel as the order process progresses. The control unit 14 may display a product catalog screen on a built-in touch panel based on data in the catalog storage unit.
また、本実施形態の買物支援装置は、表示用のディスプレイを持たないが、買物支援装置10のキャラクター外装1の腹部にタブレット端末等のタッチパネルを備え、制御部14は、ユーザの入力をタッチパネルから受け付けると共に、音声で出力していた内容をタッチパネルに表示するようにしてもよい。制御部14は、注文処理の進行に合せて所定のコンテンツを内蔵のタッチパネルに表示してもよい。制御部14は、カタログ記憶部のデータに基づいて内蔵のタッチパネルに商品カタログ画面を表示させてもよい。 [Mounting the touch panel on the main unit]
Moreover, although the shopping assistance apparatus of this embodiment does not have a display for display, it is provided with a touch panel such as a tablet terminal on the abdomen of the
[スマートフォン等のインターフェースの利用]
また、買物支援装置10は、外部装置と有線又は無線で通信することにより、外部装置の入力装置と表示装置を利用してもよい。外部装置として、タブレット端末、スマートフォン又はテレビ等を利用することが可能である。制御部14は、外部装置の入力装置又はテンキー2からの入力に基づき、通信部17を介して外部装置に対しコンテンツを送信し、注文処理の進行に合せて所定のコンテンツを外部装置に表示させてもよい。制御部14は、カタログ記憶部のデータに基づいて外部装置に商品カタログ画面を表示させてもよい。 [Use of interfaces such as smartphones]
Further, theshopping support apparatus 10 may use the input device and the display device of the external device by communicating with the external device in a wired or wireless manner. As an external device, a tablet terminal, a smartphone, a television, or the like can be used. The control unit 14 transmits the content to the external device via the communication unit 17 based on the input from the input device of the external device or the numeric keypad 2, and displays the predetermined content on the external device as the order process proceeds. May be. The control unit 14 may cause the external device to display a product catalog screen based on the data stored in the catalog storage unit.
また、買物支援装置10は、外部装置と有線又は無線で通信することにより、外部装置の入力装置と表示装置を利用してもよい。外部装置として、タブレット端末、スマートフォン又はテレビ等を利用することが可能である。制御部14は、外部装置の入力装置又はテンキー2からの入力に基づき、通信部17を介して外部装置に対しコンテンツを送信し、注文処理の進行に合せて所定のコンテンツを外部装置に表示させてもよい。制御部14は、カタログ記憶部のデータに基づいて外部装置に商品カタログ画面を表示させてもよい。 [Use of interfaces such as smartphones]
Further, the
[レシートの印刷]
また、キャラクター外装1の腹部や背中等にレシートプリンタを内蔵し、制御部14は、注文内容のレシートをユーザ用に印刷してもよい。 [Print Receipt]
Further, a receipt printer may be built in the abdomen or back of thecharacter exterior 1, and the control unit 14 may print a receipt of the order contents for the user.
また、キャラクター外装1の腹部や背中等にレシートプリンタを内蔵し、制御部14は、注文内容のレシートをユーザ用に印刷してもよい。 [Print Receipt]
Further, a receipt printer may be built in the abdomen or back of the
[住所の取得]
ユーザの住所は、前述した方法で取得するほか、テンキー2から入力してもよい。この場合、テンキー2から入力された郵便番号に基づいて当該郵便番号に対応する番地以外の住所情報を住所データベースから取得し、これに加えて、テンキー2から番地を入力させることによりユーザの完全な住所を取得してもよい。この際、外部のコンピュータが記憶している住所データベースをネットワーク経由で利用してもよい。この住所取得の処理は、買物支援装置10の制御部14が行ってもよいし、サーバ側のコンピュータが実行して取得した住所情報を買物支援装置10に提供してもよい。 [Get Address]
The user's address may be input from thenumeric keypad 2 in addition to the method described above. In this case, the address information other than the address corresponding to the postal code is acquired from the address database based on the postal code input from the numeric keypad 2, and in addition to this, the address of the user is input by inputting the address from the numeric keypad 2. An address may be acquired. At this time, an address database stored in an external computer may be used via a network. This address acquisition process may be performed by the control unit 14 of the shopping support apparatus 10, or may provide the shopping support apparatus 10 with address information acquired and executed by a computer on the server side.
ユーザの住所は、前述した方法で取得するほか、テンキー2から入力してもよい。この場合、テンキー2から入力された郵便番号に基づいて当該郵便番号に対応する番地以外の住所情報を住所データベースから取得し、これに加えて、テンキー2から番地を入力させることによりユーザの完全な住所を取得してもよい。この際、外部のコンピュータが記憶している住所データベースをネットワーク経由で利用してもよい。この住所取得の処理は、買物支援装置10の制御部14が行ってもよいし、サーバ側のコンピュータが実行して取得した住所情報を買物支援装置10に提供してもよい。 [Get Address]
The user's address may be input from the
[決済方法の選択]
決済方法の選択は、前述した方法で選択するほか、テンキー2のボタンを押して選択してもよい。テンキー2のボタンに予め「代引」等の決済方法を表示しておき、選択する決済方法のボタンを押すようにしてもよい。また、音声案内により「代引きは1を、クレジットカードは2を、電子マネーは3を押してね」のように発音し、選択する決済方法に対応した数字のボタンを押すようにしてもよい。 [Select payment method]
The payment method can be selected by the method described above or by pressing the button on thenumeric keypad 2. A settlement method such as “cash on delivery” may be displayed in advance on the button of the numeric keypad 2, and the button of the settlement method to be selected may be pressed. Further, by voice guidance, it may be pronounced as “Cash on delivery is 1, credit card is 2 and electronic money is 3” and a number button corresponding to the settlement method to be selected may be pressed.
決済方法の選択は、前述した方法で選択するほか、テンキー2のボタンを押して選択してもよい。テンキー2のボタンに予め「代引」等の決済方法を表示しておき、選択する決済方法のボタンを押すようにしてもよい。また、音声案内により「代引きは1を、クレジットカードは2を、電子マネーは3を押してね」のように発音し、選択する決済方法に対応した数字のボタンを押すようにしてもよい。 [Select payment method]
The payment method can be selected by the method described above or by pressing the button on the
[音声データの選択]
上記実施形態では、カードリーダ3からユーザ識別子Uとしてのカード固有番号を読み込み、読み込んだユーザ識別子Uに対応する音声データを発音させ、これにより、ユーザ毎に異なる音声での発音を可能とした。これに対し、カードリーダ3から商品等の取引者又はサービス等の提供者を一意に特定する業者識別子を読み込み、読み込んだ業者識別子に対応する音声データを発音させ、これにより、商品等の取引者又はサービス等の提供者毎に異なる音声や言葉遣いでの発音をしてもよい。図3(a)の「ユーザ識別子」を「業者識別子」に代えることにより実現することができる。 [Select audio data]
In the above-described embodiment, the card unique number as the user identifier U is read from thecard reader 3 and the sound data corresponding to the read user identifier U is sounded, thereby enabling sound generation with different sounds for each user. On the other hand, the merchant identifier that uniquely identifies the merchant of the product or the provider of the service or the like is read from the card reader 3, and the voice data corresponding to the read merchant identifier is pronounced. Alternatively, pronunciation may be made with different voices or words for each provider of services. This can be realized by replacing the “user identifier” in FIG.
上記実施形態では、カードリーダ3からユーザ識別子Uとしてのカード固有番号を読み込み、読み込んだユーザ識別子Uに対応する音声データを発音させ、これにより、ユーザ毎に異なる音声での発音を可能とした。これに対し、カードリーダ3から商品等の取引者又はサービス等の提供者を一意に特定する業者識別子を読み込み、読み込んだ業者識別子に対応する音声データを発音させ、これにより、商品等の取引者又はサービス等の提供者毎に異なる音声や言葉遣いでの発音をしてもよい。図3(a)の「ユーザ識別子」を「業者識別子」に代えることにより実現することができる。 [Select audio data]
In the above-described embodiment, the card unique number as the user identifier U is read from the
これによると、ユーザが業者Aとの取引用のカードを読ませると、その後は業者Aに対応する音声で案内がなされ、ユーザが業者Bとの取引用のカードを読ませると、その後は業者Bに対応する音声で案内がなされる。また、この方法によらず、商品番号(商品識別子)に基づいて対応する業者識別子(仲介者識別子や提供者識別子)を特定し、その業者識別子ごとに異なる音声や言葉遣いで発音してもよい。この場合、業者識別子と音声セット識別子とを予め紐付けて記憶しておくと共に、商品識別子と業者識別子とを予め紐付けて記憶しておくとよい。
According to this, when the user reads a card for transaction with the merchant A, after that, guidance is given by voice corresponding to the merchant A, and when the user reads the card for transaction with the merchant B, the merchant thereafter Guidance is given by voice corresponding to B. Further, regardless of this method, a corresponding merchant identifier (mediator identifier or provider identifier) may be specified based on a merchandise number (product identifier) and pronounced with a different voice or wording for each merchant identifier. . In this case, the merchant identifier and the voice set identifier may be stored in association with each other, and the product identifier and the contractor identifier may be stored in association with each other in advance.
[店頭や商店街におけるポイント付与]
図1のような買物支援装置10を店舗のレジ脇等に設置し、ポイントカードにポイントを加算する目的で使用することが可能である。その際、キャラクター外装として、その店舗又はその店舗の所在地に縁のあるキャラクターを採用することができる。カードリーダ3は、買い物客がカードをかざすことができる場所に設置し、テンキー2はレジを打つ店員が操作する位置に設置する。
図2において、制御部14は、カードリーダ3にかざされたカードから、カードリーダ接続部13を介してユーザ識別子又は業者識別子を読み込む。そして、制御部14は、上述した実施形態と同様に、ユーザ識別子又は業者識別子に対応した音声による案内を音声出力部16から出力させる。
店員は、買い物客が購入した商品に応じて、付与するポイント数(加算ポイント数)をテンキー2から入力する。 [Points in stores and shopping streets]
Ashopping support apparatus 10 such as that shown in FIG. 1 can be installed beside a cash register in a store and used for the purpose of adding points to a point card. At that time, as the character exterior, a character having an edge in the store or the location of the store can be adopted. The card reader 3 is installed at a place where the shopper can hold the card, and the numeric keypad 2 is installed at a position operated by the store clerk who hits the cash register.
In FIG. 2, thecontrol unit 14 reads a user identifier or a trader identifier from the card held over the card reader 3 via the card reader connection unit 13. And the control part 14 outputs the guidance by the audio | voice corresponding to a user identifier or a trader identifier from the audio | voice output part 16 similarly to embodiment mentioned above.
The store clerk inputs the number of points to be given (number of points to be added) from thenumeric keypad 2 according to the product purchased by the shopper.
図1のような買物支援装置10を店舗のレジ脇等に設置し、ポイントカードにポイントを加算する目的で使用することが可能である。その際、キャラクター外装として、その店舗又はその店舗の所在地に縁のあるキャラクターを採用することができる。カードリーダ3は、買い物客がカードをかざすことができる場所に設置し、テンキー2はレジを打つ店員が操作する位置に設置する。
図2において、制御部14は、カードリーダ3にかざされたカードから、カードリーダ接続部13を介してユーザ識別子又は業者識別子を読み込む。そして、制御部14は、上述した実施形態と同様に、ユーザ識別子又は業者識別子に対応した音声による案内を音声出力部16から出力させる。
店員は、買い物客が購入した商品に応じて、付与するポイント数(加算ポイント数)をテンキー2から入力する。 [Points in stores and shopping streets]
A
In FIG. 2, the
The store clerk inputs the number of points to be given (number of points to be added) from the
ポイントをカード内の記憶部に加算する場合、制御部14は、カードリーダ接続部13を介してカードに記憶されている現在のポイント数を取得する。また、制御部14は、テンキー2から入力された加算ポイント数を、テンキー接続部12を介して取得する。そして、制御部14は、現在のポイント数に加算ポイント数を加えた合計ポイント数を、カードリーダにかざされているカードの記憶部に、カードリーダ接続部13を介して更新する。
また、ポイントを外部のポイント管理システムに加算する場合、制御部14は、カードから読み取ったカード固有の識別子と、加算ポイント数又は加算後の合計ポイント数とを紐付けて、通信部17を介してポイント管理システムに送信する。
このようにすると、新たなポイントカードサービスを買い物客に提供することができる。 When adding points to the storage unit in the card, thecontrol unit 14 acquires the current number of points stored in the card via the card reader connection unit 13. Further, the control unit 14 acquires the number of points added from the numeric keypad 2 via the numeric keypad connection unit 12. Then, the control unit 14 updates the total number of points obtained by adding the number of added points to the current number of points to the storage unit of the card held over the card reader via the card reader connection unit 13.
In addition, when adding points to an external point management system, thecontrol unit 14 associates the card-specific identifier read from the card with the added point number or the total number of points after the addition, via the communication unit 17. To the point management system.
In this way, a new point card service can be provided to the shopper.
また、ポイントを外部のポイント管理システムに加算する場合、制御部14は、カードから読み取ったカード固有の識別子と、加算ポイント数又は加算後の合計ポイント数とを紐付けて、通信部17を介してポイント管理システムに送信する。
このようにすると、新たなポイントカードサービスを買い物客に提供することができる。 When adding points to the storage unit in the card, the
In addition, when adding points to an external point management system, the
In this way, a new point card service can be provided to the shopper.
[テンキー入力のメリット]
上記各実施形態では、ユーザからの入力をテンキーの操作により行っている。一方、ユーザから入力された音声を認識して種々の処理を行うことも知られている。例えば、受付ロボットが音声入力に応答して対話したり、音声リモコンが音声入力に応答して電気機器を操作するものがある。しかし、これらのシステムを実際に利用してみると、正しく音声認識されずにユーザが不満を感じる場合もある。これに対し、本願発明が採用するテンキーによる入力は、現時点で音声入力に比べ入力の確実性が高いというメリットがある。 [Advantages of numeric keypad input]
In each of the above embodiments, the input from the user is performed by operating the numeric keypad. On the other hand, it is also known to perform various processes by recognizing a voice input from a user. For example, there are robots in which a reception robot interacts in response to voice input, and voice remote controllers operate electric devices in response to voice input. However, when these systems are actually used, the user may feel dissatisfied because the voice is not correctly recognized. On the other hand, the input using the numeric keypad adopted by the present invention has an advantage that the input certainty is higher than the voice input at present.
上記各実施形態では、ユーザからの入力をテンキーの操作により行っている。一方、ユーザから入力された音声を認識して種々の処理を行うことも知られている。例えば、受付ロボットが音声入力に応答して対話したり、音声リモコンが音声入力に応答して電気機器を操作するものがある。しかし、これらのシステムを実際に利用してみると、正しく音声認識されずにユーザが不満を感じる場合もある。これに対し、本願発明が採用するテンキーによる入力は、現時点で音声入力に比べ入力の確実性が高いというメリットがある。 [Advantages of numeric keypad input]
In each of the above embodiments, the input from the user is performed by operating the numeric keypad. On the other hand, it is also known to perform various processes by recognizing a voice input from a user. For example, there are robots in which a reception robot interacts in response to voice input, and voice remote controllers operate electric devices in response to voice input. However, when these systems are actually used, the user may feel dissatisfied because the voice is not correctly recognized. On the other hand, the input using the numeric keypad adopted by the present invention has an advantage that the input certainty is higher than the voice input at present.
[サーバ側のハードウェア構成]
続いて図9に示すように、ユーザの手元に置かれる買物支援装置10は、インターネットに複数接続されており、それぞれ取引支援システム20と通信するようになっている。また、取引支援システム20は、商品の生産者、提供者、商品販売の仲介者および商品の配送者のコンピュータと、インターネットを通じて通信できるようになっている。 [Server-side hardware configuration]
Subsequently, as shown in FIG. 9, a plurality ofshopping support devices 10 placed at the user's hand are connected to the Internet and communicate with the transaction support system 20. Further, the transaction support system 20 can communicate with the computer of the product producer, the provider, the product sales intermediary, and the product deliverer through the Internet.
続いて図9に示すように、ユーザの手元に置かれる買物支援装置10は、インターネットに複数接続されており、それぞれ取引支援システム20と通信するようになっている。また、取引支援システム20は、商品の生産者、提供者、商品販売の仲介者および商品の配送者のコンピュータと、インターネットを通じて通信できるようになっている。 [Server-side hardware configuration]
Subsequently, as shown in FIG. 9, a plurality of
図10は、取引支援システム20の構成を示す。取引支援システム20は、処理部21、記憶部22および通信部23を備えている。処理部21は、プロセッサを備え、プログラムを実行することにより種々の機能を実現する。記憶部22は、HDD(ハードディスクドライブ)等の記憶装置に設けられる。通信部23は、インターネット上の買物支援装置10やコンピュータと通信する通信装置である。
FIG. 10 shows the configuration of the transaction support system 20. The transaction support system 20 includes a processing unit 21, a storage unit 22, and a communication unit 23. The processing unit 21 includes a processor and realizes various functions by executing a program. The storage unit 22 is provided in a storage device such as an HDD (Hard Disk Drive). The communication unit 23 is a communication device that communicates with the shopping support device 10 and the computer on the Internet.
[サーバ側のデータ構造]
記憶部22は、配布記憶部、カタログ記憶部、商品記憶部、音声記憶部および取引者記憶部を備えている。各記憶部が記憶するデータの構造を図11に示す。 [Server-side data structure]
Thestorage unit 22 includes a distribution storage unit, a catalog storage unit, a product storage unit, a voice storage unit, and a trader storage unit. The structure of data stored in each storage unit is shown in FIG.
記憶部22は、配布記憶部、カタログ記憶部、商品記憶部、音声記憶部および取引者記憶部を備えている。各記憶部が記憶するデータの構造を図11に示す。 [Server-side data structure]
The
図11(a)は、配布記憶部のデータ構造を示す。配布記憶部は、ユーザ識別子ごとに、カタログ識別子および音声セット識別子を関連付けて記憶している。ユーザ識別子は、買物支援装置10において取り扱われるユーザ識別子である。カタログ識別子は、そのユーザ識別子に対応して買物支援装置10が記憶している商品カタログの識別子である。音声セット識別子は、そのユーザ識別子に対応して買物支援装置10が記憶している音声セットの識別子である。
FIG. 11A shows the data structure of the distribution storage unit. The distribution storage unit stores a catalog identifier and a voice set identifier in association with each user identifier. The user identifier is a user identifier handled in the shopping support apparatus 10. The catalog identifier is an identifier of a product catalog stored in the shopping support apparatus 10 corresponding to the user identifier. The voice set identifier is an identifier of a voice set stored in the shopping support apparatus 10 corresponding to the user identifier.
図11(b)は、カタログ記憶部のデータ構造を示す。カタログ記憶部は、カタログ識別子ごとに、掲載識別子、商品識別子および音声識別子を関連付けて記憶する。カタログ識別子は、通信販売カタログやチラシなどの媒体ごとに固有の値である。掲載識別子は、当該媒体に掲載される商品ごとに固有の値である。商品識別子は、商品ごとに固有の値である。同じ商品であっても、提供者や仲介者が異なれば商品識別子も異なる。音声識別子は、その商品の商品名を発音する音声データの識別子である。ここで、通信販売カタログやチラシはテレビやコンピュータのディスプレイに表示されるものでもよい。
Fig. 11 (b) shows the data structure of the catalog storage unit. The catalog storage unit stores a publication identifier, a product identifier, and an audio identifier in association with each catalog identifier. The catalog identifier is a unique value for each medium such as a mail order catalog or a flyer. The placement identifier is a unique value for each product placed on the medium. The product identifier is a unique value for each product. Even if the product is the same, the product identifier is different if the provider or the mediator is different. The voice identifier is an identifier of voice data that pronounces the product name of the product. Here, the mail order catalog or flyer may be displayed on a television or computer display.
図11(c)は、商品記憶部のデータ構造を示す。商品記憶部は、商品識別子ごとに、商品情報、音声識別子、仲介者識別子および提供者識別子を関連付けて記憶する。商品識別子は、上記の通りである。商品情報には、その商品の商品名、商品画像、価格および説明文が含まれる。音声識別子は、その商品の商品名の音声に対応する音声データの識別子である。仲介者識別子は、その商品の販売を仲介する者の識別子であり、例えば、通信販売を運営する業者の識別子である。その商品の仲介者が存在しない場合、仲介者識別子は無効な値をとる。提供者識別子は、その商品を直接ユーザに提供する小売業者、卸業者又は生産者の識別子である。
FIG. 11C shows the data structure of the product storage unit. The product storage unit stores product information, a voice identifier, a mediator identifier, and a provider identifier in association with each product identifier. The product identifier is as described above. The product information includes the product name, product image, price, and description of the product. The voice identifier is an identifier of voice data corresponding to the voice of the product name of the product. The mediator identifier is an identifier of a person who mediates the sale of the product, for example, an identifier of a trader who operates mail order. If there is no mediator for the product, the mediator identifier takes an invalid value. The provider identifier is an identifier of a retailer, a wholesaler or a producer who provides the product directly to the user.
図11(d)は、音声記憶部のデータ構造を示す。音声記憶部は、音声セット識別子ごとに、音声識別子および音声データを関連付けて記憶する。音声セット識別子は、ユーザ識別子ごとに関連付けられる音声データのグループを識別する。音声識別子は、その音声セットに含まれる音声データの識別子である。音声データは、買物支援装置10がユーザに買物等の手順を誘導するための音声を含む。
FIG. 11D shows the data structure of the voice storage unit. The voice storage unit stores a voice identifier and voice data in association with each voice set identifier. The audio set identifier identifies a group of audio data associated with each user identifier. The audio identifier is an identifier of audio data included in the audio set. The voice data includes a voice for the shopping support apparatus 10 to guide the user to a procedure such as shopping.
図11(e)は、取引者記憶部のデータ構造を示す。取引者記憶部は、取引者識別子ごとに、取引者情報を記憶する。取引者識別子は、仲介者識別子および提供者識別子を含む。取引者情報は、その仲介者又は提供者(小売業者、卸業者又は生産者)に関する情報であり、業者名、住所、インターネット上の連絡先(メールアドレスや取引支援システムへのセッションID等)およびその他の連絡先(電話番号やFAX番号)等を含む。
FIG. 11 (e) shows the data structure of the trader storage unit. The trader storage unit stores trader information for each trader identifier. The trader identifier includes an intermediary identifier and a provider identifier. The trader information is information on the broker or provider (retailer, wholesaler or producer), such as trader name, address, contact information on the Internet (e-mail address, session ID to the transaction support system, etc.) and Including other contact information (telephone number and FAX number).
[受注したサーバ側の処理]
取引支援システム20の処理部21は、買物支援装置10からの連絡に応じて、以下の動作を実行する。買物支援装置10から代金引換の注文書データ又は決済を完了した注文書データを受信した場合、注文された商品の商品識別子に対応する提供者識別子を商品記憶部から読み出すと共に、読み出した提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その取引者に対し、注文された商品およびその数量並びに注文者の住所、氏名および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、FAX送信等により行う。そして、注文された商品は、取引者から配送者を経て注文者である買物支援装置10のユーザに届けられる。 [Process on the server side that received the order]
Theprocessing unit 21 of the transaction support system 20 executes the following operation in response to the communication from the shopping support apparatus 10. When receiving the purchase order data or the purchase order data for which payment has been completed from the shopping support device 10, the provider identifier corresponding to the product identifier of the ordered product is read from the product storage unit and the read provider identifier is read The trader information corresponding to (the trader identifier) is read from the trader storage unit. Based on the read trader information, the trader is notified of the ordered product and its quantity, as well as the orderer's address, name and telephone number. The notification is performed to a computer on the Internet through the communication unit 23, or is performed by FAX transmission or the like. Then, the ordered product is delivered from the trader to the user of the shopping support apparatus 10 that is the orderer through the delivery person.
取引支援システム20の処理部21は、買物支援装置10からの連絡に応じて、以下の動作を実行する。買物支援装置10から代金引換の注文書データ又は決済を完了した注文書データを受信した場合、注文された商品の商品識別子に対応する提供者識別子を商品記憶部から読み出すと共に、読み出した提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その取引者に対し、注文された商品およびその数量並びに注文者の住所、氏名および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、FAX送信等により行う。そして、注文された商品は、取引者から配送者を経て注文者である買物支援装置10のユーザに届けられる。 [Process on the server side that received the order]
The
[仲介者への成果報酬の分配]
また、商品記憶部において、注文された商品の商品識別子に仲介者識別子が関連付けられている場合、処理部21は、その仲介者識別子(取引者識別子)に対応する取引者情報に商品販売の成果報酬(マージン)を加算する。 [Distribution of performance rewards to intermediaries]
Further, in the product storage unit, when the mediator identifier is associated with the product identifier of the ordered product, theprocessing unit 21 displays the result of product sales in the transaction information corresponding to the mediator identifier (transactioner identifier). Add reward (margin).
また、商品記憶部において、注文された商品の商品識別子に仲介者識別子が関連付けられている場合、処理部21は、その仲介者識別子(取引者識別子)に対応する取引者情報に商品販売の成果報酬(マージン)を加算する。 [Distribution of performance rewards to intermediaries]
Further, in the product storage unit, when the mediator identifier is associated with the product identifier of the ordered product, the
以上の実施形態によれば、仲介者に成果報酬を支払う処理を実現することができる。
According to the embodiment described above, it is possible to realize a process of paying a result reward to an intermediary.
[配車要求を受けたサーバ側の処理]
また、取引支援システム20が、買物支援装置10からタクシーの配車要求データを受信した場合、処理部21は、配車要求データから商品識別子を読み出す。そして、その商品識別子に対応するタクシー業者の提供者識別子を商品記憶部から読み出すと共に、その提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その取引者に対し、配車を要求されたタクシーの台数並びに配車先の住所又は位置情報、氏名、配車時刻および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、電話等により行う。そして、要求された台数のタクシーが取引者であるタクシー業者により要求者である買物支援装置10のユーザの所に配車される。 [Processing on the server side that received the dispatch request]
When thetransaction support system 20 receives taxi dispatch request data from the shopping support apparatus 10, the processing unit 21 reads a product identifier from the dispatch request data. Then, the provider identifier of the taxi trader corresponding to the product identifier is read from the product storage unit, and the trader information corresponding to the provider identifier (trader identifier) is read from the trader storage unit. Based on the read trader information, the number of taxis requested to be dispatched, the address or location information of the dispatch destination, name, dispatch time, and telephone number are notified to the trader. The notification is made to a computer on the Internet through the communication unit 23 or by telephone or the like. Then, the requested number of taxis are dispatched to the user of the shopping support apparatus 10 as the requester by the taxi trader as the trader.
また、取引支援システム20が、買物支援装置10からタクシーの配車要求データを受信した場合、処理部21は、配車要求データから商品識別子を読み出す。そして、その商品識別子に対応するタクシー業者の提供者識別子を商品記憶部から読み出すと共に、その提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その取引者に対し、配車を要求されたタクシーの台数並びに配車先の住所又は位置情報、氏名、配車時刻および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、電話等により行う。そして、要求された台数のタクシーが取引者であるタクシー業者により要求者である買物支援装置10のユーザの所に配車される。 [Processing on the server side that received the dispatch request]
When the
[ふるさと納税の申込を受けたサーバ側の処理]
また、取引支援システム20が、買物支援装置10から、ふるさと納税の申込書データを受信した場合、処理部21は、受信した申込書データからふるさと納税の商品識別子を読み出す。そして、その商品識別子に対応する自治体の提供者識別子を商品記憶部から読み出すと共に、その提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その自治体に対し、ふるさと納税の寄付金額、決済方法、お礼品の識別子、寄付者の住所、氏名および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、FAX等により行う。そして、通知を受けた自治体では寄付者に対するお礼品や寄付証明書の手配が進められる。寄付先の自治体の識別子として、申込書データに、送信元である買物支援装置10の装置固有識別子(MACアドレス等)が含まれている場合、処理部21は、その装置固有識別子に紐付けられている自治体の提供者識別子を記憶部から読み出して用いてもよい。 [Processing on the server side that received the application for home tax payment]
Further, when thetransaction support system 20 receives the hometown tax payment application form data from the shopping support apparatus 10, the processing unit 21 reads the hometown tax payment product identifier from the received application form data. And the provider identifier of the local government corresponding to the product identifier is read from the product storage unit, and the trader information corresponding to the provider identifier (trader identifier) is read from the trader storage unit. Then, based on the read transaction information, the local government is notified of the donation amount of the hometown tax payment, the payment method, the identifier of the gift, the address of the donor, the name and the telephone number. The notification is made to a computer on the Internet through the communication unit 23, or is made by FAX or the like. The local government that has received the notice proceeds with arrangements for gifts and donation certificates for donors. When the application form data includes a device unique identifier (MAC address or the like) of the shopping support device 10 that is the transmission source as an identifier of the local government of the donation destination, the processing unit 21 is associated with the device unique identifier. The local government provider identifier may be read from the storage unit and used.
また、取引支援システム20が、買物支援装置10から、ふるさと納税の申込書データを受信した場合、処理部21は、受信した申込書データからふるさと納税の商品識別子を読み出す。そして、その商品識別子に対応する自治体の提供者識別子を商品記憶部から読み出すと共に、その提供者識別子(取引者識別子)に対応する取引者情報を取引者記憶部から読み出す。そして、読み出した取引者情報に基づき、その自治体に対し、ふるさと納税の寄付金額、決済方法、お礼品の識別子、寄付者の住所、氏名および電話番号を通知する。通知は、通信部23を通じてインターネット上のコンピュータに対して行うか、又は、FAX等により行う。そして、通知を受けた自治体では寄付者に対するお礼品や寄付証明書の手配が進められる。寄付先の自治体の識別子として、申込書データに、送信元である買物支援装置10の装置固有識別子(MACアドレス等)が含まれている場合、処理部21は、その装置固有識別子に紐付けられている自治体の提供者識別子を記憶部から読み出して用いてもよい。 [Processing on the server side that received the application for home tax payment]
Further, when the
[商品カタログ/音声セットの更新]
取引支援システム20は、各買物支援装置10に格納された商品カタログおよび音声セットを更新する機能を備えている。処理部21は、通信部23を通じて定期的に各買物支援装置10から商品カタログの更新要求を受け付ける。更新要求には、ユーザ識別子が含まれる。更新要求を受けた処理部21は、受信したユーザ識別子に対応するカタログ識別子および音声セット識別子を配布記憶部から読み出すと共に、そのカタログ識別子に対応するカタログ記憶部の内容が前回配布時以降に更新されたか、また、その音声セット識別子に対応する音声記憶部の内容が前回配布時以降に更新されたかをそれぞれ判定する。この判定にあたり、各ユーザ識別子ごとに、対応するカタログ記憶部の内容及び音声記憶部の内容を配布した日時を記憶部に記憶する。また、各カタログ識別子ごとにカタログ記憶部の内容を更新した日時を記憶部に記憶すると共に、各音声識別子ごとに音声記憶部の内容を更新した日時を記憶部に記憶する。そして、配布日時と更新日時とを比較する。この判定の結果、更新されている場合、更新されたカタログ記憶部のデータと、更新された音声記憶部のデータとを記憶部22から読み出し、通信部23を通じて要求元の買物支援装置10に送信する。また、処理部21は、カタログ識別子に関連付けられた商品識別子に対応する商品情報を商品記憶部から読み出し、読み出した商品情報を対応する商品識別子に関連付け、通信部23を通じて要求元の買物支援装置10に送信する。 [Product Catalog / Audio Set Update]
Thetransaction support system 20 has a function of updating the product catalog and voice set stored in each shopping support apparatus 10. The processing unit 21 periodically receives a product catalog update request from each shopping support apparatus 10 through the communication unit 23. The update request includes a user identifier. Upon receiving the update request, the processing unit 21 reads the catalog identifier and the voice set identifier corresponding to the received user identifier from the distribution storage unit, and the contents of the catalog storage unit corresponding to the catalog identifier are updated after the previous distribution. It is also determined whether the content of the voice storage unit corresponding to the voice set identifier has been updated since the previous distribution. In this determination, for each user identifier, the date and time when the contents of the corresponding catalog storage unit and the content of the voice storage unit are distributed is stored in the storage unit. Further, the date and time when the content of the catalog storage unit is updated for each catalog identifier is stored in the storage unit, and the date and time when the content of the audio storage unit is updated for each voice identifier is stored in the storage unit. Then, the distribution date and the update date are compared. If the result of this determination is that the data has been updated, the updated catalog storage unit data and updated voice storage unit data are read from the storage unit 22 and transmitted to the requesting shopping support apparatus 10 through the communication unit 23. To do. Further, the processing unit 21 reads product information corresponding to the product identifier associated with the catalog identifier from the product storage unit, associates the read product information with the corresponding product identifier, and transmits the requesting shopping support apparatus 10 through the communication unit 23. Send to.
取引支援システム20は、各買物支援装置10に格納された商品カタログおよび音声セットを更新する機能を備えている。処理部21は、通信部23を通じて定期的に各買物支援装置10から商品カタログの更新要求を受け付ける。更新要求には、ユーザ識別子が含まれる。更新要求を受けた処理部21は、受信したユーザ識別子に対応するカタログ識別子および音声セット識別子を配布記憶部から読み出すと共に、そのカタログ識別子に対応するカタログ記憶部の内容が前回配布時以降に更新されたか、また、その音声セット識別子に対応する音声記憶部の内容が前回配布時以降に更新されたかをそれぞれ判定する。この判定にあたり、各ユーザ識別子ごとに、対応するカタログ記憶部の内容及び音声記憶部の内容を配布した日時を記憶部に記憶する。また、各カタログ識別子ごとにカタログ記憶部の内容を更新した日時を記憶部に記憶すると共に、各音声識別子ごとに音声記憶部の内容を更新した日時を記憶部に記憶する。そして、配布日時と更新日時とを比較する。この判定の結果、更新されている場合、更新されたカタログ記憶部のデータと、更新された音声記憶部のデータとを記憶部22から読み出し、通信部23を通じて要求元の買物支援装置10に送信する。また、処理部21は、カタログ識別子に関連付けられた商品識別子に対応する商品情報を商品記憶部から読み出し、読み出した商品情報を対応する商品識別子に関連付け、通信部23を通じて要求元の買物支援装置10に送信する。 [Product Catalog / Audio Set Update]
The
更新データを受信した買物支援装置10では、制御部14が、受信したカタログ記憶部の更新データを記憶部15のカタログ記憶部に更新する。また、制御部14は、受信した音声記憶部の更新データを音声記憶部に更新する。また、受信した商品情報の更新データを商品記憶部の対応する商品識別子に紐付けて更新する。
In the shopping support apparatus 10 that has received the update data, the control unit 14 updates the received update data of the catalog storage unit to the catalog storage unit of the storage unit 15. Further, the control unit 14 updates the received update data of the voice storage unit to the voice storage unit. In addition, the update data of the received product information is updated in association with the corresponding product identifier in the product storage unit.
以上の実施形態によれば、更新されたカタログ、音声および商品情報により、注文を行うことができる。
According to the above embodiment, it is possible to place an order based on the updated catalog, voice, and product information.
[商品カタログの生成]
次に図12は、ユーザが手元で参照する商品カタログのイメージを生成するカタログ生成装置の構成図である。カタログ生成装置は、カタログイメージ生成部31、カタログイメージ記憶部32、入力部33、表示部34および出力部35を備えている。商品記憶部36は、図10の記憶部22に示す取引支援システム20の商品記憶部又はその複製である。また、カタログ記憶部37は、図10の記憶部22に示す取引支援システム20のカタログ記憶部又はその複製である。カタログイメージ生成部31は、プロセッサを備え、プログラムを実行することにより種々の機能を実現する。カタログイメージ記憶部32および商品記憶部36およびカタログ記憶部37は、HDD等の記憶装置に設けられる。入力部33は、キーボードやポインティングデバイス等の入力装置である。表示部34は、情報を表示するディスプレイである。出力部35は、印刷用のデータを出力するインターフェースである。 [Product Catalog Generation]
Next, FIG. 12 is a configuration diagram of a catalog generation device that generates an image of a product catalog that a user refers to at hand. The catalog generation device includes a catalogimage generation unit 31, a catalog image storage unit 32, an input unit 33, a display unit 34, and an output unit 35. The product storage unit 36 is a product storage unit of the transaction support system 20 shown in the storage unit 22 of FIG. Further, the catalog storage unit 37 is a catalog storage unit of the transaction support system 20 shown in the storage unit 22 of FIG. The catalog image generation unit 31 includes a processor and realizes various functions by executing a program. The catalog image storage unit 32, the product storage unit 36, and the catalog storage unit 37 are provided in a storage device such as an HDD. The input unit 33 is an input device such as a keyboard or a pointing device. The display unit 34 is a display that displays information. The output unit 35 is an interface that outputs data for printing.
次に図12は、ユーザが手元で参照する商品カタログのイメージを生成するカタログ生成装置の構成図である。カタログ生成装置は、カタログイメージ生成部31、カタログイメージ記憶部32、入力部33、表示部34および出力部35を備えている。商品記憶部36は、図10の記憶部22に示す取引支援システム20の商品記憶部又はその複製である。また、カタログ記憶部37は、図10の記憶部22に示す取引支援システム20のカタログ記憶部又はその複製である。カタログイメージ生成部31は、プロセッサを備え、プログラムを実行することにより種々の機能を実現する。カタログイメージ記憶部32および商品記憶部36およびカタログ記憶部37は、HDD等の記憶装置に設けられる。入力部33は、キーボードやポインティングデバイス等の入力装置である。表示部34は、情報を表示するディスプレイである。出力部35は、印刷用のデータを出力するインターフェースである。 [Product Catalog Generation]
Next, FIG. 12 is a configuration diagram of a catalog generation device that generates an image of a product catalog that a user refers to at hand. The catalog generation device includes a catalog
カタログイメージ生成部31(以下「生成部31」という)は、図13に示すように、商品識別子に関連付けられた商品広告パーツ41を表示部34に表示する。商品広告パーツ41は、商品記憶部36に記憶されている商品情報を用いて生成される。商品広告パーツ41は、商品名および価格又はこれらと商品画像との組み合わせを含む。また、生成部31は、カタログ識別子に関連付けられたチラシ画像42(商品カタログ画像)を表示部34に表示する。チラシ画像42には、掲載識別子を関連付けられた商品掲載領域43が設けられている。
The catalog image generation unit 31 (hereinafter referred to as “generation unit 31”) displays the product advertisement part 41 associated with the product identifier on the display unit 34 as shown in FIG. The product advertisement part 41 is generated using product information stored in the product storage unit 36. The product advertisement part 41 includes a product name and price or a combination of these and a product image. Further, the generation unit 31 displays a flyer image 42 (product catalog image) associated with the catalog identifier on the display unit 34. The flyer image 42 is provided with a product placement area 43 associated with a placement identifier.
そして、生成部31は、入力部33の操作により商品広告パーツ41を、商品掲載領域43に紐付ける操作(ドラッグアンドドロップ等)を検知すると、チラシ画像42に関連付けられているカタログ識別子と、商品広告パーツ41がドロップされた商品掲載領域43の掲載識別子と、ドロップされた商品広告パーツ41に関連付けられた商品識別子と、商品記憶部36においてその商品識別子に紐付いている音声識別子とを関連付けて、カタログ記憶部37に登録する。
And if the production | generation part 31 detects operation (drag and drop etc.) linked | related with the product insertion area | region 43 by operation of the input part 33, the catalog identifier linked | related with the flyer image 42, and goods Associating the placement identifier of the product placement area 43 where the advertisement part 41 has been dropped, the product identifier associated with the dropped product advertisement part 41, and the voice identifier associated with the product identifier in the product storage unit 36, Register in the catalog storage unit 37.
また、生成部31は、チラシ画像42の商品掲載領域43に、ドロップされた商品広告パーツ41の画像を嵌め込んだチラシのイメージ画像を生成し、カタログイメージ記憶部32に記憶する。そして、生成部31は、完成したチラシのイメージを印刷するために、チラシのイメージデータをカタログイメージ記憶部32から読み出し、出力部35からプリンタ等に送信する。
Further, the generation unit 31 generates an image image of a leaflet in which the image of the dropped product advertisement part 41 is inserted in the product placement area 43 of the leaflet image 42 and stores it in the catalog image storage unit 32. The generation unit 31 reads the image data of the leaflet from the catalog image storage unit 32 and transmits the image data of the leaflet to the printer or the like in order to print the image of the completed leaflet.
これによると、商品記憶部36に登録されている商品情報を利用してチラシを作成することができ、チラシ用に商品情報を別途入力する手間を省くことができる。また、ユーザに配布するためのチラシの作成と、カタログ記憶部37へのデータの登録とを同時に行うことができる。
According to this, it is possible to create a flyer by using the product information registered in the product storage unit 36, and it is possible to save the trouble of separately inputting the product information for the flyer. Further, it is possible to simultaneously create a leaflet for distribution to the user and register data in the catalog storage unit 37.
[音声データの生成]
次に図14は、音声記憶部に登録する音声を生成する音声データ生成装置の構成図である。音声データ生成装置は、テキスト音声変換部51、音声記憶部52、商品情報の記憶部53、入力部54および表示部55を備えている。テキスト音声変換部51は、プロセッサを備え、プログラムを実行することにより、種々の機能を実現する。音声記憶部52は、図10の記憶部22に示す取引支援システム20の音声記憶部又はその複製である。商品情報の記憶部53は、図10の記憶部22に示す取引支援システム20の商品記憶部又はその複製である。入力部54は、キーボードやポインティングデバイス等の入力装置である。表示部55は、情報を表示するディスプレイである。 [Generate audio data]
Next, FIG. 14 is a configuration diagram of an audio data generation apparatus that generates audio to be registered in the audio storage unit. The voice data generation device includes a textvoice conversion unit 51, a voice storage unit 52, a product information storage unit 53, an input unit 54, and a display unit 55. The text-to-speech conversion unit 51 includes a processor and implements various functions by executing a program. The voice storage unit 52 is a voice storage unit of the transaction support system 20 shown in the storage unit 22 of FIG. 10 or a copy thereof. The product information storage unit 53 is a product storage unit of the transaction support system 20 shown in the storage unit 22 of FIG. The input unit 54 is an input device such as a keyboard or a pointing device. The display unit 55 is a display that displays information.
次に図14は、音声記憶部に登録する音声を生成する音声データ生成装置の構成図である。音声データ生成装置は、テキスト音声変換部51、音声記憶部52、商品情報の記憶部53、入力部54および表示部55を備えている。テキスト音声変換部51は、プロセッサを備え、プログラムを実行することにより、種々の機能を実現する。音声記憶部52は、図10の記憶部22に示す取引支援システム20の音声記憶部又はその複製である。商品情報の記憶部53は、図10の記憶部22に示す取引支援システム20の商品記憶部又はその複製である。入力部54は、キーボードやポインティングデバイス等の入力装置である。表示部55は、情報を表示するディスプレイである。 [Generate audio data]
Next, FIG. 14 is a configuration diagram of an audio data generation apparatus that generates audio to be registered in the audio storage unit. The voice data generation device includes a text
テキスト音声変換部51は、図15に示すように、商品識別子に関連付けられた商品情報の編集領域61を表示部55に表示する。商品情報の編集領域61には、商品記憶部53から読み出した商品情報を編集可能な状態で表示する。又は、商品情報の編集領域61には、入力部54から新規に入力された商品情報を表示する。また、テキスト音声変換部51は、音声セット識別子および音声識別子に関連付けられた音声テキストの編集領域62を表示部55に表示する。音声テキストの編集領域62には、音声セット識別子および音声識別子に紐付けて登録したい音声のテキストが入力部54から入力される。
As shown in FIG. 15, the text-to-speech conversion unit 51 displays the product information editing area 61 associated with the product identifier on the display unit 55. In the product information editing area 61, the product information read from the product storage unit 53 is displayed in an editable state. Alternatively, the product information newly input from the input unit 54 is displayed in the product information editing area 61. In addition, the text-to-speech conversion unit 51 displays the speech set identifier and the speech text editing area 62 associated with the speech identifier on the display unit 55. In the voice text editing area 62, the voice set identifier and the voice text to be registered in association with the voice identifier are input from the input unit 54.
テキスト音声変換部51は、商品情報の編集領域61に表示されている商品情報を編集領域62の音声テキストに挿入する操作(ドラッグアンドドロップ等)する操作を検知すると、ドロップされた商品情報をテキスト内のドロップされた位置に挿入し、表示部55に表示する。そして、入力されたテキストに対して入力部54から音声変換が指示されると、テキスト音声変換部51は、音声テキストの編集領域62に入力されているテキストを音声データに変換し、音声テキストの編集領域62に紐付けられている音声セット識別子および音声識別子に関連付けて音声記憶部52に登録する。
When the text-to-speech conversion unit 51 detects an operation (such as drag and drop) for inserting the product information displayed in the product information editing area 61 into the voice text in the editing area 62, the text-to-speech conversion unit 51 converts the dropped product information into text It is inserted in the position where it is dropped and displayed on the display unit 55. When voice conversion is instructed from the input unit 54 to the input text, the text voice conversion unit 51 converts the text input in the voice text editing area 62 into voice data, and The voice set identifier and the voice identifier associated with the editing area 62 are registered in the voice storage unit 52 in association with each other.
これによると、商品記憶部53に格納されている商品情報を利用して音声データを生成し登録することができる。
According to this, voice data can be generated and registered using the product information stored in the product storage unit 53.
[ロボットの一部機能の外部化]
以上説明した実施形態において、買物支援装置10のようなユーザをサポートするロボットは、できるだけ多くのユーザに供給されることが好ましい。そのためには、ロボットに求められる性能を維持しつつ、できるだけ低コストで装置を構成する必要がある。 [Externalization of some robot functions]
In the embodiment described above, it is preferable that a robot that supports users such as theshopping support apparatus 10 is supplied to as many users as possible. For this purpose, it is necessary to configure the apparatus at the lowest possible cost while maintaining the performance required for the robot.
以上説明した実施形態において、買物支援装置10のようなユーザをサポートするロボットは、できるだけ多くのユーザに供給されることが好ましい。そのためには、ロボットに求められる性能を維持しつつ、できるだけ低コストで装置を構成する必要がある。 [Externalization of some robot functions]
In the embodiment described above, it is preferable that a robot that supports users such as the
その観点から捉えると、本発明は、以下のように構成されている。即ち、図16に示すように、種々の機能を実現するプロセッサ101を備えたロボット100において、インターネット上の外部機能201と通信する通信部102と、情報の記憶部103とを備える。そして、プロセッサ101が、前記記憶部103に記憶した元情報を前記通信部102を通じて前記インターネット上の外部機能201に送信すると共に、当該外部機能201によって前記元情報に基づいて取得された結果情報を当該外部機能201から前記通信部102を介して受信し、当該結果情報を用いて前記プログラムを実行し機能を実現する。
From this point of view, the present invention is configured as follows. That is, as shown in FIG. 16, a robot 100 including a processor 101 that realizes various functions includes a communication unit 102 that communicates with an external function 201 on the Internet, and an information storage unit 103. The processor 101 transmits the original information stored in the storage unit 103 to the external function 201 on the Internet through the communication unit 102, and the result information acquired based on the original information by the external function 201 The function is received from the external function 201 via the communication unit 102 and the program is executed using the result information to realize the function.
このようにすると、ロボット自体の機能が限られるとしても、外側にサービス機能を置いて、それと結んで全体として高機能なロボットを実現することができる。このため、ロボット自体のコストを抑えることが可能となる。
In this way, even if the functions of the robot itself are limited, it is possible to realize a highly functional robot as a whole by placing a service function on the outside and connecting it. For this reason, it is possible to reduce the cost of the robot itself.
[説明の補足と変形例]
ここで、本願における「ロボット」は、何らかのキャラクターを備え、種々の機能を実現するプロセッサを備えているものとする。「通信部」は、無線LANアダプタ等のネットワーク通信装置である。「記憶部」は、フラッシュメモリ等の記憶装置に設けられる。「元情報」は、入力装置104からの人為的な入力、各種センサ105からの入力又は本体内における演算等、に基づいて取得される情報である。「外部機能」は、インターネット上の外部装置200によって提供される。 [Explanation of supplement and modification]
Here, it is assumed that the “robot” in the present application includes a certain character and a processor that realizes various functions. The “communication unit” is a network communication device such as a wireless LAN adapter. The “storage unit” is provided in a storage device such as a flash memory. “Original information” is information acquired based on artificial input from theinput device 104, input from various sensors 105, computation in the main body, or the like. The “external function” is provided by the external device 200 on the Internet.
ここで、本願における「ロボット」は、何らかのキャラクターを備え、種々の機能を実現するプロセッサを備えているものとする。「通信部」は、無線LANアダプタ等のネットワーク通信装置である。「記憶部」は、フラッシュメモリ等の記憶装置に設けられる。「元情報」は、入力装置104からの人為的な入力、各種センサ105からの入力又は本体内における演算等、に基づいて取得される情報である。「外部機能」は、インターネット上の外部装置200によって提供される。 [Explanation of supplement and modification]
Here, it is assumed that the “robot” in the present application includes a certain character and a processor that realizes various functions. The “communication unit” is a network communication device such as a wireless LAN adapter. The “storage unit” is provided in a storage device such as a flash memory. “Original information” is information acquired based on artificial input from the
先に説明した買物支援装置では、入力装置104に相当するテンキー2から情報を受け付けて動作したが、これに限らず、入力装置104又はセンサ105からの音声入力に基づいて動作するようにロボット100又は買物支援装置を構成してもよい。この場合例えば、買物支援装置の制御部14は、商品選択受付(S4、S232、S34、S40)において音声入力された商品名を音声認識することにより選択された商品を特定してもよい。また、数量入力受付(S7、S27、S36)では音声入力された数を音声認識することにより数量を特定してもよい。また、確認を求める場面では音声入力された「はい」又は「いいえ」の言葉を音声認識することにより分岐を判断してもよい。同様に、時刻指定処理(S24)や場所指定処理(S25)において音声認識により時刻や場所の情報を取得してもよい。
The shopping support apparatus described above operates by receiving information from the numeric keypad 2 corresponding to the input device 104. However, the present invention is not limited to this, and the robot 100 is configured to operate based on a voice input from the input device 104 or the sensor 105. Or you may comprise a shopping assistance apparatus. In this case, for example, the control unit 14 of the shopping support apparatus may specify the product selected by voice recognition of the product name input by voice in the product selection reception (S4, S232, S34, S40). In the quantity input reception (S7, S27, S36), the quantity may be specified by recognizing the number inputted by voice. Further, in a scene where confirmation is requested, branching may be determined by recognizing a voice input “Yes” or “No” word. Similarly, time and place information may be acquired by voice recognition in the time designation process (S24) and the place designation process (S25).
[ユーザへの音声通知システム]
図16及び図17において、外部装置200は、医療関係者の端末又は親族の端末から、ロボット100のユーザに通知する内容とその通知を行うタイミング(日時やロボット100の挙動等)と通知先のロボット100の識別子とを紐付けて受信し、記憶装置に登録する。医療関係者又は親族は、外部装置200が端末に提供する管理画面を通じてテキスト等の通知内容と通知タイミングとを登録できるようになっている。端末はスマートフォンなどでもよい。
外部装置200は、記憶装置に登録されているタイミングの到来を検知すると、そのタイミングに紐付けられたロボット100の識別子に対応するロボット100に対し、そのタイミングに紐付けられた通知内容を送信する。
通信部102を介して通知内容を受信したロボット100のプロセッサ101は、受信した通知内容を言葉にして音声出力部から発音させる。 [User voice notification system]
16 and 17, theexternal device 200 transmits the content notified to the user of the robot 100 from the terminal of the medical staff or the relative terminal, the timing (such as the date and time, the behavior of the robot 100), and the notification destination. The identifier of the robot 100 is received in association with it and registered in the storage device. Medical personnel or relatives can register notification contents such as text and notification timing through a management screen provided by the external device 200 to the terminal. The terminal may be a smartphone.
When theexternal device 200 detects the arrival of the timing registered in the storage device, the external device 200 transmits the notification content associated with the timing to the robot 100 corresponding to the identifier of the robot 100 associated with the timing. .
Theprocessor 101 of the robot 100 that has received the notification content via the communication unit 102 causes the voice output unit to pronounce the received notification content as words.
図16及び図17において、外部装置200は、医療関係者の端末又は親族の端末から、ロボット100のユーザに通知する内容とその通知を行うタイミング(日時やロボット100の挙動等)と通知先のロボット100の識別子とを紐付けて受信し、記憶装置に登録する。医療関係者又は親族は、外部装置200が端末に提供する管理画面を通じてテキスト等の通知内容と通知タイミングとを登録できるようになっている。端末はスマートフォンなどでもよい。
外部装置200は、記憶装置に登録されているタイミングの到来を検知すると、そのタイミングに紐付けられたロボット100の識別子に対応するロボット100に対し、そのタイミングに紐付けられた通知内容を送信する。
通信部102を介して通知内容を受信したロボット100のプロセッサ101は、受信した通知内容を言葉にして音声出力部から発音させる。 [User voice notification system]
16 and 17, the
When the
The
これによると、例えば、病院、介護士や家族などが設定した指示やアドバイスを、ロボット100に適時に発音させ、高齢者などのユーザに伝えることができる。例えば、朝決まった時間に「おはようございます」「今日の診察は10時ですよ」「朝食は食べないでくださいね」「今日の何時に訪問します」などのメッセージをユーザに伝えることができる。これに対し、ユーザがテンキー2から入力した内容を外部装置200に送信すれば、外部装置200と通信する複数の端末がユーザの入力内容を共有することも可能である。例えば、高齢者が入力した内容を病院や介護施設等の共有が許可された関係者間で共有することができる。ユーザである高齢者自身は難しい設定ができなくてもこれらの機能を利用することができる。
また、高齢者に限らず一般ユーザへのモーニングコールなどを行うことも可能である。さらに、母親が子供に対して「もう午後6時だから勉強の時間だよ」などと伝えることもできる。 According to this, for example, an instruction or advice set by a hospital, a caregiver, a family, or the like can be generated by therobot 100 in a timely manner and transmitted to a user such as an elderly person. For example, messages such as “Good morning”, “Today's consultation is 10:00”, “Don't eat breakfast”, “What time of day will you visit” can be communicated to the user. . On the other hand, if the content input from the numeric keypad 2 by the user is transmitted to the external device 200, a plurality of terminals communicating with the external device 200 can share the content input by the user. For example, the contents input by the elderly can be shared among the parties who are allowed to share such as hospitals and care facilities. The elderly person who is a user can use these functions even if difficult settings are not possible.
In addition, it is possible to make a wake-up call to a general user as well as an elderly person. In addition, the mother can tell the child that it's already 6pm and it's time for studying.
また、高齢者に限らず一般ユーザへのモーニングコールなどを行うことも可能である。さらに、母親が子供に対して「もう午後6時だから勉強の時間だよ」などと伝えることもできる。 According to this, for example, an instruction or advice set by a hospital, a caregiver, a family, or the like can be generated by the
In addition, it is possible to make a wake-up call to a general user as well as an elderly person. In addition, the mother can tell the child that it's already 6pm and it's time for studying.
[音声合成の利用]
ロボット100のプロセッサ101は、スピーチシンセサイザの機能を備え、音声出力部から発する言葉を有名なアニメキャラクター等の声で発音してもよい。例えば、上記の母親が子供に対して伝えるメッセージを有名なアニメキャラクターの声で伝えることにより、子供が素直に従うという効果が期待できる。また、外部装置200がスピーチシンセサイザを備え、外部装置200で合成した音声をロボット100に送信して発音させてもよい。 [Use of speech synthesis]
Theprocessor 101 of the robot 100 may have a speech synthesizer function, and may pronounce a word uttered from the voice output unit with a voice of a famous anime character or the like. For example, it is possible to expect an effect that the child obeys obediently by conveying the message that the mother conveys to the child with the voice of a famous anime character. Further, the external device 200 may include a speech synthesizer, and the voice synthesized by the external device 200 may be transmitted to the robot 100 to generate sound.
ロボット100のプロセッサ101は、スピーチシンセサイザの機能を備え、音声出力部から発する言葉を有名なアニメキャラクター等の声で発音してもよい。例えば、上記の母親が子供に対して伝えるメッセージを有名なアニメキャラクターの声で伝えることにより、子供が素直に従うという効果が期待できる。また、外部装置200がスピーチシンセサイザを備え、外部装置200で合成した音声をロボット100に送信して発音させてもよい。 [Use of speech synthesis]
The
[ユーザとの相互通信システム]
図16及び図17において、インターネット上の任意の端末とロボット100との間で音声による対話を実現してもよい。端末はスマートフォン等でもよい。対話の内容は、英会話などの勉強や遊びが考えられる。例えば、任意の端末とロボット100との間で音声チャットを接続することにより実現が可能である。また、ロボット100のセンサ105としてカメラを備え、ロボット100のユーザの映像を相手方の端末に送信し、ビデオチャットを実行してもよい。
このとき、ロボット100又はロボット100に音声を送信する外部装置200において、上記のスピーチシンセサイザを実行し、ロボット100から発する言葉を有名なアニメキャラクターなどの声で発音してもよい。これにより、例えば、有名なアニメキャラクターと英会話をしているような感覚を子供に与えることができ、学習の効果向上が期待できる。 [Intercommunication with users]
In FIGS. 16 and 17, a voice dialogue may be realized between an arbitrary terminal on the Internet and therobot 100. The terminal may be a smartphone or the like. The content of the dialogue can be studying or playing English conversation. For example, this can be realized by connecting a voice chat between an arbitrary terminal and the robot 100. Further, a camera may be provided as the sensor 105 of the robot 100, and a video chat may be executed by transmitting an image of the user of the robot 100 to a partner terminal.
At this time, the speech synthesizer may be executed in therobot 100 or the external device 200 that transmits voice to the robot 100, and the words uttered from the robot 100 may be pronounced by voices such as famous anime characters. As a result, for example, it is possible to give the child a feeling of having an English conversation with a famous anime character, and an improvement in the learning effect can be expected.
図16及び図17において、インターネット上の任意の端末とロボット100との間で音声による対話を実現してもよい。端末はスマートフォン等でもよい。対話の内容は、英会話などの勉強や遊びが考えられる。例えば、任意の端末とロボット100との間で音声チャットを接続することにより実現が可能である。また、ロボット100のセンサ105としてカメラを備え、ロボット100のユーザの映像を相手方の端末に送信し、ビデオチャットを実行してもよい。
このとき、ロボット100又はロボット100に音声を送信する外部装置200において、上記のスピーチシンセサイザを実行し、ロボット100から発する言葉を有名なアニメキャラクターなどの声で発音してもよい。これにより、例えば、有名なアニメキャラクターと英会話をしているような感覚を子供に与えることができ、学習の効果向上が期待できる。 [Intercommunication with users]
In FIGS. 16 and 17, a voice dialogue may be realized between an arbitrary terminal on the Internet and the
At this time, the speech synthesizer may be executed in the
また、上記のユーザへの音声通知システムを利用して、逆にユーザから外部装置200にデータを提出させてもよい。例えば、上記の音声通知システムにより、医療機関の利用者(ロボット100のユーザ)に対し、「おはよう」「今日の体調はいかが?」「体温を測ってね」などとロボット100に発音させる。
これに対しユーザは、センサ105としての体温計で体温を測り、プロセッサ101は、体温計から受信した体温データをユーザの識別子に紐付けて外部装置200に送信する。外部装置200は、ロボット100から受信した体温データを音声通知の相手方である医療関係者などの端末に提供する。同様に、血圧データその他の生体情報データをセンサ105から取得して外部装置200に転送し、医療関係者などの端末に提供する。ユーザの視覚的状態をセンサ105としてのカメラから取得し、外部装置200を介して医療関係者などの端末に提供してもよい。 In addition, using the above-described voice notification system to the user, the user may submit data to theexternal device 200. For example, using the above voice notification system, the user of the medical institution (user of the robot 100) causes the robot 100 to pronounce “Good morning”, “How is your physical condition today?”, “Measure your body temperature”, and so on.
On the other hand, the user measures the body temperature with a thermometer as thesensor 105, and the processor 101 transmits the body temperature data received from the thermometer to the external device 200 in association with the user identifier. The external device 200 provides the body temperature data received from the robot 100 to a terminal such as a medical staff who is a voice notification partner. Similarly, blood pressure data and other biological information data are acquired from the sensor 105, transferred to the external device 200, and provided to terminals such as medical personnel. The visual state of the user may be acquired from a camera as the sensor 105 and provided to a terminal such as a medical staff via the external device 200.
これに対しユーザは、センサ105としての体温計で体温を測り、プロセッサ101は、体温計から受信した体温データをユーザの識別子に紐付けて外部装置200に送信する。外部装置200は、ロボット100から受信した体温データを音声通知の相手方である医療関係者などの端末に提供する。同様に、血圧データその他の生体情報データをセンサ105から取得して外部装置200に転送し、医療関係者などの端末に提供する。ユーザの視覚的状態をセンサ105としてのカメラから取得し、外部装置200を介して医療関係者などの端末に提供してもよい。 In addition, using the above-described voice notification system to the user, the user may submit data to the
On the other hand, the user measures the body temperature with a thermometer as the
医療関係者等は、ユーザから取得した生体情報データ等に基づき、ユーザ用の薬、サプリメント又は食事等を商店に手配し、商店からユーザ宅に自動的に届くようにしてもよい。さらに、医療関係者等は、上記の音声通知システムを用いて、生体情報データ等を考慮した次のユーザへの音声通知を設定することもできる。
A medical staff or the like may arrange medicines, supplements, meals, etc. for the user at the store based on the biometric data acquired from the user and automatically deliver it from the store to the user's home. Furthermore, medical personnel and the like can also set voice notification to the next user in consideration of biometric information data and the like using the voice notification system.
[ロボット用アプリのダウンロード]
ロボット100が実行するアプリケーションソフトウェア(アプリ)を外部装置200に備え、ロボット100に接続されたテンキー等の操作に応じて、対応するアプリをASP(アプリケーション・サービス・プロバイダ)型でロボット100が利用するようにしてもよい。英会話アプリ、数学等の学習アプリ、遊びやゲームのアプリ等が該当する。また、実行したいアプリをロボット100にダウンロードしインストールして実行する方式にしてもよい。これらによると、1つのロボット端末で、多くの機能を自由に使うことができ、また、機能をバージョンアップすることもできる。 [Download robot apps]
Application software (application) executed by therobot 100 is provided in the external device 200, and the robot 100 uses an ASP (application service provider) type corresponding application in accordance with an operation of a numeric keypad or the like connected to the robot 100. You may do it. Applicable to English conversation apps, learning apps such as mathematics, and play and game apps. Further, a method may be used in which an application to be executed is downloaded to the robot 100, installed, and executed. According to these, many functions can be freely used with one robot terminal, and the functions can be upgraded.
ロボット100が実行するアプリケーションソフトウェア(アプリ)を外部装置200に備え、ロボット100に接続されたテンキー等の操作に応じて、対応するアプリをASP(アプリケーション・サービス・プロバイダ)型でロボット100が利用するようにしてもよい。英会話アプリ、数学等の学習アプリ、遊びやゲームのアプリ等が該当する。また、実行したいアプリをロボット100にダウンロードしインストールして実行する方式にしてもよい。これらによると、1つのロボット端末で、多くの機能を自由に使うことができ、また、機能をバージョンアップすることもできる。 [Download robot apps]
Application software (application) executed by the
[見守り機能]
図16及び図17において、プロセッサ101は、ユーザによりロボット100が操作されると、当該操作を検知し、当該操作があったことを示す情報を外部装置200に送信してもよい。操作とは、例えばロボット100の起動や前述した触覚スイッチの操作等である。当該情報を受信した外部装置200は、ユーザが行動していることを把握できるので、ユーザの見守りシステムを構築することができる。 [Monitoring function]
16 and 17, when therobot 100 is operated by the user, the processor 101 may detect the operation and transmit information indicating that the operation has been performed to the external apparatus 200. The operation is, for example, activation of the robot 100 or operation of the tactile switch described above. Since the external device 200 that has received the information can grasp that the user is acting, a user watching system can be constructed.
図16及び図17において、プロセッサ101は、ユーザによりロボット100が操作されると、当該操作を検知し、当該操作があったことを示す情報を外部装置200に送信してもよい。操作とは、例えばロボット100の起動や前述した触覚スイッチの操作等である。当該情報を受信した外部装置200は、ユーザが行動していることを把握できるので、ユーザの見守りシステムを構築することができる。 [Monitoring function]
16 and 17, when the
ここで、発明は実施形態に記載された以外にも趣旨を逸脱しない他の実施形態をも包含する。実施形態は発明の説明をするものであって、その範囲を限定するものではない。発明の範囲は、クレームの記載によって示されるものであって、明細書の記載によって示されるものではない。従って、発明は、クレームの均等の範囲内における意味や範囲を含む総ての形態を包含する。
Here, the invention encompasses other embodiments that do not depart from the spirit other than those described in the embodiments. The embodiments describe the invention and do not limit the scope thereof. The scope of the invention is indicated by the description of the claims and not by the description of the specification. Accordingly, the invention encompasses all forms including meanings and ranges within the equivalent scope of the claims.
1 キャラクター外装
2 テンキー
3 カードリーダ
10 買物支援装置
11 触覚スイッチ
12 テンキー接続部
13 カードリーダ接続部
14 制御部
15 記憶部
20 取引支援システム
21 処理部
22 記憶部
23 通信部
31 カタログイメージ生成部
32 カタログイメージ記憶部
33 入力部
34 表示部
35 出力部
36 商品記憶部
37 カタログ記憶部
41 商品広告パーツ
42 チラシ画像(商品カタログ画像)
43 商品掲載領域
51 テキスト音声変換部
52 音声記憶部
53 商品記憶部
54 入力部
55 表示部
61 商品情報の編集領域
62 音声テキストの編集領域
100 ロボット(ネットワークロボット装置)
101 プロセッサ
102 通信部
103 記憶部
104 入力装置
105 センサ
200 外部装置
201 外部機能 DESCRIPTION OFSYMBOLS 1 Character exterior 2 Numeric keypad 3 Card reader 10 Shopping support apparatus 11 Tactile switch 12 Tenkey connection part 13 Card reader connection part 14 Control part 15 Storage part 20 Transaction support system 21 Processing part 22 Storage part 23 Communication part 31 Catalog image generation part 32 Catalog Image storage unit 33 Input unit 34 Display unit 35 Output unit 36 Product storage unit 37 Catalog storage unit 41 Product advertisement part 42 Flyer image (product catalog image)
43Commodity placement area 51 Text-to-speech conversion unit 52 Voice storage unit 53 Commodity storage unit 54 Input unit 55 Display unit 61 Product information editing area 62 Voice text editing area 100
101 Processor 102 Communication Unit 103 Storage Unit 104 Input Device 105 Sensor 200 External Device 201 External Function
2 テンキー
3 カードリーダ
10 買物支援装置
11 触覚スイッチ
12 テンキー接続部
13 カードリーダ接続部
14 制御部
15 記憶部
20 取引支援システム
21 処理部
22 記憶部
23 通信部
31 カタログイメージ生成部
32 カタログイメージ記憶部
33 入力部
34 表示部
35 出力部
36 商品記憶部
37 カタログ記憶部
41 商品広告パーツ
42 チラシ画像(商品カタログ画像)
43 商品掲載領域
51 テキスト音声変換部
52 音声記憶部
53 商品記憶部
54 入力部
55 表示部
61 商品情報の編集領域
62 音声テキストの編集領域
100 ロボット(ネットワークロボット装置)
101 プロセッサ
102 通信部
103 記憶部
104 入力装置
105 センサ
200 外部装置
201 外部機能 DESCRIPTION OF
43
Claims (18)
- 種々の機能を実現する制御部を備えたネットワークロボット装置において、
インターネット上の外部機能と通信する通信部と、前記ネットワークロボット装置の内部処理用の情報と前記外部機能に渡す外部処理用の情報とを記憶する記憶部とを備え、
前記制御部は、前記内部処理用の情報を前記記憶部から読み出して処理することにより装置本体の機能を実現すると共に、前記外部処理用の情報を前記記憶部から読み出し前記通信部を通じて前記外部機能に送信することにより外部機能を機能させる、ネットワークロボット装置。 In a network robot apparatus equipped with a control unit that realizes various functions,
A communication unit that communicates with an external function on the Internet, and a storage unit that stores information for internal processing of the network robot apparatus and information for external processing passed to the external function,
The control unit realizes the function of the apparatus main body by reading and processing the information for internal processing from the storage unit, and reads the information for external processing from the storage unit and the external function through the communication unit. A network robot device that allows external functions to function by transmitting to the network. - インターネットを通じて商品を注文するためのネットワークロボット装置であって、
装置本体をキャラクター外装に包み、
当該装置本体が、
商品の選択及び数量を入力するテンキーの接続部と、
ユーザを特定するためのカードから情報を読み込むカードリーダの接続部と、
注文手続を進めるための誘導音声を記憶した記憶部と、
当該誘導音声を発音させる音声出力部と、
前記記憶部から誘導音声を読み出して前記音声出力部から出力させながら、前記テンキーから商品の選択および数量の入力を受け付け、選択された商品および数量を前記カードリーダから読み込んだ情報に基づき特定したユーザの注文としてインターネットとの通信部を通じて外部のシステムに送信することで、当該商品を前記ユーザ宛てに提供させる制御部と、
を備えたネットワークロボット装置。 A network robot device for ordering products through the Internet,
Wrap the device body in the character exterior,
The device body is
Numeric keypad connection for product selection and quantity input;
A card reader connection that reads information from a card to identify the user;
A storage unit storing guidance voices for proceeding with the ordering process;
A voice output unit for generating the guidance voice;
A user who selects a product and inputs a quantity from the numeric keypad while reading out a guidance voice from the storage unit and outputs it from the voice output unit, and identifies the selected product and quantity based on information read from the card reader A control unit for providing the product to the user by transmitting to the external system through the communication unit with the Internet as an order of
Network robot device with - 前記制御部は、前記テンキーから前記商品としてタクシーの配車を受け付ける、請求項2に記載のネットワークロボット装置。 The network robot apparatus according to claim 2, wherein the control unit receives a taxi dispatch as the product from the numeric keypad.
- 前記制御部は、前記テンキーから前記商品としてふるさと納税の申込を受け付ける、請求項2に記載のネットワークロボット装置。 The network robot apparatus according to claim 2, wherein the control unit accepts an application for home tax payment as the product from the numeric keypad.
- 前記制御部は、前記カードリーダから読み込んだ情報を前記注文の決済に用いる、請求項2に記載のネットワークロボット装置。 The network robot apparatus according to claim 2, wherein the control unit uses information read from the card reader for settlement of the order.
- 請求項2に記載のネットワークロボット装置において、
前記キャラクター外装が触覚スイッチを備えると共に、
当該触覚スイッチに対応する音声を前記記憶部が記憶し、
前記制御部は、前記触覚スイッチの操作を検知すると、当該操作された触覚スイッチに対応する音声を前記記憶部から読み出して前記音声出力部に出力させる、ネットワークロボット装置。 The network robot apparatus according to claim 2,
The character exterior has a tactile switch,
The storage unit stores sound corresponding to the tactile switch,
When the control unit detects an operation of the tactile switch, the control unit reads out a sound corresponding to the operated tactile switch from the storage unit and outputs the sound to the sound output unit. - 前記記憶部は、前記音声をユーザ識別子に紐付けて記憶し、
前記制御部は、前記カードリーダから読み込んだ情報に基づきユーザ識別子を特定すると共に、そのユーザ識別子に紐付けられた音声を前記記憶部から読み出して前記音声出力部から出力させる、請求項2又は6に記載のネットワークロボット装置。 The storage unit stores the voice in association with a user identifier,
The control unit specifies a user identifier based on information read from the card reader, reads out a voice associated with the user identifier from the storage unit, and causes the voice output unit to output the voice. The network robot apparatus described in 1. - 前記商品の選択を商品カタログ又はチラシの表示に基づいて行う、請求項2に記載のネットワークロボット装置。 The network robot apparatus according to claim 2, wherein the product is selected based on a product catalog or a flyer display.
- 前記通信部は、外部の表示装置と通信する機能を備え、
前記制御部は、予め記憶部に記憶した情報に基づいて前記通信部を介し前記外部の表示装置に前記商品カタログ又はチラシを表示させる、請求項8に記載のネットワークロボット装置。 The communication unit has a function of communicating with an external display device,
The network robot device according to claim 8, wherein the control unit displays the product catalog or the flyer on the external display device via the communication unit based on information stored in advance in a storage unit. - 請求項2に記載のネットワークロボット装置おいて、
前記注文の決済方法を前記テンキーのキーごとに割り当て、前記制御部は、押されたキーに対応する決済方法により前記注文の処理を進める、ネットワークロボット装置。 The network robot apparatus according to claim 2,
A network robot apparatus, wherein the order settlement method is assigned to each key of the numeric keypad, and the control unit advances the order processing by a settlement method corresponding to a pressed key. - 請求項2に記載のネットワークロボット装置において、
前記記憶部は、前記音声を業者識別子に紐付けて記憶し、
前記制御部は、前記カードリーダから読み込んだ情報に基づき業者識別子を特定すると共に、その業者識別子に紐付けられた音声を前記記憶部から読み出して前記音声出力部から出力させる、ネットワークロボット装置。 The network robot apparatus according to claim 2,
The storage unit stores the voice in association with a vendor identifier,
The network robot device, wherein the control unit specifies a vendor identifier based on information read from the card reader, and reads a voice associated with the vendor identifier from the storage unit and outputs the voice from the voice output unit. - 請求項2に記載のネットワークロボット装置において、
前記記憶部は、前記音声を業者識別子に紐付けて記憶し、
前記制御部は、前記注文が可能な商品を提供する業者の業者識別子を特定すると共に、その業者識別子に紐付けられた音声を前記記憶部から読み出して前記音声出力部から出力させる、ネットワークロボット装置。 The network robot apparatus according to claim 2,
The storage unit stores the voice in association with a vendor identifier,
The control unit specifies a trader identifier of a trader who provides the orderable product, and reads a voice associated with the trader identifier from the storage unit and outputs the voice from the voice output unit. . - 請求項1に記載のネットワークロボット装置において、
装置本体をキャラクター外装に包むと共に、テンキー、カードリーダ及び音声出力部を備え、
前記制御部は、前記音声出力部から案内音声を出力し、前記カードリーダにかざされたポイントカードに紐付けて前記テンキーから入力されたポイント数を加算する、ネットワークロボット装置。 The network robot apparatus according to claim 1,
While wrapping the device body in the character exterior, it is equipped with a numeric keypad, card reader and voice output unit,
The network robot apparatus, wherein the control unit outputs a guidance voice from the voice output unit, and adds the number of points input from the numeric keypad in association with the point card held over the card reader. - 請求項1に記載のネットワークロボット装置において、
装置本体をキャラクター外装に包むと共に、音声出力部を備え、
前記制御部は、端末から前記外部装置に登録されたメッセージを前記通信部を介して取得し、当該メッセージを前記音声出力部から出力させる、ネットワークロボット装置。 The network robot apparatus according to claim 1,
While wrapping the device body in the character exterior, it has an audio output part,
The network robot device, wherein the control unit acquires a message registered in the external device from a terminal via the communication unit, and causes the voice output unit to output the message. - 請求項14に記載のネットワークロボット装置において、
前記音声出力部から出力させる声を前記メッセージに基づいて合成するスピーチシンセサイザを備えた、ネットワークロボット装置。 The network robot apparatus according to claim 14, wherein
A network robot apparatus comprising a speech synthesizer that synthesizes a voice to be output from the voice output unit based on the message. - 請求項1に記載のネットワークロボット装置において、
装置本体をキャラクター外装に包むと共に、音声出力部を備え、
前記制御部が、前記通信部を介して外部の端末との間で音声チャットを実行する機能を備えると共に、当該音声チャットの相手方から送られたメッセージに基づいて前記音声出力部から出力させる声を合成するスピーチシンセサイザを備えた、ネットワークロボット装置。 The network robot apparatus according to claim 1,
While wrapping the device body in the character exterior, it has an audio output part,
The control unit has a function of performing voice chat with an external terminal via the communication unit, and outputs a voice to be output from the voice output unit based on a message sent from the other party of the voice chat. A network robot with a speech synthesizer to synthesize. - 請求項1に記載のネットワークロボット装置において、
前記制御部は、センサからユーザの生体情報を取得する機能を備え、前記音声出力部から案内音声を出力し、前記センサから取得した生体情報を前記ユーザの識別子に紐付け、前記通信部を介して前記外部装置に送信する、ネットワークロボット装置。 The network robot apparatus according to claim 1,
The control unit has a function of acquiring a user's biological information from a sensor, outputs a guidance voice from the voice output unit, associates the biological information acquired from the sensor with the identifier of the user, and passes through the communication unit. A network robot device for transmitting to the external device. - 請求項1に記載のネットワークロボット装置において、
装置本体をキャラクター外装に包むと共に、テンキー等のユーザからの入力装置を備え、
前記制御部は、装置のユーザを見守る目的で前記ユーザによる前記入力装置の操作状況を前記通信部を介して前記外部装置に送信する、ネットワークロボット装置。 The network robot apparatus according to claim 1,
While wrapping the device body in the character exterior, it has input devices from users such as numeric keys,
The said control part is a network robot apparatus which transmits the operation condition of the said input device by the said user to the said external device via the said communication part in order to watch the user of an apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018517245A JP6884316B2 (en) | 2016-11-16 | 2017-11-16 | Network robot device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-223670 | 2016-11-16 | ||
JP2016223670 | 2016-11-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018092865A1 true WO2018092865A1 (en) | 2018-05-24 |
Family
ID=62146561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/041382 WO2018092865A1 (en) | 2016-11-16 | 2017-11-16 | Networked robot device |
Country Status (2)
Country | Link |
---|---|
JP (4) | JP6884316B2 (en) |
WO (1) | WO2018092865A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110434872A (en) * | 2019-09-04 | 2019-11-12 | 昆山瑞泰智能科技有限公司 | Charitable contribution robot, robot charitable contribution method and dispatching method |
JPWO2021049276A1 (en) * | 2019-09-09 | 2021-03-18 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000059837A (en) * | 1998-06-01 | 2000-02-25 | Yamagata Casio Co Ltd | Incoming call notice device and outer case |
JP2000315227A (en) * | 1999-04-30 | 2000-11-14 | Kichinosuke Nagashio | Internet mail order system |
JP2002063525A (en) * | 2000-08-22 | 2002-02-28 | Nec Corp | Product selling method using personal identification using biological information |
JP2002074094A (en) * | 2000-09-01 | 2002-03-12 | Mitsubishi Electric Corp | Service-ordering method |
JP2002092172A (en) * | 2000-09-18 | 2002-03-29 | Meditech International Inc | Home care support system |
JP2007265325A (en) * | 2006-03-30 | 2007-10-11 | Aos Technologies Kk | Service user support system |
JP2015028794A (en) * | 2014-09-09 | 2015-02-12 | カシオ計算機株式会社 | Customer management device and program |
JP2015055894A (en) * | 2013-09-10 | 2015-03-23 | 大日本印刷株式会社 | Order system, server, terminal, paper medium, order method, program, recording medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10290298A (en) * | 1997-04-16 | 1998-10-27 | Sony Corp | Portable information terminal |
JP2001266022A (en) * | 2000-03-17 | 2001-09-28 | Yasuo Tomoyuki | Www system enabling shopping with only ten-key input |
JP2005301585A (en) * | 2004-04-09 | 2005-10-27 | Sony Corp | Information providing system, timing providing device, information providing server, information providing method, and computer program |
JP4347829B2 (en) * | 2005-03-16 | 2009-10-21 | 日本電信電話株式会社 | Information registration apparatus, program, information registration method, and information providing method |
JP2009282690A (en) * | 2008-05-21 | 2009-12-03 | Toshiba Corp | Information search method and information processing apparatus |
JP5428065B2 (en) * | 2011-02-08 | 2014-02-26 | カシオ計算機株式会社 | Input device, input system, and program |
WO2014050088A1 (en) * | 2012-09-28 | 2014-04-03 | パナソニック株式会社 | Information notification method, information notification system, and server device |
-
2017
- 2017-11-16 WO PCT/JP2017/041382 patent/WO2018092865A1/en active Application Filing
- 2017-11-16 JP JP2018517245A patent/JP6884316B2/en active Active
-
2019
- 2019-08-22 JP JP2019152415A patent/JP7041924B2/en active Active
-
2022
- 2022-03-03 JP JP2022032326A patent/JP2022066372A/en active Pending
-
2024
- 2024-03-12 JP JP2024037869A patent/JP2024083349A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000059837A (en) * | 1998-06-01 | 2000-02-25 | Yamagata Casio Co Ltd | Incoming call notice device and outer case |
JP2000315227A (en) * | 1999-04-30 | 2000-11-14 | Kichinosuke Nagashio | Internet mail order system |
JP2002063525A (en) * | 2000-08-22 | 2002-02-28 | Nec Corp | Product selling method using personal identification using biological information |
JP2002074094A (en) * | 2000-09-01 | 2002-03-12 | Mitsubishi Electric Corp | Service-ordering method |
JP2002092172A (en) * | 2000-09-18 | 2002-03-29 | Meditech International Inc | Home care support system |
JP2007265325A (en) * | 2006-03-30 | 2007-10-11 | Aos Technologies Kk | Service user support system |
JP2015055894A (en) * | 2013-09-10 | 2015-03-23 | 大日本印刷株式会社 | Order system, server, terminal, paper medium, order method, program, recording medium |
JP2015028794A (en) * | 2014-09-09 | 2015-02-12 | カシオ計算機株式会社 | Customer management device and program |
Non-Patent Citations (2)
Title |
---|
INFORMATION, NIKKEI TOP LEADER, vol. 323, 1 August 2011 (2011-08-01), pages 78, ISSN: 0289-6516 * |
OGAWA, TAKUKI: "Verification of the Effects of Touch Instruction on Voice Robots", PROCEEDINGS OF THE 18TH ANNUAL MEETING OF THE ASSOCIATION FOR NATURAL LANGUAGE PROCESSING, 31 March 2012 (2012-03-31), pages 662 - 664 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110434872A (en) * | 2019-09-04 | 2019-11-12 | 昆山瑞泰智能科技有限公司 | Charitable contribution robot, robot charitable contribution method and dispatching method |
JPWO2021049276A1 (en) * | 2019-09-09 | 2021-03-18 | ||
WO2021049276A1 (en) * | 2019-09-09 | 2021-03-18 | 株式会社デンソー | Parking assistance system |
JP7248134B2 (en) | 2019-09-09 | 2023-03-29 | 株式会社デンソー | parking assistance system |
Also Published As
Publication number | Publication date |
---|---|
JP7041924B2 (en) | 2022-03-25 |
JP2022066372A (en) | 2022-04-28 |
JP2019212326A (en) | 2019-12-12 |
JP6884316B2 (en) | 2021-06-09 |
JPWO2018092865A1 (en) | 2018-11-22 |
JP2024083349A (en) | 2024-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7557827B2 (en) | PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS | |
JP2024083349A (en) | Networked robot device | |
TW200402642A (en) | System for marketing goods and services utilizing computerized central and remote facilities | |
US20160078522A1 (en) | Browsing device, information processing system, method of controlling browsing device, recording medium , and program | |
JP2018205844A (en) | Payment support apparatus, payment support method, and payment support program | |
CN108700979A (en) | Product introduction graphic user interface | |
JP2018101388A (en) | Information processor and program | |
JP2021522632A (en) | Systems and methods for generating and presenting detailed content about a product or service using a communication interface on demand | |
JP7037304B2 (en) | Transaction support system, transaction support device, transaction support method and program | |
KR20190083280A (en) | Method of providing customized tour package | |
JP2004295196A (en) | Article information inquiry system and program | |
JP2002312613A (en) | Server device and system for generating and transmitting favorite merchandise list | |
KR20160113568A (en) | Method, system and recording medium for transaction processing using real time conversation | |
US20140358711A1 (en) | Network-based gift service | |
JP5033816B2 (en) | Product or service providing method, server, terminal, and system | |
KR101931884B1 (en) | A congratulations and condolences service System | |
JP5335114B2 (en) | How to provide goods or services | |
JP7373531B2 (en) | Information processing device, communication system, information processing method and program | |
KR102242165B1 (en) | order production and trading system for gifts with voice output function | |
JP2002351487A (en) | Voice library system and its operating method | |
CN117974255B (en) | Information display method, information display device, computer equipment and computer readable storage medium | |
JP2021002344A (en) | Information processor | |
JP6842582B1 (en) | Augmented reality system | |
KR20090111006A (en) | The system which operates a performance point relate to a volunteer work online network in base | |
JP2005115577A (en) | System for merchandise advertisement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2018517245 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17872371 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17872371 Country of ref document: EP Kind code of ref document: A1 |