[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2024069720A1 - ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法 - Google Patents

ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法 Download PDF

Info

Publication number
WO2024069720A1
WO2024069720A1 PCT/JP2022/035784 JP2022035784W WO2024069720A1 WO 2024069720 A1 WO2024069720 A1 WO 2024069720A1 JP 2022035784 W JP2022035784 W JP 2022035784W WO 2024069720 A1 WO2024069720 A1 WO 2024069720A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
nodes
edge
network
node assembly
Prior art date
Application number
PCT/JP2022/035784
Other languages
English (en)
French (fr)
Inventor
淳 片山
大我 吉田
潤 島村
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/035784 priority Critical patent/WO2024069720A1/ja
Priority to JP2024548846A priority patent/JPWO2024069720A1/ja
Publication of WO2024069720A1 publication Critical patent/WO2024069720A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Definitions

  • the disclosed technology relates to a node assembly using an artificial neural network, a concept sequencer, a node assembly generation program, and a node assembly generation method.
  • Artificial neural networks can store numerical values in the parameters within the network (for example, see non-patent literature: Takayuki Okada, "Deep Learning,” Journal of the Institute of Image Information and Television Engineers, Vol. 68, No. 6, 2014, pp. 466-471). These parameters are parameters of a function that converts input to output, and do not refer to any concept. In other words, they are not memories of concepts.
  • memory elements used in computers can also store numerical values. Therefore, if a numerical value is associated with a concept, the concept can be stored in the memory element.
  • concepts stored in memory elements never change. Furthermore, concepts stored in memory elements do not interact with other concepts to create new concepts, as concepts stored by humans do.
  • Supervised learning in artificial neural networks can reproduce the input and output that it has been taught.
  • supervised learning in artificial neural networks can search for similar inputs that have already been taught and select the corresponding output.
  • supervised learning in artificial neural networks cannot select an output if the input is not similar to the input that has already been taught.
  • supervised learning in artificial neural networks cannot create a new output other than the output that was originally taught.
  • reinforcement learning of artificial neural networks when a reward is given, it is possible to search for unknown inputs that maximize the reward. However, because the reward is given, reinforcement learning of artificial neural networks cannot create rewards on its own. It is also not possible to search for true rewards when the reward is unknown.
  • the disclosed technology has been made in consideration of the above points, and aims to provide a node assembly, a concept sequencer, a node assembly generation program, and a node assembly generation method that can generate concepts by itself.
  • the first aspect of the present disclosure is a node assembly including all of the nodes that are connected to other nodes by one edge among the nodes that have fired within a predetermined threshold time from a specific time, in a network including at least one or more nodes connected by at least one edge that transmits bit information, the internal state of each of the nodes is expressed by the sum of a predetermined function that is expressed by a value that numerically represents the internal state of the node and is expressed by a potential that affects the firing state of the node and time, and the sum of the input values input to each of the nodes from all of the connected edges, the external state of each of the nodes is determined to be in an fired state or a non-fired state by comparing the potential with a predetermined firing threshold, and the information transmission efficiency that represents the transmission efficiency of the bit information on each of the edges changes according to the difference in firing time of each of the nodes connected to both ends of the edge, and the node assembly includes all of the nodes that have fired within a predetermined threshold time from
  • a second aspect of the present disclosure is a conceptual sequencer that includes a plurality of the node assemblies described in claim 1 and at least one or more of the edges that connect the node assemblies together by connecting any of the nodes included in each of the node assemblies, and that configures at least one recursive circuit in which the plurality of node assemblies are connected in a ring shape by the edges.
  • the third aspect of the present disclosure is a node assembly generation program that causes a computer to execute a process of generating a node assembly including all nodes connected to other nodes by one edge among the nodes that have fired within a predetermined threshold time from a specific time by expressing the internal state of each node as a sum of a predetermined function expressed by a potential and time that affects the firing state of the node and a sum of input values input to each node from all connected edges, determining the external state of each node as an fired state or a non-fired state by comparing the potential with a predetermined firing threshold, and changing the information transmission efficiency that represents the transmission efficiency of bit information on each edge according to the difference in firing time of each node connected to both ends of the edge.
  • the fourth aspect of the present disclosure is a node assembly generation method in which, in a network including at least one or more nodes connected by at least one or more edges that transmit bit information, the internal state of each of the nodes is expressed by the sum of a predetermined function represented by a value that numerically represents the internal state of the node and is represented by a potential that affects the firing state of the node and time, and the sum of input values input to each of the nodes from all of the connected edges, the external state that represents the transmission efficiency of the bit information in each of the nodes is determined to be in an fired state or a non-fired state by comparing the potential with a predetermined firing threshold, and the information transmission efficiency in each of the edges is changed according to the difference in the firing times of each of the nodes connected to both ends of the edge, thereby generating a node assembly including all of the nodes that are connected to other nodes other than themselves by one edge among the nodes that have fired within a predetermined threshold time from a specific time.
  • the node assembly, concept sequencer, node assembly generation program, and node assembly generation method disclosed herein have the effect of allowing users to generate concepts on their own.
  • FIG. 1 illustrates an example of an artificial neural network.
  • FIG. 2 illustrates an example of a node assembly.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of an information processing device.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of an information processing device.
  • 13 is a flowchart illustrating an example of the flow of a node assembly generation process.
  • FIG. 1 is a diagram showing an example of a node assembly that configures a recursive circuit.
  • FIG. 13 is a diagram showing an example of a conceptual sequencer including node assemblies that do not form a recursive circuit.
  • FIG. 1 illustrates an example of a conceptual sequencer with multiple recursive circuits.
  • FIG. 1 illustrates an example network including a concept sequencer and a node assembly that accepts input from outside the network.
  • FIG. 1 illustrates an example of a conceptual sequencer that recalls memories without external input.
  • 13 is a flowchart showing an example of the flow of a growth process.
  • FIG. 1 is a diagram showing an example of an artificial neural network 1 including nodes 2 and edges 3.
  • the artificial neural network 1 is referred to as "network 1."
  • edges 3 transmit input values (called “bit information") in one direction along the arrow.
  • Node 2 which is the source of the bit information flowing through edge 3, is defined as the “start node 2”
  • node 2 which receives the bit information from edge 3 is defined as the “end node 2.”
  • node 2 when there is no need to distinguish between the start node 2 and end node 2, they will be referred to as "node 2.”
  • Network 1 includes at least one or more nodes 2 connected by one or more edges 3.
  • Node 2 has an internal state with potential v, firing threshold ⁇ , reset value r, and refractory period rp, and an external state with a firing bit.
  • the firing bit can take the value "0" or "1.”
  • the firing bit is an output that represents the firing state at node 2.
  • Edge 3 has a delay d and information transmission efficiency w in its internal state. Also, for network 1, we define the time of the entire network 1, that is, network time t.
  • the potential v of node 2 is a value that numerically represents the internal state of node 2 and is a value that affects the firing state of node 2.
  • the potential v of node 2 is expressed as the sum of two terms. The first term is a predetermined function expressed by the potential v and the network time t. The second term is the sum of the bit information input to node 2 from all connected edges 3.
  • the internal state of node 2 is expressed, for example, by equation (1).
  • "v” is the internal state of node 2, i.e., the potential of node 2
  • "t" is network time
  • " ⁇ w” is the sum of the products of the bit information input to each edge 3 connected to node 2 and the information transmission efficiency w of edge 3 at network time t.
  • the internal state of node 2 can also be expressed by, for example, equations (2) and (3).
  • "u” is a variable used only in equations (2) and (3) and is a recovery variable that recovers the potential v of node 2 that has fired.
  • "a” is a time constant that controls how much the recovery variable u decays over time.
  • "b” is a constant that affects the sensitivity of the recovery variable u to the internal state of node 2.
  • the internal state of node 2 is also represented by a system of simultaneous differential equations called the Hodgkin-Huxley model (see, for example, ⁇ https://compneuro-julia.github.io/neuron-model/hodgkin-huxley.html>).
  • node 2 fires when the potential v of node 2 exceeds the firing threshold ⁇ .
  • the firing bit of node 2 becomes "1" only until a predetermined specified time has elapsed since node 2 fired.
  • the potential v of node 2 is set to a reset value r, and after the specified time has elapsed, the firing bit of node 2 becomes "0". Once node 2 fires, it will not fire even if the potential v of node 2 exceeds the firing threshold ⁇ until the refractory period rp has elapsed from the time node 2 fires.
  • the bit information that flows through edge 3 when node 2 fires is the fired bit of node 2.
  • the time represented by delay d has elapsed from the firing time when the starting node 2 of edge 3 fires, the fired bit arrives at the end node 2 of edge 3, and the real value of the fired bit x information transmission efficiency w is input to the end node 2.
  • the information transmission efficiency w represents the transmission efficiency of the bit information at each edge 3.
  • the information transmission efficiency w of edge 3 has the property of changing according to the firing timing, i.e., the difference in firing time, of both end nodes 2 of edge 3, i.e., the start node 2 and end node 2. Furthermore, the information transmission efficiency w of edge 3 may have the property of changing according to instructions from edge information transmission efficiency change unit 5A (see Figure 3), which will be described later.
  • the property in which the information transmission efficiency w changes according to the firing timing of both end nodes 2 is called the "plasticity of edge 3."
  • the change in information transmission efficiency w due to the firing timing of the two end nodes 2 is determined by which of the two end nodes 2 fired first, and the positive or negative sign indicating the increase or decrease in information transmission efficiency w is determined by the difference in the firing times of the two end nodes 2.
  • a group of nodes that are strongly connected due to changes in the information transmission efficiency w of edges 3 is defined as a "node assembly 4."
  • the measure for measuring the strength of the connections of a group of nodes is time.
  • a threshold time (e.g., 10 ms) is set as a measure for measuring the strength of the connections of a group of nodes, and among each node 2 that fires within the threshold time from a specific time, the set that includes all nodes 2 that are connected to other nodes 2 other than itself by a single edge 3 is the node assembly 4.
  • FIG. 2 is a diagram showing an example of a node assembly 4.
  • a node assembly 4 is a collection of nodes 2 connected by edges 3 that are thicker than the other edges 3.
  • a state in which one or more nodes 2 in the node assembly 4 are fired is expressed as "node assembly 4 is activated.”
  • node assemblies 4 that are likely to be activated in response to specific inputs are generated.
  • the node assemblies 4 generated in this way represent concepts related to inputs.
  • FIG. 3 shows an example of the functional configuration of an information processing device 5 that generates such a node assembly 4.
  • the information processing device 5 includes an edge information transmission efficiency change unit 5A, a reward evaluation unit 5B, an edge selection unit 5C, an external input unit 5D, and a memory unit 5E.
  • the network 1 is stored in the memory unit 5E, and the edge information transmission efficiency change unit 5A changes the information transmission efficiency w of the edge 3 selected by the edge selection unit 5C (described later) in accordance with the reward evaluation result evaluated by the reward evaluation unit 5B.
  • the reward evaluation unit 5B evaluates the degree of match between the contents of an output bit string generated by arranging firing bits that indicate the firing states of a predetermined number of nodes 2 included in the network 1 and the contents of an expected output bit string as a reward, and notifies the edge information transmission efficiency change unit 5A of the reward evaluation result.
  • the edge selection unit 5C selects from the network 1 an edge 3 whose information transmission efficiency w is to be changed by the edge information transmission efficiency change unit 5A.
  • the first is a selection method for selecting all edges 3 included in the network 1.
  • the second is a selection method for preferentially selecting edges 3 whose evaluation time at which the reward is evaluated by the reward evaluation unit 5B is closer to the firing time of the connected node 2. Specifically, from the nodes 2 that are in an firing state at a judgment time that is a predetermined time away from the evaluation time at which the reward is evaluated by the reward evaluation unit 5B, all edges 3 that input bit information to each node 2 selected according to a predetermined probability are selected.
  • the edge selection method in the edge selection unit 5C will be explained in detail later.
  • the external input unit 5D inputs bit information from outside the network 1 to at least one node 2 of the network 1.
  • the node assembly 4 illustrated in FIG. 2 not only receives input, but also outputs bit information to other nodes 2. Therefore, the information transmission efficiency w of the edge 3 may change depending on the input from outside the network 1 via the external input unit 5D and the input from the node assembly 4 within the network 1, and a new node assembly 4 may be generated.
  • the newly generated node assembly 4 represents a concept that is a fusion of the concept represented by the input from outside the network 1 and a concept related to the concept represented by the node assembly 4 within the network 1.
  • the concept represented by the newly generated node assembly 4 is a new concept that is different from the concept represented by the input from outside the network 1 and the concept represented by the node assembly 4 within the network 1. In this way, the node assembly 4 generates a concept by itself.
  • the information transmission efficiency w of the edge 3 may change due to input from outside the network 1 via the external input unit 5D and input from other node assemblies 4 in the network 1, i.e., existing node assemblies 4, and the number of nodes included in the existing node assembly 4 may also change.
  • Such events indicate that the concept of the existing node assembly 4 is expanded or contracted. The expansion or contraction of a concept helps to change concepts and generate new concepts.
  • the node 2 in the network 1 may continue to fire only with input from within the network 1, without any input from outside the network 1.
  • a "recursive circuit” refers to a closed circuit formed by nodes 2 connected in a ring by edges 3.
  • the state in which the node 2 continues to fire without any input from outside the network 1 is expressed as "the network 1 running on its own”. There may be multiple paths by which the node 2 continues to fire.
  • the information transmission efficiency w of the edge 3 changes due to the activity of multiple node assemblies 4 in the network 1, for example, the first node assembly 4 and the second node assembly 4, and as a result, a new node assembly 4 may be generated in the network 1.
  • the concept represented by the new node assembly 4 generated in this way is a new concept different from the concept represented by the first node assembly 4 and the concept represented by the second node assembly 4. In this way, the node assembly 4 generates a new concept without any input from outside the network 1. This mechanism mimics the way the human brain can make new discoveries and inventions while asleep.
  • the information transmission efficiency w of the edges 3 connecting the nodes 2 changes, and the boundaries of the existing node assemblies 4 may also change.
  • This situation represents the expansion or contraction of the concept represented by the existing node assemblies 4.
  • the expansion or contraction of a concept helps to change the concept and generate new concepts. Therefore, concepts are expanded or contracted without any input from outside the network 1, and new concepts are generated.
  • network 1 Furthermore, if input is continuously provided to network 1 and network 1 continues to run on its own during periods when there is no input, it is probabilistic that network 1 will begin to have the intelligence to acquire new concepts. This is because the history of the evolution of life has proven that if a large number of trials are performed on network 1, a network 1 that has acquired intelligence can be obtained in some of the trials.
  • the information transmission efficiency w of edge 3 can be changed by reward. For example, by increasing the information transmission efficiency w of edge 3 by reward, node assemblies 4 are more likely to be generated in the direction that increases the reward.
  • the probability of node assembly 4 generation increases, the probability of concepts occurring increases, and the probability of complex relationships between concepts occurring also increases. In other words, the probability that network 1 will have intelligence increases.
  • the reinforcement learning artificial neural network in a known reinforcement learning artificial neural network, after the reward and the input generation rules are taught to the reinforcement learning artificial neural network, it operates without any input from outside the network 1. Therefore, on the surface, it can be said that the reinforcement learning artificial neural network also operates without any input from outside the network 1, just like the node assembly 4 of the present disclosure, but the reinforcement learning artificial neural network can only perform operations that maximize the taught reward.
  • the reinforcement learning artificial neural network cannot create new inputs that deviate from the input generation rules. In other words, the reinforcement learning artificial neural network cannot generate rewards based on a different definition, and furthermore, it cannot come up with new ideas that go beyond the input generation rules, that is, discover solutions outside the assumed solution space. Therefore, the node assembly 4 of the present disclosure differs from known reinforcement learning artificial neural networks in that it can define new rewards and discover solutions that are not trapped in the existing solution space.
  • FIG. 4 is a block diagram showing an example of the hardware configuration of the information processing device 5.
  • the information processing device 5 is configured using a computer 10, and includes a CPU (Central Processing Unit) 11, which is an example of a processor, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a non-volatile memory 14, and an input/output interface (I/O) 15.
  • the CPU 11, ROM 12, RAM 13, non-volatile memory 14, and I/O 15 are each connected via a bus 16.
  • Non-volatile memory 14 is an example of a storage device that maintains stored information even if the power supplied to non-volatile memory 14 is cut off, and is, for example, a semiconductor memory, but a hard disk may also be used.
  • Network 1, for example, is stored in non-volatile memory 14.
  • a communication unit 17, an input unit 18, and a display unit 19 are connected to the I/O 15.
  • the communication unit 17 is connected to a communication line and has a communication protocol for performing data communication with an external device (not shown).
  • a wired communication standard such as Ethernet (registered trademark) or FDDI, or a wireless communication standard such as 4G, 5G, or Wi-Fi (registered trademark) is used.
  • the input unit 18 is an example of a unit that accepts user operations and notifies the CPU 11, and includes, for example, a button, a touch panel, a keyboard, a mouse, and a pointing device.
  • the display unit 19 is an example of a unit that visually displays information processed by the CPU 11, and includes, for example, a liquid crystal display and an organic EL (Electro Luminescence) display.
  • communication unit 17, input unit 18, and display unit 19 do not necessarily need to be connected to the I/O 15, but are connected to the I/O 15 as necessary.
  • FIG. 5 is a flowchart showing an example of the process flow for generating a node assembly 4.
  • the node assembly generation program that defines the process of generating the node assembly 4 is stored in advance, for example, in the ROM 12 of the information processing device 5.
  • the CPU 11 of the information processing device 5 reads the node assembly generation program stored in the ROM 12 and executes the process of generating the node assembly 4.
  • the non-volatile memory 14 stores the network 1 before the node assembly 4 is generated as shown in FIG. 1. For ease of explanation, input from outside the network 1 is referred to as "external input.”
  • bit information When bit information is input from external input unit 5D to edge 3 of network 1, the bit information flows to edge 3, causing node 2 to fire.
  • step S10 the CPU 11 updates the information transmission efficiency w of each edge 3 according to the firing order of the two end nodes 2 and the magnitude of the difference between the firing times of the two end nodes 2.
  • nodes 2 firing in sync means that multiple nodes 2 fire within a threshold time from a specific time. As already explained, nodes 2 that fire in sync constitute a node assembly 4.
  • step S20 the CPU 11 determines whether or not a node assembly 4 has been generated in the network 1. If a node assembly 4 has not been generated, the CPU 11 repeatedly executes the determination process of step S20 while repeatedly inputting bit information from within and outside the network 1 to the network 1, thereby monitoring the generation status of the node assembly 4. On the other hand, if a node assembly 4 has been generated, the process proceeds to step S30.
  • step S30 the CPU 11 determines whether or not an end instruction has been received from the user, for example, via the input unit 18. If an end instruction has been received, the process of generating the node assembly 4 shown in FIG. 5 ends. In this case, a node assembly 4 that represents a concept related to input, such as that shown in FIG. 2, is obtained.
  • step S30 determines that an end instruction has not been received from the user, the process proceeds to step S40.
  • a node assembly 4 that constitutes a recursive circuit may be generated.
  • FIG. 6 is a diagram showing an example of a node assembly 4 that constitutes a recursive circuit.
  • Each node assembly 4 is connected by an edge 3.
  • the edge 3 connecting two node assemblies 4 does not necessarily have to be one, but may be multiple. There are no restrictions on the starting node 2 of one node assembly 4 and the ending node 2 of the other node assembly 4 connected by the edge 3, and any node 2 within each node assembly 4 may be connected.
  • the network 1 that includes a plurality of node assemblies 4 and at least one edge 3 that connects the node assemblies 4 together by connecting any of the nodes 2 included in the node assemblies 4, and that forms at least one recursive circuit in which the plurality of node assemblies 4 are connected in a ring shape by the edges 3, is called a "concept sequencer 6.”
  • concept sequencer 6 may include a node assembly 4 that does not form a recursive circuit.
  • FIG. 7 is a diagram showing an example of a conceptual sequencer 6 that includes a node assembly 4 that does not form a recursive circuit.
  • node assembly 4A is a node assembly 4 that does not form a recursive circuit.
  • step S40 of FIG. 5 the CPU 11 determines whether such a concept sequencer 6 has been generated. If a concept sequencer 6 has not been generated, the CPU 11 repeatedly executes the determination process of step S40 while repeatedly inputting bit information into the network 1 from within the network 1 and from outside the network 1, thereby monitoring the generation status of the concept sequencer 6. On the other hand, if a concept sequencer 6 has been generated, the process proceeds to step S50.
  • step S50 the CPU 11 determines whether or not an end instruction has been received from the user via, for example, the input unit 18. If an end instruction has been received, the process of generating the node assembly 4 shown in FIG. 5 ends. In this case, a concept sequencer 6 is obtained that changes the concept represented by the node assembly 4 and generates a new concept.
  • step S50 determines that an end instruction has not been received from the user, the process proceeds to step S60.
  • nodes 2 in network 1 are necessarily included in any node assembly 4, so there are nodes 2 around the concept sequencer 6 that are not part of a node assembly 4. Therefore, as bit information is repeatedly input to network 1 from within and outside network 1, and nodes 2 that were not previously included in a node assembly 4 begin to form a node assembly 4, a new recursive circuit may be generated.
  • FIG. 8 is a diagram showing an example of a conceptual sequencer 6 equipped with multiple recursive circuits.
  • the example conceptual sequencer 6 shown in FIG. 8 includes two recursive circuits, recursive circuit A and recursive circuit B.
  • step S60 in FIG. 5 the CPU 11 determines whether or not a concept sequencer 6 including multiple recursive circuits has been generated. If a concept sequencer 6 including multiple recursive circuits has not been generated, the determination process of step S60 is repeatedly executed while repeatedly inputting bit information into the network 1 from within and outside the network 1, to monitor the generation status of the concept sequencer 6 including multiple recursive circuits. On the other hand, if a concept sequencer 6 including multiple recursive circuits has been generated, the generation process of the node assembly 4 shown in FIG. 5 is terminated. In this case, a concept sequencer 6 is obtained that creates a new concept different from the concept sequencer 6 including one recursive circuit shown in FIGS. 6 and 7.
  • multiple concept sequencers 6 may be generated within the network 1.
  • the multiple generated concept sequencers 6 are connected to each other via edges 3, and input bit information to each other. External inputs are also input to the concept sequencer 6 on an irregular or regular basis. Therefore, these inputs cause the information transmission efficiency w of the edges 3 included in the concept sequencer 6 to change in a complex manner.
  • the node assembly 4 expands, contracts, or splits into multiple pieces, generating new paths for the concept sequencer 6.
  • the expansion and contraction of concepts in the concept sequencer 6 allows the concept sequencer 6 to grow autonomously, and new concepts are created. In other words, the concept sequencer 6 can be a source of advanced intelligence.
  • FIG. 9 shows an example of a network 1 including at least one conceptual sequencer 6, a node assembly 4C that receives input from one of the node assemblies 4 (referred to as "node assembly 4B") that constitute the conceptual sequencer 6, and an edge 3 that inputs an external input to the node assembly 4C.
  • node assembly 4C In network 1, assume that an external input and an input from node assembly 4B are input to node assembly 4C, activating node assembly 4C. In this case, node assembly 4C memorizes the memory of the external input. After this, network 1 operates and the information transmission efficiency w of edge 3 changes. Eventually, the information transmission efficiency w of edge 3 within node assembly 4C is strengthened, and node assembly 4C becomes activated by just the input from node assembly 4B without any external input. In this way, memory recall without external input is achieved in node assembly 4C.
  • FIG. 10 is a diagram showing an example of a conceptual sequencer 6 that recalls memories without external input for the network 1 shown in FIG. 9.
  • the conceptual sequencer 6 shown in FIG. 10 includes a node assembly 4C that recalls memories using only input from a node assembly 4B.
  • a node assembly 4 (referred to as the "former node assembly 4") generated when the threshold time is set to 10 ms will have a greater number of nodes constituting the node assembly 4 (referred to as the "latter node assembly 4") than a node assembly 4 (referred to as the "latter node assembly 4") generated when the threshold time is set to 15 ms.
  • the former node assembly 4 represents the concept of "sea fish”
  • the latter node assembly 4 represents the concept of "sea creatures", which is a broader concept than "sea fish”.
  • FIG. 11 is a flowchart showing an example of the growth process.
  • the node assembly generation program that specifies the growth process is stored in advance, for example, in the ROM 12 of the information processing device 5.
  • the CPU 11 of the information processing device 5 reads the node assembly generation program stored in the ROM 12 and executes the growth process.
  • the non-volatile memory 14 stores the network 1.
  • the network 1 may include at least one of a node assembly 4 and a concept sequencer 6.
  • An external input may be input to the network 1.
  • an external input may be input to an edge 3 connected to a node 2 included in the node assembly 4.
  • step S100 the CPU 11 generates an output bit string, which is a bit string consisting of firing bits representing the firing state of a predetermined number of nodes 2 (also called a "node group") included in the network 1.
  • step S110 the CPU 11 evaluates the degree of match between the contents of the preset expected output bit string and the contents of the output bit string generated in step S100 as a reward.
  • the CPU 11 increases the value of the reward, for example, the higher the degree of match between the contents of the output bit string and the expected output bit string.
  • the contents of the expected output bit string include maximizing and minimizing the physical quantity represented by the output bit string, and maximizing and minimizing the amount of information represented by the output bit string.
  • step S120 the CPU 11 selects an edge 3 that changes the information transmission efficiency w from within the network 1.
  • edge 3 that changes the information transmission efficiency w from within the network 1.
  • the first is a selection method for selecting all edges 3 included in the network 1.
  • the second is a selection method for selecting all edges 3 that input bit information to each node 2 selected according to a predetermined probability from the nodes 2 that are in an ignition state at a judgment time that is a predetermined time away from the evaluation time of the reward evaluated by the processing of step S110.
  • the CPU 11 selects edges 3 that change the information transmission efficiency w from the network 1 using the selection method selected by the user.
  • the second selection method will be described in detail. It is assumed that the CPU 11 evaluates the reward at network time t by the process of step S110. Note that the granularity ⁇ t, which represents the minimum time measurement ability of the CPU 11, is predefined. There are no restrictions on the time granularity ⁇ t, but it is assumed to be 1 ms, for example.
  • the variable n is a natural number
  • the function f(x) is an arbitrary monotonically decreasing real function that takes a value between 0 and 100, with the natural number x as an explanatory variable.
  • the CPU 11 randomly selects f(n) percent of the nodes 2 that fired at network time t-n ⁇ t.
  • the CPU 11 selects all edges 3 that input bit information to each of the selected nodes 2.
  • the network time t-n ⁇ t is an example of a judgment time, and for example, f(n) percent of the nodes 2 may be randomly selected from the nodes 2 that fired at network time t+n ⁇ t.
  • step S130 the CPU 11 updates the information transmission efficiency w of the edge 3 selected from the network 1 by the process of step S120, depending on the reward evaluation result evaluated by the process of step S110. Specifically, the CPU 11 increases the information transmission efficiency w of the selected edge 3 as the reward value increases, and decreases the information transmission efficiency w of the selected edge 3 as the reward value decreases.
  • the node assembly 4 and concept sequencer 6 disclosed herein store the concept in response to the input, and generate a new concept by changing the stored concept. Also, the node assembly 4 and concept sequencer 6 disclosed herein can generate a new concept by changing the stored concept even without external input.
  • each process shown in FIG. 5 and FIG. 11 is realized by software has been described.
  • processes equivalent to the flowcharts of each process shown in FIG. 5 and FIG. 11 may be implemented in, for example, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a PLD (Programmable Logic Device) and processed by hardware.
  • the processing speed can be increased compared to when each process is realized by software.
  • the CPU 11 of the information processing device 5 may be replaced with a dedicated processor specialized for specific processing, such as an ASIC, FPGA, PLD, GPU (Graphics Processing Unit), and FPU (Floating Point Unit).
  • a dedicated processor specialized for specific processing such as an ASIC, FPGA, PLD, GPU (Graphics Processing Unit), and FPU (Floating Point Unit).
  • the generation and growth processes of the node assembly 4 may be performed by a single CPU 11, or may be performed by a combination of two or more processors of the same or different types, such as multiple CPUs 11 or a combination of a CPU 11 and an FPGA.
  • the generation and growth processes of the node assembly 4 may be realized, for example, by the cooperation of processors located in physically separate locations connected via the Internet.
  • the storage destination of the node assembly generation program is not limited to the ROM 12.
  • the node assembly generation program of the present disclosure can also be provided in a form recorded on a storage medium readable by the computer 10.
  • the node assembly generation program may be provided in a form recorded on an optical disk such as a CD-ROM (Compact Disk Read Only Memory) or a DVD-ROM (Digital Versatile Disk Read Only Memory).
  • the node assembly generation program may also be provided in a form recorded on a portable semiconductor memory such as a USB (Universal Serial Bus) memory or a memory card.
  • ROM 12 non-volatile memory 14
  • CD-ROM compact disc-read only memory
  • DVD-ROM digital versatile disk-read only memory
  • USB universal serial Bus
  • memory cards are examples of non-transient storage media.
  • the information processing device 5 may download a node assembly generation program from an external device via the communication unit 17, and store the downloaded node assembly generation program, for example, in the non-volatile memory 14. In this case, the information processing device 5 reads the node assembly generation program downloaded from the external device, and executes the generation process and growth process of the node assembly 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ノードアッセンブリ4は、各々のエッジ3におけるビット情報の伝達効率を表す情報伝達効率wが、エッジ3の両端と接続する各々のノード2における発火時刻の差に応じて変化することで、特定の時刻から閾値時間以内に発火した各々のノード2のうち、自分以外の他のノード2と1本のエッジ3で接続されているすべてのノード2によって構成される。

Description

ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法
 開示の技術は、人工ニューラルネットワークを用いたノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法に関する。
 人工ニューラルネットワークは、ネットワーク内のパラメータに数値を保持することができる(例えば非特許文献:岡谷貴之著、「ディープラーニング」、映像情報メディア学会誌、2014年68巻6号 p. 466-471参照)。このパラメータは入力を出力に変換する関数のパラメータであり、何らかの概念を指し示すものではない。すなわち、概念の記憶ではない。
 人工ニューラルネットワークとは無関係だが、コンピュータに用いられるメモリ素子も数値を保持することができる。したがって、数値と概念を対応付けておけば、メモリ素子に概念を記憶することができる。しかし、メモリ素子に記憶された概念は変化することがない。また、メモリ素子に記憶された概念は、人が記憶する概念のように他の概念と関わりあって新たな概念を生み出すことはない。
 人工ニューラルネットワークの教師あり学習は、教えられた入出力を再現することができる。また、人工ニューラルネットワークの教師あり学習は、教えられていない入力に対しては、既に教えられた類似する入力を探索して対応する出力を選ぶことができる。しかしながら、人工ニューラルネットワークの教師あり学習は、入力が既に教えられた入力と類似していない場合には出力を選ぶことはできない。また、人工ニューラルネットワークの教師あり学習は、最初に教えられた出力以外の出力を新たに創造することはできない。
 一方で、人工ニューラルネットワークの強化学習では、報酬を与えると報酬を最大にする未知の入力を探すことができる。しかしながら、報酬は与えられるものであるため、人工ニューラルネットワークの強化学習では報酬を自ら創造することはできない。また、報酬が未知の場合に真の報酬を探すこともできない。
 こうした事実は、既存の人工ニューラルネットワークが自ら概念を生み出すことができないことに起因している。自ら概念を生み出せないということは、既存の人工ニューラルネットワークでは知性を持つことができないとも言える。
 開示の技術は、上記の点に鑑みてなされたものであり、自らが概念を生み出すことができるノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法を提供することを目的とする。
 本開示の第1態様は、ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、各々の前記ノードにおける内部状態が、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表され、各々の前記ノードにおける外部状態が前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定され、各々の前記エッジにおけるビット情報の伝達効率を表す情報伝達効率が、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化することで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含むノードアッセンブリである。
 本開示の第2態様は、請求項1に記載の複数の前記ノードアッセンブリと、各々の前記ノードアッセンブリに含まれる何れかの前記ノードを接続することによって前記ノードアッセンブリ同士を接続する少なくとも1本以上の前記エッジとを含み、複数の前記ノードアッセンブリが前記エッジによって環状に接続された少なくとも1つの再帰回路を構成する概念シーケンサである。
 本開示の第3態様は、ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、各々の前記ノードにおける内部状態を、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表し、各々の前記ノードにおける外部状態を前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定し、各々の前記エッジにおけるビット情報の伝達効率を表す情報伝達効率を、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化させることで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含むノードアッセンブリを生成する処理をコンピュータに実行させるノードアッセンブリ生成プログラムである。
 本開示の第4態様は、ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、各々の前記ノードにおける内部状態を、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表し、各々の前記ノードにおけるビット情報の伝達効率を表す外部状態を前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定し、各々の前記エッジにおける情報伝達効率を、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化させることで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含むノードアッセンブリを生成する処理をコンピュータが実行するノードアッセンブリ生成方法である。
 本開示のノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法によれば、自らが概念を生み出すことができる、という効果を有する。
人工ニューラルネットワークの一例を示す図である。 ノードアッセンブリの一例を示す図である。 情報処理装置の機能構成例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 ノードアッセンブリの生成処理の流れの一例を示すフローチャートである。 再帰回路を構成するノードアッセンブリの一例を示す図である。 再帰回路を構成しないノードアッセンブリが含まれた概念シーケンサの一例を示す図である。 複数の再帰回路を備えた概念シーケンサの一例を示す図である。 概念シーケンサ及びネットワークの外部から入力を受け付けるノードアッセンブリを含んだネットワークの一例を示す図である。 外部入力なしに記憶を想起する概念シーケンサの一例を示す図である。 成長処理の流れの一例を示すフローチャートである。
 以下、開示の技術に係る実施形態の一例を、図面を参照しながら説明する。なお、同一又は等価な構成要素、部分、及び処理には全図面を通して同じ符号を付与し、重複する説明を省略する。
 図1は、ノード2とエッジ3を含む人工ニューラルネットワーク1の一例を示す図である。説明の便宜上、人工ニューラルネットワーク1を「ネットワーク1」と表す。
 ネットワーク1において、エッジ3は矢印方向に沿った単方向に入力値(「ビット情報」という)を伝達する。エッジ3を流れるビット情報の発生源であるノード2を「起点ノード2」、エッジ3からビット情報を受け取るノード2を「終点ノード2」と定義する。また、起点ノード2及び終点ノード2を区別して説明する必要がない場合には「ノード2」と表す。
 ネットワーク1は、1本以上のエッジ3によって接続された少なくとも1つ以上のノード2を含む。
 ノード2は内部状態にポテンシャルv、発火閾値θ、リセット値r、及び不応期間rpを有し、外部状態に発火ビットを持つ。発火ビットは“0”又は“1”の値を取る。発火ビットは、ノード2における発火状態を表す出力である。
 エッジ3は内部状態に遅れdと情報伝達効率wを持つ。また、ネットワーク1に対して、ネットワーク1全体の時刻、すなわち、ネットワーク時刻tを定義する。
 ここで、ノード2のポテンシャルvとは、ノード2の内部状態を数値として表す値であって、ノード2の発火状態に影響を与える値である。ノード2のポテンシャルvは2項の和によって表される。1項目は、ポテンシャルv及びネットワーク時刻tによって表される予め定めた関数である。2項目は、接続されたすべてのエッジ3からノード2に入力されるビット情報の総和である。
 ノード2の内部状態は、例えば(1)式によって表される。(1)式において、“v”はノード2の内部状態、すなわち、ノード2が有するポテンシャル、“t”はネットワーク時刻、“Σw”はネットワーク時刻tにおいて、ノード2に接続される各々のエッジ3に入力されるビット情報とエッジ3の情報伝達効率wの積和である。
(数1)
  dv/dt=Σw ・・・ (1)
 また、ノード2の内部状態は、例えば(2)式及び(3)式によっても表される。“u”は(2)式及び(3)式の中だけで使用される変数であって、発火したノード2のポテンシャルvを回復させる回復変数であり、“a”は回復変数uを時間的にどれだけ減衰させるかを制御する時定数であり、“b”はノード2の内部状態に対する回復変数uの感受性に影響を与える定数である。
(数2)
 dv/dt=0.04v+5v+140-u+Σw ・・・ (2)
 du/dt=a(bv-u) ・・・ (3)
 更に、ノード2の内部状態は、Hodgkin-Huxleyモデルと呼ばれる連立微分方程式によっても表される(例えば<https://compneuro-julia.github.io/neuron-model/hodgkin-huxley.html>参照)。
 ネットワーク1では、ノード2のポテンシャルvが発火閾値θを超えたときにノード2が発火する。ノード2が発火すると、ノード2が発火してから予め定めた規定時間が経過するまでの間だけノード2の発火ビットが“1”となる。ノード2の発火に伴い、ノード2のポテンシャルvはリセット値rに設定され、規定時間経過後にノード2の発火ビットが“0”になる。ノード2が一度発火すると、ノード2の発火時刻から不応期間rpが経過するまでは、ノード2のポテンシャルvが発火閾値θを超えても発火しないようになっている。
 ノード2の発火に伴ってエッジ3を流れるビット情報は、ノード2の発火ビットである。エッジ3の起点ノード2が発火した発火時刻から遅れdによって表される時間が経過した場合に、エッジ3の終点ノード2に発火ビットが到着し、発火ビット×情報伝達効率wの実数値が終点ノード2へ入力される。すなわち、情報伝達効率wは、各々のエッジ3におけるビット情報の伝達効率を表す。起点ノード2が発火していない場合、起点ノード2の発火ビットは“0”であるから、終点ノード2に“0”が入力される。
 エッジ3の情報伝達効率wはエッジ3の両端ノード2、すなわち、起点ノード2と終点ノード2の発火タイミング、すなわち、発火時刻の差に応じて変化する性質を持つ。更に、エッジ3の情報伝達効率wは、後ほど説明するエッジ情報伝達効率変更部5A(図3参照)の指示によって変化する性質を持ってもよい。両端ノード2の発火タイミングに応じて情報伝達効率wが変化する性質を「エッジ3の可塑性」と呼ぶ。
 両端ノード2の発火タイミングによる情報伝達効率wの変化は、両端ノード2のうち、どちらのノード2が先に発火したかによって情報伝達効率wの増減を表す正負の符号が決められ、両端ノード2の発火時刻の差の大きさによって情報伝達効率wの増減幅が決められる。
 ノード2が全結合、又はランダム結合した図1に示すようなネットワーク1に入力を与えることによって複数のノード2が発火すると、エッジ3の可塑性により、エッジ3の情報伝達効率wが自律的に強化若しくは弱化される。エッジ3の情報伝達効率wの変化により強固に結合したノード群を「ノードアッセンブリ4」と定義する。ノード群の結合の強固さを測る尺度は時間である。ノード群の結合の強固さを測る尺度として閾値時間(例えば10ms)を定め、特定の時刻から閾値時間以内に発火した各々のノード2のうち、自分以外の他のノード2と1本のエッジ3で接続されているすべてのノード2を含んだ集合がノードアッセンブリ4である。
 図2は、ノードアッセンブリ4の一例を示す図である。図2のネットワーク1において、他のエッジ3よりも太いエッジ3で結合されたノード2の集合がノードアッセンブリ4である。ノードアッセンブリ4のうち、1つ以上のノード2が発火している状態を「ノードアッセンブリ4が活性化している」と表す。ネットワーク1に複数の入力を繰り返し入力すると、特定の入力に対して活性化しやすいノードアッセンブリ4が生成される。こうして生成されたノードアッセンブリ4は入力に関する概念を表していることになる。
 図3は、こうしたノードアッセンブリ4を生成する情報処理装置5の機能構成例を示す図である。
 情報処理装置5は、エッジ情報伝達効率変更部5A、報酬評価部5B、エッジ選択部5C、外部入力部5D、及び記憶部5Eを含む。
 記憶部5Eにはネットワーク1が記憶されており、エッジ情報伝達効率変更部5Aは、後述するエッジ選択部5Cによって選択されたエッジ3の情報伝達効率wを、報酬評価部5Bによって評価された報酬の評価結果に応じて変化させる。
 報酬評価部5Bは、ネットワーク1に含まれる予め定めた複数のノード2における発火状態を表す発火ビットを並べて生成した出力ビット列の内容と期待する出力ビット列の内容との合致度合いを報酬として評価し、報酬の評価結果をエッジ情報伝達効率変更部5Aに通知する。
 エッジ選択部5Cは、ネットワーク1の中から、エッジ情報伝達効率変更部5Aにより情報伝達効率wを変化させるエッジ3を選択する。エッジ選択部5Cにおけるエッジ3の選択方法には2通り存在する。1つ目は、ネットワーク1に含まれるすべてのエッジ3を選択する選択方法である。2つ目は、接続されたノード2の発火時刻と報酬評価部5Bによって報酬を評価した評価時刻がより近いエッジ3から優先的に選択する選択方法である。具体的には、報酬評価部5Bによって報酬を評価した評価時刻から予め定めた時刻だけ離れた判定時刻において発火状態にあるノード2から、予め定めた確率に従って選択された各々のノード2にビット情報を入力するすべてのエッジ3を選択する。なお、エッジ選択部5Cにおけるエッジ3の選択方法については、後ほど詳細に説明する。
 外部入力部5Dは、ネットワーク1の少なくとも1つのノード2に、ネットワーク1の外側からビット情報を入力する。
 一方、図2に例示したノードアッセンブリ4は入力を受けるだけでなく、他のノード2へビット情報の出力を行う。したがって、外部入力部5Dによるネットワーク1の外側からの入力と、ネットワーク1内のノードアッセンブリ4からの入力によってエッジ3の情報伝達効率wが変化し、新たなノードアッセンブリ4が生成されることがある。新たに生成されたノードアッセンブリ4は、ネットワーク1の外側からの入力が表す概念と、ネットワーク1内のノードアッセンブリ4が表す概念に関連する概念とが融合した概念を表す。すなわち、新たに生成されたノードアッセンブリ4が表す概念は、ネットワーク1の外側からの入力によって表される概念とも、ネットワーク1内のノードアッセンブリ4によって表される概念とも異なる新規概念である。このようにして、ノードアッセンブリ4が自ら概念を生み出す。
 また、ノードアッセンブリ4が生成された後に、外部入力部5Dによるネットワーク1の外側からの入力と、ネットワーク1内の他のノードアッセンブリ4、すなわち、既存のノードアッセンブリ4からの入力によってエッジ3の情報伝達効率wが変化し、既存のノードアッセンブリ4に含まれるノード数が変化することもある。こうした事象は、既存のノードアッセンブリ4の概念が拡張されたり、縮小されたりすることを表す。概念の拡張や縮小は、概念を変化させ新たな概念を生み出すことの助けとなる。
 なお、ネットワーク1が再帰回路を含む場合、ネットワーク1の外側からの入力なしに、ネットワーク1内からの入力のみでネットワーク1内のノード2が発火し続ける状態になる場合がある。ここで「再帰回路」とは、エッジ3によって環状に接続されたノード2によって構成される閉回路のことである。ネットワーク1の外側からの入力なしにノード2が発火し続ける状態を「ネットワーク1が自走する」と表す。ノード2が発火し続ける経路は複数通り存在し得る。ネットワーク1が自走を続けると、ネットワーク1内で複数個のノードアッセンブリ4、例えば第1のノードアッセンブリ4と第2のノードアッセンブリ4が活動することによってエッジ3の情報伝達効率wが変化し、その結果、ネットワーク1内に新たなノードアッセンブリ4が生成されることがある。こうして生成された新たなノードアッセンブリ4が表す概念は、第1のノードアッセンブリ4によって表される概念とも、第2のノードアッセンブリ4によって表される概念とも異なる新たな概念である。このようにして、ノードアッセンブリ4は、ネットワーク1の外側からの入力なしに新規概念を生み出す。この仕組みにより、人間の脳が眠っている間に新しい発見発明をなし得ることに類似した動作が行われる。
 ネットワーク1が自走を続けると、ノード2間を接続するエッジ3の情報伝達効率wが変化し、既存のノードアッセンブリ4の境界が変化することもある。この状況は、既存のノードアッセンブリ4によって表される概念が拡張したり、縮小したりすることを表す。概念の拡張や縮小は、概念を変化させ、新たな概念を生み出すことの助けとなる。したがって、ネットワーク1の外側からの入力なしに概念の拡張や縮小を行い、新たな概念が生み出される。
 なお、ネットワーク1に入力を与え続け、入力がない期間はネットワーク1を自走させ続ければ、ネットワーク1が新たな概念を獲得する知性を持ち始めることは確率的に起こり得る。なぜならば、ネットワーク1に対して多数の試行を行えば、いくつかの試行で知性を獲得したネットワーク1が得られることは生命の進化の歴史が証明している。ネットワーク1が知性を持つ確率を上げるためには、例えば報酬によりエッジ3の情報伝達効率wを変更すればよい。例えば報酬によりエッジ3の情報伝達効率wを増加させることで、報酬を増やす方向にノードアッセンブリ4が生成されやすくなる。ノードアッセンブリ4の生成確率が上がると、概念の発生確率が上がり、概念の複雑な関係性が発生する確率も上がる。すなわち、ネットワーク1が知性を持つ確率が上がる。
 なお、公知の強化学習型人工ニューラルネットワークでは、強化学習型人工ニューラルネットワークに報酬と入力生成ルールを教えた後は、ネットワーク1の外側からの入力なしに動作する。したがって、表面上は強化学習型人工ニューラルネットワークも本開示のノードアッセンブリ4と同じく、ネットワーク1の外側からの入力なしに動作していると言えるが、強化学習型人工ニューラルネットワークでは教えられた報酬を最大化する動作しか行うことができない。また、強化学習型人工ニューラルネットワークは、入力生成ルールを外れた入力を新たに作り出すこともできない。すなわち、強化学習型人工ニューラルネットワークは、別の定義に基づいた報酬を自ら生成することができず、しかも、入力生成ルールを超えた新しい発想、すなわち、想定された解空間以外での解の発見も行うことができない。したがって、本開示のノードアッセンブリ4は、新たな報酬の定義付け、及び既存の解空間に囚われない解の発見をなし得る点が公知の強化学習型人工ニューラルネットワークとは異なる。
 続いて、本開示の情報処理装置5におけるハードウェア構成例について説明する。図4は、情報処理装置5のハードウェア構成例を示すブロック図である。図4に示すように、情報処理装置5はコンピュータ10を用いて構成され、プロセッサの一例であるCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発性メモリ14、及び入出力インターフェース(I/O)15を備える。CPU11、ROM12、RAM13、不揮発性メモリ14、及びI/O15はバス16を介して各々接続されている。
 不揮発性メモリ14は、不揮発性メモリ14に供給される電力が遮断されても記憶した情報が維持される記憶装置の一例であり、例えば半導体メモリが用いられるがハードディスクを用いてもよい。不揮発性メモリ14には、例えばネットワーク1が記憶される。
 I/O15には、例えば通信ユニット17、入力ユニット18、及び表示ユニット19が接続される。
 通信ユニット17は通信回線に接続され、外部装置(図示省略)とデータ通信を行う通信プロトコルを備える。データ通信には、例えばイーサネット(登録商標)若しくはFDDI等の有線通信の規格、又は、4G、5G、若しくはWi-Fi(登録商標)等の無線通信の規格が用いられる。
 入力ユニット18は、ユーザの操作を受け付けてCPU11に通知するユニットの一例であり、例えばボタン、タッチパネル、キーボード、マウス、及びポインティングデバイス等が含まれる。
 表示ユニット19は、CPU11によって処理された情報を視覚的に表示するユニットの一例であり、例えば液晶ディスプレイ及び有機EL(Electro Luminescence)ディスプレイ等が含まれる。
 なお、通信ユニット17、入力ユニット18、及び表示ユニット19は必ずしもI/O15に接続される必要はなく、必要に応じてI/O15に接続される。
 次に、情報処理装置5によって生成されるノードアッセンブリ4の作用について説明する。
 図5は、ノードアッセンブリ4の生成処理の流れの一例を示すフローチャートである。
 ノードアッセンブリ4の生成処理を規定するノードアッセンブリ生成プログラムは、例えば情報処理装置5のROM12に予め記憶されている。情報処理装置5のCPU11は、ROM12に記憶されるノードアッセンブリ生成プログラムを読み込んで、ノードアッセンブリ4の生成処理を実行する。なお、不揮発性メモリ14には、図1に示したようなノードアッセンブリ4が生成される前のネットワーク1が記憶されているものとする。また、説明の便宜上、ネットワーク1の外側からの入力を「外部入力」と表す。
 ネットワーク1のエッジ3に外部入力部5Dからビット情報が入力されると、エッジ3にビット情報が流れ、それに伴いノード2が発火する。
 したがって、ステップS10において、CPU11は、両端ノード2の発火の順序及び両端ノード2の発火時刻の差の大きさに応じて、各々のエッジ3の情報伝達効率wを更新する。
 このように、エッジ3により接続された両端ノード2が発火すると、エッジ3の情報伝達効率wが変化する。情報伝達効率wの変化には、情報伝達効率wが増加する変化と情報伝達効率wが減少する変化がある。情報伝達効率wが増加したエッジ3の本数が増えると、同期して発火するノード2が生じやすくなる。ここで、「ノード2が同期して発火する」とは、特定の時刻から閾値時間以内に複数のノード2が発火することを意味する。既に説明したように、同期して発火するノード2がノードアッセンブリ4を構成する。
 したがって、ステップS20において、CPU11は、ネットワーク1にノードアッセンブリ4が生成されたか否かを判定する。ノードアッセンブリ4が生成されていない場合には、ネットワーク1内及びネットワーク1の外側からネットワーク1にビット情報を繰り返し入力しながらステップS20の判定処理を繰り返し実行して、ノードアッセンブリ4の生成状況を監視する。一方、ノードアッセンブリ4が生成された場合にはステップS30に移行する。
 ステップS30において、CPU11は、例えば入力ユニット18経由でユーザから終了指示を受け付けたか否かを判定する。終了指示を受け付けた場合には図5に示すノードアッセンブリ4の生成処理を終了する。この場合、図2に示したような入力に関する概念を表すノードアッセンブリ4が得られる。
 一方、ステップS30の判定処理によってユーザから終了指示を受け付けていないと判定された場合には、ステップS40に移行する。
 ノードアッセンブリ4に含まれるノード2に接続されたエッジ3に、ネットワーク1内及びネットワーク1の外側からビット情報が更に入力され、ネットワーク1の学習が進むと、再帰回路を構成するノードアッセンブリ4が生成される場合がある。
 図6は、再帰回路を構成するノードアッセンブリ4の一例を示す図である。各々のノードアッセンブリ4の間はエッジ3により接続される。2つのノードアッセンブリ4を接続するエッジ3は必ずしも1本である必要はなく複数本であってもよい。エッジ3によって接続される一方のノードアッセンブリ4の起点ノード2と、他方のノードアッセンブリ4の終点ノード2に制約はなく、各々のノードアッセンブリ4内における任意のノード2が接続される。
 このように、複数のノードアッセンブリ4と、ノードアッセンブリ4に含まれる何れかのノード2を接続することによってノードアッセンブリ4同士を接続する少なくとも1本以上のエッジ3とを含み、複数のノードアッセンブリ4がエッジ3によって環状に接続された少なくとも1つの再帰回路を構成するネットワーク1を「概念シーケンサ6」という。
 なお、概念シーケンサ6には再帰回路を構成しないノードアッセンブリ4が含まれていてもよい。
 図7は、再帰回路を構成しないノードアッセンブリ4が含まれた概念シーケンサ6の一例を示す図である。図7において、ノードアッセンブリ4Aが再帰回路を構成しないノードアッセンブリ4である。
 図5のステップS40において、CPU11は、こうした概念シーケンサ6が生成されたか否かを判定する。概念シーケンサ6が生成されていない場合には、ネットワーク1内及びネットワーク1の外側からネットワーク1にビット情報を繰り返し入力しながらステップS40の判定処理を繰り返し実行して、概念シーケンサ6の生成状況を監視する。一方、概念シーケンサ6が生成された場合にはステップS50に移行する。
 ステップS50において、CPU11は、例えば入力ユニット18経由でユーザから終了指示を受け付けたか否かを判定する。終了指示を受け付けた場合には図5に示すノードアッセンブリ4の生成処理を終了する。この場合、ノードアッセンブリ4によって表される概念を変化させ新たな概念を生み出す概念シーケンサ6が得られる。
 一方、ステップS50の判定処理によってユーザから終了指示を受け付けていないと判定された場合には、ステップS60に移行する。
 当然のことながら、必ずしもネットワーク1内のすべてのノード2が何れかのノードアッセンブリ4に含まれるわけではないため、概念シーケンサ6の周辺にはノードアッセンブリ4を構成していないノード2が存在する。したがって、更にネットワーク1内及びネットワーク1の外側からネットワーク1にビット情報が繰り返し入力され、これまでノードアッセンブリ4に含まれていなかったノード2がノードアッセンブリ4を構成していくと、新たな再帰回路を生成する場合がある。
 図8は、複数の再帰回路を備えた概念シーケンサ6の一例を示す図である。図8に示す概念シーケンサ6の例では、再帰回路Aと再帰回路Bの2つの再帰回路が含まれている。
 図5のステップS60において、CPU11は、複数の再帰回路を含む概念シーケンサ6が生成されたか否かを判定する。複数の再帰回路を含む概念シーケンサ6が生成されていない場合には、ネットワーク1内及びネットワーク1の外側からネットワーク1にビット情報を繰り返し入力しながらステップS60の判定処理を繰り返し実行して、複数の再帰回路を含む概念シーケンサ6の生成状況を監視する。一方、複数の再帰回路を含む概念シーケンサ6が生成された場合には、図5に示すノードアッセンブリ4の生成処理を終了する。この場合、図6及び図7に示した1つの再帰回路を含む概念シーケンサ6とは異なる概念を新たに生み出す概念シーケンサ6が得られる。
 こうしたノードアッセンブリ4の生成処理によれば、ネットワーク1内に複数の概念シーケンサ6が生成されることもある。生成された複数の概念シーケンサ6は、互いにエッジ3で接続されており、互いにビット情報を入力しあう。また、概念シーケンサ6には外部入力も不定期又は定期的に入力される。したがって、これらの入力により概念シーケンサ6に含まれるエッジ3の情報伝達効率wは複雑に変化する。その結果、ノードアッセンブリ4が拡張したり、縮小したり、複数個に分裂したりして、新たな概念シーケンサ6の経路が生成される。概念シーケンサ6では概念の拡張や縮小が行われることによって概念シーケンサ6が自律成長し、新たな概念が生み出される。すなわち、概念シーケンサ6は高度な知性の源泉となり得る。
 このようにして生成された概念シーケンサ6が、外部入力なしに記憶を想起できること、すなわち、記憶を思い出せることについて説明する。
 図9は、少なくとも1つの概念シーケンサ6と、当該概念シーケンサ6を構成する何れか1つのノードアッセンブリ4(「ノードアッセンブリ4B」と表す)から入力を受け付けるノードアッセンブリ4Cと、ノードアッセンブリ4Cに外部入力を入力するエッジ3とを含むネットワーク1の一例を示す図である。
 ネットワーク1において、外部入力とノードアッセンブリ4Bからの入力がノードアッセンブリ4Cに入力され、ノードアッセンブリ4Cが活性化したとする。この場合、ノードアッセンブリ4Cは、外部入力の記憶を記銘したことになる。この後、ネットワーク1が動作してエッジ3の情報伝達効率wが変化してゆく。やがてノードアッセンブリ4C内のエッジ3の情報伝達効率wが強化され、外部入力なしにノードアッセンブリ4Bからの入力だけでノードアッセンブリ4Cが活性化するようになる。このようにして、ノードアッセンブリ4Cにおいて外部入力なしの記憶の想起が実現する。
 図10は、図9に示したネットワーク1に対して、外部入力なしに記憶を想起する概念シーケンサ6の一例を示す図である。図10に示す概念シーケンサ6は、ノードアッセンブリ4Bからの入力だけで記憶を想起するノードアッセンブリ4Cを備える。
 次に、ノードアッセンブリ4の生成に影響を与える閾値時間の変化により、ノードアッセンブリ4が記憶する概念が変化することについて説明する。
 例えば閾値時間を10msに設定した場合に生成されるノードアッセンブリ4(「前者のノードアッセンブリ4」という)と、閾値時間を15msに設定した場合に生成されるノードアッセンブリ4(「後者のノードアッセンブリ4」という)とでは、ノードアッセンブリ4を構成するノード数は後者のノードアッセンブリ4の方が多くなる。前者のノードアッセンブリ4と後者のノードアッセンブリ4とで各々のノードアッセンブリ4を構成するノード数が確率的に同じになる可能性もあるが、ここでは後者のノードアッセンブリ4を構成するノード数の方が、前者のノードアッセンブリ4を構成するノード数よりも多いとする。したがって、例えば前者のノードアッセンブリ4は「海の魚」という概念を表し、後者のノードアッセンブリ4は「海の魚」よりも広い概念である「海の生き物」という概念を表すものとする。
 ネットワーク1が動作する場合、ノードアッセンブリ4の生成に影響を与える閾値時間を固定しておく必要はない。ある場面では「海の魚」という概念が有益な出力を生み出し、他の場面では「海の生き物」という概念が有益な出力を生み出すという状況が存在する。概念シーケンサ6において、片方の概念だけしか利用できないという制約はなく、両方の概念を利用することができる。この場合、ネットワーク1自体は閾値時間の切り替えを意識しておらず、CPU11は閾値時間を仮想的に複数用いることにより、概念シーケンサ6が同時に複数概念を想起している状態を作り出す。
 次に、ネットワーク1に報酬を与えることで、ノードアッセンブリ4及び概念シーケンサ6の成長を促す成長処理について説明する。
 図11は、成長処理の流れの一例を示すフローチャートである。
 成長処理を規定するノードアッセンブリ生成プログラムは、例えば情報処理装置5のROM12に予め記憶されている。情報処理装置5のCPU11は、ROM12に記憶されるノードアッセンブリ生成プログラムを読み込んで、成長処理を実行する。
 なお、不揮発性メモリ14には、ネットワーク1が記憶されているものとする。ネットワーク1は、ノードアッセンブリ4及び概念シーケンサ6の少なくとも一方を含んでいてもよい。また、ネットワーク1に外部入力が入力されてもよい。具体的には、ネットワーク1にノードアッセンブリ4が含まれる場合、ノードアッセンブリ4に含まれるノード2に接続されたエッジ3に外部入力が入力されてもよい。
 まず、ステップS100において、CPU11は、ネットワーク1に含まれる予め定めた複数のノード2(「ノード群」ともいう)における発火状態を表す発火ビットを並べたビット列である出力ビット列を生成する。
 ステップS110において、CPU11は、予め設定した期待する出力ビット列の内容と、ステップS100で生成した出力ビット列の内容との合致度合いを報酬として評価する。この場合、CPU11は、例えば出力ビット列の内容と期待する出力ビット列の内容との合致度合いが高くなるほど報酬の値を大きくする。期待する出力ビット列の内容としては、例えば出力ビット列によって表される物理量の最大化及び最小化、並びに、出力ビット列によって表される情報量の最大化及び最小化等がある。
 ステップS120において、CPU11は、ネットワーク1の中から情報伝達効率wを変化させるエッジ3を選択する。既に説明したように、エッジ3の選択方法には2通り存在する。
 1つ目は、ネットワーク1に含まれるすべてのエッジ3を選択する選択方法である。2つ目は、ステップS110の処理によって評価した報酬の評価時刻から予め定めた時刻だけ離れた判定時刻において発火状態にあるノード2から、予め定めた確率に従って選択された各々のノード2にビット情報を入力するすべてのエッジ3を選択する選択方法である。CPU11は、ユーザによって選択された選択方法によって、ネットワーク1の中から情報伝達効率wを変化させるエッジ3を選択する。
 2つ目の選択方法について詳細に説明する。ステップS110の処理によって、CPU11がネットワーク時刻tに報酬を評価したとする。なお、CPU11における時間の最小計測能力を表す粒度Δtは予め定められているものとする。時間の粒度Δtに制約はないが、例えば1msとする。また、変数nを自然数とし、関数f(x)を、自然数xを説明変数として0以上100以下の値をとる任意の単調減少実数関数とする。CPU11は、ネットワーク時刻t-nΔtに発火したノード2のうち、f(n)パーセントのノード2を無作為に選択する。そのうえで、CPU11は、選択した各々のノード2にビット情報を入力するすべてのエッジ3を選択する。ネットワーク時刻t-nΔtは判定時刻の一例であり、例えばネットワーク時刻t+nΔtに発火したノード2からf(n)パーセントのノード2を無作為に選択してもよい。
 ステップS130において、CPU11は、ステップS110の処理によって評価した報酬の評価結果に応じて、ステップS120の処理によってネットワーク1の中から選択したエッジ3の情報伝達効率wを更新する。具体的には、CPU11は、報酬の値が大きいほど、選択したエッジ3の情報伝達効率wを増加させ、報酬の値が小さいほど、選択したエッジ3の情報伝達効率wを減少させる。
 以上により、図11に示す成長処理を終了する。成長処理により、報酬を大きくするようにノードアッセンブリ4及び概念シーケンサ6が成長することになる。
 このように、本開示のノードアッセンブリ4及び概念シーケンサ6によれば、入力に対する概念を記憶し、記憶する概念を変化させて新たな概念を生み出す。また、本開示のノードアッセンブリ4及び概念シーケンサ6によれば、外部入力がなくても記憶する概念を変化させて新たな概念を生み出す。
 以上、ノードアッセンブリ4及び概念シーケンサ6の一形態について説明したが、開示したノードアッセンブリ4及び概念シーケンサ6の生成方法は一例であり、実施形態に記載の範囲に限定されない。本開示の要旨を逸脱しない範囲で実施形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も開示の技術的範囲に含まれる。例えば、本開示の要旨を逸脱しない範囲で、図5及び図11に示した各処理における内部の処理順序を変更してもよい。
 また、本開示では、一例として図5及び図11に示した各処理をソフトウェアで実現する形態について説明した。しかしながら、図5及び図11に示した各処理のフローチャートと同等の処理を、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はPLD(Programmable Logic Device)に実装し、ハードウェアで処理させるようにしてもよい。この場合、各処理をソフトウェアで実現する場合と比較して処理の高速化が図られる。
 このように、情報処理装置5のCPU11を例えばASIC、FPGA、PLD、GPU(Graphics Processing Unit)、及びFPU(Floating Point Unit)といった特定の処理に特化した専用のプロセッサに置き換えてもよい。
 ノードアッセンブリ4の生成処理、及び成長処理は1つのCPU11によって実現される形態の他、複数のCPU11、又はCPU11とFPGAとの組み合わせというように、同種又は異種の2つ以上のプロセッサの組み合わせで実行してもよい。
 更に、ノードアッセンブリ4の生成処理、及び成長処理は、例えばインターネットで接続された物理的に離れた場所に存在するプロセッサの協働によって実現されるものであってもよい。
 また、実施形態では、情報処理装置5のROM12にノードアッセンブリ生成プログラムが記憶されている例について説明したが、ノードアッセンブリ生成プログラムの記憶先はROM12に限定されない。本開示のノードアッセンブリ生成プログラムは、コンピュータ10で読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えばノードアッセンブリ生成プログラムをCD-ROM(Compact Disk Read Only Memory)及びDVD-ROM(Digital Versatile Disk Read Only Memory)のような光ディスクに記録した形態で提供してもよい。また、ノードアッセンブリ生成プログラムを、USB(Universal Serial Bus)メモリ及びメモリカードのような可搬型の半導体メモリに記録した形態で提供してもよい。
 ROM12、不揮発性メモリ14、CD-ROM、DVD-ROM、USB、及びメモリカードは非一時的(non-transitory)記憶媒体の一例である。
 更に、情報処理装置5は、通信ユニット17を通じて外部装置からノードアッセンブリ生成プログラムをダウンロードし、ダウンロードしたノードアッセンブリ生成プログラムを、例えば不揮発性メモリ14に記憶してもよい。この場合、情報処理装置5は、外部装置からダウンロードしたノードアッセンブリ生成プログラムを読み込んで、ノードアッセンブリ4の生成処理、及び成長処理を実行する。

Claims (8)

  1.  ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、
     各々の前記ノードにおける内部状態が、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表され、
     各々の前記ノードにおける外部状態が前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定され、
     各々の前記エッジにおけるビット情報の伝達効率を表す情報伝達効率が、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化することで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含む
     ノードアッセンブリ。
  2.  請求項1に記載の複数の前記ノードアッセンブリと、各々の前記ノードアッセンブリに含まれる何れかの前記ノードを接続することによって前記ノードアッセンブリ同士を接続する少なくとも1本以上の前記エッジとを含み、
     複数の前記ノードアッセンブリが前記エッジによって環状に接続された少なくとも1つの再帰回路を構成する
     概念シーケンサ。
  3.  前記ノードアッセンブリに含まれる前記ノードに接続された前記エッジに、前記ネットワークの外側からビット情報が入力される
     請求項2に記載の概念シーケンサ。
  4.  前記ネットワークに含まれる予め定めた複数の前記ノードにおける発火状態を表す出力を並べて生成したビット列の内容と期待する内容との合致度合いを報酬として評価し、
     前記報酬の評価結果に応じて、前記ネットワークの中から予め選択した前記エッジの情報伝達効率を更新する
     請求項2に記載の概念シーケンサ。
  5.  前記ノードアッセンブリに含まれる前記ノードに接続された前記エッジに、前記ネットワークの外側からビット情報が入力される
     請求項4に記載の概念シーケンサ。
  6.  情報伝達効率の変化対象となる前記エッジが、前記ネットワークに含まれるすべての前記エッジ、又は前記報酬を評価した評価時刻から予め定めた時刻だけ離れた判定時刻において発火状態にある前記ノードから、予め定めた確率に従って選択された各々の前記ノードにビット情報を入力するすべての前記エッジの何れかである
     請求項4又は請求項5に記載の概念シーケンサ。
  7.  ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、
     各々の前記ノードにおける内部状態を、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表し、
     各々の前記ノードにおける外部状態を前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定し、
     各々の前記エッジにおけるビット情報の伝達効率を表す情報伝達効率を、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化させることで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含むノードアッセンブリを生成する処理をコンピュータに実行させる
     ノードアッセンブリ生成プログラム。
  8.  ビット情報を伝達する少なくとも1本以上のエッジによって接続された少なくとも1つ以上のノードを含むネットワークにおいて、
     各々の前記ノードにおける内部状態を、前記ノードの内部状態を数値として表す値であって前記ノードの発火状態に影響を与えるポテンシャル及び時刻によって表される予め定めた関数と、接続されたすべての前記エッジから各々の前記ノードに入力される入力値の総和との和によって表し、
     各々の前記ノードにおけるビット情報の伝達効率を表す外部状態を前記ポテンシャルと予め定めた発火閾値との比較によって発火状態又は非発火状態に決定し、
     各々の前記エッジにおける情報伝達効率を、前記エッジの両端と接続する各々の前記ノードにおける発火時刻の差に応じて変化させることで、特定の時刻から予め定めた閾値時間以内に発火した各々の前記ノードのうち、自分以外の他の前記ノードと1本のエッジで接続されているすべてのノードを含むノードアッセンブリを生成する処理をコンピュータが実行する
     ノードアッセンブリ生成方法。
PCT/JP2022/035784 2022-09-26 2022-09-26 ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法 WO2024069720A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/035784 WO2024069720A1 (ja) 2022-09-26 2022-09-26 ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法
JP2024548846A JPWO2024069720A1 (ja) 2022-09-26 2022-09-26

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/035784 WO2024069720A1 (ja) 2022-09-26 2022-09-26 ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法

Publications (1)

Publication Number Publication Date
WO2024069720A1 true WO2024069720A1 (ja) 2024-04-04

Family

ID=90476612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035784 WO2024069720A1 (ja) 2022-09-26 2022-09-26 ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法

Country Status (2)

Country Link
JP (1) JPWO2024069720A1 (ja)
WO (1) WO2024069720A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018136919A (ja) * 2016-12-20 2018-08-30 インテル・コーポレーション スパイクタイミング依存可塑性のニューロモーフィック的具体化を用いたネットワークトラバーサル
JP2021047530A (ja) * 2019-09-17 2021-03-25 株式会社東芝 処理装置および推論システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018136919A (ja) * 2016-12-20 2018-08-30 インテル・コーポレーション スパイクタイミング依存可塑性のニューロモーフィック的具体化を用いたネットワークトラバーサル
JP2021047530A (ja) * 2019-09-17 2021-03-25 株式会社東芝 処理装置および推論システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOKO UWATE, YOSHIFUMI NISHIO: "Back Propagation Learning in Feedfoward Neural Network with Cell Assembly", IEICE TECHNICAL RESEARCH REPORT, NLP, IEICE, JP, vol. 104, no. 472 (NLP2004-86), 20 November 2004 (2004-11-20), JP, pages 61 - 64, XP009553845 *

Also Published As

Publication number Publication date
JPWO2024069720A1 (ja) 2024-04-04

Similar Documents

Publication Publication Date Title
JP7510637B2 (ja) 汎用学習済モデルの生成方法
Yu et al. Collective learning for the emergence of social norms in networked multiagent systems
CN108830376B (zh) 针对时间敏感的环境的多价值网络深度强化学习方法
CN114257395A (zh) 基于协作学习的定制化网络安全态势感知方法及装置
JP6891961B2 (ja) ネットワーク制御システム、方法およびプログラム
JP7508842B2 (ja) 最適化装置、最適化方法及び最適化プログラム
CN111898770A (zh) 一种多智能体强化学习方法、电子设备及存储介质
Machado et al. Learning purposeful behaviour in the absence of rewards
CN114724622A (zh) 基于医药知识图谱的药物相互反应预测方法及装置
JP2019219741A (ja) 学習制御方法及び計算機システム
Xue et al. Automatic topology optimization of echo state network based on particle swarm optimization
CN117742387A (zh) 一种基于td3强化学习算法的液压挖掘机用轨迹规划方法
WO2024069720A1 (ja) ノードアッセンブリ、概念シーケンサ、ノードアッセンブリ生成プログラム、及びノードアッセンブリ生成方法
CN112884148A (zh) 嵌入多步规则的混合强化学习训练方法、设备及存储介质
Goller et al. Towards a continuous assessment of stability in (self-) adaptation behaviour
CN102521203A (zh) 基于因果图的分层强化学习任务图进化方法
Hoffmann et al. All-to-all communication with cellular automata agents in 2 d grids: topologies, streets and performances
JP2020009122A (ja) 制御プログラム、制御方法及びシステム
JP2007520774A (ja) 決定モデルの設計および使用のためのシステム
Dash et al. Randomized grid-based approach for complete area coverage in WSN
Acampora A TSK neuro-fuzzy approach for modeling highly dynamic systems
WO2021251206A1 (ja) 学習装置、推論装置、およびプログラマブルロジックデバイスの開発用ツールチェーン
JP2006172141A (ja) 情報処理システムおよび情報処理方法、並びにプログラム
Mejtsky A metaheuristic algorithm for simultaneous simulation optimization and applications to traveling salesman and job shop scheduling with due dates
Kovačević et al. Artificial intelligence in computer games

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22960784

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024548846

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE