[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2024150861A1 - 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 - Google Patents

무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 Download PDF

Info

Publication number
WO2024150861A1
WO2024150861A1 PCT/KR2023/000658 KR2023000658W WO2024150861A1 WO 2024150861 A1 WO2024150861 A1 WO 2024150861A1 KR 2023000658 W KR2023000658 W KR 2023000658W WO 2024150861 A1 WO2024150861 A1 WO 2024150861A1
Authority
WO
WIPO (PCT)
Prior art keywords
meta
information
task
learning
correlation
Prior art date
Application number
PCT/KR2023/000658
Other languages
English (en)
French (fr)
Inventor
이경호
김봉회
이상림
김영준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2023/000658 priority Critical patent/WO2024150861A1/ko
Publication of WO2024150861A1 publication Critical patent/WO2024150861A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data

Definitions

  • the following description relates to a wireless communication system and an apparatus and method for performing online learning of a transceiver model in a wireless communication system.
  • Wireless access systems are being widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA) systems. division multiple access) systems, etc.
  • enhanced mobile broadband (eMBB) communication technology is being proposed compared to the existing radio access technology (RAT).
  • RAT radio access technology
  • a communication system that takes into account reliability and latency-sensitive services/UE (user equipment) as well as mMTC (massive machine type communications), which connects multiple devices and objects to provide a variety of services anytime and anywhere, is being proposed. .
  • mMTC massive machine type communications
  • the present disclosure can provide an apparatus and method for effectively performing online learning of a transceiver model in a wireless communication system.
  • the present disclosure can provide an apparatus and method for performing meta learning on a transceiver model in a wireless communication system.
  • the present disclosure can provide an apparatus and method for applying the concept of quasi co-location (QCL) in meta-learning for a transceiver model in a wireless communication system.
  • QCL quasi co-location
  • the present disclosure can provide an apparatus and method for performing meta-correlation-based meta learning for a transceiver model in a wireless communication system.
  • the present disclosure may provide an apparatus and method for determining meta model parameters based on meta correlation in a wireless communication system.
  • the present disclosure may provide an apparatus and method for determining meta correlation information based on contributions of a plurality of tasks in a wireless communication system.
  • the present disclosure can provide an apparatus and method for sharing capability information for meta-correlation-based meta-learning for a transceiver model in a wireless communication system.
  • the present disclosure can provide an apparatus and method for providing setting information for meta-correlation-based meta-learning for a transceiver model in a wireless communication system.
  • the present disclosure can provide an apparatus and method for sharing information about the results of meta-correlation-based meta-learning for a transceiver model in a wireless communication system.
  • the present disclosure may provide an apparatus and method for reporting meta-correlation information based on contributions of a plurality of tasks in a wireless communication system.
  • a method of operating a user equipment (UE) in a wireless communication system includes transmitting capability information to a base station, receiving configuration information related to signals from the base station, and the configuration. Receiving the signals based on information, and performing meta learning based on meta correlation information representing the contribution of task model parameters of a plurality of tasks to a target task, which is determined using the signals. It may include determining at least one parameter for a reception operation and transmitting feedback information to the base station.
  • a method of operating a base station in a wireless communication system includes receiving capability information from a user equipment (UE), transmitting configuration information related to signals to the UE, and setting the configuration. It may include transmitting the signals based on information and receiving feedback information from the UE.
  • the feedback information is a reception operation determined by performing meta learning based on meta correlation information that represents the contribution of task model parameters of a plurality of tasks to the target task, which is determined using the signals. It may be related to at least one parameter for.
  • a user equipment (UE) in a wireless communication system includes a transceiver and a processor connected to the transceiver, wherein the processor transmits capability information to a base station and responds to signals.
  • the processor transmits capability information to a base station and responds to signals.
  • Receiving related configuration information from the base station receiving the signals based on the configuration information, and meta-correlation ( By performing meta learning based on (meta correlation) information, at least one parameter for a reception operation can be determined, and feedback information can be transmitted to the base station.
  • a base station in a wireless communication system includes a transceiver and a processor connected to the transceiver, wherein the processor receives capability information from a user equipment (UE) and transmits information to the UE. Transmit configuration information related to signals, transmit the signals based on the configuration information, and control to receive feedback information from the UE, wherein the feedback information is determined using the signals. It may be related to at least one parameter for a reception operation determined by performing meta learning based on meta correlation information expressing the contribution of task model parameters to the target task.
  • UE user equipment
  • a communication device includes at least one processor, at least one computer memory connected to the at least one processor, and storing instructions related to operations as executed by the at least one processor.
  • the operations include transmitting capability information to a base station, receiving configuration information related to signals from the base station, receiving the signals based on the configuration information, and using the signals. Determining at least one parameter for a reception operation by performing meta learning based on meta correlation information representing the contribution of task model parameters of a plurality of tasks to the target task, which is determined, and It may include transmitting feedback information to the base station.
  • a non-transitory computer-readable medium storing at least one instruction includes the at least one executable by a processor. It includes a command, wherein the at least one command causes the device to transmit capability information to a base station, receive configuration information related to signals from the base station, and receive the signals based on the configuration information.
  • At least one parameter for a reception operation is determined by performing meta learning based on meta correlation information representing the contribution of task model parameters of a plurality of tasks to the target task, which is determined using the signals. decision and control to transmit feedback information to the base station.
  • online learning, especially meta learning, for a transceiver model can be effectively performed.
  • FIG. 1 shows an example of a communication system applicable to the present disclosure.
  • Figure 2 shows an example of a wireless device applicable to the present disclosure.
  • Figure 3 shows another example of a wireless device applicable to the present disclosure.
  • Figure 4 shows an example of a portable device applicable to the present disclosure.
  • FIG 5 shows an example of a vehicle or autonomous vehicle applicable to the present disclosure.
  • Figure 6 shows an example of AI (Artificial Intelligence) applicable to the present disclosure.
  • Figure 7 shows a method of processing a transmission signal applicable to the present disclosure.
  • Figure 8 shows an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
  • Figure 10 shows a THz communication method applicable to the present disclosure.
  • Figure 11 shows the structure of a perceptron included in an artificial neural network applicable to the present disclosure.
  • Figure 12 shows an artificial neural network structure applicable to the present disclosure.
  • 13 shows a deep neural network applicable to this disclosure.
  • 15 shows a filter operation of a convolutional neural network applicable to this disclosure.
  • Figure 16 shows a neural network structure with a cyclic loop applicable to the present disclosure.
  • Figure 17 shows the operational structure of a recurrent neural network applicable to the present disclosure.
  • Figure 18 illustrates the concept of meta learning applicable to this disclosure.
  • 19A and 19B show examples of data sets for meta-learning applicable to this disclosure.
  • Figure 20 shows functional structures of devices supporting meta-learning according to an embodiment of the present disclosure.
  • 21 illustrates a procedure for determining parameters related to a transmitter according to one embodiment of the present invention.
  • Figure 22 illustrates a procedure for determining parameters related to a receiver according to an embodiment of the present invention.
  • Figure 23 shows a procedure for determining meta model parameters according to an embodiment of the present invention.
  • Figure 24 shows an example of a procedure for providing capability information for meta-learning based on meta-correlation for a receiver according to an embodiment of the present invention.
  • Figure 25 shows an example of a procedure for setting information for meta-learning according to an embodiment of the present invention.
  • Figure 26 shows another example of a procedure for meta-learning and performing a task according to an embodiment of the present invention.
  • Figure 27 shows an example of a procedure for performing online meta-learning according to an embodiment of the present invention.
  • Figure 28 shows an example of a procedure for reporting meta correlation information according to an embodiment of the present invention.
  • Figure 29 shows a usage example of performing tasks using meta correlation according to an embodiment of the present invention.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, some components and/or features may be combined to form an embodiment of the present disclosure. The order of operations described in embodiments of the present disclosure may be changed. Some features or features of one embodiment may be included in other embodiments or may be replaced with corresponding features or features of other embodiments.
  • the base station is meant as a terminal node of the network that directly communicates with the mobile station. Certain operations described in this document as being performed by the base station may, in some cases, be performed by an upper node of the base station.
  • 'base station' refers to terms such as fixed station, Node B, eNB (eNode B), gNB (gNode B), ng-eNB, advanced base station (ABS), or access point. It can be replaced by .
  • the terminal is a user equipment (UE), a mobile station (MS), a subscriber station (SS), and a mobile subscriber station (MSS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node that provides a data service or a voice service
  • the receiving end refers to a fixed and/or mobile node that receives a data service or a voice service. Therefore, in the case of uplink, the mobile station can be the transmitting end and the base station can be the receiving end. Likewise, in the case of downlink, the mobile station can be the receiving end and the base station can be the transmitting end.
  • Embodiments of the present disclosure include wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system.
  • wireless access systems such as the IEEE 802.xx system, 3GPP (3rd Generation Partnership Project) system, 3GPP LTE (Long Term Evolution) system, 3GPP 5G (5th generation) NR (New Radio) system, and 3GPP2 system.
  • TS 3GPP technical specification
  • 3GPP TS 38.212 3GPP TS 38.213, 3GPP TS 38.321
  • 3GPP TS 38.331 documents It can be.
  • embodiments of the present disclosure can be applied to other wireless access systems and are not limited to the above-described system. As an example, it may be applicable to systems applied after the 3GPP 5G NR system and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 and later.
  • LTE technology after 3GPP TS 36.xxx Release 10 may be referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15, and “xxx” may mean technology after TS Release 17 and/or Release 18.
  • LTE/NR/6G can be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • the communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • a wireless device refers to a device that performs communication using wireless access technology (e.g., 5G NR, LTE) and may be referred to as a communication/wireless/5G device.
  • wireless devices include robots (100a), vehicles (100b-1, 100b-2), extended reality (XR) devices (100c), hand-held devices (100d), and home appliances (100d).
  • appliance) (100e), IoT (Internet of Thing) device (100f), and AI (artificial intelligence) device/server (100g).
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, including a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It can be implemented in the form of smartphones, computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • the mobile device 100d may include a smartphone, smart pad, wearable device (eg, smart watch, smart glasses), computer (eg, laptop, etc.), etc.
  • Home appliances 100e may include a TV, refrigerator, washing machine, etc.
  • IoT device 100f may include sensors, smart meters, etc.
  • the base station 120 and the network 130 may also be implemented as wireless devices, and a specific wireless device 120a may operate as a base station/network node for other wireless devices.
  • Wireless devices 100a to 100f may be connected to the network 130 through the base station 120.
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, 4G (eg, LTE) network, or 5G (eg, NR) network.
  • Wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly (e.g., sidelink communication) without going through the base station 120/network 130. You may.
  • vehicles 100b-1 and 100b-2 may communicate directly (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may communicate directly with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • Wireless communication/connection may be established between wireless devices (100a to 100f)/base station (120) and base station (120)/base station (120).
  • wireless communication/connection includes various methods such as uplink/downlink communication (150a), sidelink communication (150b) (or D2D communication), and inter-base station communication (150c) (e.g., relay, integrated access backhaul (IAB)).
  • IAB integrated access backhaul
  • This can be achieved through wireless access technology (e.g. 5G NR).
  • wireless communication/connection 150a, 150b, 150c
  • a wireless device and a base station/wireless device, and a base station and a base station can transmit/receive wireless signals to each other.
  • wireless communication/connection 150a, 150b, and 150c may transmit/receive signals through various physical channels.
  • various configuration information setting processes for transmitting/receiving wireless signals various signal processing processes (e.g., channel encoding/decoding, modulation/demodulation, resource mapping/demapping, etc.) , at least some of the resource allocation process, etc. may be performed.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • the first wireless device 200a and the second wireless device 200b can transmit and receive wireless signals through various wireless access technologies (eg, LTE, NR).
  • ⁇ first wireless device 200a, second wireless device 200b ⁇ refers to ⁇ wireless device 100x, base station 120 ⁇ and/or ⁇ wireless device 100x, wireless device 100x) in FIG. ⁇ can be responded to.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • Processor 202a controls memory 204a and/or transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a wireless signal including the second information/signal through the transceiver 206a and then store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • Software code containing them can be stored.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206a may be coupled to processor 202a and may transmit and/or receive wireless signals via one or more antennas 208a.
  • Transceiver 206a may include a transmitter and/or receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • Processor 202b controls memory 204b and/or transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal and then transmit a wireless signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a wireless signal including the fourth information/signal through the transceiver 206b and then store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b or instructions for performing the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement wireless communication technology (eg, LTE, NR).
  • Transceiver 206b may be coupled to processor 202b and may transmit and/or receive wireless signals via one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a and 202b.
  • one or more processors 202a and 202b may operate on one or more layers (e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control) and functional layers such as SDAP (service data adaptation protocol) can be implemented.
  • layers e.g., physical (PHY), media access control (MAC), radio link control (RLC), packet data convergence protocol (PDCP), and radio resource (RRC). control
  • SDAP service data adaptation protocol
  • One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed in this document. can be created.
  • One or more processors 202a and 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document.
  • One or more processors 202a, 202b generate signals (e.g., baseband signals) containing PDUs, SDUs, messages, control information, data, or information according to the functions, procedures, proposals, and/or methods disclosed herein.
  • transceivers 206a, 206b can be provided to one or more transceivers (206a, 206b).
  • One or more processors 202a, 202b may receive signals (e.g., baseband signals) from one or more transceivers 206a, 206b, and the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein.
  • PDU, SDU, message, control information, data or information can be obtained.
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor, or microcomputer.
  • One or more processors 202a and 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, etc.
  • Firmware or software configured to perform the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be included in one or more processors 202a and 202b or stored in one or more memories 204a and 204b. It may be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a and 204b may be connected to one or more processors 202a and 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or commands.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drives, registers, cache memory, computer readable storage media, and/or It may be composed of a combination of these.
  • One or more memories 204a and 204b may be located internal to and/or external to one or more processors 202a and 202b. Additionally, one or more memories 204a and 204b may be connected to one or more processors 202a and 202b through various technologies, such as wired or wireless connections.
  • One or more transceivers may transmit user data, control information, wireless signals/channels, etc. mentioned in the methods and/or operation flowcharts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, wireless signals/channels, etc. referred to in the descriptions, functions, procedures, suggestions, methods and/or operational flow charts, etc. disclosed herein from one or more other devices.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and may transmit and receive wireless signals.
  • one or more processors 202a and 202b may control one or more transceivers 206a and 206b to transmit user data, control information, or wireless signals to one or more other devices. Additionally, one or more processors 202a and 202b may control one or more transceivers 206a and 206b to receive user data, control information, or wireless signals from one or more other devices. In addition, one or more transceivers (206a, 206b) may be connected to one or more antennas (208a, 208b), and one or more transceivers (206a, 206b) may be connected to the description and functions disclosed in this document through one or more antennas (208a, 208b).
  • one or more antennas may be multiple physical antennas or multiple logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) process the received user data, control information, wireless signals/channels, etc. using one or more processors (202a, 202b), and convert the received wireless signals/channels, etc. from the RF band signal. It can be converted to a baseband signal.
  • One or more transceivers (206a, 206b) may convert user data, control information, wireless signals/channels, etc. processed using one or more processors (202a, 202b) from a baseband signal to an RF band signal.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • the wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2 and includes various elements, components, units/units, and/or modules. ) can be composed of.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314.
  • communication circuitry 312 may include one or more processors 202a and 202b and/or one or more memories 204a and 204b of FIG. 2 .
  • transceiver(s) 314 may include one or more transceivers 206a, 206b and/or one or more antennas 208a, 208b of FIG. 2.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device.
  • the control unit 320 may control the electrical/mechanical operation of the wireless device based on the program/code/command/information stored in the memory unit 330.
  • the control unit 320 transmits the information stored in the memory unit 330 to the outside (e.g., another communication device) through the communication unit 310 through a wireless/wired interface, or to the outside (e.g., to another communication device) through the communication unit 310.
  • Information received through a wireless/wired interface from another communication device can be stored in the memory unit 330.
  • the additional element 340 may be configured in various ways depending on the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 includes robots (FIG. 1, 100a), vehicles (FIG. 1, 100b-1, 100b-2), XR devices (FIG. 1, 100c), and portable devices (FIG. 1, 100d).
  • FIG. 1, 100e home appliances
  • IoT devices Figure 1, 100f
  • digital broadcasting terminals hologram devices
  • public safety devices MTC devices
  • medical devices fintech devices (or financial devices)
  • security devices climate/ It can be implemented in the form of an environmental device, AI server/device (FIG. 1, 140), base station (FIG. 1, 120), network node, etc.
  • Wireless devices can be mobile or used in fixed locations depending on the usage/service.
  • various elements, components, units/parts, and/or modules within the wireless device 300 may be entirely interconnected through a wired interface, or at least some of them may be wirelessly connected through the communication unit 310.
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first unit (e.g., 130, 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/part, and/or module within the wireless device 300 may further include one or more elements.
  • the control unit 320 may be comprised of one or more processor sets.
  • control unit 320 may be comprised of a communication control processor, an application processor, an electronic control unit (ECU), a graphics processing processor, a memory control processor, etc.
  • memory unit 330 may be comprised of RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or a combination thereof. It can be configured.
  • FIG. 4 is a diagram illustrating an example of a portable device to which the present disclosure is applied.
  • FIG 4 illustrates a portable device to which the present disclosure is applied.
  • Portable devices may include smartphones, smart pads, wearable devices (e.g., smart watches, smart glasses), and portable computers (e.g., laptops, etc.).
  • a mobile device may be referred to as a mobile station (MS), user terminal (UT), mobile subscriber station (MSS), subscriber station (SS), advanced mobile station (AMS), or wireless terminal (WT).
  • MS mobile station
  • UT user terminal
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • the portable device 400 includes an antenna unit 408, a communication unit 410, a control unit 420, a memory unit 430, a power supply unit 440a, an interface unit 440b, and an input/output unit 440c. ) may include.
  • the antenna unit 408 may be configured as part of the communication unit 410.
  • Blocks 410 to 430/440a to 440c correspond to blocks 310 to 330/340 in FIG. 3, respectively.
  • the communication unit 410 may transmit and receive signals (eg, data, control signals, etc.) with other wireless devices and base stations.
  • the control unit 420 can control the components of the portable device 400 to perform various operations.
  • the control unit 420 may include an application processor (AP).
  • the memory unit 430 may store data/parameters/programs/codes/commands necessary for driving the portable device 400. Additionally, the memory unit 430 can store input/output data/information, etc.
  • the power supply unit 440a supplies power to the portable device 400 and may include a wired/wireless charging circuit, a battery, etc.
  • the interface unit 440b may support connection between the mobile device 400 and other external devices.
  • the interface unit 440b may include various ports (eg, audio input/output ports, video input/output ports) for connection to external devices.
  • the input/output unit 440c may input or output video information/signals, audio information/signals, data, and/or information input from the user.
  • the input/output unit 440c may include a camera, a microphone, a user input unit, a display unit 440d, a speaker, and/or a haptic module.
  • the input/output unit 440c acquires information/signals (e.g., touch, text, voice, image, video) input from the user, and the obtained information/signals are stored in the memory unit 430. It can be saved.
  • the communication unit 410 can convert the information/signal stored in the memory into a wireless signal and transmit the converted wireless signal directly to another wireless device or to a base station. Additionally, the communication unit 410 may receive a wireless signal from another wireless device or a base station and then restore the received wireless signal to the original information/signal.
  • the restored information/signal may be stored in the memory unit 430 and then output in various forms (eg, text, voice, image, video, haptic) through the input/output unit 440c.
  • FIG. 5 is a diagram illustrating an example of a vehicle or autonomous vehicle applied to the present disclosure.
  • a vehicle or autonomous vehicle can be implemented as a mobile robot, vehicle, train, aerial vehicle (AV), ship, etc., and is not limited to the form of a vehicle.
  • AV aerial vehicle
  • the vehicle or autonomous vehicle 500 includes an antenna unit 508, a communication unit 510, a control unit 520, a drive unit 540a, a power supply unit 540b, a sensor unit 540c, and an autonomous driving unit. It may include a portion 540d.
  • the antenna unit 550 may be configured as part of the communication unit 510. Blocks 510/530/540a to 540d correspond to blocks 410/430/440 in FIG. 4, respectively.
  • the communication unit 510 may transmit and receive signals (e.g., data, control signals, etc.) with external devices such as other vehicles, base stations (e.g., base stations, road side units, etc.), and servers.
  • the control unit 520 may control elements of the vehicle or autonomous vehicle 500 to perform various operations.
  • the control unit 520 may include an electronic control unit (ECU).
  • ECU electronice control unit
  • FIG. 6 is a diagram showing an example of an AI device applied to the present disclosure.
  • AI devices include fixed devices such as TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It can be implemented as a device or a movable device.
  • the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit (640a/640b), a learning processor unit 640c, and a sensor unit 640d. may include. Blocks 610 to 630/640a to 640d may correspond to blocks 310 to 330/340 of FIG. 3, respectively.
  • the communication unit 610 uses wired and wireless communication technology to communicate with wired and wireless signals (e.g., sensor information, user Input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from an external device to the memory unit 630.
  • wired and wireless signals e.g., sensor information, user Input, learning model, control signal, etc.
  • the control unit 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the control unit 620 can control the components of the AI device 600 to perform the determined operation. For example, the control unit 620 may request, search, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may select at least one operation that is predicted or determined to be desirable among the executable operations. Components of the AI device 600 can be controlled to execute operations.
  • control unit 620 collects history information including the operation content of the AI device 600 or user feedback on the operation, and stores it in the memory unit 630 or the learning processor unit 640c, or the AI server ( It can be transmitted to an external device such as Figure 1, 140). The collected historical information can be used to update the learning model.
  • the memory unit 630 can store data supporting various functions of the AI device 600.
  • the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data from the learning processor unit 640c, and data obtained from the sensing unit 640. Additionally, the memory unit 630 may store control information and/or software codes necessary for operation/execution of the control unit 620.
  • the input unit 640a can obtain various types of data from outside the AI device 600.
  • the input unit 620 may obtain training data for model training and input data to which the learning model will be applied.
  • the input unit 640a may include a camera, microphone, and/or a user input unit.
  • the output unit 640b may generate output related to vision, hearing, or tactile sensation.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
  • the learning processor unit 640c can train a model composed of an artificial neural network using training data.
  • the learning processor unit 640c may perform AI processing together with the learning processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630. Additionally, the output value of the learning processor unit 640c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
  • Figure 7 is a diagram illustrating a method of processing a transmission signal applied to the present disclosure.
  • the transmission signal may be processed by a signal processing circuit.
  • the signal processing circuit 700 may include a scrambler 710, a modulator 720, a layer mapper 730, a precoder 740, a resource mapper 750, and a signal generator 760.
  • the operation/function of FIG. 7 may be performed in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • the hardware elements of FIG. 7 may be implemented in the processors 202a and 202b and/or transceivers 206a and 206b of FIG. 2.
  • blocks 710 to 760 may be implemented in processors 202a and 202b of FIG. 2. Additionally, blocks 710 to 750 may be implemented in the processors 202a and 202b of FIG. 2, and block 760 may be implemented in the transceivers 206a and 206b of FIG. 2, and are not limited to the above-described embodiment.
  • the codeword can be converted into a wireless signal through the signal processing circuit 700 of FIG. 7.
  • a codeword is an encoded bit sequence of an information block.
  • the information block may include a transport block (eg, UL-SCH transport block, DL-SCH transport block).
  • Wireless signals may be transmitted through various physical channels (eg, PUSCH, PDSCH).
  • the codeword may be converted into a scrambled bit sequence by the scrambler 710.
  • the scramble sequence used for scrambling is generated based on an initialization value, and the initialization value may include ID information of the wireless device.
  • the scrambled bit sequence may be modulated into a modulation symbol sequence by the modulator 720. Modulation methods may include pi/2-BPSK (pi/2-binary phase shift keying), m-PSK (m-phase shift keying), m-QAM (m-quadrature amplitude modulation), etc.
  • the complex modulation symbol sequence may be mapped to one or more transport layers by the layer mapper 730.
  • the modulation symbols of each transport layer may be mapped to corresponding antenna port(s) by the precoder 740 (precoding).
  • the output z of the precoder 740 can be obtained by multiplying the output y of the layer mapper 730 with the N*M precoding matrix W.
  • N is the number of antenna ports and M is the number of transport layers.
  • the precoder 740 may perform precoding after performing transform precoding (eg, discrete Fourier transform (DFT) transform) on complex modulation symbols. Additionally, the precoder 740 may perform precoding without performing transform precoding.
  • transform precoding eg, discrete Fourier transform (DFT) transform
  • the resource mapper 750 can map the modulation symbols of each antenna port to time-frequency resources.
  • a time-frequency resource may include a plurality of symbols (eg, CP-OFDMA symbol, DFT-s-OFDMA symbol) in the time domain and a plurality of subcarriers in the frequency domain.
  • the signal generator 760 generates a wireless signal from the mapped modulation symbols, and the generated wireless signal can be transmitted to another device through each antenna.
  • the signal generator 760 may include an inverse fast fourier transform (IFFT) module, a cyclic prefix (CP) inserter, a digital-to-analog converter (DAC), a frequency uplink converter, etc. .
  • IFFT inverse fast fourier transform
  • CP cyclic prefix
  • DAC digital-to-analog converter
  • the signal processing process for the received signal in the wireless device may be configured as the reverse of the signal processing process (710 to 760) of FIG. 7.
  • a wireless device eg, 200a and 200b in FIG. 2
  • the received wireless signal can be converted into a baseband signal through a signal restorer.
  • the signal restorer may include a frequency downlink converter, an analog-to-digital converter (ADC), a CP remover, and a fast fourier transform (FFT) module.
  • ADC analog-to-digital converter
  • FFT fast fourier transform
  • the baseband signal can be restored to a codeword through a resource de-mapper process, postcoding process, demodulation process, and de-scramble process.
  • a signal processing circuit for a received signal may include a signal restorer, resource de-mapper, postcoder, demodulator, de-scrambler, and decoder.
  • 6G (wireless communications) systems require (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery-
  • the goals are to reduce the energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below.
  • Table 1 is a table showing the requirements of the 6G system.
  • the 6G system includes enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), massive machine type communications (mMTC), AI integrated communication, and tactile communication.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication and tactile communication.
  • tactile internet high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion, and improved data security. It can have key factors such as enhanced data security.
  • FIG. 10 is a diagram illustrating an example of a communication structure that can be provided in a 6G system applicable to the present disclosure.
  • the 6G system is expected to have simultaneous wireless communication connectivity 50 times higher than that of the 5G wireless communication system.
  • URLLC a key feature of 5G, is expected to become an even more mainstream technology in 6G communications by providing end-to-end delays of less than 1ms.
  • the 6G system will have much better volume spectrum efficiency, unlike the frequently used area spectrum efficiency.
  • 6G systems can provide very long battery life and advanced battery technologies for energy harvesting, so mobile devices in 6G systems may not need to be separately charged.
  • AI The most important and newly introduced technology in the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • 6G systems will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communications in 6G.
  • Introducing AI in communications can simplify and improve real-time data transmission.
  • AI can use numerous analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can be performed instantly by using AI.
  • AI can also play an important role in M2M, machine-to-human and human-to-machine communications. Additionally, AI can enable rapid communication in BCI (brain computer interface).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO (multiple input multiple output) mechanism, It may include AI-based resource scheduling and allocation.
  • Machine learning can be used for channel estimation and channel tracking, and can be used for power allocation, interference cancellation, etc. in the physical layer of the DL (downlink). Machine learning can also be used for antenna selection, power control, and symbol detection in MIMO systems.
  • Deep learning-based AI algorithms require a large amount of training data to optimize training parameters.
  • a lot of training data is used offline. This means that static training on training data in a specific channel environment may result in a contradiction between the dynamic characteristics and diversity of the wireless channel.
  • signals of the physical layer of wireless communication are complex signals.
  • more research is needed on neural networks that detect complex domain signals.
  • Machine learning refers to a series of operations that train machines to create machines that can perform tasks that are difficult or difficult for humans to perform.
  • Machine learning requires data and a learning model.
  • data learning methods can be broadly divided into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network learning is intended to minimize errors in output. Neural network learning repeatedly inputs learning data into the neural network, calculates the output of the neural network and the error of the target for the learning data, and backpropagates the error of the neural network from the output layer of the neural network to the input layer to reduce the error. ) is the process of updating the weight of each node in the neural network.
  • Supervised learning uses training data in which the correct answer is labeled, while unsupervised learning may not have the correct answer labeled in the training data. That is, for example, in the case of supervised learning on data classification, the learning data may be data in which each training data is labeled with a category. Labeled learning data is input to a neural network, and error can be calculated by comparing the output (category) of the neural network and the label of the learning data. The calculated error is back-propagated in the neural network in the reverse direction (i.e., from the output layer to the input layer), and the connection weight of each node in each layer of the neural network can be updated according to back-propagation. The amount of change in the connection weight of each updated node may be determined according to the learning rate.
  • the neural network's calculation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently depending on the number of repetitions of the learning cycle of the neural network. For example, in the early stages of neural network training, a high learning rate can be used to ensure that the neural network quickly achieves a certain level of performance to increase efficiency, and in the later stages of training, a low learning rate can be used to increase accuracy.
  • Learning methods may vary depending on the characteristics of the data. For example, when the goal is to accurately predict data transmitted from a transmitter in a communication system at a receiver, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and can be considered the most basic linear model.
  • deep learning is a machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model. ).
  • Neural network cores used as learning methods are broadly divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent neural networks (recurrent boltzmann machine). And this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • recurrent neural networks recurrent boltzmann machine
  • THz communication can be applied in the 6G system.
  • the data transfer rate can be increased by increasing the bandwidth. This can be accomplished by using sub-THz communications with wide bandwidth and applying advanced massive MIMO technology.
  • FIG. 9 is a diagram showing an electromagnetic spectrum applicable to the present disclosure.
  • THz waves also known as submillimeter radiation, typically represent a frequency band between 0.1 THz and 10 THz with a corresponding wavelength in the range of 0.03 mm-3 mm.
  • the 100GHz-300GHz band range (Sub THz band) is considered the main part of the THz band for cellular communications. Adding the Sub-THz band to the mmWave band increases 6G cellular communication capacity.
  • 300GHz-3THz is in the far infrared (IR) frequency band.
  • the 300GHz-3THz band is part of the wideband, but it is at the border of the wideband and immediately behind the RF band. Therefore, this 300 GHz-3 THz band shows similarities to RF.
  • THz communications Key characteristics of THz communications include (i) widely available bandwidth to support very high data rates, (ii) high path loss occurring at high frequencies (highly directional antennas are indispensable).
  • the narrow beamwidth produced by a highly directional antenna reduces interference.
  • the small wavelength of THz signals allows a much larger number of antenna elements to be integrated into devices and BSs operating in this band. This enables the use of advanced adaptive array techniques that can overcome range limitations.
  • THz Terahertz
  • FIG. 10 is a diagram illustrating a THz communication method applicable to the present disclosure.
  • THz waves are located between RF (Radio Frequency)/millimeter (mm) and infrared bands. (i) Compared to visible light/infrared, they penetrate non-metal/non-polarized materials better and have a shorter wavelength than RF/millimeter waves, so they have high straightness. Beam focusing may be possible.
  • Figure 11 shows the structure of a perceptron included in an artificial neural network applicable to the present disclosure. Additionally, Figure 12 shows an artificial neural network structure applicable to the present disclosure.
  • an artificial intelligence system can be applied in the 6G system.
  • the artificial intelligence system may operate based on a learning model corresponding to the human brain, as described above.
  • the machine learning paradigm that uses a highly complex neural network structure, such as artificial neural networks, as a learning model can be called deep learning.
  • the neural network core used as a learning method is largely divided into deep neural network (DNN), convolutional deep neural network (CNN), and recurrent neural network (RNN). There is a way.
  • the artificial neural network may be composed of several perceptrons.
  • the input vector x ⁇ x 1 , x 2 , ... , x d ⁇ , weights ⁇ W 1 , W 2 , ... are assigned to each component. , W d ⁇ are multiplied, the results are summed, and the entire process of applying the activation function ⁇ ( ⁇ ) can be called a perceptron. If the large artificial neural network structure expands the simplified perceptron structure shown in Figure 11, the input vector can be applied to different multi-dimensional perceptrons. For convenience of explanation, input or output values are referred to as nodes.
  • the perceptron structure shown in FIG. 11 can be described as consisting of a total of three layers based on input and output values.
  • An artificial neural network with H perceptrons of (d+1) dimension between the 1st layer and the 2nd layer, and K perceptrons of the (H+1) dimension between the 2nd layer and the 3rd layer can be expressed as shown in Figure 12. You can.
  • the layer where the input vector is located is called the input layer
  • the layer where the final output value is located is called the output layer
  • all layers located between the input layer and the output layer are called hidden layers.
  • three layers are shown in FIG. 12, but when counting the actual number of artificial neural network layers, the input layer is counted excluding the input layer, so the artificial neural network illustrated in FIG. 12 can be understood as having a total of two layers.
  • An artificial neural network is constructed by two-dimensionally connecting perceptrons of basic blocks.
  • the above-described input layer, hidden layer, and output layer can be jointly applied not only to the multi-layer perceptron, but also to various artificial neural network structures such as CNN and RNN, which will be described later.
  • CNN neural network
  • RNN deep neural network
  • 13 shows a deep neural network applicable to this disclosure.
  • the deep neural network may be a multi-layer perceptron consisting of 8 hidden layers and 8 output layers.
  • the multi-layer perceptron structure can be expressed as a fully-connected neural network.
  • a fully connected neural network no connection exists between nodes located on the same layer, and connections can only exist between nodes located on adjacent layers.
  • DNN has a fully connected neural network structure and is composed of a combination of multiple hidden layers and activation functions, so it can be usefully applied to identify correlation characteristics between input and output.
  • the correlation characteristic may mean the joint probability of input and output.
  • Figure 14 shows a convolutional neural network applicable to this disclosure. Additionally, Figure 15 shows a filter operation of a convolutional neural network applicable to this disclosure.
  • DNN various artificial neural network structures different from the above-described DNN can be formed.
  • nodes located inside one layer are arranged in a one-dimensional vertical direction.
  • the nodes are arranged two-dimensionally, with w nodes horizontally and h nodes vertically.
  • a weight is added for each connection in the connection process from one input node to the hidden layer, a total of h ⁇ w weights must be considered. Since there are h ⁇ w nodes in the input layer, a total of h 2 w 2 weights may be required between two adjacent layers.
  • the convolutional neural network of Figure 14 has a problem in that the number of weights increases exponentially depending on the number of connections, so instead of considering all mode connections between adjacent layers, it is assumed that a small filter exists. You can. For example, as shown in FIG. 15, weighted sum and activation function calculations can be performed on areas where filters overlap.
  • one filter has a weight corresponding to the number of filters, and the weight can be learned so that a specific feature in the image can be extracted and output as a factor.
  • a 3 ⁇ 3 filter is applied to the upper leftmost 3 ⁇ 3 area of the input layer, and the output value as a result of performing the weighted sum and activation function calculation for the corresponding node can be stored at z 22 .
  • the above-described filter scans the input layer and moves at regular intervals horizontally and vertically to perform weighted sum and activation function calculations, and the output value can be placed at the current filter position. Since this operation method is similar to the convolution operation on images in the field of computer vision, a deep neural network with this structure is called a convolutional neural network (CNN), and the The hidden layer may be called a convolutional layer. Additionally, a neural network with multiple convolutional layers may be referred to as a deep convolutional neural network (DCNN).
  • CNN convolutional neural network
  • the number of weights can be reduced by calculating a weighted sum from the node where the current filter is located, including only the nodes located in the area covered by the filter. Because of this, one filter can be used to focus on features for a local area. Accordingly, CNN can be effectively applied to image data processing in which the physical distance in a two-dimensional area is an important decision criterion. Meanwhile, CNN may have multiple filters applied immediately before the convolution layer, and may generate multiple output results through the convolution operation of each filter.
  • Figure 16 shows a neural network structure with a cyclic loop applicable to the present disclosure.
  • Figure 17 shows the operational structure of a recurrent neural network applicable to the present disclosure.
  • a recurrent neural network is a recurrent neural network (RNN) that uses elements of a certain line of sight t in a data sequence ⁇ x 1 (t) , x 2 (t) ,...
  • z H (t-1) ⁇ can be input together to have a structure that applies a weighted sum and activation function.
  • the reason for passing the hidden vector to the next time point like this is because the information in the input vector from previous time points is considered to be accumulated in the hidden vector at the current time point.
  • the recurrent neural network can operate in a predetermined time point order with respect to the input data sequence.
  • the input vector at time point 1 ⁇ x 1 (t) , x 2 (t) , ... , x d (t) ⁇ is the hidden vector ⁇ z 1 (1) , z 2 (1) , ... when input to the recurrent neural network.
  • z H (1) ⁇ is the input vector at point 2 ⁇ x 1 (2) , x 2 (2) , ... , x d (2) ⁇
  • the vectors of the hidden layer ⁇ z 1 (2) , z 2 (2) , ... , z H (2) ⁇ is determined. This process progresses from time point 2, time point 3, ... , is performed repeatedly until time T.
  • Recurrent neural networks are designed to be useful for sequence data (e.g., natural language processing).
  • neural network core used as a learning method, in addition to DNN, CNN, and RNN, it includes restricted Boltzmann machine (RBM), deep belief networks (DBN), deep Q-Network, and It includes various deep learning techniques, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.
  • RBM restricted Boltzmann machine
  • DNN deep belief networks
  • Q-Network deep Q-Network
  • It includes various deep learning techniques, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.
  • AI-based physical layer transmission means applying signal processing and communication mechanisms based on AI drivers, rather than traditional communication frameworks, in terms of fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based MIMO mechanism, AI-based resource scheduling ( It may include scheduling and allocation, etc.
  • This disclosure relates to technology for physical layer communication between a base station and a terminal based on an artificial intelligence (AI)/machine learning (ML) model.
  • Artificial intelligence/machine learning models operate based on data, and the wireless channel between the base station and UE is constantly changing, so online learning is necessary.
  • a plurality of base stations may transmit a reference signal, control channel, and data channel to the UE through multiple transmission antennas. For such communication, this disclosure proposes a technique for efficient online learning of artificial intelligence/machine learning models.
  • the base stations and UEs can exchange quasi-colocation (QCL) information.
  • QCL quasi-colocation
  • UE and base station can improve transmission and reception performance.
  • QCL information is described according to the antenna shape, transmission/reception mathematical model, and base station technology implementation. If an artificial intelligence/machine learning model is used in the physical layer, the artificial intelligence/machine learning technology may not be utilized to its full potential because it is not a data-based operation that reflects the real environment. For example, even if two transmission points are not QCL, if the channel environment is similar, a communication channel association may exist in transmission and reception between the base station and the UE.
  • QCL information is based on the similarity of primary or secondary statistical information at large scale levels. That is, QCL reflects at least one of Doppler shift, Doppler spread, average delay, delay spread, and spatial RX parameter. Therefore, QCL information does not reflect the relevant mutual information in artificial intelligence/machine learning, especially the high-dimensional representation of deep neural networks. For example, if the profiles in terms of frequency and time beyond primary or secondary statistics are the same, it is necessary to be able to identify the identity in a deep learning neural network.
  • the present disclosure goes beyond colocation, which is a static correlation concept for location, to the promise of the base station and the UE for correlation in the high-dimensional representation of the UE's artificial intelligence/machine learning model. propose a plan.
  • meta learning theory for artificial intelligence/machine learning can be used.
  • Artificial intelligence/machine learning models that perform meta-learning are techniques that have the advantage of being able to quickly perform new tasks based on small data. Therefore, meta-learning will be suitable for processing physical layer control and data signals associated with time-varying channels.
  • data-based artificial intelligence/machine learning models can use actually measured information. In order to secure better performance than existing communications through online learning, it is desirable to combine actual channel data and artificial intelligence/machine learning.
  • Meta-learning is a learning technique that enables good inference, such as regression and classification, for new tasks by using a neural network previously trained for several tasks.
  • meta-learning can be understood as learn-to-learn, which enables good learning and inference on new tasks.
  • meta model parameters In meta-learning, the weights of the model of a neural network pre-trained through tasks are meta-model parameters It is called, and learning meta model parameters is defined as meta-training.
  • meta model parameters When encountering a new task, meta model parameters is the model parameter adapted to the new task Retrained and adapted model parameters Performing inference based on is called adaptation.
  • model parameters for a task may be referred to as task model parameters to distinguish them from meta model parameters.
  • Meta-learning is explained through a more intuitive example as shown in Figure 18.
  • 18 illustrates the concept of meta-learning applicable to this disclosure.
  • the implementer wishes to process a new task called 'Ride a Bicycle' (1802). If meta-training is performed in advance on the 'action of riding something' as existing tasks, the practitioner will be able to ride a bicycle easily.
  • Metamodel parameters are trained on tasks such as riding a horse (1812), riding a surfboard (1814), and riding an electric bicycle (1816) before a new task is given. If is learned, adaptation to the new task of riding a bicycle can be performed relatively easily.
  • the most optimally trained model parameters for which ride to learn If given, model parameters that can perform a new task Can be determined as shown in [Equation 1] below.
  • [Equation 1] is the task model parameter for the new task, is the task model parameter, is the data set for meta-testing, means the optimal meta model parameters. That is, according to [Equation 1], under conditions given the data set and optimal meta model parameters, the task model parameters that stochastically optimize the model for the target task can be determined as the task model parameters for the new task.
  • Task Probability Distribution Collect data from and model Metamodel parameters based on can be learned. At this time, the task can be defined as [Equation 2].
  • Equation 2 is a task, is the loss function, is a neural network model, is the relevant data set, is the conditional transition probability of the task data, means the temporal length of the task.
  • Metamodel parameters in metatraining The data set in the target function and task distribution for learning can be defined as [Equation 3].
  • Equation 2 is the optimal metamodel parameter, is the average operator, is the relevant data set, is the data sample, is a task data distribution for, is the loss function, is the meta model, is the dataset selected for meta-learning, means a meta model parameter.
  • a data set (eg, meta-training set, meta-test set) includes data sets of a plurality of different tasks. and. Within one task, the data set may include a training set 1922 (e.g., D tr ) and a test set 1924 (e.g., D ts ).
  • a meta-training set can be determined. For example, the transmitter and receiver determine task model parameters for each task through an inner loop using the training set 1922, and use the test set 1924 to determine meta parameters through an outer loop. Model parameters can be determined.
  • Adaptation for a new specific task determines the optimal metamodel parameters The goal is to maximize the conditional probability value that best describes the meta test data set for that specific task.
  • the meta-test data set is also divided into a training set (1932) and a test set (1934).
  • the training set (1932) is mainly metamodel parameters
  • Task model parameters for a new task from is consumed to learn.
  • the test set 1934 is used to perform actual tasks.
  • the optimal metamodel parameters The process of deciding is meta-training.
  • Model-based methods e.g. black box
  • optimization-based methods e.g., Monte Carlo simulation
  • non-parametric methods e.g., Monte Carlo simulation
  • the meta-learning algorithm and inner and outer loops are as follows.
  • Model-based methods use another model or neural network that well describes the specific sampled task i. using Decide.
  • the optimization-based method does not set aside a model that best explains task i, but uses the gradient information of the current model to Decide.
  • the non-parametric method of task i is Consider a model that well explains the features.
  • Meta-learning shows good performance when the data set has a long tail distribution. In the case of a data set with a long tail distribution, based on classification, there are many classes, and the data size within each class is very small. Meta-learning shows good performance even on small data sets. The most useful application is few-shot learning. Even if only a few images are shown, excellent performance is achieved by performing meta-learning and then identifying the images.
  • Meta-learning algorithms can be divided into model-based approach, optimization-based approach, and non-parametric approach. Each algorithm can be expressed as follows.
  • Sample Task i 2. Sample data set D i tr , D i ts 3.Compute ⁇ f ⁇ (D i tr ) 4. update ⁇ using ⁇ ⁇ L( ,D i ts ) 5. return to 1. Optimization-based approach 1. Sample Task i 2. Sample data set D i tr , D i ts 3.Optimize ⁇ ⁇ L( ⁇ ,D i tr ) 4. update ⁇ using ⁇ ⁇ L( ,D i ts ) 5. return to 1. Non-parametric approach 1. Sample Task i 2. Sample data set D i tr , D i ts 3.Compute 4. update ⁇ using ⁇ ⁇ L( ) 5. return to 1.
  • meta-learning can be understood as two levels of hierarchical parameter learning.
  • Meta-learning tasks may be related to a synchronization signal, a reference signal, a control channel, and a data channel. That is, the present disclosure relates to meta-learning of transmission and reception tasks related to at least one of a synchronization signal, a reference signal, a control channel, and a data channel in communication.
  • This disclosure defines existing communication operations that must be performed according to the purpose of the signal as tasks. For example, channel estimation is an operation to estimate a channel using an artificial intelligence/machine learning model that takes a reference signal as an input, and corresponds to an inference task in the artificial intelligence/machine learning model. Receiving control channels or data bits by the base station and UE corresponds to a classification task in the artificial intelligence/machine learning model.
  • transmission and reception tasks can be defined for various communication procedures, such as channel estimation using a synchronization signal or reference signal, processing of data signals (e.g., encoding/decoding, modulation/demodulation, etc.), beam management, and synchronization.
  • data signals e.g., encoding/decoding, modulation/demodulation, etc.
  • beam management e.g., beam management, and synchronization.
  • the UE and base station can perform various tasks while performing transmission and reception operations, which can be understood as multiple tasks being performed simultaneously.
  • a base station operates multiple TRPs
  • one synchronization signal or reference signal transmitted for each TRP can be transmitted and received through one signal task. Therefore, multiple TRPs correspond to multiple signaling tasks.
  • the tasks of the artificial intelligence/machine learning model for transmitting and receiving control channels and data channels may be associated with synchronization signal or reference signal tasks. Additionally, all tasks related to the control channel and data channel can be processed on a meta-learning basis. Set of tasks for reference signals, control signals and data signals is a specific time period in online learning can be defined continuously.
  • Meta-correlation is a concept related to meta-learning.
  • the interconnectivity of signals transmitted from multiple points is expressed by QCL information, but can be interpreted as correlation between a plurality of tasks of multiple points from the perspective of artificial intelligence/machine learning. Accordingly, the present disclosure seeks to address the relevance of a plurality of tasks from a meta-learning perspective.
  • Meta-learning model parameters are model parameters of tasks included in the task set related to each point. , ,... , If it reflects inter-task correlation, the inter-task correlation can be defined as meta-correlation.
  • Meta model parameters reflecting multi-point tasks Model parameters of an arbitrary multi-point task based on Adaptation can be carried out quickly.
  • the meta-correlation of the transmission and reception operations of the base station and UE using is a task set for reference signals, control signals, and data signals transmitted in multiple TRPs. It can be defined as interconnectivity at the feature or deep representation level between tasks included in .
  • the base station and the UE can improve the performance of the transmission and reception tasks by exchanging and using information about the meta correlation of tasks for multiple TRPs.
  • Meta correlation can be determined using QCL information, and can additionally be determined using data obtained in an actual communication environment delivered to the base station through the UE's measurement report.
  • the base station can increase task performance speed and performance by delivering information related to the determined meta correlation to other UEs.
  • the meta correlation proposed in this disclosure can indicate the correlation between TRPs. However, meta correlation can be applied to describe or express the correlation between TRPs as well as ports. However, for convenience of explanation below, TRPs are presented as examples of objects to which meta correlation is applied.
  • the meta-correlation of model parameters of other tasks is , ,... , Inter-meta-correlation vector
  • the most optimal vector among the candidates It can be expressed as
  • Equation 4 is meta-correlation information about other tasks of task i, is the meta correlation vector, is the task model parameter for task i, is the test data set for task i, means a meta model parameter based on a meta correlation vector.
  • Equation 5 is a meta model parameter based on the meta correlation vector, is the meta model parameter, is the meta correlation vector, is the ith element of the meta correlation vector, is the task model parameter for task i, is the training data set for task i, means meta model.
  • the contribution of data from other tasks that are most helpful to the target task can be reflected in meta-learning. For example, two tasks related to SSB (synchronization signal and physical broadcast channel block) and and 3 tasks related to CSI-RS , , If exists, the target task is a task related to CSI-RS Then, a meta-correlation vector containing values indicating correlation to each of the other four tasks, i.e., meta-correlation values. can be decided.
  • the UE determines the optimal vector Receive information related to the optimal vector Based on the current task
  • the most helpful metamodel parameters for can be determined through relatively few operations and task adaptation can be performed.
  • the channel may be dependent on the UE's antenna, position, velocity, motion vector including acceleration, posture, angular velocity associated with the posture, rotational speed, terrain, influence of moving objects around the UE, etc.
  • UEs with similar listed characteristics may be grouped into a group, which is one logical unit. This disclosure defines a combination of the listed characteristics as a UE channel context or UE context.
  • UE context can be used to identify multiple UEs with high channel correlation or to identify multiple UEs that share specific terrain.
  • meta-correlation can be identified per UE context. Supportable UE contexts for identifying meta-correlation can be determined by agreement between the base station and the UE.
  • a first UE carried by a pedestrian walking on the roadside and a second UE contained in a car moving at high speed may be divided into two groups.
  • the delay spread may be similar, but the first UE and the second UE may be divided into two groups by speed difference.
  • a third UE in an office environment and a fourth UE outside the building may be distinguished by a channel profile.
  • the channel profiles of the third UE and fourth UE may be different.
  • the UE channel context may also vary depending on the UE's antenna and hardware type. UEs in the form of small IoT devices and UEs mounted on vehicles have different types of antennas, so they will experience different channels with a high probability.
  • FIG. 20 shows functional structures of devices supporting meta-learning according to an embodiment of the present disclosure.
  • FIG. 20 illustrates a transmission and reception model in which the first device 2010 functions as a transmitter and the second device 2020 functions as a receiver among two devices 2010 and 2020 that perform communication according to an embodiment.
  • the first device 2010 can be understood as a base station and the second device 2020 can be understood as a UE.
  • the first device 2010 can be understood as a UE and the second device 2020 can be understood as a base station.
  • the first device 2010 includes a transmit entity (2011), a meta trainer (2012), a meta transmitter (2013), an adaptation block (2014), and a task transmitter (2015).
  • the transmitting entity 2011 performs overall control and processing for data transmission.
  • the transmitting entity 2011 may generate transmission data and provide information necessary for the operation of other blocks.
  • the transmitting entity 2011 may provide task data to the meta training unit 2012 and provide message S to the meta transmitter 2015.
  • the transmitting entity 2011 may control the meta-learning operation using feedback information (e.g., measurement report, CSI information, loss information, etc.) received from the second device 2020.
  • the meta training unit (2012) determines meta model parameters by performing meta learning, and the meta transmitter (2013) holds the meta model parameters determined through meta learning.
  • the adaptation block 2014 determines task model parameters for a given task by performing adaptation on meta model parameters, and the task transmitter 2015 uses the adapted task model parameters determined through adaptation to send a message and at least One reference signal is processed according to the corresponding task.
  • meta correlation information e.g., meta correlation vector
  • task model parameters of other tasks may be used to determine meta model parameters and task model parameters.
  • the second device 2020 includes a receiving entity 2021, a meta training unit 2022, a meta receiver 2023, an adaptation block 2024, a task receiver 2025, and a transmit meta. Includes a control (transmit meta control) block 2026.
  • the receiving entity 2021 performs overall control and processing for data reception. For example, the receiving entity 2021 may process the received message and provide information necessary for the operation of other blocks. Specifically, the receiving entity 2021 may provide task data to the meta training unit 2022 and provide message S to the meta receiver 2025.
  • the meta training unit 2022 determines meta model parameters by performing meta learning, and the meta receiver 2023 holds the meta model parameters determined through meta learning.
  • the adaptation block 2024 determines task model parameters for a given task by performing adaptation on meta model parameters, and the task receiver 2025 uses the adapted task model parameters determined through adaptation to receive a message and at least The message is restored by processing one reference signal according to the corresponding task, and the restored message is provided to the receiving entity (2021).
  • the transmission meta control block 2026 generates information for learning transmission models of the first device 2010 and transmits a measurement report including the generated information to the first device 2010.
  • meta correlation information e.g., meta correlation vector
  • task model parameters of other tasks may be used to determine meta model parameters and task model parameters.
  • the meta model may consist of one or more meta transmitters (2013) and one or more meta receivers (2023).
  • the meta model is a generalized parameter value obtained through meta training on multiple tasks. and Includes. At this time, and Can be determined based on meta correlation information.
  • Task models may consist of one or more task transmitters 2015 and one or more task receivers 2025. Task models may have different parameters for each reference signal task.
  • the meta model When transmitting an actual message S, the meta model is converted into a transmission and reception task model appropriate for the corresponding channel situation derived through adaptation, and the message S can be transmitted and received using the transmission and reception task model. Finally, the second device 2020 sends the message Restore .
  • the transmitting entity 2011 and the receiving entity 2021 refer to objects that transmit and receive data.
  • the meta-learning unit (2012) and the meta-learning unit (2022) model the transmission task and receive task model Meta parameters using information from and Learn.
  • the transmission meta control block 2026 is a control unit of the second device 2020 for training the transmitter model. According to one embodiment, the transmission meta control block 2026 measures a loss for training a transmission model and feeds the loss back to the first device 2010 through a measurement report.
  • the transmitter and receiver that perform online meta-learning perform two processes simultaneously.
  • the first process is the online meta-training process.
  • the online meta-training process determines the best-performing meta-model parameters at the moment. is to explore.
  • the online meta-training process is an inner-loop where each task parameter of the transmitter and receiver is learned from a plurality of tasks. Decide. Additionally, the online meta-training process provides meta-model parameters that generalize well to task parameters through an outer-loop. Decide.
  • the second process is to update the meta parameters Adaptation is performed based on learning data obtained from recently used tasks, and the data obtained through adaptation is Transmission and reception are performed using .
  • the transmitter and receiver may perform meta learning to determine parameters for the target task using parameters of other tasks based on meta correlation.
  • FIG. 21 illustrates a procedure for determining parameters related to a transmitter according to one embodiment of the present invention.
  • FIG. 21 illustrates a method of operating a UE, and the illustrated operations may be understood as operations of a receiver (e.g., the second device 2020 of FIG. 20).
  • the UE transmits capability information.
  • Capability information may include information related to the UE's communication-related capabilities.
  • the ability information may include information related to meta-learning.
  • information related to meta-learning may include at least one of information related to at least one artificial intelligence/machine learning model, information related to at least one task, and information indicating at least one meta-learning algorithm.
  • information related to meta-learning may be related to meta-learning using meta-correlation.
  • the UE may receive a message requesting capability information from the base station.
  • the UE receives configuration information related to reception operations.
  • the UE receives a message containing configuration information about the processing of signals transmitted by the base station.
  • the setting information may include at least one of information related to a signal, information related to signal processing, and information related to a subsequent operation corresponding to signal reception.
  • information related to the signal may include at least one of information related to resources and information related to the physical form of the signal (eg, structure, value, numerology, coding rate, modulation order, etc.).
  • the setting information may include setting information related to meta-learning.
  • configuration information related to meta-learning includes information related to the structure of the meta-model, information related to meta-model parameters, information related to the meta-learning algorithm, and information related to meta-correlation (e.g., combinable tasks and tasks). values indicating relevance), and may include at least one of information related to the UE context.
  • setting information related to meta learning may be transmitted through a separate message.
  • the UE receives signals based on configuration information.
  • the UE receives signals according to at least one of resources, structure, and physical form indicated by configuration information.
  • the signal may include one of a synchronization signal, a reference signal, a data channel signal, and a control channel signal.
  • at least some of the signals are related to the target task and may be received over multiple occasions.
  • the UE determines at least one parameter for a reception operation.
  • the UE can configure a receiver to process signals.
  • the UE may perform meta learning.
  • the UE can perform meta learning using meta correlation. Specifically, the UE determines the contribution of the task model parameters of the target task and at least one other task to the target task based on the meta correlation information, selects at least one other task based on the determined contribution, and then selects the selected task. Determine the meta model parameters based on the task model parameters.
  • the UE can determine task model parameters for the target task by performing adaptation based on meta model parameters. That is, the UE can determine meta model parameters and task model parameters for the target task based on meta correlation information. At this time, depending on the case, at least one of meta correlation information and meta model parameters may be updated or redetermined.
  • the UE transmits feedback information.
  • the UE may transmit feedback information after determining at least one parameter for a reception operation.
  • the feedback information may include at least one of a measurement result for a reference signal and ACK/NACK (acknowledge/negative-acknowledge) for a data signal.
  • the feedback information may include at least one of information related to meta correlation and context information of the UE. That is, the UE performs meta learning of other UEs by transmitting feedback information including at least one of meta correlation information, meta model parameters, and UE context information indicating at least one task used to determine meta model parameters. Information to assist can be provided.
  • the UE may receive a request for transmission of feedback information from the base station.
  • FIG. 22 illustrates a procedure for determining parameters related to a receiver according to an embodiment of the present invention.
  • FIG. 22 illustrates a method of operating a base station, and the illustrated operations may be understood as operations of a receiver (eg, the first device 2010 of FIG. 20).
  • the base station receives capability information.
  • Capability information may include information related to the UE's communication-related capabilities.
  • the ability information may include information related to meta-learning.
  • information related to meta-learning may include at least one of information related to at least one artificial intelligence/machine learning model, information related to at least one task, and information indicating at least one meta-learning algorithm.
  • information related to meta-learning may be related to meta-learning using meta-correlation.
  • the base station may transmit a message requesting capability information to the UE.
  • the base station transmits configuration information related to the reception operation.
  • the base station transmits a message containing configuration information about the processing of signals transmitted from the base station.
  • the setting information may include at least one of information related to a signal, information related to signal processing, and information related to a subsequent operation corresponding to signal transmission.
  • information related to the signal may include at least one of information related to resources and information related to the physical form of the signal (eg, structure, value, numerology, coding rate, modulation order, etc.).
  • the setting information may include setting information related to meta-learning.
  • configuration information related to meta-learning includes information related to the structure of the meta-model, information related to meta-model parameters, information related to the meta-learning algorithm, and information related to meta-correlation (e.g., combinable tasks and tasks). values indicating relevance), and may include at least one of information related to the UE context.
  • setting information related to meta learning may be transmitted through a separate message.
  • the base station transmits signals based on configuration information.
  • the base station transmits signals according to at least one of resources, structure, and physical form indicated by configuration information.
  • the signal may include one of a synchronization signal, a reference signal, a data channel signal, and a control channel signal.
  • at least some of the signals are related to a target task and may be transmitted over multiple opportunities.
  • the base station receives feedback information.
  • the base station may receive feedback information from a UE that has determined at least one parameter for a reception operation.
  • the feedback information may include at least one of a measurement result for a reference signal and ACK/NACK for a data signal.
  • the feedback information may include at least one of information related to meta correlation and context information of the UE. That is, the base station receives feedback information including at least one of meta correlation information, meta model parameters, and UE context information indicating at least one task used to determine meta model parameters in the UE, thereby Information to assist meta-learning can be obtained.
  • the base station may transmit a request for transmission of feedback information to the UE.
  • FIG. 23 shows a procedure for determining meta model parameters according to an embodiment of the present invention.
  • FIG. 23 illustrates a method of operating a UE, and the illustrated operations may be understood as operations of a receiver (e.g., the second device 2020 of FIG. 20).
  • the UE obtains information related to meta correlation.
  • information related to meta correlation is information related to a meta correlation vector determined by another UE, including at least one meta correlation vector, a meta model parameter determined based on the at least one meta correlation vector, and at least one It may include at least one of information indicating a plurality of tasks mapped to each element of the meta correlation vector.
  • the meta correlation vectors may have a rank or priority.
  • the UE may receive information related to meta correlation from the base station.
  • the other UE may be one of the UEs with the same UE context as the UE.
  • the UE determines tasks for meta learning based on information related to meta correlation. That is, the UE determines the tasks used to determine meta model parameters. According to one embodiment, the UE may select a task set indicated by at least one meta correlation vector obtained in step S2301. According to another embodiment, the UE may determine a plurality of meta correlation vector candidates based on at least one meta correlation vector obtained in step S2301 and select one of the plurality of meta correlation vector candidates.
  • the plurality of meta correlation vector candidates include a plurality of meta correlation vectors obtained in step S2301, or a plurality of meta correlation vectors derived from at least one meta correlation vector obtained in step S2301. It can be included.
  • the UE performs meta-learning based on the determined tasks.
  • the UE determines meta model parameters based on the task model parameters of the determined tasks.
  • the UE can obtain learning data using signals received from the base station.
  • the UE may determine task model parameters for each of the determined tasks and determine a meta model parameter that generalizes the task model parameters.
  • the UE can determine meta model parameters by solving an optimization problem such as [Equation 3].
  • the UE may perform adaptation to determine task model parameters based on meta model parameters and perform the task using the task model parameters.
  • the UE can process signals corresponding to the task (e.g., channel estimation, phase correction, location estimation, decoding, information acquisition, etc.) using task model parameters.
  • the UE may transmit information related to the applied meta correlation. Accordingly, other UEs can perform meta learning more effectively using the meta correlation vector used by the UE. Specifically, information related to meta correlation transmitted to the base station may be provided and used by the base station to other UEs, for example, UEs with the same UE context. That is, information related to meta correlation fed back to the base station by the UE can be used to assist meta learning of other UEs.
  • the UE determines task model parameters for tasks determined for meta-learning.
  • task model parameters may be provided from the base station.
  • the UE may determine meta model parameters using the received task model parameters without determining task model parameters for the selected tasks.
  • the UE may update or re-determine the received task model parameters and then determine meta model parameters using the updated or re-determined task model parameters.
  • Figure 24 shows an example of a procedure for providing capability information for meta-learning based on meta-correlation for a receiver according to an embodiment of the present invention. 24 illustrates signaling between a first device 2410 and a second device 2420.
  • the first device 2410 transmits a request message requesting capability information related to meta correlation to the second device 2420.
  • the meta learning capability request message may be transmitted after the second device 2420 connects to the first device 2420, during the registration process, or after registration.
  • the request message may be referred to as an MCR capability request message or capability inquiry message.
  • the second device 2420 transmits a response message including capability information related to meta correlation to the first device 2410.
  • the response message may be referred to as an MCR capability response message or capability information message.
  • the response message includes information indicating at least one neural network model that can be learned using meta correlation, information indicating at least one task that can be learned using meta correlation, and information indicating at least one meta learning algorithm that can be supported. It may include at least one of: Additionally, the response message may further include various capability information related to communication other than meta correlation.
  • capability information related to meta correlation of the second device 2420 may be provided.
  • capability information related to meta-learning of the second device 2420 may be provided together.
  • capability information related to meta learning or meta correlation of the first device 2410 may also be provided to the second device 2420 through a request message. Accordingly, information elements (IE) or parameters included in the request message and response message may include at least one of the items listed in [Table 3] below.
  • set of support models Artificial intelligence/machine learning model or set of related identifiers supporting meta-correlation set of support tasks
  • set of support meta-algorithms A set of supportable meta-learning algorithms or a set of related identifiers
  • FIG. 25 shows an example of a procedure for setting information for meta-learning according to an embodiment of the present invention.
  • FIG. 25 illustrates signaling for setting information for meta-learning between the first device 2510 and the second device 2520.
  • the first device 2510 transmits a request message for settings related to meta learning using meta correlation to the second device 2520. That is, the first device 2510 requests to perform meta learning using meta correlation.
  • the request message may be referred to as a meta correlation setup request (MRC setup request) message or a meta correlation reconfigure request (MRC reconfigure request) message.
  • the request message contains information necessary to perform meta-learning.
  • the request message may include information indicating a meta model, information indicating at least one other task available for meta learning, information indicating an association value forming meta correlation, and information indicating an algorithm of meta learning. , may include at least one of information indicating the UE context.
  • the second device 2520 transmits a confirmation message about the setting of meta learning using meta correlation to the first device 2510. That is, the second device 2520 transmits a response indicating acceptance of meta learning using meta correlation.
  • the confirmation message may be referred to as a meta correlation setup confirmation (MRC setup confirm) message or a meta correlation reset confirmation (MRC reconfigure confirm) message.
  • MRC setup confirm meta correlation setup confirmation
  • MRC reconfigure confirm meta correlation reset confirmation
  • the second device 2520 transmits a response indicating that it has acquired the information included in the request message or that settings necessary for learning have been completed based on the information included in the request message.
  • a procedure for receiving various signals may be performed for meta-learning.
  • information necessary for the second device 2520 to perform meta learning using meta correlation may be provided.
  • information elements or parameters included in the request message and confirmation message may include at least one of the items listed in [Table 4] below.
  • Meta-model meta model or associated identifier set of meta-tasks associated with signals As a set of multiple TRP tasks, each task can be connected to one or more information or a combination of synchronization signals, reference signals, control channel signals, and data channel signals. Each signal information may include antenna port information. Meta-correlations Meta-correlation of multiple transmit and receive point task sets. Meta-algorithm Meta-algorithm or related identifier set of UE contexts UE context or associated identifier
  • FIG. 26 shows another example of a procedure for meta-learning and performing a task according to an embodiment of the present invention.
  • FIG. 26 illustrates signaling for setting information for meta-learning between the first device 2610 and the second device 2620.
  • the first device 2610 transmits signals for meta tasks.
  • signals can be classified according to task.
  • the signals may include at least one of a reference signal, a control channel signal, and a data channel signal.
  • Signals may be transmitted at different timings depending on their type.
  • Signals may be transmitted through resources allocated for meta-learning, or may be transmitted based on scheduling according to the purpose of each signal. Signals are continuously transmitted during communication and can be used for meta-learning and task performance.
  • the second device 2620 performs meta learning to obtain meta parameters using meta correlation.
  • the second device 2620 first performs online meta-learning on a set of multiple TRP tasks defined in a specific time period. Subsequently, the second device 2620 provides meta correlation information Based on metamodel parameters Conduct training to acquire.
  • metamodel parameters Can be expressed as [Equation 6] below.
  • Equation 6 is a meta model parameter based on the meta correlation vector, is the meta model parameter, is meta-correlation information, is the ith element of the meta correlation vector, is the task model parameter for task i, is the training data set for task i, means meta model.
  • the second device 2620 determines task model parameters for a plurality of tasks, determines contributions of the plurality of tasks to the target task, and creates a task model for the plurality of tasks based on the contributions. Some of the parameters may be selected, and meta model parameters for the target task may be determined based on some of the selected task model parameters. Additionally, the second device 2620 may determine task model parameters for the target task by performing adaptation based on the meta model parameters and perform the target task using the task model parameters. At this time, the plurality of tasks used may include task model parameters determined by meta-learning by the second device 2620 or another UE having the same UE context as the second device 2620.
  • step S2605 the second device 2620 performs each task through adaptation based on meta model parameters using meta correlation. That is, the second device 2620 determines task model parameters for each task by performing adaptation based on meta model parameters using meta correlation. And, the second device 2620 can perform each task using task model parameters.
  • Figure 27 shows an example of a procedure for performing online meta-learning according to an embodiment of the present invention.
  • 27 illustrates signaling between a first device 2710 and a second device 2720.
  • the first device 2710 transmits a meta-training request message to the second device 2720.
  • the meta-training request message contains information related to the set of signal tasks used during meta-training. Additionally, the meta-training request message may further include at least one of a batch size for gradient-based training, an optimization method, and settings related thereto. Additionally, the meta-training request message may include information about the task set for each inner loop and the task set used in the outer loop.
  • the first device 2710 transmits at least one signal for task k.
  • the second device 2720 updates the parameters of the reception model in step S2705.
  • the parameters of the receiving neural network can be updated as shown in [Equation 7] below.
  • Equation 7 is the task model parameter of the receiver, is the update function, is the loss function, means the meta model parameters of the transmitter.
  • update function may vary depending on the optimization method.
  • step S2707 the second device 2720 reports the loss through a measurement report.
  • the second device 2720 determines the loss for the first device 2710 and transmits a measurement report including information related to the loss to the first device 2710.
  • step S2709 the first device 2710 updates the transmission model. Training for task k performed in steps S2703 to S2709 described above, that is, initial training in meta-learning, may be performed to provide a preliminary learning opportunity so that the neural networks of the transmitter and receiver can be up-to-date. Through this, the parameters of the neural networks can be prevented from being in a state where they have learned too much of past channels.
  • steps S2703 to S2709 described above may be omitted.
  • steps S2711-i to S2711-i+N signals for N inner-loops starting from task i are transmitted.
  • steps S2713-i to S2713-i+N the task model parameters of each task are formed by an inner-loop. is updated.
  • Task model parameters can be updated as in [Equation 8].
  • Equation 8 is the task model parameter of the receiver, is the meta-learning function used in the inner loop, is the metamodel parameter of the receiver, refers to the loss function. here, may vary depending on the meta-learning approach.
  • the first device 2710 transmits reference signals for tasks j to j+M.
  • the second device 2720 samples at least one task among the transmitted tasks and updates the task model parameter in the inner loop. metamodel parameters in the outer-loop based on Update . Meta model parameters can be updated as shown in [Equation 9] below.
  • Equation 9 is the metamodel parameter of the receiver, is the meta-learning function used in the outer loop, is the loss function, means the task model parameters of the transmitter for a specific task. here, depends on the meta-learning approach.
  • Figure 28 shows an example of a procedure for reporting meta correlation information according to an embodiment of the present invention.
  • Figure 28 illustrates signaling for reporting the results of meta-learning between the first device 2810 and the second device 2820.
  • the first device 2810 transmits a request message for reporting meta correlation information to the second device 2820.
  • the request message may be referred to as a meta correlation report request (MRC report request) message. That is, the first device 2810 may request a measurement result for meta correlation from the second device 2820.
  • the request message may include at least one of information indicating a meta model, information indicating a set of tasks related to the request, information indicating a related meta learning algorithm, and information related to the UE context.
  • the second device 2820 searches for a set of meta-correlated vectors by solving an optimization problem.
  • the purpose of the optimization problem is to determine whether each task has a certain level of contribution to the target task.
  • the optimization problem can be defined as [Equation 5].
  • the second device 2820 can obtain at least one meta correlation vector.
  • at least one meta correlation vector may be treated as meta correlation information related to the UE context indicated by the request message.
  • the second device 2820 transmits a report message about the set of meta correlation vectors to the first device 2810.
  • the report message may be referred to as a meta correlation set report message (set of MRC vectors report report) message. That is, the second device 2820 transmits information about at least one meta correlation vector determined in step S2803.
  • the report message may include at least one of information indicating at least one meta correlation vector and information related to the UE context.
  • the second device 2820 may provide information related to at least one meta correlation vector.
  • the request message may include at least one of the items listed in [Table 5] below.
  • Meta-model meta model or associated identifier set of meta-tasks associated with signals As a set of multiple TRP tasks, each task can be connected to one or more information or a combination of synchronization signals, reference signals, control channel signals, and data channel signals. Each signal information may include antenna port information.
  • the report message may include at least one of the items listed in [Table 6] below.
  • the items illustrated in [Table 5] may be used to request meta correlation for a set of multiple TRP tasks preset by the first device 2810 (e.g., base station). However, the first device 2810 may request measurement of meta correlation for the synchronization signal and the common reference signal discovered by automatic discovery of the second device 2820 (eg, UE). In this case, the request message may include at least one of the items listed in [Table 7] below.
  • Meta-model meta model or associated identifier Meta-algorithm
  • Meta-algorithm or related identifier Autonomous request indicator Indicator requesting meta-correlation measurement for synchronization signal and common reference signal according to UE discovery
  • FIG. 29 shows a usage example of performing tasks using meta correlation according to an embodiment of the present invention.
  • FIG. 29 illustrates a situation in which a plurality of transmission points (TPs) 2920-1 to 2920-6 transmit a data channel signal related to a reference signal to the UE 2910.
  • TPs transmission points
  • TP2 (2920-2) and TP3 (2920-3) have a QCL or MCR (meta-correlation) relationship based on the base station design
  • TP4 (2920-4) and TP5 (2920-5) has a QCL or MCR relationship based on the base station design.
  • meta-correlation not only the first and second-order statistics of QCL, but also the high-dimensional channel distribution, which is an advantage of artificial intelligence/machine learning models, can be used as meta parameters. can be reflected.
  • the meta-task parameters can reflect the shape of the diffusion profile in the frequency domain and the shape of the delay diffusion in the time domain to the deep neural network.
  • the base station can obtain a meta correlation vector.
  • the delay profile between UE (2910) and TP1 (2920-1), TP2 (2920-2), and TP6 (2920-6) is similar to CDL (clustered delay line) type A due to the influence of terrain, this delay
  • the profile can be assigned to the base station and UE (2910) using meta correlation information. That is, from the perspective of TP1 (2920-1), the reference signal task silver , , , It is possible to easily obtain high-dimensional information of an artificial intelligence/machine learning model about the delay profile of the channel included in the meta expression domain using meta correlation. That is, by quickly acquiring meta information between multiple transmission points through the meta correlation vector, the efficiency and performance of transmission and reception between the UE 2910 and the base station can be improved.
  • the actual channel profile can be shared even if the two transmission points do not have a QCL relationship.
  • QCL information is primary and secondary statistical information at the large scale level. That is, QCL reflects only Doppler shift, Doppler spread, average delay, delay spread, and spatial RX parameter. Therefore, greater performance improvement is expected by reflecting related mutual information in the high-dimensional representation of artificial intelligence/machine learning, especially deep neural networks.
  • the proposed technology allows these characteristics to be captured using meta parameters in a deep learning neural network when the profiles in terms of frequency and time beyond the first and second statistics are the same.
  • examples of the proposed methods described above can also be included as one of the implementation methods of the present disclosure, and thus can be regarded as a type of proposed methods. Additionally, the proposed methods described above may be implemented independently, but may also be implemented in the form of a combination (or merge) of some of the proposed methods.
  • a rule may be defined so that the base station informs the terminal of the application of the proposed methods (or information about the rules of the proposed methods) through a predefined signal (e.g., a physical layer signal or a higher layer signal). .
  • Embodiments of the present disclosure can be applied to various wireless access systems.
  • Examples of various wireless access systems include the 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
  • Embodiments of the present disclosure can be applied not only to the various wireless access systems, but also to all technical fields that apply the various wireless access systems. Furthermore, the proposed method can also be applied to mmWave and THz communication systems using ultra-high frequency bands.
  • embodiments of the present disclosure can be applied to various applications such as free-running vehicles and drones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시는 무선 통신 시스템에서 수신기 모델에 대한 온라인(online) 학습을 수행하기 위한 것으로, UE(user equipment)의 동작 방법은, 능력(capability) 정보를 기지국에게 송신하는 단계, 신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하는 단계, 상기 설정 정보에 기반하여 상기 신호들을 수신하는 단계, 및 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계, 상기 기지국에게 피드백 정보를 송신하는 단계를 포함할 수 있다.

Description

무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 송수신기 모델에 대한 온라인(online) 학습을 수행하기 위한 장치 및 방법에 관한 것이다.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT(radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 mMTC(massive machine type communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE(user equipment)를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 온라인(online) 학습을 효과적으로 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 학습(meta learning)을 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 학습에서 QCL(quasi co-location)의 개념을 적용하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 상호연관(meta-correlation) 기반의 메타 학습을 수행하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 메타 상호연관에 기반하여 메타 모델 파라미터를 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 복수의 태스크들의 기여도에 기반하여 메타 상호연관 정보를 결정하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 상호연관 기반의 메타 학습을 위한 능력 정보를 공유하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 상호연관 기반의 메타 학습을 위한 설정 정보를 제공하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 송수신기 모델에 대한 메타 상호연관 기반의 메타 학습의 결과에 대한 정보를 공유하기 위한 장치 및 방법을 제공할 수 있다.
본 개시는 무선 통신 시스템에서 복수의 태스크들의 기여도에 기반하여 메타 상호연관 정보를 보고하기 위한 장치 및 방법을 제공할 수 있다.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 UE(user equipment)의 동작 방법은, 능력(capability) 정보를 기지국에게 송신하는 단계, 신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하는 단계, 상기 설정 정보에 기반하여 상기 신호들을 수신하는 단계, 및 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계, 상기 기지국에게 피드백 정보를 송신하는 단계를 포함할 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 기지국의 동작 방법은, 능력(capability) 정보를 UE(user equipment)로부터 수신하는 단계, 상기 UE에게 신호들에 관련된 설정 정보를 송신하는 단계, 상기 설정 정보에 기반하여 상기 신호들을 송신하는 단계, 및 상기 UE로부터 피드백 정보를 수신하는 단계를 포함할 수 있다. 상기 피드백 정보는, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 결정되는 수신 동작을 위한 적어도 하나의 파라미터에 관련될 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 UE(user equipment)에 있어서, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하며, 상기 프로세서는, 능력(capability) 정보를 기지국에게 송신하고, 신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하고, 상기 설정 정보에 기반하여 상기 신호들을 수신하고, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하고, 상기 기지국에게 피드백 정보를 송신하도록 제어할 수 있다.
본 개시의 일 예에 따르면, 무선 통신 시스템에서 기지국에 있어서, 송수신기, 및 상기 송수신기와 연결된 프로세서를 포함하며, 상기 프로세서는, 능력(capability) 정보를 UE(user equipment)로부터 수신하고, 상기 UE에게 신호들에 관련된 설정 정보를 송신하고, 상기 설정 정보에 기반하여 상기 신호들을 송신하고, 상기 UE로부터 피드백 정보를 수신하도록 제어하며, 상기 피드백 정보는, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 결정되는 수신 동작을 위한 적어도 하나의 파라미터에 관련될 수 있다.
본 개시의 일 예에 따르면, 통신 장치는, 적어도 하나의 프로세서, 상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들에 관련된 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 동작들은, 능력(capability) 정보를 기지국에게 송신하는 단계, 신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하는 단계, 상기 설정 정보에 기반하여 상기 신호들을 수신하는 단계, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계, 및 상기 기지국에게 피드백 정보를 송신하는 단계를 포함할 수 있다.
본 개시의 일 예에 따르면, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)는, 프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며, 상기 적어도 하나의 명령어는, 장치가, 능력(capability) 정보를 기지국에게 송신하고, 신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하고, 상기 설정 정보에 기반하여 상기 신호들을 수신하고, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하고, 상기 기지국에게 피드백 정보를 송신하도록 제어할 수 있다.
상술한 본 개시의 양태들은 본 개시의 바람직한 실시예들 중 일부에 불과하며, 본 개시의 기술적 특징들이 반영된 다양한 실시예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 개시의 상세한 설명을 기반으로 도출되고 이해될 수 있다.
본 개시에 기초한 실시예들에 의해 하기와 같은 효과가 있을 수 있다.
본 개시에 따르면, 송수신기 모델에 대한 온라인(online) 학습, 특히, 메타 학습(meta learning)이 효과적으로 수행될 수 있다.
본 개시의 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.
도 1은 본 개시에 적용 가능한 통신 시스템 예를 도시한다.
도 2는 본 개시에 적용 가능한 무선 기기의 예를 도시한다.
도 3은 본 개시에 적용 가능한 무선 기기의 다른 예를 도시한다.
도 4는 본 개시에 적용 가능한 휴대 기기의 예를 도시한다.
도 5는 본 개시에 적용 가능한 차량 또는 자율 주행 차량의 예를 도시한다.
도 6은 본 개시에 적용 가능한 AI(Artificial Intelligence)의 예를 도시한다.
도 7은 본 개시에 적용 가능한 전송 신호를 처리하는 방법을 도시한다.
도 8은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한다.
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한다.
도 11은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다.
도 12는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
도 13은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 14는 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다.
도 15는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
도 16은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다.
도 17은 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 18은 본 개시에 적용 가능한 메타 학습(meta learning)의 개념을 도시한다.
도 19a 및 도 19b는 본 개시에 적용 가능한 메타 학습을 위한 데이터 세트들의 예를 도시한다.
도 20은 본 개시의 일 실시예에 따른 메타 학습을 지원하는 장치들의 기능적 구조들을 도시한다.
도 21은 본 발명의 일 실시예에 따라 송신기에 관련된 파라미터를 결정하는 절차를 도시한다.
도 22는 본 발명의 일 실시예에 따라 수신기에 관련된 파라미터를 결정하는 절차를 도시한다.
도 23은 본 발명의 일 실시예에 따라 메타 모델 파라미터를 결정하는 절차를 도시한다.
도 24는 본 발명의 일 실시예에 따라 수신기를 위한 메타 상호연관(meta-correlation)에 기반한 메타 학습에 대한 능력 정보를 제공하기 위한 절차의 예를 도시한다.
도 25는 본 발명의 일 실시예에 따라 메타 학습을 위한 정보를 설정하는 절차의 예를 도시한다.
도 26은 본 발명의 일 실시예에 따라 메타 학습 및 태스크를 수행하기 위한 절차의 다른 예를 도시한다.
도 27은 본 발명의 일 실시예에 따라 온라인 메타 학습을 수행하기 위한 절차의 예를 도시한다.
도 28은 본 발명의 일 실시예에 따라 메타 상호연관 정보를 보고하는 절차의 예를 도시한다.
도 29는 본 발명의 일 실시예에 따른 메타 상호연관을 이용하여 태스크들을 수행하는 활용 예를 도시한다.
이하의 실시예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시예를 구성할 수도 있다. 본 개시의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.
또한, 본 개시의 실시예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.
본 개시의 실시예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다.
또한, 본 개시의 실시예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.
즉, 본 개시의 실시예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 개시의 실시예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.
본 개시에 적용 가능한 통신 시스템
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.
무선 기기(100a~100f)/기지국(120), 기지국(120)/기지국(120) 간에는 무선 통신/연결(150a, 150b, 150c)이 이뤄질 수 있다. 여기서, 무선 통신/연결은 상향/하향링크 통신(150a)과 사이드링크 통신(150b)(또는, D2D 통신), 기지국간 통신(150c)(예, relay, IAB(integrated access backhaul))과 같은 다양한 무선 접속 기술(예, 5G NR)을 통해 이뤄질 수 있다. 무선 통신/연결(150a, 150b, 150c)을 통해 무선 기기와 기지국/무선 기기, 기지국과 기지국은 서로 무선 신호를 송신/수신할 수 있다. 예를 들어, 무선 통신/연결(150a, 150b, 150c)은 다양한 물리 채널을 통해 신호를 송신/수신할 수 있다. 이를 위해, 본 개시의 다양한 제안들에 기반하여, 무선 신호의 송신/수신을 위한 다양한 구성정보 설정 과정, 다양한 신호 처리 과정(예, 채널 인코딩/디코딩, 변조/복조, 자원 매핑/디매핑 등), 자원 할당 과정 등 중 적어도 일부가 수행될 수 있다.
본 개시에 적용 가능한 통신 시스템
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.
본 개시에 적용 가능한 무선 기기 구조
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.
본 개시가 적용 가능한 휴대 기기
도 4는 본 개시에 적용되는 휴대 기기의 예시를 도시한 도면이다.
도 4는 본 개시에 적용되는 휴대 기기를 예시한다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트 워치, 스마트 글래스), 휴대용 컴퓨터(예, 노트북 등)을 포함할 수 있다. 휴대 기기는 MS(mobile station), UT(user terminal), MSS(mobile subscriber station), SS(subscriber station), AMS(advanced mobile station) 또는 WT(wireless terminal)로 지칭될 수 있다.
도 4를 참조하면, 휴대 기기(400)는 안테나부(408), 통신부(410), 제어부(420), 메모리부(430), 전원공급부(440a), 인터페이스부(440b) 및 입출력부(440c)를 포함할 수 있다. 안테나부(408)는 통신부(410)의 일부로 구성될 수 있다. 블록 410~430/440a~440c는 각각 도 3의 블록 310~330/340에 대응한다.
통신부(410)는 다른 무선 기기, 기지국들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(420)는 휴대 기기(400)의 구성 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(420)는 AP(application processor)를 포함할 수 있다. 메모리부(430)는 휴대 기기(400)의 구동에 필요한 데이터/파라미터/프로그램/코드/명령을 저장할 수 있다. 또한, 메모리부(430)는 입/출력되는 데이터/정보 등을 저장할 수 있다. 전원공급부(440a)는 휴대 기기(400)에게 전원을 공급하며, 유/무선 충전 회로, 배터리 등을 포함할 수 있다. 인터페이스부(440b)는 휴대 기기(400)와 다른 외부 기기의 연결을 지원할 수 있다. 인터페이스부(440b)는 외부 기기와의 연결을 위한 다양한 포트(예, 오디오 입/출력 포트, 비디오 입/출력 포트)를 포함할 수 있다. 입출력부(440c)는 영상 정보/신호, 오디오 정보/신호, 데이터, 및/또는 사용자로부터 입력되는 정보를 입력 받거나 출력할 수 있다. 입출력부(440c)는 카메라, 마이크로폰, 사용자 입력부, 디스플레이부(440d), 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다.
일 예로, 데이터 통신의 경우, 입출력부(440c)는 사용자로부터 입력된 정보/신호(예, 터치, 문자, 음성, 이미지, 비디오)를 획득하며, 획득된 정보/신호는 메모리부(430)에 저장될 수 있다. 통신부(410)는 메모리에 저장된 정보/신호를 무선 신호로 변환하고, 변환된 무선 신호를 다른 무선 기기에게 직접 전송하거나 기지국에게 전송할 수 있다. 또한, 통신부(410)는 다른 무선 기기 또는 기지국으로부터 무선 신호를 수신한 뒤, 수신된 무선 신호를 원래의 정보/신호로 복원할 수 있다. 복원된 정보/신호는 메모리부(430)에 저장된 뒤, 입출력부(440c)를 통해 다양한 형태(예, 문자, 음성, 이미지, 비디오, 햅틱)로 출력될 수 있다.
본 개시가 적용 가능한 무선 기기 종류
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량의 예시를 도시한 도면이다.
도 5는 본 개시에 적용되는 차량 또는 자율 주행 차량을 예시한다. 차량 또는 자율 주행 차량은 이동형 로봇, 차량, 기차, 유/무인 비행체(aerial vehicle, AV), 선박 등으로 구현될 수 있으며, 차량의 형태로 한정되는 것은 아니다.
도 5를 참조하면, 차량 또는 자율 주행 차량(500)은 안테나부(508), 통신부(510), 제어부(520), 구동부(540a), 전원공급부(540b), 센서부(540c) 및 자율 주행부(540d)를 포함할 수 있다. 안테나부(550)는 통신부(510)의 일부로 구성될 수 있다. 블록 510/530/540a~540d는 각각 도 4의 블록 410/430/440에 대응한다.
통신부(510)는 다른 차량, 기지국(예, 기지국, 노변 기지국(road side unit) 등), 서버 등의 외부 기기들과 신호(예, 데이터, 제어 신호 등)를 송수신할 수 있다. 제어부(520)는 차량 또는 자율 주행 차량(500)의 요소들을 제어하여 다양한 동작을 수행할 수 있다. 제어부(520)는 ECU(electronic control unit)를 포함할 수 있다.
도 6은 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 6을 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 610~630/640a~640d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(620)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(630)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(640c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.
도 7은 본 개시에 적용되는 전송 신호를 처리하는 방법을 도시한 도면이다. 일 예로, 전송 신호는 신호 처리 회로에 의해 처리될 수 있다. 이때, 신호 처리 회로(700)는 스크램블러(710), 변조기(720), 레이어 매퍼(730), 프리코더(740), 자원 매퍼(750), 신호 생성기(760)를 포함할 수 있다. 이때, 일 예로, 도 7의 동작/기능은 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 수행될 수 있다. 또한, 일 예로, 도 7의 하드웨어 요소는 도 2의 프로세서(202a, 202b) 및/또는 송수신기(206a, 206b)에서 구현될 수 있다. 일 예로, 블록 710~760은 도 2의 프로세서(202a, 202b)에서 구현될 수 있다. 또한, 블록 710~750은 도 2의 프로세서(202a, 202b)에서 구현되고, 블록 760은 도 2의 송수신기(206a, 206b)에서 구현될 수 있으며, 상술한 실시예로 한정되지 않는다.
코드워드는 도 7의 신호 처리 회로(700)를 거쳐 무선 신호로 변환될 수 있다. 여기서, 코드워드는 정보블록의 부호화된 비트 시퀀스이다. 정보블록은 전송블록(예, UL-SCH 전송블록, DL-SCH 전송블록)을 포함할 수 있다. 무선 신호는 다양한 물리 채널(예, PUSCH, PDSCH)을 통해 전송될 수 있다. 구체적으로, 코드워드는 스크램블러(710)에 의해 스크램블된 비트 시퀀스로 변환될 수 있다. 스크램블에 사용되는 스크램블 시퀀스는 초기화 값에 기반하여 생성되며, 초기화 값은 무선 기기의 ID 정보 등이 포함될 수 있다. 스크램블된 비트 시퀀스는 변조기(720)에 의해 변조 심볼 시퀀스로 변조될 수 있다. 변조 방식은 pi/2-BPSK(pi/2-binary phase shift keying), m-PSK(m-phase shift keying), m-QAM(m-quadrature amplitude modulation) 등을 포함할 수 있다.
복소 변조 심볼 시퀀스는 레이어 매퍼(730)에 의해 하나 이상의 전송 레이어로 매핑될 수 있다. 각 전송 레이어의 변조 심볼들은 프리코더(740)에 의해 해당 안테나 포트(들)로 매핑될 수 있다(프리코딩). 프리코더(740)의 출력 z는 레이어 매퍼(730)의 출력 y를 N*M의 프리코딩 행렬 W와 곱해 얻을 수 있다. 여기서, N은 안테나 포트의 개수, M은 전송 레이어의 개수이다. 여기서, 프리코더(740)는 복소 변조 심볼들에 대한 트랜스폼(transform) 프리코딩(예, DFT(discrete fourier transform) 변환)을 수행한 이후에 프리코딩을 수행할 수 있다. 또한, 프리코더(740)는 트랜스폼 프리코딩을 수행하지 않고 프리코딩을 수행할 수 있다.
자원 매퍼(750)는 각 안테나 포트의 변조 심볼들을 시간-주파수 자원에 매핑할 수 있다. 시간-주파수 자원은 시간 도메인에서 복수의 심볼(예, CP-OFDMA 심볼, DFT-s-OFDMA 심볼)을 포함하고, 주파수 도메인에서 복수의 부반송파를 포함할 수 있다. 신호 생성기(760)는 매핑된 변조 심볼들로부터 무선 신호를 생성하며, 생성된 무선 신호는 각 안테나를 통해 다른 기기로 전송될 수 있다. 이를 위해, 신호 생성기(760)는 IFFT(inverse fast fourier transform) 모듈 및 CP(cyclic prefix) 삽입기, DAC(digital-to-analog converter), 주파수 상향 변환기(frequency uplink converter) 등을 포함할 수 있다.
무선 기기에서 수신 신호를 위한 신호 처리 과정은 도 7의 신호 처리 과정(710~760)의 역으로 구성될 수 있다. 일 예로, 무선 기기(예, 도 2의 200a, 200b)는 안테나 포트/송수신기를 통해 외부로부터 무선 신호를 수신할 수 있다. 수신된 무선 신호는 신호 복원기를 통해 베이스밴드 신호로 변환될 수 있다. 이를 위해, 신호 복원기는 주파수 하향 변환기(frequency downlink converter), ADC(analog-to-digital converter), CP 제거기, FFT(fast fourier transform) 모듈을 포함할 수 있다. 이후, 베이스밴드 신호는 자원 디-매퍼 과정, 포스트코딩(postcoding) 과정, 복조 과정 및 디-스크램블 과정을 거쳐 코드워드로 복원될 수 있다. 코드워드는 복호(decoding)를 거쳐 원래의 정보블록으로 복원될 수 있다. 따라서, 수신 신호를 위한 신호 처리 회로(미도시)는 신호 복원기, 자원 디-매퍼, 포스트코더, 복조기, 디-스크램블러 및 복호기를 포함할 수 있다.
6G 통신 시스템
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 "intelligent connectivity", "deep connectivity", "holographic connectivity", "ubiquitous connectivity"와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.
Per device peak data rate 1 Tbps
E2E latency 1 ms
Maximum spectral efficiency 100 bps/Hz
Mobility support up to 1000 km/hr
Satellite integration Fully
AI Fully
Autonomous vehicle Fully
XR Fully
Haptic Communication Fully
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.
도 10은 본 개시에 적용 가능한 6G 시스템에서 제공 가능한 통신 구조의 일례를 도시한 도면이다.
도 10을 참조하면, 6G 시스템은 5G 무선통신 시스템보다 50배 더 높은 동시 무선통신 연결성을 가질 것으로 예상된다. 5G의 핵심 요소(key feature)인 URLLC는 6G 통신에서 1ms보다 적은 단-대-단(end-to-end) 지연을 제공함으로써 보다 더 주요한 기술이 될 것으로 예상된다. 이때, 6G 시스템은 자주 사용되는 영역 스펙트럼 효율과 달리 체적 스펙트럼 효율이 훨씬 우수할 것이다. 6G 시스템은 매우 긴 배터리 수명과 에너지 수확을 위한 고급 배터리 기술을 제공할 수 있어, 6G 시스템에서 모바일 디바이스들은 별도로 충전될 필요가 없을 수 있다.
6G 시스템의 핵심 구현 기술
- 인공 지능(artificial Intelligence, AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.
THz(Terahertz) 통신
6G 시스템에서 THz 통신이 적용될 수 있다. 일 예로, 데이터 전송률은 대역폭을 늘려 높일 수 있다. 이것은 넓은 대역폭으로 sub-THz 통신을 사용하고, 진보된 대규모 MIMO 기술을 적용하여 수행될 수 있다.
도 9는 본 개시에 적용 가능한 전자기 스펙트럼을 도시한 도면이다. 일 예로, 도 9를 참조하면, 밀리미터 이하의 방사선으로도 알려진 THz파는 일반적으로 0.03mm-3mm 범위의 해당 파장을 가진 0.1THz와 10THz 사이의 주파수 대역을 나타낸다. 100GHz-300GHz 대역 범위(Sub THz 대역)는 셀룰러 통신을 위한 THz 대역의 주요 부분으로 간주된다. Sub-THz 대역 mmWave 대역에 추가하면 6G 셀룰러 통신 용량은 늘어난다. 정의된 THz 대역 중 300GHz-3THz는 원적외선 (IR) 주파수 대역에 있다. 300GHz-3THz 대역은 광 대역의 일부이지만 광 대역의 경계에 있으며, RF 대역 바로 뒤에 있다. 따라서, 이 300 GHz-3 THz 대역은 RF와 유사성을 나타낸다.
THz 통신의 주요 특성은 (i) 매우 높은 데이터 전송률을 지원하기 위해 광범위하게 사용 가능한 대역폭, (ii) 고주파에서 발생하는 높은 경로 손실 (고 지향성 안테나는 필수 불가결)을 포함한다. 높은 지향성 안테나에서 생성된 좁은 빔 폭은 간섭을 줄인다. THz 신호의 작은 파장은 훨씬 더 많은 수의 안테나 소자가 이 대역에서 동작하는 장치 및 BS에 통합될 수 있게 한다. 이를 통해 범위 제한을 극복할 수 있는 고급 적응형 배열 기술을 사용할 수 있다.
테라헤르츠(THz) 무선통신
도 10은 본 개시에 적용 가능한 THz 통신 방법을 도시한 도면이다.
도 10을 참조하면, THz 무선통신은 대략 0.1~10THz(1THz=1012Hz)의 진동수를 가지는 THz파를 이용하여 무선통신을 이용하는 것으로, 100GHz 이상의 매우 높은 캐리어 주파수를 사용하는 테라헤르츠(THz) 대역 무선통신을 의미할 수 있다. THz파는 RF(Radio Frequency)/밀리미터(mm)와 적외선 대역 사이에 위치하며, (i) 가시광/적외선에 비해 비금속/비분극성 물질을 잘 투과하며 RF/밀리미터파에 비해 파장이 짧아 높은 직진성을 가지며 빔 집속이 가능할 수 있다.
인공 지능(Artificial Intelligence) 시스템
도 11은 본 개시에 적용 가능한 인공 신경망에 포함되는 퍼셉트론(perceptron)의 구조를 도시한다. 또한, 도 12는 본 개시에 적용 가능한 인공 신경망 구조를 도시한다.
상술한 바와 같이, 6G 시스템에서 인공 지능 시스템이 적용될 수 있다. 이때, 일 예로, 인공 지능 시스템은 인간의 뇌에 해당하는 러닝 모델에 기초하여 동작할 수 있으며, 이는 상술한 바와 같다. 이때, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한, 학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural network, DNN), 합성곱 신경망(convolutional deep neural network, CNN), 순환 신경망(recurrent neural network, RNN) 방식이 있다. 이때, 일 예로, 도 11을 참조하면, 인공 신경망은 여러 개의 퍼셉트론들로 구성될 수 있다. 이때, 입력 벡터 x={x1, x2, …, xd}가 입력되면, 각 성분에 가중치 {W1, W2, …, Wd}가 곱해지고, 그 결과를 모두 합산한 후, 활성함수 σ(·)를 적용하는 전체 과정은 퍼셉트론이라 불리울 수 있다. 거대한 인공 신경망 구조는 도 11에 도시한 단순화된 퍼셉트론 구조를 확장하면, 입력벡터는 서로 다른 다 차원의 퍼셉트론에 적용될 수 있다. 설명의 편의를 위해 입력값 또는 출력값을 노드(node)라 칭한다.
한편, 도 11에 도시된 퍼셉트론 구조는 입력값, 출력값을 기준으로 총 3개의 층(layer)로 구성되는 것으로 설명될 수 있다. 1st layer와 2nd layer 사이에는 (d+1) 차원의 퍼셉트론 H개, 2nd layer와 3rd layer 사이에는 (H+1)차원 퍼셉트론이 K 개 존재하는 인공 신경망은 도 12와 같이 표현될 수 있다.
이때, 입력벡터가 위치하는 층을 입력층(input layer), 최종 출력값이 위치하는 층을 출력층(output layer), 입력층과 출력층 사이에 위치하는 모든 층을 은닉층(hidden layer)라 한다. 일 예로, 도 12에서 3개의 층이 개시되나, 실제 인공 신경망 층의 개수를 카운트할 때는 입력층을 제외하고 카운트하므로, 도 12에 예시된 인공 신경망은 총 2개의 층으로 이해될 수 있다. 인공 신경망은 기본 블록의 퍼셉트론을 2차원적으로 연결되어 구성된다.
전술한 입력층, 은닉층, 출력층은 다층 퍼셉트론 뿐 아니라 후술할 CNN, RNN 등 다양한 인공 신경망 구조에서 공동적으로 적용될 수 있다. 은닉층의 개수가 많아질수록 인공 신경망이 깊어진 것이며, 충분히 깊어진 인공 신경망을 러닝모델로 사용하는 머신러닝 패러다임을 딥러닝(deep learning)이라 할 수 있다. 또한 딥러닝을 위해 사용하는 인공 신경망을 심층 신경망(deep neural network, DNN)이라 할 수 있다.
도 13은 본 개시에 적용 가능한 심층 신경망을 도시한다.
도 13을 참조하면, 심층 신경망은 은닉층+출력층이 8개로 구성된 다층 퍼셉트론일 수 있다. 이때, 다층 퍼셉트론 구조를 완전 연결 신경망(fully-connected neural network)이라 표현할 수 있다. 완전 연결 신경망은 서로 같은 층에 위치하는 노드 간에는 연결 관계가 존재하지 않으며, 인접한 층에 위치한 노드들 간에만 연결 관계가 존재할 수 있다. DNN은 완전 연결 신경망 구조를 가지고 다수의 은닉층과 활성함수들의 조합으로 구성되어 입력과 출력 사이의 상관관계 특성을 파악하는데 유용하게 적용될 수 있다. 여기서 상관관계 특성은 입출력의 결합 확률(joint probability)을 의미할 수 있다.
도 14는 본 개시에 적용 가능한 컨볼루션 신경망을 도시한다. 또한, 도 15는 본 개시에 적용 가능한 컨볼루션 신경망의 필터 연산을 도시한다.
일 예로, 복수의 퍼셉트론을 서로 어떻게 연결하느냐에 따라 전술한 DNN과 다른 다양한 인공 신경망 구조를 형성할 수 있다. 이때, DNN은 하나의 층 내부에 위치한 노드들이 1차원적의 세로 방향으로 배치되어 있다. 그러나, 도 14를 참조하면, 노드들이 2차원적으로 가로 w개, 세로 h개의 노드가 배치할 경우를 가정할 수 있다. (도 14의 컨볼루션 신경망 구조). 이 경우, 하나의 입력 노드에서 은닉층으로 이어지는 연결과정에서 연결 하나당 가중치가 부가되므로, 총 h×w 개의 가중치가 고려되어야 한다. 입력층에 h×w 개의 노드가 존재하므로, 인접한 두 층 사이에는 총 h2w2개의 가중치가 필요할 수 있다.
또한, 도 14의 컨볼루션 신경망은 연결개수에 따라 가중치의 개수가 기하급수적으로 증가하는 문제가 있어 인접한 층 간의 모든 모드의 연결을 고려하는 대신, 크기가 작은 필터(filter)가 존재하는 것으로 가정할 수 있다. 일 예로, 도 15에서와 같이 필터가 겹치는 부분에 대해서는 가중합 및 활성함수 연산을 수행하도록 할 수 있다.
이때, 하나의 필터는 그 크기만큼의 개수에 해당하는 가중치를 가지며, 이미지 상의 어느 특정한 특징을 요인으로 추출하여 출력할 수 있도록 가중치의 학습이 이루어질 수 있다. 도 15에서는 3×3 크기의 필터가 입력층의 가장 좌측 상단 3×3 영역에 적용되고, 해당 노드에 대한 가중합 및 활성함수 연산을 수행한 결과 출력값은 z22에 저장될 수 있다.
이때, 상술한 필터는 입력층을 스캔하면서 가로, 세로 일정 간격만큼 이동하면서 가중합 및 활성함수 연산이 수행되고, 그 출력값은 현재 필터의 위치에 배치될 수 있다. 이러한 연산 방식은 컴퓨터 비전(computer vision) 분야에서 이미지에 대한 컨볼루션(convolution) 연산과 유사하므로, 이러한 구조의 심층 신경망은 컨볼루션 신경망(CNN: convolutional neural network)라 불리고, 컨볼루션 연산 결과 생성되는 은닉층은 컨볼루션 층(convolutional layer)라 불릴 수 있다. 또한, 복수의 컨볼루션 층이 존재하는 신경망을 심층 컨볼루션 신경망(deep convolutional neural network, DCNN)이라 할 수 있다.
또한, 컨볼루션 층에서는 현재 필터가 위치한 노드에서, 상기 필터가 커버하는 영역에 위치한 노드만을 포괄하여 가중합을 계산함으로써, 가중치의 개수가 감소될 수 있다. 이로 인해, 하나의 필터가 로컬(local) 영역에 대한 특징에 집중하도록 이용될 수 있다. 이에 따라, CNN은 2차원 영역 상의 물리적 거리가 중요한 판단 기준이 되는 이미지 데이터 처리에 효과적으로 적용될 수 있다. 한편, CNN은 컨볼루션 층의 직전에 복수의 필터가 적용될 수 있으며, 각 필터의 컨볼루션 연산을 통해 복수의 출력 결과를 생성할 수도 있다.
한편, 데이터 속성에 따라 시퀀스(sequence) 특성이 중요한 데이터들이 있을 수 있다. 이러한 시퀀스 데이터들의 길이 가변성, 선후 관계를 고려하여 데이터 시퀀스 상의 원소를 매 시점(timestep) 마다 하나씩 입력하고, 특정 시점에 출력된 은닉층의 출력 벡터(은닉 벡터)를, 시퀀스 상의 바로 다음 원소와 함께 입력하는 방식을 인공 신경망에 적용한 구조를 순환 신경망 구조라 할 수 있다.
도 16은 본 개시에 적용 가능한 순환 루프가 존재하는 신경망 구조를 도시한다. 도 17은 본 개시에 적용 가능한 순환 신경망의 동작 구조를 도시한다.
도 16을 참조하면, 순환 신경망(recurrent neural network, RNN)은 데이터 시퀀스 상의 어느 시선 t의 원소 {x1 (t), x2 (t), …, xd (t)}를 완전 연결 신경망에 입력하는 과정에서, 바로 이전 시점 t-1은 은닉 벡터 {z1 (t-1), z2 (t-1), …, zH (t-1)}을 함께 입력하여 가중합 및 활성함수를 적용하는 구조를 가질 수 있다. 이와 같이 은닉 벡터를 다음 시점으로 전달하는 이유는 앞선 시점들에서의 입력 벡터속 정보들이 현재 시점의 은닉 벡터에 누적된 것으로 간주하기 때문이다.
또한, 도 17을 참조하면, 순환 신경망은 입력되는 데이터 시퀀스에 대하여 소정의 시점 순서대로 동작할 수 있다. 이때, 시점 1에서의 입력 벡터 {x1 (t), x2 (t), …, xd (t)}가 순환 신경망에 입력되었을 때의 은닉 벡터 {z1 (1), z2 (1), …, zH (1)}가 시점 2의 입력 벡터 {x1 (2), x2 (2), …, xd (2)}와 함께 입력되어, 가중합 및 활성 함수를 통해 은닉층의 벡터 {z1 (2), z2 (2), …, zH (2)}가 결정된다. 이러한 과정은 시점 2, 시점 3, …, 시점 T까지 반복적으로 수행된다.
한편, 순환 신경망 내에서 복수의 은닉층이 배치될 경우, 이를 심층 순환 신경망(deep recurrent neural network, DRNN)라 한다. 순환 신경망은 시퀀스 데이터(예, 자연어 처리(natural language processing)에 유용하게 적용되도록 설계되어 있다.
학습(learning) 방식으로 사용하는 신경망 코어로서 DNN, CNN, RNN 외에 제한 볼츠만 머신(restricted Boltzmann machine, RBM), 심층 신뢰 신경망(deep belief networks, DBN), 심층 Q-네트워크(deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
최근에는 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer), 특히, 딥러닝의 경우, 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층(physical layer)으로 발전하고 있으며, 특히 물리 계층에서 딥러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리 계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라, AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.
본 발명의 구체적인 실시예
본 개시는 기지국과 단말이 인공지능(artificial intelligence, AI)/기계학습(machine learning, ML) 모델을 기반으로 물리 계층 통신하는 기술에 관련된다. 인공지능/기계학습 모델은 데이터를 기반으로 동작하고, 기지국 및 UE 간 무선 채널이 끊임 없이 변화하므로, 온라인 학습이 필요하다. 복수의 기지국들은 다중 전송 안테나를 통해 UE에게 기준 신호, 제어 채널 및 데이터 채널을 송신할 수 있다. 이러한 통신을 위해, 본 개시는 인공지능/기계학습 모델의 온라인 학습을 효율적으로 하는 기술을 제안한다.
복수의 기지국들 및 UE가 다중(multi)-TRP(transmission and reception point)를 통해 기준 신호, 제어 채널 및 데이터 채널 신호를 송수신하는 경우, 기지국 및 UE는 QCL(quasi-colocation)정보를 교환할 수 있다. QCL 정보에 기반하여, UE 및 기지국은 송수신 성능을 향상시킬 수 있다. 하지만, QCL 정보는 안테나의 형상과 더불어 송수신 수학적 모델, 기지국 기술 구현에 따라 기술된다. 물리 계층에 인공지능/기계학습 모델을 사용하는 경우, 실제 환경을 반영하는 데이터 기반의 동작이 아니므로 인공지능/기계학습 기술이 최대한 활용되지 못할 수 있다. 예를 들어, 2개의 전송 지점들이 QCL은 아니어도, 채널 환경이 비슷한 경우, 기지국 및 UE 간의 송수신에 통신 채널 연관이 존재할 수 있다.
또한, QCL 정보는 큰 스케일(large scale)에 수준의 1차 또는 2차 통계 정보의 유사성에 근거한다. 즉, QCL은 도플러 시프트(Doppler shift), 도플러 확산(Doppler spread), 평균 지연(average delay), 지연 확산(delay spread), 공간 수신 파라미터(patial RX Parameter) 중 적어도 하나를 반영한다. 그러므로, QCL 정보는 인공지능/기계학습, 특히 깊은 신경망이 가지는 고차원 표현(high-dimensional representation)에서 연관된 상호 정보를 반영하지 못한다. 예를 들어, 1차 또는 2차 통계를 넘어선 주파수, 시간 측면의 프로파일 등이 동일한 경우, 딥러닝 신경망에서 해당 동일성을 파악할 수 있게 하는 것이 필요하다.
전술한 문제를 해결하기 위해, 본 개시는, 위치에 대한 정적인 상호 연관 개념인 코로케이션(colocation)을 넘어, UE의 인공지능/기계학습 모델의 고차원 표현에서 상호 연관을 기지국 및 UE가 약속하는 방안을 제안한다. 상호 연관을 포착하기 위해, 인공지능/기계학습을 위한 메타 학습(meta learning) 이론이 이용될 수 있다. 메타 학습을 수행한 인공지능/기계학습의 모델은 작은 데이터를 기반으로 빠르게 새로운 태스크를 수행할 수 있는 장점을 가진 기법이다. 따라서, 메타 학습은 시변하는 채널과 관련된 물리 계층 제어 및 데이터 신호를 처리하는데 적합할 것이다.
QCL 정보와 달리, 다양한 실시예에 따른 데이터 기반의 인공지능/기계학습 모델은 실제 측정한 정보를 이용할 수 있다. 온라인 학습을 통해 기존 통신 보다 더 좋은 성능을 확보하기 위해서, 실제 채널 데이터와 인공지능/기계학습을 결합하는 것이 바람직하기 때문이다.
메타 학습은 여러 태스크(task)들을 위해 사전에 훈련된 신경망을 이용하여 새로운 태스크에 대한 회귀(regression), 분류(classification) 등의 추론(inference)을 잘 수행할 수 있도록 하는 학습 기법이다. 즉, 메타 학습은, 새로운 태스크에 대해 학습 및 추론을 잘 수행할 수 있게 하는, 학습을 위한 학습 (learn-to-learn)으로 이해될 수 있다.
메타 학습에서, 태스크들을 통해 사전에 훈련된 신경망의 모델의 가중치는 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000001
라고 불리우고, 메타 모델 파라미터를 학습하는 것은 메타 훈련(meta-training)으로 정의된다. 새로운 태스크를 접하면, 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000002
는 새로운 태스크에 적응된 모델 파라미터
Figure PCTKR2023000658-appb-img-000003
로 재학습되고, 적응된 모델 파라미터
Figure PCTKR2023000658-appb-img-000004
를 기반으로 추론을 수행하는 것은 어뎁테이션(adaptation)이라고 불리운다. 본 개시에서, 태스크를 위한 모델 파라미터는, 메타 모델 파라미터와 구분하기 위해, 태스크 모델 파라미터라 지칭될 수 있다.
메타 학습을 보다 직관적인 예시를 통해 설명하면 도 18과 같다. 도 18은 본 개시에 적용 가능한 메타 학습의 개념을 도시한다. 도 18을 참고하면, 실시자는 '자전거 타기'(1802)라는 새로운 태스크를 처리하고자 한다. 사전에 '어떤 것을 타는 동작'을 기존의 태스크들로서 사전에 메타 훈련을 수행한 경우, 실시자는 자전거를 쉽게 탈 수 있을 것이다. 새로운 태스크가 주어지기 전에 말 타기(1812), 서핑 보드 타기(1814), 전기 일륜 자전거 타기(1816) 등의 태스크들에 대한 훈련을 통해 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000005
가 학습된 경우, 자전거를 타는 새로운 태스크에 대한 어뎁테이션은 비교적 용이하게 수행될 수 있을 것이다. 어떤 타는 것에 대한 학습이 가장 최적으로 잘 훈련된 모델 파라미터
Figure PCTKR2023000658-appb-img-000006
가 주어 진다면, 새로운 태스크를 수행할 수 있는 모델 파라미터
Figure PCTKR2023000658-appb-img-000007
는 이하 [수학식 1]과 같이 결정될 수 있다.
Figure PCTKR2023000658-appb-img-000008
[수학식 1]에서,
Figure PCTKR2023000658-appb-img-000009
는 새로운 태스크를 위한 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000010
는 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000011
는 메타 테스트를 위한 데이터 세트,
Figure PCTKR2023000658-appb-img-000012
은 최적의 메타 모델 파라미터를 의미한다. 즉, [수학식 1]에 따르면, 데이터 세트 및 최적의 메타 모델 파라미터가 주어진 조건에서, 목표 태스크를 위한 모델을 확률적으로 최적화하는 태스크 모델 파라미터가 새로운 태스크를 위한 태스크 모델 파라미터로서 결정될 수 있다.
확률 모델링의 관점에서 살펴보면, 수많은 태스크들이 존재하는 경우의 태스크 확률 분포
Figure PCTKR2023000658-appb-img-000013
가 고려될 수 있다. 태스크 확률 분포
Figure PCTKR2023000658-appb-img-000014
에서 데이터를 수집하고, 모델
Figure PCTKR2023000658-appb-img-000015
를 기반으로 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000016
가 학습될 수 있다. 이때, 태스크는 [수학식 2]와 같이 정의될 수 있다.
Figure PCTKR2023000658-appb-img-000017
[수학식 2]에서,
Figure PCTKR2023000658-appb-img-000018
는 태스크,
Figure PCTKR2023000658-appb-img-000019
은 손실 함수,
Figure PCTKR2023000658-appb-img-000020
는 신경망 모델,
Figure PCTKR2023000658-appb-img-000021
는 관련된 데이터 세트,
Figure PCTKR2023000658-appb-img-000022
는 태스크 데이터의 조건부 천이 확률,
Figure PCTKR2023000658-appb-img-000023
는 해당 태스크의 시간적인 길이를 의미한다. 메타 훈련에서 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000024
를 학습하기 위한 목표 함수 및 태스크 분포에서의 데이터 세트는 [수학식 3]과 같이 정의될 수 있다.
Figure PCTKR2023000658-appb-img-000025
[수학식 2]에서,
Figure PCTKR2023000658-appb-img-000026
는 최적의 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000027
는 평균 연산자,
Figure PCTKR2023000658-appb-img-000028
는 관련된 데이터 세트,
Figure PCTKR2023000658-appb-img-000029
는 데이터 샘플,
Figure PCTKR2023000658-appb-img-000030
는 태스크
Figure PCTKR2023000658-appb-img-000031
에 대한 데이터 분포,
Figure PCTKR2023000658-appb-img-000032
은 손실 함수,
Figure PCTKR2023000658-appb-img-000033
는 메타 모델,
Figure PCTKR2023000658-appb-img-000034
은 메타 학습을 위해 선택된 데이터 세트,
Figure PCTKR2023000658-appb-img-000035
는 메타 모델 파라미터를 의미한다.
도 19a 및 도 19b는 본 개시에 적용 가능한 메타 학습을 위한 데이터 세트들의 예를 도시한다. 도 19a 및 도 19b를 참고하면, 메타 훈련에서 데이터 세트(예: 메타-훈련 세트, 메타-테스트 세트)는 서로 다른 복수의 태스크들의 데이터 세트들을 포함한다. 그리고. 하나의 태스크 안에서, 데이터 세트는 훈련 세트(training set)(1922)(예: Dtr), 테스트 세트(test set)(1924)(예: Dts)를 포함할 수 있다. 이러한 여러 개의 개별 태스크 데이터가 모임으로써 메타 훈련 세트(meta-training set)가 결정될 수 있다. 예를 들어, 송신기 및 수신기는 훈련 세트(1922)를 이용하여 내부 루프(inner loop)를 통해 태스크 별 태스크 모델 파라미터들을 결정하고, 테스트 세트(1924)를 이용하여 외부 루프(outer loop)를 통해 메타 모델 파라미터를 결정할 수 있다.
새로운 특정한 태스크를 위한 어뎁테이션은 최적의 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000036
를 기반으로 해당 특정한 태스크에 대한 메타 테스트(meta test) 데이터 세트를 가장 잘 설명하는 조건부 확률 값을 최대화하는 것이다. 메타 테스트 데이터 세트도 훈련 세트(1932) 및 테스트 세트(1934)로 나뉜다. 여기서, 훈련 세트(1932)는 주로 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000037
로부터 새로운 태스크를 위한 태스크 모델 파라미터
Figure PCTKR2023000658-appb-img-000038
를 학습하기 위해 소비된다. 테스트 세트(1934)는 실제 태스크를 수행하는 작업을 위해 사용된다. 여기서, 최적의 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000039
를 결정하는 과정이 메타 훈련이다.
최적의 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000040
를 구하는 메타 학습 알고리즘은 크게 3개의 분류들로 나누어질 수 있다. 모델(예: 블랙박스) 기반 방법, 최적화 기반 방법, 비모수적(non-parametric) 방법 등이 제안되었다. 이 3개의 방법들은 다음과 같은 공통점이 있다. 첫째, 여러 태스크들의 분포에서 얻은 데이터를 일반화(generalization)한다. 둘째, 메타 태스크 데이터 세트에서 태스크 하나를 샘플링하고, 관련 태스크 데이터 Dtr 및 Dts를 이용하여 학습을 반복적으로 수행한다.
메타 학습 알고리즘과 내부 및 외부 루프는 다음과 같다.
모델 기반 방법은 샘플된 특정 태스크 i를 잘 설명하는 또 다른 모델 혹은 신경망
Figure PCTKR2023000658-appb-img-000041
을 이용하여
Figure PCTKR2023000658-appb-img-000042
를 결정한다. 최적화 기반 방법은 태스크 i를 가장 잘 설명하는 모델을 따로 두지 아니하고, 현재 모델의 그래디언트(gradient) 정보를 이용하여
Figure PCTKR2023000658-appb-img-000043
를 결정한다. 비모수적 방법은 태스크 i의
Figure PCTKR2023000658-appb-img-000044
의 특징(feature)를 잘 설명하는 모델을 고려한다.
메타 학습은 데이터 세트가 긴 꼬리 분포를 가질 때 좋은 성능을 보여 준다. 긴 꼬리 분포를 가지는 데이터 세트의 경우, 분류를 기준으로 볼 때, 클래스가 아주 많고, 각 클래스 안에서의 데이터 사이즈는 매우 작다. 메타 학습은 작은 데이터 세트에서도 좋은 성능을 보인다. 가장 유용한 응용 예는 퓨-샷 학습(few-shot learning)이다. 몇 개의 이미지들만을 보여주더라도, 메타 학습을 수행한 뒤 이미지를 식별하면, 뛰어난 성능이 달성된다.
메타 학습 알고리즘은 모델 기반 접근법(model-based approach), 최적화 기반 접근법(optimization-based approach), 비모수적인 접근법(non-parametric approach)으로 나눌 수 있다. 각 알고리즘은 다음과 같이 표현될 수 있다.
알고리즘 내용
모델 기반 접근법 1. Sample Task i
2. Sample data set Di tr, Di ts
3. Compute
Figure PCTKR2023000658-appb-img-000045
←fθ(Di tr)
4. update θ using ▽θL(
Figure PCTKR2023000658-appb-img-000046
,Di ts)
5. return to 1.
최적화 기반 접근법 1. Sample Task i
2. Sample data set Di tr, Di ts
3. Optimize
Figure PCTKR2023000658-appb-img-000047
←▽θL(θ,Di tr)
4. update θ using ▽θL(
Figure PCTKR2023000658-appb-img-000048
,Di ts)
5. return to 1.
비모수적인 접근법 1. Sample Task i
2. Sample data set Di tr, Di ts
3. Compute
Figure PCTKR2023000658-appb-img-000049

4. update θ using ▽θL(
Figure PCTKR2023000658-appb-img-000050
)
5. return to 1.
메타 학습의 알고리즘들의 공통점은 동작#3에서 여러 개별 태스크 i의 반복을 통해
Figure PCTKR2023000658-appb-img-000051
를 결정하는 내부 루프(inner-loop) 및 내부 루프를 기반으로 동작#4 및 동작#1을 아우르며
Figure PCTKR2023000658-appb-img-000052
를 이용하여
Figure PCTKR2023000658-appb-img-000053
를 결정하는 외부 루프(outer-loop)로 이루어진다는 것이다.
Figure PCTKR2023000658-appb-img-000054
는 태스크의 분포를 가장 잘 일반화(generalization)하는 파라미터를 의미한다. 이와 같이, 메타 학습은 2개의 레벨들의 계층적 파라미터 학습으로 이해될 수 있다.
본 개시의 다양한 실시예들에 따른 메타 학습 태스크들은 동기 신호(synchronization signal), 기준 신호(reference signal), 제어 채널, 데이터 채널에 관련될 수 있다. 즉, 본 개시는 통신에서 동기 신호, 기준 신호, 제어 채널, 데이터 채널 중 적어도 하나에 관련된 송수신 태스크의 메타 학습에 관한 것이다. 본 개시는 신호의 목적에 따라 수행해야 하는 기존 통신의 동작을 태스크로 정의한다. 예를 들어, 채널 추정은 기준 신호를 입력으로 취하는 인공지능/기계학습 모델을 이용하여 채널을 추정하는 동작으로서, 인공지능/기계학습 모델에서 추론 태스크(inference task)에 해당한다. 기지국 및 UE가 제어 채널이나 데이터 비트를 수신하는 것은 인공지능/기계학습 모델에서 분류 태스크(classification task)에 해당한다. 구체적으로, 송수신 태스크는 동기 신호 또는 기준 신호를 이용한 채널 추정, 데이터 신호의 처리(예: 인코딩/디코딩, 변조/복조 등), 빔 관리, 동기화 등 다양한 통신을 위한 절차들을 위해 정의될 수 있다.
UE 및 기지국은 송신 동작 및 수신 동작을 수행하는 동안 다양한 태스크들을 수행할 수 있으며, 이는 다중 태스크가 동시에 수행되는 것으로 이해될 수 있다. 기지국이 다중 TRP를 운용하는 경우, TRP 별로 전송되는 하나의 동기 신호 또는 기준 신호는 하나의 신호 태스크를 통해 송수신될 수 있다. 그러므로, 복수의 TRP들은 복수의 신호 태스크들에 대응한다. 제어 채널 및 데이터 채널을 송수신하기 위한 인공지능/기계학습 모델의 태스크는 동기 신호 또는 기준 신호 태스크와 연관될 수 있다. 또한, 제어 채널 및 데이터 채널에 연관된 모든 태스크들은 메타 학습 기반으로 처리될 수 있다. 기준 신호, 제어 신호 및 데이터 신호를 위한 태스크 집합
Figure PCTKR2023000658-appb-img-000055
는 온라인 학습에서 특정한 시간 구간
Figure PCTKR2023000658-appb-img-000056
에서 연속적으로 정의될 수 있다.
본 개시는 메타 학습에 관련된 개념으로서 메타 상호연관(meta-correlation, MCR)을 정의한다. 다중 포인트에서 송신되는 신호의 상호연관성은, QCL 정보에 의해 표현되나, 인공지능/기계학습의 관점에서 다중 포인트의 복수의 태스크들 간 연관성으로 해석될 수 있다. 따라서, 본 개시는 복수의 태스크들의 연관성을 메타 학습의 관점에서 다루고자 한다. 메타 학습 모델 파라미터
Figure PCTKR2023000658-appb-img-000057
가 각 포인트에 관련된 태스크 집합에 포함되는 태스크들의 모델 파라미터들
Figure PCTKR2023000658-appb-img-000058
,
Figure PCTKR2023000658-appb-img-000059
,…,
Figure PCTKR2023000658-appb-img-000060
간 연관성을 반영하고 있다면, 태스크들 간 연관성은 메타 상호연관으로 정의될 수 있다. 다중 포인트 태스크를 반영한 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000061
를 기반으로 임의의 다중 포인트 태스크의 모델 파라미터
Figure PCTKR2023000658-appb-img-000062
에 대한 적응이 빠르게 수행될 수 있다.
즉, 인공지능/기계학습 모델
Figure PCTKR2023000658-appb-img-000063
를 사용하는 기지국 및 UE의 송수신 동작들에 대한 메타 상호연관은, 다중 TRP에서 송신되는 기준 신호, 제어 신호 및 데이터 신호를 위한 태스크 집합
Figure PCTKR2023000658-appb-img-000064
에 포함되는 태스크들 간의 특징(feature) 또는 깊은 표현(deep representation) 수준에서 상호연관성으로 정의될 수 있다. 기지국 및 UE는 다중 TRP에 대한 태스크들의 메타 상호연관에 관한 정보를 교환 및 이용함으로써 송수신 태스크의 성능을 높일 수 있다. 메타 상호연관은 QCL 정보를 이용하여 결정될 수 있고, 추가적으로 UE의 측정 리포트(measurement report)를 통해 기지국에게 전달되는 실제 통신 환경에서 얻어진 데이터를 이용하여 결정될 수 있다. 기지국은 결정된 메타 상호연관에 관련된 정보를 다른 UE들에게 전달함으로써 태스크의 수행 속도 및 성능을 높일 수 있다. 본 개시에서 제안하는 메타 상호연관은 TRP들 간의 연관성을 나타낼 수 있다. 하지만, 메타 상호연관은 TRP들 뿐만 아니라 포트(port)들 간의 연관성을 설명 또는 표현하기 위해 적용될 수 있다. 다만, 이하 설명의 편의를 위해, 메타 상호연관이 적용되는 대상들의 예로서 TRP들이 제시된다.
목표 태스크
Figure PCTKR2023000658-appb-img-000065
에 대한 메타 상호연관은 다중 TRP의 태스크들의 모델 파라미터들
Figure PCTKR2023000658-appb-img-000066
,
Figure PCTKR2023000658-appb-img-000067
,…,
Figure PCTKR2023000658-appb-img-000068
의 가중치 조합(weighted combination)에 대한 복수의 메타 파라미터 값
Figure PCTKR2023000658-appb-img-000069
에 대한 후보들을 대상으로 특정 태스크
Figure PCTKR2023000658-appb-img-000070
의 손실 또는 성능을 측정함으로써 결정될 수 있다. 목표 태스크
Figure PCTKR2023000658-appb-img-000071
의 메타 상호연관은 다른 태스크들의 모델 파라미터들
Figure PCTKR2023000658-appb-img-000072
,
Figure PCTKR2023000658-appb-img-000073
,…,
Figure PCTKR2023000658-appb-img-000074
간 메타 상호연관(meta-correlation) 벡터
Figure PCTKR2023000658-appb-img-000075
의 후보들 중 가장 최적인 벡터
Figure PCTKR2023000658-appb-img-000076
로 표현될 수 있다.
Figure PCTKR2023000658-appb-img-000077
[수학식 4]에서,
Figure PCTKR2023000658-appb-img-000078
는 태스크i의 다른 태스크들에 대한 메타 상호연관 정보,
Figure PCTKR2023000658-appb-img-000079
는 메타 상호연관 벡터,
Figure PCTKR2023000658-appb-img-000080
는 태스크i를 위한 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000081
는 태스크i를 위한 테스트 데이터 세트,
Figure PCTKR2023000658-appb-img-000082
는 메타 상호연관 벡터에 기반한 메타 모델 파라미터를 의미한다.
Figure PCTKR2023000658-appb-img-000083
[수학식 5]에서,
Figure PCTKR2023000658-appb-img-000084
는 메타 상호연관 벡터에 기반한 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000085
는 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000086
는 메타 상호연관 벡터,
Figure PCTKR2023000658-appb-img-000087
는 메타 상호연관 벡터의 i번째 원소,
Figure PCTKR2023000658-appb-img-000088
는 태스크i를 위한 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000089
는 태스크i를 위한 훈련 데이터 세트,
Figure PCTKR2023000658-appb-img-000090
는 메타 모델을 의미한다.
[수학식 4] 및 [수학식 5]를 참고하면, 목표 태스크에 가장 도움이 되는 다른 태스크들의 데이터의 기여가 메타 학습에 반영될 수 있다. 예를 들어, SSB(synchronization signal and physical broadcast channel block)에 관련된 2개의 태스크들
Figure PCTKR2023000658-appb-img-000091
Figure PCTKR2023000658-appb-img-000092
와 CSI-RS에 관련된 3개의 태스크들
Figure PCTKR2023000658-appb-img-000093
,
Figure PCTKR2023000658-appb-img-000094
,
Figure PCTKR2023000658-appb-img-000095
가 존재하는 경우, 목표 태스크가 CSI-RS에 관련된 태스크
Figure PCTKR2023000658-appb-img-000096
이면, 다른 4개의 태스크들 각각에 대한 연관성을 지시하는 값들, 즉, 메타 상호연관 값들을 포함하는 메타 상호연관 벡터
Figure PCTKR2023000658-appb-img-000097
가 결정될 수 있다. 메타 상호연관 벡터의 원소들로서 0 내지 1 범위의 실수 가중치 값이 아닌 태스크의 기여 여부만을 지시하는 값(예: 0 또는 1)들을 이용하면, 메타 학습 태스크에 도움되는 다중 TRP의 송수신 태스크들을 구분하는 것이 가능하다. 이에 따라, 일 실시예에 따라, UE는 최적의 벡터
Figure PCTKR2023000658-appb-img-000098
에 관련된 정보를 수신하고, 최적의 벡터
Figure PCTKR2023000658-appb-img-000099
에 기반하여 현재 태스크
Figure PCTKR2023000658-appb-img-000100
에 가장 도움이 되는 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000101
을 상대적으로 적은 연산을 통해 결정하고, 태스크 어뎁테이션을 수행할 수 있다.
채널은 UE의 안테나, 위치, 속도, 가속도를 포함한 운동 벡터, 자세(posture), 자세와 관련된 각속도, 회전 속도, 지형, UE 주위 이동체의 영향 등에 종속될 수 있다. 나열된 특성이 유사한 UE들은 하나의 논리적 단위인 그룹으로 묶일 수 있다. 본 개시는 나열된 특성들의 조합을 UE 채널 컨텍스트(UE channel context) 또는 UE 컨텍스트(UE context)로 정의한다. UE 컨텍스트는 채널 연관성이 높은 복수의 UE들을 식별하거나 또는 특정한 지형을 공유하는 복수의 UE들을 식별하기 위해 사용될 수 있다. 나아가, 메타 상호연관은 UE 컨텍스트 별로 식별될 수 있다. 메타 상호연관을 식별하기 위해 지원 가능한 UE 컨텍스트들은 기지국 및 UE의 협의에 의해 결정될 수 있다.
예를 들어, 도로변에서 걷는 보행자가 소지한 제1 UE 및 빠른 속도로 이동하는 자동차에 포함된 제2 UE가 2개 그룹들로 나누어질 수 있다. 지연 확산은 유사할 수 있으나, 제1 UE 및 제2 UE는 속도 차이에 의해 2개의 그룹들로 나뉘어질 수 있다. 다른 예로, 사무실 환경의 제3 UE 및 빌딩 밖의 제4 UE가 채널 프로파일에 의해 구분될 수 있다. 이 경우, 제3 UE 및 제4 UE의 채널 프로파일들이 서로 다를 수 있다. UE 채널 컨텍스트는 UE의 안테나와 하드웨어 형태에 따라서도 달라질 수 있다. 작은 IoT 디바이스 형태의 UE, 차량에 탑재된 UE는 서로 다른 형태의 안테나를 보유하므로, 높은 확률로 서로 다른 채널들을 경험할 것이다.
도 20은 본 개시의 일 실시예에 따른 메타 학습을 지원하는 장치들의 기능적 구조들을 도시한다. 도 20은 일 실시예에 따라 통신을 수행하는 두 장치들(2010, 2020) 중 제1 장치(2010)는 송신기로서, 제2 장치(2020)는 수신기로서 기능하는 경우의 송수신 모델을 예시한다. 하향링크 통신의 경우, 제1 장치(2010)는 기지국, 제2 장치(2020)는 UE로 이해될 수 있다. 상향링크 통신의 경우, 제1 장치(2010)는 UE, 제2 장치(2020)는 기지국으로 이해될 수 있다.
도 20을 참고하면, 제1 장치(2010)는 송신 엔티티(transmit entity)(2011), 메타 훈련부(meta trainer)(2012), 메타 송신기(2013), 어뎁테이션 블록(2014), 태스크 송신기(2015)를 포함한다. 송신 엔티티(2011)는 데이터 송신을 위한 전반적인 제어 및 처리를 수행한다. 예를 들어, 송신 엔티티(2011)는 송신 데이터를 생성하고, 다른 블록들의 동작에 필요한 정보를 제공할 수 있다. 구체적으로, 송신 엔티티(2011)는 태스크 데이터(task data)를 메타 훈련부(2012)에게 제공하고, 메시지 S를 메타 송신기(2015)에게 제공할 수 있다. 이때, 송신 엔티티(2011)는 제2 장치(2020)로부터 수신되는 피드백 정보(예: 측정 보고, CSI 정보, 손실 정보 등)를 이용하여 메타 학습 동작을 제어할 수 있다. 메타 훈련부(2012)는 메타 학습을 수행함으로써 메타 모델 파라미터를 결정하고, 메타 송신기(2013)는 메타 학습을 통해 결정된 메타 모델 파라미터를 보유한다. 어뎁테이션 블록(2014)는 메타 모델 파라미터에 대한 어뎁테이션을 수행함으로써 주어진 태스크를 위한 태스크 모델 파라미터를 결정하고, 태스크 송신기(2015)는 어뎁테이션을 통해 결정된 적응된 태스크 모델 파라미터를 이용하여 메시지 및 적어도 하나의 기준 신호를 해당 태스크에 따라 처리한다. 일 실시예에 따라, 메타 모델 파라미터 및 태스크 모델 파라미터를 결정하기 위해, 메타 상호연관 정보(예: 메타 상호연관 벡터) 및 다른 태스크들의 태스크 모델 파라미터들이 사용될 수 있다.
도 20을 참고하면, 제2 장치(2020)는 수신 엔티티(receive entity)(2021), 메타 훈련부(2022), 메타 수신기(2023), 어뎁테이션 블록(2024), 태스크 수신기(2025), 송신 메타 제어(transmit meta control) 블록(2026)을 포함한다. 수신 엔티티(2021)는 데이터 수신을 위한 전반적인 제어 및 처리를 수행한다. 예를 들어, 수신 엔티티(2021)는 수신 메시지를 처리하고, 다른 블록들의 동작에 필요한 정보를 제공할 수 있다. 구체적으로, 수신 엔티티(2021)는 태스크 데이터(task data)를 메타 훈련부(2022)에게 제공하고, 메시지 S를 메타 수신기(2025)에게 제공할 수 있다. 메타 훈련부(2022)는 메타 학습을 수행함으로써 메타 모델 파라미터를 결정하고, 메타 수신기(2023)는 메타 학습을 통해 결정된 메타 모델 파라미터를 보유한다. 어뎁테이션 블록(2024)는 메타 모델 파라미터에 대한 어뎁테이션을 수행함으로써 주어진 태스크를 위한 태스크 모델 파라미터를 결정하고, 태스크 수신기(2025)는 어뎁테이션을 통해 결정된 적응된 태스크 모델 파라미터를 이용하여 메시지 및 적어도 하나의 기준 신호를 해당 태스크에 따라 처리함으로써 메시지를 복원하고, 복원된 메시지
Figure PCTKR2023000658-appb-img-000102
를 수신 엔티티(2021)에게 제공한다. 송신 메타 제어 블록(2026)은 제1 장치(2010)의 송신 모델들에 대한 학습을 위한 정보를 생성하고, 생성된 정보를 포함하는 측정 보고를 제1 장치(2010)에게 송신한다. 일 실시예에 따라, 메타 모델 파라미터 및 태스크 모델 파라미터를 결정하기 위해, 메타 상호연관 정보(예: 메타 상호연관 벡터) 및 다른 태스크들의 태스크 모델 파라미터들이 사용될 수 있다.
도 20을 참고하면, 메타 모델은 하나 또는 다수의 메타 송신기(2013) 및 하나 또는 다수의 메타 수신기(2023)로 이루어질 수 있다. 메타 모델은 복수의 태스크들에 대한 메타 훈련을 통해 얻어진 일반화된 파라미터 값
Figure PCTKR2023000658-appb-img-000103
Figure PCTKR2023000658-appb-img-000104
을 포함한다. 이때,
Figure PCTKR2023000658-appb-img-000105
Figure PCTKR2023000658-appb-img-000106
은 메타 상호연관 정보에 기반하여 결정될 수 있다. 태스크 모델들은 하나 또는 다수의 하나의 태스크 송신기(2015) 및 하나 또는 다수의 태스크 수신기(2025)로 이루어질 수 있다. 태스크 모델들은 기준 신호 태스크마다 다른 파라미터를 가질 수 있다. 실제 메시지 S를 송신하는 경우, 메타 모델은 어뎁테이션(adaptation)을 통해 유도된 해당 채널 상황에 맞는 송신 및 수신 태스크 모델로 변환되고, 송신 및 수신 태스크 모델을 이용하여 메시지 S가 송수신될 수 있다. 최종적으로, 제2 장치(2020)는 메시지
Figure PCTKR2023000658-appb-img-000107
를 복원한다. 송신 엔티티(2011) 및 수신 엔티티(2021)는 데이터를 송신하고 수신하는 객체를 의미한다. 메타 학습부(2012) 및 메타 학습부(2022)는 송신 태스크 모델
Figure PCTKR2023000658-appb-img-000108
및 수신 태스크 모델
Figure PCTKR2023000658-appb-img-000109
의 정보를 이용하여 메타 파라미터
Figure PCTKR2023000658-appb-img-000110
Figure PCTKR2023000658-appb-img-000111
를 학습시킨다. 송신 메타 제어 블록(2026)은 송신기 모델을 훈련하기 위한 제2 장치(2020)의 제어부이다. 일 실시예에 따라, 송신 메타 제어 블록(2026)은 송신 모델을 훈련하기 위한 손실을 측정하며, 측정 보고를 통해 손실을 제1 장치(2010)로 피드백한다.
온라인 메타 학습을 수행하는 송신기 및 수신기는 2개의 프로세스들을 동시에 진행한다. 첫 번째 프로세스는 온라인 메타 훈련(meta-training process) 프로세스이다. 온라인 메타 훈련 프로세스는 현재 시점에서 가장 성능 좋은 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000112
를 탐색하는 것이다. 온라인 메타 훈련 프로세스는 내부 루프(inner-loop)를 통해 복수의 태스크들로부터 학습되는 송신기 및 수신기의 태스크 파라미터들 각각의
Figure PCTKR2023000658-appb-img-000113
를 결정한다. 또한, 온라인 메타 훈련 프로세스는 외부 루프(outer-loop)를 통해 태스크 파라미터들을 잘 일반화하는 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000114
를 결정한다. 두 번째 프로세스는 최신의 메타 파라미터
Figure PCTKR2023000658-appb-img-000115
에 기반하여 최근에 사용된 태스크로부터 얻어진 학습 데이터를 기반으로 어뎁테이션을 수행하고, 어뎁테이션에 의해 얻어진
Figure PCTKR2023000658-appb-img-000116
를 이용하여 송수신을 수행하는 것이다. 이때, 일 실시예에 따라, 송신기 및 수신기는 메타 상호연관에 기반하여 다른 태스크들의 파라미터들을 이용하여 목표 태스크를 위한 파라미터를 결정하는 방식의 메타 학습을 수행할 수 있다.
도 21은 본 발명의 일 실시예에 따라 송신기에 관련된 파라미터를 결정하는 절차를 도시한다. 도 21은 UE의 동작 방법을 예시하며, 예시된 동작들은 수신기(예: 도 20의 제2 장치(2020))의 동작들로 이해될 수 있다.
도 21을 참고하면, S2101 단계에서, UE는 능력 정보를 송신한다. 다시 말해, UE는 능력 정보를 포함하는 메시지를 송신한다. 능력 정보는 UE의 통신에 연관된 능력에 관련된 정보를 포함할 수 있다. 일 실시예에 따라, 능력 정보는 메타 학습에 관련된 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 정보는 적어도 하나의 인공지능/기계학습 모델에 관련된 정보, 적어도 하나의 태스크에 관련된 정보, 적어도 하나의 메타 학습 알고리즘을 지시하는 정보 중 적어도 하나를 포함할 수 있다. 나아가, 메타 학습에 관련된 정보는 메타 상호연관을 이용한 메타 학습에 관련될 수 있다. 도 21에 도시되지 아니하였으나, 능력 정보를 송신하기에 앞서, UE는 능력 정보를 요청하는 메시지를 기지국으로부터 수신할 수 있다.
S2103 단계에서, UE는 수신 동작에 관련된 설정 정보를 수신한다. 다시 말해, UE는 기지국에 의해 송신되는 신호들의 처리에 대한 설정 정보를 포함하는 메시지를 수신한다. 예를 들어, 설정 정보는 신호에 관련된 정보, 신호 처리에 관련된 정보, 신호 수신에 대응하는 후속 동작에 관련된 정보 중 적어도 하나를 포함할 수 있다. 구체적으로, 신호에 관련된 정보는 자원들에 관련된 정보, 신호의 물리적 형태(예: 구조, 값, 뉴머롤로지, 부호화율, 변조 차수 등)에 관련된 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에 따라, 설정 정보는 메타 학습에 관련된 설정 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 설정 정보는 메타 모델의 구조에 관련된 정보, 메타 모델 파라미터에 관련된 정보, 메타 학습 알고리즘에 관련된 정보, 메타 상호연관에 관련된 정보(예: 조합 가능한 태스크들 및 태스크들에 대한 연관성을 지시하는 값들), UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함할 수 있다. 다른 실시예에 따라, 메타 학습에 관련된 설정 정보는 별도의 메시지를 통해 송신될 수도 있다.
S2105 단계에서, UE는 설정 정보에 기반하여 신호들을 수신한다. 예를 들어, UE는 설정 정보에 의해 지시되는 자원들, 구조, 물리적 형태 중 적어도 하나에 따라 통해 신호들을 수신한다. 여기서, 신호는 동기 신호, 기준 신호, 데이터 채널 신호, 제어 채널 신호 중 하나를 포함할 수 있다. 예를 들어, 신호들 중 적어도 일부는 목표 태스크에 관련되며, 복수의 기회들(occasions)에 걸쳐 수신될 수 있다.
S2107 단계에서, UE는 수신 동작을 위한 적어도 하나의 파라미터를 결정한다. 예를 들어, UE는 신호를 처리하기 위한 수신기를 설정할 수 있다. 일 실시예에 따라, UE는 메타 학습을 수행할 수 있다. 이때, UE는 메타 상호연관을 이용하여 메타 학습을 수행할 수 있다. 구체적으로, UE는 메타 상호연관 정보에 기반하여 목표 태스크와 다른 적어도 하나의 태스크의 태스크 모델 파라미터의 목표 태스크로의 기여도를 결정하고, 결정된 기여도에 기반하여 적어도 하나의 다른 태스크를 선택한 후, 선택한 태스크의 태스크 모델 파라미터들에 기반하여 메타 모델 파라미터를 결정한다. 그리고, UE는 메타 모델 파라미터에 기반하여 어뎁테이션을 수행함으로써 목표 태스크를 위한 태스크 모델 파라미터를 결정할 수 있다. 즉, UE는 메타 상호연관 정보에 기반하여 목표 태스크를 위한 메타 모델 파라미터 및 태스크 모델 파라미터를 결정할 수 있다. 이때, 경우에 따라, 메타 상호연관 정보, 메타 모델 파라미터 중 적어도 하나가 갱신 또는 재결정될 수 있다.
S2109 단계에서, UE는 피드백 정보를 송신한다. UE는 수신 동작을 위한 적어도 하나의 파라미터를 결정한 후, 피드백 정보를 송신할 수 있다. 피드백 정보는 기준 신호에 대한 측정 결과, 데이터 신호에 대한 ACK/NACK(acknowledge/negative-acknowledge) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따라, 피드백 정보는 메타 상호연관에 관련된 정보, UE의 컨텍스트 정보 중 적어도 하나를 포함할 수 있다. 즉, UE는 메타 모델 파라미터를 결정하기 위해 사용된 적어도 하나의 태스크를 지시하는 메타 상호연관 정보, 메타 모델 파라미터, UE 컨텍스트 정보 중 적어도 하나를 포함하는 피드백 정보를 송신함으로써, 다른 UE의 메타 학습을 보조하기 위한 정보를 제공할 수 있다. 도 21에 도시되지 아니하였으나, 피드백 정보를 송신하기 전, UE는 기지국으로부터 피드백 정보의 송신에 대한 요청을 수신할 수 있다.
도 22는 본 발명의 일 실시예에 따라 수신기에 관련된 파라미터를 결정하는 절차를 도시한다. 도 22는 기지국의 동작 방법을 예시하며, 예시된 동작들은 수신기(예: 도 20의 제1 장치(2010))의 동작들로 이해될 수 있다.
도 22를 참고하면, S2201 단계에서, 기지국은 능력 정보를 수신한다. 다시 말해, 기지국은 UE로부터 능력 정보를 포함하는 메시지를 수신한다. 능력 정보는 UE의 통신에 연관된 능력에 관련된 정보를 포함할 수 있다. 일 실시예에 따라, 능력 정보는 메타 학습에 관련된 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 정보는 적어도 하나의 인공지능/기계학습 모델에 관련된 정보, 적어도 하나의 태스크에 관련된 정보, 적어도 하나의 메타 학습 알고리즘을 지시하는 정보 중 적어도 하나를 포함할 수 있다. 나아가, 메타 학습에 관련된 정보는 메타 상호연관을 이용한 메타 학습에 관련될 수 있다. 도 22에 도시되지 아니하였으나, 능력 정보를 수신하기에 앞서, 기지국은 능력 정보를 요청하는 메시지를 UE에게 송신할 수 있다.
S2203 단계에서, 기지국은 수신 동작에 관련된 설정 정보를 송신한다. 다시 말해, 기지국은 기지국에서 송신되는 신호들의 처리에 대한 설정 정보를 포함하는 메시지를 송신한다. 예를 들어, 설정 정보는 신호에 관련된 정보, 신호 처리에 관련된 정보, 신호 송신에 대응하는 후속 동작에 관련된 정보 중 적어도 하나를 포함할 수 있다. 구체적으로, 신호에 관련된 정보는 자원들에 관련된 정보, 신호의 물리적 형태(예: 구조, 값, 뉴머롤로지, 부호화율, 변조 차수 등)에 관련된 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에 따라, 설정 정보는 메타 학습에 관련된 설정 정보를 포함할 수 있다. 예를 들어, 메타 학습에 관련된 설정 정보는 메타 모델의 구조에 관련된 정보, 메타 모델 파라미터에 관련된 정보, 메타 학습 알고리즘에 관련된 정보, 메타 상호연관에 관련된 정보(예: 조합 가능한 태스크들 및 태스크들에 대한 연관성을 지시하는 값들), UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함할 수 있다. 다른 실시예에 따라, 메타 학습에 관련된 설정 정보는 별도의 메시지를 통해 송신될 수도 있다.
S2205 단계에서, 기지국은 설정 정보에 기반하여 신호들을 송신한다. 예를 들어, 기지국은 설정 정보에 의해 지시되는 자원들, 구조, 물리적 형태 중 적어도 하나에 따라 통해 신호들을 송신한다. 여기서, 신호는 동기 신호, 기준 신호, 데이터 채널 신호, 제어 채널 신호 중 하나를 포함할 수 있다. 예를 들어, 신호들 중 적어도 일부는 목표 태스크에 관련되며, 복수의 기회들에 걸쳐 송신될 수 있다.
S2207 단계에서, 기지국은 피드백 정보를 수신한다. 기지국은 수신 동작을 위한 적어도 하나의 파라미터를 결정한 UE로부터 피드백 정보를 수신할 수 있다. 피드백 정보는 기준 신호에 대한 측정 결과, 데이터 신호에 대한 ACK/NACK 중 적어도 하나를 포함할 수 있다. 일 실시예에 따라, 피드백 정보는 메타 상호연관에 관련된 정보, UE의 컨텍스트 정보 중 적어도 하나를 포함할 수 있다. 즉, 기지국은 UE에서 메타 모델 파라미터를 결정하기 위해 사용된 적어도 하나의 태스크를 지시하는 메타 상호연관 정보, 메타 모델 파라미터, UE 컨텍스트 정보를 중 적어도 하나를 포함하는 피드백 정보를 수신함으로써, 다른 UE의 메타 학습을 보조하기 위한 정보를 획득할 수 있다. 도 22에 도시되지 아니하였으나, 피드백 정보를 수신하기 전, 기지국은 UE에게 피드백 정보의 송신에 대한 요청을 송신할 수 있다.
도 23은 본 발명의 일 실시예에 따라 메타 모델 파라미터를 결정하는 절차를 도시한다. 도 23은 UE의 동작 방법을 예시하며, 예시된 동작들은 수신기(예: 도 20의 제2 장치(2020))의 동작들로 이해될 수 있다.
도 23을 참고하면, S2301 단계에서, UE는 메타 상호연관에 관련된 정보를 획득한다. 예를 들어, 메타 상호연관에 관련된 정보는 다른 UE에 의해 결정된 메타 상호연관 벡터에 관련된 정보로서, 적어도 하나의 메타 상호연관 벡터, 적어도 하나의 메타 상호연관 벡터에 기반하여 결정된 메타 모델 파라미터, 적어도 하나의 메타 상호연관 벡터의 각 원소에 맵핑되는 복수의 태스크들을 지시하는 정보 중 적어도 하나를 포함할 수 있다. 메타 상호연관 벡터에 관련된 정보가 복수의 메타 상호연관 벡터들을 포함하는 경우, 메타 상호연관 벡터들은 순위 또는 우선순위를 가질 수 있다. 일 실시예에 따라, UE는 기지국으로부터 메타 상호연관에 관련된 정보를 수신할 수 있다. 여기서, 다른 UE는 UE와 동일한 UE 컨텍스트를 가진 UE들 중 하나일 수 있다.
S2303 단계에서, UE는 메타 상호연관에 관련된 정보에 기반하여 메타 학습을 위한 태스크들을 결정한다. 즉, UE는 메타 모델 파라미터를 결정하기 위해 사용되는 태스크들을 결정한다. 일 실시예에 따라, UE는 S2301 단계에서 획득된 적어도 하나의 메타 상호연관 벡터에 의해 지시되는 태스크 집합을 선택할 수 있다. 다른 실시예에 따라, UE는 S2301 단계에서 획득된 적어도 하나의 메타 상호연관 벡터들에 기반하여 복수의 메타 상호연관 벡터 후보들을 결정하고, 복수의 메타 상호연관 벡터 후보들 중 하나를 선택할 수 있다. 예를 들어, 복수의 메타 상호연관 벡터 후보들은 S2301 단계에서 획득된 복수의 메타 상호연관 벡터들을 포함하거나, 또는 S2301 단계에서 획득된 적어도 하나의 메타 상호연관 벡터로부터 유도되는 복수의 메타 상호연관 벡터들을 포함할 수 있다.
S2305 단계에서, UE는 결정된 태스크들에 기반하여 메타 학습을 수행한다. 다시 말해, UE는 결정된 태스크들의 태스크 모델 파라미터들에 기반하여 메타 모델 파라미터를 결정한다. 메타 학습을 위해, UE는 기지국으로부터 수신되는 신호들을 이용하여 학습 데이터를 획득할 수 있다. 예를 들어, UE는 결정된 태스크들 각각에 대한 태스크 모델 파라미터들을 결정하고, 태스크 모델 파라미터들을 일반화하는 메타 모델 파라미터를 결정할 수 있다. 예를 들어, UE는 [수학식 3]과 같은 최적화 문제를 해결함으로써 메타 모델 파라미터를 결정할 수 있다.
이후, 도 23에 도시되지 아니하나, UE는 어뎁테이션을 수행함으로써 메타 모델 파라미터에 기반하여 태스크 모델 파라미터를 결정하고, 태스크 모델 파라미터를 이용하여 태스크를 수행할 수 있다. 다시 말해, UE는 태스크 모델 파라미터를 이용하여 태스크에 대응하는 신호를 처리(예: 채널 추정, 위상 보정, 위치 추정, 디코딩, 정보 획득 등)할 수 있다.
추가적으로, 도 23에 도시되지 아니하나, UE는 적용된 메타 상호연관에 관련된 정보를 송신할 수 있다. 이에 따라, 다른 UE는 UE에 의해 사용된 메타 상호연관 벡터를 이용하여 메타 학습을 보다 효과적으로 수행할 수 있다. 구체적으로, 기지국으로 송신된 메타 상호연관에 관련된 정보는 기지국에 의해 다른 UE, 예를 들어, 동일한 UE 컨텍스트를 가진 UE에게 제공되고, 사용될 수 있다. 즉, UE에 의해 기지국으로 피드백된 메타 상호연관에 관련된 정보는 다른 UE의 메타 학습을 보조하기 위해 사용될 수 있다.
도 23을 참고하여 설명한 실시예에서, UE는 메타 학습을 위해 결정된 태스크들을 위한 태스크 모델 파라미터들을 결정한다. 그러나, 다른 실시예에 따라, 태스크 모델 파라미터들은 기지국으로부터 제공될 수 있다. 이 경우, UE는 선택된 태스크들을 위한 태스크 모델 파라미터들을 결정함 없이, 수신된 태스크 모델 파라미터들을 이용하여 메타 모델 파라미터를 결정할 수 있다. 또는, 또 다른 실시예에 따라, 기지국으로부터 태스크 모델 파라미터들이 수신되더라도, UE는 수신된 태스크 모델 파라미터들을 갱신 또는 재결정한 후, 갱신 또는 재결정된 태스크 모델 파라미터들을 이용하여 메타 모델 파라미터를 결정할 수 있다.
도 24는 본 발명의 일 실시예에 따라 수신기를 위한 메타 상호연관에 기반한 메타 학습에 대한 능력 정보를 제공하기 위한 절차의 예를 도시한다. 도 24는 제1 장치(2410) 및 제2 장치(2420) 간 시그널링을 예시한다.
도 24를 참고하면, S2401 단계에서, 제1 장치(2410)는 제2 장치(2420)에게 메타 상호연관에 관련된 능력 정보를 요청하는 요청 메시지를 송신한다. 메타 학습 능력 요청 메시지는 제2 장치(2420)가 제1 장치(2420)에 접속한 후, 등록 절차 중 또는 등록 이후에 송신될 수 있다. 요청 메시지는 MCR 능력 요청 메시지 또는 능력 문의(capability inquiry) 메시지로 지칭될 수 있다.
S2403 단계에서, 제2 장치(2420)는 제1 장치(2410)에게 메타 상호연관에 관련된 능력 정보를 포함하는 응답 메시지를 송신한다. 응답 메시지는 MCR 능력 응답 메시지 또는 능력 정보(capability information) 메시지로 지칭될 수 있다. 응답 메시지는 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 신경망 모델을 지시하는 정보, 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 태스크를 지시하는 정보, 지원 가능한 적어도 하나의 메타 학습 알고리즘을 지시하는 정보 중 적어도 하나를 포함할 수 있다. 또한, 응답 메시지는 메타 상호연관 외 다른 통신에 관련된 다양한 능력 정보를 더 포함할 수 있다.
도 24를 참고하여 설명한 바와 같이, 제2 장치(2420)의 메타 상호연관에 관련된 능력 정보가 제공될 수 있다. 이에 더하여, 제2 장치(2420)의 메타 학습에 관련된 능력 정보가 함께 제공될 수 있다. 또한, 제1 장치(2410)의 메타 학습 또는 메타 상호연관에 관련된 능력 정보도 요청 메시지를 통해 제2 장치(2420)에게 제공될 수 있다. 따라서, 요청 메시지 및 응답 메시지에 포함되는 정보 요소(information element, IE)들 또는 파라미터들은 이하 [표 3]에 나열된 항목들 중 적어도 하나를 포함할 수 있다.
Information element Description
set of support models 메타 상호연관을 지원하는 인공지능/기계학습 모델 혹은 관련 식별자 집합
set of support tasks 메타 상호연관을 지원하는 태스크 혹은 관련 식별자 집합. 기준 신호, 제어 및 데이터 채널 신호에 대한 태스크 집합이다.
set of support meta-algorithms 지원 가능한 메타 러닝 알고리즘 집합 혹은 관련 식별자 집합
도 25는 본 발명의 일 실시예에 따라 메타 학습을 위한 정보를 설정하는 절차의 예를 도시한다. 도 25는 제1 장치(2510) 및 제2 장치(2520) 간 메타 학습을 위한 정보를 설정하기 위한 시그널링을 예시한다.
도 25를 참고하면, S2501 단계에서, 제1 장치(2510)는 제2 장치(2520)에게 메타 상호연관을 이용하는 메타 학습에 관련된 설정에 대한 요청 메시지를 송신한다. 즉, 제1 장치(2510)는 메타 상호연관을 이용하는 메타 학습을 수행할 것을 요청한다. 요청 메시지는 메타 상호연관 설정 요청(MRC setup request) 메시지 또는 메타 상호연관 재설정 요청(MRC reconfigure request) 메시지라 지칭될 수 있다. 요청 메시지는 메타 학습을 수행하기 위해 필요한 정보를 포함한다. 예를 들어, 요청 메시지는 메타 모델을 지시하는 정보, 메타 학습을 위해 사용 가능한 적어도 하나의 다른 태스크를 지시하는 정보, 메타 상호연관을 이루는 연관성 값을 지시하는 정보, 메타 학습의 알고리즘을 지시하는 정보, UE 컨텍스트를 지시하는 정보 중 적어도 하나를 포함할 수 있다.
S2503 단계에서, 제2 장치(2520)는 제1 장치(2510)에게 메타 상호연관을 이용하는 메타 학습의 설정에 대한 확인(confirm) 메시지를 송신한다. 즉, 제2 장치(2520)는 메타 상호연관을 이용하는 메타 학습을 수락을 알리는 응답을 송신한다. 확인 메시지는 메타 상호연관 설정 확인(MRC setup confirm) 메시지 또는 메타 상호연관 재설정 확인(MRC reconfigure confirm) 메시지라 지칭될 수 있다. 다시 말해, 제2 장치(2520)는 요청 메시지에 포함된 정보를 획득하였음을 또는 요청 메시지에 포함된 정보에 기반하여 학습에 필요한 설정을 완료하였음을 알리는 응답을 송신한다. 이후, 메타 학습을 위해, 다양한 신호들을 수신하는 절차가 수행될 수 있다.
도 25를 참고하여 설명한 바와 같이, 제2 장치(2520)가 메타 상호연관을 이용하는 메타 학습을 수행하기 위해 필요한 정보가 제공될 수 있다. 구체적으로, 요청 메시지 및 확인 메시지에 포함되는 정보 요소들 또는 파라미터들은 이하 [표 4]에 나열된 항목들 중 적어도 하나를 포함할 수 있다.
Information element Description
Meta-model 메타 모델 혹은 관련 식별자
set of meta-tasks associated with signals 다중 TRP 태스크 집합으로서, 각 태스크는 동기 신호, 기준 신호, 제어 채널 신호, 데이터 채널 신호 중에 하나 혹은 복수 정보 혹은 조합과 연결될 수 있음. 각 신호 정보는 안테나 포트 정보 를 포함할 수 있음.
Meta-correlations 다중 송수신 포인트 태스크 집합의 메타 상호연관
Meta-algorithm 메타 알고리즘 혹은 관련 식별자
set of UE contexts UE 컨텍스트 혹은 관련 식별자
도 26은 본 발명의 일 실시예에 따라 메타 학습 및 태스크를 수행하기 위한 절차의 다른 예를 도시한다. 도 26은 제1 장치(2610) 및 제2 장치(2620) 간 메타 학습을 위한 정보를 설정하기 위한 시그널링을 예시한다.
도 26은 참고하면, S2601 단계에서, 제1 장치(2610)는 메타 태스크들을 위한 신호들을 송신한다. 여기서, 신호들은 태스크에 따라 분류될 수 있다. 예를 들어, 신호들은 기준 신호, 제어 채널 신호, 데이터 채널 신호 중 적어도 하나를 포함할 수 있다. 신호들은 종류에 따라 다른 타이밍들에 송신될 수 있다. 신호들은 메타 학습을 위해 할당된 자원을 통해 송신되거나, 각 신호의 용도에 따른 스케줄링에 기반하여 송신될 수 있다. 신호들은 통신을 수행하는 과정에서 지속적으로 송신되며, 이하 메타 학습을 위해서 그리고 태스크 수행을 위해서 사용될 수 있다.
S2603 단계에서, 제2 장치(2620)는 메타 상호연관을 이용하여 메타 파라미터들을 획득하기 위한 메타 학습을 수행한다. 일 실시예에 따라, 제2 장치(2620)는 온라인 메타 학습을 특정한 시간 구간에 정의되는 다중 TRP 태스크 집합에 대한 메타 학습을 먼저 수행한다. 이어, 제2 장치(2620)는 메타 상호연관 정보
Figure PCTKR2023000658-appb-img-000117
에 기반하여 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000118
를 획득하기 위한 위한 훈련을 수행한다. 예를 들어, 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000119
는 이하 [수학식 6]과 같이 표현될 수 있다.
Figure PCTKR2023000658-appb-img-000120
[수학식 6]에서,
Figure PCTKR2023000658-appb-img-000121
는 메타 상호연관 벡터에 기반한 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000122
는 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000123
는 메타 상호연관 정보,
Figure PCTKR2023000658-appb-img-000124
는 메타 상호연관 벡터의 i번째 원소,
Figure PCTKR2023000658-appb-img-000125
는 태스크i를 위한 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000126
는 태스크i를 위한 훈련 데이터 세트,
Figure PCTKR2023000658-appb-img-000127
는 메타 모델을 의미한다.
즉, 제2 장치(2620)는 복수의 태스크들에 대한 태스크 모델 파라미터들을 결정하고, 복수의 태스크들의 상기 목표 태스크로의 기여도들을 결정하고, 기여도들에 기반하여 상기 복수의 태스크들에 대한 태스크 모델 파라미터들 중 일부를 선택하고, 선택된 일부의 태스크 모델 파라미터들에 기반하여 목표 태스크를 위한 메타 모델 파라미터를 결정할 수 있다. 그리고, 제2 장치(2620)는 메타 모델 파라미터에 기반하여 어뎁테이션을 수행함으로써 목표 태스크를 위한 태스크 모델 파라미터를 결정하고, 태스크 모델 파라미터를 이용하여 목표 태스크를 수행할 수 있다. 이때, 사용되는 복수의 태스크들은 제2 장치(2620) 또는 제2 장치(2620)와 동일한 UE 컨텍스트를 가진 다른 UE에 의한 메타 학습에 의해 결정된 태스크 모델 파라미터들을 포함할 수 있다.
S2605 단계에서, 제2 장치(2620)는 메타 상호연관을 이용한 메타 모델 파라미터에 기반한 어뎁테이션을 통해 각 태스크를 수행한다. 즉, 제2 장치(2620)는 메타 상호연관을 이용한 메타 모델 파라미터에 기반하여 어뎁테이션을 수행함으로써 각 태스크를 위한 태스크 모델 파라미터들을 결정한다. 그리고, 제2 장치(2620)는 태스크 모델 파라미터들을 이용하여 각 태스크를 수행할 수 있다.
도 27은 본 발명의 일 실시예에 따라 온라인 메타 학습을 수행하기 위한 절차의 예를 도시한다. 도 27은 제1 장치(2710) 및 제2 장치(2720) 간 시그널링을 예시한다.
도 27을 참고하면, S2701 단계에서, 제1 장치(2710)는 제2 장치(2720)에게 메타 훈련(meta-training) 요청 메시지를 송신한다. 메타 훈련 요청 메시지는 메타 훈련 중에 사용되는 신호 태스크들의 집합에 관련된 정보를 포함한다. 또한, 메타 훈련 요청 메시지는 경사 기반 훈련을 위한 배치 크기(batch size), 최적화 방법, 이에 관련된 설정 값 중 적어도 하나를 더 포함할 수 있다. 또한, 메타 훈련 요청 메시지는 각 내부 루프에 대한 태스크 집합 및 외부 루프에서 사용되는 태스크 집합에 대한 정보를 포함할 수 있다. 이어, S2703 단계에서, 제1 장치(2710)는 태스크 k를 위한 적어도 하나의 신호를 송신한다. 태스크 k에 대한 적어도 하나의 신호를 제1 장치(2710)가 송신하면, S2705 단계에서, 제2 장치(2720)는 수신 모델의 파라미터를 업데이트한다. 수신 신경망의 파라미터는 이하 [수학식 7]과 같이 업데이트될 수 있다.
Figure PCTKR2023000658-appb-img-000128
[수학식 7]에서,
Figure PCTKR2023000658-appb-img-000129
은 수신기의 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000130
는 업데이트 함수,
Figure PCTKR2023000658-appb-img-000131
은 손실 함수,
Figure PCTKR2023000658-appb-img-000132
는 송신기의 메타 모델 파라미터를 의미한다. 여기서, 업데이트 함수
Figure PCTKR2023000658-appb-img-000133
는 최적화 방식에 따라 달라질 수 있다.
이어, S2707 단계에서, 제2 장치(2720)는 측정 보고(measurement report)를 통해 손실을 보고한다. 다시 말해, 제2 장치(2720)는 제1 장치(2710)에 대한 손실을 결정하고, 손실에 관련된 정보를 포함하는 측정 보고를 제1 장치(2710)로 송신한다. 이어, S2709 단계에서, 제1 장치(2710)는 송신 모델을 업데이트한다. 전술한 S2703 단계 내지 S2709 단계에서 수행되는 태스크 k에 대한 훈련, 즉, 메타 학습 초기의 훈련은 송신기 및 수신기의 신경망들이 최신의 상태를 가질 수 있도록 예비적인 학습 기회를 부여하기 위해 수행될 수 있다. 이를 통해, 신경망들의 파라미터가 너무 과거의 채널을 학습한 상태가 되는 것이 방지될 수 있다. 다만, 다른 실시예에 따라, 전술한 S2703 단계 내지 S2709 단계는 생략될 수 있다.
이후, S2711-i 단계 내지 S2711-i+N 단계에서, 태스크 i부터 N개의 내부 루프(inner-loop)에 대한 신호들이 송신된다. 신호들의 송신이 시작되면, S2713-i 단계 내지 S2713-i+N에서, 내부 루프(inner-loop)에 의해 각 태스크의 태스크 모델 파라미터
Figure PCTKR2023000658-appb-img-000134
가 업데이트된다. 태스크 모델 파라미터는 [수학식 8]와 같이 업데이트될 수 있다.
Figure PCTKR2023000658-appb-img-000135
[수학식 8]에서,
Figure PCTKR2023000658-appb-img-000136
은 수신기의 태스크 모델 파라미터,
Figure PCTKR2023000658-appb-img-000137
는 내부 루프에서 사용되는 메타 학습 함수,
Figure PCTKR2023000658-appb-img-000138
은 수신기의 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000139
은 손실 함수를 의미한다. 여기서,
Figure PCTKR2023000658-appb-img-000140
는 메타 학습 접근법에 따라 달라질 수 있다.
이후, S2715-j 단계 내지 S2715-j+M에서, 제1 장치(2710)은 태스크 j 내지 j+M을 위한 기준 신호들을 송신한다. S2723 단계에서, 제2 장치(2720)는 전송된 태스크들 중 적어도 하나의 태스크를 샘플링하고, 내부 루프에서 업데이트된 태스크 모델 파라미터
Figure PCTKR2023000658-appb-img-000141
를 기반으로 외부 루프(outer-loop)에서 메타 모델 파라미터
Figure PCTKR2023000658-appb-img-000142
를 업데이트한다. 메타 모델 파라미터는 이하 [수학식 9]와 같이 업데이트될 수 있다.
Figure PCTKR2023000658-appb-img-000143
[수학식 9]에서,
Figure PCTKR2023000658-appb-img-000144
은 수신기의 메타 모델 파라미터,
Figure PCTKR2023000658-appb-img-000145
는 외부 루프에서 사용되는 메타 학습 함수,
Figure PCTKR2023000658-appb-img-000146
은 손실 함수,
Figure PCTKR2023000658-appb-img-000147
은 특정 태스크에 대한 송신기의 태스크 모델 파라미터를 의미한다. 여기서,
Figure PCTKR2023000658-appb-img-000148
는 메타 학습 접근법에 따라 달라진다.
도 28은 본 발명의 일 실시예에 따라 메타 상호연관 정보를 보고하는 절차의 예를 도시한다. 도 28은 제1 장치(2810) 및 제2 장치(2820) 간 메타 학습의 결과를 보고하기 위한 시그널링을 예시한다.
도 28을 참고하면, S2801 단계에서, 제1 장치(2810)는 제2 장치(2820)에게 메타 상호연관 정보의 보고에 대한 요청 메시지를 송신한다. 요청 메시지는 메타 상호연관 보고 요청(MRC report request) 메시지라 지칭될 수 있다. 즉, 제1 장치(2810)는 제2 장치(2820)에게 메타 상호연관에 대한 측정 결과를 요청할 수 있다. 예를 들어, 요청 메시지는 메타 모델을 지시하는 정보, 요청에 관련된 태스크들의 집합을 지시하는 정보, 관련된 메타 학습 알고리즘을 지시하는 정보, UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함할 수 있다.
S2803 단계에서, 제2 장치(2820)는 최적화 문제를 해결함으로써 메타 상호연관 벡터들의 집합을 탐색한다. 여기서, 최적화 문제는 태스크들 각각이 목표 태스크에 일정 수준 이상의 기여도를 가지는지 여부를 판단하는 것을 목적으로 한다. 예를 들어, 최적화 문제는 [수학식 5]와 같이 정의될 수 있다. 이를 통해, 제2 장치(2820)는 적어도 하나의 메타 상호연관 벡터를 획득할 수 있다. 이때, 적어도 하나의 메타 상호연관 벡터는 요청 메시지에 의해 지시된 UE 컨텍스트에 관련되는 메타 상호연관 정보로서 취급될 수 있다.
S2805 단계에서, 제2 장치(2820)는 제1 장치(2810)에게 메타 상호연관 벡터들의 집합에 대한 보고 메시지를 송신한다. 보고 메시지는 메타 상호연관 집합 보고 메시지(set of MRC vectors report report) 메시지라 지칭될 수 있다. 즉, 제2 장치(2820)은 S2803 단계에서 결정된 적어도 하나의 메타 상호연관 벡터에 대한 정보를 송신한다. 예를 들어, 보고 메시지는 적어도 하나의 메타 상호연관 벡터를 지시하는 정보, UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함할 수 있다.
도 28을 참고하여 설명한 바와 같이, 제2 장치(2820)는 적어도 하나의 메타 상호연관 벡터에 관련된 정보를 제공할 수 있다. 일 실시예에 따라, 요청 메시지는 이하 [표 5]에 나열된 항목들 중 적어도 하나를 포함할 수 있다.
Information element Description
Meta-model 메타 모델 혹은 관련 식별자
set of meta-tasks associated with signals 다중 TRP 태스크 집합으로서, 각 태스크는 동기 신호, 기준 신호, 제어 채널 신호, 데이터 채널 신호 중에 하나 혹은 복수 정보 혹은 조합과 연결될 수 있음. 각 신호 정보는 안테나 포트 정보 를 포함할 수 있음.
Meta-algorithm 메타 알고리즘 혹은 관련 식별자
set of UE contexts UE 컨텍스트 혹은 관련 식별자
일 실시예에 따라, 보고 메시지는 이하 [표 6]에 나열된 항목들 중 적어도 하나를 포함할 수 있다.
Information element Description
set of meta-correlation vectors 태스크들 간 메타 상호연관 측정 값
UE context 메타 상호연관에 대한 UE 컨텍스트
[표 5]에 예시된 항목들은 제1 장치(2810)(예: 기지국)에 의해 미리 설정된 다중 TRP 태스크 집합에 대한 메타 상호연관을 요청하기 위해 사용될 수 있다. 하지만, 제1 장치(2810)가 제2 장치(2820)(예: UE)의 자동 탐색에 의해 발견하는 동기 신호 및 공통 기준 신호에 대한 메타 상호연관의 측정을 요청할 수 있다. 이 경우, 요청 메시지는 이하 [표 7]에 나열된 항목들 중 적어도 하나를 포함할 수 있다.
Information element Description
Meta-model 메타 모델 혹은 관련 식별자
Meta-algorithm 메타 알고리즘 혹은 관련 식별자
Autonomous request indicator UE 탐색에 따른 동기 신호 및 공통 기준 신호에 대한 메타 상호연관 측정을 요청하는 지시자
도 29는 본 발명의 일 실시예에 따른 메타 상호연관을 이용하여 태스크들을 수행하는 활용 예를 도시한다. 도 29는 복수의 TP(transmission point)들(2920-1 내지 2920-6)이 UE(2910)에게 기준 신호와 관련된 데이터 채널 신호를 전송하는 상황을 예시한다.
도 29를 참고하면, TP2(2920-2) 및 TP3(2920-3)이 기지국 설계를 기반으로 QCL 또는 MCR(meta-correlation) 관계를 가지며, 또한 TP4(2920-4) 및 TP5(2920-5)가 기지국 설계를 기반으로 QCL 또는 MCR 관계를 가진다. 메타 상호연관을 이용하면 단순히 QCL의 1차 및 2차 통계 뿐만 아니라 인공지능/기계학습 모델의 장점인 고차원 채널 분포를 메타 파라미터
Figure PCTKR2023000658-appb-img-000149
를 반영할 수 있다. 이 경우, 메타 태스크 파라미터는 주파수 영역에서 확산 프로파일 모양, 시간 영역에서 지연 확산 모양을 심층 신경망에 반영할 수 있다. UE(2910) 및 TP1(2920-1) 간 채널, UE(2910) 및 TP2(2920-2) 간 채널이 메타 상호연관 관점에서 유사한 경우, 다양한 실시예들에 따른 UE(2910)의 메타 상호연관 보고 절차(예: 도 28의 절차)을 통해 기지국은 메타 상호연관 벡터를 획득할 수 있다.
지형의 영향으로 UE(2910)과 TP1(2920-1), TP2(2920-2), TP6(2920-6)간 지연 프로파일이 CDL(clustered delay line) 타입(type) A로 유사한 경우, 이러한 지연 프로파일을 메타 상호연관 정보를 이용하여 기지국 및 UE(2910)에게 지정해 줄 수 있다. 즉, TP1(2920-1)의 관점에서, 기준 신호 태스크
Figure PCTKR2023000658-appb-img-000150
Figure PCTKR2023000658-appb-img-000151
,
Figure PCTKR2023000658-appb-img-000152
,
Figure PCTKR2023000658-appb-img-000153
,
Figure PCTKR2023000658-appb-img-000154
에 포함되어 있는 채널의 지연 프로파일에 대한 인공지능/기계학습 모델의 고차원 정보를 메타 상호연관을 이용하여 메타 표현 영역에서 쉽게 획득하는 것이 가능하다. 즉, 메타 상호연관 벡터를 통해 빠르게 다중 전송 포인트 간의 메타 정보를 획득함으로써, UE(2910) 및 기지국 간 송수신에 대한 효율성 및 성능이 향상될 수 있다.
전술한 다양한 실시예들과 같이, 데이터 기반의 동작을 기반으로 메터 인공지능/기계학습 기술을 최대한 활용함으로서, 두 전송 지점들이 QCL 관계가 아니더라도 실제 채널 프로파일이 공유될 수 있다. QCL 정보는 큰 스케일(large scale)에 수준의 1차 및 2차 통계 정보이다. 즉, QCL은 도플러 시프트(Doppler shift), 도플러 확산(Doppler spread), 평균 지연(average delay), 지연 확산(delay spread), 공간 수신 파라미터(spatial RX Parameter) 만을 반영한다. 그러므로, 인공지능/기계학습이 가진 특히 깊은 신경망이 가지는 고차원 표현(high-dimensional representation)에서 연관된 상호정보를 반영하면, 더 높은 성능 개선이 기대된다. 이를 위해, 제안 기술은 1차 및 2차 통계를 넘어선 주파수 및 시간 측면의 프로파일 등이 동일한 경우, 이러한 특성을 심층 학습 신경망에서 메타 파라미터를 이용하여 포착할 수 있게 한다.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 있다.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
본 개시의 실시예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다.
본 개시의 실시예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다.
추가적으로, 본 개시의 실시예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.

Claims (18)

  1. 무선 통신 시스템에서 UE(user equipment)의 동작 방법에 있어서,
    능력(capability) 정보를 기지국에게 송신하는 단계;
    신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하는 단계;
    상기 설정 정보에 기반하여 상기 신호들을 수신하는 단계;
    상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계; 및
    상기 기지국에게 피드백 정보를 송신하는 단계를 포함하는 방법.
  2. 청구항 1에 있어서,
    상기 피드백 정보는, 상기 메타 상호연관에 관련된 정보, 상기 UE의 컨텍스트 정보 중 적어도 하나를 포함하는 방법.
  3. 청구항 1에 있어서,
    상기 능력 정보는, 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 신경망 모델에 관련된 정보, 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 태스크를 지시하는 정보, 지원 가능한 적어도 하나의 메타 학습 알고리즘에 관련된 정보 중 적어도 하나를 포함하는 방법.
  4. 청구항 1에 있어서,
    상기 설정 정보는, 메타 모델에 관련된 정보, 메타 학습을 위해 사용 가능한 적어도 하나의 다른 태스크를 지시하는 정보, 메타 상호연관을 이루는 연관성 값에 관련된 정보, 메타 학습의 알고리즘에 관련된 정보, UE 컨텍스트를 지시하는 정보 중 적어도 하나를 포함하는 방법.
  5. 청구항 1에 있어서,
    상기 피드백 정보를 요청하는 요청 메시지를 수신하는 단계를 더 포함하는 방법.
  6. 청구항 5에 있어서,
    상기 요청 메시지는, 메타 모델에 관련된 정보, 요청에 관련된 태스크들의 집합에 관련된 정보, 관련된 메타 학습 알고리즘에 관련된 정보, UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함하는 방법.
  7. 청구항 1에 있어서,
    상기 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계는,
    상기 복수의 태스크들에 대한 태스크 모델 파라미터들을 결정하는 단계;
    상기 복수의 태스크들의 상기 목표 태스크로의 기여도들을 결정하는 단계;
    상기 기여도들에 기반하여 선택된 상기 복수의 태스크들에 대한 태스크 모델 파라미터들 중 일부에 기반하여 상기 목표 태스크를 위한 메타 모델 파라미터를 결정하는 단계를 포함하는 방법.
  8. 청구항 1에 있어서,
    상기 메타 상호연관 정보는, 상기 복수의 태스크들이 기여 여부를 지시하는 값들을 포함하는 방법.
  9. 청구항 1에 있어서,
    상기 복수의 태스크들에 대한 태스크 모델 파라미터들은, 동일 UE 컨텍스트를 가진 다른 UE에 의한 메타 학습에 의해 결정되는 방법.
  10. 무선 통신 시스템에서 기지국의 동작 방법에 있어서,
    능력(capability) 정보를 UE(user equipment)로부터 수신하는 단계;
    상기 UE에게 신호들에 관련된 설정 정보를 송신하는 단계;
    상기 설정 정보에 기반하여 상기 신호들을 송신하는 단계; 및
    상기 UE로부터 피드백 정보를 수신하는 단계를 포함하며,
    상기 피드백 정보는, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 결정되는 수신 동작을 위한 적어도 하나의 파라미터에 관련되는 방법.
  11. 청구항 10에 있어서,
    상기 피드백 정보는, 상기 메타 상호연관에 관련된 정보, 상기 UE의 컨텍스트 정보 중 적어도 하나를 포함하는 방법.
  12. 청구항 10에 있어서,
    상기 능력 정보는, 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 신경망 모델에 관련된 정보, 메타 상호연관을 이용하여 학습 가능한 적어도 하나의 태스크를 지시하는 정보, 지원 가능한 적어도 하나의 메타 학습 알고리즘에 관련된 정보 중 적어도 하나를 포함하는 방법.
  13. 청구항 10에 있어서,
    상기 설정 정보는, 메타 모델에 관련된 정보, 메타 학습을 위해 사용 가능한 적어도 하나의 다른 태스크를 지시하는 정보, 메타 상호연관을 이루는 연관성 값에 관련된 정보, 메타 학습의 알고리즘에 관련된 정보, UE 컨텍스트를 지시하는 정보 중 적어도 하나를 포함하는 방법.
  14. 청구항 10에 있어서,
    상기 피드백 정보를 요청하는 요청 메시지를 송신하는 단계를 더 포함하며,
    상기 요청 메시지는, 메타 모델에 관련된 정보, 요청에 관련된 태스크들의 집합에 관련된 정보, 관련된 메타 학습 알고리즘에 관련된 정보, UE 컨텍스트에 관련된 정보 중 적어도 하나를 포함하는 방법.
  15. 무선 통신 시스템에서 UE(user equipment)에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하며,
    상기 프로세서는,
    능력(capability) 정보를 기지국에게 송신하고,
    신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하고,
    상기 설정 정보에 기반하여 상기 신호들을 수신하고,
    상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하고,
    상기 기지국에게 피드백 정보를 송신하도록 제어하는 UE.
  16. 무선 통신 시스템에서 기지국에 있어서,
    송수신기; 및
    상기 송수신기와 연결된 프로세서를 포함하며,
    상기 프로세서는,
    능력(capability) 정보를 UE(user equipment)로부터 수신하고,
    상기 UE에게 신호들에 관련된 설정 정보를 송신하고,
    상기 설정 정보에 기반하여 상기 신호들을 송신하고,
    상기 UE로부터 피드백 정보를 수신하도록 제어하며,
    상기 피드백 정보는, 상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 결정되는 수신 동작을 위한 적어도 하나의 파라미터에 관련되는 기지국.
  17. 통신 장치에 있어서,
    적어도 하나의 프로세서;
    상기 적어도 하나의 프로세서와 연결되며, 상기 적어도 하나의 프로세서에 의해 실행됨에 따라 동작들에 관련된 명령어를 저장하는 적어도 하나의 컴퓨터 메모리를 포함하며,
    상기 동작들은,
    능력(capability) 정보를 기지국에게 송신하는 단계;
    신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하는 단계;
    상기 설정 정보에 기반하여 상기 신호들을 수신하는 단계;
    상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하는 단계; 및
    상기 기지국에게 피드백 정보를 송신하는 단계를 포함하는 통신 장치.
  18. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서,
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,
    상기 적어도 하나의 명령어는, 장치가,
    능력(capability) 정보를 기지국에게 송신하고,
    신호들에 관련된 설정 정보를 상기 기지국으로부터 수신하고,
    상기 설정 정보에 기반하여 상기 신호들을 수신하고,
    상기 신호들을 이용하여 결정되는, 복수의 태스크들의 태스크 모델 파라미터들의 목표 태스크로의 기여도를 표현하는 메타 상호연관(meta correlation) 정보에 기반하여 메타 학습을 수행함으로써 수신 동작을 위한 적어도 하나의 파라미터를 결정하고,
    상기 기지국에게 피드백 정보를 송신하도록 제어하는 컴퓨터 판독 가능 매체.
PCT/KR2023/000658 2023-01-13 2023-01-13 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법 WO2024150861A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/000658 WO2024150861A1 (ko) 2023-01-13 2023-01-13 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/000658 WO2024150861A1 (ko) 2023-01-13 2023-01-13 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024150861A1 true WO2024150861A1 (ko) 2024-07-18

Family

ID=91897145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/000658 WO2024150861A1 (ko) 2023-01-13 2023-01-13 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2024150861A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200087780A (ko) * 2017-11-14 2020-07-21 매직 립, 인코포레이티드 뉴럴 네트워크들에 대한 멀티-태스크 학습을 위한 메타-학습
KR20200100302A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들
KR20200119179A (ko) * 2019-04-09 2020-10-19 애니파이 주식회사 품질 예측 기반의 동적 무선 네트워크 가변 접속을 제공하는 무선 단말 장치 및 그 동작 방법
KR20210103912A (ko) * 2020-02-14 2021-08-24 삼성전자주식회사 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치
KR20210117611A (ko) * 2020-03-19 2021-09-29 엘지전자 주식회사 Ai를 이용한 이동통신 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200087780A (ko) * 2017-11-14 2020-07-21 매직 립, 인코포레이티드 뉴럴 네트워크들에 대한 멀티-태스크 학습을 위한 메타-학습
KR20200100302A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들
KR20200119179A (ko) * 2019-04-09 2020-10-19 애니파이 주식회사 품질 예측 기반의 동적 무선 네트워크 가변 접속을 제공하는 무선 단말 장치 및 그 동작 방법
KR20210103912A (ko) * 2020-02-14 2021-08-24 삼성전자주식회사 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치
KR20210117611A (ko) * 2020-03-19 2021-09-29 엘지전자 주식회사 Ai를 이용한 이동통신 방법

Similar Documents

Publication Publication Date Title
WO2022250221A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2023027321A1 (ko) 무선 통신 시스템에서 신호 송수신 방법 및 장치
WO2022092859A1 (ko) 무선 통신 시스템에서 스플릿 포인트 조정을 위한 장치 및 방법
WO2024167035A1 (ko) 시맨틱 통신에서 시맨틱 표현에 기반하여 배경 지식 업데이트를 수행하기 위한 장치 및 방법
WO2023027311A1 (ko) 무선 통신 시스템에서 핸드오버를 수행하기 위한 장치 및 방법
WO2022050565A1 (ko) 무선 통신 시스템에서 핸드오버를 위한 장치 및 방법
WO2023013795A1 (ko) 무선 통신 시스템에서 연합학습을 수행하는 방법 및 이를 위한 장치
WO2024150861A1 (ko) 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법
WO2023022251A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2022260189A1 (ko) 무선 통신 시스템에서 신호를 송수신하는 방법 및 장치
WO2025023338A1 (ko) 무선 통신 시스템에서 재구성 가능한 지능형 표면을 이용한 주파수 분할 이중화 통신 방법 및 장치
WO2022119424A1 (ko) 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법
WO2024195920A1 (ko) 양자 통신 시스템에서 비국소 잡음 특성을 갖는 간섭 채널에 대한 채널 코딩을 수행하기 위한 장치 및 방법
WO2024071459A1 (ko) 무선 통신 시스템에서 신호 송수신 방법 및 장치
WO2024122694A1 (ko) 무선 통신 시스템에서 수신기에 대한 학습을 수행하기 위한 장치 및 방법
WO2024048816A1 (ko) 무선 통신 시스템에서 신호를 송수신하기 위한 장치 및 방법
WO2024122667A1 (ko) 무선 통신 시스템에서 앙상블 모델 기반의 수신기에 대한 학습을 수행하기 위한 장치 및 방법
WO2024117296A1 (ko) 무선 통신 시스템에서 조절 가능한 파라미터를 가지는 송수신기를 이용하여 신호를 송수신하기 위한 방법 및 장치
WO2023286884A1 (ko) 무선 통신 시스템에서 신호를 송수신하는 방법 및 장치
WO2023113282A1 (ko) 무선 통신 시스템에서 송수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법
WO2024117275A1 (ko) 무선 통신 시스템에서 다양한 신호들을 이용하여 공동 통신 및 센싱 동작을 수행하기 위한 장치 및 방법
WO2022231084A1 (ko) 무선 통신 시스템에서 신호 전송 방법 및 장치
WO2024096151A1 (ko) 무선 통신 시스템에서 송수신 신호를 생성하기 위한 이동성 장치 및 방법
WO2023042937A1 (ko) 무선 통신 시스템에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법 및 장치
WO2024034707A1 (ko) 무선 통신 시스템에서 수신기 모델에 대한 온라인 학습을 수행하기 위한 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23916346

Country of ref document: EP

Kind code of ref document: A1