KR102026226B1 - 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 - Google Patents
딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 Download PDFInfo
- Publication number
- KR102026226B1 KR102026226B1 KR1020170126616A KR20170126616A KR102026226B1 KR 102026226 B1 KR102026226 B1 KR 102026226B1 KR 1020170126616 A KR1020170126616 A KR 1020170126616A KR 20170126616 A KR20170126616 A KR 20170126616A KR 102026226 B1 KR102026226 B1 KR 102026226B1
- Authority
- KR
- South Korea
- Prior art keywords
- inference model
- variational inference
- signal
- baum
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000009826 distribution Methods 0.000 claims abstract description 82
- 238000000605 extraction Methods 0.000 claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 56
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 230000001419 dependent effect Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 6
- 230000001404 mediated effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Error Detection And Correction (AREA)
Abstract
또한, 본 발명은 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템에 관한 것으로서, 보다 구체적으로는 인코더 네트워크 및 디코더 네트워크를 포함하는 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템으로서, 프레임 단위를 가지는 복수 개의 신호 단위로 구성된 학습 데이터를 사용하여 특정 신호에 독립적인 UBM(Universal Background Model)을 학습하는 UBM 학습부; 상기 UBM 학습부에서 학습한 UBM을 이용하여 입력 신호에서 바움-웰치 통계량(Baum-Welch Statistics)을 계산하는 바움-웰치 통계량 계산부; 상기 바움-웰치 통계량 계산부에서 계산한 상기 바움-웰치 통계량을 입력 벡터로 입력받아 상기 Variational Inference 모델의 인코더 네트워크 및 디코더 네트워크를 학습하는 Variational Inference 모델 학습부; 및 상기 Variational Inference 모델 학습부에서 학습한 Variational Inference 모델의 인코더 네트워크에서 상기 입력 신호의 확률 분포에 근사한 분포를 가지는 매개 랜덤 은닉 변수(Latent Variable)를 생성하여 상기 입력 신호의 특징을 추출하는 특징 추출부를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템에 따르면, 랜덤 변수를 입출력의 매개체로 두는 Variational Inference 기반의 딥러닝 구조를 활용하여 특징을 추출함으로써, 입력의 분포를 표현하는 파라미터를 생성할 수 있다.
또한, 본 발명에서 제안하고 있는 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템에 따르면, Variational Inference 모델에서 생성되는 매개 랜덤 은닉 변수는 인공신경망을 통한 비선형적인 처리로 생성되므로, 기존 I-Vector 기법에서 선형적으로 매핑될 수 없는 비선형적 특징도 추출할 수 있으며, 입력 신호의 프레임 단위 특징들의 분포가 갖는 다양한 정보를 표현하는 특징을 추출할 수 있다.
Description
도 2는 Variational Inference 모델에 대한 개략적인 구조를 도시한 도면.
도 3은 VAE의 인코더 네트워크와 디코더 네트워크의 노드를 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법의 구성을 개략적으로 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법에서 Variational Inference 모델의 구성을 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법의 구성을 도시한 도면.
도 7은 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법이 화자 인식에 사용되는 경우의 Variational Inference 모델의 구성을 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법이 적용된 화자 인식에 적용되는 경우에 추출된 매개 랜덤 은닉 변수의 로그 분산으로 구한 미분 엔트로피(Differential Entropy)의 그래프.
도 9는 I-Vector와 특징과 본 발명의 일 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법에서 생성된 매개 랜덤 은닉 변수를 이용하였을 때 화자 인식 성능을 도시한 표.
도 10은 본 발명의 다른 실시예에 따른 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템의 구성을 도시한 도면.
S200: 단계 S100에서 학습한 UBM을 이용하여 입력 신호에서 바움-웰치 통계량을 계산하는 단계;
S300: 단계 S200에서 계산한 바움-웰치 통계량을 입력 벡터로 입력받아 Variational Inference 모델의 인코더 네트워크 및 디코더 네트워크를 학습하는 단계
S400: 단계 S300에서 학습한 Variational Inference 모델의 인코더 네트워크에서 입력 신호의 확률 분포에 근사한 분포를 가지는 매개 랜덤 은닉 변수를 생성하여 입력 신호의 특징을 추출하는 단계
100: 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템
110: UBM 학습부
120: 바움-웰치 통계량 계산부
130: Variational Inference 모델 학습부
140: 특징 추출부
Claims (10)
- 인코더 네트워크 및 디코더 네트워크를 포함하는 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법으로서,
(1) UBM 학습부가, 프레임 단위를 가지는 복수 개의 신호 단위로 구성된 학습 데이터를 사용하여 특정 신호에 독립적인 UBM(Universal Background Model)을 학습하는 단계;
(2) 바움-웰치 통계량 계산부가, 상기 단계 (1)에서 학습한 UBM을 이용하여 입력 신호에서 바움-웰치 통계량(Baum-Welch Statistics)을 계산하는 단계;
(3) Variational Inference 모델 학습부가, 상기 단계 (2)에서 계산한 상기 바움-웰치 통계량을 입력 벡터로 입력받아 상기 Variational Inference 모델의 인코더 네트워크 및 디코더 네트워크를 학습하는 단계; 및
(4) 특징 추출부가, 상기 단계 (3)에서 학습한 Variational Inference 모델의 인코더 네트워크에서 상기 입력 신호의 확률 분포에 근사한 분포를 가지는 매개 랜덤 은닉 변수(Latent Variable)를 생성하여 상기 입력 신호의 특징을 추출하는 단계를 포함하며,
상기 인코더 네트워크의 입력으로는 상기 단계 (2)에서 계산한 상기 바움-웰치 통계량을 사용하고, 상기 디코더 네트워크의 출력으로는 입력 신호에 종속적인 확률 분포가 생성되며,
상기 단계 (3)에서는, 상기 Variational Inference 모델 학습부가 매개 랜덤 은닉 변수가 따르는 평균과 분산을 출력하도록 학습하며,
상기 단계 (4)는, 상기 특징 추출부가,
상기 인코더 네트워크를 특징 추출기로 사용하여, 상기 인코더 네트워크로부터 상기 복수 개의 신호 단위에서 프레임 단위 특징의 분포를 상기 매개 랜덤 은닉 변수의 평균 및 분산으로 추출하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법.
- 제1항에 있어서, 상기 단계 (2)의 상기 바움-웰치 통계량 계산부가 계산하는 바움-웰치 통계량은,
하기의 수학식을 통해 계산되는 0차 바움-웰치 통계량 및 1차 바움-웰치 통계량을 포함하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법.
여기서, nc(X)는 입력 신호 X의 0차 바움-웰치 통계량, fc(X)는 입력 신호 X의 1차 바움-웰치 통계량, γl(c)는 UBM의 c번째 가우시안 성분에 l번째 프레임이 속할 확률, xl은 입력 신호 X의 l번째 프레임 특징, L은 프레임의 개수이다.
- 제1항에 있어서, 상기 단계 (3)은, 상기 Variational Inference 모델 학습부가,
오류 역전파 알고리즘을 사용하여 상기 인코더 네트워크 및 상기 디코더 네트워크를 동시에 학습하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법.
- 제3항에 있어서, 상기 단계 (3)은, 상기 Variational Inference 모델 학습부가,
상기 Variational Inference 모델의 디코더 네트워크에서 출력되는 입력 신호에 종속적인 확률 분포의 로그 우도가 최대화되도록 목적 함수인 하기의 수학식이 최대화되는 방향으로 학습하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법.
여기서, qφ(Z|X)는 인코더 네트워크에서 주어진 입력 X로부터 매개 랜덤 은닉 변수 Z를 생성할 확률, pθ(Z)는 디코더 네트워크의 파라미터가 주어졌을 때 매개 랜덤 은닉 변수 Z가 생성될 사전확률, DKL(qφ(Z|X)|pθ(Z))은 입력 X가 주어졌을 때, 매개 랜덤 은닉 변수 Z의 사전 확률 분포의 차이를 나타내는 Kullback-Leibler Divergence, p(X|φ,θ,Z)은 인코더 네트워크, 디코더 네트워크 및 특정 매개 랜덤 은닉 변수 Z가 주어졌을 때 생성되는 입력 신호 X에 종속적인 분포를 가지는 우도이다.
- 삭제
- 인코더 네트워크 및 디코더 네트워크를 포함하는 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템으로서,
프레임 단위를 가지는 복수 개의 신호 단위로 구성된 학습 데이터를 사용하여 특정 신호에 독립적인 UBM(Universal Background Model)을 학습하는 UBM 학습부;
상기 UBM 학습부에서 학습한 UBM을 이용하여 입력 신호에서 바움-웰치 통계량(Baum-Welch Statistics)을 계산하는 바움-웰치 통계량 계산부;
상기 바움-웰치 통계량 계산부에서 계산한 상기 바움-웰치 통계량을 입력 벡터로 입력받아 상기 Variational Inference 모델의 인코더 네트워크 및 디코더 네트워크를 학습하는 Variational Inference 모델 학습부; 및
상기 Variational Inference 모델 학습부에서 학습한 Variational Inference 모델의 인코더 네트워크에서 상기 입력 신호의 확률 분포에 근사한 분포를 가지는 매개 랜덤 은닉 변수(Latent Variable)를 생성하여 상기 입력 신호의 특징을 추출하는 특징 추출부를 포함하며,
상기 인코더 네트워크의 입력으로는 상기 단계 (2)에서 계산한 상기 바움-웰치 통계량을 사용하고, 상기 디코더 네트워크의 출력으로는 입력 신호에 종속적인 확률 분포가 생성되며,
상기 Variational Inference 모델 학습부가 매개 랜덤 은닉 변수가 따르는 평균과 분산을 출력하도록 학습하며,
상기 특징 추출부는,
상기 인코더 네트워크를 특징 추출기로 사용하여, 상기 인코더 네트워크로부터 상기 복수 개의 신호 단위에서 프레임 단위 특징의 분포를 상기 매개 랜덤 은닉 변수의 평균 및 분산으로 추출하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템.
- 제6항에 있어서, 상기 바움-웰치 통계량 계산부의 바움-웰치 통계량은,
하기의 수학식을 통해 계산되는 0차 바움-웰치 통계량 및 1차 바움-웰치 통계량을 포함하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템.
여기서, nc(X)는 입력 신호 X의 0차 바움-웰치 통계량, fc(X)는 입력 신호 X의 1차 바움-웰치 통계량, γl(c)는 UBM의 c번째 가우시안 성분에 l번째 프레임이 속할 확률, xl은 입력 신호 X의 l번째 프레임 특징, L은 프레임의 개수이다.
- 제6항에 있어서, 상기 Variational Inference 모델 학습부는,
오류 역전파 알고리즘을 사용하여 상기 인코더 네트워크 및 상기 디코더 네트워크를 동시에 학습하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템.
- 제8항에 있어서, 상기 Variational Inference 모델 학습부는,
상기 Variational Inference 모델의 디코더 네트워크에서 출력되는 입력 신호에 종속적인 확률 분포의 로그 우도가 최대화되도록 목적 함수인 하기의 수학식이 최대화되는 방향으로 학습하는 것을 특징으로 하는, 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 시스템.
여기서, qφ(Z|X)는 인코더 네트워크에서 주어진 입력 X로부터 매개 랜덤 은닉 변수 Z를 생성할 확률, pθ(Z)는 디코더 네트워크의 파라미터가 주어졌을 때 매개 랜덤 은닉 변수 Z가 생성될 사전확률, DKL(qφ(Z|X)|pθ(Z))은 입력 X가 주어졌을 때, 매개 랜덤 은닉 변수 Z의 사전 확률 분포의 차이를 나타내는 Kullback-Leibler Divergence, p(X|φ,θ,Z)은 인코더 네트워크, 디코더 네트워크 및 특정 매개 랜덤 은닉 변수 Z가 주어졌을 때 생성되는 입력 X에 종속적인 분포를 가지는 우도이다.
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170126616A KR102026226B1 (ko) | 2017-09-28 | 2017-09-28 | 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170126616A KR102026226B1 (ko) | 2017-09-28 | 2017-09-28 | 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190037025A KR20190037025A (ko) | 2019-04-05 |
KR102026226B1 true KR102026226B1 (ko) | 2019-09-27 |
Family
ID=66103985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170126616A Active KR102026226B1 (ko) | 2017-09-28 | 2017-09-28 | 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102026226B1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11700518B2 (en) | 2019-05-31 | 2023-07-11 | Huawei Technologies Co., Ltd. | Methods and systems for relaying feature-driven communications |
KR102145698B1 (ko) * | 2019-09-27 | 2020-08-18 | 주식회사 인피니그루 | 딥러닝 모델을 통해 예측된 해답을 해석하는 방법 및 시스템 |
CN113642822B (zh) * | 2020-12-04 | 2024-03-01 | 广东省建筑设计研究院有限公司 | 用于评估建筑群结构安全的基于vae的样本集指向性扩展法 |
CN113408425B (zh) * | 2021-06-21 | 2022-04-26 | 湖南翰坤实业有限公司 | 一种生物语言解析的集群控制方法及系统 |
CN113887305B (zh) * | 2021-09-01 | 2025-02-14 | 合肥讯飞数码科技有限公司 | 通信辐射源识别方法及相关装置 |
CN114818789B (zh) * | 2022-04-07 | 2025-05-09 | 南京大学 | 一种基于数据增强的船舶辐射噪声识别方法 |
-
2017
- 2017-09-28 KR KR1020170126616A patent/KR102026226B1/ko active Active
Non-Patent Citations (3)
Title |
---|
Kenny, Patrick, et al. Deep neural networks for extracting baum-welch statistics for speaker recognition. Proc. Odyssey. 2014.* |
Pekhovsky, Timur, and Maxim Korenevsky. Investigation of Using VAE for i-Vector Speaker Verification. arXiv preprint arXiv:1705.09185v1. 2017.5.25.* |
강우현 외. VAE를 이용한 화자인식을 위한 음성 특질 추출. 한국통신학회 학술대회논문집. 한국통신학회. 2017.1.* |
Also Published As
Publication number | Publication date |
---|---|
KR20190037025A (ko) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102026226B1 (ko) | 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 | |
Chang et al. | Temporal modeling using dilated convolution and gating for voice-activity-detection | |
Hsu et al. | Unsupervised learning of disentangled and interpretable representations from sequential data | |
CN110310647B (zh) | 一种语音身份特征提取器、分类器训练方法及相关设备 | |
WO2019227586A1 (zh) | 语音模型训练方法、说话人识别方法、装置、设备及介质 | |
WO2019237517A1 (zh) | 说话人聚类方法、装置、计算机设备及存储介质 | |
CN108922544B (zh) | 通用向量训练方法、语音聚类方法、装置、设备及介质 | |
Lu et al. | Ensemble modeling of denoising autoencoder for speech spectrum restoration. | |
Kwon et al. | Phoneme recognition using ICA-based feature extraction and transformation | |
CN111899757B (zh) | 针对目标说话人提取的单通道语音分离方法及系统 | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN108922559A (zh) | 基于语音时频变换特征和整数线性规划的录音终端聚类方法 | |
Yu et al. | Cam: Context-aware masking for robust speaker verification | |
Shivakumar et al. | Simplified and supervised i-vector modeling for speaker age regression | |
CN111666996B (zh) | 一种基于attention机制的高精度设备源识别方法 | |
Hizlisoy et al. | Text independent speaker recognition based on MFCC and machine learning | |
Morrison et al. | Forensic voice comparison–human-supervised-automatic approach | |
Wang | Supervised speech separation using deep neural networks | |
CN116434734A (zh) | 语音编辑方法、电子设备和存储介质 | |
Poorjam et al. | A parametric approach for classification of distortions in pathological voices | |
Martínez et al. | Bioinspired sparse spectro-temporal representation of speech for robust classification | |
CN117976006A (zh) | 音频处理方法、装置、计算机设备和存储介质 | |
Sunny et al. | Feature extraction methods based on linear predictive coding and wavelet packet decomposition for recognizing spoken words in malayalam | |
Imoto et al. | Acoustic scene analysis from acoustic event sequence with intermittent missing event | |
Khan et al. | Speech recognition: increasing efficiency of support vector machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170928 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190515 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190904 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190923 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190924 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220822 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230823 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20240823 Start annual number: 6 End annual number: 6 |