KR102077804B1 - 학습 데이터 전처리 방법 및 시스템 - Google Patents
학습 데이터 전처리 방법 및 시스템 Download PDFInfo
- Publication number
- KR102077804B1 KR102077804B1 KR1020170111693A KR20170111693A KR102077804B1 KR 102077804 B1 KR102077804 B1 KR 102077804B1 KR 1020170111693 A KR1020170111693 A KR 1020170111693A KR 20170111693 A KR20170111693 A KR 20170111693A KR 102077804 B1 KR102077804 B1 KR 102077804B1
- Authority
- KR
- South Korea
- Prior art keywords
- learning data
- feature
- value
- integer
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 189
- 238000007781 pre-processing Methods 0.000 title claims abstract description 72
- 238000010801 machine learning Methods 0.000 title description 12
- 238000010606 normalization Methods 0.000 claims abstract description 129
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000006870 function Effects 0.000 claims description 96
- 230000015654 memory Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 59
- 238000010586 diagram Methods 0.000 description 48
- 238000003066 decision tree Methods 0.000 description 19
- 210000002569 neuron Anatomy 0.000 description 18
- 230000008569 process Effects 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 17
- 238000007637 random forest analysis Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 12
- 238000011176 pooling Methods 0.000 description 12
- 238000012706 support-vector machine Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003064 k means clustering Methods 0.000 description 6
- 239000010749 BS 2869 Class C1 Substances 0.000 description 5
- 239000010750 BS 2869 Class C2 Substances 0.000 description 5
- 238000007635 classification algorithm Methods 0.000 description 5
- 235000015220 hamburgers Nutrition 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000010187 selection method Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000002759 z-score normalization Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000000528 statistical test Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/12—Accounting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F5/00—Methods or arrangements for data conversion without changing the order or content of the data handled
- G06F5/01—Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Strategic Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- Technology Law (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Image Analysis (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
Abstract
Description
Root Node의 분기 속성을 구하고 이를 A라 한다 A의 각 가지에 대해 새로운 자손 노드를 생성한다 예제들을 해당하는 leaf 노드로 정렬한다 예제가 완벽하게 분류된 경우 stop 그렇지않으면 새 leaf노드에서 알고리즘 루프를 반복한다. |
Bootstrap방법을 통해 N개의 학습 예제를 생성한다. N개의 DT를 학습시킨다. DT을 하나의 분류기로 결합(앙상블)한다, 이때 평균 또는 과반수 투표 방식을 이용하여 결과를 예측한다. |
Precondition: A training set , features , and number of trees in forest . function RANDOMFOREST for do A boostrap sample from RANDOMIZEDTREELEARN end for return end function function RANDOMIZEDTREELEARN At each node: very small subset of Split on best feature in Return The learned tree end function |
도 1은 지도 학습의 예(Classification)에 관한 도면이다.
도 2는 Classification의 예에 대하여 도시한 도면이다.
도 3은 Linear regression과 Nonlinear regression의 예에 관한 도면이다.
도 4는 Unsupervised Learning의 예에 관한 도면이다.
도 5는 클러스터링의 예에 관한 도면이다.
도 6은 K-Nearest Neighbor의 예에 관한 도면이다.
도 7은 Neural Network의 일 예에 관한 도면이며, 도 8은 Weighted Sum의 과정(Perceptron)을 도시한 도면이다.
도 9a는 Activation Function: Sigmoid에 관한 도면이며, 도 9b는 Activation Function: tanh에 관한 도면이며, 도 9c는 Activation Function: ReLU에 관한 도면이다.
도 10은 Neural Network의 Forward propagation 과정에 관한 도면이며, 도 11은 Neural Network의 Back propagation 과정에 관한 도면이다.
도 12는 2차원공간에서 특성 값이 2개인 2차원 벡터를 표현한 그림이다.
도 13은 자동차 구매를 Decision Tree로 표현한 예이다.
도 14는 Classifier의 예에 관한 도면이다.
도 15는 C4.5의 예에 관한 도면이다.
도 16은 Convolutional Neural Network의 예(Alex Net)에 관한 도면이다.
도 17은 Max-pooling의 예에 관한 도면이다.
도 18은 ReLU Function의 예에 관한 도면이다.
도 19는 Dropout의 예에 관한 도면이다.
도 20은 Normal Ensemble Model의 일 예를 도시한 도면이다.
도 21은 Regression Model의 일 예를 도시한 도면이다.
도 22는 Function Concatenate Model의 일 예를 도시한 도면이다.
도 23은 LSTM Model의 일 예를 도시한 도면이다.
도 24는 기초 학습 데이터의 일 예를 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따른 학습 데이터 전처리 방법을 개략적으로 도시한 흐름도이다.
도 26은 도 25의 S200단계를 보다 구체적으로 도시한 흐름도이다.
도 27은 도 25의 S300단계를 보다 구체적으로 도시한 흐름도이다.
도 28은 본 발명의 일 실시예에 따른 학습 데이터 전처리 시스템의 개략적인 구조를 도시한 블록도이다.
1. Train 데이터에 대하여 다음 수식을 각각 적용한다. (Feature scaling) (z-score normalization) (Median and Median Absolute Deviation) 2. 1의 결과에 각각 다음의 함수를 적용한다. (a는 1의 결과들의 각 instance) 3. 2의 결과를 label을 기준으로 bad class와 good class로 분류한다. 4. 3에서 분류한 데이터 각각의 feature histogram 작성 두 그룹별 히스토그램 사이의 Euclidean distance 측정 5. d가 큰 3의 결과를 취함 |
각 feature별로 good class와 bad class를 동일 조건으로 계산한다. 두 히스토그램 사이의 Euclidean distance 측정 Euclidean distance가 threshold 이상인 feature만을 남기고, 이하인 것은 noise feature로 간주하여 제거한다. 유의미하다고 판단된 feature만을 이용하여 학습 알고리즘에 적용한다. |
추징 금액 기준 하위 15%인 instance의 label을 0, 나머지를 1로 분리. Label이 0인 instance들과 1인 instance의 distance를 구한다. , : label이 0인 번째 instance, : label이 1인 instance, 번째 feature값 |
Input: : training set, : number of synthetic features : number of base learners : features acceptance threshold Output: :set of base learners for do Train using ; Remove features from for which ; Estimate from model ; for do for do Sample features and ; Generate new features ; operation from {+, -, *, /} Extend with new values of end end end return |
Claims (10)
- 학습 데이터 전처리 시스템이, 머신(machine)을 학습하는데 이용되는 N개의 기초 학습 데이터(N은 2이상의 정수)를 획득하는 단계-여기서 상기 기초 학습 데이터 각각은, 제1특징 내지 제M특징(M은 2이상의 정수) 각각에 상응하는 M개의 특징값 및 레이블로 구성됨; 및
상기 학습 데이터 전처리 시스템이, 1<=m<=M인 각각의 정수 m에 대하여, 상기 제m특징에 상응하는 정규화 기법을 선택하는 단계를 포함하되,
상기 제m특징에 상응하는 정규화 기법을 선택하는 단계는,
1<=k<=K인 각각의 정수 k에 대하여,
상기 N개의 기초 학습 데이터 각각의 제m특징값(여기서 제m특징값은 제m특징에 상응하는 특징값임)에 미리 정의된 제k정규화 기법을 적용하여 상기 기초 학습 데이터의 제m특징값에 상응하는 제k정규화값을 생성하는 단계;
1<=k<=K인 각각의 정수 k에 대하여,
상기 N개의 기초 학습 데이터 각각의 제m특징에 상응하는 제k정규화값을 그에 상응하는 기초학습 데이터의 레이블에 기초하여 제1클래스 또는 제2클래스로 분류하고, 분류한 제1클래스 및 제2클래스의 히스토그램 간 거리를 측정하여 제k정규화 기법에 대응되는 제k거리값을 생성하는 단계; 및
제1정규화 기법 내지 제K정규화 기법 중 어느 하나인 제w정규화 기법을 상기 제m특징에 상응하는 정규화 기법으로 선택하는 단계-여기서, w는 1<=w<=K인 정수이며, 제w거리값이 제1거리값 내지 제K거리값 중 최대값임-를 포함하는 학습 데이터 전처리 방법.
- 제1항에 있어서,
상기 학습 데이터 전처리 시스템이, 1<=n<=N인 각각의 정수 n에 대하여, 제n번째 기초 학습 데이터 각각에 상응하는 전처리된 학습데이터를 생성하는 단계를 더 포함하되,
상기 제n번째 기초 학습 데이터 각각에 상응하는 전처리된 학습데이터를 생성하는 단계는,
1<=m<=M인 각각의 정수 m에 대하여, 상기 제n번째 기초 학습 데이터의 제m특징값에 제m특징에 상응하는 정규화 기법을 적용하는 단계를 포함하는 학습 데이터 전처리 방법.
- 제1항에 있어서,
상기 제1정규화 기법 내지 상기 제K정규화 기법 각각은, 복수의 변환함수 중 어느 하나와 복수의 정규화 함수 중 어느 하나를 합성한 합성 함수에 의해 표현되며, 상기 복수의 변환 함수는 S-shaped curve 성질을 가지는 함수 또는 구간(0,∞)에서 함수값은 증가하고 미분값은 감소하는 성질을 가지는 함수인 것을 특징으로 하는 학습 데이터 전처리 방법.
- 삭제
- 제3항에 있어서,
상기 복수의 변환 함수는 sigmoid 함수, hyperbolic tangent 함수, 하기 [수식]에 의해 표현되는 적어도 하나의 tf(y)를 포함하는 학습 데이터 전처리 방법.
[수식] tf(y) = log(αh×y+βh) (여기서, h는 1<=h<=H인 각각의 정수(H는 1이상의 정수)이며 αh 및 βh 는 미리 정의된 상수임)
- 제1항에 있어서,
제k거리값은, 분류된 제1클래스 및 제2클래스의 히스토그램 간의 유클리드 거리(Euclidean distance)인 것을 특징으로 하는 학습 데이터 전처리 방법.
- 데이터 처리 장치에 설치되어, 제1항 내지 제3항 및 제5항 내지 제6항 중 어느 한 항에 기재된 방법을 수행하기 위한 컴퓨터 프로그램.
- 학습 데이터 전처리 시스템으로서,
프로세서; 및
컴퓨터 프로그램을 저장한 메모리를 포함하되,
상기 컴퓨터 프로그램은 상기 프로세서에 의해 실행되는 경우, 상기 학습 데이터 전처리 시스템이 제1항 내지 제3항 및 제5항 내지 제6항 중 어느 한 항에 기재된 방법을 수행하도록 하는 학습 데이터 전처리 시스템.
- 머신(machine)을 학습하는데 이용되는 N개의 기초 학습 데이터(N은 2이상의 정수)를 획득하는 획득모듈-여기서 상기 기초 학습 데이터 각각은, 제1특징 내지 제M특징(M은 2이상의 정수) 각각에 상응하는 M개의 특징값 및 레이블로 구성됨; 및
1<=m<=M인 각각의 정수m에 대하여, 상기 제m특징에 상응하는 정규화 기법을 선택하는 제어모듈을 포함하되,
상기 제어모듈은, 상기 제m특징에 상응하는 정규화 기법을 선택하기 위하여,
1<=k<=K인 각각의 정수 k에 대하여,
상기 N개의 기초 학습 데이터 각각의 제m특징값(여기서 제m특징값은 제m특징에 상응하는 특징값임)에 미리 정의된 제k정규화 기법을 적용하여 상기 기초 학습 데이터의 제m특징값에 상응하는 제k정규화값을 생성하고,
1<=k<=K인 각각의 정수 k에 대하여,
상기 N개의 기초 학습 데이터 각각의 제m특징에 상응하는 제k정규화값을 그에 상응하는 기초학습 데이터의 레이블에 기초하여 제1클래스 또는 제2클래스로 분류하고, 분류한 제1클래스 및 제2클래스의 히스토그램 간 거리를 측정하여 제k정규화 기법에 대응되는 제k거리값을 생성하고,
제1정규화 기법 내지 제K정규화 기법 중 어느 하나인 제w정규화 기법을 상기 제m특징에 상응하는 정규화 기법으로 선택하는-여기서, w는 1<=w<=K인 정수이며, 제w거리값이 제1거리값 내지 제K거리값 중 최대값임-학습 데이터 전처리 시스템.
- 제9항에 있어서,
1<=n<=N인 각각의 정수 n에 대하여, 제n번째 기초 학습 데이터 각각에 상응하는 전처리된 학습데이터를 생성하는 전처리모듈을 더 포함하되,
상기 전처리모듈은, 상기 제n번째 기초 학습 데이터 각각에 상응하는 전처리된 학습데이터를 생성하기 위하여,
1<=m<=M인 각각의 정수 m에 대하여, 상기 제n번째 기초 학습 데이터의 제m특징값에 제m특징에 상응하는 정규화 기법을 적용하는 학습 데이터 전처리 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170053513 | 2017-04-26 | ||
KR1020170053513 | 2017-04-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180120056A KR20180120056A (ko) | 2018-11-05 |
KR102077804B1 true KR102077804B1 (ko) | 2020-04-07 |
Family
ID=64329309
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170111693A KR102077804B1 (ko) | 2017-04-26 | 2017-09-01 | 학습 데이터 전처리 방법 및 시스템 |
KR1020170115648A KR102005628B1 (ko) | 2017-04-26 | 2017-09-11 | 학습 데이터 전처리 방법 및 시스템 |
KR1020170138261A KR102022776B1 (ko) | 2017-04-26 | 2017-10-24 | 인공 신경망 모델 학습 방법 및 딥 러닝 시스템 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170115648A KR102005628B1 (ko) | 2017-04-26 | 2017-09-11 | 학습 데이터 전처리 방법 및 시스템 |
KR1020170138261A KR102022776B1 (ko) | 2017-04-26 | 2017-10-24 | 인공 신경망 모델 학습 방법 및 딥 러닝 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102077804B1 (ko) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102271449B1 (ko) * | 2018-11-17 | 2021-07-01 | 한국과학기술정보연구원 | 인공지능 모델 플랫폼 및 인공지능 모델 플랫폼 운영 방법 |
KR102175187B1 (ko) | 2018-12-26 | 2020-11-06 | 한국건설기술연구원 | 복합재난 취약 건축물의 보강전략을 위한 구조성능 데이터베이스 구축 시스템 및 그 방법 |
KR102689867B1 (ko) * | 2019-01-07 | 2024-07-31 | 에스케이플래닛 주식회사 | 신경망 기반 센서 이상 감지를 위한 서비스 제공 시스템 및 방법, 그리고 컴퓨터 프로그램이 기록된 비휘발성 기록매체 |
KR102720625B1 (ko) * | 2019-01-07 | 2024-10-23 | 에스케이플래닛 주식회사 | 신경망 모델을 이용한 센서 이상 감지를 위한 서비스 제공 시스템 및 방법, 그리고 컴퓨터 프로그램이 기록된 비휘발성 기록매체 |
KR102471514B1 (ko) * | 2019-01-25 | 2022-11-28 | 주식회사 딥바이오 | 뉴런-레벨 가소성 제어를 통해 파국적인 망각을 극복하기 위한 방법 및 이를 수행하는 컴퓨팅 시스템 |
KR20200094577A (ko) * | 2019-01-30 | 2020-08-07 | 주식회사 모비스 | 인공신경망 시뮬레이터와 강화학습 제어기를 사용한 실시간 가속기 제어 시스템 |
KR102005952B1 (ko) * | 2019-02-13 | 2019-10-01 | 이승봉 | 기계학습 모델링에서 잡음 데이터 제거를 위한 데이터 정제 장치 및 방법 |
KR102085010B1 (ko) * | 2019-02-26 | 2020-03-05 | 광주과학기술원 | 무선전력전송 시스템용 형상 설계 시스템 및 방법 |
KR102096737B1 (ko) * | 2019-03-28 | 2020-04-02 | 한국과학기술원 | 저밀도 패리티 검사 부호를 활용한 고장 방지 능력을 갖춘 분산 기계 학습 방법 및 그 장치 |
KR102245717B1 (ko) * | 2019-05-14 | 2021-04-28 | 카페24 주식회사 | 인공지능 모델을 이용한 상품 판매량 예측 방법, 장치 및 시스템 |
KR102461731B1 (ko) | 2019-07-12 | 2022-11-01 | 한국전자통신연구원 | 변수 간 상관관계를 바탕으로 기계학습을 수행하는 장치 및 방법 |
US11562236B2 (en) * | 2019-08-20 | 2023-01-24 | Lg Electronics Inc. | Automatically labeling capability for training and validation data for machine learning |
US11720818B2 (en) | 2019-09-11 | 2023-08-08 | Samsung Display Co., Ltd. | System and method to improve accuracy of regression models trained with imbalanced data |
KR102303111B1 (ko) | 2019-11-19 | 2021-09-17 | 충북대학교 산학협력단 | 기계학습 기반 소프트웨어의 학습데이터 품질 평가 방법 |
KR102700495B1 (ko) * | 2019-12-24 | 2024-08-30 | 한국전력공사 | 머신러닝을 이용한 밸브 스틱션 진단 장치 및 그 방법 |
KR102339715B1 (ko) * | 2020-01-17 | 2021-12-14 | 한림대학교 산학협력단 | 산업용 사물인터넷(IIoT) 환경에서의 고장 예측 모델 획득을 위한 전처리 방법, 피처의 중요도 측정 방법 및 피처 선택 방법, 장치 및 프로그램 |
KR102395564B1 (ko) * | 2020-02-13 | 2022-05-10 | 주식회사 루닛 | 데이터의 전향적 전처리 장치 및 그 방법 |
KR102352036B1 (ko) * | 2020-04-28 | 2022-01-18 | 이진행 | 확률적 경사 하강법을 이용한 변수 선택 장치 및 방법 |
KR102180077B1 (ko) * | 2020-04-29 | 2020-11-17 | 주식회사 일루베이션 | 3d 영상을 기반으로한 가축 무게 추정 애플리케이션을 활용한 가축 무게 추정 시스템과, 이를 이용한 가축 무게 추정 방법 |
KR102308456B1 (ko) * | 2020-09-25 | 2021-10-05 | 서울대학교산학협력단 | 라이다 및 카메라 수집정보 기반 수종탐지 시스템 및 이를 이용한 수종탐지방법, 수종탐지방법을 수행하는 프로그램이 수록된 기록매체 |
KR102612004B1 (ko) * | 2020-11-10 | 2023-12-08 | 다겸 주식회사 | 마케팅 정보 제공 방법 및 마케팅 정보 제공 장치 |
KR102321735B1 (ko) * | 2020-11-27 | 2021-11-04 | 부산대학교 산학협력단 | 다차원의 부분집합 연관 분석에 기반한 인공지능 학습 데이터셋 공정성을 보장하는 장치 및 이를 이용한 인공지능 학습 데이터셋 공정성을 보장하는 방법 |
KR20220080509A (ko) | 2020-12-07 | 2022-06-14 | (주)Yh데이타베이스 | 뉴럴 네트워크 기법을 이용한 학습레이어의 동적 관리가 가능한 웹 콘솔 시스템 |
KR102472848B1 (ko) * | 2021-01-07 | 2022-12-01 | (주)한국아이티에스 | 학습 알고리즘을 이용한 비침습적 당화혈색소 측정 방법 및 장치 |
US20220276143A1 (en) * | 2021-02-26 | 2022-09-01 | Saudi Arabian Oil Company | Method and system for automatic evaluation of cutting element during wear test |
KR102460859B1 (ko) * | 2022-04-01 | 2022-11-01 | 신용보증기금 | 자동화 기반의 지식재산가치 평가시스템 |
KR102496685B1 (ko) * | 2022-06-07 | 2023-02-08 | 주식회사 판옵티콘 | 뉴럴 네트워크를 이용하여 아기의 주변 환경을 조절하는 방법 및 장치 |
KR20240050735A (ko) | 2022-10-12 | 2024-04-19 | 고려대학교 산학협력단 | 대조적 학습을 이용한 어휘 의미망 관계 이해 및 단어 중의성 해소 방법 및 장치 |
KR20240080932A (ko) | 2022-11-30 | 2024-06-07 | 고려대학교 산학협력단 | 손실 조정을 이용한 벤치마크 데이터 셋의 강건성 분석 장치 및 방법 |
KR102734899B1 (ko) * | 2024-01-08 | 2024-11-29 | 주식회사 정우마루 | 인공지능 학습용 금융 합성데이터 생성 시스템 |
CN117610891B (zh) * | 2024-01-22 | 2024-04-02 | 湖南小翅科技有限公司 | 一种基于大数据的灵活用工接单与风险控制系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011150626A (ja) | 2010-01-25 | 2011-08-04 | Ihi Corp | 画像分類方法、装置、及びプログラム |
JP2015099616A (ja) | 2015-02-26 | 2015-05-28 | カシオ計算機株式会社 | 多クラス識別器生成装置、データ識別装置、多クラス識別器生成方法、データ識別方法、及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101749925B1 (ko) * | 2012-12-05 | 2017-06-23 | 한화테크윈 주식회사 | 영상 처리 방법 및 장치 |
KR20160096460A (ko) * | 2015-02-05 | 2016-08-16 | 삼성전자주식회사 | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 |
KR102449837B1 (ko) * | 2015-02-23 | 2022-09-30 | 삼성전자주식회사 | 신경망 학습 방법 및 장치, 및 인식 방법 및 장치 |
-
2017
- 2017-09-01 KR KR1020170111693A patent/KR102077804B1/ko active IP Right Grant
- 2017-09-11 KR KR1020170115648A patent/KR102005628B1/ko active IP Right Grant
- 2017-10-24 KR KR1020170138261A patent/KR102022776B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011150626A (ja) | 2010-01-25 | 2011-08-04 | Ihi Corp | 画像分類方法、装置、及びプログラム |
JP2015099616A (ja) | 2015-02-26 | 2015-05-28 | カシオ計算機株式会社 | 多クラス識別器生成装置、データ識別装置、多クラス識別器生成方法、データ識別方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR102005628B1 (ko) | 2019-07-30 |
KR102022776B1 (ko) | 2019-09-19 |
KR20180120056A (ko) | 2018-11-05 |
KR20180120057A (ko) | 2018-11-05 |
KR20180120061A (ko) | 2018-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102077804B1 (ko) | 학습 데이터 전처리 방법 및 시스템 | |
CN110263227B (zh) | 基于图神经网络的团伙发现方法和系统 | |
Yu et al. | A bearing fault and severity diagnostic technique using adaptive deep belief networks and Dempster–Shafer theory | |
Chang et al. | Trend discovery in financial time series data using a case based fuzzy decision tree | |
Firouzi et al. | Machine learning for IoT | |
Sarang | Thinking Data Science | |
Ertel et al. | Machine learning and data mining | |
US20200219008A1 (en) | Discrete learning structure | |
Shanthamallu et al. | Introduction to machine learning | |
Ramasubramanian et al. | Machine learning theory and practices | |
Gupta et al. | Machine learning algorithms | |
Guyon | A practical guide to model selection | |
Pandey et al. | Overview of machine learning and deep learning concepts | |
Arumugam et al. | Performance evaluation of machine learning and deep learning techniques: a comparative analysis for house price prediction | |
Talukdar et al. | Supervised Learning | |
Korade et al. | Identification of appropriate machine learning algorithm to predict wine quality | |
De Veaux et al. | Machine Learning methods for computational social science | |
Isakova | Application of machine learning algorithms for classification and regression problems for mobile game monetization | |
Hodeghatta et al. | Supervised Machine Learning—Classification | |
Behl et al. | Machine learning classifiers | |
Renugadevi et al. | Machine Learning Fundamentals | |
Muddana et al. | Python for Machine Learning | |
US20250035741A1 (en) | Generative model for generating synthetic radar data | |
Rafatirad et al. | Supervised Learning | |
Chaudhari et al. | Introduction to Machine Learning and its Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170901 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20181030 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20190508 Patent event code: PE09021S02D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20191106 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200210 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200211 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240214 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20250211 Start annual number: 6 End annual number: 6 |